ホーム » 機械学習 (ページ 3)
「機械学習」カテゴリーアーカイブ
ベイジアン入門 ベイズ推定
こんにちは。 前回、MAP推定までやりました。 しかしプロットもコードも書かなかったのでMAP推定をプロットするところからはじめます。復習がてらにね この青いプロットは今回のテーマであるベイズ推定です。まぁそれは置いてお […]
尤度からMAP推定まで
こんにちは。 本日は機械学習の基本である尤度からパラメータ推定の基本であるMAP推定について話します。ベイズ推定やMCMCは次回以降になります。 ちなみに、KLや最小二乗法にまつわる話もします。 尤度と確率の違い これ僕 […]
多変量ガウスの標準化と特異値分解について
こんにちは。 標準化は機械学習において非常に重要な概念です。スケール統一のためや学習速度の向上を目的に使われます。そこで今回は多変量ガウス分布の標準化などをやっていこうと思います。数式やいろんな公式が現れますが知らないも […]
なぜKLを最小化するのか?
こんにちは。 本日は機械学習をやっていると必ず出てくるカルバックライブラーダイバージェンスについてです。分布間の似通いを測るこの指標を最小化したい!ということがよくあります。しかし、それはクロスエントロピー最小化と同値関 […]
PythonでBayesian PCAの実装に失敗した話
こんにちは。 本日はいつものように「実装しましたぁ」ではなく、「実装に失敗しましたぁ」という話になります。 https://papers.nips.cc/paper/1549-bayesian-pca.pdf こちらが論 […]
SVM実装の際に困った双対とは
こんにちは。 SVMのNumpy実装が非常に難しいです。SMOというアルゴリズムが主流で他には単一法などがあるようですが難しすぎます。そこで僕は下界または上界を最適化、勾配法でやろうと思っているのですがうまくいかずずっと […]
Softmaxを数式から実装まで
こんにちは。 本日は待ちに待ったソフトマックス回帰の実装です。ロジスティックの兄さんのような存在のロジスティック。出力が確率の多値分類になっただけです。この記事では数式をゴリゴリ計算していこうと思います。 Softmax […]
ロジスティック回帰を数式から
こんにちは。 本日はロジスティック回帰の実装をやっていこうと思います。といっても非常に簡単なニューラルネットなのでやらなくてもいいかなと思ったのですが、いきなりSoftmaxを実装するのもアレなのでまずは簡単なこちらから […]