ホーム » junko.hosoda の投稿 (ページ 4)
作者アーカイブ: junko.hosoda
MCMC入門 Gibbs Sampling
こんにちは。 本日はついにMCMCです。ベイズ推定とMAP推定がまだの方は次のリンクからどうぞ。 ギブスサンプリングをやっていくんですけど、その前にMCMCについて簡単に説明します。本当に簡単にです。 MCMC マルコフ […]
Poisson分布とBinomial分布とその関係
こんにちは。 皆さんご存知の線形回帰ありますよね。で、あれの発展で一般化線形回帰を昔おこないました。 初耳の方は次の動画が非常に参考になります。 で、一般化線形回帰ってなんなのか?を簡単に思い出すと、回帰したいデータが正 […]
ベイジアン入門 ベイズ推定
こんにちは。 前回、MAP推定までやりました。 しかしプロットもコードも書かなかったのでMAP推定をプロットするところからはじめます。復習がてらにね この青いプロットは今回のテーマであるベイズ推定です。まぁそれは置いてお […]
尤度からMAP推定まで
こんにちは。 本日は機械学習の基本である尤度からパラメータ推定の基本であるMAP推定について話します。ベイズ推定やMCMCは次回以降になります。 ちなみに、KLや最小二乗法にまつわる話もします。 尤度と確率の違い これ僕 […]
位相空間論の基礎まとめ
こんにちは。kzです。 前回、集合論をまとめました。今回は位相空間論です。この分野は機械学習に密接に関係しているものになります。例えば Reproducing Hilbert Space Dimension Reduct […]
集合論の基礎まとめ
こんにちは。kzです。 今まで数学に触れつつ機械学習を中心に書いてきましたが、おそらく読者さんは数学科の方ではないと思うのでアルゴリズムの記事をみて、数学書を読もうとした方が本を買ってから後悔しないように、大学一年で習う […]
多変量ガウスの標準化と特異値分解について
こんにちは。 標準化は機械学習において非常に重要な概念です。スケール統一のためや学習速度の向上を目的に使われます。そこで今回は多変量ガウス分布の標準化などをやっていこうと思います。数式やいろんな公式が現れますが知らないも […]
なぜKLを最小化するのか?
こんにちは。 本日は機械学習をやっていると必ず出てくるカルバックライブラーダイバージェンスについてです。分布間の似通いを測るこの指標を最小化したい!ということがよくあります。しかし、それはクロスエントロピー最小化と同値関 […]