ホーム » 機械学習 (ページ 4)

機械学習」カテゴリーアーカイブ

機械学習といえば、EMアルゴリズム

こんにちは。 本日はEMアルゴリズムについてお話ししようと思います。「EMアルゴリズム?」と思った方へ先に簡単に紹介すると Expectation-Maximization Algorithm の略で、潜在変数(Z)を用 […]

Continue Reading →

Kernel-KmeansのNumpy実装

こんにちは。 本日は実装です。カーネルk平均法を実装します。言語はいつも通りPythonです。 Kernel K-meansとは? 非線形データのクラスタリング手法のです。前回紹介したカーネルトリックを用いてデータを高次 […]

Continue Reading →

GLM(一般化線形回帰)をPythonでやる(Poisson)

こんにちは。 今回はたまに聞くであろうGLM、すなわち、一般化線形回帰についてです。回帰といえば今まで線形回帰とかちょろっとやりました。せっかくなので回帰についてちょっとだけ復習してから本題に入りましょう。 上のデータを […]

Continue Reading →

Kernel Trickについて

こんにちは。 今回はカーネルについてです。カーネルといえば次元削減がもっともポピュラーな関連ワードなんじゃないでしょうか。なぜカーネルなのか、どうやって働いているのか、について少し考察してみます。 そもそもカーネルとはな […]

Continue Reading →

KLとNLLの関係とか

こんにちは。 本日はカルバックライブラーを噛み砕いてみて行こうと思います。前回エントロピーについての記事を書いたのでそっちを一読してからまたはこっちを読んでからあっちを読めば理解が深まるかと思います。ひとまず、定義を、Q […]

Continue Reading →

エポックとかミニバッチとかSGDとか

こんにちは。 今回は、機械学習をやってるならば必ず出会う mini-batch epoch iteration SGD あたりを中心に説明していこうと思います。 まずはズバッと定義をリストアップします。 mini-bat […]

Continue Reading →

エントロピーとKLについて

こんにちは。 本日は前回話したKLについてと基本となるエントロピーについてお話しします。とりあえずエントロピーから行きましょう。 Entropy (information theory) エントロピーって物理でも使われる […]

Continue Reading →

AICとBIC?情報量基準とは?

こんにちは。 前回、モデルを選択する基準のところで情報量基準という言葉をちょこっと出して、そのままスルーしました。しかし、データ分析においては重要なのでとりあえずその基礎くらいは知っておきましょう。ちなみにコードを書く際 […]

Continue Reading →