ホーム » 機械学習 (ページ 6)

機械学習」カテゴリーアーカイブ

線形回帰とRidge回帰を数式からやる(理論編)

こんにちは。 正則化パート2ですね。前回の最後に Ridge Regression (Tikhonov regularization) Lasso Regression を例に出しました。今回はこれらを用いて正則化につい […]

Continue Reading →

過学習を防ぐトリック、正則化とは

こんにちは。 少し前に標準化・正規化についてお話ししました。これらは勾配法による学習の際に学習速度が速くなるというメリットがありました。では今回は 正則化とはなんぞや 名前が似てますね、ということは 勾配法に関係あり?学 […]

Continue Reading →

ねぇPython、Normality Testって何?(実装編)

こんにちは。 今回はNormality Testの実装です。前回の理論編で扱った一部を紹介します。使うデータはirisです。 View the code on Gist. 今回は Shapiro-Wilk Test D’ […]

Continue Reading →

ねぇPython、Normality Testって何?(理論編)

こんにちは。 パラメトリックですね っていいたくないですか?、とはいえそもそもパラメトリック・ノンパラメトリックとはなんぞや? Parametric test データの母集団のパラメータ、つまり特性についてなんらかの仮説 […]

Continue Reading →

ねぇPython、CNNって何?(理論編 Part-1)

本日からはニューラルネットワークweek。最新のものまで突っ走りましょう。 てゆーか、ニューラルネットワークってなんだったっけ? 入出力数とか層数などは気にせずこんな風にニューロンを使った関数がニューラルネットワークでし […]

Continue Reading →

ねぇPython、PCAって何?(実装編+)

こんにちは。では前回の内容を踏まえて空間を変えないPCAを行いましょう。今回使うのは 顔のデータ 各次元4096で400サンプル。これを空間を保ち64次元に落とす。つまり4096次元の空間で64本の固有ベクトルがはる空間 […]

Continue Reading →

ねぇPython、PCAって何?(理論編+2)

こんにちは。前回、射影行列を学びました。次元ベクトルを考えよう。行列の列ベクトルが作る空間の中でもっともに近いものはという形で表された。ただし、は縦ベクトルとすると (1)   となりこれがもっともに近いヤツで […]

Continue Reading →

ねぇPython、PCAって何?(理論編+1)

こんにちは。理論編で主成分分析についてはみなさん理解できたと思います。が。本日は少し応用です。 とりあえず復習から始めましょう。 PCAは固有ベクトルへの射影 そうです。たとえば400次元から2次元へのPCAは固有値を大 […]

Continue Reading →