- Ridge Regression (Tikhonov regularization)
- Lasso Regression
を考えて
の列ベクトルが張る空間への射影行列をやりましたね。ここでが正則ということなのでもう一歩踏み込みQR分解を行います。つまり
を使うと
とできます。わかったことは の列ベクトルが張る空間への射影行列がとなるということ。超シンプル。これが線形回帰。で、これに正則化項を加えます。つまりに対して
を考えます。これをリッジ回帰というのでしたね。ラッソは正則化項を使います。
違いは?
正則化項のノルムです。との違いは?もう少し親しみある言い方だと距離と絶対値の違いは?Answer: 微分可能性
は微分できませんね。前回の図を思い出してください。は尖っていました。 勾配法は微分を使いましたね。なので一旦ラッソは無視してリッジについて学びましょう。 次の解を考えます。ただし「アーグミン」は右辺を最小化するときのということ。これを展開し、微分すると
これが欲しかったですね。さっきのと似てませんか?邪魔なのはの項。なのでここでとするとさっきのと同じになります。だって元々のコスト関数の正則化項が0になるわけですからね。
、これ意味ある?
ここでは半正定値対称行列であり、実数値からなる対称行列は実数の固有値を持ちます。よっての固有値は0以上。行列式を計算して見よう。
これをについて解くとの固有値が求まりますね。そこでその固有値の一つをとするとリッジ回帰における固有値はとなり、分シフトされていますね。つまり、行列式をゼロから遠ざけており正則をキープしてくれています。 逆にとするととなってしまいますね。これもまずい。
をどうやって決めるか
これが問題ですね。これは交差検証で選ばれます。交差検証ってなんやあ??K-fold cross validation