本日はカルバックライブラーを噛み砕いてみて行こうと思います。前回エントロピーについての記事を書いたのでそっちを一読してからまたはこっちを読んでからあっちを読めば理解が深まるかと思います。ひとまず、定義を、Qから見たPのKL距離は
対数の部分を分けると
初項がシャノンのエントロピー、第二項がクロスエントロピーです。ここで、を私たちのパラメータを持つモデルの分布、を真の分布、つまりデータの分布とします。すると、初項はに依存しません、つまり定数になります。私たちは本当の分布に自分のモデルが似るように学習を行います。つまりKLの最小化が目的になります。次に、のデータ数をとします。すると対数の法則より、(大数の法則はデータ数が多ければ期待値が平均と一致するという定理)
とできます、つまり、に関する期待値として第二項を置き換えたのち対数の法則により平均に置き換えることができます。そして
と書きます。一般的にnegative-log-likelihoodと言います、つまり、KLの最小化はNLLの最小化と同値であることがわかりました。
では、ここで出るであろう疑問として、
- KL minimization
- NLL minimization
では、KLとNLLはこのくらいにしてKLの上位互換のような距離について軽く見てみましょう。振り返ると、KLは厳密な距離ではないのでした。それは距離の定義を満たさないからです、具体的には以下の
対称性を満たさないからでした。さらには三角不等式も満たしません。よって、数学の世界ではあまり好ましくないこのKL、どうにか距離として扱えないのか、といういことでひとまず、
とします、こうすることで対称性は解決しました。しかし、三角不等式は解決されません、、そこで生み出されたのがBhattacharyya distanceというものです。
しかし、これが実際に使われているところはまだみたことないんですよね。。調べてみました。すると では音素分布間の距離を測るときに使われていました。他にはOpenCVでヒストグラムの似通いを計算する際に使われていました。
では最後にベーシックなKLの計算を確認して終わりましょう。まずは記号についての説明から
ではBの計算から