こんにちは。
本日はカルバックライブラーを噛み砕いてみて行こうと思います。前回エントロピーについての記事を書いたのでそっちを一読してからまたはこっちを読んでからあっちを読めば理解が深まるかと思います。ひとまず、定義を、Qから見たPのKL距離は
![Rendered by QuickLaTeX.com \[ K L(P | Q)=\sum_{x} P(x) \log \frac{P(x)}{Q(x)}\]](https://research.miidas.jp/wp-content/ql-cache/quicklatex.com-04484005895d904caee53fc171b49dc5_l3.png)
対数の部分を分けると
![Rendered by QuickLaTeX.com \[ K L(P | Q)=\sum_{x} P(x) \log{P(x)} - P(x) \log{Q(x)}\]](https://research.miidas.jp/wp-content/ql-cache/quicklatex.com-4851409b21740f4856c658d5bb48dad4_l3.png)
初項がシャノンのエントロピー、第二項がクロスエントロピーです。ここで、

を私たちのパラメータ

を持つモデルの分布、

を真の分布、つまりデータの分布とします。すると、初項は

に依存しません、つまり定数になります。私たちは本当の分布に自分のモデルが似るように学習を行います。つまりKLの最小化が目的になります。次に、

のデータ数を

とします。すると対数の法則より、(大数の法則はデータ数が多ければ期待値が平均と一致するという定理)
![Rendered by QuickLaTeX.com \[ -E_{x \sim P\left(X\right)}[\log Q(X)] \approx -\frac{1}{N} \sum_{i}^{N} \log P\left(x_{i}) \]](https://research.miidas.jp/wp-content/ql-cache/quicklatex.com-e15bdd46211408325c4bebca344d301f_l3.png)
とできます、つまり、

に関する期待値として第二項を置き換えたのち対数の法則により平均に置き換えることができます。そして
![Rendered by QuickLaTeX.com \[\frac{1}{N} NLL = - \frac{1}{N} \sum_{i}^{N} \log P\left(x_{i}) \]](https://research.miidas.jp/wp-content/ql-cache/quicklatex.com-ebacb13823d7e2d7b0c6688bd22758fc_l3.png)
と書きます。一般的にnegative-log-likelihoodと言います、つまり、KLの最小化はNLLの最小化と同値であることがわかりました。
では、ここで出るであろう疑問として、
- KL minimization
- NLL minimization
のどちらも同じなんじゃないのか?どう違うのか?などがあります。計算コストを考えるとNLLを計算すればいいと思うのですがより深く知るには情報理論が密接に関わってくるようです。この話は機械学習を数式の方から読むときに必要となる知識なのであまり身近ではないかもしれません。
では、KLとNLLはこのくらいにしてKLの上位互換のような距離について軽く見てみましょう。振り返ると、KLは厳密な距離ではないのでした。それは距離の定義を満たさないからです、具体的には以下の
![Rendered by QuickLaTeX.com \[ d(x, y)=d(y, x)\]](https://research.miidas.jp/wp-content/ql-cache/quicklatex.com-d003752afdffd612874e55564ada5249_l3.png)
対称性を満たさないからでした。さらには三角不等式も満たしません。よって、数学の世界ではあまり好ましくないこのKL、どうにか距離として扱えないのか、といういことでひとまず、
![Rendered by QuickLaTeX.com \[ SKL(P, Q) :=KL(P | Q)+K L(Q | P)\]](https://research.miidas.jp/wp-content/ql-cache/quicklatex.com-99b26ad97786c8e3c8cbf18d3dcf9132_l3.png)
とします、こうすることで対称性は解決しました。しかし、三角不等式は解決されません、、そこで生み出されたのがBhattacharyya distanceというものです。
![Rendered by QuickLaTeX.com \[ \begin{array}{c}{D_{B}(p, q)=-\ln (B C(p, q))} \end{array} \begin{array}{c}{B C(p, q)=\sum_{x \in X} \sqrt{p(x) q(x)}}\end{array}\]](https://research.miidas.jp/wp-content/ql-cache/quicklatex.com-3a33c4d02bd61059d1ffae639bc039ca_l3.png)
しかし、これが実際に使われているところはまだみたことないんですよね。。調べてみました。すると
では音素分布間の距離を測るときに使われていました。他にはOpenCVでヒストグラムの似通いを計算する際に使われていました。
では最後にベーシックなKLの計算を確認して終わりましょう。まずは記号についての説明から
![Rendered by QuickLaTeX.com \[KL(p | q) = \overbrace{- \int p(x)\log q(x) dx}^{A} + \overbrace{\int p(x)\log p(x) dx}^{B}\]](https://research.miidas.jp/wp-content/ql-cache/quicklatex.com-22d016aa9dd37fc29d08a56ed1201788_l3.png)
ではBの計算から
![Rendered by QuickLaTeX.com \[B = \int_{-\infty}^\infty \frac{1}{(2\pi\sigma_1^2)^{1/2}}\exp(-\frac{(x-\mu_1)^2}{2\sigma_1^2}) \log \left[ \frac{1}{(2\pi\sigma_1^2)^{1/2}}\exp(-\frac{(x-\mu_1)^2}{2\sigma_1^2}) \right] dx\]](https://research.miidas.jp/wp-content/ql-cache/quicklatex.com-2c7a95ec90579f2b1e1cfee5a107e8af_l3.png)
![Rendered by QuickLaTeX.com \[= -\frac{1}{2}\log(2\pi\sigma_1^2)\int_{-\infty}^\infty \frac{1}{(2\pi\sigma_1^2)^{1/2}}\exp(-\frac{(x-\mu_1)^2}{2\sigma_1^2})dx <div>-\frac{1}{2\sigma_1^2} \int_{-\infty}^\infty \frac{1}{(2\pi\sigma_1^2)^{1/2}}(x-\mu_1)^2\exp(-\frac{(x-\mu_1)^2}{2\sigma_1^2}) dx\]](https://research.miidas.jp/wp-content/ql-cache/quicklatex.com-df3cb71c9c41745d100dfa1fafbd58bd_l3.png)