Kreuzentropie

Die Kreuzentropie ist in der Informationstheorie und der mathematischen Statistik ein Maß für die Qualität eines Modells für eine Wahrscheinlichkeitsverteilung. Eine Minimierung der Kreuzentropie in Bezug auf die Modellparameter kommt einer Maximierung der Log-Likelihood-Funktion gleich.

Definition

Sei X {\displaystyle X} eine Zufallsvariable mit Zielmenge Ω {\displaystyle \Omega } , die gemäß P {\displaystyle P} verteilt ist. Es sei weiter Q {\displaystyle Q} eine Verteilung auf demselben Ereignisraum.

Dann ist die Kreuzentropie definiert durch:

H ( X ; P ; Q ) = H ( X ) + D ( P Q ) {\displaystyle H(X;P;Q)=H(X)+D(P\Vert Q)}

Hierbei bezeichne H ( X ) {\displaystyle H(X)} die Entropie von X {\displaystyle X} und D ( P Q ) {\displaystyle D(P\|Q)} die Kullback-Leibler-Divergenz der beiden Verteilungen.

Äquivalente Formulierung

Durch Einsetzen der beiden Definitionsgleichungen H ( X ) = x X P ( x ) log P ( x ) {\displaystyle H(X)=-\sum _{x\in X}P(x)\log P(x)} und D ( P Q ) = x X P ( x ) log P ( x ) Q ( x ) {\displaystyle D(P\|Q)=\sum _{x\in X}P(x)\cdot \log {\frac {P(x)}{Q(x)}}} ergibt sich nach Vereinfachung im diskreten Fall

H ( X ; P ; Q ) = x Ω P ( X = x ) log Q ( X = x ) . {\displaystyle H(X;P;Q)=-\sum _{x\in \Omega }P(X=x)\cdot \log Q(X=x)\,.}

und im stetigen Fall (mit Dichtefunktionen p {\displaystyle p} und q {\displaystyle q} )

H ( X ; P ; Q ) = Ω p ( x ) log q ( x ) d x {\displaystyle H(X;P;Q)=-\int _{\Omega }p(x)\cdot \log q(x)\mathrm {d} x}

Schätzung

Zwar hat die Kreuzentropie eine vergleichbare Aussagekraft wie die reine Kullback-Leibler-Divergenz, erstere lässt sich jedoch auch ohne genaue Kenntnis von P {\displaystyle P} schätzen. In der praktischen Anwendung ist daher Q {\displaystyle Q} meist eine Approximation einer unbekannten Verteilung P {\displaystyle P} .

Nach obiger Gleichung gilt:

H ( X ; P ; Q ) = E P ( log Q ( X ) ) {\displaystyle H(X;P;Q)=E_{P}(-\log Q(X))} ,

wobei E {\displaystyle E} den Erwartungswert gemäß der Verteilung P {\displaystyle P} bezeichnet.

Sind nun x 1 ; ; x n Ω {\displaystyle x_{1};\dots ;x_{n}\in \Omega } Realisierungen von X P {\displaystyle X\sim P} , d. h. eine unabhängig und identisch gemäß P {\displaystyle P} verteilte Stichprobe. Dann ist der Stichprobenmittelwert ein erwartungstreuer Schätzer für die Kreuzentropie, welcher nach dem Gesetz der großen Zahlen konvergiert und seine Realisierung ist

H ^ ( Q ; n ) = 1 n i = 1 n log Q ( x i ) . {\displaystyle {\hat {H}}(Q;n)=-{\frac {1}{n}}\sum _{i=1}^{n}\log Q(x_{i}).}

Zusammenhang mit Log-Likelihood-Funktion

Siehe auch: Multinomiale logistische Regression

Gegeben sei ein Modell mit Parametern θ {\displaystyle \theta } und (Ausgabe-)Wahrscheinlichkeitsdichte q θ {\displaystyle q_{\theta }} welches die Wahrscheinlichkeitsdichte p d a t a {\displaystyle p_{\mathrm {data} }} annähern soll. Der wahre Wert der Parameter[1] θ {\displaystyle \theta } maximiert die erwartete Log-Likelihood-Funktion E [ log ( q θ ( x ) ) ] = Ω d x p d a t a ( x ) log q θ ( x ) = H ( X ; p d a t a , q θ ) . {\displaystyle E[\log(q_{\theta }(x))]=\int _{\Omega }dxp_{\mathrm {data} }(x)\log q_{\theta }(x)=-H(X;p_{\mathrm {data} },q_{\theta }).}

Diese Gleichungen können mithilfe von Stichproben genähert werden: E [ log ( q θ ( x ) ) ] E ^ n [ log q θ ( x ) ; p d a t a ] = 1 n i = 1 n log q θ ( x i ) = H ^ ( X ; p d a t a , q θ ) {\displaystyle E[\log(q_{\theta }(x))]\approx {\widehat {\mathbf {E} }}_{n}[\log q_{\theta }(x);p_{\mathrm {data} }]={\frac {1}{n}}\sum _{i=1}^{n}\log q_{\theta }(x_{i})=-{\hat {H}}(X;p_{\mathrm {data} },q_{\theta })} , wobei die Näherung wie unter Stichprobenmittelwert dargestellt folgt. Beachte, das Auftreten der Log-Likelihood-Funktion l = i log q θ ( x i ) {\displaystyle l=\sum _{i}\log q_{\theta }(x_{i})} in der Näherung, wobei die Skalierung 1 n {\displaystyle {\frac {1}{n}}} die Lage des Maximums nicht verändert.

Abgeleitete Größen

Die Größe 2 H ( X ; P ; Q ) {\displaystyle 2^{H(X;P;Q)}} beziehungsweise 2 H ( X ) {\displaystyle 2^{H(X)}} wird auch als Perplexität bezeichnet. Sie wird vor allem in der Spracherkennung verwendet.

Siehe auch

Literatur

  • Reuven Y. Rubinstein, Dirk P. Kroese: The Cross-Entropy Method – A Unified Approach to Combinatorial Optimization, Monte-Carlo Simulation and Machine Learning. Springer, 2004, ISBN 978-0-387-21240-1, doi:10.1007/978-1-4757-4321-0. 

Weblinks

  • Statistische Sprachmodelle Universität München (PDF; 531 kB)

Einzelnachweise

  1. Denis Conniffe: Expected Maximum Log Likelihood Estimation. In: The Statistician. Band 36, Nr. 4, 1987, ISSN 0039-0526, S. 317, doi:10.2307/2348828.