zurück zum Überblick |
http://www.oelinger.de Home Maria Oelinger sitemap |
Entropie und Wahrscheinlichkeit
wechselseitige Information ist
I (X, Y) = H (X) H (X | Y)
I (X, Y) = I (Y, X) 0
I (X, Y) = H (X) + H (Y) H (X, Y)
H (X, Y) H (X) + H (Y)
(gleich für unabhängige Zufallsvarible X und Y. Auch für mehrere Zufallsvariable X1,
, Xk)
H (X, Y) = H (X | Y) + H (Y)
zurück zum Überblick weiter
Feel free to send me email: maria@oelinger.de
|