

Bedingte Entropie, Fachbücher von Erik Yama Étienne
In der Informationstheorie ist die bedingte Entropie ein Mass für die Ungewissheit über den Wert einer Zufallsvariablen X, di... Mehr erfahren
Finde die besten Angebote
Bester Preis17 Punkte

Galaxus
Versandkostenfrei
Lieferzeit: 2-4 Werktage
Versandkostenfrei | Lieferzeit: 2-4 Werktage
Produktdetails
In der Informationstheorie ist die bedingte Entropie ein Mass für die Ungewissheit über den Wert einer Zufallsvariablen X, die verbleibt, nachdem das Ergebnis einer anderen Zufallsvariable Y bekannt wird. Die bedingte Entropie wird H(X Y) geschrieben und hat einen Wert zwischen 0 und H(X), der ursprünglichen Entropie von X. Sie wird in der gleichen Masseinheit wie die Entropie gemessen. Speziell hat sie den Wert 0, wenn aus Y der Wert von X funktional bestimmt werden kann, und den Wert H(X), wenn X und Y stochastisch unabhängig sind.
Informationen
Lieferzeit:2-4 Werktage
Marke:Betascript Publishing
