Gesamentlike entropie
In Inligtingsteorie, is Gesamentlike entropie 'n maatstaf van die onsekerheid wat verband hou met 'n stel van ewekansige veranderlike.[2]
Definisie
wysigDie gesamentlike Shannon entropie (in bisse) van twee diskrete ewekansige veranderlike en met beelde en word gedefinieer as[3]:16
waar en is besondere waardes van en , onderskeidelik, is die gesamentlike waarskynlikheid van hierdie waardes wat saam voorkom, en word gedefinieer as 0 as .
Vir meer as twee ewekansige veranderlikes brei die uit na
waar is besondere waardes van , onderskeidelik, is die waarskynlikheid dat hierdie waardes saam voorkom, en word gedefinieer as 0 as .
Verwysings
wysig- ↑ D.J.C. Mackay (2003). Information theory, inferences, and learning algorithms. Bibcode:2003itil.book.....M.:141
- ↑ Theresa M. Korn; Korn, Granino Arthur (Januarie 2000). Mathematical Handbook for Scientists and Engineers: Definitions, Theorems, and Formulas for Reference and Review. New York: Dover Publications. ISBN 0-486-41147-8.
- ↑ Thomas M. Cover; Joy A. Thomas (18 Julie 2006). Elements of Information Theory. Hoboken, New Jersey: Wiley. ISBN 0-471-24195-4.