Datenkompression


Kriterien

Übersicht Formate

Grundlagen

Grundbegriffe

Zeichen

Zeichenvorrat

Alphabet

Kode

Kodierung

Redundanz

Informationstheorie

Nachricht

Wahrscheinlichkeit

Informationsgehalt

Entropie

Redundanzreduktion

Irrelevanzreduktion

Entropiekodierung

Kodes mit variabler Länge

Kodebäume

Kompressionsverfahren

Datenformate


Glossar

Stichwortverzeichnis


Download


www.BinaryEssence.de

Wahrscheinlichkeit


Die Wahrscheinlichkeit (engl. Probability) ist ein Maß, mit dem das Auftreten einer bestimmten Nachricht quantifiziert werden kann. Sie ergibt sich aus der Anzahl der aufgetretenen Nachrichten, bezogen auf gesamte Anzahl aller Nachrichten.


                                Anzahln
  Wahrscheinlichkeit:  p(n) = -----------
                               Anzahlges

Die Wahrscheinlichkeit kann einen Wert zwischen 0 (die Nachricht n tritt gar nicht auf) und 1 (die Nachrichtenquelle sendet nur diese Nachricht n) annehmen. Die Summe der Wahrscheinlichkeiten für alle Nachrichten ergibt immer den Wert 1 (sofern keine Rundungsfehler zum Tragen kommen).


  Werterbereich:  0 <=  p(n)  <=  1

  n=max
  -----
  \
   +-   Wahrscheinlichkeit P(n) = 1
  /
  -----
   n=1

Sollten in der Nachrichtenquelle z.B. 4 verschiedene Nachrichten gleichverteilt auftreten, so ergibt sich für jede Nachricht eine Wahrscheinlichkeit von 1/4 = 0,25. Daten, die sich durch eine derartige Gleichverteilung auszeichen, lassen sich mit einfachen Kodierungsverfahren (Huffman, arithmetischen Kodierung etc.) nicht komprimieren. Desto ungleichmäßiger die Wahrscheinlichkeitsverteilung ausfällt, desto größer sind die Möglichkeiten der Kompressionsverfahren.


Die Beschreibung des mathematischen Begriffs der Wahrscheinlichkeit ist streng genommen nicht korrekt, sollte aber in diesem Zusammenhang ausreichen.


 <   ^   > 

Übersicht Grundbegriffe Nachricht Informationsgehalt



Anzeigen:

Informations- und Kodierungstheorie