Datenkompression: Theoretische Grundlagen

Aus Wikibooks
Zur Navigation springen Zur Suche springen
Wiki Bookwizard - ThePacker
Clear page cache
Edit current page
Create or Edit page TOC
include TOC with

{{:Datenkompression: Theoretische Grundlagen:_TOC}}

zurück

3 Theoretische Grundlagen 10% fertig

3.1 Einleitung 10% fertig
3.2 Statistik und Wahrscheinlichkeit 10% fertig
3.3 Nachrichtenquelle 10% fertig
3.3.1 Gedächtnisfreie Quellen 30% fertig
3.3.2 Gedächtnisbehaftete Quellen 30% fertig
3.4 Entropie und Information 10% fertig
3.4 Herleitung der Entropiefunktion 10% fertig
3.4 Die Entropiefunktion 10% fertig
3.4 Einheit der Entropie 10% fertig
3.4 Eigenschaften der Entropie 10% fertig
3.5 Alter Text 10% fertig
3.6 Geplante Themen 10% fertig


Einleitung[Bearbeiten]

Bereits im zweiten Kapitel wurden Begriffe verwendet, deren eigentliche Begrifflichkeit bislang nicht exakt definiert wurden. Das sind zum Beispiel die Begriffe Information, Entropie, Redundanz, Kanal, Nachrichtenquelle und einige andere mehr. Dieses Kapitel setzt sich mit genau diesen Problemen auseinander. Es erläutert diese Begriffe und beschreibt wie einige dieser Begriffe quantifiziert werden können.

Lassen Sie uns zunächst untersuchen, was ein geeignetes Maß, in Bezug auf die Information ist, und wie viel Information bspw. in einer Informationsquelle enthalten ist. Die Informationsquelle wird in diesem Buch auch als Nachrichtenquelle, als Datenquelle oder einfach als Quelle bezeichnet. Das Codieren von Informationen aus einer derartigen Quelle bezeichnet man als Quellencodierung (eng. sourcecoding). Der Begriff Datenkompression (eng. datacompression) wurde erst sehr viel später populär.

Um sich dem Modell der Nachrichtenquelle zu nähern, wie sie durch Claude Shannon erdacht wurde, ist es hilfreich sich mit einigen Grundlagen der Statistik und der Wahrscheinlichkeitsrechnung zu befassen. Nachdem die Nachrichtenquelle eingeführt worden ist, beginnt der Abschnitt der sich mit Information befasst. Was genau sie ist und wie sie funktioniert. Sollten Sie sich mit diesen Themen gut auskennen, so sei Ihnen eines der nachfolgenden Kapitel empfohlen.

Statistik und Wahrscheinlichkeit[Bearbeiten]

Dieser Abschnitt ist derart umfangreich, dass die Entwicklung des Buches stark verzögert werden würde, diesen Abschnitt derzeit zu formulieren.

Nachrichtenquelle[Bearbeiten]

Eine Nachrichtenquelle kann im mathematischen Sinne als geordnetes Paar verstanden werden, wobei eine endliche Menge von Symbolen des Quellenalphabets darstellt. Das Quellenalphabet ist der sog. Symbolvorrat, den eine Nachrichtenquelle zu erzeugen im Stande ist. Für eine binäre Quelle ist das Quellenalphabet nur ein Beispiel von vielen. steht für die Wahrscheinlichkeitsverteilung des Quellenalphabets . Das bedeutet dass ein bestimmtes Symbol aus einer Nachrichtenquelle mit einer ganz bestimmten Wahrscheinlichkeit erwartet werden kann. Mathematisch soll das in diesem Buch wie folgt formuliert werden: bzw. entspricht der Wahrscheinlichkeit, mit der das Symbol von der Nachrichtenquelle ausgegeben wird.

  • kontinuierliche Quellen
  • diskrete Quellen
  • gemischte Quellen

Im Allgemeinen spricht man bei Quellen mit einer endlichen Anzahl von möglichen Symbolen von einer wertdiskreten Quelle. Beispiele für wertdiskrete Quellen sind Computerprogramme, Bankauszüge oder Wiki-Bücher.

  • Beispiele für Quellen
    • wertdisktret,
    • zeitdiskret,
    • wertkontinuierlich,
    • zeitkontinuierlich
  • Abtastung

Gedächtnisfreie Quellen[Bearbeiten]

Ein Quelle heißt gedächtnisfrei, wenn jedes einzelnen Element (Symbol) unabhängig voneinander auftritt. Welches Symbol wann auftritt, wird nicht durch die vorangegangenen Symbole beeinflusst. Mathematisch formuliert bedeutet dies, dass die Wahrscheinlichkeit für ein Symbol mit seinen bedingten Wahrscheinlichkeit identisch ist: gilt:

Wenn man die Begriffe aus der Wahrscheinlichkeitsrechnung oder der Statistik verwenden möchte, dann entspricht eine gedächtnisfreie Quelle einer Quelle, deren Symbole statistisch unabhängig voneinander sind. Die bedingte Wahrscheinlichkeit jedes Symbols ist identisch mit seiner nicht bedingten Wahrscheinlichkeit.

  • Modell Würfel

Gedächtnisbehaftete Quellen[Bearbeiten]

Eine Quelle heißt gedächtnisbehaftet, wenn es mindestens ein Element (Symbol) dieser Quelle gibt, dass irgendwie vom Auftreten eines anderen Symbols abhängt. Damit ist gemeint, dass es Situationen geben kann, in denen sich eine Quelle anders verhält, wenn zuvor eine bestimmte Kombination von Symbolen ausgegeben worden ist. Mathematische formuliert heißt das, dass es mindestens ein solches Symbol gibt. für das gilt: .

Mit Begriffen aus der Statistik oder Wahrscheinlichkeitsrechnung ausgedrückt, ist eine gedächtnisbehaftete Quelle eine Quelle, deren Symbole statistich nicht unabhängig voneinander sind.

  • Modell Kartenspiel oder Urne ohne zurücklegen

Entropie und Information[Bearbeiten]

Man stelle sich folgende Situation vor, in der man ein Zeichen der Quelle liest, und man erhält ein Zeichen aus dem Symbolalphabet entsprechend der Wahrscheinlichkeitsverteilung .

Noch bevor das Zeichen gelesen wird, herrscht ein gewisses Maß an Unsicherheit darüber, welches Zeichen durch die Quelle ausgegeben werden wird. Nach dem Lesen hat man eine gewisses Maße an Information über die Quelle erhalten, indem ein gewisses Maß an Unsicherheit beim Empfänger reduziert wurde. Das zeigt, dass das Konzept über die Unsicherheit beim Empfänger und das über die Information direkt miteinander zusammenhängen.

Um es noch etwas besser zu verdeutlichen, soll eine ganz besondere Quelle betrachtet werden. Diese hat die folgende Eigenschaft und für alle anderen Symbole des Alphabets soll die folgende Wahrscheinlichkeit gelten . Das bedeutet, dass das Element immer ausgegeben wird und es gibt keinerlei Unsicherheit darüber, welches Zeichen als nächstes zu erwarten ist. Man erhält also keinerlei Information aus dieser Quelle. Man sagt der Informationsgehalt ist Null. Man stelle sich nun eine Quelle vor, bei nur einige wenige Symbole eine von Null verschiedene Auftretenswahrscheinlichkeit haben, so kann man ebenfalls schlussfolgern, dass die Unsicherheit über das zu erwartende Zeichen relativ gering ist, weil eben nur wenige Zeichen in Frage kommen, die durch diese Quelle ausgegeben werden. Andererseits ist die Unsicherheit am größten, wenn man überhaupt nicht in der Lage ist, das folgende Zeichen mit einer gewissen Sicherheit vorherzusagen. Das ist genau dann der Fall, wenn jedes Symbol aus dem Alphabet mit der gleichen Wahrscheinlichkeit auftritt, wenn also gilt: . In diesem Fall erhält der Empfänger das maximale Maß an Information, das eine Quelle bereitstellen kann.

Die Entropie ist ein Maß für die Unsicherheit darüber,
welches Zeichen durch eine Nachrichtenquelle als
nächstes gelesenes Zeichen zur Verfügung stehen wird.

Nun ist definiert, was die Entropie ist. Andererseits hängen Entropie und Information miteinander zusammen. Aber Information kann ja nicht das Maß für die Unsicherheit sein, die wir verspüren.

  • Was ist Information?
  • Information != Entropie; Information ist ja nicht die Unsicherheit!

Herleitung der Entropiefunktion[Bearbeiten]

Gesucht wird eine Funktion , mit der die Unsicherheit quantifiziert werden kann, die mit dem Lesen einer Quelle verbunden ist. Eine wesentliche Eigenschaft der Entropiefunktion sollte sein, ausschließlich von der Wahrscheinlichkeitsverteilung abzuhängen, statt von den zu codierenden Elementen des Alphabets. Außerdem sollte für alle Werte und Kombinationen von

definiert sein, für die gilt: .

Die maximale Unsicherheit über das von der Quelle nächste ausgegebene Zeichen herrscht genau dann, wenn das Symbolalphabet eine gleichmäßige Verteilung besitzt, also wenn gilt:

.

Die Unsicherheit ist größer, wenn eine Gleichverteilung für ein Symbolalphabet auftritt, welches ein zusätzliches Zeichen besitzt, verglichen mit einem Alphabet mit weniger Symbolen und Gleichverteilung. Anders formuliert bedeutet es, dass H eine monoton steigende Funktion in Abhängigkeit von einem steigenden n ist. Mathematisch sieht diese Forderung wie folgt aus:

.
  • Entwicklung und Beschreibung der letzten wichtigen Eigenschaft (Zerlegbarkeit)
  • Entwicklung der Bedingungen und Überlegungen
Zusammenfassung aller Bedingungen
  1. ) ist definiert und eine kontinuierliche Funktion und ausschließlich abhängig von der Wahrscheinlichkeitsverteilung. So dass die folgende Eigenschaft erfüllt ist: gelten, für die gilt: .
  2. )
  3. ) Die Funktion soll zerlegbar sein ... (schwer zu beschreiben)
  • vorstellen einer Funktion die exakt diese Bedingungen erfüllt
  • Beweis dass alle Bedingungen durch diese Funktion erfüllt sind

Die Entropiefunktion[Bearbeiten]

Die Entropie beschreibt den mittleren Informationsgehalt, der mit den Symbolen einer Nachrichtenquelle assoziiert ist.

  • Logaritmus zur beliebigen Basis.
  • Basis 2 = Binärentropie (Einheit Bit/Shannon)

Einheit der Entropie[Bearbeiten]

Eigenschaften der Entropie[Bearbeiten]

Alter Text[Bearbeiten]

obsoleter Text....

Das bedeutet, man sammelt aufeinanderfolgende Werte einer Nachrichtenquelle. Somit erhält man einen Nachrichtenvektor X mit der Länge , der auch als Symbolkette bezeichnet wird.

Eine Nachricht aus einer Quelle Q mit der Länge 4 kann beispielsweise aus der Symbolkette bestehen. Die Elemente seien mögliche Realisierungen des Quellenalphabets.

Die Entropie nullter Ordnung ist dann definiert durch:

Wobei der Logarithmus zur Basis 2 genommen wird, um die Entropie in bit zu messen.

... bis hier

Geplante Themen[Bearbeiten]

  • Rückschlussentropie
  • Streuentropie
  • Quellenentropie
  • Senkenentropie
  • Informationsgehalt
  • Shannons Codier-Theorem
  • Binäre symmetrische Kanäle
  • Stochastische Prozesse
  • Stationäre und nicht Stationäre Prozesse
  • Einzelcodierung vs. Blockcodierung
  • Markov/ff-Quellen
  • verlustfreie Codierung von Audio / Video und Bilddaten
  • PCM/DPCM/ADPCM

Das Ziel dieses Kapitels besteht darin, die Grundlagen zu schaffen, um den realen Informationsgehalt einer Information, Nachricht oder einer Nachrichtenquelle zu bestimmen. Dazu ist es zunächst notwendig eine Reihe von Begriffen einzuführen und zum Teil zu definieren.

  • Codierungstheorie / Informationstheoretische Grenzen
  • Berechnung von Informationsgehalt und Entropie
  • Ist es möglich Entropie zu reduzieren ?
  • Wahrscheinlichkeit und bedingte Wahrscheinlichkeit
  • Informationsgehalt bei bedingter Wahrscheinlichkeit
  • Transformation
  • Statistik und Stochastische Grundlagen
  • Verteilungen - Gleich/Gauss/Laplace - Verteilung Ausnutzen der Verteilung