Datenkompression: Verlustbehaftete Kompression

Aus Wikibooks
Zur Navigation springen Zur Suche springen
Wiki Bookwizard - ThePacker
Clear page cache
Edit current page
Create or Edit page TOC
include TOC with

{{:Datenkompression: Verlustbehaftete Kompression:_TOC}}

zurück

6 Verlustbehaftete Kompression 0von10.png

6.1 Quantisierung 0von10.png
6.1.1 skalare Quantisierung 0von10.png
6.1.1.1 gleichförmig 0von10.png
6.1.1.2 ungleichförmig 0von10.png
6.1.1.3 optimal 0von10.png
6.1.1.4 logarithmisch 0von10.png
6.1.2 veränderliche Quantisierung 0von10.png
6.1.3 vektorielle Quantisierung 0von10.png
6.2 Schätzverfahren 0von10.png

Verlustbehaftete Kompression[Bearbeiten]

(Kapitel 5: Verlustbehaftetes Kodieren wie geht das ?)

  • Abtastung
  • In wiefern können Fehler in der Kompression nützlich sein ?
  • Schätzverfahren / Bewegung / optimale Filter
  • Transformationen / Fourier / Laplace / Hadamard / Sinus / Cosinus
  • Diskrete Transformationsverfahren
  • Farbtransformationen
  • Das Auge / Sehen / Bewegung / Farben / Helligkeiten
  • Das Ohr / Hören / Laut / Leise / Hoch / Tief

Die verlustbehaftete Kompression basiert wie in früheren Kapiteln bereits betont, zumeist auf der Entfernung von Irrelevanz. Doch wie kann Irrelevanz definiert, gemessen oder entfernt werden? Mit dieser Frage beschäftigt sich dieses Kapitel. Gelingt es einen großen Teil irrelevanter Informationen zu identifizieren, so können weitaus größere Datenmengen aus einer Datenquelle entfernt werden, als es mit Redundanzvermeidung üblicherweise möglich ist. Denn eines ist klar, Irrelevante Daten müssen nicht unbedingt redundant sein, das bedeutet, dass ein Aufwand zur Codierung von Informationen betrieben wird, deren Nutzen für den Empfänger nicht klar ersichtlich ist.

Bei Medien (Audio, Videos und Bilder) die gezielt für den menschlichen Wahrnehmungsapparat optimiert sind, werden eine Reihe von Unzulänglichkeiten des menschlichen Gehörs und des Seh-Apparates ausgenutzt und dem Adressaten vorenthalten. Die menschliche Wahrnehmung ist sehr beschränkt.

Fliegen sind in der Lage mehr als 200 Bilder pro Sekunde wahrzunehmen, der Mensch schafft dagegen nur zwischen 20 und 30. Das menschliche Gehirn ist innerhalb eines 30 ms Intervalls nicht in der Lage zwei zeitlich versetzte Ereignisse getrennt voneinander zu interpretieren. Für das Gehirn finden diese beiden Ereignisse gleichzeitig statt. Das menschliche Gehör kann aufgrund seiner Form zwei spektral nahe beieinander liegende Frequenzen nicht voneinander unterscheiden (spektrale Maskierung). Es kann außerdem nach einem besonders lauten Ereignis nicht zwischen einem leisem Ereignis und Stille unterscheiden (temporale Maskierung). Umgekehrt maskiert ein lautes nachfolgendes Ereignis ein leises zuvor, indem es vom Gehirn priorisiert wird, da ein lautes Ereignis bedrohlicher und damit wichtiger ist. Es gibt eine Reihe weiterer menschlicher Einschränkungen die für aktuelle Kompressionsverfahren ausgenutzt werden.

Kennt man all diese Unzulänglichkeiten, so kann man diese gezielt ausnutzen.

Quantisierung[Bearbeiten]

Die Quantisierung eines Datenwertes ist der Grundbestandteil eines jeden verlustbehafteten Verfahrens. Man unterscheidet hierbei verschiedene Arten der Quantisierung. Viele Signale liegen in analoger Form vor, das sind beispielsweise Fotos, Schallplatten, Magnetaufzeichnungen oder Messreihen, das bedeutet man hat es mit Signalen und Daten zu tun, die in wertkontinuierlicher Form vorliegen. Um sie jedoch mit Hilfe computergestützter Verfahren zu verarbeiten, müssen diese Daten geeignet digitalisiert werden, wobei der Fehler der bei der Digitalisierung auftritt möglichst minimal sein sollte. Doch man hat es nicht immer mit wertkontinuierlichen Daten zu tun, sondern auch mit nahezu wertkontinuierlichen Daten. Darunter können im folgenden Daten mit einer hohen Auflösung verstanden werden. Das sind beispielsweise Ton-Aufnahmen mit 24 bit Auflösungsvermögen. Um eine für den normalen Menschen ausreichende Qualität zu bieten, sind diese 24-Bit pro digitalisierten Wert nicht wirklich notwendig außer vielleicht in den Studios dieser Welt. Um eine Qualität wie bei einer CD zu erreichen begnügt man sich mit 16 bit pro Sample. Um selbst diese Datenrate nicht übertragen zu müssen. Benutzt man unter anderem Quantisierer um die Datenrate auf etwa 2 bit pro Sample zu reduzieren.

  • Einführung zur Quantisierung
  • Einführung des Begriffs Quantisierungsfehler

Skalare Quantisierung[Bearbeiten]

Die Skalare Quantisierung ist nur eine Ausprägung der Quantisierung und soll in diesem Teilabschnitt erläutert werden.

Analyse des Quantisierungsfehlers

gleichförmig[Bearbeiten]

Die gleichförmige Quantisierung stellt den einfachsten Fall einer Quantisierung dar. Hier haben alle Intervalle die gleiche Breite, d.h. . (Berechnung der Varianz, bei gleichförmiger Quantisierung)

ungleichförmig[Bearbeiten]

Die ungleichförmige Quantisierung kann immer dort eingesetzt werden, wo die Amplitudenstatistik eines Signale bekannt ist. Es werden beispielsweise dort engere Intervalle gewählt, wo die die Dichte in den Amplitudenwerten größer ist. Dadurch kann eine optimale Quantisierung hergeleitet werden. (Kompandierungs-Kennlinie) (Berechnung der Varianz, und unter zuhilfename einer Kompandierungs-Kennlinie)

optimal[Bearbeiten]

Die Varianz des Quantisierungsfehlers kann für eine konkret vorgegebene Verteilungsdichte optimiert werden, indem die Varianz minimiert wird. Ein derartig arbeitender Quantisierer wird optimaler Quantisierer genannt. (Berechnung der Varianz für den Optimalfall)

logarithmisch[Bearbeiten]

Für die Audiocodierung von Sprache hat sich eine logarithmische Quantisierung als ... erwiesen.

  • Quantisierung verbunden mit Huffmancodierung

veränderliche Quantisierung[Bearbeiten]

  • Adaptive Quantisierung
  • Vorwärtsverfahren
  • Rückwärtsverfahren

differentielle Quantisierung[Bearbeiten]

vektorielle Quantisierung[Bearbeiten]

Schätzverfahren[Bearbeiten]