Datenkompression • Motivation • Übersicht, Informationstheorie, Modellierung • Verlustfreie Datenkompression: Huffman-Codierung, Arithmetische Codierung, ... • Verlustbehaftete Datenkompression: Fourier-Analyse, JPEG, MPEG, ... Datenorganisation 2006 Datenkompression Seite 1 Klöditz Hochschule Anhalt (FH) Motivation Datenmengen • Bildschirmseite Text: – Bildwiederholspeicher: 640 * 480 Pixel, je Zeichen 8*8 Pixel liefert: (640/8) * (480/8) = 4.8 Kbyte • Bildschirmseite Vektorbilder: – ca. 5000 Geraden mit Start- und Endpunkt (x-Koordinate: 10 bit; y-Koordinate: 9 bit) + 8 bit Attribut liefert: 5000 * 46 / 8 = 28 KByte • Bildschirmseite Pixelbilder: – 256 Farben (1 Byte/Pixel) liefert: 1024 * 768 = 768 KByte; RGB (3 Byte/Pixel) liefert 2.25 MByte Klöditz Hochschule Anhalt (FH) Datenorganisation 2006 Datenkompression Seite 2 Motivation Datenmengen • Sprache: – Sprache in Telefonqualität wird mit 8 kHz abgetastet und mit 8 bit quantisiert (Datenstrom 64 Kbit/s) liefert: 8 KByte/s • Stereo-Audio-Signal in CD-Qualität: – wird mit 44.1 kHz je Kanal abgetastet und mit 16 bit quantisiert und liefert: 2 * 44100/s * 16 bit / 8 bit/Byte = 172 KByte/s • Videosequenz: – 25 Vollbilder/s, Luminanz (13.5 MHz) und Chrominanz (2* 6.75 MHz) brauchen 3 Byte/Pixel; liefert 22.5 MByte/s Datenorganisation 2006 Datenkompression Seite 3 Klöditz Hochschule Anhalt (FH) Motivation Datenmengen • Speichervolumen: – – – – Arbeitsspeicher z.B. 256 MByte CD-ROM (640 MByte): knapp 30 s Video DVD (4.7 GByte): knapp 2.5 min Video ISDN (64 Kbit/s): kleine, unscharfe, rucklige Bilder; Qualitätsverlust • Hauptsätze der EDV-Hardware: – Speichern von Daten ist teuer • Rechnen ist billig • schnelle Massenspeicher sind teuer gegenüber Prozessoren – Übertragen von Daten ist teuer • Rechnen ist billig • Breitband-Leitungen sind teuer gegenüber Prozessoren Klöditz Hochschule Anhalt (FH) Datenorganisation 2006 Datenkompression Seite 4 Motivation Datenkomprimierung • Erkennen "innerer Gesetzmäßigkeiten" einer Datenmenge • Beschreibung durch eine „universelle Formel“ am elegantesten • "zufällige" Zahlenreihen sind nicht (verlustfrei) komprimierbar Datenorganisation 2006 Datenkompression Seite 5 Klöditz Hochschule Anhalt (FH) Datenkomprimierung Erkennen gemeinsamer Merkmale 1000 Personen mit je 4 Merkmalen Nationalität Geschlecht Alter in Jahren Größe in cm <256 UN-Staaten 2 <128 < 256 8 bit 1 bit 7 bit 8 bit Summe: 24 bit = 3 Byte Anzahl möglicher Ausprägungen 1000 Personen erzeugen 16.777.216 aus 24 bit 3.000 Byte Ansatzpunkte für Komprimierung: ??? Klöditz Hochschule Anhalt (FH) Datenorganisation 2006 Datenkompression Seite 6 Datenkomprimierung Eine „universelle Formel“ • Fourier-Analyse: – periodische Vorgänge entstehen durch Überlagerung von harmonischen Schwingungen: f(t) = a0 + a1 cos (2πt) + b1 sin (2πt) + ... + ak cos (2πt) + bk sin (2πt) + ... – Approximation einer Funktion: ak, bk: Amplitude (Lautstärke) k: Frequenz (Tonhöhen) t: Zeit (auch beliebige andere Skala) Klöditz Hochschule Anhalt (FH) Datenorganisation 2006 Datenkompression Seite 7 Bewertung von Kompressionsverfahren • • • • Kompressionsrate Zeitaufwand für Kompression und Dekompression Aufwand für Hardware und Software Verbreitung des Verfahrens, Standardisierung Klöditz Hochschule Anhalt (FH) Datenorganisation 2006 Datenkompression Seite 8 Struktur der Datenkompression Sender Empfänger Modell Quelle Modell Codierer Kanal Decodierer Senke (Netz / Speichermedium) Datenorganisation 2006 Datenkompression Seite 9 Klöditz Hochschule Anhalt (FH) Informationstheorie Gegeben: Quelle S mit Symbolen s1, s2, ..., sn mit Wahrscheinlichkeiten ihres Auftretens P(sk) = pk (alle pk ≥ 0 und p1 + p2 + ... + pn = 1 • • Informationsgehalt eines Symbols sk: I(sk) = log2 (1/pk) Entropie (gewichteter Durchschnitt der Informationsgehalte aller Symbole = mittlerer Informationsgehalt einer Zeichenfolge): n H(S) = Σ k=1 n pk * I(sk) = Σ pk * log2 (1/pk) k=1 Annahmen: Quelle stationär und gedächtnislos; d.h. Wahrscheinlichkeit eines Symbols ändert sich nicht im Laufe der Nachricht und ist nicht von früheren Symbolen abhängig Klöditz Hochschule Anhalt (FH) Datenorganisation 2006 Datenkompression Seite 10 Modellierung • Unterscheidung: – Modellierung = Schätzung der Wahrscheinlichkeiten – Codierung = Nutzung der Wahrscheinlichkeiten • Modellgenauigkeit: – Abweichungen führen zu schlechterer Kompression, insbesondere bei sehr ungleichmäßigen Verteilungen – Modell n-ter Ordnung: nutzt n Vorgängersymbole zur Schätzung der Wahrscheinlichkeit • Adaptivität: – Anpassung an Nachrichten • Umformen der Quelle: – Folgen von Symbolen zusammenfassen – Differenzenbildung zwischen Prognose des nächsten Wertes und tatsächlichem Wert Datenorganisation 2006 Datenkompression Seite 11 Klöditz Hochschule Anhalt (FH) Kategorien • Entropie-Codierung: – – – – • verlustfrei medien-unabhängig Daten: Sequenz digitaler Datenwerte ohne Bedeutung Beispiele: Lauflängen-Codierung, Huffman-Codierung, Arithmetische Codierung Quellen-Codierung: – verlustbehaftet – verwendet Semantik der zu codierenden Informationen – Kompressionsgrad ist abhängig vom Medium • Hybride Codierung: – Kombination von Quellen- und Entropie-Codierung • • • • • JPEG H.261 (px64) MPEG DVI MP3 Klöditz Hochschule Anhalt (FH) Einzelbilder Videosequenzen mit geringer Auflösung Bewegtbilder plus Audio Einzelbilder und kontinuierliche Medien Sound Datenorganisation 2006 Datenkompression Seite 12 Grundlegende Verfahren • Lauflängen-Codierung: – mehr als drei identische aufeinanderfolgende Bytes werden ersetzt durch • Markierungsbyte, • Byte und • Anzahl • Null-Unterdrückung: – Nullen (Anzahl > 3) werden mit Markierungsbyte und Anzahl codiert • Pattern Substitution: – einzelne Byte ersetzen häufig vorkommende Quellmuster (z.B. Schlüsselworte BEGIN, IF, THEN, ELSE, END, ... In Programmtexten) durch Markierungsbyte + Index Datenorganisation 2006 Datenkompression Seite 13 Klöditz Hochschule Anhalt (FH) Shannon-Fano-Codierung • • von Fano (1949) vorgeschlagen Prinzip: Code mit variabler Länge: – häufige Symbole - kurzer Code – seltene Symbole - langer Code • Algorithmus: 1. Sortiere alle Symbole des betrachteten Alphabets nach absteigender Wahrscheinlichkeit 2. Teile die Symbole in zwei Gruppen, die eine möglichst gleiche Gruppenwahrscheinlichkeit haben 3. Weise der linken Gruppe eine 1 und der rechten eine 0 zu 4. Setze für jede Teilgruppe, die mehr als ein Symbol enthält bei 2. fort 5. Reihe die Einsen und Nullen in der Reihenfolge ihrer Zuweisung zu Codewörtern aneinander Klöditz Hochschule Anhalt (FH) Datenorganisation 2006 Datenkompression Seite 14 Shannon-Fano-Codierung Beispiel Zeichen relative Häufigkeit a d b c 0.4 0.3 0.2 0.1 1 - 0 1 1.0 a 0 - - 1 0 1 01 001 000 0.6 0.4 0.3 0.3 d 0.2 0.1 b c Datenorganisation 2006 Datenkompression Seite 15 Klöditz Hochschule Anhalt (FH) Huffman-Codierung • • Weiterentwicklung der Shannon-Fano-Codierung durch David Huffman (1952) Algorithmus: 1. Betrachte alle Symbole als Blätter eines Codebaumes und trage ihre Wahrscheinlichkeiten ein 2. Fasse die beiden geringsten Wahrscheinlichkeiten zu einem Knoten zusammen und weise ihre Summe dem neuen Knoten zu 3. Beschrifte die neuen Zweige mit 0 bzw. 1 4. Wenn die Wurzel des Baumes mit der Wahrscheinlichkeit p=1.0 erreicht ist, beende die Konstruktion 5. Setze bei 2. fort • optimal: – wenn alle Wahrscheinlichkeiten ganzzahlige Potenzen von 2 Klöditz Hochschule Anhalt (FH) Datenorganisation 2006 Datenkompression Seite 16 Huffman-Codierung Beispiel Zeichen _ E N R I S T U D Häufigkeit 8 6 2 2 1 1 1 1 1 1 Huffman-Code 00 10 0100 0101 0110 0111 1100 1101 1110 1111 A 24 1 0 10 14 1 0 4 1 1 0 A D 0 2 1 0 _ 1 2 2 1 0 6 E U 4 0 1 0 1 0 T S I R N Kompressionsrate: – unkomprimiert: 24 Zeichen * 8 bit = 192 bit – komprimiert: 14 * 2 bit + 10 * 4 bit = 68 bit – Kompressionsrate = 1 – 68/192 = 0.6458 Datenorganisation 2006 Datenkompression Seite 17 Klöditz Hochschule Anhalt (FH) Huffman-Codierung Beispiel: Erzeugung des Huffman-Codes _ 8 _ 8 _ 8 _ 8 _ 8 _ 8 _ 8 ADUTE 10 SIRN_ 14 E 6 E 6 E 6 E 6 E 6 E 6 SIRN 6 _ 8 ADUTE 10 N 2 AD 2 UT 2 SI 2 RN 4 ADUT 4 E 6 SIRN 6 R 2 N 2 AD 2 UT 2 SI 2 RN 4 ADUT 4 I 1 R 2 N 2 AD 2 UT 2 SI 2 S 1 I 1 R 2 N 2 AD 2 T 1 S 1 I 1 R 2 U 1 T 1 S 1 D 1 U 1 A 1 UT AD 1 A 0 D SI RN ADUT SIRN ADUTE SIRN_ AD...N_ 1 0 1 0 1 0 1 0 1 0 1 0 1 0 U T S I R N AD UT SI RN ADUT E SIRN _ Klöditz Hochschule Anhalt (FH) 1 0 ADUTE SIRN_ Datenorganisation 2006 Datenkompression Seite 18 Arithmetische Codierung • Prinzip: – Nachricht wird durch ein Intervall von reellen Zahlen zwischen 0 und 1 – absolut redundanzfreie Kompression (abgesehen von Rechengenauigkeit) Datenorganisation 2006 Datenkompression Seite 19 Klöditz Hochschule Anhalt (FH) Arithmetische Codierung Beispiel - Encoding • Modellalphabet: Symbol Wahrscheinlichkeit Intervall a e i o u ! 0.2 0.3 0.1 0.2 0.1 0.1 [0.0, 0.2) [0.2, 0.5) [0.5, 0.6) [0.6, 0.8) [0.8, 0.9) [0.9, 1.0) • Arithmetische Codierung der Nachricht eaii! 1 0.5 a 0.236 i 0.2336 i 0.2336 ! ! ! ! ! u u u u u o o o o o o i i i i i i e e e e e e a 0.2 nach Sehen von Intervall Klöditz Hochschule Anhalt (FH) 0.26 ! u a 0 e ! a 0.2 e [0.0, 1.0) [0.2, 0.5) a 0.23 a [0.2, 0.26) a 0.233 i [0.23, 0.236) a 0.23354 i [0.233, 0.2336) ! [0.23354 , 0.2336) Datenorganisation 2006 Datenkompression Seite 20 Arithmetische Codierung Beispiel - Decoding • Empfänger kennt – Auftrittswahrscheinlichkeiten und – Lage des endgültigen Intervalls • Decodierung: – 1. Zeichen: e weil endgültiges Intervall voll in e-Intervall enthalten – Simulation des Rechenganges zum Vercodieren beim Sender liefert 2. Zeichen: a weil dieses ein Intervall, das vollständig das Endintervall umschließt, produziert hätte – Fortsetzung der Simulation des Rechenganges beim Sender liefert die vollständige Nachricht Datenorganisation 2006 Datenkompression Seite 21 Klöditz Hochschule Anhalt (FH) Arithmetische Codierung Einschätzung • Schlussfolgerungen: – eine einzige Zahl aus dem Endintervall reicht zum Decodieren – numerische Operationen müssen bei Sender und Empfänger identisch implementiert sein – 32-bit-Arithmetik bei Textübertragung notwendig, 16 bit sind zu wenig – Ende-Erkennung notwendig – Text muss immer vollständig vom Anfang beginnend decodiert werden; wahlfreier Zugriff nicht möglich • Genaueres: – Witten, I.H., R.M. Neal und J.G. Cleary: Arithmetic Coding for Data Compression. CACM 30(1987) 6, 520-540 (incl. C-Programm) – Strutz, T.: Bilddatenkompression. Vieweg-Verlag 2000 Klöditz Hochschule Anhalt (FH) Datenorganisation 2006 Datenkompression Seite 22 Phrasen-Codierung • Symbol- oder Zeichenfolgen werden (als Phrasen) im Laufe der Codierung in einem Wörterbuch abgelegt (dictionary-based compression) • von Lempel und Ziv (1977) entwickelt: Algorithmus LZ77; • 1978 verbessert zu LZ78, 1984 durch den von Welch angegebenen Algorithmus in die Praxis überführt als LZW Datenorganisation 2006 Datenkompression Seite 23 Klöditz Hochschule Anhalt (FH) LZ78-Algorithmus • LZ78-Algorithmus zum Senden: 1. Die aktuelle Phrase P := P[n] ist ein leerer String 2. Hänge das nächste Symbol s[n+1] an die Phrase und aktualisiere P[n+1] := P || s[n+1]. 3. Falls P[n+1] im Wörterbuch steht: Definiere P := P[n+1] und fahre fort mit Schritt 2 4. P[n+1] steht nicht im Wörterbuch: Sende die Phrase P gefolgt vom neuen Symbol s[n+1] 5. Falls s[n+1] das letzte Symbol ist, beende die Codierung 6. Trage die neue Phrase P[n+1] ins Wörterbuch ein, wenn noch Platz vorhanden ist 7. Fahre fort mit Schritt 1. Klöditz Hochschule Anhalt (FH) Datenorganisation 2006 Datenkompression Seite 24 LZ78, Variante LZW Beispiel Kompression der Zeichenkette (in Klammern Codenummer) abaabacdabaacdabaacd Ausgabe Eintrag Ausgabe Eintrag Ausgabe Eintrag a (97) - a (97) aba (259) ac (260) abaa (263) b (98) ab (256) c (99) ac (260) da (262) acd (264) a (97) ba (257) d (100) cd (261) ba (257) dab (265) ab (256) aa (258) aba (259) da (262) acd (264) baa (266) Kompressionsrate: 16 Zeichen á 8 bit (128 bit) Î 12 Zeichen á 9 bit (108 bit) Datenorganisation 2006 Datenkompression Seite 25 Klöditz Hochschule Anhalt (FH) Kompression von Bildern Î Bildaufbereitung Î Bildverarbeitung Î Quantisierung Î Entropie-Codierung Î komprimiertes Bild Klöditz Hochschule Anhalt (FH) Datenorganisation 2006 Datenkompression Seite 26 Anforderungen an Kompressionsverfahren • • • • • • • • kein / wenig Qualitätsverlust geringe Komplexität der Verfahrens Berücksichtigung von Zeitschranken wahlfreier Zugriff auf bestimmte Informationen Unabhängigkeit von Bildschirmgröße und Bildwiederholfrequenz Synchronisation von Audio und Video Realisierung als Software systemunabhängig Datenorganisation 2006 Datenkompression Seite 27 Klöditz Hochschule Anhalt (FH) JPEG Allgemeines • JPEG = Joint Photographic Expert Group; 1984-1987 von ISO und CCITT gegründet; Aufgabe: Kompressionsverfahren für Bilder mit Faktor 10 entwickeln • geeignet für Einzelbilder; 1992 ISO-Standard; nur ein Teil ist kommerziell erhältlich • Genaueres: – ISO IEC JTC 1: Information Technology - Digital Compression and Coding of Continious-Tone Still Images. International Standard ISO/IEC IS 10918; 1992 – Steimetz, R.: Multimedia-Technologie - Einführung und Grundlagen. Springer-Verlag 1993 – Held, G.: Data and Image Compression – Tools and Techniques. Wiley 1996 Klöditz Hochschule Anhalt (FH) Datenorganisation 2006 Datenkompression Seite 28 JPEG Entwicklungskriterien • Verfahren unabhängig von Bildgröße, Format und Auflösung • Unabhängigkeit zwischen Farbraum und Farbvielfalt • Komplexität und statisches Verhalten der Bilddaten sollten bei Kompression berücksichtigt werden • möglichst hohe Kompressionsrate und hohe Bildqualität • Software sollte portabel sein und später mit spezieller Hardware vereinfacht werden • Decodierung sowohl sequentiell als auch progressiv (Bild wird als Ganzes immer feiner) Datenorganisation 2006 Datenkompression Seite 29 Klöditz Hochschule Anhalt (FH) JPEG Übersicht • Austauschformat: – Bilddaten – Parameter und Tabellen des Codierprozesses • Schritte im JPEG-Kompressionsverfahren Originalbild Bildaufbereitung Bildverarbeitung Blockung 8*8 Pixel Prädikator FDCT Entropiecodierung Quantisierung Bitstrom Lauflänge Huffman Arithmetisch • Kombinationen der verschiedenen Möglichkeiten ergeben unterschiedliche Modi Klöditz Hochschule Anhalt (FH) Datenorganisation 2006 Datenkompression Seite 30 JPEG Verlustbehafteter Modus (JPEG Baseline Codec) – Ablauf: • • • • Konvertierung des Bildes in den YCbCr-Farbraum, Farb-Subsampling Diskrete Cosinus-Transformation (DCT) Quantisierung der DCT-Koeffizienten Codierung der Koeffizienten, Kompression FDCT IDCT Quantisierung Codierung Tabellen Tabellen Dequantisierung Decodierung 1010011101... 1010011101... – 3 Operationsmodi im JPEG Baseline Codec: Sequential Mode / Progressive Mode / Hierarchical Mode Datenorganisation 2006 Datenkompression Seite 31 Klöditz Hochschule Anhalt (FH) JPEG Bildaufbereitung • Bild besteht aus min. 1 bis max. 255 Bildebenen • JPEG verwendet YCbCr-Farbmodell: Y = 0.299*R + 0.587*G + 0.114*B Cb = -0.1687*R - 0.3313*G + 0.5*B Cr = 0.5*R - 0.4187*G - 0.0813*B Luminanz Color blueness Color redness wegen geringer Empfindlichkeit des Auges für Farbunterschiede werden bei Cb und Cr Gebiete von 2*2 Pixeln zusammengefasst Klöditz Hochschule Anhalt (FH) Datenorganisation 2006 Datenkompression Seite 32 JPEG Bildaufbereitung Abtastwerte Cn Yi Xi C2 C1 Ci - Bildebenen mit gleicher oder unterschiedlicher Auflösung Abtastwerte werden mit p bit/Pixel dargestellt (p = 8 | 12 bit) Datenorganisation 2006 Datenkompression Seite 33 Klöditz Hochschule Anhalt (FH) JPEG Bildaufbereitung Nichtverschachtelte Abtastung 0 1 2 3 4 5 0 1 2 3 Verschachtelte Abtastung bei unterschiedlicher Auflösung Klöditz Hochschule Anhalt (FH) Datenorganisation 2006 Datenkompression Seite 34 JPEG Baseline Codec; Sequential Mode Bildverarbeitung • Blockung des Bildes in 8*8 Pixel-Quadrate, Wertebereich der Pixel wird in das um den Nullpunkt symmetrische Intervall (-128, 127) verschoben (syx) • anschließend Diskrete Forward-Cosinus-Transformation (FDCT) für jede Komponente 7 svu = ¼*cu*cv 7 [Σ Σ syx*cos ((2x+1)uπ/16)*cos ((2y+1)vπ/16) ] x=0 y=0 mit cu, cv = { 1/√2 für u,v = 0 | 1 sonst } • Ergebnis: 64 Koeffizienten svu Datenorganisation 2006 Datenkompression Seite 35 Klöditz Hochschule Anhalt (FH) JPEG Baseline Codec; Sequential Mode Bildverarbeitung • Koeffizienten haben Bedeutung: S00 DC-Koeffizient (Gleichspannungsanteil), bestimmt Grundfarbton der gesamten Dateneinheit alle übrigen Koeffizienten = AC-Koeffizienten (in Anlehnung an Sij Wechselspannungsanteil) S70 höchste Frequenz in waagerechter Richtung S07 höchste Frequenz in senkrechter Richtung höchste in beiden Richtungen auftretende Frequenz S77 hohe Frequenz = Kante AC = 0 - Fläche Klöditz Hochschule Anhalt (FH) Datenorganisation 2006 Datenkompression Seite 36 JPEG Baseline Codec; Sequential Mode Quantisierung • verlustbehaftet • JPEG stellt Quantisierungsliste mit 64 Einträgen (Qvu, 8 bit) zur Verfügung; separate Einstellung der Koeffizientenbewertung möglich • Quantisierung: sqvu = round (svu / Qvu) • Dequantisierung mit gleicher Liste: Rvu = sqvu * Qvu Datenorganisation 2006 Datenkompression Seite 37 Klöditz Hochschule Anhalt (FH) JPEG Baseline Codec; Sequential Mode Entropie-Codierung • Vorbereitung: DC-Koeffizienten werden als Differenz zum Vorgängerblock dargestellt (sehr kleine Werte bei gleicher Farbe) • Abtastung der AC-Koeffizienten diagonal von kleineren Frequenzen (höhere Werte) zu größeren Frequenzen (viele Null-Werte) AC01 DC AC70 Klöditz Hochschule Anhalt (FH) AC07 AC77 Datenorganisation 2006 Datenkompression Seite 38 JPEG Baseline Codec; Sequential Mode Entropie-Codierung • Lauflängen-Codierung von Null-Werten und Abbildung der ACKoeffizienten in 1 bis 10 bit, der DC-Koeffizienten in 1 bis 11 bit • Darstellung als ISO-Intermediate-Symbol-Sequence-Format: – Anzahl folgender Null-Koeffizienten – benutzte Anzahl bit für nächsten Koeffizienten – Wert des Koeffizienten • Huffman-Codierung – DC- und AC-Koeffizienten mit je zwei unterschiedlichen Tabellen (nicht von JPEG standardisiert) Datenorganisation 2006 Datenkompression Seite 39 Klöditz Hochschule Anhalt (FH) JPEG Ein Beispiel Originalwerte DCT-Koeffizienten 139 144 149 153 155 155 155 155 235.6 -1.0 -12.1 -5.2 2.1 -1.7 -2.7 144 151 153 156 159 156 156 156 -22.6 -17.5 -6.2 -3.2 -2.9 -0.1 0.4 -1.2 150 155 160 163 158 156 156 156 -10.9 -9.3 -1.6 1.5 0.2 -0.9 -0.6 -0.1 159 161 162 160 160 159 159 159 -7.1 -1.9 0.2 1.5 0.9 -0.1 0.0 0.3 159 160 161 162 162 155 155 155 -0.6 -0.8 1.5 1.6 -0.1 -0.7 0.6 1.3 161 161 161 161 160 157 157 157 -1.8 -0.2 1.6 -0.3 -0.8 1.5 1.0 -1.0 162 162 161 163 162 157 157 157 -1.3 -0.4 -0.3 -1.5 -0.5 1.7 1.1 -0.8 162 162 161 161 161 163 158 158 -2.6 1.6 -3.8 -1.8 1.9 1.2 -0.6 -0.4 Quantisierungstabelle Quantisierte Koeffizienten 16 11 10 16 24 40 51 61 15 0 -1 0 0 0 0 0 12 12 14 19 26 58 60 55 -2 -1 0 0 0 0 0 0 14 13 16 24 40 57 69 56 -1 -1 0 0 0 0 0 0 14 17 22 29 51 87 80 62 0 0 0 0 0 0 0 0 18 22 37 56 68 109 103 77 0 0 0 0 0 0 0 0 24 35 55 64 81 104 113 92 0 0 0 0 0 0 0 0 49 64 78 87 103 121 120 101 0 0 0 0 0 0 0 0 72 92 95 98 112 100 103 99 0 0 0 0 0 0 0 0 Klöditz Hochschule Anhalt (FH) -1.3 Datenorganisation 2006 Datenkompression Seite 40 JPEG Ein Beispiel Quantisierungstabelle Quantisierte Koeffizienten 16 11 10 16 24 40 51 61 15 0 -1 0 0 0 0 0 12 12 14 19 26 58 60 55 -2 -1 0 0 0 0 0 0 14 13 16 24 40 57 69 56 -1 -1 0 0 0 0 0 0 14 17 22 29 51 87 80 62 0 0 0 0 0 0 0 0 18 22 37 56 68 109 103 77 0 0 0 0 0 0 0 0 24 35 55 64 81 104 113 92 0 0 0 0 0 0 0 0 49 64 78 87 103 121 120 101 0 0 0 0 0 0 0 0 72 92 95 98 112 100 103 99 0 0 0 0 0 0 0 0 Rekonstruierte Koeffizienten Rekonstruierte Originalwerte 240 0 -10 0 0 0 0 0 144 146 149 152 154 156 156 156 -24 -12 0 0 0 0 0 0 148 150 152 154 156 156 156 156 -14 -13 0 0 0 0 0 0 155 156 157 0 0 0 0 0 0 0 0 160 161 161 158 139 162 144 163 150 164 159 162 159 161 161 158 144 161 151 162 155 162 161 162 160 162 161 157 149 160 153 160 160 160 162 161 161 161 161 156 153 157 156 158 163 158 160 159 162 159 161 155 155 155 159 156 158 157 160 158 162 158 160 162 162 162 162 0 0 0 0 0 0 0 0 163 163 164 0 0 0 0 0 0 0 0 163 164 164 0 0 0 0 0 0 0 0 160 161 162 0 0 0 0 0 0 0 0 158 159 161 Klöditz Hochschule Anhalt (FH) 155 155 155 156 156 156 156 156 156 159 159 159 155 155 155 157 157 157 161 163 Datenorganisation 162 157 2006 157 157 161 161 158 Datenkompression Seite 41 161 163 158 MPEG Allgemeines • Bewegtbilder + Audio • Datenrate 1.4 Mbit/s angestrebt • sowohl für symmetrische wie für asymmetrische Codierung geeignet (asymmetrisch erfordert höheren Aufwand beim Codieren, weniger Aufwand beim Decodieren) Klöditz Hochschule Anhalt (FH) Datenorganisation 2006 Datenkompression Seite 42