Datenkompression Datenmengen

Werbung
Datenkompression
• Motivation
• Übersicht, Informationstheorie, Modellierung
• Verlustfreie Datenkompression:
Huffman-Codierung, Arithmetische Codierung, ...
• Verlustbehaftete Datenkompression:
Fourier-Analyse, JPEG, MPEG, ...
Datenorganisation 2006
Datenkompression
Seite 1
Klöditz
Hochschule Anhalt (FH)
Motivation
Datenmengen
• Bildschirmseite Text:
– Bildwiederholspeicher: 640 * 480 Pixel, je Zeichen 8*8 Pixel
liefert: (640/8) * (480/8) = 4.8 Kbyte
• Bildschirmseite Vektorbilder:
– ca. 5000 Geraden mit Start- und Endpunkt (x-Koordinate: 10 bit;
y-Koordinate: 9 bit) + 8 bit Attribut liefert: 5000 * 46 / 8 = 28 KByte
• Bildschirmseite Pixelbilder:
– 256 Farben (1 Byte/Pixel) liefert: 1024 * 768 = 768 KByte;
RGB (3 Byte/Pixel) liefert 2.25 MByte
Klöditz
Hochschule Anhalt (FH)
Datenorganisation 2006
Datenkompression
Seite 2
Motivation
Datenmengen
• Sprache:
– Sprache in Telefonqualität wird mit 8 kHz abgetastet und mit 8 bit
quantisiert (Datenstrom 64 Kbit/s) liefert: 8 KByte/s
• Stereo-Audio-Signal in CD-Qualität:
– wird mit 44.1 kHz je Kanal abgetastet und mit 16 bit quantisiert und
liefert:
2 * 44100/s * 16 bit / 8 bit/Byte = 172 KByte/s
• Videosequenz:
– 25 Vollbilder/s, Luminanz (13.5 MHz) und Chrominanz (2* 6.75
MHz) brauchen 3 Byte/Pixel; liefert 22.5 MByte/s
Datenorganisation 2006
Datenkompression
Seite 3
Klöditz
Hochschule Anhalt (FH)
Motivation
Datenmengen
• Speichervolumen:
–
–
–
–
Arbeitsspeicher z.B. 256 MByte
CD-ROM (640 MByte): knapp 30 s Video
DVD (4.7 GByte): knapp 2.5 min Video
ISDN (64 Kbit/s): kleine, unscharfe, rucklige Bilder; Qualitätsverlust
• Hauptsätze der EDV-Hardware:
– Speichern von Daten ist teuer
• Rechnen ist billig
• schnelle Massenspeicher sind teuer gegenüber Prozessoren
– Übertragen von Daten ist teuer
• Rechnen ist billig
• Breitband-Leitungen sind teuer gegenüber Prozessoren
Klöditz
Hochschule Anhalt (FH)
Datenorganisation 2006
Datenkompression
Seite 4
Motivation
Datenkomprimierung
• Erkennen "innerer Gesetzmäßigkeiten" einer Datenmenge
• Beschreibung durch eine „universelle Formel“ am elegantesten
• "zufällige" Zahlenreihen sind nicht (verlustfrei) komprimierbar
Datenorganisation 2006
Datenkompression
Seite 5
Klöditz
Hochschule Anhalt (FH)
Datenkomprimierung
Erkennen gemeinsamer Merkmale
1000 Personen mit je 4 Merkmalen
Nationalität
Geschlecht
Alter in Jahren
Größe in cm
<256 UN-Staaten
2
<128
< 256
8 bit
1 bit
7 bit
8 bit
Summe:
24 bit = 3 Byte
Anzahl möglicher Ausprägungen
1000 Personen erzeugen
16.777.216 aus 24 bit
3.000 Byte
Ansatzpunkte für Komprimierung: ???
Klöditz
Hochschule Anhalt (FH)
Datenorganisation 2006
Datenkompression
Seite 6
Datenkomprimierung
Eine „universelle Formel“
• Fourier-Analyse:
– periodische Vorgänge entstehen durch Überlagerung von
harmonischen Schwingungen:
f(t) = a0 + a1 cos (2πt) + b1 sin (2πt) + ...
+ ak cos (2πt) + bk sin (2πt) + ...
– Approximation einer Funktion:
ak, bk: Amplitude (Lautstärke)
k:
Frequenz (Tonhöhen)
t:
Zeit (auch beliebige andere Skala)
Klöditz
Hochschule Anhalt (FH)
Datenorganisation 2006
Datenkompression
Seite 7
Bewertung von Kompressionsverfahren
•
•
•
•
Kompressionsrate
Zeitaufwand für Kompression und Dekompression
Aufwand für Hardware und Software
Verbreitung des Verfahrens, Standardisierung
Klöditz
Hochschule Anhalt (FH)
Datenorganisation 2006
Datenkompression
Seite 8
Struktur der Datenkompression
Sender
Empfänger
Modell
Quelle
Modell
Codierer
Kanal
Decodierer
Senke
(Netz /
Speichermedium)
Datenorganisation 2006
Datenkompression
Seite 9
Klöditz
Hochschule Anhalt (FH)
Informationstheorie
Gegeben:
Quelle S mit Symbolen s1, s2, ..., sn
mit Wahrscheinlichkeiten ihres Auftretens P(sk) = pk
(alle pk ≥ 0 und p1 + p2 + ... + pn = 1
•
•
Informationsgehalt eines Symbols sk:
I(sk) = log2 (1/pk)
Entropie (gewichteter Durchschnitt der Informationsgehalte aller
Symbole = mittlerer Informationsgehalt einer Zeichenfolge):
n
H(S) = Σ
k=1
n
pk * I(sk) =
Σ
pk * log2 (1/pk)
k=1
Annahmen:
Quelle stationär und gedächtnislos;
d.h. Wahrscheinlichkeit eines Symbols ändert sich nicht im Laufe der
Nachricht und ist nicht von früheren Symbolen abhängig
Klöditz
Hochschule Anhalt (FH)
Datenorganisation 2006
Datenkompression
Seite 10
Modellierung
• Unterscheidung:
– Modellierung = Schätzung der Wahrscheinlichkeiten
– Codierung = Nutzung der Wahrscheinlichkeiten
• Modellgenauigkeit:
– Abweichungen führen zu schlechterer Kompression, insbesondere
bei sehr ungleichmäßigen Verteilungen
– Modell n-ter Ordnung: nutzt n Vorgängersymbole zur Schätzung
der Wahrscheinlichkeit
• Adaptivität:
– Anpassung an Nachrichten
• Umformen der Quelle:
– Folgen von Symbolen zusammenfassen
– Differenzenbildung zwischen Prognose des nächsten Wertes und
tatsächlichem Wert
Datenorganisation 2006
Datenkompression
Seite 11
Klöditz
Hochschule Anhalt (FH)
Kategorien
•
Entropie-Codierung:
–
–
–
–
•
verlustfrei
medien-unabhängig
Daten: Sequenz digitaler Datenwerte ohne Bedeutung
Beispiele:
Lauflängen-Codierung, Huffman-Codierung, Arithmetische Codierung
Quellen-Codierung:
– verlustbehaftet
– verwendet Semantik der zu codierenden Informationen
– Kompressionsgrad ist abhängig vom Medium
•
Hybride Codierung:
– Kombination von Quellen- und Entropie-Codierung
•
•
•
•
•
JPEG
H.261 (px64)
MPEG
DVI
MP3
Klöditz
Hochschule Anhalt (FH)
Einzelbilder
Videosequenzen mit geringer Auflösung
Bewegtbilder plus Audio
Einzelbilder und kontinuierliche Medien
Sound
Datenorganisation 2006
Datenkompression
Seite 12
Grundlegende Verfahren
• Lauflängen-Codierung:
– mehr als drei identische aufeinanderfolgende Bytes werden ersetzt
durch
• Markierungsbyte,
• Byte und
• Anzahl
• Null-Unterdrückung:
– Nullen (Anzahl > 3) werden mit Markierungsbyte und Anzahl codiert
• Pattern Substitution:
– einzelne Byte ersetzen häufig vorkommende Quellmuster (z.B.
Schlüsselworte BEGIN, IF, THEN, ELSE, END, ... In
Programmtexten) durch Markierungsbyte + Index
Datenorganisation 2006
Datenkompression
Seite 13
Klöditz
Hochschule Anhalt (FH)
Shannon-Fano-Codierung
•
•
von Fano (1949) vorgeschlagen
Prinzip: Code mit variabler Länge:
– häufige Symbole - kurzer Code
– seltene Symbole - langer Code
•
Algorithmus:
1. Sortiere alle Symbole des betrachteten Alphabets nach
absteigender Wahrscheinlichkeit
2. Teile die Symbole in zwei Gruppen, die eine möglichst gleiche
Gruppenwahrscheinlichkeit haben
3. Weise der linken Gruppe eine 1 und der rechten eine 0 zu
4. Setze für jede Teilgruppe, die mehr als ein Symbol enthält bei 2.
fort
5. Reihe die Einsen und Nullen in der Reihenfolge ihrer Zuweisung
zu Codewörtern aneinander
Klöditz
Hochschule Anhalt (FH)
Datenorganisation 2006
Datenkompression
Seite 14
Shannon-Fano-Codierung
Beispiel
Zeichen
relative Häufigkeit
a
d
b
c
0.4
0.3
0.2
0.1
1
-
0
1
1.0
a
0
-
-
1
0
1
01
001
000
0.6
0.4
0.3
0.3
d
0.2
0.1
b
c
Datenorganisation 2006
Datenkompression
Seite 15
Klöditz
Hochschule Anhalt (FH)
Huffman-Codierung
•
•
Weiterentwicklung der Shannon-Fano-Codierung durch David
Huffman (1952)
Algorithmus:
1. Betrachte alle Symbole als Blätter eines Codebaumes und trage
ihre Wahrscheinlichkeiten ein
2. Fasse die beiden geringsten Wahrscheinlichkeiten zu einem
Knoten zusammen und weise ihre Summe dem neuen Knoten zu
3. Beschrifte die neuen Zweige mit 0 bzw. 1
4. Wenn die Wurzel des Baumes mit der Wahrscheinlichkeit p=1.0
erreicht ist, beende die Konstruktion
5. Setze bei 2. fort
•
optimal:
– wenn alle Wahrscheinlichkeiten ganzzahlige Potenzen von 2
Klöditz
Hochschule Anhalt (FH)
Datenorganisation 2006
Datenkompression
Seite 16
Huffman-Codierung
Beispiel
Zeichen
_
E
N
R
I
S
T
U
D
Häufigkeit
8
6
2
2
1
1
1
1
1
1
Huffman-Code
00
10
0100
0101
0110
0111
1100
1101
1110
1111
A
24
1
0
10
14
1
0
4
1
1
0
A
D
0
2
1
0
_
1
2
2
1
0
6
E
U
4
0
1
0
1
0
T
S
I
R
N
Kompressionsrate:
– unkomprimiert: 24 Zeichen * 8 bit = 192 bit
– komprimiert:
14 * 2 bit + 10 * 4 bit = 68 bit
– Kompressionsrate = 1 – 68/192 = 0.6458
Datenorganisation 2006
Datenkompression
Seite 17
Klöditz
Hochschule Anhalt (FH)
Huffman-Codierung
Beispiel: Erzeugung des Huffman-Codes
_
8
_
8
_
8
_
8
_
8
_
8
_
8
ADUTE
10
SIRN_
14
E
6
E
6
E
6
E
6
E
6
E
6
SIRN
6
_
8
ADUTE
10
N
2
AD
2
UT
2
SI
2
RN
4
ADUT
4
E
6
SIRN
6
R
2
N
2
AD
2
UT
2
SI
2
RN
4
ADUT
4
I
1
R
2
N
2
AD
2
UT
2
SI
2
S
1
I
1
R
2
N
2
AD
2
T
1
S
1
I
1
R
2
U
1
T
1
S
1
D
1
U
1
A
1
UT
AD
1
A
0
D
SI
RN
ADUT
SIRN
ADUTE
SIRN_
AD...N_
1
0
1
0
1
0
1
0
1
0
1
0
1
0
U
T
S
I
R
N
AD
UT
SI
RN
ADUT
E
SIRN
_
Klöditz
Hochschule Anhalt (FH)
1
0
ADUTE SIRN_
Datenorganisation 2006
Datenkompression
Seite 18
Arithmetische Codierung
• Prinzip:
– Nachricht wird durch ein Intervall von reellen Zahlen zwischen 0
und 1
– absolut redundanzfreie Kompression (abgesehen von
Rechengenauigkeit)
Datenorganisation 2006
Datenkompression
Seite 19
Klöditz
Hochschule Anhalt (FH)
Arithmetische Codierung
Beispiel - Encoding
• Modellalphabet:
Symbol
Wahrscheinlichkeit
Intervall
a
e
i
o
u
!
0.2
0.3
0.1
0.2
0.1
0.1
[0.0, 0.2) [0.2, 0.5) [0.5, 0.6) [0.6, 0.8) [0.8, 0.9) [0.9, 1.0)
• Arithmetische Codierung der Nachricht eaii!
1
0.5
a
0.236
i
0.2336
i
0.2336
!
!
!
!
!
u
u
u
u
u
o
o
o
o
o
o
i
i
i
i
i
i
e
e
e
e
e
e
a
0.2
nach Sehen von
Intervall
Klöditz
Hochschule Anhalt (FH)
0.26
!
u
a
0
e
!
a
0.2
e
[0.0, 1.0) [0.2, 0.5)
a
0.23
a
[0.2,
0.26)
a
0.233
i
[0.23,
0.236)
a
0.23354
i
[0.233,
0.2336)
!
[0.23354
, 0.2336)
Datenorganisation 2006
Datenkompression
Seite 20
Arithmetische Codierung
Beispiel - Decoding
• Empfänger kennt
– Auftrittswahrscheinlichkeiten und
– Lage des endgültigen Intervalls
• Decodierung:
– 1. Zeichen: e weil endgültiges Intervall voll in e-Intervall enthalten
– Simulation des Rechenganges zum Vercodieren beim Sender
liefert
2. Zeichen: a weil dieses ein Intervall, das vollständig das
Endintervall umschließt, produziert hätte
– Fortsetzung der Simulation des Rechenganges beim Sender liefert
die vollständige Nachricht
Datenorganisation 2006
Datenkompression
Seite 21
Klöditz
Hochschule Anhalt (FH)
Arithmetische Codierung
Einschätzung
• Schlussfolgerungen:
– eine einzige Zahl aus dem Endintervall reicht zum Decodieren
– numerische Operationen müssen bei Sender und Empfänger
identisch implementiert sein
– 32-bit-Arithmetik bei Textübertragung notwendig, 16 bit sind zu
wenig
– Ende-Erkennung notwendig
– Text muss immer vollständig vom Anfang beginnend decodiert
werden; wahlfreier Zugriff nicht möglich
• Genaueres:
– Witten, I.H., R.M. Neal und J.G. Cleary:
Arithmetic Coding for Data Compression.
CACM 30(1987) 6, 520-540 (incl. C-Programm)
– Strutz, T.: Bilddatenkompression. Vieweg-Verlag 2000
Klöditz
Hochschule Anhalt (FH)
Datenorganisation 2006
Datenkompression
Seite 22
Phrasen-Codierung
• Symbol- oder Zeichenfolgen werden (als Phrasen) im Laufe der
Codierung in einem Wörterbuch abgelegt (dictionary-based
compression)
• von Lempel und Ziv (1977) entwickelt: Algorithmus LZ77;
• 1978 verbessert zu LZ78, 1984 durch den von Welch
angegebenen Algorithmus in die Praxis überführt als LZW
Datenorganisation 2006
Datenkompression
Seite 23
Klöditz
Hochschule Anhalt (FH)
LZ78-Algorithmus
•
LZ78-Algorithmus zum Senden:
1. Die aktuelle Phrase P := P[n] ist ein leerer String
2. Hänge das nächste Symbol s[n+1] an die Phrase und aktualisiere
P[n+1] := P || s[n+1].
3. Falls P[n+1] im Wörterbuch steht:
Definiere P := P[n+1] und fahre fort mit Schritt 2
4. P[n+1] steht nicht im Wörterbuch:
Sende die Phrase P gefolgt vom neuen Symbol s[n+1]
5. Falls s[n+1] das letzte Symbol ist, beende die Codierung
6. Trage die neue Phrase P[n+1] ins Wörterbuch ein, wenn noch
Platz vorhanden ist
7. Fahre fort mit Schritt 1.
Klöditz
Hochschule Anhalt (FH)
Datenorganisation 2006
Datenkompression
Seite 24
LZ78, Variante LZW
Beispiel
Kompression der Zeichenkette (in Klammern Codenummer)
abaabacdabaacdabaacd
Ausgabe
Eintrag
Ausgabe
Eintrag
Ausgabe
Eintrag
a (97)
-
a (97)
aba (259)
ac (260)
abaa (263)
b (98)
ab (256)
c (99)
ac (260)
da (262)
acd (264)
a (97)
ba (257)
d (100)
cd (261)
ba (257)
dab (265)
ab (256)
aa (258)
aba (259)
da (262)
acd (264)
baa (266)
Kompressionsrate:
16 Zeichen á 8 bit (128 bit) Î 12 Zeichen á 9 bit (108 bit)
Datenorganisation 2006
Datenkompression
Seite 25
Klöditz
Hochschule Anhalt (FH)
Kompression von Bildern
Î Bildaufbereitung
Î Bildverarbeitung
Î Quantisierung
Î Entropie-Codierung
Î komprimiertes Bild
Klöditz
Hochschule Anhalt (FH)
Datenorganisation 2006
Datenkompression
Seite 26
Anforderungen an Kompressionsverfahren
•
•
•
•
•
•
•
•
kein / wenig Qualitätsverlust
geringe Komplexität der Verfahrens
Berücksichtigung von Zeitschranken
wahlfreier Zugriff auf bestimmte Informationen
Unabhängigkeit von Bildschirmgröße und Bildwiederholfrequenz
Synchronisation von Audio und Video
Realisierung als Software
systemunabhängig
Datenorganisation 2006
Datenkompression
Seite 27
Klöditz
Hochschule Anhalt (FH)
JPEG
Allgemeines
• JPEG = Joint Photographic Expert Group;
1984-1987 von ISO und CCITT gegründet;
Aufgabe: Kompressionsverfahren für Bilder mit Faktor 10
entwickeln
• geeignet für Einzelbilder; 1992 ISO-Standard;
nur ein Teil ist kommerziell erhältlich
• Genaueres:
– ISO IEC JTC 1: Information Technology - Digital Compression and
Coding of Continious-Tone Still Images. International Standard
ISO/IEC IS 10918; 1992
– Steimetz, R.: Multimedia-Technologie - Einführung und
Grundlagen. Springer-Verlag 1993
– Held, G.: Data and Image Compression – Tools and Techniques.
Wiley 1996
Klöditz
Hochschule Anhalt (FH)
Datenorganisation 2006
Datenkompression
Seite 28
JPEG
Entwicklungskriterien
• Verfahren unabhängig von Bildgröße, Format und Auflösung
• Unabhängigkeit zwischen Farbraum und Farbvielfalt
• Komplexität und statisches Verhalten der Bilddaten sollten bei
Kompression berücksichtigt werden
• möglichst hohe Kompressionsrate und hohe Bildqualität
• Software sollte portabel sein und später mit spezieller Hardware
vereinfacht werden
• Decodierung sowohl sequentiell als auch progressiv (Bild wird
als Ganzes immer feiner)
Datenorganisation 2006
Datenkompression
Seite 29
Klöditz
Hochschule Anhalt (FH)
JPEG
Übersicht
• Austauschformat:
– Bilddaten
– Parameter und Tabellen des Codierprozesses
• Schritte im JPEG-Kompressionsverfahren
Originalbild
Bildaufbereitung
Bildverarbeitung
Blockung
8*8 Pixel
Prädikator
FDCT
Entropiecodierung
Quantisierung
Bitstrom
Lauflänge
Huffman
Arithmetisch
• Kombinationen der verschiedenen Möglichkeiten ergeben
unterschiedliche Modi
Klöditz
Hochschule Anhalt (FH)
Datenorganisation 2006
Datenkompression
Seite 30
JPEG
Verlustbehafteter Modus (JPEG Baseline Codec)
– Ablauf:
•
•
•
•
Konvertierung des Bildes in den YCbCr-Farbraum, Farb-Subsampling
Diskrete Cosinus-Transformation (DCT)
Quantisierung der DCT-Koeffizienten
Codierung der Koeffizienten, Kompression
FDCT
IDCT
Quantisierung
Codierung
Tabellen
Tabellen
Dequantisierung
Decodierung
1010011101...
1010011101...
– 3 Operationsmodi im JPEG Baseline Codec:
Sequential Mode / Progressive Mode / Hierarchical Mode
Datenorganisation 2006
Datenkompression
Seite 31
Klöditz
Hochschule Anhalt (FH)
JPEG
Bildaufbereitung
• Bild besteht aus min. 1 bis max. 255 Bildebenen
• JPEG verwendet YCbCr-Farbmodell:
Y = 0.299*R + 0.587*G + 0.114*B
Cb = -0.1687*R - 0.3313*G + 0.5*B
Cr = 0.5*R - 0.4187*G - 0.0813*B
Luminanz
Color blueness
Color redness
wegen geringer Empfindlichkeit des Auges für Farbunterschiede
werden bei Cb und Cr Gebiete von 2*2 Pixeln zusammengefasst
Klöditz
Hochschule Anhalt (FH)
Datenorganisation 2006
Datenkompression
Seite 32
JPEG
Bildaufbereitung
Abtastwerte
Cn
Yi
Xi
C2
C1
Ci - Bildebenen mit gleicher oder unterschiedlicher Auflösung
Abtastwerte werden mit p bit/Pixel dargestellt (p = 8 | 12 bit)
Datenorganisation 2006
Datenkompression
Seite 33
Klöditz
Hochschule Anhalt (FH)
JPEG
Bildaufbereitung
Nichtverschachtelte
Abtastung
0 1
2
3
4
5
0
1
2
3
Verschachtelte Abtastung bei unterschiedlicher Auflösung
Klöditz
Hochschule Anhalt (FH)
Datenorganisation 2006
Datenkompression
Seite 34
JPEG Baseline Codec; Sequential Mode
Bildverarbeitung
• Blockung des Bildes in 8*8 Pixel-Quadrate,
Wertebereich der Pixel wird in das um den Nullpunkt symmetrische
Intervall (-128, 127) verschoben (syx)
• anschließend Diskrete Forward-Cosinus-Transformation (FDCT)
für jede Komponente
7
svu = ¼*cu*cv
7
[Σ Σ
syx*cos ((2x+1)uπ/16)*cos ((2y+1)vπ/16) ]
x=0 y=0
mit
cu, cv =
{ 1/√2
für u,v = 0 | 1 sonst }
• Ergebnis: 64 Koeffizienten svu
Datenorganisation 2006
Datenkompression
Seite 35
Klöditz
Hochschule Anhalt (FH)
JPEG Baseline Codec; Sequential Mode
Bildverarbeitung
• Koeffizienten haben Bedeutung:
S00
DC-Koeffizient (Gleichspannungsanteil),
bestimmt Grundfarbton der gesamten Dateneinheit
alle übrigen Koeffizienten = AC-Koeffizienten (in Anlehnung an
Sij
Wechselspannungsanteil)
S70
höchste Frequenz in waagerechter Richtung
S07
höchste Frequenz in senkrechter Richtung
höchste in beiden Richtungen auftretende Frequenz
S77
hohe Frequenz = Kante
AC = 0 - Fläche
Klöditz
Hochschule Anhalt (FH)
Datenorganisation 2006
Datenkompression
Seite 36
JPEG Baseline Codec; Sequential Mode
Quantisierung
• verlustbehaftet
• JPEG stellt Quantisierungsliste mit 64 Einträgen (Qvu, 8 bit) zur
Verfügung; separate Einstellung der Koeffizientenbewertung
möglich
• Quantisierung:
sqvu = round (svu / Qvu)
• Dequantisierung mit gleicher Liste:
Rvu = sqvu * Qvu
Datenorganisation 2006
Datenkompression
Seite 37
Klöditz
Hochschule Anhalt (FH)
JPEG Baseline Codec; Sequential Mode
Entropie-Codierung
• Vorbereitung:
DC-Koeffizienten werden als Differenz zum Vorgängerblock
dargestellt (sehr kleine Werte bei gleicher Farbe)
• Abtastung der AC-Koeffizienten diagonal von kleineren
Frequenzen (höhere Werte) zu größeren Frequenzen (viele
Null-Werte)
AC01
DC
AC70
Klöditz
Hochschule Anhalt (FH)
AC07
AC77
Datenorganisation 2006
Datenkompression
Seite 38
JPEG Baseline Codec; Sequential Mode
Entropie-Codierung
• Lauflängen-Codierung von Null-Werten und Abbildung der ACKoeffizienten in 1 bis 10 bit, der DC-Koeffizienten in 1 bis 11 bit
• Darstellung als ISO-Intermediate-Symbol-Sequence-Format:
– Anzahl folgender Null-Koeffizienten
– benutzte Anzahl bit für nächsten Koeffizienten
– Wert des Koeffizienten
• Huffman-Codierung
– DC- und AC-Koeffizienten mit je zwei unterschiedlichen Tabellen
(nicht von JPEG standardisiert)
Datenorganisation 2006
Datenkompression
Seite 39
Klöditz
Hochschule Anhalt (FH)
JPEG
Ein Beispiel
Originalwerte
DCT-Koeffizienten
139
144
149
153
155
155
155
155
235.6
-1.0
-12.1
-5.2
2.1
-1.7
-2.7
144
151
153
156
159
156
156
156
-22.6
-17.5
-6.2
-3.2
-2.9
-0.1
0.4
-1.2
150
155
160
163
158
156
156
156
-10.9
-9.3
-1.6
1.5
0.2
-0.9
-0.6
-0.1
159
161
162
160
160
159
159
159
-7.1
-1.9
0.2
1.5
0.9
-0.1
0.0
0.3
159
160
161
162
162
155
155
155
-0.6
-0.8
1.5
1.6
-0.1
-0.7
0.6
1.3
161
161
161
161
160
157
157
157
-1.8
-0.2
1.6
-0.3
-0.8
1.5
1.0
-1.0
162
162
161
163
162
157
157
157
-1.3
-0.4
-0.3
-1.5
-0.5
1.7
1.1
-0.8
162
162
161
161
161
163
158
158
-2.6
1.6
-3.8
-1.8
1.9
1.2
-0.6
-0.4
Quantisierungstabelle
Quantisierte Koeffizienten
16
11
10
16
24
40
51
61
15
0
-1
0
0
0
0
0
12
12
14
19
26
58
60
55
-2
-1
0
0
0
0
0
0
14
13
16
24
40
57
69
56
-1
-1
0
0
0
0
0
0
14
17
22
29
51
87
80
62
0
0
0
0
0
0
0
0
18
22
37
56
68
109
103
77
0
0
0
0
0
0
0
0
24
35
55
64
81
104
113
92
0
0
0
0
0
0
0
0
49
64
78
87
103
121
120
101
0
0
0
0
0
0
0
0
72
92
95
98
112
100
103
99
0
0
0
0
0
0
0
0
Klöditz
Hochschule Anhalt (FH)
-1.3
Datenorganisation 2006
Datenkompression
Seite 40
JPEG
Ein Beispiel
Quantisierungstabelle
Quantisierte Koeffizienten
16
11
10
16
24
40
51
61
15
0
-1
0
0
0
0
0
12
12
14
19
26
58
60
55
-2
-1
0
0
0
0
0
0
14
13
16
24
40
57
69
56
-1
-1
0
0
0
0
0
0
14
17
22
29
51
87
80
62
0
0
0
0
0
0
0
0
18
22
37
56
68
109
103
77
0
0
0
0
0
0
0
0
24
35
55
64
81
104
113
92
0
0
0
0
0
0
0
0
49
64
78
87
103
121
120
101
0
0
0
0
0
0
0
0
72
92
95
98
112
100
103
99
0
0
0
0
0
0
0
0
Rekonstruierte Koeffizienten
Rekonstruierte Originalwerte
240
0
-10
0
0
0
0
0
144
146
149
152
154
156
156
156
-24
-12
0
0
0
0
0
0
148
150
152
154
156
156
156
156
-14
-13
0
0
0
0
0
0
155
156
157
0
0
0
0
0
0
0
0
160
161
161
158
139
162
144
163
150
164
159
162
159
161
161
158
144
161
151
162
155
162
161
162
160
162
161
157
149
160
153
160
160
160
162
161
161
161
161
156
153
157
156
158
163
158
160
159
162
159
161
155
155
155
159
156
158
157
160
158
162
158
160
162
162
162
162
0
0
0
0
0
0
0
0
163
163
164
0
0
0
0
0
0
0
0
163
164
164
0
0
0
0
0
0
0
0
160
161
162
0
0
0
0
0
0
0
0
158
159
161
Klöditz
Hochschule Anhalt (FH)
155
155
155
156
156
156
156
156
156
159
159
159
155
155
155
157
157
157
161
163 Datenorganisation
162
157 2006
157
157
161
161
158
Datenkompression
Seite 41
161
163
158
MPEG
Allgemeines
• Bewegtbilder + Audio
• Datenrate 1.4 Mbit/s angestrebt
• sowohl für symmetrische wie für asymmetrische Codierung
geeignet (asymmetrisch erfordert höheren Aufwand beim
Codieren, weniger Aufwand beim Decodieren)
Klöditz
Hochschule Anhalt (FH)
Datenorganisation 2006
Datenkompression
Seite 42
Herunterladen