Eine Formel verändert die Welt gewidmet Herrn Prof. Dr. Heinz Gerhäuser anlässlich seiner Verabschiedung in den Ruhestand Johannes Huber Lehrstuhl für Informationsübertragung Friedrich-Alexander-Universität Erlangen-Nürnberg 26. Oktober 2011 Eine Formel verändert die Welt gewidmet Herrn Prof. Dr. Heinz Gerhäuser anlässlich seiner Entpflichtung von Dienstaufgaben Johannes Huber Lehrstuhl für Informationsübertragung Friedrich-Alexander-Universität Erlangen-Nürnberg 26. Oktober 2011 Eine Formel verändert die Welt gewidmet Herrn Prof. Dr. Heinz Gerhäuser anlässlich der Verlagerung der Schwerpunkte seiner Aktivitäten Johannes Huber Lehrstuhl für Informationsübertragung Friedrich-Alexander-Universität Erlangen-Nürnberg 26. Oktober 2011 Eine Formel verändert die Welt gewidmet Herrn Prof. Dr. Heinz Gerhäuser anlässlich dessen, dass sich wohl nichts ändert in seinem Leben Johannes Huber Lehrstuhl für Informationsübertragung Friedrich-Alexander-Universität Erlangen-Nürnberg 26. Oktober 2011 Eine Formel verändert die Welt Inhaltsübersicht 1. Die Säulen des Informationszeitalters 2. Die Kapazitätsformel 3. Grundlagen der Informationstheorie A. B. Gesetz der großen Zahlen Kugeln im vieldimensionalen Raum 4. Information und Energie A. B. Minimale Energie pro bit Information bei thermischem Rauschen Information und der 2. Hauptsatz der Thermodynamik (Maxwellscher Dämon) 5 Eine Formel verändert die Welt 5. Folgerungen aus der Shannonschen Kapazitätsformel A. B. C. 6. Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung Digitalisierung analoger Werte Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale Nicht-transparente Informationsübertragung: Quellencodierung A. B. C. Redundanzreduktion Irrelevanzreduktion Vergleich analoger und digitaler Übertragung beim Audio-Rundfunk 7. Formeln verändern die Welt 8. Persönliche Anmerkungen 6 Eine Formel verändert die Welt Äquivalenz von Masse und Energie: E = m · c2 7 1. Die Säulen des Informationszeitalters Radio des Jahres 1960 Quelle: http://www.flickr.com/photos/31146530@N06/5001551130/ Author: stevepamer 8 1. Die Säulen des Informationszeitalters Inneres des I-Phones 2010 Wodurch wurde diese Entwicklung innerhalb von 50 Jahren ermöglicht? 9 1. Die Säulen des Informationszeitalters Inneres des I-Phones 2010 Erlaubnis muss noch erfragt werden. Quelle: Wodurch wurde diese Entwicklung innerhalb von 50 Jahren ermöglicht? 10 1. Die Säulen des Informationszeitalters • • Erfindung des Transistors Bardeen, Brattain, Shockley, AT & T Bell Labs, Murray Hill, New Jersey, 1947/48 ⇒ Entwicklung der Mikroelektronik Lösung des Problems: Wie können informationstechnische Systeme effizient implementiert werden? Entwicklung der Informationstheorie durch Claude E. Shannon (1916 – 2001) AT & T Bell Labs, Murray Hill, New Jersey, 1948 (publiziert) Antwort auf die Frage: Was ist ein effizientes informationstechnisches System, aus welchen Komponenten soll es bestehen, welche Methoden sind anzuwenden? ⇒ Einleitung des Wandels von der analogen zur digitalen Informationstechnik durch eine Mathematische Theorie 11 1. Die Säulen des Informationszeitalters Claude Elwood Shannon 1916 - 2001 Quelle: 12 1. Die Säulen des Informationszeitalters The Father of Information Age Quelle: 13 1. Die Säulen des Informationszeitalters 14 1. Die Säulen des Informationszeitalters 15 Eine Formel verändert die Welt Inhaltsübersicht 1. Die Säulen des Informationszeitalters 2. Die Kapazitätsformel 3. Grundlagen der Informationstheorie A. B. Gesetz der großen Zahlen Kugeln im vieldimensionalen Raum 4. Information und Energie A. B. Minimale Energie pro bit Information bei thermischem Rauschen Information und der 2. Hauptsatz der Thermodynamik (Maxwellscher Dämon) 16 2. Die Kapazitätsformel Eine Formel hat die Welt grundlegend verändert: unabhängige Gauß sche Störvariable gestörte Nachrichtenübertragung X W σ W2 = N σ X2 = S Y σ Y2 = S + N bit 1 S C = log 2 1 + 2 N Wert C: Informationsübertragungskapazität des zeitdiskreten Kanals bei additiver Gauß scher Störung S: Varianz des Nutzsignals (Nutzsignalleistung: Signal Power) N: Varianz der Störung (Störsignalleistung: Noise Power) 17 2. Die Kapazitätsformel Durch Anwendung des Abtasttheorems: Bei einem auf die Spektralbandbreite B bandbegrenztem Signal sind maximal 2 · B Werte je Sekunde frei wählbar. folgt S bit S CT = B log 2 1 + = B log 2 1 + N BN 0 Sekunde CT: Informationsübertragungskapazität des zeitkontinuierlichen, bandbegrenzten Übertragungskanals mit Störung durch weißes, Gauß´sches Rauschen B: (einseitige) spektrale Signalbandbreite N0: (einseitige) spektrale Rauschleistungsdichte 18 2. Die Kapazitätsformel Fundamentale Einsichten: Beim Vorhandensein von Störungen kann auch durch analoge, d.h. wertkontinuierliche Signalwerte nur eine begrenzte Anzahl unterschiedlicher Informationen repräsentiert und übertragen werden: ⇒ Information ist in digitaler Form zu repräsentieren und zu übertragen Trotz Störungen kann aber Information zuverlässig, absolut fehlerfrei übertragen werden: ⇒ eine effiziente Informationstechnik ist eine digitale Informationstechnik 19 2. Die Kapazitätsformel Fundamentaler Unterschied zwischen analoger und digitaler Informationstechnik: analog: Nutzsignal und Störung sind empfangsseitig nicht mehr trennbar digital: Nutzsignal und Störung sind prinzipiell wieder trennbar. Digitale Informationstechnik erlaubt Signalregeneration: Fehlerfreie Detektion der digitalen Symbolsequenzen und erneutes Senden des störungsfreien Sendesignals. Beispiele: Kopieren von CDs (im Vergleich zu analogen Audiokassetten) Telefonieren nach Australien 20 Eine Formel verändert die Welt Inhaltsübersicht 1. Die Säulen des Informationszeitalters 2. Die Kapazitätsformel 3. Grundlagen der Informationstheorie A. B. Gesetz der großen Zahlen Kugeln im vieldimensionalen Raum 4. Information und Energie A. B. Minimale Energie pro bit Information bei thermischem Rauschen Information und der 2. Hauptsatz der Thermodynamik (Maxwellscher Dämon) 21 3. Grundlagen der Informationstheorie A. Gesetz der großen Zahlen Wird ein Zufallsexperiment (statistisch unabhängig) sehr oft wiederholt, dann nähern sich relative Häufigkeiten Wahrscheinlichkeiten an, Mittelwerte streben gegen Erwartungswerte usw. Wiederholung reduziert die Zufälligkeit (vgl. Versicherungen) 22 3. Grundlagen der Informationstheorie Beispiel: Fairer Münzwurf, Zufallsereignis: Wappen (Kopf) oder Zahl Wahrscheinlichkeit für W Wappen bei n Würfen Pr (W) = ( W ) 2-n n n = 1000 100000 10000 100 10 nn==100 10 0 0 10 1 20 2 30 3 404 50 5 660 7 70 8 80 9 90 10 100 23 3. Grundlagen der Informationstheorie Beispiel: Fairer Münzwurf, Zufallsereignis: Wappen (Kopf) oder Zahl Wahrscheinlichkeit für W Wappen bei n Würfen Pr (W) = ( W ) 2-n n n = 100 n = 100 0 10 20 30 40 50 60 70 80 90 100 24 3. Grundlagen der Informationstheorie Beispiel: Fairer Münzwurf, Zufallsereignis: Wappen (Kopf) oder Zahl Wahrscheinlichkeit für W Wappen bei n Würfen Pr (W) = ( W ) 2-n n n = 1000 100000 25 3. Grundlagen der Informationstheorie Beispiel: Fairer Münzwurf, Zufallsereignis: Wappen (Kopf) oder Zahl Wahrscheinlichkeit für W Wappen bei n Würfen Pr (W) = ( W ) 2-n n n = 10000 26 3. Grundlagen der Informationstheorie Beispiel: Fairer Münzwurf, Zufallsereignis: Wappen (Kopf) oder Zahl Wahrscheinlichkeit für W Wappen bei n Würfen Pr (W) = ( W ) 2-n n n = 100000 10000 ·105 27 3. Grundlagen der Informationstheorie B. Kugeln in vieldimensionalen Euklidischen Räumen ℝn Ein Punkt x = ( x1 , x2 , x3 ,, xn ) im ℝn wird durch n Koordinaten spezifiziert. n Def.: Kugel mit Radius R: Menge aller Punkte x mit ∑ xi2 = R 2 i =1 x2 R . Beispiel n = 2 x1 x12 Volumen V einer Kugel mit Radius R im ℝn V= π n/2 (n / 2 ) ! n=2 ⋅ Rn n=3 + x22 =R 2 Satz von Pythagoras! V = π R2 V= π 3/ 2 (3 / 2)! R3 = 4 π R3 3 Für eine sehr große Zahl n von Dimension (n >> 1) gilt: Das Kugelvolumen wird im Wesentlichen durch oberflächennahe Punkte dominiert. 28 3. Grundlagen der Informationstheorie (Mittelwertfreie) informationstragende Signalwerte xi: Zufallswerte mit Varianz σ x2 = E{x 2 } = S (mittlere Signalleistung) xi 2 1 3 4 5 i 1 n 2 1 x ⋅ nσ x2 = σ x2 = S Gesetz der großen Zahlen: ∑ i strebt für n → ∞ nach n i =1 n Für jede lange Folge von Signalwerten xi besitzt der zugehörige Vektor x den Betrag x ≅ n ⋅ σ x2 ⇒ Alle informationstragenden langen Folgen liegen im ℝn auf der Oberfläche bzw. in einer Kugel mit dem Radius R= n⋅S 29 3. Grundlagen der Informationstheorie x2 x1 x3 30 3. Grundlagen der Informationstheorie Einfaches Übertragungsmodell Addition statistisch unabhängiger Störwerte X Y gesendeter Wert mit Varianz σ x2 = S Wi empfangener Wert mit Varianz σ 2y = S + N Störung mit Varianz σ w2 = N Übertragung langer Folgen von Werten (n >> 1) : Alle empfangenen Folgen y = ( y1 , y 2 , y3 , , y n ) bilden im ℝn Punkte auf, bzw. in einer Kugel mit dem Radius n ⋅ ( S + N ) und dem Volumen Vy . Alle Störungen w = ( w1 , w2 , , wn ) bilden im ℝn Punkte auf bzw. in einer Kugel mit dem Radius nN und dem Volumen Vw . Um jeden gesendeten Punkt x bildet die Störung eine Rauschkugel, innerhalb derer der empfangene Punkt y für n → ∞ zu finden ist. 31 3. Grundlagen der Informationstheorie Illustration n = 2 w x2 x2 x1 In einer großen Kugel mit dem Volumen Vy haben maximal L = Vy /Vw kleine Kugeln mit dem Volumen Vw Platz w x1 Damit können höchstens π n/2 L= Vy Vw = (n / 2)! (n ⋅ ( S + N ) )n / 2 π n/2 (n / 2)! (n ⋅ N )n / 2 S = 1 + N n/2 unterschiedliche Nachrichten trotz des Vorhandenseins von Störungen fehlerfrei unterscheidbar übertragen werden, wenn sich die zugehörigen Rauschkugeln für n → ∞ nicht wechselseitig durchdringen. („Sphere Hardening“) . 32 3. Grundlagen der Informationstheorie NB: Für die Bezeichnung (Adressierung) von L Elementen einer Menge benötigt man log2 (L) Binärsymbole (Bits: High/Low oder 0/1 oder schwarz/weiß) Zahl der durch ein Wort der Länge n übertragbaren Bits Z ≤ log 2 (L ) Zahl der je einzelnem Wert übertragbaren Bits 1 Z n ≤ log 2 (L ) = log 2 L1/ n n ( ) 1/ n n S Z ≤ log 2 1 + N S 1 Z ≤ log 2 1 + 2 N S = log 2 1 + N bit Kanalbenutzung (Umkehrung des Kanalcodierungstheorems) 33 3. Grundlagen der Informationstheorie Methode zum Beweis des Kanalcodierungstheorems: Für Gauß-verteilte Zufallsvariablen xi erhält man im ℝn, n → ∞, auf der Oberfläche einer Kugel mit dem Radius n ⋅ σ x2 gleichmäßig verteilte Signalpunkte Eine Auswahl von L = (1 + S/N)n/2 Punkten x ist damit so möglich, dass sich die zugehörigen „Rauschkugeln“ nicht durchdringen und eine fehlerfreie Unterscheidung der L Nachrichten möglich wird. 1 S C = log 2 1 + 2 N bit Kanalbenutzung 34 Eine Formel verändert die Welt Inhaltsübersicht 1. Die Säulen des Informationszeitalters 2. Die Kapazitätsformel 3. Grundlagen der Informationstheorie A. B. Gesetz der großen Zahlen Kugeln im vieldimensionalen Raum 4. Information und Energie A. B. Minimale Energie pro bit Information bei thermischem Rauschen Information und der 2. Hauptsatz der Thermodynamik (Maxwellscher Dämon) 35 4. Information und Energie A. Minimale Energie pro bit bei thermischem Rauschen Störung: Störleistung N = N0 · B mit N0: (einseitige) Rauschleistungsdichte von thermischen Rauschen, B: Signalbandbreite W Boltzmannklassische Physik: N0 = kB Tabs mit kB = 1,38 10−23 Hz K Konstante Tabs = 292 K : N0 = 4 · 10 −21 W Hz Nutzsignal: Eb: Energie pro bit Information; Tb: Zeit pro bit: Eb = S · Tb Datengeschwindigkeit (Datenrate) RT = 1 / Tb RT Spektrale Effizienz Γd =ˆ B E ⇒ CT = B log 2 1 + Γd b N0 bit s [bit/s ] Hz 36 4. Information und Energie ! Ideales digitales Übertragungssystem RT = CT ⇒ Eb = ( ) 1 Γd 2 − 1 ⋅ N0 Γd Shannon-Grenze der digitalen Übertragung Minimum für Γd → 0 bzw. B → ∞ ( ) e x ln 2 − 1 e x ln 2 1 x NR: lim 2 − 1 = lim = ln (2 ) lim = ln (2 ) = 0,69315... 1 x x x →0 x →0 x →0 Eb, min = ln(2) N0 = ln(2) kB · Tabs Minimale Energie zur Repräsentation bzw. Übertragung von einem bit Information im Umfeld thermischen Rauschens 37 4. Information und Energie Materie Masse m Energie E = mc2 Energie E Information Tabs = 293 K: Eb,min = 2,793 · 10−21 J mb,min = 3,10 · 10−38 kg aber: Quantenphysikalische Effekte berücksichtigen! 38 4. Information und Energie B. Information und der 2. Hauptsatz der Thermodynamik 2. Hauptsatz der Thermodynamik: In einem abgeschlossenen System kann die Entropie nur zunehmen, allenfalls gleichbleiben, nie abnehmen. Entropie: Maß für die Unordnung im System und somit Maß für den Aufwand zur Beschreibung des Systemzustandes Wärmeenergie ist weniger „edel“ als Bewegungsenergie Gegenthese zum 2. Hauptsatz: Maxwellscher Dämon Glaszylinder reibungsfrei Gasmolekül in thermischer Bewegung beweglicher, aber dichter Kolben Beobachter (Maxwellscher Dämon) 39 4. Information und Energie 1 bit Information: Molekül momentan in linker Hälfte des Gefäßes rechter Falls links: Energieverlustfreies Einschieben des Kolbens bis zur Mitte möglich, da kein Gasgegendruck vorhanden ist Ladephase: 0 l/2 l s l/2 Arbeitsphase: Austreibung des Kolbens nach rechts durch Stöße des thermisch bewegten Moleküls gegen den Kolben ⇒ Vollständige Umsetzung von thermischer Energie in Bewegungsenergie mit Hilfe von Information! Widerlegung des 2. Hauptsatzes der Thermodynamik? 40 4. Information und Energie Gegen den 2. Hauptsatz gewonnene Bewegungsenergie EMD l E MD = ∫ F ( s ) ⋅ ds l /2 Kraft mal Weg 41 4. Information und Energie Isotherme Expansion: Boyle-Mariottsches Gesetz (1662, 1676) für das ideale Gas und Maxwell-Boltzmann-Verteilung (1860) p · V = z · kB Tabs hier z = 1 (Energie je Molekül) Druck p = F(s)/A mit A: Querschnittsfläche des Zylinders Volumen V(s) = A · s ⇒ F(s) · s = kB · Tabs ⇒ F ( s ) = l E MD = ∫ l /2 k B Tabs ds = k B Tabs ln( s ) s l l /2 k B ⋅ Tabs s l = k B Tabs ln = k B Tabs ln (2 ) l /2 EMD = ln(2) kB · Tabs = ln(2) N0 = Eb,min 42 4. Information und Energie Es wird durch 1 bit Information genau die Energie im Widerspruch zum 2. Hauptsatz der Thermodynamik gewonnen, die zur Repräsentation, bzw. Übertragung von 1 bit Information minimal notwendig ist. ⇒ Maxwellscher Dämon ist widerlegt. Fundamentaler Zusammenhang zwischen Energie und Information bestätigt! Beispiel zur Ästhetik der Wissenschaften 43 Eine Formel verändert die Welt 5. Folgerungen aus der Shannonschen Kapazitätsformel A. B. C. 6. Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung Digitalisierung analoger Werte Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale Nicht-transparente Informationsübertragung: Quellencodierung A. B. C. Redundanzreduktion Irrelevanzreduktion Vergleich analoger und digitaler Übertragung beim Audio-Rundfunk 7. Formeln verändern die Welt 8. Persönliche Anmerkungen 44 5. Folgerungen aus der Shannonschen Kapazitätsformel A. Zusammenhang zwischen Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung Shannon-Grenze: ( ) Eb 1 2 Γd − 1 ≥ Γd N0 10log10(Eb/N0) [dB] → ← power efficiency 45 5. Folgerungen aus der Shannonschen Kapazitätsformel A. Zusammenhang zwischen Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung Shannon-Grenze: ( ) Eb 1 2 Γd − 1 ≥ Γd N0 10log10(Eb/N0) [dB] → ← power efficiency 46 5. Folgerungen aus der Shannonschen Kapazitätsformel A. Zusammenhang zwischen Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung Shannon-Grenze: ( ) Eb 1 2 Γd − 1 ≥ Γd N0 10log10(Eb/N0) [dB] → ← power efficiency 47 5. Folgerungen aus der Shannonschen Kapazitätsformel B. Optimale Digitalisierung Analogwerte X X∈ ℝ Digitalisierung Daten Diskrete Werte Y Y∈{y1, y2, ..., yM} Rekonstruktion R bit/Wert Kapazität für eine digitale Übertragung C = 1/2 log2 (1 + S/N) { } Signalleistung S = E X 2 = σ x2 Störung Störleistung N = E{(Y – X)2} W =Y − X S Signal-Stör-Leistungsverhältnis (Signal to Noise Ratio): SNR = N • Offensichtlich gilt: Je Wert X kann (im Mittel) nicht mehr Information von Ende zu Ende (X → Y) übertragen werden, als Information in Form von Daten transportiert wird (Data Processing Theorem). R ≥ C = R ≥ 1/2 log2 (1 + SNR) 48 5. Folgerungen aus der Shannonschen Kapazitätsformel B. Optimale Digitalisierung SNR ≤ 22R − 1 Rate-Distortion Grenze für die Digitalisierung unabhängiger Zufallswerte! Weg zur optimalen Digitalisierung: Vektorquantisierung im ℝn mit n → ∞ 49 5. Folgerungen aus der Shannonschen Kapazitätsformel C. Optimaler Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale analoges Quellensignal x(t) Bandbreite BNF Sendesignal Sender AWGN-Kanal e(t) s(t) Bandbreite BHF Rekonstruiertes Quellensignal Empfangssignal Empfänger y(t) Störung CHF = BHF log2 (1 + SNRHF) CNF = BNF log2 (1 + SNRNF) SNRNF: Signal-Stör-Leistungsverhältnis für das niederfrequente Quellensignal SNRHF: Signal-Stör-Leistungsverhältnis für das hochfrequente Quellensignal Offensichtlich gilt: CNF ≤ CHF mit „=“ für optimales Sender-Empfängerpaar Def.: Bandbreiteneffizienz der analogen Übertragung: Γa = BNF BHF 50 5. Folgerungen aus der Shannonschen Kapazitätsformel C. Optimaler Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale Shannon-Grenze der analogen Übertragung CNF = CHF SNRNF = (1 + SNRHF)1/Γa − 1 Das gleiche Resultat gilt für die Kombination „Optimale Digitalisierung“ mit „optimaler digitaler Übertragung“: ⇒ Theorem der Trennbarkeit von Quellencodierung und digitaler Übertragung 51 5. Folgerungen aus der Shannonschen Kapazitätsformel Leistungs-Bandbreiten-Diagramm für die Übertragung analoger Signale 52 5. Folgerungen aus der Shannonschen Kapazitätsformel Leistungs-Bandbreiten-Diagramm für die Übertragung analoger Signale 53 Eine Formel verändert die Welt 5. Folgerungen aus der Shannonschen Kapazitätsformel A. B. C. 6. Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung Digitalisierung analoger Werte Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale Nicht-transparente Informationsübertragung: Quellencodierung A. B. C. Redundanzreduktion Irrelevanzreduktion Vergleich analoger und digitaler Übertragung beim Audio-Rundfunk 7. Formeln verändern die Welt 8. Persönliche Anmerkungen 54 6. Nicht-Transparente Übertragung Die Shannon-Grenze gilt für die transparente Übertragung analoger Signale, also für jedes Quellensignal mit einer Bandbreite ≤ BNF ⇒ Einschränkung auf typische Signale, z.B. Audiosignale ⇒ Nicht-transparente Verfahren 55 6. Nicht-Transparente Übertragung A. Quellencodierung zur Redundanz-Reduktion: Übertragung von typischen Symbolfolgen oder Signalen Repräsentation langer Folgen durch nH anstelle n log2(M) Binärsymbole Menge aller Mn Folgen 56 6. Nicht-Transparente Übertragung A. Quellencodierung zur Redundanz-Reduktion: Übertragung von typischen Symbolfolgen oder Signalen Repräsentation langer Folgen durch nH anstelle n log2(M) Binärsymbole Menge aller Mn Folgen Teilmenge der von der Quelle typischen 2nH Folgen 57 6. Nicht-Transparente Übertragung B. Quellencodierung zur Irrelevanz-Reduktion: Der Empfänger ist nicht in der Lage, alle möglichen Mn unterschiedlicher Folgen zu unterscheiden, sondern nur 2 nH irr Menge aller Mn Folgen Redundanz + Irrelevanz-Reduktion: Es reichen im Mittel H – (log2(M) – Hirr) Binärsymbole je Quellensymbol 58 6. Nicht-Transparente Übertragung B. Quellencodierung zur Irrelevanz-Reduktion: Der Empfänger ist nicht in der Lage, alle möglichen Mn unterschiedlicher Folgen zu unterscheiden, sondern nur 2 nH irr Menge aller Mn Folgen Teilmenge der vom Empfänger unterscheidbaren 2nH irr Folgen Redundanz + Irrelevanz-Reduktion: Es reichen im Mittel H – (log2(M) – Hirr) Binärsymbole je Quellensymbol 59 6. Nicht-Transparente Übertragung B. Quellencodierung zur Irrelevanz-Reduktion: Der Empfänger ist nicht in der Lage, alle möglichen Mn unterschiedlicher Folgen zu unterscheiden, sondern nur 2 nH irr Menge aller Mn Folgen Teilmenge der vom Empfänger unterscheidbaren 2nH irr Folgen Teilmenge für die typischen vom Empfänger unterscheidbaren Folgen Redundanz + Irrelevanz-Reduktion: Es reichen im Mittel H – (log2(M) – Hirr) Binärsymbole je Quellensymbol 60 6. Nicht-Transparente Übertragung 61 6. Nicht-Transparente Übertragung 62 6. Nicht-Transparente Übertragung 63 6. Nicht-Transparente Übertragung 64 6. Nicht-Transparente Übertragung C. Vergleich: Für Rundfunk (Audio/Mono) Reduktion des erforderlichen HF-Störabstandes bei gleichem Versorgungsgebiet und gleicher Qualität 10log10(SNRNF) = 60 dB a. Vom AM-Radio zum Digitalradio (DRM), Γa = 0,5, AM DSB transparent digital nicht-transparent 75 dB 33 dB 7,8 dB 42 dB Digitale Übertragung 500 kW 25 dB Quellencodierung Sendeleistung 32 W 0,1 W 65 6. Nicht-Transparente Übertragung Vergleich: Für Rundfunk (Audio/Mono) Reduktion des erforderlichen HF-Störabstandes bei gleichem Versorgungsgebiet und gleicher Qualität 10log10(SNRNF) = 60 dB b. Vom FM-Radio zum Digitalradio (DAB), Γa = 0,07, FM transparent digital nicht-transparent 54,3 dB 13,7 dB 4,9 dB 40,6 dB Digitale Übertragung 100 kW 8,8 dB Quellencodierung Sendeleistung 8,7W 1,15 W Sender Dillberg Quelle: 66 Eine Formel verändert die Welt 5. Folgerungen aus der Shannonschen Kapazitätsformel A. B. C. 6. Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung Digitalisierung analoger Werte Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale Nicht-transparente Informationsübertragung: Quellencodierung A. B. C. Redundanzreduktion Irrelevanzreduktion Vergleich analoger und digitaler Übertragung beim Audio-Rundfunk 7. Formeln verändern die Welt 8. Persönliche Anmerkungen 67 7. Formeln verändern die Welt Technische Revolutionen wurden und werden immer durch fundamentale theoretische Leistung erreicht, nicht durch Tüftler und Bastler etc. Thermodynamik (Carnotscher Kreisprozess): Elektrodynamik (Maxwellsche Gleichungen): Quantenmechanik (Festkörperphysik): Informationstheorie: effiziente Wärmekraftmaschinen Elektrotechnik Mikro-/Nano-Elektronik Digitale Informationstechnik „Eine gute Theorie ist das praktischste, was es gibt“ (G. R. Kirchhoff, 1824 – 1887) Shannon: „I never in my life tried to do anything useful.“ ... 68 7. Formeln verändern die Welt Nicht „Produkte“ der Finanzwelt, nicht Ideologien, nicht Fußballstars und auch nicht andere Stars,…… verändern die Welt so sehr wie Formeln und die hieraus folgende Technik aber: Technik ist grundsätzlich ambivalent Naturwissenschaftler und Techniker haben keine Macht darüber, wozu Formeln und die hieraus entstehende Technik benutzt werden. ⇒ Komplexere Technik erfordert zugleich eine höhere kulturelle Entwicklung der Gesellschaft. Die zentralen Aufgaben der Geisteswissenschaften: Wertedefinitionen, Wertevermittlung statt Werteverlust! 69 Eine Formel verändert die Welt 5. Folgerungen aus der Shannonschen Kapazitätsformel A. B. C. 6. Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung Digitalisierung analoger Werte Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale Nicht-transparente Informationsübertragung: Quellencodierung A. B. C. Redundanzreduktion Irrelevanzreduktion Vergleich analoger und digitaler Übertragung beim Audio-Rundfunk 7. Formeln verändern die Welt 8. Persönliche Anmerkungen 70 8. Persönliche Anmerkungen Der wissenschaftliche Weg von Prof. Dr. Heinz Gerhäuser ist geprägt vom Übergang vom Industrie- zum Informationszeitalter, vom Basteln analoger AM- und FM-Radios zum digitalen Rundfunk DAB, World-Space, XM-Radio, Sirius, DRM und vieles andere mehr… via MP3 auf den Säulen Mikroelektronik und digitale Informationstechnik 71 8. Persönliche Anmerkungen Heinz Gerhäuser − − − Wissenschaftlicher Weg über Lehre, Polytechnikum zur Universität, Industrie: Verbindung zwischen Theorie und Praxis Wissenschaftsmanager und erfolgreicher Unternehmer offen, ehrlich, vermittelnd zwischen verschiedenen Interessen, stets dem Wohl von Institut, Lehrstuhl und deren Mitarbeitern verpflichtet handelnd Förderer seiner Mitarbeiter auf allen Ebenen Verbindungen zwischen Technik- und Geisteswissenschaften niemals vom Eigeninteresse geleitet Gesellschaftliches und soziales Engagement Förderung des ländlichen Raumes (z.B. Forschungscampus und Kolpinghaus in Waischenfeld) Engagement für Kunst und Kultur, Einsatz bei sozialen Notfällen 72 8. Persönliche Anmerkungen Heinz Gerhäuser − bewundernswerte menschliche Qualitäten trotz vollem Terminplan immer für seine Mitmenschen da klar zielorientiert, aber dabei geduldig und ausgleichend sicher und kontrolliert Handeln auf der Basis klarer ethischer Grundsätze in allen Situationen ist das (offene) Geheimnis seines großen Erfolges Deshalb ein Vorbild für mich und viele andere. Herzlichen Dank! 73