Audiowandlung und Formate D. Rival Übersicht • • • • • 1. Unterschied der Signale 2. Audio vs. Midi 3. Töne und Wellenformen 4. A/D-, D/A-Konverter 5. Daten- und Audiokompression 1.1 Unterschied der Signale • Analog Zeit und Wertbereich kontinuierlich (beinhaltet unendlich viele Informationen) • Digital Zeitdiskret und Wertdiskret (endlicher Zeichenvorrat durch Kodierung) 1.2 Analoge Wärme? • Analog Übersteuerungen möglich und oft gewollt Spaltung und Verdopplung der Obertöne • Digital Maximal = 0 dB sonst sog. „Clipping“. Äußerst selten gewollt! 2 Audio vs. Midi • 2.1 Was ist Midi und warum? • 2.2 Was ist der Unterschied? • 2.3 Romplaystandards GM, GS und XG? 2.1 Was ist Midi und warum? • Musical Instrument Digital Interface Datenübertragungs-Protokoll • *.mid, nur Steuerdaten – wenig Speicher • Midi für Klingeltöne von Mobiltelefonen und (schon etwas her: ) Sound von Computerspielen. 2.2 Was ist der Unterschied? • Während Audio-Daten (z.B. auf einer CD oder in Samples) einen konkreten Klang digital erfassen, speichern und wiedergeben, beinhalten die MIDI-Daten lediglich bestimmte Steuerbefehle, die einen Klangerzeuger veranlassen, vorhandene Klänge wiederzugeben 2.3 GM,GS und XG • Standards in Klangfarben, Controller, Polyphonie, Effekten (auch Filter u. Dyn.) • GS Roland(- Soundcanvas) • XG Yamaha • Parameter wie Panorama, Velocity sowie systemexklusive Informationen 3 Töne und Wellenformen • 3.1 Tonhöhe – Frequenz • 3.2 Lautstärke - Amplitude • 3.3 Art der Darstellung 3.1 Tonhöhe • Je schneller eine Schwingung ist, desto höher ist der Ton. • Die Frequenz der Schwingungen in Hz gemessen – Schwingungen/sec. 3.2 Lautstärke - Amplitude • Je stärker die Schwingung ist, desto lauter ist der Ton. • Die Lautstärke, genauer: relativer Wert von Eingangs und Ausgangspegel = dB. 3.3 Art der Darstellung • In der Mitte ist der leiseste Ausschlag und nach außen werden die jeweiligen Pegel angezeigt. • Von links nach rechts ist die Zeit (kl. Einheit: Sample). (Bsp. Wavelab) 4 A/D D/A Konverter • • • • • • 4.1 Wie funktioniert‘ s? 4.2 Abtastrate und das Abtasttheorem 4.3 Aliasing Fehler 4.4 Auflösungen 4.5 Bitrate und Speicherbedarf 4.6 Unkomprimierte Formate 4.1 Wie funktioniert‘s ? • Der Analog-Digital Konverter tastet die Schallwelle in festen Abständen ab und gibt sie als Daten weiter. 4.1 Wie funktioniert‘s ? • PAM= PulsAmplitudenModuliertes-Signal • Das Analoge Signal wird quantisiert und und gespeichert. (Bitdepth, CD 16 Bit) • PCM 4.2 Abtastrate • Einheit: Hz. - tastet in diesen festen Abständen die Schallwelle ab • Abtasttheorem (sehr kurz):Ein Signal, mit einer Minimalfrequenz von 0 Hz und einer Maximalfrequenz freq max. muss mit einer Frequenz größer als 2 * freq max. abgetastet werden 4.2 Abtastrate • Menschliches Gehör: 20 Hz bis max. 20000Hz • 20 kHz*2 = 40 Khz • Bsp.: CD-Standard 44.1 kHz 4.3 Aliasing Fehler • Aliasing-Fehler entstehen, wenn die Abtastrate zu niedrig für die hohen Frequenzen ist. Es bilden sich neue Frequenzen, die vorher nicht im Ton enthalten waren. 4.4 Auflösungen • Auflösung: 8, 16, 24 und 32 Bit. Der Platz der jeder kleinsten digitalisierten Information = Sample zu Verfügung steht. Je höher desto genauer. Cd Standard: 16 Bit. 4.4 Auflösungen • PAM Signal wird in den Quantisierungs bereich eingefügt. 4.4 Auflösungen • Jeder einzelne digitalisierte Ausschnitt aus einer Schallwelle (Sample) braucht Speicherplatz im Computer. Je mehr Speicher pro Information reserviert wird, desto feinere Unterschiede können gespeichert werden. • Bsp: 16 Bit: ein Sample kann also Werte zwischen -32.767 und +32.767 haben. 4.5 Bitrate und Speicherbedarf • Bits die pro Sekunde zu übertragen sind • AbtastR: 44.1 kHz, Codeword-L: 16 Bit, Anzahl der Kanäle 2(Stereo). • Bitrate = 2*16Bit*44100Hz=1411kBit/sec=176,4 kB/s • 1 Minute sind ca. 10 Mb 44.000 Samples pro Sekunde * 60 Sekunden * 2 Byte pro Sample *2 (stereo) = 10.560.000 Byte = 10,1 Megabyte (bei 1 Kilobyte = 1024 Byte] 4.6 Unkomprimierte Formate • *.wav • *.aiff 5 Daten und Audiokompression • • • • • 5.1 MP3 (MPEG Audiolayer 3) 5.2 MP3 Datenkompression 5.3 Audiokompression 5.4 Bitrate 5.5 Codecs 5.1 MPEG Audiolayer 3 • Vom Deutschen Frauenhofer Institut • ab 1982 von einer Gruppe um Karlheinz Brandenburg • Ab 1995 mp3 als Extension festgelegt. • Die ID3-Tags werden einfach an den Anfang oder das Ende der MP3-Datei gehängt (Metadaten). 5.2 MP3 Kompression • Nur die hörbaren Frequenzen werden gespeichert (Grenzfrequenz) • Nicht hörbare Freq. In der Nähe von großen Oberton-Spektren. • Stereodateien lassen sich relativ besser komprimieren: 1 Kanal=Schnittmenge beider Kanäle und auf dem anderen die Differenz. (verlustfrei) • Die restliche Datenmenge wird verlustfrei komprimiert (Bsp.: ZIP) 5.3 Audiokompression • Dynamische Kompression (Amplitude) • Erhöhung der gesamten Lautstärke 5.3 Audiokompression • Multiband Kompressor 5.4 Codecs • Coder / Decoder • Decoder standardisiert • Encoder von unterschiedlichen Herstellern z.B. Lame oder Frauenhofer Encoder Quellenangaben • • Andreas Kellermeyer und Andreas Wimmer atknoll1.informatik.tu-muenchen.de:8080/tum6/lectures/seminars/ss03/audio/v1 digitalaudio-2.pdf • http://de.wikipedia.org/wiki/Musical_Instrument_Digital_Interface • de.wikipedia.org/wiki/Nyquist-Shannon-Abtasttheorem • de.wikipedia.org/wiki/Alexander_Graham_Bell • • • Kommunikationsplattform für niedersächsische Schulen NIBIS http://nibis.ni.schule.de/~lepke/audio/audio-grund.html (http://nibis.ni.schule.de/~lepke/audio/audacity/audacity.html) • audacity.sourceforge.net/download/ • www.steinberg.de