Audiowandlung und Formate

Werbung
Audiowandlung und Formate
D. Rival
Übersicht
•
•
•
•
•
1. Unterschied der Signale
2. Audio vs. Midi
3. Töne und Wellenformen
4. A/D-, D/A-Konverter
5. Daten- und Audiokompression
1.1 Unterschied der Signale
• Analog
Zeit und Wertbereich kontinuierlich
(beinhaltet unendlich viele Informationen)
• Digital
Zeitdiskret und Wertdiskret
(endlicher Zeichenvorrat durch Kodierung)
1.2 Analoge Wärme?
• Analog
Übersteuerungen möglich und oft gewollt
Spaltung und Verdopplung der Obertöne
• Digital
Maximal = 0 dB sonst sog. „Clipping“.
Äußerst selten gewollt!
2 Audio vs. Midi
• 2.1 Was ist Midi und warum?
• 2.2 Was ist der Unterschied?
• 2.3 Romplaystandards GM, GS und XG?
2.1 Was ist Midi und warum?
• Musical Instrument Digital Interface
Datenübertragungs-Protokoll
• *.mid, nur Steuerdaten – wenig Speicher
• Midi für Klingeltöne von Mobiltelefonen
und (schon etwas her: ) Sound von
Computerspielen.
2.2 Was ist der Unterschied?
• Während Audio-Daten (z.B. auf einer CD
oder in Samples) einen konkreten Klang
digital erfassen, speichern und
wiedergeben, beinhalten die MIDI-Daten
lediglich bestimmte Steuerbefehle, die
einen Klangerzeuger veranlassen,
vorhandene Klänge wiederzugeben
2.3 GM,GS und XG
• Standards in Klangfarben, Controller,
Polyphonie, Effekten (auch Filter u. Dyn.)
• GS Roland(- Soundcanvas)
• XG Yamaha
• Parameter wie Panorama, Velocity sowie
systemexklusive Informationen
3 Töne und Wellenformen
• 3.1 Tonhöhe – Frequenz
• 3.2 Lautstärke - Amplitude
• 3.3 Art der Darstellung
3.1 Tonhöhe
• Je schneller eine Schwingung ist, desto
höher ist der Ton.
• Die Frequenz der Schwingungen in Hz
gemessen – Schwingungen/sec.
3.2 Lautstärke - Amplitude
• Je stärker die Schwingung ist, desto lauter
ist der Ton.
• Die Lautstärke, genauer: relativer Wert
von Eingangs und Ausgangspegel = dB.
3.3 Art der Darstellung
• In der Mitte ist der
leiseste Ausschlag und
nach außen werden die
jeweiligen Pegel
angezeigt.
• Von links nach rechts ist
die Zeit (kl. Einheit:
Sample).
(Bsp. Wavelab)
4 A/D D/A Konverter
•
•
•
•
•
•
4.1 Wie funktioniert‘ s?
4.2 Abtastrate und das Abtasttheorem
4.3 Aliasing Fehler
4.4 Auflösungen
4.5 Bitrate und Speicherbedarf
4.6 Unkomprimierte Formate
4.1 Wie funktioniert‘s ?
• Der Analog-Digital
Konverter tastet die
Schallwelle in festen
Abständen ab und
gibt sie als Daten
weiter.
4.1 Wie funktioniert‘s ?
• PAM=
PulsAmplitudenModuliertes-Signal
• Das Analoge Signal
wird quantisiert und
und gespeichert.
(Bitdepth, CD 16 Bit)
• PCM
4.2 Abtastrate
• Einheit: Hz. - tastet in diesen festen
Abständen die Schallwelle ab
• Abtasttheorem (sehr kurz):Ein Signal,
mit einer Minimalfrequenz von 0 Hz und
einer Maximalfrequenz freq max. muss mit
einer Frequenz größer als 2 * freq max.
abgetastet werden
4.2 Abtastrate
• Menschliches Gehör: 20 Hz bis max.
20000Hz
• 20 kHz*2 = 40 Khz
• Bsp.: CD-Standard 44.1 kHz
4.3 Aliasing Fehler
• Aliasing-Fehler
entstehen, wenn die
Abtastrate zu niedrig
für die hohen
Frequenzen ist. Es
bilden sich neue
Frequenzen, die
vorher nicht im Ton
enthalten waren.
4.4 Auflösungen
• Auflösung: 8, 16, 24 und 32 Bit. Der Platz
der jeder kleinsten digitalisierten
Information = Sample zu Verfügung steht.
Je höher desto genauer. Cd Standard: 16
Bit.
4.4 Auflösungen
• PAM Signal
wird in den
Quantisierungs
bereich
eingefügt.
4.4 Auflösungen
• Jeder einzelne digitalisierte Ausschnitt aus einer
Schallwelle (Sample) braucht Speicherplatz im
Computer. Je mehr Speicher pro Information
reserviert wird, desto feinere Unterschiede
können gespeichert werden.
• Bsp: 16 Bit: ein Sample kann also Werte
zwischen -32.767 und +32.767 haben.
4.5 Bitrate und Speicherbedarf
• Bits die pro Sekunde zu übertragen sind
• AbtastR: 44.1 kHz, Codeword-L: 16 Bit, Anzahl
der Kanäle 2(Stereo).
• Bitrate = 2*16Bit*44100Hz=1411kBit/sec=176,4
kB/s
• 1 Minute sind ca. 10 Mb
44.000 Samples pro Sekunde * 60 Sekunden * 2
Byte pro Sample *2 (stereo) = 10.560.000 Byte =
10,1 Megabyte (bei 1 Kilobyte = 1024 Byte]
4.6 Unkomprimierte Formate
• *.wav
• *.aiff
5 Daten und Audiokompression
•
•
•
•
•
5.1 MP3 (MPEG Audiolayer 3)
5.2 MP3 Datenkompression
5.3 Audiokompression
5.4 Bitrate
5.5 Codecs
5.1 MPEG Audiolayer 3
• Vom Deutschen Frauenhofer Institut
• ab 1982 von einer Gruppe um Karlheinz
Brandenburg
• Ab 1995 mp3 als Extension festgelegt.
• Die ID3-Tags werden einfach an den
Anfang oder das Ende der MP3-Datei
gehängt (Metadaten).
5.2 MP3 Kompression
• Nur die hörbaren Frequenzen werden
gespeichert (Grenzfrequenz)
• Nicht hörbare Freq. In der Nähe von großen
Oberton-Spektren.
• Stereodateien lassen sich relativ besser
komprimieren: 1 Kanal=Schnittmenge beider
Kanäle und auf dem anderen die Differenz.
(verlustfrei)
• Die restliche Datenmenge wird verlustfrei
komprimiert (Bsp.: ZIP)
5.3 Audiokompression
• Dynamische
Kompression
(Amplitude)
• Erhöhung der
gesamten
Lautstärke
5.3 Audiokompression
• Multiband
Kompressor
5.4 Codecs
• Coder / Decoder
• Decoder standardisiert
• Encoder von unterschiedlichen Herstellern
z.B. Lame oder Frauenhofer Encoder
Quellenangaben
•
•
Andreas Kellermeyer und Andreas Wimmer
atknoll1.informatik.tu-muenchen.de:8080/tum6/lectures/seminars/ss03/audio/v1
digitalaudio-2.pdf
•
http://de.wikipedia.org/wiki/Musical_Instrument_Digital_Interface
•
de.wikipedia.org/wiki/Nyquist-Shannon-Abtasttheorem
•
de.wikipedia.org/wiki/Alexander_Graham_Bell
•
•
•
Kommunikationsplattform für niedersächsische Schulen NIBIS
http://nibis.ni.schule.de/~lepke/audio/audio-grund.html
(http://nibis.ni.schule.de/~lepke/audio/audacity/audacity.html)
•
audacity.sourceforge.net/download/
•
www.steinberg.de
Herunterladen