Adaptive Music: Musik, egal ob in Filmen oder Spielen, besitzt außerordentliche Ausdruckskraft und Feinsinn. Sie ermöglicht es Inhalt auf emotionaler, nicht intellektueller Ebene, zu vermitteln. Spannung kann erzeugt oder beseitigt werden, Vorgriffe auf das nähere Geschehen durch Einsatz von „Character Themes“, also Assoziationen durch die Musik mit bestimmten Charakteren, sind beispielsweise möglich. Ziel ist es nun Musik an das aktuelle Geschehen und an den Inhalt im Spiel anzupassen. Definition: Adaptive Music beinhaltet ein System welches bedeutsam unterschiedliche Ausführungsversionen eines Stücks generiert. Lineare Musik besitzt nur eine repräsentative Form (Notenspiegel), welche nachgeahmt wird. Diese Art Interpretation eines Stücks führt von Musiker zu Musiker zu unterschiedlichen Ausführungsformen, welche jedoch alle möglichst nahe am Ideal liegen sollten. Bei Adaptive Music hingegen entstehen die Ausführungsunterschiede auf Grund der Konstruktion bzw. des Designs! Ein Music System gibt nach der Spezifikation von Ereignissen eine Art Handlungsvorschrift vor. Es wird von zuvor spezifizierten Eingabeparametern gesteuert und hängt also von umgebenden Interaktionen ab. Hierbei sind das exakte Timing und/oder die Sequenz und/oder die Anzahl und/oder die Anwesendheit und/oder die Werte der Inputparameter nicht vorbestimmt und werden erst zur Laufzeit ermittelt. Es wird davon ausgegangen, dass die aktuellen ausführungsspezifischen Ereignisse einen bedeutsamen Grad an Unbestimmtheit haben. Zu aller letzt stehen die traditionelle musikalische Stimmigkeit und die musikalische Gestaltung im Vordergrund, das generierte Stück soll so klingen, als ob es linear komponiert worden wäre. „Music Design Document“ Das „Music Design Document“ ist Teil des „Game Design Document“ und sollte von Beginn der Entwicklung eines Spiels verfasst und im weiteren Verlauf erweitert werden. Sinn und Zweck ist es die Ideen des Composers und des Game Designers zusammen zusetzten um aus kreativen Visionen zu technischen Lösungen zu gelangen. Vor dem Verfassen des „Music Design Document“ sollten folgenden Fragen geklärt werden: • Welche Teile des Spiels sollen Musik enthalten? • Welcher Musikstil ist am besten für das zu entwickelnde Spiel • Wann soll die Musik umgebend, wann intensiv sein? • Wie sollen die Übergänge der Musik klingen? • Sind “Character Themes” angemessen? Folgende Überschriften sollte ein ausgearbeitetes “Music Design Document“ enthalten: • „Music Direction“ – Stil der Musik, Produktionskosten, Abgrenzung der • • • • • Stimmungen „Themes“ - Gedanken über „World Themes”, „Character Themes”, Musik die auf einer Meta Ebene beeinflusst „Functionality and Adaptability“ – Verhalten der Musik verhalten, Grad an Anpassungsfähigkeit der eingesetzt wird „Technical Requirements“ – „Tools” und Techniken die verwendet werden oder entstehen sollen „Integration and Implementation“ – beinhaltet Kommunikation der „game engine“ mit dem „Music System“, Techniken für die Implementierung der Musik „Production Process“ –Implementierung des Spiels,Gewinnerzeugung, Qualitätssicherung Music System: Aufgabe des „Music System“ ist die Kommunikation und Zusammenarbeit mit der „Game Engine“. Anweisungen der „Game Engine“ an das „Music System“ führen zur Änderung der Musik, dadurch dass das „Music System“ nach Erhalt der Informationen durch die „Game Engine“ passende Schritte einleiten kann und eine Handlungsvorschrift vorgibt. Wichtig ist dass das „Music System“ ständig den eigenen Status übermittelt. Änderungen der Musik durch die „Game Engine“ können durch folgende Situationen ausgelöst werden: „Location based Triggers, Game-State Triggers, NPC AI Triggers, Player Character Triggers, Event Triggers”. Es besteht entweder die Möglichkeit, ein auf dem Markt erhältliches System zu verwenden (Direct Music, Miles Sound System), was jedoch ein Mühsames einarbeiten zur Folge hat, oder von Grund auf ein neues Music System, wiederum in Zusammenarbeit mit dem Composer, aufzubauen. Techniken: „Adaptive Audio Technology“ ist ein Begriff, der die Reaktion von Ton und Musik auf das „Gameplay” umfasst. Man befindet sich noch immer in einer frühen Phase der Entwicklung, welche Technik für ein Spiel verwendet wird hängt in erste Linie von dem Spiel selbst und von den Entscheidungen des Composers und des Designers ab. Vorhanden ist ein Spektrum von Musik die linear und „Pre-Rendered“ ist bis Musik die vollständig „Game-Rendered“ ist. Für die lineare Eigenschaft, werden üblicherweise „Wave-Files“ eingesetzt: Es ist möglich alle Instrumente, Tools und Techniken in ein „Wave-File“ aufzunehmen, was wiederum zu hohen Produktionswerten führt. Des Weiteren ist der Klang eines „Wave-Files“, dadurch dass es pre-rendere ist meist äußerst gut. Um eine erhöhte Anpassungsfähigkeit zu erzielen ist es möglich ein „Wave-File“ in sogenannte „Wave-Lets“ zu unterteilen. Die höchste Anpassungsfähigkeit kann mit „Midi-Files“ erzielt werden, da hierbei eine Note als manipulierbares Datenteil angesehen wird. Geschwindigkeit, Harmonie und Instrumentation sind extrem schnell änderbar. Ein Nachteil von „Midi“ ist der zwangsläufig benötigte Einsatz von plattformabhängigen „Custom Instrument Banks“ da es oft von Nöten ist langwierig nach Instrumenten, die der eigenen Vorstellung entsprechen, zu suchen. „Harmonic System“: Durch Änderung der Tonart einer „Music Cue“ in Echtzeit durch die „Game Engine“ wird Variation erzielt, Stimmungswechsel sind ebenfalls schnell und einfach möglich. Wichtig ist das die harmonischen Änderungen einer „Music Cue“ ständig verfolgt werden, damit neue „Cues“ in Einklang zur aktuell abgespielten Musik beginnen können. Mit Hilfe von „Run-Time Mixing and Effects“ ist es möglich, zur Laufzeit die Lautstärke zu verändern, Wechsel zw. Instrumenten vorzunehmen und Hall und Verzögerungen vorzunehmen. Ziel der „Musical Variation“ ist es, einen „Replay Value“ dadurch zu erreichen, dass sich die abgespielte Hintergrundsmusik wahllos verändert. Es ist beispielsweise möglich, dass das „Music System“ ein zufälliges „Wave-File“ auswählt, auf einer tieferen Ebene könnte zusätzlich wieder wahllos einer von verschiedenen „Parts“ eines Instruments zum Einsatz kommen. Übergangstechniken: Die Koordinierung und Synchronisation von verschiedenen „Music Cues“, sprich der Einsatzzeitpunkt der Musik kann entweder geschichtet („Layered“) oder sequentiell stattfinden. Einfache Techniken für Übergänge von einer „Cue “ in eine andere sind beispielsweise Stille zw. zwei „Cues“, ein „Cross-Fade“, eine direkte Verbindung oder eine extra „Cues“ zur Überlappung. Grundsätzlich muss das „Music System“ immer bereit auf Änderungen der auszuspielenden Sounds sein. Übergänge können jeder Zeit stattfinden, die Schwierigkeit besteht darin, dass immer die Gefahr für den Spieler vorhanden ist, nach schlechten Übergängen aus dem „Gameplay“ herausgerissen zu werden. Des Weiteren gibt es die „Cue-to-Cue Transission“ bei der die aktuelle „Music Cue“ bis zur eigenen nächsten Grenze spielt, dann beginnt eine neue. Diese Technik ist sehr einfach, kann jedoch abrupt wirken. Das „Layering“ zielt darauf ab, dass die Instrumentation der momentan abgespielten Musik vergrößert bzw. verkleinert wird. Hierbei liegt der Vorteil in der Kontinuität, schnelle Übergänge sind jedoch nicht umsetzbar. Eine Übergangsmatrix findet Verwendung wenn man in speziellen Spielsituation einen perfekten Übergang für nötig hält. Ziel ist es dass je zwei Elemente aus der Matrix passend ineinander übergehen können. Zur Erstellung der Matrix ist die Zusammenarbeit des Designers mit dem Composer von äußerst wichtig, da dies eine langwierige Arbeit sein kann. Real-Time Sound Synthesis: Der Grundgedanke ist es, die Entstehung und Ausbreitung von Schallwellen nachzuvollziehen, um ein realistisches Abbild der Geräuschkulisse zu erreichen. Sounds oder Töne entstehen dadurch, dass Oberflächen nach Aufprall von Schallwellen beginnen zu vibrieren. Liegt diese Vibration im Bereich von ca. 20- 20000 Hz so ist die neu entstandene Schallwellen für den Menschen wahrnehmbar. Anforderungen an eine solche sogenannte „Physically Based Sound Synthesis“ sind eine „Physics Engine“, da das „Sound System“ über die Kollisionsgeometrie informiert werden muss, und eine hohe Rechenleistung. „Physically Based Sound Synthesis“ ist davon abhängig, wie Objekte kollidieren und wo der Aufprall stattfindet ebenso wie von den Eigenschaften des Materials und der Geometrie der Objekte. Diskrete Annäherungen an die Geometrie eines Objekts und die direkte Anwendung der Bewegungslehre ermöglicht es die Modellierung der Vibrationen der Oberfläche eines Objekts nachzuvollziehen. Als Eingabe erhält man die Geometrie eines Objekts in Form eines Netzt bestehend aus Eckpunkten und verbindenden Kanten. Die Eckpunkte des Netzes werden durch Punktmassen, die Kanten durch gedämpfte Federn ersetzt (Vortragsfolie 25). Ein mathematisches Gleichungssystem, das „Feder-Masse System“ (Spring-Mass System), entsteht, welches dazu dient, die sogenannten „Vibbration Modes“ eines Objekts zu modellieren (Vortragsfolie 26). Diese „Vibration Modes“ werden durch das Beobachten der Veränderung des Abstandsvektors r (zw. den Punktmassen) in Abhängigkeit von der Zeit t, berechnet. Ein „Vibration Mode“ ist eine Sinuskurve mit einer festen Dämpfrate, mischt man nun alle „Vibration Modes“ eines Objekts zu bestimmten Anteilen, so erhält man Schallwellen bzw. die Töne, die durch die Oberflächenvibration entstanden sind. Um nicht alle Vibrationsmodi mischen zu müssen nützt die Methode der „Mode Compression“ die menschliche auditive Wahrnehmung aus (Vortragsfolie 31). Dabei werden nahe beieinander liegende Frequenzen (der verschiedenen Vibrationsmodi) zusammengefasst, um die Effizienz bei der Synthese der Sounds eines Objekts zu erhöhen. Eine weitere Methode um Rechenleistung einzusparen ist das „Quality Scaling“. Die Idee hierbei ist es die Aufmerksamkeit auf Objekte aus dem Vordergrund zu legen, indem jedes Objekt eine Skalierung der momentanen Soundqualität und Lautstärke erhält.