Einleitung
Streng genommen läßt sich jedes Musizieren, an dem mehrere Musiker beteiligt sind als Netzwerk bezeichnen. Akustische und visuelle Stimuli werden von den beteiligten Subjekten übermittelt und lösen kontrollierte Reaktionen in ihren Partnern aus. Der Einbezug musizierender Computer folgt dem selben Prinzip und ist unproblematisch, solange dabei keine große Distanzen zu überwinden sind.
Obwohl nicht endgültig zu klären ist, ob das Musizieren über große Distanzen wirklich einem menschlichen Bedürfnis folgt oder lediglich dazu dient, einer existierenden Technologie Reverenz zu erweisen, sei erwähnt, dass es auch 'klassische' Realisationen von rein akustischer Distanzmusik gibt, so etwa die Music for Wilderness Lake des Kanadier R. Murray Schafer
(http://www.bullfrogfilms.com/catalog/68.html).
Weitere eher traditionelle Konzepte bedienen sich breitbandiger Standleitungen oder der Satellitentechnik, die mittels ausgeklügeltem Timings sogar synchrones Musizieren von an weit entfernten Orten befindlichen Interpreten erlaubt. Die Crystal Psalms (1988) von Alvin Curran (http://newalbion.com/NA067/) seien hier beispielsweise angeführt. Die horrenden Kosten, die bei diesen Verbindungstypen entstehen, verbieten es jedoch, diese häufiger zur Anwendung zu bringen. Telefonleitungen scheiden wegen ihrer niedrigen Tonqualität aus, obwohl es in einer anderen Funktion durchaus eine sehr zeitgemäße und kostengünstige Rolle spielt, nämlich als Zugang zum Internet.
Es ist das Internet, das in den letzten Jahren zunehmend zum virtuellen Schauplatz interessanter musikalischer Experimente geworden ist. Durch die Andersartigkeit des Internets als Produktions- und Aufführungsort haben sich neue Formen des Musizierens entwickelt. Dieser Text wird nun im Folgenden eine Übersicht geben über die Entwicklung einer vernetzten Echtzeitkompositionsumgebung, die sich auf die Möglichkeiten des Internets stützt, auf seine immanenten Synchronizitätsprobleme eingeht und damit adäquate Aufführungsmöglichkeiten ermöglicht.
Musizieren im Internet
Der nachfolgende Text zu Tod Machovers Brain Opera (http://brainop.media.mit.edu/) reflektiert 6 fundamentale Kriterien von Internetmusiksystemen und soll als Einführung in ihre Charakteristik vorangestellt werden.
The Brain Opera is an attempt to bring expression and creativity to everyone, in public or at home, by combining an exceptionally large number of interactive modes into a single, coherent experience. The project connects a series of hyperinstruments designed for the general public with a performance and a series of real-time music activities on the Internet. Audiences explore the hands-on instruments as preparation for the performance, creating personal music that makes each performance unique. The project is attempting to redefine the nature of collective interaction in public places, as well as to explore the possibilities of expressive objects and environments for the workplace and home.
Die Kriterien sind also wie folgt:
Vernetzung
Die Entwicklung von MIDI (Musical Instrument Digital Interface) in frühen 80er Jahren machte es möglich, Computer in einem kreisförmigen (und später auch sternförmigen), plattformunabhängigen Netzwerk anzuordnen. Die damit verbundenen Möglichkeiten des Austauschs von MIDI-Ereignissen, die zum Teil als Steuerbefehle für automatische Kompositionsvorgänge re-interpretierbar sind, wurden dankbar von Musikern aufgegriffen, obwohl große Distanzen wegen der Beschränkungen von MIDI nicht überwunden werden können. Pioniere auf diesem Gebiet war die amerikanische League of Automatic Music Composers, aus der das Ensemble The Hub hervorging (http://www.mills.edu/ACAD_INFO/mus_bischoff.html).
Der Aufstieg des Internets als auch die Entwicklung der Intranet-Technologie und der damit verbundenen Kommunikationsprotokolle (wie etwa TCP/IP) erlaubte es auch Musikern seit Anfang/Mitte der 90er Jahre mit ihren Computern über weitere Entfernungen miteinander zu kommunizieren. So nimmt es kaum Wunder, dass die Entwicklung von Internetkompositionen von denen vorangetrieben wurde, die auch schon bei den MIDI-Netzwerken die Nase vorne hatten - so etwa die Eternal Network Music Site des The Hub-Mitglieds Chris Brown (http://www.mills.edu/LIFE/CCM/Eternal_Network_Music.html).
Algorithmen
Viele Internetmusikkonzepte (eine Übersicht findet man im Internet unter http://www.hudba.de) stützen sich auf unendlich ablaufende, zum Teil allmählich mutierende Prozesse, die vom Publikum passiv mit verfolgt oder aktiv durch Parametereinstellungen verändert werden können. Grundlage dieser Prozesse sind Musikalgorithmen, deren Komplexität von einfachen Zufallsoperationen bis hin zu künstlicher Intelligenz und Lernfähigkeit reicht.
Interaktivität
Das Musizieren mit vernetzten Computern setzt, im Falle der Einbeziehung algorithmischer Vorgänge, Interaktivität voraus. Nur so ist zu gewährleisten, dass der Mensch in die Rechenvorgänge eingreifen und ihren Verlauf bestimmen kann. Den als Schnittstellen zwischen Mensch und Maschine eingesetzten Controllers sind dabei keine Grenzen auferlegt, solange sie dazu in der Lage sind, menschliche (Erregungs-)Zustände abzubilden. Eine solche Schnittstelle zwischen der akustischen und der elektronischen Welt ist der Tonhöhenverfolger (englisch Pitch Tracker), der auch von dem Posaunisten und Improvisationsmusiker George Lewis (http://orpheus.ucsd.edu/dept.music/musicdept//lewis.html) in seinem interaktiven Projekt Voyager genutzt wird. Lewis hat die Software so konzipiert, dass er die Reaktionsweisen des Systems nicht vorhersehen kann und dreht so den Spieß im Verhältnis zwischen Mensch und Maschine um. Die Maschine ist nun der primäre Impulsgeber und reagiert in unberechenbarer Weise auf die auf ihn zurückgeworfenen Klänge - eine soziologische Metapher der etwas anderen Art.
Echtzeit
Ein weiteres Spezifikum interaktiver Systeme ist, dass ihre Reaktionen im allgemeinen in Echtzeit erfolgen, d.h. die musikalische Struktur (nicht selten samt ihrer Klangsynthese) erklingt in dem Moment, in der sie errechnet wird. Stellvertretend für den Paradigmenwechsel von "non real-time" auf "real-time" steht Klarenz Barlows Stück Cogluotobüsisletmesi von 1978, dessen Algorithmen nur wenige Jahre später in die Echtzeitkompositions- und improvisationsumgebung AUTOBUSK eingeflossen sind.
Ich habe in meinem Text Die Domestikation des Zufalls (http://www.kammerensemble.de/ 04_diskurs/04_xtexte/05hajdu.html) darauf hingewiesen, dass die resultierenden Kompositionen als - bereits potentiell auf dem Niveau der Algorithmen angelegte - Verwirklichungen (Emanationen) des Systems anzusehen sind.
Improvisation/Komposition
Eine der wichtigsten Resultate von Internetsystemen ist das Verschwimmen der Grenzen zwischen Komposition und Improvisation. Ein offener formaler Ablauf ist die Voraussetzung für die kollektive Erforschung struktureller und klanglicher Möglichkeiten, wobei die Unmöglichkeit echter Synchronizität im Internet die Anwendung genau fixierter Partituren verbietet. Das führt zu einer anderen Form sozialer Interaktion, in der der beteiligte Musiker einen viel größeren Anteil an der Realisation des Stücks hat und damit zum Co-Komponisten wird. Das Manko liegt in der Abwesenheit einer übergeordneten formalen Kontrolle: Kollektive Improvisation tendieren oft zu ähnlichen, einfachen Bogenformen (Steigerung / Entspannung), wodurch die individuelle Formsprache einer gewissen Beliebigkeit weicht.
Soziologie
Die gesellschaftlichen Implikationen vernetzter Musiksysteme wurden von den The Hub-Mitgliedern schon von Anfang an mit reflektiert: Das Netzwerk aus Musikcomputern als biologische oder soziologische Metapher von Nervensystem, Gehirn, Organismus und Gemeinschaft. Da jede menschliche Gesellschaft abhängig von ihren technologischen Möglichkeiten spezifische Spielformen schafft, nimmt es kaum Wunder, dass eine Wesensverwandtschaft mit vernetzten Computerspielen oder anderen kollektiven Interaktionsformen wie dem elektronischen Börsenhandel besteht.
Quintet.net

Abbildung: Der Quintet.net -Client
Quintet.net ist als Echtzeitskompositions- und improvisationsumgebung für 5 Spieler, die über ein Netzwerk miteinander verbunden sind, entwickelt worden. Es folgt dabei der Client-Server-Architektur, die viele Internetdienste auszeichnet, und steht mit seiner Gerhirn-Peripherie-Metapher in einem Gegensatz zur Metapher vernetzter Neuronen, die manche The Hub-Konzepte auszeichnet.
Dass ein gewisser Grad an Fixierbarkeit im Sinne traditionellen Musizierens auch in Internetsystemen möglich ist - wodurch das Pendel einer improvisatorischer Beliebigkeit wieder auf die Seite der Kontrollierbarkeit musikalischer Abläufe schwingt - soll mein Projekt Quintet.net demonstrieren.
Wie eingangs erwähnt, sind beim Musizieren visuelle Anhaltspunkte von ähnlicher Bedeutung wie akustische. Man denke dabei an den Schlag eines Dirigent oder das rhythmische Fußtippen von Kammermusikern. Zwar ist dieser Aspekt, der durch Übertragung von Videodaten abgedeckt werden könnte, in Quintet.net (noch) nicht implementiert, dafür liefert das System visuelle Stimuli durch ein Echtzeitnotationssystem, das jeden Spieler über die Aktionen der Mitspieler informiert.
Das Konzept von Quintet.net sieht vor, dass musikalische Phrasen als Sequenzen mit fixiertem Timing (also keine Einzeltöne) an einen Server-Computer geschickt werden. Zunächst müssen sich die Spieler mit ihrer Netzwerkadresse (IP-Nummer) beim Server anmelden. Vom Server werden die Sequenzen dann an die Computer der Mitspieler geleitet, die diese schließlich sowohl akustisch wie visuell darstellen. Die Klangsynthese ist ebenfalls Bestandteil des Programms, da gewährleistet werden muss, dass alle Spieler einen identischen Klang wahrnehmen.
Dass Synchronizitätsprobleme im Internet existieren wurde bereits angedeutet. Es kann also nicht genau hervorgesagt werden, wann die musikalischen Ereignisse, sprich: Sequenzen beim Server eintreffen. Außerdem bringt auch das Samplen von Phrasen einen gewissen Verzögerungsfaktor mit sich. Spielt ein Spieler zum Beispiel eine Phrase von 6 Sekunden Dauer, so dauert es mindestens 6 weitere Sekunden bis die Partner diese ganz gehört haben und darauf reagieren können. Auch deshalb ist die das Einbeziehen von Notation als visuelle Ebene unverzichtbar: Direkt nach dem Eintreffen der Phrase sehen die Mitspieler bereits das gesamte Material und können sofort reagieren. 5 Akkoladen zeigen jeweils das vom Server zurückgeschickte, gegebenenfalls transformierte musikalische Material an, bevor die Synthese das Material zu Gehör bringt.
Da die Notenanzeige nicht durch eine Vielzahl von Zeichen überladen werden darf (schließlich müssen die Spieler in kürzester Zeit eine große Menge an Informationen aufnehmen), wurde eine vereinfachte space notation implementiert, die artikulatorische und dynamische Informationen durch Farben und Form der Notenköpfe kodiert:
7 kurze senkrechte Striche teilen die Akkoladen in 2-Sekundeneinheiten ein.
Der Server nimmt neben dem Einsammeln und Vervielfältigen von Datenströmen (Distribution) auch Aufgaben zur Koordinierung kompositorischer Vorgänge wahr. Vom Server aus werden verbale Anweisungen, Daten zur Client-Konfigurationen und sogar kleine Partiturfragmente verschickt. Außerdem können die eintreffenden Sequenzen durch Algorithmen gezielt verändert werden, oder sie dienen als Trigger für autonom ablaufende algorithmische Prozesse.
Zum Versenden der Daten in der in MAX/MSP programmierten Umgebung kommen die von Matt Wright programmierten MAX-Objekte OpenSoundControl und otudp zur Anwendung (http://www.cnmat.berkeley.edu/OSC/clients/max-objs.html). Letzteres implementiert ein im Internet weit verbreitetes Protokoll, das User Datagram Protocol (http://www.seas.upenn.edu/~ross/book/transport_layer/UDP.html).
Die Client-Software bietet zwar ebenfalls die Möglichkeit, Algorithmen und Syntheseformen über verschiedene Menüs einzustellen, doch wird diese Option im Konzert (siehe unten) wegen der zentralen Steuerung durch den Server weniger genutzt werden.
Die Musik kann mittels eines MIDI-Instruments, eines akustischen Instruments über einen Tonhöhenverfolger oder die Computertastatur eingespielt werden.
|
Server
|
Client
|
|
|
Input
|
x
|
|
|
Transformation
|
x
|
|
|
Distribution
|
x
|
|
|
Notation
|
x
|
x
|
|
Synthese
|
x
|
Tabelle: Übersicht über die Funktionen von Server und Client
Realisation
Quintet.net kann in zwei Weisen realisiert werden: Als eine quasi zufällige Interaktion im Internet von eins zu fünf Spielern oder als Konzert zu verabredeten Zeiten mit vorweg bestimmten Spielern.
Ist das Zufallstreffen durch die Betonung des improvisatorischen Elements mit geringer Kontrolle durch den Server bestimmt, so stellt die Konzertversion eine strukturiertere Variante dar, bei der verschiedene Abläufe (sprich: Kompositionen) realisiert werden können. Hier ist die Kontrolle einem weiteren, "den Server spielenden" Mitwirkenden übertragen, der je nach Aufführungssituation als in Echtzeit agierender Komponist, Dirigent oder DJ bezeichnet werden kann. Der Bildschirminhalt der in öffentlichen Räumen (Konzertsaal) befindlichen Computer sollte auf große Leinwände projiziert werden, um dem Publikum zu ermöglichen, die musikalischen Vorgänge anhand der Echtzeitnotation nachzuvollziehen.
Quintet.net ist am 28.10.2000 in Münster beim Musikfestival Mystik und Maschine erstaufgeführt worden. Teilgenommen haben:
Es geplant das Projekt im Jahr 2002 in eine von der Münchner Biennale und der Firma Siemens gesponserten und im Team zu entwickelnde Internetoper einfließen zu lassen.