LINUX-Audio-Konferenz im ZKM vom 27.04.-30.04.06, SWR JetztMusik Magazin

ERIC LYON: Trajectories

Sie sitzen mit ihren Laptops in der Cafeteria des Zentrums für Kunst und Medientechnologie ZKM, programmieren und diskutieren: die Teilnehmer der nunmehr 4. Linux-Audio-Konferenz, die Ende April und vorläufig zum letzten Mal in Karlsruhe stattfand. Fast alle sind sie Hybride aus Programmierer und Musiker. Fast alle sind sie unterschiedlicher Herkunft, geographisch gesehen, akademisch, vor allem aber auch musikalisch. Vom ambitionierten Rockamateur hin zum etablierten Komponisten elektro-akustischer Musik reicht die künstlerische Bandbreite dieser Menschen, die vor allem eines verbindet: sie schreiben nicht nur ihre Musik, sondern auch die dafür benötigte Software selbst. Und so vielfältig die musikalische Stilistik, so unterschiedlich auch dafür die Motive: Mögen es ideologische Gründe sein, die zum Programmieren in der offenen Umgebung des Linux-Betriebssystems führen, oder fehlende Alternativen für die Realisierung einer musikalischen Idee, die das Schreiben von Programmcode erforderlich machen.

Nehmen wir beispielsweise den an der Universität von Manchester lehrenden US-Amerikaner Eric Lyon, aus dessen Mehrkanalkomposition „Trajectories“ Sie gerade einen Ausschnitt hörten, wenn auch nur in Stereo und nicht in der Surround-Qualität, die das Konzert im ZKM-Kubus mit dem neuen 33-Kanal-Lautsprecher-System zu bieten hatte: Für die Realisation komplexer rhythmischer Muster schrieb der Komponist eigens Software-Bibliotheken für die Musikprogrammierumgebung „PureData“. In seinem Konferenz-Vortrag demonstrierte er, dass aufgrund der internen Prozessabarbeitungen eine entsprechende Präzision mit dem bekannteren kommerziellen Pendent zu „PureData“, dem auf Macintosh- und Windows-Rechnern laufenden „Max/MSP“, nicht erreicht werden kann. Das freut die Open-Source-Enthusiasten natürlich. Oft genug ist es allerdings auch anders herum.

Die meisten der heute verwendeteten Verfahren der Klangsynthese und –manipulation sind älter, als man allgemein vermuten dürfte. Viele gibt es bereits seit Jahrzehnten. Die große Errungenschaft der letzten Jahre sind weniger algorithmische Innovationen als vielmehr die Möglichkeit, aufgrund der inzwischen verfügbaren Rechenkapazitäten, diese zuvor oftmals eher experimentell einsetzbaren Methoden nahezu unbeschränkt verwenden zu können. Damit rückt eine bisher eher unzufriedenstellend gelöste Aufgabenstellung in den Vordergrund: Wie steuere ich diese zum Teil ach so vielseitigen Software-Instrumente an? Wie läßt sich darauf musizieren, gerade auch im Vergleich mit der auratischen Qualität des „Live“, wie sie Interpreten traditioneller Instrumente ausstrahlen? Längst hat sich der Effekt des „Neuen“, im Hinblick auf die sich jeglicher Performance verweigernden Laptop-Musiker gelegt. Die Bühnen von Popkonzerten dagegen sind gefüllt mit Alibi-Musikern: die Wichtigkeit des Performativen steht dort außer Frage. 

ORM FINNENDAHL: Fälschung

Sogenannte „Tonbandkompositionen“ - diese Bezeichnung entspricht offensichtlich nicht mehr aktuellen Produktionsmethoden - wie das eingangs erklungene Stück Eric Lyons entziehen sich naturgemäß der Frage des Musizierens.

Einen anderen Weg geht der an der Freiburger Musikhochschule lehrende Komponist Orm Finnendahl in seinem Stück „Fälschung“, aus dem Sie gerade einen Ausschnitt hören: Er setzt ein traditionelles Instrumentalensemble, das Hellos Streichquartett, kontrapunktisch zu von ihm selbst am Computer auf der Bühne gesteuerten Zuspielen und Klangmanipulatonen ein. Dadurch bekommt die Szene eine interessante, aber vielleicht nicht ganz beabsichtigte theatralische Wirkung: links das hochvirtuose Ensemble, rechts der unemotionale, angesichts des oftmals wilden Geschehens eher unbeteiligt erscheinende Kontrolleur.

Mit einem selbst regulierenden Computersystem findet der Neapolitaner Agostino Di Scipio eine elegante Lösung auch im Hinblick auf den Aspekt des Performativen: In seinem Stück „Modes of Interference“ für ein Rückkopplungssystem aus Trompete und Elektronik ist das Rohr des Instruments mit einem Mikrophon und einem Lautsprecher bestückt, die den Kontakt zum Computersystem herstellen. Aufbauend auf der Eigenresonanz des Systems konnte der Trompeter Marco Blaaw nun die entstehenden Klänge modulieren, wobei ein ausgetüftelter Algorithmus die Rückkkopplung in Zaum hielt.

AGOSTINO DI SCIPO: Modes of Interference

Der von Martin Kaltenbrunner am Audiovisuellen Institut der Pompeu Fabra Universität in Barcelona entwickelte reacTable ist ein weiterer, sehr spielerischer Ansatz zum Thema „Steuerung von Computer-Instrumenten“. Auf einem durchsichtigen Tisch werden mit Symbolen bedruckte Plexiglasobjekte plaziert und bewegt, deren Funktionen zuvor im Computer definiert wurden. Über eine unter dem Tisch befindliche Videokamera erkennt dann die zugehörige Software Typ, Ort und Ausrichtung der Objekte.

O-TON: Martin Kaltenbrunner: Ich geb da jetzt ein ganz einfaches Oszillator-Objekt drauf, das ist ein Sägezahn-Oszillator, das klingt irgendwie sehr einfach nur ..... Da kann ich, wenn ich’s dreh’ die Frequentverändern davon Man sieht jetzt am Tisch auch den Tonfluss ins Zentrum fließe. Man sieht diese Sägezahnkurve da direkt schon gemalt. Und wenn ich jetzt hergehe und ein Filterobjekt reinlege, dann verändert sich der Ton dementsprechend. Man sieht das am Tisch und hört das dann natürlich auch. Somit kann ich aus ganz einfachen Tonbausteinen irgendwie komplexere Töne erzeugen.     

Seit einigen Jahren schon forscht die Holländerin Marije Baalman für die Technische Universität in Berlin an einer auf OpenSource basierenden Software für Wellenfeldsynthese. Dieses Verfahren ist wohl die zur Zeit fortgeschrittenste Möglichkeit, Klang im Raum zu platzieren. Kern der Idee ist es, durch eine möglichst große Anzahl von Lautsprechern den Schall so im Raum verteilen zu können, dass sich an möglichst vielen Orten ein ausgeglichener Raumeindruck für den Hörer herstellt, im Gegensatz zu der weitverbreiteten 5.1.Sourround-Codierung, die für eine optimale Wahrnehmung eine Positionierung in der Mitte des Lautsprecherkreises erfordert.

2004 hatte die Ingenieurin bereits einen Prototyp mit 24 Lautsprechern auf der LinuxAudio-Konferenz im ZKM vorgestellt. Im nächsten Jahr nun, dies ist einer der Gründe für den Umzug der Veranstaltung nach Berlin, soll in einem Auditorium der Technischen Universität ein fest installiertes Wellenfeldsynthese-System mit 896, ja: 896 Lautsprechern demonstriert werden, die von einem Computercluster bestehend aus 16 PCs einzeln angesteuert werden.

Wir dürfen gespannt sein.