Der Computer als Instrument

Martin Rumori

Zuerst erschienen in: Komponieren im digitalen Zeitalter. Beilage der Akademie der Künste Berlin, Sektion Musik, zu nmz – neue musikzeitung, Ausgabe 10/2009. Die Veranstaltung „Komponieren im digitalen Zeitalter“ findet vom 16.-18. September 2010 in der Akademie der Künste Berlin statt.

Die Anfänge der elektronischen Klangerzeugung und -speicherung prognostizierten den Tonsetzern[1] eine gänzlich neue Rolle. Nicht länger würden sie Spielanweisungen für Interpreten notieren, nicht mehr auf Instrumentalisten als Mittler angewiesen sein, sondern sie selbst würden das klingende Resultat nach ihren Vorstellungen hervorbringen: Komponist und umsetzender Musiker würden eins sein.

 Diese Utopie berührt das traditionelle Verhältnis zwischen Musiker und Komponist, ist es doch ein komplexes symbiotisches Machtgefüge mit gegenseitigen künstlerischen, aber auch ökonomischen, politischen und sozialen Abhängigkeiten. Mit der Verfügbarkeit leistungsfähiger Computer und entsprechender Software, dem vielzitierten »Laptop-Studio«, ist der personelle und ökonomische Aufwand anspruchsvoller musikalischer Produktionen stark gesunken. Dies ist für Genres genuin elektronischer Klänge zu beobachten, sei es in der akademischen Elektroakustischen Musik oder in Laptop-Konzerten im Club. Teilweise werden aber auch akustische Instrumente verdrängt. Nur wenige Filmproduktionen können sich noch große Sinfonieorchester leisten, während gute Instrumentenbibliotheken aus dem Computer je nach Kontext und Gehör kaum von echten Ensembles zu unterscheiden sind.


Dennoch: Die Frage, ob der Computer mit seinen grenzenlos erscheinenden klanglichen Möglichkeiten einmal akustische Instrumente ablösen wird, diskutiert heute niemand mehr. Viel zu komplex ist die Zusammensetzung natürlicher Instrumentenklänge, als dass sie im Computer zufriedenstellend nachgebildet werden könnten, und als noch weitaus komplexer stellt sich der virtuose Zugriff des Musikers auf sein Instrument dar, der den Ton für uns erst zur Musik macht. Nicht umsonst bestehen die oben angesprochenen Samplebibliotheken aus Aufnahmen akustischer Instrumente, deren maschinelle Verwendung mit hohem Aufwand so gestaltet wird, dass sie uns als möglichst natürlich erscheinen.

Die Utopie, beliebige natürliche Instrumentenklänge elektronisch nachbilden zu können, ist eine Utopie der Ingenieure, nicht der Komponisten. Für letztere sind diejenigen Klangwelten viel interessanter, die jenseits des Bekannten, des schon Gehörten liegen. Um sie zu entdecken und dem kompositorischen Schaffen zugänglich zu machen, muss man sich dem Medium aussetzen, es zu beherrschen lernen, auch im Sinne eines experimentellen medialen Dialogs. Darin unterscheidet sich der Computer nicht von traditionellen akustischen Instrumenten, denen auch heute noch neue Klänge entlockt werden. Umgekehrt kann nicht jeder, der den Computer zur Erzeugung von Klängen verwendet, auch programmieren.

Der Umgang mit dem Computer hat sich in den wenigen Jahrzehnten seiner Entwicklung dramatisch verändert. Seine Geschichte ist untrennbar auch die der Software. Sie vermittelt seine Funktionalität, noch viel mehr aber bestimmt sie unser Bild von dem, was »der Computer« sei. Es ist ihre Eigenschaft, von der komplexen, eigentlichen Funktionsweise der universellen Rechenmaschine zu abstrahieren, indem sie eine virtuelle, mehr oder weniger metaphorisch konsistente Oberfläche präsentiert. Auch für den experimentellen Komponisten bestimmt die verwendete Software erheblich, wie der Computer als Instrument verwendet wird.

Grundsätzlich lassen sich dabei textbasierte und die grafische Benutzeroberfläche unterscheiden. Programme wie Csound, CLM oder SuperCollider beinhalten oder erweitern eine textuelle Programmiersprache, in der auch komplexe, wenig anschauliche Zusammenhänge kompakt formuliert werden können.

Entgegen der rudimentären Anmutung dieser Systeme ist der Abstraktionsgrad ihrer Paradigmen meist sehr hoch, während grafische Oberflächen oft physikalische Geräte modellieren: Harddisk-Recording-Systeme etwa greifen Metaphern des analogen Tonbandschnitts auf, Synthesizer-Programme verfügen über virtuelle Kabel wie ihre analogen Vorbilder. Im gegenwärtigen »Vintage-Hype« geht die Orientierung am analogen Studio so weit, dass legendäre historische Geräte fotorealistisch auf dem Bildschirm nachgebildet werden, um das Versprechen einer ebenso exakten akustischen Kopie zu untermauern.

Eine Zwischenposition nehmen die sogenannten grafischen Programmiersprachen ein, deren prominenteste Vertreter Pd und Max/MSP sind. Hier wird versucht, die intuitive Zugangsweise zu grafischen Systemen mit der Universalität einer vollwertigen Programmiersprache zu verbinden. Inzwischen ist es sogar möglich, einzelne komplexere Bestandteile eines grafischen Patches textuell zu programmieren.Seit die Leistung von Computern ausreicht, Klänge in Echtzeit zu verarbeiten, hat sich die musikalische Interface-Forschung verstärkt etabliert. Auf der NIME-Konferenz (New Interfaces for Musical Expression) werden jährlich neue Entwicklungen vorgestellt, die ein echtes Musizieren mit dem Computer erlauben sollen, mithin einen virtuoseren Zugang zu seinen Klangsynthesefunktionenermöglichen, als dies Tastatur und Maus zulassen. Die Ansätze dazu sind vielfältig. Ein Ausgangspunkt ist das Bestreben, die über Jahrhunderte verfeinerten Fertigkeiten des Umgangs mit akustischen Instrumenten als Eingabeparameter für die digitale Klangsynthese nutzbar zu machen. Andere gehen davon aus, dass neue klangliche Möglichkeiten auch neue Interaktionsformen bedingen und rücken die Beziehungen zwischen Musik und Bewegung in den Mittelpunkt der Untersuchungen. Angesichts der kurzen Entwicklungszyklen immer neuer Interfaces bleibt es allerdings fraglich, ob der Innovationsdruck in diesem technologisch dominierten Feld auch tiefergehende inhaltliche Aufschlüsse ermöglicht, die zweifelsohne längerfristiger ergebnisoffener Forschung bedürften.

Eines aber wird sich auch im digitalen Zeitalter kaum ändern: Das wirklich Neue, künstlerisch Revolutionäre wurde selten schon bei der Konstruktion der Werkzeuge, sondern oft erst durch deren vermeintliche Zweckentfremdung hervorgebracht. Je selbstverständlicher ein standardisiertes Bild des Computers unserere Lebensbereiche prägt, desto vielversprechender ist es, diese Grenzen zu überschreiten und unter die Oberfläche zu schauen.



Martin Rumori, Jahrgang 1976, studierte Musikwissenschaft und Informatik in Berlin. Freischaffende Tätigkeit als Klangkünstler und Klangprogrammierer. Seit 2005 künstlerisch-wissenschaftlicher Mitarbeiter im Klanglabor der Kunsthochschule für Medien Köln (KHM). Dissertationsprojekt am IEM Graz zu binauralen akustischen Hörräumen.

 


[1]     Für besseren Textfluss wird hier und im Folgenden nur die männliche grammatikalische Form verwendet, die weibliche ist inhaltlich aber immer eingeschlossen.