Portrait
Karlheinz Essl

>DIY [Do it yourself!]

transmediale.01 (Berlin 2001)


Aufgrund der Nichtverfügbarkeit von digitaler Technologien konnte bis vor nicht allzulanger Zeit Computermusik nur an wenigen internationalen Forschungszentren (IRCAM Paris, Sonologie Den Haag, ZKM Karlsruhe, CCRMA Stanford) realisiert werden, als elitäres Arbeitsfeld einer durchwegs akademischen crème-de-la-crème.

Im Zuge der technischen Weiterentwicklung sprang schließlich auch die Industrie auf diesen Zug auf und begann, digitale Consumergeräte wie den YAMAHA DX7 Synthesizer zu entwickeln, mit denen sie den Markt überschwemmte. Die in diesen Instrumenten implementierten Klangvorstellungen der Entwickler ließen zwar dem Benutzer gewisse Freiheiten in der Programmierung eigener Sounds, dennoch war ihr Herkunft immer deutlich zu spüren.

Mit der breiten Verfügbarkeit von Computern wurde schließlich auch Musiksoftware (fälschlicherweise oft als "Kompositionsprogramme" bezeichnet) entwickelt, in denen zumeist die Produktionsabläufe eines analogen Studios digital nachempfunden wurden. Um dem Massenmarkt mit seinen sehr spezifischen und konfektionierten Anforderungen gerecht zu werden, wurden veraltete Metaphern herangezogen, deren Konzeption auf primitivste Weise einen status quo zu petrifizieren versuchte, der von avancierten Komponisten und Künstlern schon längst ad acta gelegt worden war.

Diese Situation wird von immer mehr MusikerInnen als unbefriedigend und beengend empfunden. Freilich lassen sich auch mit diesen Werkzeugen eigenständige Vorstellungen - zumindest bis zu einem gewissen Grad - verwirklichen. Künstlerischen Kreativität jedoch scheint für mich nur dort voll aufzugehen, wo man sich von vorgegeben Denkschablonen lösen kann, und nicht als abhängiger "User" einzig diejenigen Features kombinieren kann, die einem von der Industrie vorgegeben werden.

Die rapide Entwicklung der Computertechnologie in den letzten Jahren hat die Situation drastisch verbessert: zum einen sind die Produktionsmittel allgemein verfügbar geworden, so dass keine Bindungen zu Institutionen mit ihren immanenten ästhetischen und künstlerischen Vorstellungen mehr gegeben sein müssen. Auch auf dem Gebiet der Software hat sich vieles verändert, und seit geraumer Zeit gibt es nicht allein maßgeschneiderte Software für den breiten Markt, sondern auch Programmiersprachen für Multimedia und Musik. Diese erlauben es nun, gemäß des DIY-Gedankens, dass die KünstlerInnen sich damit ihre eigene Software selbst schreiben können, ohne von irgendwelchen ästhetischen Einschränkungen oder Vorgaben behindert zu sein.

Eines dieser Programmiersprachen ist Max, die bereits 1989 am IRCAM (Paris) als Echtzeit-Programmierumgebung für Multimedia entwickelt wurde. Schon sehr früh hatte sich eine internationale Community gebildet, die mit dieser Programmiersprache arbeitet und bereit ist, Ideen und Entwicklungen miteinander zu teilen. (Die Vernetzung dieser Community geschieht seit Anbeginn über das Internet). Bereits 1992 begann ich mit der Entwicklung der sog. RTC-lib (Real Time Composition Library) - einer als work-in-progress angelegten Bibliothek von Softwaremodulen. Damit konnte das in seinem Sprachumfang noch sehr rudimentäre Max um Kompositionsalgorithmen (wie Rhythmus- und Harmoniegeneratoren sowie statistische und aleatorische Kompositionsmodelle) erweitert werden; ein Resultat meiner Auseinandersetzung mit den Denkkonzepten und Kompositionsverfahren der seriellen Musik. Die RTC-lib kann als Freeware aus dem Netz geladen werden und wird mittlerweile von unzähligen Musikern und Komponisten aus unterschiedlichsten Genres und Stilen benutzt.

Die weitere Beschleunigung der Computer-Hardware führte in den vergangenen Jahren dazu, dass nunmehr auch Sound und Video in Echtzeit ohne zusätzliche Hardware generiert werden können. In MAX wurde dieser Entwicklung Rechnung getragen mit den Erweiterungen MSP (die nun Audio Processing in Echtzeit erlaubt) und NATO (wodurch auch Video Processing möglich ist). Dies führt mich schließlich zu der Entwicklung meines eigenen elektronischen Instrumentes namens m@ze°2, das - in MAX/MSP geschrieben - als Software auf einem Apple PowerBook G3 läuft und mit dem ohne jegliche externe Klangerzeuger oder Effektprozessoren Musik in Echtzeit komponiert, gespielt und improvisiert werden kann.

Die für den Wettbewerb der transmediale.01 (Berlin 2001) eingereichte interaktive Musikinstallation The Untempered Piano ist ebenfalls in Max/MSP geschrieben, und natürlich spielen auch hier die Softwaremodule meiner RTC-lib eine tragende Rolle. Hier habe ich versucht, eine möglichst einfache graphische Benutzeroberfläche zu schaffen, die - mit der nachempfundenen Tastatur - an die Metapher des Klavieres anknüpft und es den BenutzerInnen ermöglicht, mit einigen wenigen Mausklicks zu spannenden Klangergebnissen zu kommen, die zum Erforschen eines komplexen Möglichkeitenfeldes einladen.


Statement zum Thema DIY für die transmediale.01 (Berlin 2001) - September/Oktober 2000



Home Works Sounds Bibliography Concerts


Updated: 4 Jan 2007