Intuition, Automation, Entscheidung. Der Komponist im Prozess algorithmischer Komposition

Jonas Förster im Telefoninterview mit Karlheinz Essl (29 Nov 2010)


Jonas Förster: Konrad Boehmers Kritik an der Computermusik in Ausgerechnet! ...Computermusik mag kontrovers sein, und bietet daher eine geeignete Reizstelle, um sich mit dem Thema Algorithmische Komposition auseinanderzusetzen: Boehmer betrachtet einen Algorithmus, in der Funktion einer Externalisierung musikalischen Denkens, als eine Verfahrensweise, mithilfe derer sich der Komponist der Schwierigkeiten kompositorischer Entscheidungen entledigt. Das muss grundsätzlich nicht negativ gemeint sein, doch sieht Boehmer darin vorwurfsvoll die Gefahr des Verlustes eines ästhetischen Sinns. Die Verwendung eines Algorithmus als Hilfsmittel („…bei redaktionellen (editing-)Prozessen…“) hält er hingegen für legitim. Die Frage ist, ob ein Algorithmus mehr als nur ein „Hilfsmittel“ darstellen, also sinnstiftend sein kann. Wie beurteilen Sie das?

Karlheinz Essl: Da muss man schon ein bisschen weiter ausholen. Man sollte sich zunächst die Frage stellen, was denn ein Algorithmus ist. Da gibt es klassische Definitionen, die eher aus den Ingenieurswissenschaften kommen, die beschreiben den Algorithmus als eine Art Kochrezept um schnell zu einer Lösung zu kommen. Dies ist ein möglicher Ansatz, aber es gibt noch einen weiteren, den ich interessanter finde. Dort begreift man einen Algorithmus mehr als Definition eines Metamodells, aus dem heraus durch Veränderung der Systemparameter verschiedenste Resultate entstehen. Diesen Algorithmusbegriff verwende ich selber und finde ihn auch in Werken und Arbeiten von Gottfried Michael Koenig und Karlheinz Stockhausen. Beide haben dabei weniger den Kochrezept-Aspekt im Auge, sondern versuchen kompositorisches Denken zu abstrahieren, indem sie einen musikalischen Vorgang als parametergesteuerten Modells definieren. Das ist ein Algorithmusbegriff, mit dem ich sehr viel anfangen kann und der dann auch ein bisschen weiter und spezieller gefasst ist, als das, was Konrad Boehmer da – zu Recht – kritisiert.

Ich verstehe die Kritik von Boehmer sehr gut, weil heutzutage – man denke an Open Music und ähnliche Programmierumgebungen – viele Algorithmen quasi wie Küchenzutaten bereitliegen, die man bequem miteinander kombinieren kann, so dass man sehr rasch zu vordergründig beeindruckend Ergebnissen kommt. Und leider tappen da viele Komponisten in diese Falle, indem sie ihre eigenen kompositorischen Entscheidungsschwächen auf so eine Art von Instanz abwälzen.

JF: Könnten Sie denn etwas benennen, was einen Algorithmus zu mehr als einem redaktionellen Hilfsmittel macht?

KHE: Das mit dem „redaktionellen Hilfsmittel“ ist für mich überhaupt kein Thema, weil ich die Redaktion – diese Begriff kommt ja von Pousseur – lieber selber „mit der Hand“ mache. Da kann ich sozusagen wirklich in das System eingreifen und dann aus freier Entscheidung wie auch aufgrund der musikalischen Zusammenhänge Dinge verändern. Dafür will ich keinen Algorithmus verwenden.

Nun stellt sich die Frage, wozu man einen Algorithmus überhaupt braucht. Wenn ich z. B. generative Klanginstallationen mache, die sich im Moment, in Echtzeit, immer neu zusammenfügen und immer neu darstellen, dann kann ich das nur mit Hilfe von Algorithmen realisieren. Natürlich sind diese nicht bloß irgendwelche Küchenzutaten, die ich miteinander kombiniere, sondern quasi Konzentrate einer konkreten musikalischen Idee, die allerdings nicht so gefasst ist, dass sie einen speziellen Einzelfall erzeugen, sondern ein ganzes Spektrum unterschiedlichster Varianten hervorbringen können.

JF: Birgt ein Algorithmus ein kreatives Potential, das jenes des Komponisten selbst ergänzen kann? Anders gefragt: Ist ein Algorithmus Ihrer Meinung nach in der Lage etwas hervorzubringen, das Sie selbst sich vorzustellen möglicherweise nicht in der Lage wären?

KHE: Ja, absolut! In meinem Aufsatz Computer Aided Composition, den ich 1991 veröffentlicht habe, geht es genau um die Frage, was der Computer dem Komponisten zurückgibt. Darin habe ich zwei Sachen postuliert. Erstens: Wir müssen den Computer selber programmieren, d. h. wir müssen unsere eigenen persönlichen individuellen kompositorischen Ideen und Fragestellungen in Form von Computerprogrammen formulieren. Zweitens: Der Computer wird dadurch zum Werkzeug, das diese Regelsysteme (die ja nicht bloß abstrakt sind, sondern von kompositorischen Ideen ausgehen) anwendet, dabei Ergebnisse erzeugt und uns diese dann widerspiegelt. In den vom Computer errechneten Resultaten erkennen wir die Tragweite unserer kompositorischen Ideen.

Ich vergleiche den Computer (bzw. die Software, die auf ihm läuft) gerne mit einem Spiegel, der das, was wir uns vorstellen, sehr rasch realisieren kann. Es fällt damit eine Menge buchhalterischer Handarbeit weg, die einen oftmals behindert, wenn man beispielsweise große Tabellen erstellen muss und diese dann ausarbeitet. Er zeigt uns einerseits was die Ergebnisse sind, wenn wir eine solche Strategie anwenden und andererseits damit aber auch Resultate, auf die wir so nie gekommen wären.

Und so entsteht eine Interaktion mit dem, was der Computer uns liefert und wie wir das interpretieren, analysieren und aufgrund dieser Analyse das Computerprogramm verändern, bis die Intention und das Resultat deckungsgleich werden. Das ist eigentlich ein sehr interessanter Fall wo der Komponist über den Algorithmus auch neue Dinge erlebt, erkennt und über seinen eigenen beschränkten Horizont schaut.

JF: Wie wichtig ist für Sie das Operieren mit symbolischen Systemen (Schrift-Code), sei es eine traditionelle Notationsform, Programmiersprache oder eine Art grafische Programmierung wie bei Max/MSP? Welche Bedeutung hat die Rückkoppelung zwischen Sonifikation und Programmierung für Sie? Wie wichtig ist es für Sie hörend zu komponieren?

KHE: Für mich hat das Hören absolutes Primat! Selbst wenn ich beim Komponieren zuerst auf einer ganz abstrakten Ebene beginne – wenn ich versuche, mir ein Stück als Ganzes imaginieren und diese Vision mithilfe eines kompositorischen Modells zu beschreiben – versuche ich mir immer vorzustellen, was da erklingen soll. Für mich ist das Klingen immer ganz entscheidend! Das Schöne bei Echtzeit-Programmierumgebungen (wie etwa Max/MSP im Bereich von Klangsynthese oder Soundprocessing) ist, dass man sofort Resultate erhält und auf diese wiederum in Form einer Rückkoppelung eingreifen kann.

JF: D. h. bei der Analyse bewegen Sie sich nicht mehr auf der Ebene des Schriftcodes, da Sie einen Schritt weiter gehen und die Verklanglichung des Codes betrachten. Ich denke dabei an Gottfried Michael Koenigs Projekt 1. Da ist ja die Stelle, an der das Programm die Datentabellen ausspuckt, eigentlich auch eine, an der der User dann schon wieder als Interpret bzw. Bewerter eintreten kann, noch bevor es zur Verklanglichung kommt. Aber Sie steigen eher nach der Verklanglichung ein?

KHE: Diese Frage kann ich gar nicht so generell beantworten, weil sich das immer wieder verändert, je nachdem, an was ich gerade arbeite. Das kann ich nicht so allgemein beurteilen.

JF: Wie spiegelt sich Ihre kompositorische Persönlichkeit beim Komponieren mit Algorithmen wider? Sie haben schon die Entwicklung des Regelsystems erwähnt. Gibt es darüber hinaus noch Stellen, an denen Sie sich als Subjekt – im Gegensatz zum Algorithmus, den ich als objektiv betrachte – in den Werken involvieren?

KHE: Meine Arbeit als Komponist ist es, mit meiner Persönlichkeit, auch mit meinem Geschmack oder mit meinen subjektiven Wünschen und Leidenschaften, mit einem objektivierbaren Modell, das ich wiederum selber geschaffen habe, in Kontakt zu treten.

Wichtig ist dabei immer der Ausgleich. Mir geht es darum, aus den Angeboten des Algorithmus etwas herauszuholen, was mit mir selbst zu tun hat. Ich würde einen Algorithmus nie als solchen akzeptieren, sondern ihn immer kritisch beobachten und das für mich herausnehmen, was ich wirklich brauchen kann. Ihn aber trotzdem in diesem vorhin erwähnten Rückkoppelungsprozess verändern oder optimieren bis er so weit ist, dass er die Dinge so realisiert, wie ich sie gerne haben möchte.

Und durch den Echtzeit-Effekt – dass wir die klanglichen Ergebnisse des Algorithmus hören können – ist es uns möglich, augenblicklich in die Generierung des Klanges, der damit erzeugt wird, einzugreifen. Dabei passiert eine sehr interessante Sache: Das Programm bzw. Algorithmus wird zu einem Instrument, auf dem wir in Echtzeit spielen können.

Wie ich in den 1980er Jahren begonnen habe mit Algorithmen zu arbeiten, fand dies alles im Bereich von symbolischer Notation statt, so dass ich letztlich ähnlich wie bei Koenig Partiturlisten erstellt habe, die ich dann mit der Hand weiter verarbeitet und interpretiert habe, und dann aufgrund dieser Erkenntnisse den Algorithmus verändern konnt. Ein sehr mühsamer und zeitaufwändiger Prozess, der sehr viel künstlerische Energie und Zeit bindet.

Ich habe 1991-93 im IRCAM gearbeitet und bin dort in Kontakt mit Max gekommen, das damals gerade dort entwickelt wurde. Das Erste, was ich gemacht habe war, dass ich mein eigenes Computer Aided Composition-Environment COMPOSE, das ich damals entwickelt hatte – es lief auf einem Atari ST – nach Max portiert habe. Dabei habe ich erfahren wie großartig es ist, wenn die Resultate sofort kommen und man nicht nur weniger Zeit verschwendet und nicht eine ganze Nacht warten muss, sondern zur Laufzeit in den Generierungsprozess eingreifen kann.

Was ich damals gemacht habe, war eigentlich ein privates Nebenprodukt meiner eigentlichen Arbeit. Ich hatte einen Auftrag für ein Stück für Live-Elektronik und Ensemble (Entsagung), habe aber – um das Metier auszutesten – zunächst begonnen, mit Kompositionsalgorithmen in Echtzeit zu experimentieren. Dabei ist die Lexikon-Sonate entstanden. Damals war das noch ein völlig autonomes System, wo man kaum Eingriffsmöglichkeiten hatte. Man konnte eigentlich nur sagen, wann man eine Änderung haben möchte, woraufhin sich das System sozusagen verschoben und einen neuen Weg eingeschlagen hat. Später habe ich dann bestimmte Systemparameter der Lexikon-Sonate nicht mehr einem Algorithmus überantwortet, sondern nach außen auf MIDI-Controller gelegt, über die ich dann direkt in das System eingreifen und die Systemparameter steuern kann. Wobei ich zwar nicht die einzelnen Töne im Detail definieren kann, aber übergeordnete Gesten, Gestalten oder Strukturen erzeugen und diese auch in Echtzeit verändern kann.

JF: Wenn Sie also einen Algorithmus im weitesten Sinne als Instrument betrachten, dann spiegelt sich Ihre Subjektivität im Instrumentenbau und im Spiel mit dem Instrument wider.

KHE: Ja, das ist ganz korrekt ausgedrückt. Und es geht weiter. Ich arbeite ja auch als Improvisationsmusiker und habe in dem Zusammenhang ein Instrument entwickelt namens m@ze°2. Dahinter steckt in Max-Programm, mit dessen Entwicklung ich 1998 begonnen hatte. Ein Instrument, das ich in Live-Performances verwende und das als offene Struktur, die sich ständig erweitert und modifiziert, angelegt ist. Da geht die Komposition in das Improvisatorische hinein.

JF: In welchem Bezug stehen für Sie die Begriffe Programmieren und Komponieren zueinander, im Hinblick auf Ihre eigene Arbeit? Ich gehe fast davon aus, dass Sie sagen: Programmieren ist ein Teil des Komponierens.

KHE: Ja, das würde ich genau so sehen. Ich habe einmal die Forderung aufgestellt, dass die Komponisten, wenn sie mit Computern arbeiten, programmieren, d. h. ihre eigenen Ideen formulieren und entsprechend umsetzen, müssen. Das war eine Zeit bevor es Max und Open Music gab. Mittlerweile gibt es sehr vieles am Markt, das schon sehr gute Grundfunktionen bietet. Das verleitet aber sehr, gerade wenn man mit Open Music arbeitet, vorgefertigte Module, die andere schon erfunden haben, miteinander zu kombinieren. Man nimmt z.B. eine Klanganalyse eines Tam Tam-Schlags, wandelt sie in Tonhöhen um, bekommt dann unglaubliche Akkordverbindung, die dann mit rhythmischen Strukturen verschmolzen werden. Das ist ein Verfahren, das man sehr häufig in neueren Partituren findet. So kann man mit relativ wenig Aufwand sehr schnell zu sehr beeindruckenden komplexen Ergebnissen kommen. Das Problem ist nur, dass diese damit erzeugten Stücke oftmals sehr ähnlich sind. Und deswegen gilt immer noch meine Forderung, sich nicht davon verführen zu lassen, sondern sich auf sich selbst zu besinnen, seine eigenen künstlerischen Ideen zu formulieren und diese dann in Form von Computerprogrammen auszudrücken.

Ich habe einmal gesagt, wenn man ein Problem als Programm formulieren kann, dann hat man es gedanklich verstanden und durchdrungen.

JF: Wenn man z. B. Koenigs PR 1 als reiner User-Komponist benutzt, ist ja der kompositorische Anteil in dem Sinne geringer, als dass man das Programm selber nicht entwickelt, sondern es nur benutzt. Ist man als User trotzdem noch Komponist?

KHE: Ich glaube gerade bei PR 1 ist eine ganz spezielle Form, weil man als User zwar wenig Möglichkeiten in der Eingabe hat, umso mehr aber in der Interpretation der errechneten Daten.

Man sollte sich dabei immer vor Augen halten, dass die Kernstruktur von PR 1 eine kompositorische Idee von Koenig ist. Diese wurde ursprünglich für ein Ensemblestück erdacht, und er hat dann gemerkt, dass man damit Millionen anderer Stücke komponieren kann.

Ich habe sogar selber mal ein Stück mit PR 1 gemacht: Oh tiempo tus piramides (1988-89). Da habe ich versucht, das Programm auszutricksen, gerade was die Harmonik anbelangt. Dabei habe ich die Parameter zwischen eins und sieben, die ja den Grad der Periodizität für die jeweiligen Parameter bestimmen, im Verlauf des Stückes so gesteuert, dass ganz bestimmte Zusammenhänge entstehen, die dem Stück eine nachvollziehbare Form geben: Von sehr punktuellen, vereinzelten Ereignissen bis hin zu einer pseudo-tonalen "romantischen" Sprache am Schluß.

JF: Curtis Roads behauptet: „Some composers who use formal methods feel that what the listener hears is secondary. They take professional satisfaction in knowing that their structures are logically generated, whether or not they are perceived as such.” Welchen Stellenwert hat für Sie eine „strukturelle Konsistenz“, die Ihnen der Algorithmus liefert? In welchem Verhältnis stehen für Sie die daraus resultierenden klanglichen Phänomene?

KHE: Das, was Curtis Roads anspricht, hat natürlich eine tiefe Wahrheit und das ist auch mein Eindruck, wenn ich auf Computermusik-Konferenzen war. Dort präsentieren junge Computerkids, die meist mehr aus den Ingenieurs-wissenschaften als aus der Musik kommen, stolz ihre Programme und Algorithmen, die sie dann verklanglichen. Meistens klingt das Ganze dann ziemlich beschissen, weil sie irgendwelche MIDI-Instrumente verwenden oder gar nicht auf den Klang achten. Sie sind halt stolz, dass sie diese wunderbare Struktur, die sie gefunden haben, auch verklanglichen können. Dagegen bin ich natürlich auch.

JF: Was verleiht Ihren Werken einen „ästhetischen Sinn“ und welche Rolle spielen dabei die von Ihnen verwendeten Algorithmen? Was macht also einen verklanglichten Algorithmus zur Komposition?

KHE: Ich glaube der Algorithmus darf nie ein sich selbst genügender Fetisch werden, auf dessen Logizität man sich beruft und sagt: Diese Struktur ist so schön und alles ist mathematisch in Beziehung und damit stimmig. Es muss immer an der Wirklichkeit und an unserer Hörerfahrung getestet sein. Deswegen denke ich mir, dass der Hörer eine sehr wichtige Instanz ist. Wenn ich komponiere bin ich selbst mein erster Hörer und teste immer, was der Algorithmus ausgibt und ob das überhaupt relevant für mein Hören ist.

JF: Das ist wieder der Rückkoppelungsprozess. Ihre subjektiven Entscheidungen, die Sie da treffen, können vermutlich rationaler wie auch intuitiver Art sein, richtig?

KHE: Absolut! Intuition ist ein wichtiger Punkt, auch wenn man mit Algorithmen arbeitet oder vielleicht gerade dann; weil sie vielleicht eine Leitidee darstellt, die uns helfen kann die Algorithmen nicht nur von irgendwelchen abstrakten mathematischen Spielereien aus zu betrachten, sondern von konkreten ästhetischen Vorstellungen, die man vielleicht gar nicht auf andere Weise als mit Algorithmen realisieren kann.

JF: Auch die folgenden Fragen von Curtis Roads möchte ich gerne aufgreifen: „Academic consistency aside, is there a musical benefit to be gained by using the same algorithm at every level? Or is it better to assign different algorithms to various levels of structure, giving musicians the most appropriate controls at each stratum?“

KHE: Es ist eine Selbstverständlichkeit, dass man die letzte Frage mit „ja“ beantwortet. Es gibt natürlich nicht den Algorithmus, sondern es gibt verschiedene Arten von Algorithmen, die man natürlich immer zweckgebunden einsetzen muss.

Manche gehen von einem sehr abstrakten Algorithmusbegriff aus, wo es vornehmlich darum geht, eine algorithmisch generierte Zahlenstruktur in Klang umzusetzen. Das aber interessiert mich wenig. Meine Umgang mit Algorithmen geht immer von kompositorischen Fragestellungen aus: Wie gestalte ich einen rhythmischen Ablauf? Wie gehe ich mit Dichte um?

JF: Könnte man sagen, Sie denken von außen nach innen? D. h. sie haben den Klang im Blick und suchen dazu einen adäquaten Algorithmus.

KHE: Genau! Das Außenphänomen oder die Vorstellung des Klanges – dann die Analyse: Wie soll er sich darstellen, wie soll er sich verändern? – und dann ein Regelsystem finden, was das wiederum erzeugt. Also von außen nach innen nach außen. Phänomen – Analyse – Resynthese.

JF: Nutzen Sie auch zur Analyse Algorithmen?

KHE: Nein, in der Regel versuche ich die Analyse ohne Algorithmen nur aufgrund meiner eigenen Beobachtung zu machen.


in: Jonas Förster, Intuition, Automation, Entscheidung. Der Komponist im Prozess algorithmischer Komposition.
Diplomarbeit an der Folkwang Universität der Künste, Institute for Computermusic and Electronic Media (Essen 2011)



Home Works Sounds Bibliography Concerts


Updated: 31 Jan 2011