portrait animation

Mein Weg zur Computermusik

Karlheinz Essl im Gespräch mit Romain Versaevel
Studio kHz, 27. April 2016




Erste Kontakte mit dem Computer

Romain Versaevel: Wann haben Sie zum ersten Mal einen Computer benutzt, und wann haben sie gelernt, zu programmieren?

KHE: Das war während meiner Studienzeit in den achtziger Jahren. Ich habe 1979 begonnen, Musikwissenschaft zu studieren, aber erst 1981 die Aufnahmsprüfung für Komposition an der Wiener Musikhochschule gemacht. Während meines Musikwissenschaftsstudiums kam ich in Kontakt mit Gerhard Eckel, mittlerweile Professor für Computermusik an der Kunstuniversität Graz, mit dem ich bis heute befreundet bin. Er hat schon sehr früh mit Computern gearbeitet. Wir hatten an unserem Institut eine Abteilung für Schallforschung. Die hatten ein Forschungslabor an der Akademie der Wissenschaften, und damals schon mit Mainframe-Computer gearbeitetn. Gerhard war als Student von Anfang dort involviert und Software für Klanganalyse programmiert.

Meinen ersten Rechner habe ich mir 1985 gekauft habe, nachdem ich Computer zunächst total abgelehnt hatte. Denn in den ersten Jahren meines Musikstudiums hatte ich bei sehr konservativen Lehrern Theorieunterricht gehabt und ich mich nur für alte Musik interessiert: Kontrapunkt, Motetten und mittelalterliche Musik. Während meines Musikwissenschaftsstudium habe ich frühmittelalterliche Musik kennengelernt, die mich sehr fasziniert hat: Pérotin und die französische Notre-Dame-Schule um 1200. Und dann kam Gerhard und meinte, dass man mit dem Computer ziemlich interessante Sachen machen kann. Aber für mich kam das damals noch nicht in Frage.

Bald darauf begann ich mich aber für elektronische Musik zu interessieren, ausgelöst vor allem durch Stockhausen. Deswegen haben Gerhard und ich den Lehrgang für elektroakustische Musik an der Musikhochschule belegt. Im Studio war alles noch analog, ohne Computer, aber dafür mit Tonbandmaschinen. Bei dieser Gelegenheit haben wir mit Freunden eine Komponistengruppe gegründet mit dem schönen Namen "Kybernikos", um gemeinsam Konzerte mit Neuer Musik zu veranstalten. Einer von uns, er hieß Eugen Brochier, hat für eine Computerzeitschrift Testberichte geschrieben und deswegen immer die neuesten Computer zu Hause. Das muss man sich mal vorstellen: Das war 1984/1985, da sind die ersten PCs gerade erst herausgekommen! Im Sommer habe ich einen Monat lang Brochiers Wohnung gehütet, um seine Pflanzen zu gießen, und durfte dafür mit seinem Computer arbeiten. Das war ein Siemens Desktop-Computer, auf dem ich begonnen habe, meine Dissertation zu schreiben. Da habe ich gemerkt, wie praktisch das ist, wenn man den Computer als Schreibmaschine benutzt, da man damit Texte leichter verfassen und verändern kann. Und als er dann aus dem Urlaub zurückgekommen ist, habe ich ihm gesagt: "Ich bin jetzt von deinem Computer abhängig, ich brauche auch so was, was soll ich mir kaufen?" Und er hat gemeint, dass ich noch zwei Monate zuwarten soll, bis ein neues Gerät auf den Markt kommt, das er mir empfehlen würde: den Atari ST.

Den Apple Macintosh gab es zwar schon früher, aber der war für uns Studenten viel zu teuer. Der Atari hat nur ein Drittel gekostet - immer noch viel Geld! - und hatte auch eine graphische Benutzeroberfläche. Den habe ich mir dann gekauft. Das Problem war, das es kaum Software gab, bloß ein Textadventure-Game und BASIC. Und dann hat mein Freund Gerhard gesagt: "Jetzt hast du einen Computer, jetzt können wir da mal Experimente machen!" Ich habe mich damals für Algorithmen und serielle Musik interessiert, und mit BASIC haben wir unsere ersten kleinen Strukturgeneratoren geschrieben, was ich unglaublich interessant fand. Ich erzeugte damit nicht nur musikalische Strukturen, sondern auch generative Grafiken:


Computergrafik, generiert in xLOGO (© 1987 by Karlheinz Essl

Algorithmische Computergrafik
© 1987 by Karlheinz Essl


Logo

Bald darauf habe ich die Programmiersprache Logo entdeckt, die der Informatiker Seymour Papert mit dem Schweizer Erziehungswissenschaftler Jean Piaget am MIT entwickelt hatten. Das war eine geniale Zusammenarbeit. Piaget hat sich als Pädagoge gefragt, wie man Kindern Software-Werkzeuge in die Hand geben kann, mit denen sie ihre Umwelt begreifen und auch konstruieren können. Die Idee der MicroWorlds: Software als Mittel zur Erkenntnis und zur Analyse von Problemen. Durch die Analyse eines Problems gelangt man zu einer Lösung, die man auch programmieren kann. Das heißt, man konstruiert sich ein Werkzeug als Mittel zur Erkenntnis.

Papert und Piaget wollten eine Programmiersprache entwicklen, die einfach und intuitiv ist, und die es Kindern ermöglicht, ihre eigenen Programme zu schreiben, und ihre Programmcodes in anderen Projekten weiter zu verwenden. Eines der Ausgabe-Instrumente war eine sogenannte turtle, ein graphisches Ausgabegerät, mit dem man Figuren zeichnen konnte. Dieses Ausgabegerät war sehr intuitiv, man konnte es angreifen und man konnte ihm beim Zeichnen zusehen. Das hat diese Software sehr populär gemacht.

Für meine Atari gab es bereits einen Logo-Interpreter; der war aber nicht gut. Kurze Zeit später haben zwei deutsche Mathematiker eine Logo-Implementation auf den Markt gebracht, die hieß xLogo - "experimential Logo". Diese Sprache hat mich sehr beeindruckt, weil ich damit meine eigenen MicroWorlds bauen konnte in Bereich musikalische Komposition. So habe habe ich begonnen, mit Logo bestimmte Formalismen bzw. Algorithmen zu kodieren (COMPOSE for xLOGO, 1988 f.) und habe damit mindestens zehn Jahre lang meine Instrumentalmusik komponiert.


Gottfried Michael Koenig

Ganz wichtig ist, dass ich zu dieser Zeit Gottfried Michael Koenig kennenlernte, ein Pionier der Computermusik und algorithmischen Komposition. Mein Freund Gerhard Eckel war damals Gaststudent am Instituut voor Sonology in Utrecht, das Koenig leitete. Als ich Gerhard dort einmal besuchte, fand ich in der Institutsbibliothek die Partitur eines Streichquartetts von Koenig, das ich zu Hause analysieren wollte. Obwohl ich schon viele serielle Kompositionen und Werke der Wiener Schule analysiert hatte, bin ich bei Koenigs Quartett nicht weitergekommen. Daraufhin habe ich ihm einen Brief geschrieben mit der Bitte, mir weiterführende Hinweise zu geben. Und dann kam einige Wochen später ein ganzes dicker Brief zurück, in dem er mir einige grundlegende Dinge erklärt hat. "Es wunder mich nicht, dass Sie mein Stück nicht analysieren können", schrieb er, "weil ich es mit Hilfe von Zufallsoperationen komponiert habe." Das war meine erste Bekanntschaft mit dem Zufall, der seitdem eine wichtige Rolle in meiner kompositorischen Arbeit spielt.

Wenn man Koenigs Stück hört, klingt es aber überhaupt nicht zufällig. Dies hat mich damals sehr verblüfft... Daraufhin habe ich begonnen, strukturelle Konzepte von Koenig, wie er sie in seinem ersten Computerprogramm Projekt 1 verwirklicht hat (einem Klassiker der algorithmischen Komposition), in mein xLOGO Compose Environment zu integrieren. Es entstand eine Art Werkzeugkasten, mit dem ich eine Reihe von Instrumentalwerken komponierte.


Karlheinz Essl im Gespräch mit Gottfried Michael Koenig (Studio kHz, 2.7.2014)

Karlheinz Essl im Gespräch mit Gottfried Michael Koenig
Studio kHz, 2.7.2014


IRCAM

Von 1991-1993 war ich Gastkomponist am Pariser IRCAM, wo die sog. ISPW (Ircam Signal Processing Workstation) entwickelt wurde: ein hochmoderner NeXT-Computer mit einer handgefertigten Soundkarte, auf der man in Echtzeit Klangsynthese und Signalprocessing rechnen konnte. Dies basierte auf den Entwicklungen des italienischen Computerwissenschaftlers Giuseppe Di Giugno, der die sog. 4X Maschine gebaut hat, eine PDP-11 mit eigenem Signalprozessor. Als dann aber die NeXT-Maschine herauskam, war diese Großrechenanlage obsolet. Man hatte nunmehr ein portables System mit einem viel kleineren Prozessor, das man auch auf Konzerte mitnehmen konnte. Dafür hat Pierre Boulez sein Stück Répons entwickelt.

Und wie diese neue Ircam Signal Processing Workstation in einem Beta-Stadium fertig war, wurden verschiedene junge Komponisten aus der ganzen Welt eingeladen, damit ein Stück zu machen - um das System zu testen. Ich hatte das Glück, auch darunter zu sein. Dafür musste ich am IRCAM einen Sommerkurs belegt und habe dort viele neuen Dinge kennengelernt, die Softwares, die Studios... Dabei bin ich mit der Programmiersprache Max in Berührung gekommen, die damals auf der Ircam-Workstation gelaufen ist - in einer sehr rudimentären Version, die mehr an Pd als an das heutige Max erinnert.


Karlheinz Essl am Pariser IRCAM (Paris 1993)

Karlheinz Essl im Studio 5 des IRCAM in Paris
Foto © 1993 by Sophie Steinberger


Max

Diese Programmiersprache habe ich dann für mein Auftragswerk Entsagung verwendet. Ich bin da richtiggehend hineingekippt in dieses Max. Plötzlich hatte ich die Möglichkeit, das, was ich jahrelang am Atari mit Logo gemacht habe - nämlich Partitursynthese "out of time", in Echtzeit umzusetzen. Dabei kann man die Resultate sofort hören und während der Laufzeit eingreifen, um Parameter zu verändern, was sich sofort im klingenden Resultat auswirkt. Dadurch wird das Programm mit einem Mal zu einem "Instrument", das man quasi in Echtzeit spielen kann.

Als 1993 wieder nach Wien zurückgekehrt bin, dachte ich mir: "Jetzt hatte ich so tolle Möglichkeiten am IRCAM, aber wie soll ich das nun zu Hause machen? Ich habe ja nicht das Geld, mir eine IRCAM Workstation zu kaufen." Jean-Baptiste Barrière hat mir aber zum Abschied gesagt: "Warte noch fünf Jahre, dann hast du das alles auch zu Hause auf deinem Laptop!" Das konnte ich mir gar nicht vorstellen. Aber tatsächlich, 1998 brachte Apple Laptops mit dem Motorola G3 Prozessor heraus, eine für damalige Verhältnisse sehr schnelle CPU, auf der man ohne Signalprozessor Klang in Echtzeit berechnen konnte. Miller Puckette hatte dafür für Max eine neue Audio-Erweiterung, genannt MSP (Max Signal Processing), entwickelt. Das Environment, das ich zuvor auf der IRCAM Workstation gehabt hatte, lief nun ohne zusätzliche Hardware direkt auf meinem G3 Powerbook! Unlängst habe ich es wieder in die Hand genommen und hochgefahren, weil ich nach einem bestimmten File suchte; nach 18 Jahren funktioniert es immer noch!

Das war also in kurzen Zügen der Abriss: von der Rockmusik zur seriellen Musik, von der seriellen Musik zur elektronischen Musik, von der elektronischen Musik zur Computermusik, von der Partitursynthese zur Live-Elektronik: ein etwa 30-jähriger Prozess.

Karlheinz Essl mit seinem Powerbook G3

Karlheinz Essl mit seinem Powerbook G3 (1998)


Echtzeit

RV: Und war in diesem Prozess Echtzeit ein Traum, bevor das tatsächlich möglich gewesen ist?

KHE: Nein, überhaupt nicht, ich habe immer gedacht: "Warum reden die dauern von Echtzeit? Ist mir doch egal, ob ich jetzt eine Nacht warte, bis der Rechner mir eine Seite, eine Partitur oder Tabelle ausdruckt, die ich dann ohnehin in Notation übertragen muss." Als ich dann aber mein erstes Programm in Max geschrieben habe - die Lexikon-Sonate - war das zunächste mehr ein Test um zu sehen, was und wie man damit komponieren kann. Mit Hilfe von Max und einem über MIDI angeschlossenen Piano-Sampler, wollte ich bestimmte musikalische Strukturen erzeugen, die man am Klavier spielen kann. Und dabei erkannte ich fasziniert, dass wenn alles in Echtzeit passiert ich dem Computer beim Komponieren zuhören kann. Uund dann kann ich unmittelbar eingreifen, und sofort verändert sich die Harmonik oder die Geschwindigkeit. Da erst habe ich verstanden, was "Echtzeit" wirklich bedeutet.


user interface der Lexikon-Sonate 4.0

Benutzeroberfläche von Karlheinz Essls Lexikon-Sonate


Andere Programmiersprachen

RV: Also: xLOGO, dann Max... Ich habe irgendwie gelesen, dass Sie auch mit Perl und Javascript gearbeitet haben. Haben Sie auch andere Programmiersprachen probiert?

KHE: Ja. Ich habe ein bisschen SuperCollider experimentiert, aber ich hatte noch zu wenig Zeit, mich eingehender damit zu beschäftigen. Was ich heute sehr aufregend finde ist Opusmodus. Das ist eine neue Generation von algorithmischer Kompositionssoftware, die ein Kollektiv von französischen und polnischen Musikern entwickelt. Sie ist erst seit einem Jahr auf dem Markt und läuft unter Lisp. Es beeinhaltet eine unglaublich mächtige Implementation von MusicXML, womit man direkt musikalischen Notationen generieren kann, die wirklich gut aussehen. Ein sehr durchdachte Sprache, mit deren Algorithmen musikalische Strukturen, Grafiken, Notationen, MIDI Files etc. erzeugt werden können. Das System ist offen und frei konfigurierbar. Es hat eine riesige Bibliothek von Funktionen, die man verwenden oder erweitern kann. Ich stehe in Kontakt mit dem Entwickler Janusz Podrazik, den ich zu einem Workshop an die Wiener Musikuniversität eingeladen habe. Damit möchte ich mich in der nächsten Zeit intensiver beschäftigen; so komme ich wieder zurück zur guten alten Partitursynthese. Das habe ich lange Zeit nicht mehr gemacht, weil mich Echtzeitprozesse und die Live-Elektronik in den letzten Jahren sehr beschäftigt haben.


Musikgeschmack

RV: Welche Musik hören Sie gern?

Karlheinz Essl: Ich höre sehr viel Musik, vor allem professionell, weil ich viel mit Studenten zu tun habe und mich darüber informiere möchte, was momentan gerade komponiert und produziert wird. Das ist das professionelle Musikhören. Das mache ich ständig - da geht es natürlich in erste Linie um neue Musik, elektronische Musik, experimentelle Musik... Aber es gibt auch Musik, die ich zu meinem Vergnügen höre. Aber das sind Sachen, die ganz weit weg sind von dem, was ich selber mache. Es ist die Musik, die ich früher gehört habe, als ich mich intensiv mit bestimmten Arten von avancierter Rockmusik beschäftigt habe. Diese Musik höre ich immer noch gern, zum Beispiel Gentle Giant. Eine meiner Lieblingsgruppen ist eine Band aus Deutschland - CAN -, das waren Krautrock-Exponenten, die auch mit Karlheinz Stockhausen gearbeitet hatten; sie waren teilweise seine Schüler. Über diese Band bin ich eben auf diesen Komponisten aufmerksam geworden. Und das war dann auch die Brücke zur elektronischen Musik.


Ausbildung

RV: Noch eine Frage zu Ihrem Studium: Sie haben Chemie studiert...

KHE: ...an einer berufsbildenden Schule mit Schwerpunkt Chemie mit einem Abschluss zum Chemieingenieur. Dort habe ich mein naturwissenschaftliches Rüstzeug gelernt.

RV: Und kurz danach haben Sie sich dann für Musikwissenschaft entschieden?

KHE: Gegen den Willem meiner Eltern, die meinten, ich sollte besser etwas Anständiges lernen. Ich habe seit frühester Jugend musiziert, in Bands gespielt, Hausmusik gemacht, in einem Kirchenchor gesungen und Kontrabass in einem Streichorchester gespielt. Deshalb war Musikwissenschaft für mich das Naheliegendste. Ich habe dann wieder Klavierunterricht genommen bei meiner alten Lehrerin, die meinte, ich sollte unbedingt Komposition studieren, weil sie Musikwissenschaft allein zu trocken fand. Sie hat mich zu Alfred Uhl geschickt, der mich auch tatsächlich bei sich zu Hause empfangen hat. Ein alter, sehr freundlicher Herr, der sich meine Kompositionen angesehen hat und mich ermutigt hat, die Aufnahmsprüfung an der Wiener Musikhochschule zu wagen. Die ich dann zum Glück auch geschafft habe.

RV: Ihre Eltern waren damit nicht einverstanden?

KHE: Das kam erst später. Damals haben sie begonnen, im kleinen Maßstab zeitgenössische Kunst zu sammeln, natürlich noch ohne Museum, sehr bescheiden. Aber mit Musik hatten sie damals noch nicht so viel am Hut...


Musikalischer Stil

RV: Wie würden Sie Ihren musikalischen Stil beschreiben?

KHE: Mein musikalische Sprache hat sich im Lauf der Zeit stark geändert. In den 90er Jahren, also nach meinem Studium, war ich sehr beeinflusst vom Serialismus im Sinne von Pierre Boulez als Fortführung der Wiener Schule. Da habe ich viel Kammer- und Ensemblemusik geschrieben, inspiriert von der Ästhetik der New Complexity, die ich in Darmstadt kennengelernt hatte.

1997 war ich composer-in-residence bei den Salzburger Festspielen und wurde dort im Rahmen der Reihe "Next Generation" präsentiert. Ich hatte dort Portraitkonzerte mit großartigen Ensembles wie dem Klangforum und dem Ensemble Modern mit tollen Dirigenten wie Hans Zender. Und ausserdem zwei Klanginstallationen: die interaktive Lexikon-Sonate auf einem Yamaha Disklavier und das Klangenvironment Amazing Maze im Mirabellgarten. Für einen 37-jährigen wohl der Höhepunkt einer Karriere! Und obwohl dort alles ist sehr gut gelaufen ist, bin ich nach dem Festival in ein tiefes Loch gestürzt. Ich habe mir gedacht: "War es das jetzt? Ist das ein Leben? Ich sitze am Schreibtisch und komponiere Stücke, die irgendwann gespielt und dann ein-, zweimal aufgeführt werden, und dann sitze ich hier wieder allein zu Hause und schreibe die nächste Partitur."

Früher, als ich noch mit meinen Bands gespielt habe, hatte ich mindestens einmal in Monat ein Konzert. Wir haben viel geprobt und improvisiert und sehr interessante Sachen erlebt. Aber jetzt sitze ganz allein in einem Elfenbeinturm und schreibe meine Partituren. Und dann habe ich zu mir gesagt: "Ich muss da herauskommen! Ich möchte wieder als Performer werden auf die Bühne gehen und live spielen." Aber dann habe gemerkt, dass ich kein Instrument mehr richtig beherrsche. Früher habe ich viel Klavier gespielt, aber später aufgegeben. Dann habe ich Kontrabass (Konzertfach) studiert und musste das auch aufgegeben, um mehr Zeit zum Komponieren zu haben. Früher hatte ich E-Gitarre gespielt, aber dieses Instrument auch schon vor langer Zeit an den Nagel gehängt. Das heißt, ich konnte zwar einige Instrumente spielen, hatte aber keine Praxis. Weil ich als Komponist ich ein bestimmtes Niveau erreicht hatte, konnte ich als Instrumentalist nicht wieder von vorne anfangen. Die Lösung war, ein eigenes Instrument zu erfinden. Und da habe ich begonnen, als MaxMSP herausgekommen ist, mein eigenes Instrument zu bauen, das ich m@ze°2 nannte.

Darauf werde ich heute abends spielen, das gibt es immer noch. Ich habe dieses Software-Instrument fast 20 Jahre ständig weiterentwickelt. Um damit Erfahrungen zu sammeln, habe ich 1998 ein mehrteiliges Projekt mit dem Titel fLOW initiert. Es basiert auf einem Soundscape-Generator, den ich in Max geschrieben habe, zu dem verschiedene Musiker improvisieren. MusikerInnen aus ganz unterschiedliche Bereichen wie Jazz, experimentelle Musik, neue Musik, Klassik. Und dabei habe ich gelernt, wie das ist, mit Musikern aus verschieden Sujets und musikalischen Idiomatiken zu arbeiten. Und dadurch hat sich auch mein Stil als Komponist geändert. Meine Musik geht heute viel mehr vom Hören aus, obwohl sie weiterhinauf konstruktiven Konzeptionen hat und Algorithmen basiert. Aber sie ist nicht mehr so hermetisch, am Schreibtisch austariert, sondern bringt die eigene Erfahrung als Instrumentalist mit ein. Sie hat sich stark verändert durch meine jahrelange Erfahrung mit Live-Elektronik und Echtzeit-Algorithmen.

RV: Für wenn komponieren Sie? Welchen Hörer stellen Sie sich vor, wenn Sie komponieren oder live improvisieren?

KHE: Ich stelle mir keinen bestimmten Hörer vor, aber ich stelle mir immer ein Publikum vor. Ich komponiere nicht abstrakt für den luftleeren Raum. Das war früher vielleicht ein bisschen anders. Heute versuche ich mir vorzustellen, wie sich die Musik im Raum entfaltet und auf die HörerInnen wirkt. Das heißt, ich denke beim Schreiben immer an die Menschen, aber auch an den Akt des Hörens: Wie gestalte ich Zeitverläufe, damit sie auch wahrgenommen werden können? Was überrascht, was kann langweilen? So gesehen arbeite ich zwar empirisch, aber immer auf einer fundierten strukturellen Basis.


Improvisation

RV: Ich habe auch gelesen, dass sie sagten, es sei toll, zu improvisieren, aber nur wenn es ein Publikum gibt.

KHE: Das ist ein ganz wichtiger Punkt! In dem Improvisationsprojekt OUT OF THE BLUE mit der Sängerin Agnes Heginger wird nie geprobt. Wir treten umgeprobt, aber gut vorbereitet vor unser Publikum und spielen "out of the blue". Es gibt zwar immer ein Konzept oder einen Rahmen – heute ist es Friedrich Nietzsche, ein anderes Mal ging es um die Liebe. Agnes liest viel und hat eine breite Literaturkenntnis. Sie bringt alles Mögliche an Texten aus Büchern und Notizen mit. Weder sie noch ich wissen im aber Vorhinein, was wir von diesem Material verwenden werden. Und dann beginnt ein Spiel coram publico, wo wir uns gegenseitig die Bälle zuwerfen und damit aus dem Augenblick heraus gemeinsam ein Stück komponieren. Wenn man die Aufnahmen später anhört, vermittelt sich oft der Eindruck, als wären das gut einstudierte Kompositionen. Und das geht mit Agnes Heginger deshalb so gut, weil sie eine unglaubliche technische Bandbreite hat, weil sie sehr offen und flexibel ist und spontan auf Klänge und Situationen reagieren kann. Umgekehrt kann ich zu dem, was sie macht, sofort eine Antwort auf meinem Laptop geben.



OUT OF THE BLUE: Karlheinz Essl (Live-Elektronik) & Agnes Heginger (Stimme)
Oh Nacht, oh Schweigen, oh todtenstiller Lärm
Museumsquartier Wien, Halle G (27 Nov 2015)


Identitäten

RV: Ist Ihre Musik eine österreichische Musik?

KHE: Das ist schwer zu sagen... Meine ersten ernstzunehmenden Kompositionen habe ich als Fortsetzung der Wiener Schule (Schönberg, Webern, Berg) gesehen. Das habe ich aber bald abgeworfen. Danach kam der Serialismus mit seinen abstrakten Konzepten. Heute interessieren mich Berühungspunkte zu anderen Kulturen der Welt, zum Beispiel China. (Zeigt ein Instrument). Das ist eine chinesische Guzheng, eine sog. Wölbbrettzither mit 21 pentatonisch gestimmten Saiten. In meinem Stück river_run habe ich dieses Instrument so umgestimmt, dass sich die pentatonische Zellen nicht in der Oktave, sondern in der großen Septime wiederholen:

river_run: tuning

Guzheng-Stimmung in Karlheinz Essls river_run (2016)


Dadurch entsteht ein panchromatisches Total auf Basis einer pentatonische Zelle, die chromatisch verschoben wird. Dies öffnet ganz neue harmonische Räume! Was dabei herauskommt, erinnert zwar immer wieder an die klassische chinesische Guzheng; durch die Live-Elektronik aber wird der Klang stark ins Orchestrale transformiert wird.


Literatur

RV: Können Sie mir über Ihre Entdeckung von Georges Perecs Werk erzählen?

KHE: Schon während meiner Studienzeit in den achtziger Jahren habe ich mich mit allen möglichen Formen von Algorithmen beschäftigt, auch zur Generierung von musikalischen Strukturen. Daneben habe ich mich auch für experimentelle Literatur interessiert, die mit ähnlichen Methoden arbeitet. In Österreich gab es nach dem zweiten Weltkrieg eine Formation von Schriftsteller, die Wiener Gruppe. Da waren ganz berühmte österreichische Autoren versammelt, wie H.C. Artmann, Konrad Bayer, Gerhard Rühm. Die hatten einen sehr strukturellen Zugang zur Literatur und versucht, mit wissenschaftlichen Methoden Texte zu (de)konstruieren. In diesem Zusammenhang bin ich auf eine französische Literatengruppe namens OuLiPo aufmerksam geworden, die mit recht ähnlichen Ideen arbeiteten. Und über die bin ich dann auf Georges Perec gestoßen, mit dem ich mich eine Zeit lang intensiv beschäftigt habe. Obwohl ich kaum Französisch kann, habe ich sein Buch La Disparition zweisprachig gelesen, parallel die deutsche Übersetzung und das französische Original, und habe gemerkt, wie unglaublich gut das übersetzt wurde.

RV: Dafür müssen Sie doch ein bisschen Französisch können!

KHE: Ja, ein bisschen vielleicht, ich habe ja eine Zeit lang in Frankreich gelebt, als ich in Paris am IRCAM gearbeitet habe. Ich kann zwar nicht sprechen, aber lesen. Es gibt diese geniale Übersetzung Perecs von Eugen Helmlé, der als Deutsch-Franzose selbst zweisprachig war. Mich hat es sehr beeindruckt, dass es möglich ist, ein so kompliziertes Buch ganz ohne den Buchstabe E (den häufigsten Buchstaben in der deutschen und französischen Sprach) sogar ins Deutsche zu übersetzen, ohne diesen Buchstaben!

RV: Haben Sie auch andere Literatur für Ihre Musik benutzt?

KHE: Ich habe mich schon in meiner Schulzeit intensiv mit E. T. A. Hoffmann und der Wiener Gruppe beschäftigt. Und später auch mit Andreas Okopenko, dessen Lexikon-Roman mit seiner Hypertext-Struktur Ausgangspunkt meiner Lexikon-Sonate war. Diese ist bereits in Paris am IRCAM entstanden; ursprünglich als Studie, um die Programmsprache Max besser kennenzulernen. Und als ich dann nach Wien zurückgekehrt bin, wurde ich von den Libraries of the Mind angesprochen, einer Gruppe von Computerwissenschaftlern, Netzaktvisten und Künstlern; die wollten Okopenkos Lexikon-Roman als interaktives elektronisches Buch herausbringen. Dies geschag alles noch vor dem Siegeszug des World-Wide Webs mit seinen Hyperlinks! Dabei habe ich gemerkt, dass das, was ich in Paris zur selben Zeit gemacht habe, genau in die gleiche Richtung zielt, und damit hatte ich auch schon den Titel für mein generatives Klavierstück: Lexikon-Sonate!

In dieser Zeit hatte ich auch Kontakte zu zwei anderen österreichischen Autoren meiner Generation, Ferdinand Schmatz und Franz Josef Czernin, die ein eigenes Computerprogramm namens POE (Poetic Oriented Evaluations) entwickelt hatten. Sie haben in Grunde auch mit Strukturgeneratoren gearbeitet und bestimmte Algorithmen entwickelt wie Textfilter oder -generatoren, mit denen man Texte manipulieren und erzeugen kann.

Zuvor hatte ich auch mit Perl experimentiert auf Anregung von Florian Cramer, einem Literaturwissenschaftler und Netzaktivisten, der seit 20 Jahren eine höchst bemerkenswerte Website mit algorithmischer Literatur betreibt. U.a. findet sich dort eine Umsetzung von Raymond Queneaus (Cent mille milliards de poèmes. Cramer hat mir dabei geholfen, einige meiner Stücken ins Web zu bekommen, wie zum Beispiel die Internetversion der multimedia Installation MindShipMind.


Auszug aus Romain Versaevels Masterarbeit L’informatique dans la musique de Karlheinz Essl im Fach "Histoire, Philosophie et Didactique des Sciences" (Université Lyon, 2016)
Transkription: Jana Gulyas



Home Works Sounds Bibliography Concerts


Updated: 21 Jul 2017