Berlin - Nicht nur in der Popmusik, auch in der klassischen Musik wird immer wieder mit Künstlicher Intelligenz experimentiert. Mozart und Beethoven lassen sich nicht durch Algorithmen ersetzen. Oder doch?
Diese Bestellung aus Paris hat es in sich. 1803 erhält Ludwig van Beethoven in Wien einen neues Fortepiano. Das Klavier aus der Manufaktur von Sébastien Érard bietet mit fünfeinhalb Oktaven einen größeren Klangumfang als das bisherige Instrument des Meisters, neue Technik ermöglicht ein schnelleres Spiel, vier Pedale holen einen deutlich differenzierteren Sound aus den Saiten. Auf dem neuen Piano entstehen unter anderem die «Waldstein»-Sonate und die «Apassionata».
Wenn Orm Finnendahl auf die Rolle von Künstlicher Intelligenz (KI) in der Musik zu sprechen kommt, erinnert er an Beethovens Érard-Piano. Neue Technik, sagt der Komponist und Professor an der Musikhochschule Frankfurt/Main, wirke sich auch immer auch auf Form und Inhalt von Kunst aus. «Technologie hat auch in der Musik immer wieder zu neuen Möglichkeiten geführt.»
Zwar experimentieren schon seit den fünfziger Jahren Komponisten mit Computern und Musik. Dank benutzerfreundlicher Software können sich heute auch Laien als Tonkünstler versuchen. Aber auch das ist nicht neu. Schon zu Mozarts Zeiten wurde Musik zum Spass nach dem Zufallsprinzip erzeugt: Der Komponist der «Zauberflöte» schrieb sogar eine «Anleitung zum Componieren von Walzern vermittels zweier Würfel».
Die Suchmaschine Google hat jüngst einen sogenannten «Doodle» (Kritzelei) zu Ehren Bachs ins Netz gestellt. Wer es anklickt, kommt auf ein Programm, das jedem und jeder offen steht. Aus einer eingegeben Notenfolge bastelt die Software eine Komposition im Bach-Stil. Dafür durchstöbert das Programm in Sekundenschnelle hunderte Partituren des Meisters, erkennt Klangmuster und verbindet Harmonien und Rhythmus mit der vom Nutzer vorgeschlagenen Melodie zu einer kurzen Musikpassage.
Es gibt auch komplexere Programme. Webseiten wie «Magenta» oder «Flow Machines» sollen selbst bei Menschen Lust am Komponieren wecken, die Dur von Moll nicht unterscheiden können. Steckt etwa in jedem von uns ein kleiner Beethoven?
Eher nicht. Welten wie die von Bach, Brahms und Bruckner werden sich kaum maschinell erzeugen lassen. Das ist auf anderen Gebieten einfacher. In der Popmusik gibt es mittlerweile virtuelle Bands, und selbst in der Klassik hält Virtuelle Realität (VR) Einzug in die Konzertsäle. Eine Show, die gerade weltweit tourt, erweckt mit einem dreidimensionalen Hologramm die legendäre Opernsängerin Maria Callas zu neuem Leben.
Schon 1957 schrieben Lejaren Hiller and Leonard Isaacson an der Universität Illinois mit einem Computer ein mathematisches Modell, aus dem die «Illaic Suite» für Streichquartett entstand, das erste Werk eines Rechners für traditionelle Instrumente.
Wenig später befreite sich der amerikanische Komponist David Cope von einer kreativen Blockade, indem er ein Programm entwickelte, das seinen Stil nachahmen sollte. Daraus entstand «Emily Howell», das auf der Grundlage tausender Kompositionen Klangfolgen fortschreibt, die dann etwa wie Werke von Mozart oder Rachmaninow klingen sollen. Die Stücke werden regelmäßig vor Publikum aufgeführt. Eine zwiespältiger Genuss.
Für Orm Finnendahl stellt KI die Kunstproduktion vor grundlegende Fragen. «Die Durchdringung von Technologie in unserem Alltag unterscheidet unsere Epoche von allen anderen», sagt er. KI stelle das Alleinstellungsmerkmal des Menschen, seine Intelligenz, in Frage - und damit auch die Kunst.
Finnendahl, der elektronische Musik komponiert, nutzt seit Jahren KI als Inspirationsquelle. Allerdings ist für ihn bereits die Erarbeitung der Algorithmen und die Auswahl der musikalischen Parameter, mit denen sie gefüttert werden, maßgeblicher Bestandteil seiner Arbeit. Und das letzte Wort, ob er eine mit Hilfe des Computer errechnete Sequenz übernimmt, behalte selbstverständlich er. «Man kann mit KI wunderbare Dinge imitieren. Was aber Kunst ausmacht, ist der Einfall - und das kann bisher KI nicht mal ansatzweise abbilden.»
Dennoch habe KI dazu geführt, dass er genauer über bestimmte Vorschläge des Programms nachdenke. «Manchmal komme ich Wochen später darauf, warum mich eine bestimmte Sequenz angesprochen hat.»
Aber vielleicht kommt es wie in Stanley Kubricks Film «2001: Odyssee im Weltraum». In dem Science-Fiction-Klassiker übernimmt der Computer HAL die Geschicke einer Weltraummission. Daran erinnert das Projekt Iamus aus dem Institut für Biometrik der Universität Malaga.
Iamus generiert selbst einfache Klangsequenzen. Die Software erlernt danach auf dieser Grundlage immer komplexere Formen, nur Dauer und jeweils nötige Instrumente müssen vorgegeben werden. Der Vater des Projekts, Francisco Vico, spricht von «genetischen Mustern» und Mutationen. Das Prinzip der Evolution werde auf die Erzeugung von Musik angewandt.
Als zum 100. Geburtstag des Computer-Pioniers Alan Turing das London Symphony Orchestra das KI-Werk «Transits - Into an Abyss» aus dem Iamus-Programm einspielte, erfuhren die Musiker erst kurz davor, dass die Partitur von einer Maschine stammte. Inzwischen wurde Iamus weiterentwickelt. Mit Melomics können Klänge an die Aktivitäten der Nutzer angepasst werden. So entsteht ein Soundtrack zum Alltag.
«Ob Bilder, Mails oder Musikstücke - auf der elementaren Ebene sind die Nullen und Einsen, mit denen Software geschrieben wird, immer gleich», sagt Finnendahl. Der Computer könne Daten extrem schnell manipulieren. Aber erst der Mensch verwandele diese Informationen zu einem Bild oder Musik. Ein Rechner könne zwar den Stil eines Komponisten nachahmen. Doch ein Meisterwerk wie Johann Sebastian Bachs «Kunst der Fuge»? - undenkbar für Finnendahl. «Da will ich das Computerprogramm sehen, das so etwas nur annähernd schafft.»