Hauptbild
Partituren, Bleistifte und Klaviersaiten: Erinnerungen an die musikalische Welt von gestern. Foto: Susanne van Loon

Partituren, Bleistifte und Klaviersaiten: Erinnerungen an die musikalische Welt von gestern. Foto: Susanne van Loon

Banner Full-Size

„Jede Maschine ist ein Künstler!“

Untertitel
Oder: Musik im Zeitalter ihrer technischen Produzierbarkeit · Von Philipp Lojak
Vorspann / Teaser

Ein Raunen geht durch die Kreativbranche. Es handelt sich dabei um eine plötzlich verloren gegangene Gewissheit, nämlich, dass kreative Arbeit niemals durch Maschinen zu ersetzen sein wird. Mit der künstlichen Intelligenz, namentlich ChatGPT, hat sich das in sein Gegenteil verkehrt. Die sogenannten „Large Language Model“ (LLM), dazu gehören ChatGPT und einige andere, beherrschen menschliche Sprachen virtuos und können damit kreative Aufgaben besonders gut lösen: Sie schreiben Gedichte, journalistische Texte, Theaterplots. Web- und Grafikdesigner könnten ihre Jobs verlieren, befürchten Experten. Sogar Juristen. Was die Welt stattdessen braucht: Prompt-Ingenieure, Menschen, die die künstliche Intelligenz bedienen.

Publikationsdatum
Paragraphs
Text

Die LLMs werden nicht nur mit Englisch, Deutsch oder einer Programmiersprache fertig, sondern auch mit den sprachähnlichen Strukturen von Musik. Mithilfe geschickter Prompts lassen sich bereits heute gänzlich neue Songs künstlich herstellen, aus dem Nichts, gesungen von einer nie zuvor gehörten Stimme. Ist der Beruf des Komponisten von gestern? Hören wir demnächst Sinfoniekonzerte mit von KIs komponierten Stücken? Vielleicht sogar generiert aus Lautsprechern? Welche Auswirkungen hat die KI-Revolution auf die Musikbranche und was hat Walter Benjamin damit zu tun?

Eine Bestandsaufnahme

Die Idee, mithilfe von KI Musik zu generieren, ist nicht neu. Große Aufmerksamkeit erlangte 2021 ein Projekt unter der Schirmherrschaft der deutschen Telekom, die zum Jubiläum Ludwig van Beethovens dessen Skizzen zu seiner 10. Sinfonie von einer KI vervollständigen ließ. Das bedeutet, dass Partituren von Beethoven in einen Algorithmus eingespeist wurden. Das Computerprogramm wurde daraufhin mit Kompositionsaufgaben „trainiert“ – je nach Ergebnis wird der Algorithmus „bestraft“ oder „belohnt“ und schreibt sich dann selbst entsprechend um. Der Anthropomorphismus ist gerechtfertigt, denn menschliches Lernen funktioniert nicht unähnlich. Der Prozess wird so lange wiederholt, bis diese KI gute Ergebnisse produziert. Von dem Ergebnis der Telekom-KI war die Öffentlichkeit vielleicht beeindruckt und fasziniert – ins Repertoire scheint das Beethoven-Pastiche jedoch bislang nicht eingegangen zu sein.

Generell waren die Produkte musikalischer KI bislang eher durchwachsen. Die Ergebnisse, die Melobytes.com ausspuckt, klingen so, wie man sich die vollkommen unmusikalischen, mechanischen kompositorischen Ergüsse eines Mathias Fischböck aus dem Roman „Verdi. Ein Roman der Oper“ von Franz Werfel ausmalen mag. Das, was „Jukebox“ hingegen ausspuckt, ein Projekt von OpenAI, der Entwickler-Firma von ChatGPT, ist bereits beeindruckend: Die Entwickler füttern ihre Algorithmen mit Songs – bloß die Tonspuren! – bestimmter Künstler: Elvis Presley, Michael Jackson oder Katy Perry. Die KI generiert daraufhin Tonspuren, die so sein könnten wie von diesen Künstlern komponiert beziehungsweise performt, es aber nicht sind. Es sind gänzlich neue Songs. Als hätte ein eifriger Musikwissenschaftler ein vergessenes Album von Elvis Presley ausgegraben. Das Besondere: Anders als bei dem Beethoven-Projekt analysiert Jukebox nicht Noten, deren Beziehungen sich mit recht einfacher Mathematik berechnen lassen, sondern mit reinen Tonspuren.

Noch klingen diese Songs etwas seltsam, ihre Klangqualität ist nicht gut und sehr volatil. Noch braucht die KI von OpenAI die Assistenz von einem Computer Scientist, sie kann noch keine Musik produzieren, die von uns Menschen als „Artefakte“, Kunstgegenstände, wahrgenommen werden können. Doch von dem berühmten Zukunftsforscher Roy Amara ist überliefert, dass wir Menschen dazu neigen, „die Wirkung von Technologie auf den kurzen Zeitraum zu überschätzen und sie auf den langen Zeitraum zu unterschätzen“.

Wohin es gehen könnte, zeigt die Website „loudly.com“. Das Berliner Start-up mit inzwischen 30 Mitarbeitern lässt von ihrer KI funktionale Musik generieren, Hintergrundmusik. Das funktioniert mit LoFi-Hintergrundmusik für YouTube-Videos, Werbeclips, Dokumentationen und vieles mehr, also für Anwendungszwecke, bei denen der Rezipient ohnehin nicht genau hinhört. Der zahlende Nutzer kann bestimmte Begriffe („romantisch“, „Klavier“, „langsam“) vorgeben und die KI schlägt eine Auswahl an Tracks vor. Projiziert man diese Entwicklungen zehn, zwanzig Jahre in die Zukunft, sind tiefgreifende Änderungen in der Musikindus­trie unvermeidbar. Für einfache Anwendungen ist KI-Musik bereits jetzt tauglich. Irgendwann aber wird die KI eine Musik ausspucken, die nicht nur als Hintergrundrauschen, sondern als individuelles Artefakt funktioniert. Die Menschheit geht über von einem Zeitalter der Reproduzierbarkeit von künstlerischen Artefakten, ihrer massenhaften Replikation, zu einer Zeit der massenhaften Produzierbarkeit von individuellen Kunstwerken.

Der Kult kehrt zurück

Einer, der sich sehr früh mit den Auswirkungen der technischen Replikation von Kunst auf die Kunst selbst und auf uns Menschen beschäftigt hat, war Walter Benjamin. Vor dem Hintergrund dieser uns versprochenen KI-Revolution rückt sein 1936 im französischen Exil erschienener Aufsatz „Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit“ ins Licht der Aufmerksamkeit. Die massenweise technische Reproduktion von Artefakten – Bilder, Musik, Filme – führt zu einem Verfall von etwas, was er „Aura“ nennt. Gemeint ist Einmaligkeit von Artefakten. Man könnte meinen, dass mit der KI-Revolution die Aura gewissermaßen inflationiert wird. Es ist nunmehr möglich, unendlich viele einmalige Stücke generieren zu lassen. Doch ist das nicht gemeint: Es geht um die Einmaligkeit des Augenblicks. Die Erfahrung des Augenblicks bindet uns in die Welt ein, sie gibt unserem Sein eine Bedeutung. Wir Menschen sind stets auf der Suche nach Bedeutung: Wir suchen sie in allen Gegenständen und vor allem in Kunst. Das gilt gerade in Zeiten, in denen den meisten ein Zugang zu Religion verlustig gegangen ist und jeder auf der Suche nach der eigenen Individualität ist. Das Erfahren eines einmaligen Kunstwerks triggert unsere narzisstische Suche nach Individualität: Wir waren bei einem Ereignis dabei, das keiner sonst erlebt hat oder dessen immerhin eine limitierte Zahl von Menschen ansichtig wurde, mit denen man sich dann identifiziert.

Das ist nichts anderes als ein Kult. Benjamin spricht davon, dass das Kunstwerk aus zwei Polen besteht: Kultwert und Ausstellungswert. Benjamin ging von einem Niedergang des Kultwerts zugunsten des „Ausstellungswertes“ aus. Das mochte richtig sein bis zu dem Zeitpunkt, an dem unsere schrille Medienwelt derart inflationiert ist und wir derart abgestumpft, dass jeglicher Ausstellungswert nicht mehr imstande ist, uns zu erreichen. Mit dem Zeitalter der künstlich-intelligenten Produzierbarkeit von Musik kann dieser Zeitpunkt nun erreicht sein. In der schrillen und austauschbaren Popkultur äußert sich die Verschiebung zurück zum Kult in Event-Maximalismus. Während noch vor 20 Jahren Musiker auf Tournee gingen, um ihre Alben zu promoten, so werden diese heute nur noch produziert, um für die Tournee zu werben, denn bei der Veranstaltung großer Events wird heute das Geld gemacht. Mit physischen Datenträgern hatte Musik immerhin noch irgendeine Limitierung, diese ist mit Spotify nun auch weggefallen. Gefragt sind große, einmalige Events, je opulenter je besser. Karten zu bekommen für Konzerte von Taylor Swift oder Rammstein, gleicht einem Sechser im Lotto.

Doch ist das auf die Welt der „Klassik“ und der Neuen Musik übertragbar? Die Klassik-Welt ist von jeher von Ritualen und geprägt. Konzerthäuser, Opern oder auch Kammermusiker werden sich überlegen müssen, wie sie die Aura zurück ins Konzert holen, um sich von der KI-generierten Musik abzugrenzen. Die bildende Kunst kämpft seit vielen Jahren um den Erhalt der Aura: Bei den Kunstperformances von Marina Abramovic wird die Anwesenheit des Rezipienten vorausgesetzt – ohne dabeigewesen zu sein, verlieren ihre Performances jeglichen Reiz, denn sie spielen mit der unmittelbaren Involviertheit des Publikums, mit ihren Trieben, ihren Ängs­ten, ihren Hoffnungen.

Die Widerentdeckung der Aura ist für die Neue Musik ebenfalls eine Perspektive. Performativität, Klanginstallationen und Event-Charakter spielen bereits jetzt auf den einschlägigen Fes­tivals eine Rolle. So kann das Vom-Menschen-Gemachte vom maschinell-erzeugten unterschieden werden. Die Schlussfolgerungen sind also die gleichen Fragen, wie sie seit Jahrzehnten formuliert werden. Die KI-Revolution formuliert erneut die Frage, wie die (klassische) Musikwelt relevant bleibt im Kontrast zur Inflation der KI-generierten Musikimmission.

Der Musiker als Marke

Im Zuge des KI-Hypes der letzten Monate war oft die Frage zu hören: Werden wir im Sinfoniekonzert sitzen mit Stücken, die ausschließlich von unterschiedlichen KIs komponiert wurden? Die Elbphilharmonie war voll besetzt, als das Beethovenorchester Bonn unter Dirk Kaftan die von einem Computerprogramm vervollständigten Skizzen Beethovens zu seiner 10. Sinfonie uraufführten. Doch warum saßen die Menschen in dem Saal, um den Produkten einer Maschine zu lauschen? Es war die Faszination des ersten Mals, des historischen Moments: Der Computer siegt über den Menschen. Doch was wäre, wenn die Telekom, Schirmherrin des Projekts, Beethovens 11. Sinfonie ankündigt?

Wäre die Elbphilharmonie für „Beet­hovens“ 42. Sinfonie, komponiert von derselben KI, noch immer voll? Schwer vorstellbar. Wir Menschen hören Musik nicht allein aufgrund des sinnlichen Reizes – wir suchen eben die Bedeutung – und die ergibt sich aus Narrativen oder zwischenmenschlichen Beziehungen. Warum kaufen Menschen Tontöpfe oder Handtaschen von Kunsthandwerkern, wobei dieselben Produkte aus industrieller Produktion in der Regel wesentlich günstiger und sauberer in der Verarbeitung sind? Man kauft die zwischenmenschliche Bedeutung: Dieses Produkt ist menschengemacht.

Übertragen auf die Welt der Musik heißt das: In Zukunft wird es wichtiger werden, der Kunst das Menschsein aufzuprägen, um sich von der industriellen KI-Musik abzugrenzen. Wer ein neues Stück von Komponist Jörg Widmann hört, der hört es nicht ausschließlich, weil ihn die Musik interessiert, sondern weil es ein Interesse für die Person gibt. Generell geht es in der Neuen-Musik-Szene viel um den Tratsch (und seit Yuval Harari wissen wir: Der Mensch begann zu sprechen, um tratschen zu können). In der Musikwelt wird es also immer wichtiger werden, Persönlichkeit zu zeigen, eine Marke aufzubauen. Oder anders gesagt: Influencer zu werden.

Das ist eine Entwicklung, die schon spätestens mit Social Media ihre Blüten treibt, doch die künstliche Intelligenz wird sie radikal verschärfen. Damit gewinnt die Musik an Aura zurück, was ihr im anonymen Allerlei von Spotify und Co verlustig gegangen ist. Nur dann unterscheidet sich der Musiker-Mensch von der Musik-KI. Nimmt der Zuhörer die Musiker als Quasi-Freunde wahr („kenne ich von Instagram“), so ist ihm ihre Musik wichtig, geht auf ihre Konzerte. Das klingt, so formuliert, für den ein oder anderen wie ein positiver Ausblick. Jedoch bedeutet er, dass Musikkarriere, eben beschleunigt durch KI, noch mehr als jetzt zu einem Aufbau von Marke wird. Als Musiker wird man in Zukunft eine Marke brauchen. Das heißt aber auch, dass jede Musik, die nicht als „Artefakt“, sondern tatsächlich als sinnlicher Reiz gehört wird, wo das Zwischenmenschliche keine Rolle spielt, in Zukunft tatsächlich von Maschinen gemacht werden wird.

Perspektiven für eine Komposition der Zukunft

Als Joseph Beuys mit seinem berühmten Satz „Jeder Mensch ist ein Künstler“ die Kunst aus den Händen einer Bildungselite holte, hatte dies den Verlust althergebrachter Maßstäbe zur Folge. Der Akzent lag nunmehr weniger auf Handwerk, sondern Originalität und gesellschaftlicher/politischer Bedeutung. Was sind die Maßstäbe von Kunst beziehungsweise Musik, wenn es heißt: „Jede Maschine ist ein Künstler“?

Unter Umständen werden Fähigkeiten wie kompositorisches Handwerk in Zukunft (noch) eine geringere Rolle spielen. In den letzten Jahren haben Computerprogramme, Youtube-Kanäle und Komponisten-Communities online das Komponieren enorm demokratisiert. Instrumentieren ist mit MuseScore, Finale oder Sibelius gar nicht so schwer, denn diese Programme spielen einem das Endresultat als Midi-Datei vor. Die KI könnte sich als weiteres „Tool“ in diese Assistenzsysteme einreihen. Das gilt für das Producing – Adobe hat bereits ein Tool veröffentlicht, das kratzige Audiofiles mittels KI „repariert“ –, das gilt aber auch für funktionale Musik wie Filmmusik (denkbar ist zum Beispiel ein Tool zur automatischen Instrumentation) und sogar Neue Musik. KI kann als Ideengeber, als künstlerisches Setting fungieren, als Handwerkszeug wie ehemals Bleistift, das Klavier im Arbeitszimmer oder das Notensetzprogramm. Denkbar ist ohne Weiteres das gänzliche Ersetzen menschlicher Komponisten. Doch wie wir oben gelernt haben, geht es bei Kunstmusik um mehr als bloßen Sinnesreiz.

Ohnehin dürfte die Entwicklung so spezialisierter Musik-KIs noch etwas auf sich warten lassen. Denn diese KIs werden erstmal nur für Märkte entwickelt, die sich hervorragend monetarisieren lassen. Wie die meisten Leser wissen dürften: Die klassische, aber vor allem die Neue Musik, gehört nicht dazu.

Weiterlesen mit nmz+

Sie haben bereits ein Online Abo? Hier einloggen.

 

Testen Sie das Digital Abo drei Monate lang für nur € 4,50

oder upgraden Sie Ihr bestehendes Print-Abo für nur € 10,00.

Ihr Account wird sofort freigeschaltet!