Das letzte Projekt mit meinen Studierenden war das erste, in dem wir uns mit den Möglichkeiten von KI auseinandergesetzt haben. Meine Klasse arbeitete in unterschiedlichen Arbeitsgruppen an vier verschiedenen Kompositionen für Kammerorchester und teilweise selbstspielendem Klavier, dabei mit der komponierenden KI „Ricercar“ von Ali Nikrang arbeitend. Jedes der Stücke verfolgte einen unterschiedlichen Ansatz und auch die Rolle der Komponierenden war unterschiedlich.
Grenzen verschwimmen
Im ersten Stück ging die KI von den Anfangstakten eines Stücks von Schubert aus und dachte sie unterschiedlich weiter. Die Aufgabe der Komponierenden war hier das Arrangieren des Outputs für Streichorchester, quasi Menschen im Dienst der Maschine. Im zweiten Stück dann ein gleichwertiges Gegenüber: Der Solo-Klavierpart eines Klavierkonzerts kam komplett von der KI, die Begleitung dagegen war von Menschen komponiert, durchaus auch manchmal konträr zu dem, was der Maschine einfiel. Eine Art Dialog, wenn man so will. Im dritten Stück versuchten meine Studierenden, die Maschine mit immer verrückteren, musikalisch gegensätzlich artikulierten „Prompts“ zu kreativen Höchstleistungen anzuspornen – dass das nicht immer gelingt, gehört zum Konzept des Stückes, das auch die Grenzen der KI aufzeigt. Im letzten Stück schließlich lassen die Studierenden den Computer singen und begleiten ihn mit dem Orchester.
Was bei diesem hier nur grob umrissenen Projekt auf jeden Fall klar wird: Die Grenzen zwischen Mensch und Maschine verschwimmen zusehends. Tatsächlich war es für das Publikum gar nicht mehr so einfach zu erkennen, was jetzt von der KI kam, und was von Menschen. Dass bei allen Stücken auch Teams am Werk waren, machte dies noch schwieriger, denn individuelle Beiträge gingen im Gesamtkonzept auf.
Wir wollten mit diesem Konzert keineswegs zeigen, wie man in Zukunft komponieren „muss“. Aber Komponieren „mit“ dem Computer wird auf jeden Fall verändern, wie wir menschliche kreative Leistung wahrnehmen. Schon längst laufen Popsongs im Radio, die ein Produkt aus KI-Ideen und menschlicher Weiterentwicklung sind. Bei Bildersuchen in Google ist es inzwischen gang und gäbe, dass mehr als die Hälfte der Bilder KI-generiert sind. Diese von „echten“ Bildern zu unterscheiden, wird selbst für Experten immer schwieriger. Noch schwieriger wird es für ein Publikum sein, KI-generierte Musik von menschengemachter Musik zu unterscheiden, da die Kriterien wesentlich komplexer als bei Bildern sind – die KI tut sich oft schwer mit menschlichen Details in Bildern (wir alle kennen die Darstellungen, in denen Dinge nicht stimmen, wenn man genau hinschaut). Aber wie soll man als Laie einen KI-generierten Akkord von einem menschlich erfundenen Akkord unterscheiden? Ein Akkord ist zuerst einmal ein Klangereignis, da gibt es kein „richtig“ oder „falsch“. All diesen Herausforderungen müssen wir uns in Zukunft stellen – sowohl als Hörer*innen wie auch als Musikschaffende. Und am Ende wird „handgemachte“ Musik vielleicht sogar an Wert gewinnen, weil sie wesentlich seltener sein wird als die immer größer werdende Flut an computerunterstützter Musik.
- Share by mail
Share on