Hauptbild
Der Komponist und Neuroinformatiker Alexander Schubert mit Violine in Flammen. Foto: privat/alexanderschubert.net

Der Komponist und Neuroinformatiker Alexander Schubert mit Violine in Flammen.

Hauptrubrik
Banner Full-Size

Über akustische und artifizielle Intelligenzen

Untertitel
Ab- und Zu-Hören – ein kleine Geschichte des Hörens · Von Anna Schürmer
Vorspann / Teaser

Die Musikwissenschaft ist nicht die einzige akademische Disziplin, die sich mit dem Klingenden beschäftigt. Erweitert man ihren Gegenstand  im Sinne der Sound Studies von der klassischen Tonkunst auf alle Arten von Klängen, rücken weitere auditive Phänomene in den Sweet Spot, die dem Denken mit und über Musik neue, kritische Perspektiven eröffnen: etwa Diskurse um Phänomene wie „Hören und Gehorchen“, um die der Sammelband Acoustic Intelligence von Anna Schürmer, Maximilian Haberer und Tomy Brautschek kreist, der in diesem Text kondensiert belauscht und mit Ohrenmerk auf musikalische, professionelle und mediale Zusammenhänge weitergedacht wird.

Publikationsdatum
Paragraphs
Text

Ab- und Zu-Hören: Über akustische und artifizielle Intelligenzen

Musik fördert die Intelligenz. Nicht allein deshalb kommen viele Menschen schon im Kleinkindalter in den Genuss musikalischer Früherziehung und pilgern ihre etwas älteren Ichs allwöchentlich in Musikschulen sowie zu privaten Instrumentalpädagog*innen. Zwar wurde der „Mozart-Effekt“ – laut dem das Anhören der Sonate in D-Dur für zwei Klaviere (KV 448) eine Leistungssteigerung in der visuell-räumlichen Verarbeitung erzeugt – widerlegt; dennoch herrscht grundsätzlich Konsens darüber, dass Musik – Hören und Machen – positive Effekte in punkto Koordination und Konzentration zeitigt. Abgesehen von solchen ideellen Grundannahmen wird das Zuhören in der Kulturtheorie als differenzierter Weltzugang gewertet, während das Abhören nicht nur im professionellen Musik(er)leben eine wichtige Kulturtechnik darstellt. Tatsächlich benennt der Begriff Acoustic Intelligence nicht ursprünglich das leistungsbezogene Abhören in musikalischen Zusammenhängen; vielmehr wird damit militärische Überwachung auf maritimem Terrain bezeichnet – etwa die akustische Ortung von feindlichen U-Booten mittels Sonar. Hier wird das Abhören zum strategischen Werkzeug, ähnlich wie die geheimdienstlichen Abhör-Aktivitäten von Spionen in Diens­ten von Staaten und Wirtschaftsunternehmen. Und auch in anderen Berufen ist das Abhören ein professionelles Tool: Ärzte prüfen mit dem Stethoskop Herz und Lungen, Automechaniker qua Gehör Motoren und Getriebe. Im Zuge der Digitalisierung werden menschliche Hörer*innen zunehmend von nonhumanen Akteuren flankiert: Auch lernende Maschinen verfügen mittlerweile über akustische Intelligenz. In diesem Kontext eröffnen sich in assonanter Anlehnung an die Artificial Intelligence Fragen nach „Künstl(er)i(s)chen Intelligenzen“ – jenen nonhumanen Akteuren der (post)digitalen Ära, die den ‚homo musicus‘ alt aussehen lassen …

Acoustic Intelligence in der Musikkultur: Produktion + Rezeption

In der europäischen Musikgeschichte ist das zielgerichtete Zu- und Abhören seit jeher Bestandteil beim Erlernen des Handwerks musikalischer Zusammenhänge.

Auf kompositorischem Gebiet bewies 1770 der 14-jährige Wolfgang Amadeus Mozart besondere akustische Intelligenz – indem er Gregorio Allegris „Miserere“ nach einmaligem Hören frei aus dem Gedächtnis notiert haben soll. Und auch heute eignen sich Menschen Musik nicht zuletzt über konzentriertes Lauschen an: In der Orchesterpraxis finden blinde Auditionen bei Vorspielen statt, um das musikalisch Beste herauszufiltern (und im besten Fall Vorurteile in Sachen Race, Class und Gender auszuschließen). Auch Instrumentalpädagogen hören den Nachwuchs leistungsbezogen ab, während Laien- wie Profimusikerinnen kanonischen oder eigenen Aufnahmen lauschen, um das Ohr zu schulen und das Spiel zu perfektionieren. Fakt ist, dass das Abhören mit der Entwicklung von akustischen Apparaturen um 1900 maßgeblich an Bedeutung gewann. Tatsächlich förderten die Möglichkeiten der tontechnischen Reproduktion Weltkarrieren wie die eines Glenn Gould, der sein Klavierspiel mittels exzessiver Selbstkontrolle perfektionierte und sich selbst durch akribisch abgehörte und -gemischte Aufnahmen unsterblich machte. Voraussetzung dafür war die Entwicklung der Tonstudio-Technik – wie sie nicht zuletzt in der Neuen Musik vorangetrieben wurde: Namentlich Karlheinz Stockhausen betätigte sich am Studio für Elektronische Musik des WDR als Ingenieur akusmatischer Klangwelten. Kompositorisch ästhetisierte er das Abhören 1966 in seiner Mikrophonie I: Spieler versetzen ein Tamtam in eigentlich unhörbare Schwingungen, die mittels sensibler Mikrophone abgehört, mit Filtern und Reglern transformiert sowie über Lautsprecher wiedergegeben und damit hörbar gemacht werden. Hier gewinnt Tontechnologie musikalische Agency – was mit dem machine listening künstl(er)i(s)cher Intelligenzen heute auf eine neue Evolutionsstufe gehoben wird.

Bild
Johannes Kreidler: Sonifizierte Finanzdaten mit Software Songsmith. Foto: Esther-Kochte

Johannes Kreidler: Sonifizierte Finanzdaten mit Software Songsmith.

Text

Bis dahin war das Hören eine Sache menschlicher und nonhumaner Lebewesen. Auch, wenn das tierische Hören unter posthumanen und -humanistischen Vorzeichen aufgewertet wird – das zeigt die „Zoomusikologie“ als klingender Arm der „Human-Animal-Studies“ – war das bewusste Zu- beziehungsweise Abhören spätestens seit der Aufklärung eine Domäne des „homo musicus“: Schult die klassische Gehörbildung in den standardisierten Normen des akademischen Musiklebens, wurde das Phänomen „Hören“ in der künstlerischen Praxis weiter ausdifferenziert. Zu nennen wäre hier Pauline Oliveiros Deep Listening, bei dem jeder noch so stille und nebensächlich scheinende Ton in den Sweet Spot rückt; Raymond Murray Schafer richtete den Fokus mit seinen 100 Exercices in Listening and Sound-Making auf die Soundscapes unserer Welt und betonte: „We must learn how to listen“. Auch wurde das „Zu-Hören“ zu einem prominenten Gegenstand auditiver Kulturforschung: „Hören ist ein physiologisches Phänomen; zuhören ein psychologischer Akt“, schrieb Roland Barthes; noch deutlicher wird diese Differenzierung im Englischen, das zwischen hearing und listening unterscheidet. Weiter bezeichnete der französische Strukturalist das „Zuhören als Ausübung einer Intelligenz-, das heißt einer Selektionsfunktion“, als „Fähigkeit zu einer guten Kommunikation mit seiner Umwelt“: Diese Art von Acoustic Intelligence erhebt das Hören vom passiven zum aktiven Akt.

Acoustic Intelligence beim Musikhören: Im Konzertsaal, zu Hause, unterwegs

Von einem solchen Verständnis ist die klassische Musikrezeption freilich meilenweit entfernt, hat doch das Publikum beim Konzertbesuch den Darbietungen auf der Bühne in andächtiger Stille zu lauschen und seinen Applaus nur an vordefinierten Positionen zu spenden. Wie aber verhält es sich mit dem privaten Musikhören – zuhause oder unterwegs? Die Antwort ist eng verknüpft mit der Entwicklung der Tonträger: Gut ausgestatte HiFi-Anlagen machen spätestens seit den 1970er Jahren Wohnzimmer zu Konzertsälen, in denen private Hörer*innen referenzielle Interpretationen unter optimalen Bedingungen (wenn auch bar des präsentischen Erlebens) vergleichend abhören können; andersherum herum kam es mit der Evolution der Massenmedien zu einer zunehmenden Reproduktion des Immergleichen, wie von Adorno bereits Mitte des 20. Jahrhunderts in Hörweite der und mit Ohrenmerk auf die Kulturindustrie prognostiziert: Gleichen sich die öffentlichen und privaten Radiosender unter dem Druck der Einschaltquoten immer mehr an, werden unsere Ohren mit dem Streaming von Musik auf Durchzug konditioniert. Hier geht es nicht um gezieltes Zuhören, sondern um ein möglichst irritationsfreies Durch- und immer Weiterhören, während das Abhören eine weitere, politische Ebene erreicht: Mit jedem Song, den wir anhören hören Unternehmen wie Spotify unsere privaten Daten ab – der Großwährung im Zeitalter des Überwachungskapitalismus, wie ihn Shoshana Zuboff konturiert hat. Indem die Technik den vermeintlichen Musikgeschmack der Hörer algorithmisch errechnet, wird den Hörer*innen die eigene Entscheidung abgenommen und zugleich eine ganze Leitkultur ausgehebelt: Zu analogen Zeiten generierten Journalistinnen und Kritiker den Geschmack ganzer Generationen über ihre Auswahl – was fraglos als musikkulturelle Machttechnik gelesen werden kann. Heute treten Maschinen an die Stelle der alten kulturellen Vermittler: über automatisch generierte Playlists, die auf Grundlage des Hörverhaltens und unter marktwirtschaftlichen Gesichtspunkten erstellt werden.

Medientechnisch möglich macht dies das Smartphone, dieses audiovisuelle „All in One Medium“, das wir immer und überall mit uns tragen – und das uns auf Schritt und Tritt abhört. Einen ersten Höhepunkt erlebte das mobile Hören 1979 mit der Erfindung des Walkmans. Dessen Effekt feierte Shuhei Hosokawa als musikalisches Empowerment der Rezipienten – die ihr alltägliches Leben durch das mobile Abspielmedium mit einem ganz persönlichen Soundtrack unterlegen können. Die heute das öffentliche Leben prägenden Kopfhörer und In-Ear-Plugs sind demgemäß als Autonomiegewinn lesbar – werden im Zuge der globalen Vernetzung aber auch zu unseren privaten Daten-Börsen, um deren Währung der Markt buhlt. Auch die immer beliebter werdende Noise-Cancelling-Technologie führt eine ambivalente Existenz: Einerseits hilft sie Menschen im urbanen Raum, sich gegen akustische Umweltverschmutzung und auditive Reizüberflutung zu schützen; andererseits ist die Technologie als asoziale Abspaltung von der Welt sowie als neoliberale Selbstregulierung deutbar, die das störungsfreie Einschließen mit Arbeit in Großraumbüros und im Homeoffice forciert.

Acoustic Intelligence in nichtmusikalischen Professionen: SOUND AS TOOL

Apropos Arbeit – auch in nichtmusikalischen Bereichen des professionellen Lebens spielt konzentriertes Zu- und Abhören eine wichtige Rolle. Mit solchen Sonic Skills hat sich die niederländische Soundforscherin Karin Bijsterveld intensiv beschäftigt. Konkret richtet sie ihr Ohrenmerk auf verschiedene nichtmusikalische Professionen und unterscheidet dabei drei Arten von Hören: Während „überwachendes Hören“ sich damit befasst, ob etwas falsch ist, stellt „diagnostisches“ fest, was genau falsch ist; „explorative“ Hören dagegen richtet seine Antennen nach neuen Phänomenen aus.

Exemplarisch einleuchtend sind die ebenso überwachenden wie diagnostizierenden Sonic Skills in der Medizin: Von den Alarmknöpfen an den Betten schwerkranker Patient*innen, über MRTs, die mittels elektrischer Spulen ein Magnetfeld und Radiowellen erzeugen – welche die in der Röhre liegenden Patient*innen abtasten und dabei in eine dröhnende Soundscape tauchen – bis zum Stethoskop, das zum Signet schlechthin für die Ärzteschaft avancierte. Tom Rice, der in seinen Forschungen anthropologische Zugänge zu Klang betreibt, bezeichnete das medizinische Abhörgerät als „hallmark of a doctor“ – als visuelles Markenzeichen des gesamten Berufsstandes. In Hörweite neuerer bildgebender Verfahren erstarrt die Handhabung des Stethoskops zu Pose – nichtsdestotrotz bestimmt es die Performance der „medical identity“ bis heute. Ein weiterer Industriezweig, der mit überwachendem und diagnostischem Hören operiert, ist die Automobil-Branche: Während viele Autofahrer aufgrund akustischer Irritationen ihr Fahrzeug in die Werkstatt bringen (überwachendes Hören), diagnostizieren Automechanikerinnen oft auf Basis des Höreindrucks das zu behebende Problem. Dazu kommen die Sounddesigner, die in Diensten der Hersteller die Fahrzeuge mit verkaufsfördernden Klängen aussteuern: Harley Davidsons haben zu röhren, hochwertige Automobile zu schnurren. Echte Relevanz gewinnt solch funktionales Hören in Hörweite der E-Mobilität: Während der Kreativität der Hersteller und Nutzer keine Grenzen gesetzt sind, wird die „stille“ Verfasstheit der Technologie auch zum Problem – weil Passanten sich nicht mehr auf ihr Hörvermögen verlassen können, um Kollisionen zu vermeiden.

Bild
Artemi-Maria Gioti: posthumanistische Kompositionskonzepte. Foto: Bias/Ars Electronica 2020

Artemi-Maria Gioti: posthumanistische Kompositionskonzepte.

Text

Weitere funktionale Klänge, die Arbeitsprozesse spiegeln und Informationen übertragen, sind Sirenen und Fehlermeldungen, das Läuten des Weckers und digitale akustische Logos wie etwa der Klang einer ausgehenden Nachricht am Smartphone. In Anlehnung an Visualisierungsprozesse werden solche Verlautbarungen an sich nicht hörbarer Phänomene „Sonifikationen“ genannt. Im engeren Sinne wird damit die Darstellung von Daten in Klangereignisse bezeichnet – was mit dem Aufkommen digitaler Schnittstellen und Codes zu einem prominenten Tool künstlerischer Forschung avancierte: Sonifiziert werden etwa Phänomene des Klimawandels wie Meeresströmungen und Gletscherbewegungen – oder die fallenden Aktienkurse der Finanzkrise, die Konzeptkomponist Johannes Kreidler 2009 in Klang übersetzte: „Melodien für Millionen“ nannte er seine Charts Music, die den Börsencrash von Lehman Brothers Inc. irrwitzig intoniert. Möglich wurde das durch die Digitalisierung der Studiomittel – Kreidler etwa verwendete zur Sonifizierung der Finanzdaten die Microsoft-Anwendung „Songsmith“. Besitzen etwa auch Komponiersoftwares Acoustic Intelligence? Können Maschinen hören?

Acoustic Intelligence in den Medien: Künstl(er)i(s)che Intelligenzen

Fragt man ChatGPT nach der Bedeutung von Acoustic Intelligence, liefert der Bot eine Definition, die ebenso eine Antwort auf die Frage nach dem menschlichen Hören sein könnte: „Akustische Intelligenz bezieht sich auf die Fähigkeit, Informationen aus akustischen Signalen zu gewinnen und zu analysieren […], um Erkenntnisse zu gewinnen und Entscheidungen zu treffen.“ Allerdings verlaufe die Wahrnehmung hier nicht organisch über das Ohr, sondern beziehe sich „auf die Nutzung von Technologien zu Erfassung, Verarbeitung und Interpretation von Geräuschen und Klängen“. Auf entsprechende Nachfrage antwortet das Programm: „Ja, Maschinen können hören. Durch den Einsatz von Audio-Sensorik und Signalverarbeitungstechniken können Maschinen Schallwellen aufnehmen und analysieren, ähnlich wie das menschliche Gehör. Maschinen können so in der Lage sein, Geräusche, Stimmen, Musik und andere akustische Signale wahrzunehmen.“

Wo liegt dann der Unterschied zwischen menschlichem und nonhumanem Hören? ChatGPT antwortet, dass maschinelles Hören im Vergleich zum menschlichen Gehör noch immer begrenzt sei: „Die menschliche Wahrnehmung von Klang ist oft komplexer und kann feinere Nuancen erfassen.“ Deutlich wird hier eine anthropozentrische, also vom Menschen ausgehende Perspektive – der erwiesenermaßen nicht das beste Gehör hat. Dies liegt daran, dass solche künstl(er)i(s)chen Agenten von menschlichem Input gespeist werden und damit deren Vorurteile übernehmen: Der Mensch befiehlt, die AI gehorcht – in Form von Sprachassisteninnen wie Siri oder Alexa, die auf Zuruf das Licht einschalten und untertänige Antworten säuseln.

Tatsächlich gehört Spracherkennung zu den prominentesten Anwendungsbereichen maschinellen Hörens; aber auch in der Industrie wird die Technologie verwendet, um Abnormalitäten oder Fehler in Maschinen oder Produktionsprozessen zu erkennen. Auch technische Ohren praktizieren also diagnostisches beziehungsweise überwachendes Hören – wie die menschlichen Automechaniker und Ärzte. Dass diese über eine bessere Wahrnehmung als ihre maschinellen Counterparts verfügen, ist humanistisches Wunschdenken: Tatsächlich erfasst ein Mikrofon bei der digitalen Aufnahme auch akustische Ereignisse, die über das Frequenzspektrum des menschlichen Gehörs hinausgehen.

Bild
Schürmer / Haberer / Brautschek: Acoustic Intelligence Hören und Gehorchen, 2022 dup. ISBN 978-3-11-072720-3

Schürmer / Haberer / Brautschek: Acoustic Intelligence Hören und Gehorchen, 2022 dup. ISBN 978-3-11-072720-3

Text

Aber – werden Humanisten einwerfen: Ist nicht zumindest die ästhetische Wahrnehmung ein Privileg des Menschen? Wir können das nicht mit Bestimmtheit wissen, auch wenn die kompositorischen Gehversuche künstl(er)i(s)cher Intelligenzen bislang nicht wirklich überzeugen. Maschinelles Hören immerhin wird mittlerweile in der Musikerkennung eingesetzt, um Lieder oder Musikstücke zu identifizieren – große Datenspeicher machen es möglich, die die Kapazität des menschlichen Gehirns übersteigen, wenn sie auch nicht die Windungen, Irrungen und Wirrungen vollziehen. Menschen verarbeiten die Daten musikalischer Phänomene mit ihrem Nervensystem; Maschinen mittels neuronaler Netzwerke, die zwar vom Menschen trainiert werden, sich aber danach selbst organisieren. Ist das so viel anders wie bei der Kindeserziehung und menschlicher Bildung?

Einigen wir uns auf eine Pattsituation: Wir hören Maschinen (Kopfhörer, Lautsprecher, etc.) zu – und diese belauschen uns. Es handelt sich also um eine Interaktion der zwei Spezies Mensch und Maschine. Und hier setzen die spannendsten Auseinandersetzungen der künstlerischen Forschung mit machine listening an: Zu nennen wäre da etwa Laptop-Musikerin Holly Herndon, die ihr „AI-baby“ SPAWN mit menschlichen Stimmen fütterte – das auf dem Album „Proto“ eine eigene Stimme entwickelt. Alexander Schubert, der nicht von ungefähr neben Komposition auch Neuroinformatik studierte, hat mit AV3RY eine virtuelle Persona erschaffen, die auf einem Server gehostet wird und durch die Messanging-App Telegram mit Menschen interagieren kann. Basierend auf dieser Interaktion verfeinert AV3RY laufend die Parameter ihres Komponierens – das im Ergebnis die menschlich errichteten Barrieren zwischen „U“ und „E“ einreißt. Schubert reflektiert sein Projekt im Kontext seiner künstlerischen Forschungen im Bereich der Postdigitalität, die sich als Switching Worlds zwischen Analogie und Virtualität aufspanne. Artemi-Maria Gioti verortet ihre Arbeit im posthumanistischen Denken – das menschliche und nicht-humane Akteure als Teile größerer „Akteursnetzwerke“ betrachtet. Die Komponistin untersucht Machine Listening als aktiven Prozess in interaktiven Kompositionen und inszeniert Computerkreativität als Teil von ko-kreativen Netzwerken zwischen Mensch und Computer. Dies zeigt: Ab- und Zuhören reicht in der digitalen Ära über menschliche Belange hinaus. Es wird Zeit, dass sich die Musik(wissenschaft) von ihrer anthropozentrischen Fixierung löst und dabei auch den Humanismus kritisch hinterfragt.

Weiterlesen mit nmz+

Sie haben bereits ein Online Abo? Hier einloggen.

 

Testen Sie das Digital Abo drei Monate lang für nur € 4,50

oder upgraden Sie Ihr bestehendes Print-Abo für nur € 10,00.

Ihr Account wird sofort freigeschaltet!