Bild-Copyright: Tara Winstead, Pexels
KIs wie AIVA oder Endel vermögen es von Soundscapes über klassische Musik bis zu Death Metal mit Gesang schreiben. Musikwerke, die dabei entstehen, können kaum bis gar nicht von menschlichen Kompositionen unterschieden werden. In Musiker:innen und Produzent:innen äußert sich deswegen die Angst, durch Maschinen ersetzt zu werden.
von Lily Elektra Strasser
Verwendung von KI in der Musikszene
Eine KI namens AIVA wurde von ihren Entwickler:innen mittels klassischen Kompositionen darauf trainiert originale, personalisierte Kompositionen entwickeln. Ähnlich dazu hat sich Playform AI in Zusammenarbeit mit der Deutschen Telekom daran gewagt die fragmentäre, zehnte Symphonie Beethovens fertigzustellen. Mithilfe von Historiker:innen und mathematischen Berechnungen, sei es möglich geworden das, für Beethoven charakteristische, Musikstück fertigzustellen. Menschen können dabei nicht erkennen, dass es sich um Kreation einer Maschine handelt.
Auch im Pop- und Ambient Genre wird KI zur Komposition eingesetzt. Endel und Jukebox komponieren Musik, die auf musikalischen Präferenzen des Endverbrauchers angepasst sind. Und das passiert in Echtzeit. Das Berlin basierte Start-up Endel fasst Fuß in der Mental-Health Branche, und kreieren Soundscapes zum Einschlafen. Rhythmen und Melodien entstehen aus personenbezogenen Daten wie Herzraten, Lichverhältnissen in der eigenen Umgebung und körperlicher Betätigung. Jukebox, ein OpenAI Tool, kann in Anlehnung an bereits etablierte Musiker:innen ganze Songs in deren Stil komponieren. Individuelle Klangwelten für alle User:innen werden so generiert. Eine Studie des Journal of Consumer Marketing zeige aber, dass derzeit eine geringe Nachfrage und Kaufabsicht für KI generierte Musik im Bereich Pop bestehe.
Kollaborationen von Musiker:innen mit KIs
Endels KI kreiert nicht nur eigenständig Soundscapes, sondern lässt auch bekannte Produzent:innen am Prozess des Komponierens teilhaben. Singer/Songwriter und Producer James Blake kreierte ein Klangpaket, welche in die KI eingespeist wurde und im Anschluss für die Endverbraucher personalisiert wurde. Auch Musikerin Grimes kollaborierte mit Endel für das Album „AI Lullaby“. Derzeit arbeitet sie an ihrem nächsten Album über militarisierte KI-Kreaturen. Sie hat dementsprechend viel über das Thema zu sagen: in einem Interview mit den New York Times meint sie, dass Musiker:innen technisch überholt werden und KI durch Algorithmen anregende Kunst schaffen kann und werden wird. Dies bedeute aber nicht, dass Performer:innen und Künstler*innen von Maschinen abgelöst werden würden.
Robert „3D“ Del Naja, Gründungsvater der Trip Hop Band Massive Attack, begann bereits 2013 KI in dessen Musik einzubinden. Künstliche Intelligenz kann und solle die neue Muse aller Komponist:innen sein, um Neues zu schaffen. In Zukunft sei es essenziell, dass Künstliche Intelligenz von Musiker:innen beschäftigt werden, anstatt sich von ihr arbeitslos machen zu lassen, meint er.
Urheberrechtsschutz für Maschinen?
Man könnte die Verwendung von KI in der Musikkomposition grundsätzlich mit Sampling vergleichen. Teile des Ursprungsmaterials eines Werkes werden im Sampling für ein neues Werk verwendet. Ohne Erlaubnis der Urheber:innen ist Sampling in Österreich illegal – keine rechtliche Grauzone wie viele denken. Algorithmen von KI’s werden von Programmierer:innen mittels bereits existierender (urheberrechtlich geschützter) Musik geschaffen. Man könnte meinen, dass daher KI generierte Musik nicht zu frei kommerziellen Zwecken genutzt werden dürfte, da das Ursprungsmaterial ja dem Urheberrecht erliegt. Diese Annahme ist jedoch falsch. Wie Paul Fischer von der AKM/austro mechana berichtet, wurde innerhalb der EU mit 1.1.22 eine Richtlinie verabschiedet, mit der Audiodateien zu Data-Mining- und KI-Forschungsszwecken genutzt werden darf. Unter Audiodateien fallen eben auch urheberrechtlich geschützte Werke.
Musikschaffende sind kein Substitutionsgut
Für Produktionsmusik, U-Musik und E-Musik eignen sich KIs also scheinbar als Kompositionsassistenzen. Wenn es aber zu Gesang und Live-Auftritten kommt, scheint das weltweite Publikum in unterschiedlichen Genres mit menschlichen Stimmen und Körpern zufriedener zu sein. Als Beispiel nehme man Dadabots her – eine KI Deathmetal Band , die endlose Livestreams auf YouTube durchführt und brutalste Schlachthausmusik in Echtzeit komponiert. Das 10-Stündige Set aus dem Archiv, „Human Extinction Party – Cannibal Corpse” , findet in den YouTube Kommentaren viel Zuspruch. Das einzige Problem: der Gesang. Zwischen absurden Textzeilen wie „searching for suicide bombers“ und „chew the bitches rotten skin” bleibt der künstlichen Stimme keine Zeit zum Luftholen. Dies bewirkt eine Anstrengung beim Zuhören.
Besonders im Live-Konzert Sektor, der die größte Einnahmequelle für Musiker:innen darstellt, sind Performer:innen problematisch zu ersetzen. Hologramm-Konzerte mögen bei Musiklegenden wie ABBA und Gorillaz funktionieren, finden aber möglicherweise nur Zuspruch, weil die Bands bereits Kultfiguren sind. KIs haben vielleicht die Überlegenheit des Wissens, aber einen klaren Mangel an Lebensfähigkeit.
Kompetenz ohne Kreativität
Dass Musiker:innen nach derzeitigem Wissensstand zur Gänze durch Technologien ersetzt werden, scheint unwahrscheinlich zu sein. KIs können jedoch den kreativen Prozess bis hin zu einer fertigen Komposition unterstützen und zur neuen „Muse“ der Musikwelt werden. Die Ängste um Jobs in der kreativen Musikbranche, zeigen von allgemeiner Unfähigkeit der Menschheit, während einer Veränderung Hoffnung zu bewahren. Derzeit hat Künstliche Intelligenz die richtigen Kompetenzen, aber ohne menschlichen Input nichts Interessantes zu sagen.
Über die Autorin
Lily Elektra Strasser ist 21 Jahre alt und studiert im 6. Semester Medienmanagement an der FH St. Pölten. Dorthin pendelt sie jeden Tag von Wien, Neubau, wo sie zwielichtige, Club-lastige Musik schreibt und produziert.
Kontakt: E-Mail: mm201010@fhstp.ac.at