KI, besser AI: Rechtliches, Verwertung und Auktoriales – Hoffnung für die Neue Musik, Furcht für das Kommerzielle
Derzeit ist AI, Artificial Intelligence (in Deutschland sagt man KI) in aller Munde und Köpfe. Geschuldet ist dies vor allen ChatGPT: manche fürchten es wie einst das Auftreten von Wikipedia, als schulische und akademische Seminararbeiten von Lernenden aus der neuen Wissensplattform ungefiltert abschrieben. Andere sehen selbst zukünftige Bürgergeld-Bescheide kreativer Dank AI formuliert. Im Bereich der Musik sehen einige ganz genau in die Zukunft und erhoffen ein bisschen Gutes wie Arbeitserleichterung aufgrund von „AI assisted“, also KI unterstützten, Kompositionstools. Oder befürchten doch eher ganz aufgeregt, dass ihre Ambientmusik in Zukunft nicht-menschlich komponiert, also „AI generated“, mit KI komplett zusammengestellt, also komponiert im eigentlichen Sinne, sein wird.
Verfolgte man auf der Creators Conference der ECSA – European Composers and Songwriter Alliance Mitte März 2023 in Brüssel den Diskurs, brennt die Hütte aktuell woanders und sind die Spielchen und Spekulationen gerade der zeitgenössischen Musik Kolleg:innen erst einmal nicht das Thema. In Großbritannien plante im Herbst 2022 die Regierung eine Ausnahme im Urheberrecht zu erlassen, die es Firmen, die in der Entwicklung von AI tätig sind, ermöglicht, ohne Entschädigung für die Komponist:innen und Autor:innen deren Musik zur Einspeisung (Data-Mining) in die AI-Programme zu nutzen. Ein ähnliches Gesetz existiert derzeit v.a. in Singapur. Allerdings ist die britische Musikszene eine vielfach größere und wäre kompensationslos davon betroffen.
Im Bereich der EU ist es derzeit noch nicht möglich, solch eine Ausnahme zu erlassen, widerspräche sie doch der erst beschlossenen neuen EU Copyright Richtlinie. Eine Hintertüre könnten hier Ausnahmen für Bibliotheken und den akademischen Bereich sein, wenn diese ihre gespeicherten Musikwerke AI-Firmen bzw. mit diesen zusammenarbeitenden, z.B. universitären, Forschungsinstitutionen zur Verfügung stellen würden. Da müßte man rechtlich nachjustieren und zumindest eine pauschale Vergütung einführen. Unabhängig von einem Eintritt z.B. der hier beschriebenen Situation, sollte man meiner Meinung generell die Verwendung von urheberrechtlich geschütztem Material zum Zwecke der Entwicklung von AI einer pauschalen Vergütung zugänglich machen, ähnlich der ZPÜ auf Kopierer, CDs und andere Datenträger, wenn es ein größeres Problem werden sollte. Grundsätzlich sollten AI-Entwickelnde Rechteinhaber anfragen, um Erlaubnis fragen, das genutzte Material finanziell abgelten und die Verwendung durch korrekte Verwendung über Metadaten und eine nahtlose Dokumentation transparent halten.
Die Frage ist: „To AI or not to AI?“ So formulierte es auf der o.g. Creators Conference der im britischen wie internationalen Urheberrecht tätige Jurist Florian Koempel. Ist es ehrenvoller, sich der neuen Technik zu widersetzen, die so neu wieder nicht ist, denken wir an die AI-Musik des „Iamus“-Projektes, das bereits vor 5 bis 10 Jahren erstaunliche Ergebnisse zeitigte. Oder sollte man nicht lieber den schmerzvollen Weg einschlagen und sich den auktorialen bis rechtlichen Implikationen von AI stellen?
Interessant ist das Hören von AI assisted oder generated erstellter Musik. Beispiele aus Rock, Pop, Schlager, die nicht nur assisted, sondern voll generated erzeugt werden, haben durchaus ihre Überzeugungskraft. Oder es gibt bereits sogar relativ einfach zu bedienende Online-Apps wie „Aiva“, mit der sich jede:r einen kleinen Song oder eine Art Ambientmusik erstellen kann. Man kann sich das Ergebnis auch als Midi-Datei zeigen lassen und entsprechend selbst noch verändernd, verbessernd eingreifen. Auf jeden Fall zahlt man sehr schnell ab einer niedrigen Nutzungsschwelle.
Klassik wird derzeit v.a. eher AI assisted als komplett generated erstellt. Denkt man z.B. an das missglückte Projekt einer Auskomposition von Beethovens Skizzen zu einer 10. Sinfonie, so ging das ästhetisch reichlich schief. Ähnlich dürftig im Ergebnis dürfte es bei komplexer Metal-Music zugehen. Die Frage ist dabei: Haben wir es mit einer Intelligenz zu tun? Oder ist es doch mehr ein AP als eine AI, ein Artificial Parroting, ein künstliches Nachplappern, wie Papageien Nachplappern und irgendwann den richtigen Ton für die richtige Situation finden?
Was derzeit bisher nicht geht, zumindest in der EU, AI generated erzeugte Musik als autarkes Werk bei einer Verwertungsgesellschaft anzumelden. Ausserhalb der EU scheint das bereits in Einzelfällen möglich zu sein. Die Idee, die einige vertreten, ist den Anteil an Musiknutzung rechtlich abzugelten, der je nach Eingabe und Kombination von Stilen und Genres und der genauen Werke der betroffenen Urheber:innen, wenn es zu einer Lizenzierung durch Verwertungsgesellschaften kommen würde. Das ist dann wieder ein anderer Fall als die Frage von Musiknutzung und Kompensation beim Data-Mining, dem Input. Hier geht es um den Output. Hierfür wird wichtig sein, dass jede:r Urheber:in ihre Musik oder ihre Verlage, die Metadaten einheitlich und richtig bei der Registrierung eines Werkes vornehmen und so Uploads von Produktionen oder Aufnahmen möglich sind, das auch wirklich machen, wie es bei Streaming-Tantiemen z.B. bei der GEMA für A/V-Produktionen bereits möglich ist.
Wie man oben sah, wird AI im Bereich der kommerziellen Genres und Sparten ein Verschärfung im Wettbewerb mit sich bringen. Die Frage von Schaffenshöhe, Einfallskraft, künstlerischer Autonomie, Auktorialität, etc., werden sich besonders in diesen Bereichen sehr schnell stellen. Einerseits, weil AI das bereits jetzt besonders gut nachbauen kann. Andererseits weil hier Datenerfassung und Abrechnungsmechanismen inzwischen besonders gut entwickelt sind und das große Themen bei den Produzenten, Verlagen, Labels, Autor:innen und Verwertungsgesellschaften ist. Da ist der Zug bereits fast am abgefahren sein und die zeitgenössische Musik kann nur hinterher winken.
Daher glaube ich, jetzt blicke ich diffus ins Futurum, dass im Bereich der zeitgenössischen, experimentellen, Neuen, elektronischen und klassischen Musik weniger das komplette „AI generated“, als eher das anteilige „AI assisted“-Komponieren Einzug halten wird. Computergestützt arbeiten die meisten von uns sowieso schon immer wieder anteilig oder zur Gänze. Das beginnt damit, dass man doch mal ein Schreibprogramm das mit ihm notierte Werk zeitlich ablaufen läßt, auch wenn man all die erweiterten Spieltechniken nicht immer korrekt im Klang darstellen kann, wenn man nicht entsprechende Tools nutzt. Manche wiederum nutzen diese Tools und haben gar kein Problem, computergestützt den Sound möglichst umfassend zu erstellen und zu überprüfen, was „Papier-Ritter:innen“ konservativerer Schreibschule die Nase rümpfen lassen mag.
Manche nutzen „Open Music“ des IRCAM und lassen sich Klangoperationen von Gestalt a im Übergang zu Gestalt b erstellen, mehrere Möglichkeiten durchspielend, und suchen sich die am schönsten aussehende oder klingende aus, ganz nach individuellen Kriterien, die sich über die Jahre herausgeprägt haben. Das erinnert an Cage’sche Münzwürfe und sein Auswählen der ihm am besten erscheinenden Ergebnisse für ein dann unter seinem Namen angemeldeten Werk.
Komponist:innen und Musiker:innen nutzen MaxMSP, PureData, haben diese gegen Geld oder im zweiten Falle kostenlos zur Nutzung überlassen erhalten. Je nach Können mit der EDV/Software, entstehen schöne oder nicht so tolle Werke – Miller Puckette, der bei der Entwicklung beider Programme dabei, komponiert daher in einem Meta-Sinne hier immer mit. Nutzt man nun AI-gestützte Programm, um von Gestalt a zu Gestalt b zu kommen, kann diese vielleicht sogar weniger mit rechteckigen Objekten und virtuellen Drähtchen in das Programm wie bisher bei den IRCAM-Programmen eingeben, sondern mischt verbale, zeichnerische (Notationsprogramme) und klangliche (Midi, Sampling, etc.) Inputs, vielleicht sogar nur Verbale, wird Kompositionssoftware sogar noch für viel mehr Leute zugänglich. Aus dem Output wählt man dann aus, kopiert ihn per Exportfunktion in seine Sound- oder Notationssoftware oder malt das Ergebnis auf Papier nach und arbeitet so oder so damit weiter. Statt die Einsatzfolge einer Ligeti-Orchesterpartitur selbst auszuarbeiten, den Klangaufbau einer Lachenmann-Ensemble-Partitur läßt man sich das in verschiedenen Varianten vorführen, wählt das einem am besten Erscheinende aus, modifiziert das und arbeitet damit weiter.
Wirklich Neues entsteht damit nicht, denn statt Pop-Parroting ist es dann Haas- oder Gubaidulina-Parroting. Ist es das aber nicht auch jetzt schon sehr oft, obwohl es total handmade ist? Man muß sich schon dramaturgisch und entwicklungsimmanent im Material selbst immer wieder mehr einfallen lassen. Denken wir an Eduardo Moguillansky: technisch war seine Musik sehr hoch im state of art zwischen Lachenmann und Ferneyhough im Sinne des Materials durchgearbeitet. Der Ablauf von leise oder fast unhörbar zu hochvirtuos, fast unspielbar war dann doch sehr schnell klar und nachvollziehbar – eine AI würde demnächst solche Verläufe des Materials sauber beherrschen. Trond Reinholdtsen hätte garantiert die dramaturgisch unerwartetere Musik damit gestaltet. So zu arbeiten und ein großes Herz für Fusion und das Unerwartete und nicht nur den korrekten Ablauf zu haben, das wird auch Auktorialität, Meisterschaft und Weiterentwicklung in Zeiten von AI-assisted wie generated Musik ermöglichen, gerade in der Welt der zeitgenössischen, experimentellen, Neuen, elektronischen und klassischen Musik.
Komponist*in