Künstliche Intelligenz ist das Trendthema des vergangenen Jahres. Spätestens seit ChatGPT oder dem „neuen“ Beatles Song wird auch in der breiten Öffentlichkeit darüber diskutiert.
Eine aktuelle Umfrage der GEMA, der SACEM (französische Verwertungsgesellschaft) und dem Forschungsunternehmen Goldmedia hat untersucht, wie Kreativschaffende KI nutzen und welche Chancen, aber auch Risiken sie in ihr erkennen. So gaben 13 % der Befragten an, dass sie Potenzial in der KI-Nutzung sehen. Bereits 35 % der Befragten nutzen KI für ihre Arbeit. Interessanterweise steigt die Nutzerzahl bei den Befragten, die unter 45 Jahre alt sind. Fast 50 % der jüngeren Generation nutzt demnach bereits KI. Und das, obwohl 64 % der Befragten glauben, dass die Risiken von KI die Chancen überwiegen. Eine Befürchtung ist zum Beispiel, dass wegen des Einsatzes von KI Songwriter oder Komponisten nicht mehr von ihrer Arbeit leben können.
Die Umfrage zeigt, dass KI insbesondere im kreativen Bereich auf dem Vormarsch ist – nicht zuletzt, weil die Einsatzmöglichkeiten von KI auch bei der Musikproduktion vielfältig sind. Diese zwei Beispiele veranschaulichen, wie unterschiedlich KI in der Musikproduktion eingesetzt werden kann:
Eine der Schlagzeilen des vergangenen Jahres war die Meldung des „neuen“ Beatles Songs „Now and Then“. Mehr als 40 Jahre nach dem Tod von John Lennon macht KI es möglich. Der Song wurde bereits 1978 von John Lennon aufgenommen. Paul McCartney hatte die Aufnahmen 1995 von Yoko Ono erhalten, aber verworfen, weil sich auf ihm zu viele Störgeräusche befanden. Diese konnten zur damaligen Zeit noch nicht technologisch entfernt werden. Erst durch den Dokumentarfilm „The Beatles: Get Back“ hatte McCartney beschlossen, sich erneut mit der Aufnahme zu beschäftigen. Für den Film hatte der Dialogeditor eine KI darauf trainiert, die Stimmen der Beatles zu erkennen und sie von Hintergrundgeräuschen und ihren Instrumenten zu trennen, um so ein störungsfreies Audiosignal zu erzeugen.
Den Song „Now and Then“ haben zwei HOFA Audio Engineers in einem Video analysiert:
KI kann aber noch viel mehr. So entstand zum Beispiel der Song „Heart on My Sleeve“, bei dem die Stimmen des Rappers Drake und The Weeknd imitiert wurden. Das vermeintliche Duett verbreitete sich Anfang 2023 rasant auf TikTok, YouTube und schließlich auf diversen Streamingdiensten. Bis heute ist ungeklärt, wer diesen Song produzierte. Bekannt ist nur sein Pseudonym „ghostwriter977“. Mittlerweile ist der Song auf Verlangen von der Universal Music Group, bei der Drake und The Weeknd unter Vertrag stehen, offiziell von den Plattformen gelöscht worden. Es stellt sich allerdings die Frage, warum die Löschung verlangt werden durfte. Der Text sowie die Melodie und die Musik sind schließlich keine Kopie, sondern Originale. Stimmen von Personen sind jedenfalls durch das Urheberrecht in Deutschland nicht geschützt. Anders beurteilen lässt sich der Fall, wenn man nach dem Persönlichkeitsrecht der Künstler fragt. Denn die Stimme einer Person ohne deren vorherige Erlaubnis für eigene Zwecke zu nutzen, ist natürlich grundsätzlich rechtlich nicht erlaubt.
Welche KI-Tools generell existieren und welche Möglichkeiten diese bei der Musikvideoproduktion bieten, haben wir übrigens in dem Beitrag „Schnell zum eigenen Musikvideo – mit KI?“ zusammengefasst.
Im HOFA Themenkurs Musikbusiness erfährst du mehr über Musikrecht, Selbstständigkeit in der Musikbranche und Promotion. Dieser Kurs ist auch Teil des HOFA AUDIO DIPLOMA. Mit diesem Fernkurs-Bundle bekommst du das komplette Wissen für überragende Audioproduktionen.
Ist KI-generierte Musik urheberrechtlich geschützt?
Um diese Frage im deutschen Rechtssystem zu beantworten, muss zunächst zwischen dem urheberrechtlichen Schutz an dem Werk als solches und dem Leistungsschutzrecht an der Aufnahme unterschieden werden.
Nach § 2 Abs. 2 UrhG wird ein Werk urheberrechtlich geschützt, wenn es eine persönliche geistige Schöpfung darstellt. Dieses Werk kann nur durch eine menschliche gestalterische Tätigkeit eines Urhebers entstehen. Zudem wird ein Minimum an menschlicher Kreativität gefordert. Daher können Werke, die autonom durch KI, also rein maschinell erzeugt wurden, nicht urheberrechtlich geschützt werden.
Sehr ähnlich ist die Rechtslage in Amerika, wie der Comic „Zarya of the Dawn“ der Amerikanerin Kris Kashtanova zeigte. Dieser wurde mit Hilfe des KI-Bildgenerators Midjourney illustriert. Durch eine Anmeldung beim U.S. Copyright Office wollte Kashtanova diesen urheberrechtlich schützen lassen. Das Copyright Office erkannte nur an, dass Kashtanova Autorin der Texte sei, nicht jedoch, dass sie die Bilder erstellt habe. Daher wurde ihr die Registrierung verweigert. Die Änderungen, die sie an den Bildern vorgenommen hatte, seien zu geringfügig, um urheberrechtlichen Schutz zu genießen.
Es kann unterschieden werden zwischen Schöpfungen durch und mittels KI.
Schöpfung durch KI – die KI als Urheber
Bei der Schöpfung durch KI-Systeme müsste die Urheberschaft der KI selbst zugewiesen werden. Im deutschen Recht sind ausschließlich menschliche Schöpfungen schutzfähig. Im amerikanischen Recht existiert ein ähnliches Problem. Zwar kann hier auch eine juristische Person Inhaber des Copyrights sein, jedoch verlangt auch Copyright Law eine menschliche Arbeitsleistung für den Schöpfungsprozess. Die KI selbst kann also kein Urheber sein.
Schöpfung mittels KI – der Nutzer als Urheber
Generative KI arbeiten mit sogenannten Prompts. Ein Prompt ist ein Text, der die KI anweist, etwas zu tun. Die KI trifft aber die Umsetzung dieser Anweisung schließlich selbst, indem sie auf ihre Trainingsdaten und die daraus erlernten Muster zurückgreift. Der Nutzer kann ihr Vorgehen nicht nachvollziehen und weiß nicht, zu welchem Ergebnis sie am Ende kommt. Das Endergebnis hängt von diversen, nicht kontrollierbaren Faktoren ab, die nicht vom Nutzer beeinflusst werden können. Entscheidend für die Schutzfähigkeit ist immer der Umfang der menschlichen Eigenleistung, das heißt, ob der Einzelne aufgrund einer wertenden Gesamtwürdigung der Schöpfer des Endprodukts ist, oder es eben „nur“ die Leistung einer KI ist. Je intensiver der Nutzer das Endergebnis vorgibt, desto wahrscheinlicher handelt es sich um eine menschlich-gestalterische Leistung. Die KI hinter Midjourney beispielsweise generiert das Bild autonom und nutzt den Input des Nutzers nur als Anregung zur Gestaltung. Aber auch die Auswahl eines Bildes am Ende des Prozesses weist nicht die erforderliche Gestaltungshöhe auf. Bisher werden deshalb ausschließlich durch KI geschaffene Werke in Deutschland nicht urheberrechtlich geschützt. Und auch in Amerika wird die Eingabe eines Prompts nur als Anregung gewertet, die auch hier nicht schutzfähig ist.
Etwas anderes gilt nur, wenn für die Herstellung des Werkes die KI als ein technisches Hilfsmittel, also eine Art Werkzeug eingesetzt und das Erzeugnis dann als Grundlage genutzt wird, um ein neues Werk zu schaffen. So konnten im Jahr 2023 rund 100 Werke mit durch KI-Systeme geschaffenen Teilelementen im U.S. Copyright Office registriert werden.
Rechtliche Probleme des KI-Trainings
Man könnte sich nun fragen, ob eventuell der Programmierer der KI als Urheber eines KI-generierten Songs in Frage kommt. Die konkrete Software, auf der die KI basiert, ist schutzfähig. Problematisch für den Schutz des Outputs ist aber, dass der Programmierer das Ergebnis – also den fertigen Song – im Vorfeld nicht kennt und auch nicht vorhersehen kann. Auch für den Programmierer ist das Endprodukt quasi eine Überraschung. Deshalb hat er auch keinen kreativen Anteil an dem konkreten Werk.
Auch nicht urheberrechtlich geschützt ist die konkrete Schulung der KI. So wie es nicht möglich ist, einen bestimmten Malstil zu schützen, so kann auch die Anweisung an eine KI ein Werk zu erzeugen, nicht geschützt werden. Das Urheberrecht schützt nämlich nur Werke, keine Stile.
Relevanter werden schon jetzt in der Praxis die sogenannten Leistungsschutzrechte. Sie schützen Personen, die an der Herstellung von Werken beteiligt sind. Im Fokus stehen hierbei die Arten von KI, die bestimmte Inhalte wie beispielsweise Bilder, Texte oder auch Musik generieren können. Damit eine sogenannte generative KI funktioniert, muss sie zunächst mit verschiedenen Informationen („Trainingsdaten“) wie etwa Musikstücken versorgt werden. An diesem Input können daher auch Urheber- oder Leistungsschutzrechte bestehen.
Zwei Klagen von Getty Images gegen Stability AI in London und in Delaware zeigen, wie aktuell das Thema ist, aber auch wie kontrovers es in Amerika und Europa diskutiert wird. Getty Images ist eine der bekanntesten Bildagenturen der Welt. Ihr Geschäftsmodell ist es, Stock-Fotos, aber auch redaktionelle Fotografien sowie Musik und Videomaterial gegen Lizenzgebühren zu verkaufen. Stability AI ist ein Start-up, dass den Bild-Generator Stable Diffusion entwickelt hat. Getty Images wirft Stability AI unter anderem vor, dass der Bild-Generator ohne ausdrückliche Erlaubnis mit Bildern von Getty Images trainiert worden sei und die durch Stable Diffusion erzeugten Bilder schließlich nur unzulässige Kopien dieser Werke seien. Entschieden sind die beiden Klagen noch nicht, doch die Entscheidungen der Gerichte könnten wegweisend sein. Die Nutzung von urheberrechtlich geschützten Werken für das Training einer KI ist schließlich ein technisches Novum.
Rechtliche Regulierung von KI in der EU und Amerika
In Europa haben sich die Mitgliedstaaten im Februar 2024 auf die sogenannte KI-Verordnung einstimmig geeinigt. Adressat der Verordnung sind Nutzer und Anbieter von künstlicher Intelligenz. Betroffen sind alle Anbieter, die KI-Systeme auf dem europäischen Markt bereitstellen. Dabei ist es unabhängig, wo sich der Firmensitz befindet, womit auch Unternehmen außerhalb der EU von der KI-Verordnung betroffen sein werden.
Das Ziel ist es, Rechtssicherheit bei der Verwendung von KI zu schaffen. Dabei muss ein Balanceakt zwischen Innovation und Risikoschutz gelingen: Zum einen muss die Verordnung einen rechtlichen Rahmen setzen, der aber zugleich Innovation und Chancen der KI-Technologie nicht vollständig ausbremst. Kernidee der Verordnung ist es, die Regelungen nach dem Risiko der konkret verwendeten KI abzustufen. Vereinfacht gesagt, sollen für den Nutzer gefährliche KI verboten werden und für die Nutzung risikobehafteter KI sollen strenge Regelungen gelten. Es wird vier Risikokategorien geben.
- Systeme zum Social Scoring. Hierbei wird das soziale Verhalten einer Person auf einen Zahlenwert beschränkt. China etwa testet aktuell verschiedene Social-Scoring-Systeme. Basierend auf diesem Zahlenwert wird dann beispielsweise entschieden, ob eine Person Zugang zu öffentlichen Gütern erhält.
- Systeme zur Verhaltensmanipulation
KI-Technologien, die beispielsweise in folgenden Bereichen eingesetzt werden:
- Kritische Infrastruktur (z.B. Verkehr)
- Wesentliche private und öffentliche Dienstleistungen (z.B. Kreditwürdigkeit)
Systeme, mit denen Menschen direkt interagieren können, z.B. Chatbots
(Transparenzverpflichtungen, z.B. Kennzeichnung als KI)
z.B. KI in Computerspielen, Spamfilter (keine Beschränkung durch die KI-Verordnung)
Zudem hat man sich darauf verständigt, dass es besondere Vorschriften für generative KI (Midjourney usw.) geben wird. Diese besitzen nämlich ein abstraktes Gefährdungspotenzial, das maßgeblich von der konkreten Anwendung des Nutzers abhängt. Diese Regeln werden in Form eines Verhaltenskodexes (Code of practice) umgesetzt, der zusammen mit den Anbietern der KI und Stakeholdern erarbeitet werden soll. Besonders interessant ist, dass Anbieter generativer KI- Systeme dann verpflichtet sein werden, offenzulegen, mit welchen urheberrechtlich geschützten Werken die KI trainiert wurde. Ein unannehmbares Risiko stellen zum Beispiel KI-Systeme dar, die eine kognitive Verhaltensmanipulation von Personen bezwecken. Genannt werden hier etwa sprachgesteuerte Spielzeuge, die ein gefährliches Verhalten von Kindern fördern, oder Social Scoring. Bei Verstößen sollen Geldstrafen von bis zu 30 Millionen Euro oder 6 % des weltweiten Jahresumsatzes verhängt werden dürfen.
Auch in Amerika möchte man dem Gefahrenpotenzial von KI für die nationale Sicherheit entgegenwirken. Im Oktober 2023 hat US-Präsident Joe Biden daher ein Dekret (sog. Executive Order) erlassen, das Anbieter von KI zu Sicherheitstest verpflichtet. Die „Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence“ führt künftig dazu, dass vor der Veröffentlichung von KI-Modellen wie GPT-4 (ChatGPT) diese zunächst der US-Regierung vorgestellt werden müssen. Entwickler werden verpflichtet, Sicherheitsmodelle und andere Informationen vorzulegen. Zudem kommt eine Kennzeichnungspflicht für KI-generierte Inhalte. Das amerikanische Handelsministerium wird hierfür zunächst Vorschriften entwickeln, wie Produzenten von KI-generierten Inhalten diese mit einem digitalen Wasserzeichen versehen können.
Ausblick
Es bleibt also spannend, wie es rechtlich mit KI weitergeht. Die Rechtsprechung muss sich nun im Detail damit beschäftigen, wie die Zusammenarbeit zwischen Menschen und KI umgesetzt wird und vor allem, wie genau die zugrundeliegende technische Umsetzung ausgestaltet ist. Auch die rechtlichen Fragen rund um die Verwendung von urheberrechtlich geschützten Trainingsdaten müssen noch abschließend geklärt werden.
In Europa hat man entschieden, ein umfassendes Regelwerk für den Einsatz von KI zu entwickeln – das erste seiner Art und wohl auch richtungsweisend. Die KI-Verordnung muss zur Rechtssicherheit beitragen, darf aber nicht dazu führen, dass sie den europäischen Markt überreguliert und Innovationen verhindert. Anders als die europäische KI-Verordnung enthält das amerikanische Dekret keine pauschalen Verbote für bestimmte KI-Systeme. Es wird sich also zeigen, ob eine starke Regulierung zu einer einzigartigen weltweiten Rechtssicherheit führt oder ob das amerikanische „Modell“ innovative Unternehmen besonders stärkt.