urteil-gema-openai

GEMA vs. OpenAI: Ein Urteil mit Folgen

Wie die Münchner Richter Memorisierung bewerteten – und was das für KI-Modelle bedeutet:

Am 11. November 2025 hat das Landgericht München ein Urteil gefällt, das weit über die neun Songtexte hinausreicht, die im Mittelpunkt der Klage standen. Die GEMA setzte sich gegen OpenAI durch, weil ChatGPT geschützte Liedtexte nahezu wortgleich wiedergeben konnte. Für das Gericht war dies ein deutliches Indiz dafür, dass die Werke im Modell „festgelegt“ worden waren — also in einer Weise gespeichert, die über reine Mustererkennung hinausgeht. Das Urteil gilt deshalb als Meilenstein: Es klärt erstmals in Deutschland umfassend, wie urheberrechtliche Regeln auf moderne KI-Systeme angewandt werden können.

„OpenAI hätte die Rechte an den eingeklagten Songtexten erwerben müssen.“

So formulierte es das Gericht und stellte damit klar, dass weder das Training eines KI-Modells noch die spätere Ausgabe geschützter Inhalte ohne Lizenz zulässig sind. Diese Entscheidung schafft nicht nur juristische Klarheit, sondern wirft ein Schlaglicht auf ein technisches Grundproblem großer Sprachmodelle: die sogenannte Memorisierung.

Entscheidung im Überblick

Die Richter kamen zu der Überzeugung, dass ChatGPT nicht bloß auf abstrakte Weise mit den Liedtexten gearbeitet hatte, sondern dass diese Inhalte im Modell selbst in einer abrufbaren Form vorhanden waren. Denn ChatGPT konnte einzelne Texte bei einfachen Eingaben nahezu originalgetreu ausgeben. Das Gericht sah darin eine klare Verletzung des Urheberrechts.

Bemerkenswert ist, dass die Richter Training und Output als zusammenhängenden Vorgang betrachteten: Das Einlesen der Daten sei der Moment der Vervielfältigung, die spätere Ausgabe die Manifestation dieser Speicherung. Das eine sei ohne das andere nicht denkbar. Entsprechend wurde OpenAI zu Unterlassung, Auskunft und Schadensersatz verpflichtet. Eine Klagekomponente wegen Persönlichkeitsrechtsverletzung wies das Gericht hingegen zurück, was die Bedeutung der urheberrechtlichen Fragen zusätzlich hervorhob.

Technischer Hintergrund: Was ist „Memorisierung“?

Im Kern des Falls liegt ein technisches Phänomen, das in der KI-Forschung seit Jahren diskutiert wird, aber erst jetzt in den Fokus der juristischen Debatte rückt. Memorisierung bedeutet, dass ein Modell einzelne Passagen aus seinen Trainingsdaten nicht nur statistisch „versteht“, sondern fast wörtlich wiedergeben kann.

Forschungsarbeiten beschreiben das so:

„Wenn ein Modell durch geeignete Eingabe gezwungen werden kann, eine Zielsequenz nahezu unverändert zu generieren, spricht man von Memorisation.“

Warum memorisieren KI-Modelle?

Mehrere Faktoren begünstigen diesen Effekt. Modelle sehen bestimmte Texte — vor allem populäre Werke wie Liedrefrains — oft sehr häufig. Ihre klare Struktur und Wiederholung erleichtert es ihnen, im neuronalen Netz besonders stabile Muster zu bilden. Je größer das Modell und je länger das Training, desto größer das Risiko, dass es einzelne Textfolgen nicht abstrahiert, sondern quasi „auswendig lernt“.

Auch die Art des Prompts spielt eine Rolle. Wenn ein Nutzer einen bekannten Satzanfang eintippt, kann ein Modell, das diesen Eingang häufig gesehen hat, fast zwangsläufig die memorisierte Fortsetzung erzeugen.

Wie weist man Memorisierung nach?

In der Forschung existieren mehrere Methoden, darunter:

  • Tests mit reduzierten Prompts,
  • deterministische Abfragen bei temperature = 0,
  • Wahrscheinlichkeitsanalysen („Exposure Scores“),
  • und sogenannte Membership-Inference-Methoden.

All diese Verfahren zielen darauf ab, herauszufinden, ob ein Modell ein Werk intern „festgelegt“ hat — oder ob es die Ausgabe tatsächlich neu konstruiert.

Für das Gericht war entscheidend: Wenn ein Modell einen urheberrechtlich geschützten Text nahezu unverändert wiedergibt, ist das eine Form der Speicherung — und damit ein urheberrechtlich relevanter Akt.

Folgen des Urteils

Das Urteil hat erhebliche Auswirkungen auf die gesamte KI-Branche. KI-Anbieter müssen künftig genauer prüfen, welche Inhalte sie für das Training verwenden und wie sie verhindern, dass Modelle geschützte Werke reproduzieren. Der bisher verbreitete Ansatz, Modelle basierten auf rein statistischen Mustern, reicht nun juristisch nicht mehr aus.

Für Anbieter bedeutet das konkret:

  • Trainingsdaten müssen gründlich kuratiert werden, einschließlich Deduplizierung oft wiederholter Passagen und Filterung geschützter Inhalte.
  • Technische Maßnahmen gegen Memorisierung werden unverzichtbar, etwa Regularisierungstechniken oder Anti-Memorisation-Lernziele.
  • Systeme müssen so gestaltet sein, dass der Output keine exakt gespeicherten Werke freisetzt — auch nicht bei „trickreichen“ Prompts.

Für Urheberinnen und Urheber hingegen ist das Urteil ein großer Erfolg. Die Entscheidung stärkt die GEMA und andere Verwertungsgesellschaften und zeigt, dass Rechte auch im Kontext moderner KI durchgesetzt werden können. Sie macht zudem deutlich, dass neue Lizenzmodelle für KI-Training — wie sie von der GEMA bereits angeboten werden — an Bedeutung gewinnen.

Auch andere Branchen könnten diesem Beispiel folgen: Verlage, Bildagenturen, Filmstudios und Softwarehersteller werden das Urteil genau analysieren. Es dürfte ihnen weitere juristische Grundlagen bieten, um gegen unlizenzierte Nutzung ihrer Werke in KI-Modellen vorzugehen.

Wie es weitergehen kann

Es gilt als sehr wahrscheinlich, dass OpenAI Rechtsmittel einlegt. Ein Berufungsverfahren könnte den Fall bis zum Bundesgerichtshof oder gar zum Europäischen Gerichtshof führen. Damit könnte das Urteil europaweite Wirkung entfalten — möglicherweise mit langfristigen Folgen für alle großen KI-Anbieter.

Parallel dazu wird sich der Gesetzgeber stärker mit der Frage beschäftigen müssen, wie KI-Training reguliert werden kann. Das Urteil zeigt, dass Transparenz über Trainingsdaten, klare Lizenzmodelle und definierte technische Pflichten notwendig werden könnten. Der AI Act der EU markiert bereits erste Schritte in diese Richtung, klärt aber nicht alles.

Auch technisch dürfte sich die Landschaft verändern. Modelle mit Retrieval-Augmented-Generation, die Informationen nicht intern speichern, sondern aus externen lizenzierten Quellen abrufen, könnten an Bedeutung gewinnen. Ebenso werden Forschungsarbeiten zu Memorisierung, Regularisierung, deduplizierten Korpora und Prüfmechanismen eine neue Dringlichkeit erhalten.

Langfristig deutet vieles darauf hin, dass KI-Systeme in stärker kuratierte, lizenzierte und auditierbare Datenökosysteme eingebettet werden müssen. Für Urheberinnen und Urheber kann dies neue Formen der Beteiligung eröffnen, für KI-Anbieter dagegen höhere Anforderungen an Transparenz und technische Sorgfalt bedeuten.

Fazit

Das Urteil im Fall GEMA vs. OpenAI markiert eine juristische und technologische Zäsur. Es macht deutlich, dass generative KI-Modelle nicht nur abstrakte Muster lernen, sondern konkrete Inhalte speichern können — und dass genau diese Speicherung rechtlich relevant ist. Die technische Tatsache der Memorisierung wird plötzlich zum Kernkriterium dafür, ob ein Modell Urheberrechte verletzt.

Für die KI-Branche bedeutet das: mehr Transparenz, mehr Dokumentation, mehr Lizenzen und mehr technische Verantwortung. Für Urheber entsteht die Chance, nicht nur geschützt, sondern am wirtschaftlichen Wert der KI beteiligt zu werden.

Offen ist, ob höhere Gerichte oder der europäische Gesetzgeber die Prinzipien dieses Urteils bestätigen oder weiter ausgestalten. Sicher aber ist: Die Frage, ob ein Modell etwas „versteht“ oder „auswendig gelernt“ hat, ist nicht mehr theoretisch — sie entscheidet über die Zukunft der KI-Entwicklung und darüber, wie menschliche Kreativität im digitalen Zeitalter geschützt wird.

Quellen (mit Links)

Schreibe einen Kommentar

Kommentare