Ein US-Bundesgericht in San Francisco hat in einem richtungsweisenden Urteil entschieden, dass die Nutzung urheberrechtlich geschützter Bücher zum Training eines KI-Modells unter bestimmten Bedingungen rechtmäßig ist.
Zugleich stellte das Gericht aber auch fest, dass die Speicherung und Nutzung illegal beschaffter Bücher eine Urheberrechtsverletzung darstellt.
Teilerfolg für Anthropic
Das Technologieunternehmen Anthropic, unterstützt von Amazon und Alphabet, stand wegen der Nutzung von Büchern zur Schulung seines Sprachmodells Claude vor Gericht. Die Klage wurde von mehreren Autoren eingereicht, darunter Andrea Bartz, Charles Graeber und Kirk Wallace Johnson. Sie warfen Anthropic vor, ihre Werke ohne Genehmigung und ohne Entlohnung verwendet zu haben.
Richter William Alsup urteilte nun, dass das Training des KI-Modells mit diesen Inhalten unter die sogenannte „Fair Use“-Doktrin falle. Damit sei die Nutzung in diesem Fall als rechtlich zulässig einzustufen. Entscheidend war dabei die Einschätzung, dass das KI-Modell Inhalte auf transformative Weise nutze – also nicht kopiere, sondern etwas grundsätzlich Neues daraus entwickle.
Grenzen der Fair-Use-Doktrin
Gleichzeitig zog das Gericht jedoch eine klare Grenze: Die Speicherung von mehr als sieben Millionen illegal beschafften digitalen Buchkopien in einer internen Datenbank („zentralen Bibliothek“) sei nicht durch Fair Use gedeckt. Hier liege eine direkte Urheberrechtsverletzung vor. In diesem Punkt lässt Richter Alsup im Dezember ein Verfahren zur Schadensfeststellung folgen. US-amerikanisches Urheberrecht sieht in Fällen vorsätzlicher Verletzung Strafen von bis zu 150.000 US-Dollar pro betroffenem Werk vor.
Präzedenzfall für die KI-Branche
Diese Entscheidung ist die erste ihrer Art, die sich explizit mit dem Konzept des Fair Use im Zusammenhang mit generativer Künstlicher Intelligenz befasst. Unternehmen wie Anthropic, OpenAI oder Meta argumentieren, dass ihre KI-Systeme durch die Nutzung urheberrechtlich geschützter Inhalte kreative Leistungen fördern und daher unter den Schutz dieser Regelung fallen.
Richter Alsup erkannte diesen Standpunkt teilweise an: Das KI-Training sei „außerordentlich transformativ“. Der Vergleich mit einem lernenden Menschen sei zutreffend – ein Sprachmodell, das Bücher analysiere, tue dies nicht, um sie zu ersetzen, sondern um daraus etwas Neues zu schaffen.
Streit um die Herkunft der Daten
Einen kritischen Punkt stellte das Gericht in der Herkunft der verwendeten Inhalte fest. Anthropic hatte argumentiert, dass es unerheblich sei, ob die Bücher aus legalen oder illegalen Quellen stammten. Dem widersprach der Richter deutlich: Die bewusste Beschaffung von Pirateriekopien sei in keiner Weise durch Fair Use zu rechtfertigen – insbesondere, wenn legale Alternativen zur Verfügung stünden.
Hintergrund: Wachsende Zahl von Klagen
Der Fall reiht sich ein in eine Serie von Klagen, die Autoren, Medienhäuser und andere Rechteinhaber gegen führende KI-Firmen angestrengt haben. Sie alle werfen den Unternehmen vor, geistiges Eigentum ohne Erlaubnis zur Entwicklung ihrer Systeme zu verwenden – und dabei potenziell existierende Geschäftsmodelle zu untergraben.
Das Urteil stellt einen bedeutenden Präzedenzfall für die Bewertung von KI-Trainingspraktiken im Lichte des Urheberrechts dar. Während die Nutzung urheberrechtlich geschützter Inhalte unter bestimmten Bedingungen als legal gilt, mahnt das Gericht zugleich deutlich zur Sorgfalt bei der Beschaffung der Daten. Der Ausgang des Prozesses im Dezember könnte wegweisend für die gesamte Branche sein.