Ein Anwaltsteam von Anthropic musste in einem laufenden Rechtsverfahren gegen Musikverlage einräumen, dass ihr KI-System Claude falsche akademische Zitate generiert hat. Die am Donnerstag eingereichte Gerichtsakte offenbart, dass das System Quellenangaben mit “unzutreffenden Titeln und falschen Autoren” produzierte.
In der Stellungnahme, die zunächst von Bloomberg aufgegriffen wurde, erklärt Anthropic, die manuelle Überprüfung der Zitate habe die KI-generierten Fehler nicht erkannt. Das Unternehmen bezeichnet den Vorfall als “ehrlichen Zitierfehler” und nicht als absichtliche Täuschung.
Der Vorfall ereignete sich, nachdem Anwälte der Universal Music Group und weiterer Musikverlage behauptet hatten, eine Sachverständige von Anthropic hätte in ihrer Aussage KI-generierte Falschzitate verwendet. Die zuständige Richterin Susan van Keulen forderte daraufhin eine Stellungnahme des Unternehmens.
Der Fall ist nicht der erste seiner Art: Erst kürzlich kritisierte ein kalifornisches Gericht Anwaltskanzleien für die Einreichung KI-generierter Falschrecherchen. In Australien wurde bereits im Januar ein Rechtsanwalt für die Verwendung fehlerhafter ChatGPT-Zitate in Gerichtsdokumenten gerügt.
Warum halluzinieren KIs?
Das Phänomen der KI-Halluzinationen liegt in der grundlegenden Funktionsweise der Sprachmodelle begründet. Diese Systeme erzeugen Texte basierend auf statistischen Wahrscheinlichkeiten und erlernten Mustern, ohne über ein faktisches Verständnis oder eine echte Datenbank geprüfter Quellen zu verfügen. Selbst fortschrittliche Modelle wie Claude haben keinen Zugriff auf ein gesichertes Wissenssystem, sondern generieren Antworten, die plausibel erscheinen, aber nicht notwendigerweise korrekt sein müssen. Besonders problematisch ist dies bei spezifischen Anforderungen wie Zitaten, da das System hier Informationen vervollständigt, die es nur teilweise “kennt”, anstatt zuzugeben, dass es keine verlässliche Quelle abrufen kann.