Anthropic

Quellcode von Claude Code landet ungewollt im Netz

Claude Code
Bildquelle: Robert Way/Shutterstock.com

Durch eine fehlerhafte Veröffentlichung auf npm wurde der gesamte TypeScript-Code des KI-Coding-Tools öffentlich. Die Community hat längst Kopien gesichert.

Bei der Veröffentlichung von Version 2.1.88 seines Terminal-basierten KI-Assistenten Claude Code hat das Unternehmen offenbar vergessen, eine Datei aus dem Paket zu entfernen. Diese Datei, eine sogenannte Source Map, enthielt den vollständigen, lesbaren TypeScript-Quellcode des Tools.

Anzeige

Solche Source Maps sind eigentlich ein harmloses Werkzeug aus dem Entwickleralltag. Sie helfen beim Debugging, indem sie kompilierten Code auf die ursprünglichen Quelldateien zurückführen.

Schnelle Verbreitung

Entdeckt hat das Ganze Chaofan Shou, der seinen Fund auf X veröffentlichte. Der Beitrag verbreitete sich rasant. Noch bevor Anthropic das Paket zurückziehen konnte, hatten Entwickler den Code bereits extrahiert und auf GitHub gestellt. Dort haben die Kopien inzwischen zehntausende Sterne gesammelt. Zahlreiche Programmierer zerlegen den Code nun Stück für Stück.

Anthropic bestätigt den Vorfall

Inzwischen hat sich das Unternehmen gegenüber VentureBeat geäußert. Es habe sich um einen Fehler beim Paketieren des Releases gehandelt, verursacht durch menschliches Versagen. Eine Sicherheitslücke im eigentlichen Sinne liege nicht vor. Kundendaten oder Zugangsdaten seien zu keinem Zeitpunkt betroffen gewesen. Man arbeite an Maßnahmen, damit sich ein solcher Fehler nicht wiederhole.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Dreistufiges Gedächtnissystem

Für die Konkurrenz dürfte vor allem ein Detail interessant sein: Aus dem Code lässt sich ablesen, wie Anthropic ein zentrales Problem von KI-Agenten angeht. Wenn ein Agent über längere Sitzungen hinweg arbeitet, wächst der Kontext, und damit steigt die Gefahr, dass das Modell den Faden verliert oder anfängt zu halluzinieren.

Anthropics Lösung besteht offenbar aus einer dreistufigen Gedächtnisarchitektur. Das System arbeitet nicht mit einem einzigen großen Speicher, sondern verteilt Wissen gezielt. Im Mittelpunkt steht eine kompakte Indexdatei, die dauerhaft im Kontext geladen bleibt. Diese Datei speichert nicht das Wissen selbst, sondern nur Verweise darauf, wo es zu finden ist. Das eigentliche Projektwissen liegt in thematisch getrennten Dateien, die erst bei Bedarf abgerufen werden. Ältere Gesprächsverläufe werden dabei nie vollständig in den Kontext geladen, sondern nur gezielt nach bestimmten Begriffen durchsucht.

Ein weiterer Mechanismus sorgt dafür, dass der Index nur dann aktualisiert wird, wenn eine Dateioperation tatsächlich erfolgreich war. So wird verhindert, dass fehlgeschlagene Versuche den Kontext verschmutzen.

Der Agent behandelt sein eigenes Gedächtnis laut Code grundsätzlich als unzuverlässig. Bevor er auf Basis gespeicherter Informationen handelt, muss er diese gegen den tatsächlichen Stand des Projekts abgleichen. Für die Konkurrenz ist das ein aufschlussreicher Einblick in Anthropics Designphilosophie.

Rechtliche Grauzone

Einige Entwickler bieten auf GitHub bereits eigene Varianten des Tools an. Mehrere Stimmen in der Community warnen davor: Der Code sei nach wie vor urheberrechtlich geschützt, auch wenn er nun frei zugänglich ist. Wer ihn in eigene Projekte übernimmt, riskiert rechtliche Konsequenzen.

Andere weisen zudem darauf hin, dass die Offenlegung es erleichtert, Schwachstellen im Tool aufzuspüren. Auch die verwendeten Drittbibliotheken lassen sich nun einsehen, was die Angriffsfläche vergrößern könnte.

Lars

Becker

Stellvertretender Chefredakteur

IT Verlag GmbH

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.