Durch eine fehlerhafte Veröffentlichung auf npm wurde der gesamte TypeScript-Code des KI-Coding-Tools öffentlich. Die Community hat längst Kopien gesichert.
Bei der Veröffentlichung von Version 2.1.88 seines Terminal-basierten KI-Assistenten Claude Code hat das Unternehmen offenbar vergessen, eine Datei aus dem Paket zu entfernen. Diese Datei, eine sogenannte Source Map, enthielt den vollständigen, lesbaren TypeScript-Quellcode des Tools.
Solche Source Maps sind eigentlich ein harmloses Werkzeug aus dem Entwickleralltag. Sie helfen beim Debugging, indem sie kompilierten Code auf die ursprünglichen Quelldateien zurückführen.
Schnelle Verbreitung
Entdeckt hat das Ganze Chaofan Shou, der seinen Fund auf X veröffentlichte. Der Beitrag verbreitete sich rasant. Noch bevor Anthropic das Paket zurückziehen konnte, hatten Entwickler den Code bereits extrahiert und auf GitHub gestellt. Dort haben die Kopien inzwischen zehntausende Sterne gesammelt. Zahlreiche Programmierer zerlegen den Code nun Stück für Stück.
Claude code source code has been leaked via a map file in their npm registry!
— Chaofan Shou (@Fried_rice) March 31, 2026
Code: https://t.co/jBiMoOzt8G pic.twitter.com/rYo5hbvEj8
Anthropic bestätigt den Vorfall
Inzwischen hat sich das Unternehmen gegenüber VentureBeat geäußert. Es habe sich um einen Fehler beim Paketieren des Releases gehandelt, verursacht durch menschliches Versagen. Eine Sicherheitslücke im eigentlichen Sinne liege nicht vor. Kundendaten oder Zugangsdaten seien zu keinem Zeitpunkt betroffen gewesen. Man arbeite an Maßnahmen, damit sich ein solcher Fehler nicht wiederhole.
Dreistufiges Gedächtnissystem
Für die Konkurrenz dürfte vor allem ein Detail interessant sein: Aus dem Code lässt sich ablesen, wie Anthropic ein zentrales Problem von KI-Agenten angeht. Wenn ein Agent über längere Sitzungen hinweg arbeitet, wächst der Kontext, und damit steigt die Gefahr, dass das Modell den Faden verliert oder anfängt zu halluzinieren.
Anthropics Lösung besteht offenbar aus einer dreistufigen Gedächtnisarchitektur. Das System arbeitet nicht mit einem einzigen großen Speicher, sondern verteilt Wissen gezielt. Im Mittelpunkt steht eine kompakte Indexdatei, die dauerhaft im Kontext geladen bleibt. Diese Datei speichert nicht das Wissen selbst, sondern nur Verweise darauf, wo es zu finden ist. Das eigentliche Projektwissen liegt in thematisch getrennten Dateien, die erst bei Bedarf abgerufen werden. Ältere Gesprächsverläufe werden dabei nie vollständig in den Kontext geladen, sondern nur gezielt nach bestimmten Begriffen durchsucht.
Ein weiterer Mechanismus sorgt dafür, dass der Index nur dann aktualisiert wird, wenn eine Dateioperation tatsächlich erfolgreich war. So wird verhindert, dass fehlgeschlagene Versuche den Kontext verschmutzen.
Der Agent behandelt sein eigenes Gedächtnis laut Code grundsätzlich als unzuverlässig. Bevor er auf Basis gespeicherter Informationen handelt, muss er diese gegen den tatsächlichen Stand des Projekts abgleichen. Für die Konkurrenz ist das ein aufschlussreicher Einblick in Anthropics Designphilosophie.
Rechtliche Grauzone
Einige Entwickler bieten auf GitHub bereits eigene Varianten des Tools an. Mehrere Stimmen in der Community warnen davor: Der Code sei nach wie vor urheberrechtlich geschützt, auch wenn er nun frei zugänglich ist. Wer ihn in eigene Projekte übernimmt, riskiert rechtliche Konsequenzen.
Andere weisen zudem darauf hin, dass die Offenlegung es erleichtert, Schwachstellen im Tool aufzuspüren. Auch die verwendeten Drittbibliotheken lassen sich nun einsehen, was die Angriffsfläche vergrößern könnte.