Die KI-Firma Anthropic will dem Pentagon verbieten, ihre Software zur Massenüberwachung in den USA zu nutzen. Daraufhin stuft die US-Regierung die Firma als Risiko für die nationale Sicherheit ein.
Im Streit zwischen dem Pentagon und dem OpenAI-Konkurrenten Anthropic über die Verwendung von KI-Software im US-Militär verschärft die US-Regierung ihren Kurs drastisch. Verteidigungsminister Pete Hegseth ordnete an, Anthropic als «Supply-Chain Risk to National Security», also als Lieferketten-Risiko für die nationale Sicherheit, einzustufen. Mit sofortiger Wirkung dürften Auftragnehmer, Zulieferer oder Partner des US-Militärs keine Geschäfte mehr mit dem Unternehmen machen, schrieb Hegseth auf der Plattform X.
Anthropic solle dem Verteidigungsministerium noch maximal sechs Monate lang Dienstleistungen bereitstellen, um einen Übergang zu einem «besseren und patriotischeren» Anbieter zu ermöglichen. Die Maßnahme erfolge im Zusammenhang mit einer Anweisung von Präsident Donald Trump, wonach alle Bundesbehörden die Nutzung von Anthropic-Technologie einstellen sollen.
Trump hatte zuvor auf seiner Plattform Truth Social erklärt, Bundesbehörden sollten «unverzüglich» aufhören, Anthropic-Software zu nutzen. «Wir brauchen sie nicht, wir wollen sie nicht und werden nie wieder mit ihnen Geschäfte machen!», schrieb er. Zugleich drohte er der Firma, die er als «radikal linkes, wokes Unternehmen» beschimpfte, mit «schwerwiegenden zivil- und strafrechtlichen Konsequenzen», solle sich diese nicht fügen.
Darum geht es bei dem Streit
Im Kern der Debatte geht es darum, dass Anthropic darauf besteht, dass Künstliche Intelligenz der Firma nicht für Massenüberwachung in den USA sowie nicht in komplett autonomen Waffen eingesetzt wird, schrieb Mitgründer und Chef Dario Amodei in einem Blogeintrag. Das Verteidigungsministerium habe deshalb gedroht, Anthropic als ein Lieferketten-Risiko einzustufen, was das Geschäft des Unternehmens in den USA drastisch einschränken würde.
Das Verteidigungsministerium will nur mit KI-Firmen zusammenarbeiten, die «jedem legalen Einsatz» ihrer Software zustimmen. Anthropic beharrt jedoch darauf, dass die von der Firma geforderten Einschränkungen wichtig seien.
So warnte Amodei, dass Künstliche Intelligenz es möglich mache, über das Netz verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem ausführlichen Bild ihres Lebens zusammenzusetzen. Und zugleich sei KI noch nicht verlässlich genug, um in vollständig autonomen Waffen eingesetzt zu werden. «Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Krieger und Zivilisten in Gefahr bringt», schrieb der Anthropic-Chef.
dpa