Anthropic erklärte dazu, es wolle seine KI-Technologie nicht wie von der Trump-Regierung gewünscht für die „Massenüberwachung im Inland“ oder in vollautonomen Waffensystemen einsetzen lassen. Trump reagierte mit einem Wutanfall: „Die Vereinigten Staaten von Amerika werden es niemals einem radikal linken, woken Unternehmen erlauben zu diktieren, wie unser großartiges Militär kämpft und Kriege gewinnt!“, schrieb der Präsident in Großbuchstaben. Anthropic habe einen „katastrophalen Fehler“ gemacht.
US-Verteidigungsminister Pete Hegseth hatte Anthropic eine Frist bis Freitag gesetzt, um einer kontinuierlichen militärischen Nutzung seiner KI-Dienste zuzustimmen. Das verweigerte das Unternehmen jedoch: „Wir können Ihrer Forderung nicht gutes Gewissen nachkommen“, hatte der Anthropic-Vorstandsvorsitzende Dario Amodei am Donnerstag (Ortszeit) erklärt.
Drohung mit „Defence Production Act“
Laut Amodei wird das Verteidigungsministerium nur mit KI-Firmen Verträge abschließen, die „jeder rechtmäßigen Nutzung“ zustimmt und Schutzvorkehrungen aufhöben. Das Ministerium habe nicht nur gedroht, Anthropic aus seinen Systemen zu entfernen, sondern auch mit Zwangsmaßnahmen gemäß einem Gesetz aus dem Kalten Krieg. Das bedeutet, die Firma als „Risiko für die Lieferkette“ einzustufen und den „Defense Production Act“ anzuwenden, um die Entfernung der Schutzmaßnahmen zu erzwingen.
„Diese Drohungen ändern nichts an unserer Position. Wir können der Forderung nicht guten Gewissens nachkommen“, sagte Amodei. Es ist das Vorrecht des Ministeriums, die Vertragspartner auszuwählen, die am ehesten mit seiner Vision übereinstimmt sind. „Aber angesichts des erheblichen Wertes, den die Technologie von Anthropic für unsere Streitkräfte vertritt, hoffen wir, dass sie ihre Entscheidung überdenken.“
KI „noch nicht zuverlässig genug“
Der Firmenchef warnt, dass künstliche Intelligenz es möglich ist, über das Netz verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem ausführlichen Bild ihres Lebens zusammenzusetzen. Und gleichzeitig sei KI noch nicht zuverlässig genug, um in vollständig autonomen Waffen eingesetzt zu werden. „Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Krieger und Zivilisten in Gefahr bringt“, schrieb der Anthropic-Chef.
Anthropic war 2021 von ehemaligen Mitarbeitern des KI-Unternehmens OpenAI gegründet. Während OpenAI durch seinen Chatbot ChatGPT der breiten Öffentlichkeit bekannt ist, lehrte Anthropic mit seinem Chatbot Claude eher Programmierer und Unternehmen ab, denen unter anderem Datensicherheit wichtig ist.

