Gericht blockiert Pentagon-Vorgehen gegen KI-Firma Anthropic
Eine US-Richterin hat die Sperre des US-Verteidigungsministeriums gegen das KI-Unternehmen Anthropic vorerst blockiert. Richterin Rita Lin gab gestern (Ortszeit) einer Klage der Entwicklerfirma des Chatbots Claude statt. Die Maßnahmen der Regierung schienen nicht auf nationale Sicherheitsinteressen abzuzielen, sondern darauf, Anthropic für öffentliche Kritik zu bestrafen, erklärte Lin in ihrer Entscheidung.
Dies sei eine illegale Vergeltungsmaßnahme und verletze das Recht auf freie Meinungsäußerung. Das Urteil tritt jedoch erst in sieben Tagen in Kraft, um der Regierung die Möglichkeit für eine Berufung zu geben. Anthropic-Sprecherin Danielle Cohen begrüßte die Entscheidung und teilte mit, das Unternehmen wolle weiterhin produktiv mit der Regierung zusammenarbeiten.
US-Verteidigungsminister Pete Hegseth hatte Anthropic zuvor als Risiko für die nationale Sicherheit und die Lieferketten eingestuft. Damit wurde das Start-up von bestimmten Militäraufträgen ausgeschlossen.
Auslöser des Streits war die Weigerung des Unternehmens, dem Militär die Nutzung seiner Künstlichen Intelligenz (KI) für Überwachungszwecke oder autonome Waffen zu gestatten. Insidern zufolge war die Technologie für Militäroperationen im Iran eingesetzt worden.
Das US-Justizministerium argumentierte, die Weigerung des Unternehmens, die Einschränkungen aufzuheben, könne militärische Systeme während laufender Einsätze gefährden. US-Präsident Donald Trump hatte zudem in einem Beitrag in den sozialen Netzwerken angeordnet, dass die gesamte Regierung die Nutzung von Claude einstellen solle.
Anthropic hatte am 9. März gegen die Entscheidung geklagt. In Washington ist zudem eine zweite Klage des Unternehmens wegen einer weiteren Risiko-Einstufung des Pentagons anhängig, die zum Ausschluss von zivilen Regierungsaufträgen führen könnte.