Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Tippen zum Übersetzen – Aufnahme

Nach Region erkunden

flag Im März 2026 verbot Trump den Einsatz von Anthropocs AI Claude über Sicherheitsbedenken, was die Auftragnehmer dazu veranlasste, ihn trotz der anhaltenden militärischen Nutzung auszusetzen.

flag Im März 2026 verbot Präsident Trump allen Bundesbehörden, das Anthropoc-KI-System Claude zu verwenden, unter Berufung auf die nationalen Sicherheitsrisiken, nachdem das Unternehmen sich weigerte, dem Militär uneingeschränkten Zugang zu gewähren. flag Das Pentagon bezeichnete Anthropoc als "Supply-Chain-Risiken", die Verteidigungsunternehmen daran hindern, damit Geschäfte zu machen, obwohl das Militär weiterhin Claude in aktiven Operationen einsetzt. flag Lockheed Martin kündigte einen sechsmonatigen Ausstieg des Instruments an und schloss sich anderen Auftragnehmern bei der Einhaltung der Richtlinie an. flag Anthropotische Pläne, das Verbot vor Gericht anzufechten, nennen es rechtlich unbegründet, während OpenAI einen Pentagon-Vertrag unter ständiger Kontrolle über KI-Ethik und militärische Nutzung sicherte.

7 Artikel