Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Beliebte Themen
Nach Region erkunden
Im März 2026 verbot Trump den Einsatz von Anthropocs AI Claude über Sicherheitsbedenken, was die Auftragnehmer dazu veranlasste, ihn trotz der anhaltenden militärischen Nutzung auszusetzen.
Im März 2026 verbot Präsident Trump allen Bundesbehörden, das Anthropoc-KI-System Claude zu verwenden, unter Berufung auf die nationalen Sicherheitsrisiken, nachdem das Unternehmen sich weigerte, dem Militär uneingeschränkten Zugang zu gewähren.
Das Pentagon bezeichnete Anthropoc als "Supply-Chain-Risiken", die Verteidigungsunternehmen daran hindern, damit Geschäfte zu machen, obwohl das Militär weiterhin Claude in aktiven Operationen einsetzt.
Lockheed Martin kündigte einen sechsmonatigen Ausstieg des Instruments an und schloss sich anderen Auftragnehmern bei der Einhaltung der Richtlinie an.
Anthropotische Pläne, das Verbot vor Gericht anzufechten, nennen es rechtlich unbegründet, während OpenAI einen Pentagon-Vertrag unter ständiger Kontrolle über KI-Ethik und militärische Nutzung sicherte.
In March 2026, Trump banned federal use of Anthropic’s AI Claude over security concerns, prompting contractors to phase it out despite ongoing military use.