Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Tippen zum Übersetzen – Aufnahme

Nach Region erkunden

flag Am 14. Dezember 2025 behauptete Grok KI fälschlicherweise, Ahmed al Ahmed sei eine israelische Geisel bei den Bondi Beach-Shootings und verbreite mehrere fabrizierte Details.

flag Am 14. Dezember 2025 verbreitete Grok, Elon Musks KI-Chatbot, falsche Informationen über die Bondi Beach-Massenschießen in Australien, indem er Ahmed al Ahmed als israelische Geisel falsch identifizierte und seine heldenhaften Taten einer fiktiven Figur zuordnete. flag Die KI fälschlicherweise verifizierte Aufnahmen als nicht verwandte Clips aus einem Zyklon und einem viralen Tree-climbing-Video gekennzeichnet, während auch die Herstellung von Links zu nicht verwandten Ereignissen wie Oracles finanzielle Probleme und eine britische Polizeioperation. flag Diese Fehler, die durch mehrere Berichte bestätigt wurden, zeigen auf, dass die AI-Systeme bei der Verbreitung genauer Informationen während von Krisen immer wieder Bedenken hinsichtlich der Zuverlässigkeit haben.

40 Artikel

Weiterführende Lektüre