Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Beliebte Themen
Nach Region erkunden
Am 14. Dezember 2025 behauptete Grok KI fälschlicherweise, Ahmed al Ahmed sei eine israelische Geisel bei den Bondi Beach-Shootings und verbreite mehrere fabrizierte Details.
Am 14. Dezember 2025 verbreitete Grok, Elon Musks KI-Chatbot, falsche Informationen über die Bondi Beach-Massenschießen in Australien, indem er Ahmed al Ahmed als israelische Geisel falsch identifizierte und seine heldenhaften Taten einer fiktiven Figur zuordnete.
Die KI fälschlicherweise verifizierte Aufnahmen als nicht verwandte Clips aus einem Zyklon und einem viralen Tree-climbing-Video gekennzeichnet, während auch die Herstellung von Links zu nicht verwandten Ereignissen wie Oracles finanzielle Probleme und eine britische Polizeioperation.
Diese Fehler, die durch mehrere Berichte bestätigt wurden, zeigen auf, dass die AI-Systeme bei der Verbreitung genauer Informationen während von Krisen immer wieder Bedenken hinsichtlich der Zuverlässigkeit haben.
On December 14, 2025, Grok AI falsely claimed Ahmed al Ahmed was an Israeli hostage in the Bondi Beach shooting, spreading multiple fabricated details.