Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Beliebte Themen
Nach Region erkunden
Eine große Studie zeigt, dass KI-Nachrichtenassistenten häufig ungenaue oder schlecht beschaffte Informationen liefern, mit 81 % der Antworten fehlerhaft.
Eine große Studie der Europäischen Rundfunkunion und der BBC stellt fest, dass führende KI-Assistenten wie ChatGPT, Copilot, Gemini und Perplexity häufig ungenaue oder irreführende Nachrichten liefern, wobei 45 % der Antworten wichtige Probleme enthalten und 81 % Mängel aufweisen.
Durch die Analyse von 3.000 Antworten in 14 Sprachen fanden Forscher weit verbreitete Probleme, darunter falsche Fakten, veraltete Informationen und schlechte Beschaffung, wobei Zwillinge die höchste Rate an Attributionsfehlern bei 72 % aufwiesen.
Die Studie, an der 22 öffentlich-rechtliche Medien aus 18 Ländern beteiligt sind, zeigt wachsende Bedenken auf, da jüngere Nutzer zunehmend auf KI für Nachrichten angewiesen sind, wodurch Risiken für das öffentliche Vertrauen und demokratisches Engagement entstehen.
Während einige Unternehmen die laufenden Herausforderungen anerkennen, fordert der Bericht eine größere Rechenschaftspflicht und Verbesserungen bei der Genauigkeit und Beschaffung von KI.
A major study reveals AI news assistants frequently provide inaccurate or poorly sourced information, with 81% of responses flawed.