Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Tippen zum Übersetzen – Aufnahme

Nach Region erkunden

flag OpenAI's KI-Transkription-Tool, Whisper, oft "halluziniert" in medizinischen Einstellungen, die zu potenziellen Risiken führen.

flag Forscher haben herausgefunden, dass OpenAIs KI-gestütztes Transkriptionstool Whisper häufig "halluziniert", indem er falsche Sätze generiert und Bedenken in risikoreichen Branchen wie dem Gesundheitswesen aufwirft. flag Trotz der Warnungen von OpenAI vor seiner Verwendung in sensiblen Bereichen haben viele medizinische Einrichtungen sie zur Transkription von Patientenkonsultationen übernommen. flag Experten fordern föderale Vorschriften, um diese Probleme anzugehen, während OpenAI das Problem anerkennt und an Verbesserungen arbeitet.

Vor 8 Monaten
130 Artikel

Weiterführende Lektüre