OpenAI's KI-Transkription-Tool, Whisper, oft "halluziniert" in medizinischen Einstellungen, die zu potenziellen Risiken führen.

Forscher haben herausgefunden, dass OpenAIs KI-gestütztes Transkriptionstool Whisper häufig "halluziniert", indem er falsche Sätze generiert und Bedenken in risikoreichen Branchen wie dem Gesundheitswesen aufwirft. Trotz der Warnungen von OpenAI vor seiner Verwendung in sensiblen Bereichen haben viele medizinische Einrichtungen sie zur Transkription von Patientenkonsultationen übernommen. Experten fordern föderale Vorschriften, um diese Probleme anzugehen, während OpenAI das Problem anerkennt und an Verbesserungen arbeitet.

October 26, 2024
130 Artikel

Weiterführende Lektüre