Die Zuverlässigkeit von KI-Sprachmodellen sinkt bei einfachen Fragen, trotz besserer Leistung bei komplexen Aufgaben, wie eine Studie in Nature zeigt.
Eine Studie in Nature zeigt, dass fortgeschrittene KI-Sprachmodelle wie ChatGPT bei der Beantwortung einfacher Fragen weniger zuverlässig werden, obwohl sie bei komplexen Aufgaben besser abschneiden. Forscher aus mehreren Institutionen fanden heraus, dass diese Modelle oft nicht erkennen, wenn sie keine Antworten kennen, was zu falsch platziertem Vertrauen führt. Die Studie fordert die Neugestaltung von KI-Systemen, um Ablehnungsoptionen und menschliche Aufsicht aufzunehmen, um die Genauigkeit zu verbessern und den Nutzern zu helfen, ihre Grenzen zu verstehen.
September 25, 2024
7 Artikel