Studie zeigt, dass KI-Systeme keine Ausbildung in Empathie und Ethik haben und eine neue Methode zur Angleichung der KI an gesellschaftliche Werte vorschlagen.
Forscher der Purdue Universität fanden heraus, dass KI-Systeme in erster Linie auf Informations- und Gebrauchswerten geschult werden, wobei sie oft prosoziale, wohlbefindende und bürgerliche Werte übersehen. Die Studie untersuchte drei Datensätze, die von großen AI-Unternehmen verwendet wurden, und fand einen Mangel an Schulungen zu Empathie, Gerechtigkeit und Menschenrechten. Das Team führte eine Methode ein, die Verstärkungslernen aus menschlichem Feedback genannt wird, um KI-Systeme mit gesellschaftlichen Werten in Einklang zu bringen und kuratierte Datensätze zu verwenden, um ethisches Verhalten zu gewährleisten und den Werten der Gemeinschaft besser zu dienen.
Weiterführende Lektüre
Sie haben noch 3 kostenlose Artikel diesen Monat. Abonnieren Sie für unbegrenzten Zugriff.