Studie zeigt, dass KI-Systeme keine Ausbildung in Empathie und Ethik haben und eine neue Methode zur Angleichung der KI an gesellschaftliche Werte vorschlagen.

Forscher der Purdue Universität fanden heraus, dass KI-Systeme in erster Linie auf Informations- und Gebrauchswerten geschult werden, wobei sie oft prosoziale, wohlbefindende und bürgerliche Werte übersehen. Die Studie untersuchte drei Datensätze, die von großen AI-Unternehmen verwendet wurden, und fand einen Mangel an Schulungen zu Empathie, Gerechtigkeit und Menschenrechten. Das Team führte eine Methode ein, die Verstärkungslernen aus menschlichem Feedback genannt wird, um KI-Systeme mit gesellschaftlichen Werten in Einklang zu bringen und kuratierte Datensätze zu verwenden, um ethisches Verhalten zu gewährleisten und den Werten der Gemeinschaft besser zu dienen.

Vor 2 Monaten
3 Artikel

Weiterführende Lektüre