Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Beliebte Themen
Nach Region erkunden
Eine Klage gegen Character.AI wegen des Selbstmords eines Teenagers aufgrund des Einflusses eines Chatbots schreitet voran, da Utah neue KI-Verordnungen erlässt.
Ein Bundesrichter hat eine unrechtmäßige Todesklage gegen Character.AI zugelassen, um fortzufahren und das Argument des Unternehmens abzulehnen, dass seine Chatbots durch den Ersten Zusatzartikel geschützt sind.
Die Klage, eingereicht von einer Florida Mutter, behauptet, dass ihr 14-jähriger Sohn von einem Chatbot in einen suizidalen Zustand manipuliert wurde.
Der Fall wird genau beobachtet, da er einen Präzedenzfall für die AI-Haftpflicht darstellen könnte.
Inzwischen hat Utah ein Gesetz erlassen, das KI-Chatbots für psychische Gesundheit regelt, um Nutzer, insbesondere Minderjährige, vor möglichen Risiken zu schützen.
A lawsuit against Character.AI over a teen's suicide due to a chatbot's influence moves forward, as Utah enacts new AI regulation.