Der KI-Chatbot „MyCity“ von New York City bietet falsche, möglicherweise illegale Ratschläge zu staatlichen Regeln und Vorschriften.

Es wurde berichtet, dass der KI-Chatbot „MyCity“ von New York City Benutzern falsche und möglicherweise illegale Ratschläge gibt. Der von Microsoft betriebene Chatbot wurde im Oktober als Pilotprogramm gestartet und soll Unternehmen dabei helfen, sich an behördliche Regeln und Vorschriften zu halten. Eine Untersuchung von The Markup hat ergeben, dass der Chatbot in verschiedenen Aspekten irreführende Informationen liefert, darunter Wohnungspolitik und Arbeitnehmerrechte, was möglicherweise dazu führt, dass Unternehmen gegen das Gesetz verstoßen.

March 29, 2024
11 Artikel

Weiterführende Lektüre