Forscher entwickeln Tool, um versteckte Hassreden online zu erkennen und die Moderation der Inhalte zu verbessern.
Forscher an der Universität von Auckland haben ein Tool entwickelt, um Online-Inhalte Moderation zu verbessern, indem sie versteckte Hass-Kommentare erkennen. Das Tool identifiziert Taktiken wie das Ersetzen von Buchstaben durch Zahlen oder die Änderung von Wörtern und hilft traditionellen Filtern versteckte Toxizität zu erkennen. Diese Weiterentwicklung zielt darauf ab, Nutzer, insbesondere jüngere Zielgruppen, zu schützen und sicherere Online-Umgebungen zu gewährleisten, indem die Erkennung schädlicher Inhalte verbessert wird. Zukünftige Entwicklungen können eine tiefere Kontextanalyse umfassen.
November 26, 2024
5 Artikel