Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Tippen zum Übersetzen – Aufnahme

Nach Region erkunden

flag LAION entfernt 2000 Bilder von Kindesmissbrauch aus der AI-Bildgenerator-Datenbank.

flag KI-Forscher von LAION haben über 2.000 Links entfernt, die mutmaßliche Bilder von sexuellem Missbrauch von Kindern aus ihrer Datenbank enthalten, die zur Ausbildung beliebter KI-Imagegeneratoren wie Stable Diffusion und Midjourney verwendet wurde. flag Als Reaktion auf frühere Erkenntnisse, dass die Datenbank Links zur Produktion von fotorealistischen Deepfakes enthält, die Kinder darstellen, arbeitete LAION mit Watchdog-Gruppen und Anti-Missbrauch-Organisationen zusammen, um die Datenbank zu säubern und eine überarbeitete Version für zukünftige KI-Forschung zu veröffentlichen. flag Der nächste Schritt ist jedoch, verdorbene Modelle zurückzuziehen, die noch in der Lage sind, Bilder von Kindesmissbrauch zu produzieren.

Vor 9 Monaten
85 Artikel