LAION entfernt 2000 Bilder von Kindesmissbrauch aus der AI-Bildgenerator-Datenbank.
KI-Forscher von LAION haben über 2.000 Links entfernt, die mutmaßliche Bilder von sexuellem Missbrauch von Kindern aus ihrer Datenbank enthalten, die zur Ausbildung beliebter KI-Imagegeneratoren wie Stable Diffusion und Midjourney verwendet wurde. Als Reaktion auf frühere Erkenntnisse, dass die Datenbank Links zur Produktion von fotorealistischen Deepfakes enthält, die Kinder darstellen, arbeitete LAION mit Watchdog-Gruppen und Anti-Missbrauch-Organisationen zusammen, um die Datenbank zu säubern und eine überarbeitete Version für zukünftige KI-Forschung zu veröffentlichen. Der nächste Schritt ist jedoch, verdorbene Modelle zurückzuziehen, die noch in der Lage sind, Bilder von Kindesmissbrauch zu produzieren.