News-Sites verwenden "robots.txt", um Apple vom Abkratzen ihrer Websites für KI-Trainingsdaten zu blockieren.

Hauptplattformen wie Facebook und die New York Times verwenden eine Datei namens "robots.txt", um Apple davon abzuhalten, ihre Websites für KI-Trainingszwecke zu kratzen. Apple bietet Publishern Millionen von Dollar an, um ihre Websites zu kratzen, mit dem Ziel, die Daten für KI-Training zu verwenden. Die robots.txt-Datei, die Website-Besitzer anzeigen können, dass sie nicht wollen, dass ihre Websites verschrottet, zeigt, dass viele Nachrichten-Websites entscheiden, Apple Intelligence vom Zugriff auf ihre Inhalte zu blockieren.

August 29, 2024
130 Artikel