News-Sites verwenden "robots.txt", um Apple vom Abkratzen ihrer Websites für KI-Trainingsdaten zu blockieren.
Hauptplattformen wie Facebook und die New York Times verwenden eine Datei namens "robots.txt", um Apple davon abzuhalten, ihre Websites für KI-Trainingszwecke zu kratzen. Apple bietet Publishern Millionen von Dollar an, um ihre Websites zu kratzen, mit dem Ziel, die Daten für KI-Training zu verwenden. Die robots.txt-Datei, die Website-Besitzer anzeigen können, dass sie nicht wollen, dass ihre Websites verschrottet, zeigt, dass viele Nachrichten-Websites entscheiden, Apple Intelligence vom Zugriff auf ihre Inhalte zu blockieren.
Artikel
Letzter kostenloser Artikel diesen Monat. Jetzt abonnieren für unbegrenzten Zugriff!