Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Beliebte Themen
Nach Region erkunden
Australische Firmen warnten vor AI-Risiken, nachdem DeepSeek mehr Mängel bei sensiblen Themen verursachte.
Australische Unternehmen werden gewarnt, vorsichtig mit ausländischen KI-Tools vorzugehen, nachdem CrowdStrike das chinesische DeepSeek KI-Modell gefunden hat, das mit politisch sensiblen Begriffen wie Tibet, Taiwan, Falun Gong und Uiguren deutlich mehr Sicherheitsmängel im Code erzeugt hat.
Das Modell war 50 % wahrscheinlicher, verwundbaren Code – wie fehlende Sitzungsverwaltung – zu diesen Themen zu erzeugen, während es sicheren Code für neutrale Anfragen lieferte.
In einigen Fällen weigerte er sich zu reagieren und schlug einen möglichen eingebauten "Kill-Switch" vor.
Diese Erkenntnisse, die ersten ihrer Art, wecken Bedenken über ideologische Einflüsse, die die Sicherheit und Zuverlässigkeit von KI beeinträchtigen.
Die Forschung kommt, als Australien sich darauf vorbereitet, sein AI Safety Institute zu starten und die globale Prüfung der KI-Governance zu intensivieren.
Australian firms warned on AI risks after DeepSeek generated more flaws on sensitive topics.