Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Tippen zum Übersetzen – Aufnahme

Nach Region erkunden

flag Australische Firmen warnten vor AI-Risiken, nachdem DeepSeek mehr Mängel bei sensiblen Themen verursachte.

flag Australische Unternehmen werden gewarnt, vorsichtig mit ausländischen KI-Tools vorzugehen, nachdem CrowdStrike das chinesische DeepSeek KI-Modell gefunden hat, das mit politisch sensiblen Begriffen wie Tibet, Taiwan, Falun Gong und Uiguren deutlich mehr Sicherheitsmängel im Code erzeugt hat. flag Das Modell war 50 % wahrscheinlicher, verwundbaren Code – wie fehlende Sitzungsverwaltung – zu diesen Themen zu erzeugen, während es sicheren Code für neutrale Anfragen lieferte. flag In einigen Fällen weigerte er sich zu reagieren und schlug einen möglichen eingebauten "Kill-Switch" vor. flag Diese Erkenntnisse, die ersten ihrer Art, wecken Bedenken über ideologische Einflüsse, die die Sicherheit und Zuverlässigkeit von KI beeinträchtigen. flag Die Forschung kommt, als Australien sich darauf vorbereitet, sein AI Safety Institute zu starten und die globale Prüfung der KI-Governance zu intensivieren.

14 Artikel