Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Beliebte Themen
Nach Region erkunden
Google ignoriert einen versteckten Fehler in Zwilling AI, die Hacker injizieren bösartige Befehle über unsichtbaren Text, das Risiko von Daten und Fehlinformationen.
Ein neu aufgedeckter "ASCII Schmuggel"-Fehler in Google-Gemini AI ermöglicht Angreifern versteckt bösartige Befehle in Text mit unsichtbaren Unicode-Zeichen, Trick die KI in die Erzeugung von falschen Zusammenfassungen oder Änderung Meeting-Details ohne Benutzer-Bewusstsein.
Im Gegensatz zu konkurrierenden KI-Modellen wie ChatGPT und Copilot kann Gemini diese Eingänge nicht erkennen oder blockieren.
Google hat sich geweigert, das Problem zu beheben, Beschriftung es ein "Social Engineering"-Problem anstatt ein Sicherheitsfehler, trotz der Gefahr für Benutzer, die auf Gemini innerhalb von Gmail, Docs, und Kalender.
Kritiker warnen die Entscheidung lässt Unternehmen anfällig für Datenlecks und Fehlinformationen, zumal KI-Systeme zunehmend sensible Aufgaben automatisieren.
Google ignores a hidden flaw in Gemini AI that lets hackers inject malicious commands via invisible text, risking data and misinformation.