Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Tippen zum Übersetzen – Aufnahme

Nach Region erkunden

flag KI-Sprachbetrügereien, die sich als geliebte Menschen ausgeben, nehmen zu und verleiten 25 % der Menschen dazu, Geld zu verlieren.

flag Im Oktober 2025, KI-powered Stimme Klonen Betrug eskalieren, mit Betrügern mit nur Sekunden Audio zu nachahmen Lieben in dringenden, spät-Nacht Anrufe behaupten Krisen wie Unfälle oder Verhaftungen. flag Eine McAfee-Umfrage ergab, dass 25 % der Menschen auf solche Betrügereien gestoßen sind, und 77 % der Opfer haben Geld verloren, oft Tausende, wobei 70 % die gefälschte Stimme nicht erkennen konnten. flag Experten fordern Familien auf, private Code-Worte zu etablieren und Standort-Tools wie --Find My- oder Life 360 zu verwenden, während sie die Vorbereitung und Verifizierung betonen, um zu vermeiden, Opfer emotional manipulativer, KI-getriebener Betrug zu werden.

6 Artikel