Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Beliebte Themen
Nach Region erkunden
KI-Sprachbetrügereien, die sich als geliebte Menschen ausgeben, nehmen zu und verleiten 25 % der Menschen dazu, Geld zu verlieren.
Im Oktober 2025, KI-powered Stimme Klonen Betrug eskalieren, mit Betrügern mit nur Sekunden Audio zu nachahmen Lieben in dringenden, spät-Nacht Anrufe behaupten Krisen wie Unfälle oder Verhaftungen.
Eine McAfee-Umfrage ergab, dass 25 % der Menschen auf solche Betrügereien gestoßen sind, und 77 % der Opfer haben Geld verloren, oft Tausende, wobei 70 % die gefälschte Stimme nicht erkennen konnten.
Experten fordern Familien auf, private Code-Worte zu etablieren und Standort-Tools wie --Find My- oder Life 360 zu verwenden, während sie die Vorbereitung und Verifizierung betonen, um zu vermeiden, Opfer emotional manipulativer, KI-getriebener Betrug zu werden.
AI voice scams impersonating loved ones are rising, tricking 25% of people into losing money.