9799
Spread the love

Deepfake-Voice-Scams  zielen nun auf Ihr Bankguthaben ab. Betrüger haben damit begonnen, künstliche Intelligenz (KI) zu nutzen, um Stimmen in Echtzeit zu generieren.

 

Clive Kabatznik, ein in Florida ansässiger Investor, erzählte, wie er sich im vergangenen Frühjahr im Zentrum eines High-Tech-Betrugsversuchs befand. Kabatznik rief zweimal seinen örtlichen Bank of America-Vertreter an. Bei seinem ersten Anruf besprach er seinen Plan, eine große Geldsumme zu überweisen, dann rief er erneut an, um das Geld an einen anderen Ort zu überweisen. Nur dass der zweite Anrufer nicht er war.

 

Nach Angaben des Bankiers versuchte der zweite Anrufer, sie zu überreden, Geld auf ein anderes Konto zu überweisen. Allerdings wiederholte sich die Stimme am anderen Ende, unterbrach sie immer wieder und benutzte unverständliche Sätze. Der Bankier beendete den Anruf und meldete das Problem umgehend seinem Sicherheitsteam.

 

Um die Sicherheit des Kontos zu gewährleisten, lehnte der Bankier daraufhin alle Anrufe und E-Mails von Kabatznik ab, ob authentisch oder nicht. Es dauerte ungefähr zehn Tage, bis sie wieder Kontakt aufnahmen und ein Treffen im Büro der Bank of America vereinbarten.

 

Bisher sind die Daten vermögender Kunden im Dark Web weit verbreitet, sodass Betrüger ihre Pläne leichter umsetzen können. Kabatznik, dessen öffentliche Auftritte und Reden online leicht zugänglich sind, macht ihn zu einem perfekten Ziel für diese Art von Deepfake-Betrug. (Verwandt:  Kostenlose KI-Sprachgenerierungssoftware mit simulierten Stimmen erfolgreich in Bankkonten gehackt .)

 

„Es gibt eine Menge Audioinhalte“, erklärte Vijay Balasubramaniyan, CEO und Gründer von Pindrop, einem Unternehmen, das den Audioverkehr großer US-Banken überwacht.

Betrug mit Deepfake-Stimmen nimmt zu

 

Pindrop, ein Unternehmen, das automatische Sprachverifizierungssysteme für acht der größten US-Kreditgeber prüft, meldete einen Anstieg von Deepfake-Voice-Betrügereien, als im Jahr 2022 gefälschte Stimmen auftauchten, die durch KI-Programme erstellt wurden. Nuance, ein weiterer Anbieter von Sprachauthentifizierung, bemerkte dies ebenfalls erster erfolgreicher Deepfake-Angriff auf einen Finanzdienstleistungskunden Ende letzten Jahres.

 

In einem Artikel von  Gadget,  einem persönlichen Technologiemagazin, wird behauptet, Deep-Fake-Technologie sei harmlos, es sei denn, sie gerät in die falschen Hände.

 

Mit fortschreitender Technologie entwickeln sich auch Betrugstechniken weiter. Jetzt können Kriminelle mithilfe generativer KI-Systeme wie Microsofts VALL-E ihre Stimme schnell in die Stimme ihrer Ziele verwandeln. In einigen Fällen können diese Angriffe mit nur wenigen Sekunden gesampeltem Audio ausgeführt werden.

 

Dmitry Anikin, leitender Datenwissenschaftler bei Kaspersky, sagte, dass die Technologie, die zur Herstellung hochwertiger Deepfakes erforderlich ist, derzeit nicht für eine breite Nutzung zugänglich ist. Er sieht jedoch ein mögliches zukünftiges Szenario vor, in dem diese Technologie breiter verfügbar wird, was möglicherweise zu einem erheblichen Anstieg der damit verbundenen betrügerischen Aktivitäten führen wird.

 

Laut Anikin könnten Betrüger versuchen, in Echtzeitsituationen überzeugende Stimmen zu erzeugen, indem sie sich beispielsweise als ein Familienmitglied ausgeben, um es dazu zu bringen, Geld zu verschenken.

 

„Ein solches Szenario ist derzeit nicht realistisch, da die Erstellung hochwertiger Deepfakes viele begrenzte Ressourcen erfordert. Um jedoch minderwertige Audiofälschungen zu erstellen, sind weniger Ressourcen erforderlich“, sagte Anikin.

 

Besuchen Sie  FutureTech.news  für weitere Neuigkeiten zu Plattformen mit künstlicher Intelligenz.


Like it? Share with your friends!

9799
freeworldnews

0 Comments

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Translate »