Künstliche Intelligenz kann nicht nur für gute, sondern auch für kriminelle Zwecke eingesetzt werden, zum Beispiel gefälschte Persönlichkeiten schaffen, Deepfakes bilden und bewusst falsche Informationen verbreiten.
Gefälschte Stimmen
In modernen elektronischen Systemen wird Sprache häufig verwendet, um die Identität einer Person zu bestätigen, beispielsweise in den automatisierten Kundendienstdiensten der großen Banken Morgan Chase und HSBC. Über Sprache wird der Zugriff auf intelligente Assistenten wie Amazon Alexa und Google Home konfiguriert. Aber diese Technologie ist alles andere als sicher, denn KI kann die Klangfarbe jeder Person mit hoher Genauigkeit nachahmen.
Das Wall Street Journal veröffentlichte einen Artikel über Betrüger, die mit Hilfe eines neuronalen Netzes den Chef eines britischen Unternehmens dazu zwangen, 220.000 Euro auf sein Konto zu überweisen. Diese Stimme ordnete die dringende Zahlung des Geldes an einen bestimmten ungarischen Lieferanten an. Der betrogene Manager behauptete später, den deutschen Chef an seinem markanten Akzent und Timbre identifiziert zu haben.
Forscher der University of Chicago in den USA testeten, ob es schwierig war, ein solches neuronales Netzwerk zu entwickeln, und veröffentlichten später die Ergebnisse der Studie. Sie kamen zu dem Schluss, dass dies möglich ist, indem man eine Aufnahme der Originalstimme der „Köder“-Person hat und Zugang zu neuronalen Netzen hat, mit deren Hilfe Sprache so synthetisiert wird, dass die Stimme die notwendigen Sätze.
Die Wissenschaftler nutzten Aufnahmen von 90 Personenstimmen aus öffentlichen Datenbanken und stellten dann mithilfe der offenen neuronalen Netze SV2TTS und AutoVC falsche Reden zusammen. Ihnen zufolge konnten die gefälschten Stimmen die Schutzsysteme Resemblyzer und Microsoft Azure austricksen. Die Forscher versuchten auch, WeChat und Amazon Alexa zu umgehen, indem sie 14 Freiwillige baten, sich mit synthetisierten Stimmen in ihre Konten einzuloggen. Infolgedessen „glaubte“ Alexa allen Aufzeichnungen und WeChat – 9 von 14.
Das Experiment, an dem 200 Freiwillige teilnahmen, zeigte, dass Menschen nur in 50% der Fälle echte Gesprächspartner von „künstlichen“ unterscheiden können.
Täuschung von Gesichtserkennungssystemen
Gesichtserkennungstechnologie wird seit langem verwendet, um Personen zu finden, ihre Identität zu bestätigen oder Smartphones zu entsperren. Experten der Universität Tel Aviv testeten die Zuverlässigkeit, indem sie das neuronale Netzwerk StyleGAN trainierten, um „Masterschlüssel“-Images zu erstellen, um moderne Systeme zu täuschen. Sie gaben der KI Zugriff auf die öffentliche Datenbank Labeled Faces in the Wild (LFW) des MIT.
Das neuronale Netz hat Bilder von „neutralen“ Gesichtern auf der Grundlage von 13 Tausend Fotografien zusammengestellt. Es stellte sich heraus, dass diese künstlichen Gesichter in der Lage sind, drei Erkennungssysteme zu täuschen – Dlib, FaceNet und SphereFace. Für jeden von ihnen wurden 9 „Hauptschlüssel“ aufgebracht, und dann wurden den Systemen die echten Gesichter aus der LFW-Datenbank gezeigt. Als Ergebnis lag Dlib in 63,92 % der Fälle falsch, FaceNet – in 43,82 %, SphereFace – in 44,15 %. Somit können nur 9 „Hauptschlüssel“ ausreichen, um Systeme zu hacken.
Umgehung von Sicherheitssystemen
Eine andere Gruppe von Wissenschaftlern der Ben-Gurion-Universität (Israel) und der NEC Corporation testete, ob es möglich ist, das echte Gesicht so zu verändern, dass es kein Sicherheitssystem erkennt. Das neuronale Netz ermittelte die Teile des Gesichts, an denen Erkennungssysteme am häufigsten „kleben“, und nahm dann ein Make-up auf, das half, sie zu verbergen. Dazu untersuchte der Algorithmus Fotos einer bestimmten Person und anderer Personen eines ähnlichen Typs, erstellte eine sogenannte Gesichtskarte, notierte die charakteristischen Merkmale und erstellte anschließend eine virtuelle Kopie, auf der die Wissenschaftler Make-up auftrugen. Sie zeigten dem Sicherheitssystem das fertige Bild, bis es die Person nicht mehr erkannte. Der letzte Schritt besteht darin, ein ähnliches Make-up auf das Gesicht des Freiwilligen aufzutragen.
Diese Methode wurde später an 10 Männern und 10 Frauen getestet, indem ihre Gesichter unter dem Make-up auf dem ArcFace-System gezeigt wurden. Wie im Artikel erwähnt, konnte der Algorithmus verkleidete Teilnehmer des Experiments nur in 1,22% der Fälle erkennen, ein großer Unterschied zu 47,5 % ohne Make-up und 33,7 % mit normalem Make-up. Mit anderen Worten, das neuronale Netz ermöglichte es, Menschen in 99% der Fälle unerkannt zu lassen. Wissenschaftler betonten, dass ein solches Make-up nicht nur Kameras, sondern auch echte Menschen in die Irre führt.
Deepfakes, die den „Krieg“ der Maschinen entfesselten
Deepfake ist ein gefälschtes Bild, das von einem neuronalen Netzwerk basierend auf Deep-Learning-Algorithmen generiert wird. 2019 wurde eine Abgeordnete des US-Repräsentantenhauses Nancy Pelosi Opfer der Technik – künstliche Intelligenz verarbeitete das Video so, dass die Politikerin betrunken wirkte.
Im selben Jahr kündigte der Gründer von Meta (Ex-Facebook) Mark Zuckerberg einen Wettbewerb zur Entwicklung neuronaler Netze an, die Deepfakes erkennen, und versprach eine Belohnung von 10 Millionen Dollar.Und während einige Entwickler versuchen, ideale „Tricks“ zu entwickeln. , andere suchen nach neuen Methoden, um sie zu bekämpfen.
IT-Spezialisten der University of California in San Diego haben ein neuronales Netzwerk geschaffen , das Deepfake-Detektoren austrickst, um die Fähigkeiten von Angreifern einzuschätzen. Es bettet spezielle Hintergrundgeräusche in das bearbeitete Video ein, wodurch die Systeme die Aufnahme als Original erkennen. Natürlich haben die Entwickler nicht alle Geheimnisse ihrer Technologie gelüftet.
Sie betrachteten zwei Szenarien: wenn die Ersteller von Deepfakes vollständige Informationen über die Detektoren haben und wenn nur die Art des maschinellen Lernens bekannt ist. Im ersten Fall konnte das neuronale Netz die „Verteidiger“ mit 99 % der unkomprimierten Videos und 84,96 % der komprimierten Videos täuschen, im zweiten Fall 86,43 % bzw. 78,33 %. Basierend auf den Ergebnissen der Studie rieten Programmierer zu einer Trainingsmethode, bei der „Cheater“ und „Whistleblower“ gegeneinander antreten.
Zuvor schrieben sie, dass Elon Musk eine künstliche Intelligenz geschaffen hat, die das Gehirn „nachahmen“ kann . Das neuronale Netz GPT-3 hat gelernt, menschliche Sprache nicht schlechter wahrzunehmen als echte Menschen.
0 Comments