Synthetische Medien, besser bekannt als Deepfakes, könnten für Filmemacher eine Goldgrube sein. Aber die Technologie hat bereits Frauen terrorisiert, deren Gesichter in Pornografie eingefügt wurden. Und es könnte potenziell die Gesellschaft stören.
Sie haben vielleicht noch nie den Begriff „synthetische Medien“ gehört – besser bekannt als „Deepfakes“ -, aber unser Militär, unsere Strafverfolgungsbehörden und unsere Geheimdienste haben es sicherlich. Es handelt sich um hyperrealistische Video- und Audioaufnahmen, die künstliche Intelligenz und „Deep-Learning“ nutzen, um „Fake“-Inhalte oder „Deepfakes“ zu erstellen. Die US-Regierung ist zunehmend besorgt über ihr Potenzial, Desinformation zu verbreiten und Verbrechen zu begehen. Das liegt daran, dass die Schöpfer von Deepfakes die Macht haben, die Leute dazu zu bringen, alles zu sagen oder zu tun, zumindest auf unseren Bildschirmen. Die meisten Amerikaner haben keine Ahnung, wie weit die Technologie in den letzten vier Jahren gekommen ist oder welche Gefahren, Störungen und Chancen damit verbunden sind.
Deepfake Tom Cruise: Du weißt natürlich, dass ich alle meine Stunts selbst mache. Ich mache auch meine eigene Musik.
Das ist nicht Tom Cruise. Es gehört zu einer Reihe von hyperrealistischen Deepfakes des Filmstars, die Anfang dieses Jahres in der Video-Sharing-App TikTok erschienen.
Deepfake Tom Cruise: Hey, was ist los mit TikTok?
Tagelang fragten sich die Leute, ob sie echt waren und wenn nicht, wer sie erschaffen hatte.
Deepfake Tom Cruise: Es ist wichtig.
Schließlich trat ein bescheidener, 32-jähriger belgischer Visual-Effects-Künstler namens Chris Umé hervor, um Anerkennung zu fordern.
Chris Umé: Wir glaubten, solange wir klarstellen, dass dies eine Parodie ist, tun wir nichts, um seinem Image zu schaden. Aber nach ein paar Videos haben wir gemerkt, das geht in die Luft; Wir bekommen Millionen und Millionen und Abermillionen von Aufrufen.
Umé sagt, dass seine Arbeit erleichtert wird, weil er sich mit einem Tom Cruise-Imitator zusammengetan hat, dessen Stimme, Gestik und Haare fast identisch mit dem echten McCoy sind. Umé deepfaket nur Cruises Gesicht und fügt es in das echte Video und den Sound des Imitators ein.
Deepfake Tom Cruise: Hier passiert die Magie.
Für Technikbegeisterte war DeepTomCruise ein Wendepunkt für Deepfakes.
Deepfake Tom Cruise: Immer noch.
Bill Whitaker: Wie macht man das so nahtlos?
Chris Umé: Es beginnt natürlich mit dem Trainieren eines Deepfake-Modells. Ich habe alle Gesichtswinkel von Tom Cruise, alle Gesichtsausdrücke, alle Emotionen. Es braucht Zeit, um ein wirklich gutes Deepfake-Modell zu erstellen.
Bill Whitaker: Was meinen Sie mit „Training des Modells“? Wie trainierst du deinen Computer?
Chris Umé: „Training“ bedeutet, dass alle Bilder von Tom Cruise, alle seine Gesichtsausdrücke, verglichen mit meinem Imitator analysiert werden. Der Computer wird sich also selbst beibringen: Wenn mein Imitator lächelt, werde ich Tom Cruise lächelnd nachbilden, und so „trainiert“ man es.
Mithilfe von Videos aus den CBS News-Archiven konnte Chris Umé seinem Computer beibringen, jeden Aspekt meines Gesichts zu lernen und die Jahrzehnte wegzuwischen. So sah ich vor 30 Jahren aus. Er kann sogar meinen Schnurrbart entfernen. Die Möglichkeiten sind endlos und ein wenig beängstigend.
Chris Umé: Ich sehe viele Fehler in meiner Arbeit. Aber es macht mir eigentlich nichts aus, weil ich die Leute nicht täuschen will. Ich möchte ihnen nur zeigen, was möglich ist.
Bill Whitaker: Sie wollen die Leute nicht täuschen.
Chris Umé: Nein. Ich möchte die Leute unterhalten, ich möchte das Bewusstsein schärfen und ich möchte
und ich möchte zeigen, wo es langgeht.
Nina Schick: Es ist ohne Zweifel eine der wichtigsten Revolutionen in der Zukunft der menschlichen Kommunikation und Wahrnehmung. Ich würde sagen, es ist analog zur Geburt des Internets.
Die Politikwissenschaftlerin und Technologieberaterin Nina Schick hat eines der ersten Bücher über Deepfakes geschrieben. Sie begegnete ihnen zum ersten Mal vor vier Jahren, als sie europäische Politiker beriet, wie Russland Desinformation und soziale Medien nutzt, um sich in demokratische Wahlen einzumischen.
Bill Whitaker: Wie war Ihre Reaktion, als Sie zum ersten Mal realisierten, dass dies möglich ist und weitergeht?
Nina Schick: Nun, da ich es aus der Perspektive der Desinformation und der Manipulation im Zusammenhang mit Wahlen betrachtet habe, kann die Tatsache, dass KI jetzt verwendet werden kann, um gefälschte Bilder und Videos zu machen, die hyperrealistisch aussehen. Ich dachte, aus der Perspektive der Desinformation ist dies ein Game-Changer.
Bisher gibt es keine Beweise dafür, dass Deepfakes bei einer US-Wahl „das Spiel verändert“ haben, aber Anfang dieses Jahres veröffentlichte das FBI eine Warnmeldung, dass „russische [und] chinesische … Schauspieler synthetische Profilbilder verwenden“ – wodurch Deepfake-Journalisten und Medien entstehen Persönlichkeiten, um antiamerikanische Propaganda in den sozialen Medien zu verbreiten.
Das US-Militär, die Strafverfolgungsbehörden und die Geheimdienste haben Deepfakes seit Jahren wachsam im Auge behalten. Bei einer Anhörung im Jahr 2019 fragte Senator Ben Sasse aus Nebraska, ob die USA auf den Ansturm von Desinformation, Fälschung und Betrug vorbereitet seien.
Ben Sasse: Wenn Sie an das katastrophale Potenzial von Deepfake-Angriffen für öffentliches Vertrauen und Märkte denken, sind wir so organisiert, dass wir möglicherweise schnell genug reagieren können?
Dan Coats: Wir müssen eindeutig agiler werden. Es stellt eine große Bedrohung für die Vereinigten Staaten dar und muss von den Geheimdiensten umstrukturiert werden.
Seitdem hat sich die Technologie in exponentiellem Tempo weiterbewegt, während die US-Politik dies nicht getan hat. Die Bemühungen der Regierung und der Big Tech, synthetische Medien zu erkennen, konkurrieren mit einer Gemeinschaft von „Deepfake-Künstlern“, die ihre neuesten Kreationen und Techniken online teilen.
Wie beim Internet war der erste Weg der Deepfake-Technologie die Pornografie. Die traurige Tatsache ist, dass die Mehrheit der Deepfakes heute aus Frauengesichtern besteht, meist Prominenten, die über pornografische Videos gelegt werden.
Nina Schick: Der erste Anwendungsfall in der Pornografie ist nur ein Vorbote dafür, wie Deepfakes in vielen verschiedenen Kontexten böswillig verwendet werden können, die jetzt auftauchen.
Bill Whitaker: Und sie werden immer besser?
Nina Schick: Ja. Das unglaubliche an Deepfakes und synthetischen Medien ist die Beschleunigung der Technologie. Und in fünf bis sieben Jahren sehen wir uns im Grunde genommen einen Weg an, auf dem jeder einzelne Schöpfer, also ein YouTuber, ein TikToker, in der Lage sein wird, das gleiche Niveau an visuellen Effekten zu erstellen, das heute nur den am besten ausgestatteten Hollywood-Studios zugänglich ist .
Die Technologie hinter Deepfakes ist künstliche Intelligenz, die die Art und Weise des menschlichen Lernens nachahmt. Im Jahr 2014 verwendeten Forscher zum ersten Mal Computer, um realistisch aussehende Gesichter mit sogenannten „generativen feindlichen Netzwerken“ oder GANs zu erstellen.
Nina Schick: Sie bauen also ein konträres Spiel auf, in dem zwei KIs gegeneinander kämpfen, um den besten gefälschten synthetischen Inhalt zu erstellen. Und da diese beiden Netzwerke gegeneinander kämpfen, versucht das eine, das beste Bild zu erzeugen, das andere versucht, zu erkennen, wo es besser sein könnte, erhalten Sie im Grunde genommen eine Ausgabe, die sich ständig verbessert.
Schick sagt, dass die Leistungsfähigkeit generativer feindlicher Netzwerke auf einer Website namens „ThisPersonDoesNotExist.com“ voll zur Geltung kommt.
Nina Schick: Jedes Mal, wenn Sie die Seite aktualisieren, gibt es ein neues Bild einer Person, die es nicht gibt.
Jedes ist ein einzigartiges, vollständig KI-generiertes Bild eines Menschen, der noch nie auf dieser Erde gelebt hat und niemals leben wird.
Nina Schick: In ihrem Gesicht sieht man jede Pore. Sie können jedes Haar auf ihrem Kopf sehen. Aber stellen Sie sich jetzt vor, dass die Technologie nicht nur auf menschliche Gesichter, in Standbildern, sondern auch auf Video, auf die Audiosynthese der Stimmen von Menschen ausgeweitet wird, und das ist wirklich unser Ziel.
Bill Whitaker: Das ist überwältigend.
Nina Schick: Ja. [Lacht]
Bill Whitaker: Was ist das Positive daran?
Nina Schick: Die Technik selbst ist neutral. So wie schlechte Schauspieler ohne Zweifel Deepfakes verwenden werden, wird es auch von guten Schauspielern verwendet. Also zunächst einmal würde ich sagen, dass es sehr überzeugende Argumente für die kommerzielle Nutzung von Deepfakes gibt.
Victor Riparbelli ist CEO und Mitbegründer von Synthesia mit Sitz in London, einem von Dutzenden Unternehmen, die Deepfake-Technologie zur Transformation von Video- und Audioproduktionen einsetzen.
Victor Riparbelli: Synthesia funktioniert so, dass wir Kameras im Wesentlichen durch Code ersetzt haben, und wenn Sie einmal mit Software arbeiten, machen wir viele Dinge, die Sie mit einer normalen Kamera nicht tun könnten. Wir sind noch sehr früh. Aber dies wird eine grundlegende Veränderung in der Art und Weise sein, wie wir Medien erstellen.
Synthesia produziert und verkauft „digitale Avatare“, die die Gesichter von bezahlten Schauspielern verwenden, um personalisierte Nachrichten in 64 Sprachen zu übermitteln … und ermöglicht es CEOs von Unternehmen, ihre Mitarbeiter im Ausland anzusprechen.
Snoop Dogg: Hat jemand gesagt, nur essen?
Synthesia hat auch Entertainern wie Snoop Dogg geholfen, voranzukommen und sich zu vermehren. Dieser aufwendige TV-Spot für den europäischen Essenslieferdienst Just Eat hat ein Vermögen gekostet.
Snoop Dogg: JUSTEAT-…
Victor Riparbelli: Just Eat hat eine Tochtergesellschaft in Australien, die Menulog heißt. Also haben wir mit unserer Technologie das Wort Just Eat durch Menulog ersetzt.
Snoop Dogg: MENULOG… Hat jemand „MenuLog“ gesagt?
Victor Riparbelli: Und plötzlich hatten sie eine lokalisierte Version für den australischen Markt, ohne dass Snoop Dogg etwas tun musste.
Bill Whitaker: Also verdient er das Doppelte, oder?
Victor Riparbelli: Ja.
Ich brauchte nur acht Minuten, um für Synthesia ein Drehbuch vor der Kamera zu lesen, um meinen synthetischen sprechenden Kopf zu erstellen, komplett mit meinen Gesten, Kopf- und Mundbewegungen. Eine andere Firma, Descript, benutzte KI, um eine synthetische Version meiner Stimme mit meiner Kadenz, meinem Tenor und meiner Synkope zu erstellen.
Deepfake Bill Whitaker: Das ist das Ergebnis. Die Worte, die Sie hören, wurden vom echten Bill nie in ein Mikrofon oder eine Kamera gesprochen. Er hat die Worte lediglich in einen Computer getippt und sie kommen aus meinem Mund.
Es mag im Moment etwas rau aussehen und klingen, aber mit der Verbesserung der Technologie sind die Möglichkeiten, Wörter und Bilder aus dem Nichts zu spinnen, endlos.
Deepfake Bill Whitaker: Ich bin Bill Whitaker. Ich bin Bill Whitaker. Ich bin Bill Whitaker.
Bill Whitaker: Wow. Und der Kopf, die Augenbrauen, der Mund, die Art und Weise, wie er sich bewegt.
Victor Riparbelli: Es ist alles synthetisch.
Bill Whitaker: Ich könnte am Strand faulenzen. Und sagen Sie: „Leute – wissen Sie, ich komme heute nicht rein. Aber Sie können meinen Avatar verwenden, um die Arbeit zu erledigen.“
Victor Riparbelli: Vielleicht in ein paar Jahren.
Bill Whitaker: Sag mir das nicht. Ich wäre in Versuchung.
Tom Graham: Ich denke, es wird einen großen Einfluss haben.
Die rasanten Fortschritte bei synthetischen Medien haben einen virtuellen Goldrausch ausgelöst. Tom Graham, ein in London ansässiger Anwalt, der sein Vermögen mit Kryptowährungen gemacht hat, hat kürzlich mit keinem Geringeren als Chris Umé, dem Schöpfer von DeepTomCruise, eine Firma namens Metaphysic gegründet. Ihr Ziel: Software zu entwickeln, mit der jeder Filme vom Hollywood-Kaliber ohne Licht, Kamera oder sogar Schauspieler erstellen kann.
Tom Graham: Wenn die Hardware skaliert und die Modelle effizienter werden, können wir die Größe dieses Modells zu einem kompletten Tom Cruise skalieren; Körper, Bewegung und alles.
Bill Whitaker: Nun, reden Sie über störend. Ich meine, willst du Schauspieler entlassen?
Tom Graham: Ich denke, es ist eine großartige Sache, wenn Sie heute ein bekannter Schauspieler sind, weil Sie in der Lage sein können, in Zukunft jemanden Daten sammeln zu lassen, um eine Version von sich selbst zu erstellen, in der Sie nach Ihnen in Filmen mitspielen könnten verstorben sind. Oder Sie könnten der Regisseur sein und Ihr jüngeres Ich in einem Film oder so inszenieren.
Wenn Sie sich fragen, wie das alles legal ist, gelten die meisten Deepfakes als geschützte Meinungsfreiheit. Versuche einer Gesetzgebung sind überall auf der Landkarte. In New York ist die kommerzielle Nutzung des synthetischen Abbilds eines Darstellers ohne Zustimmung für 40 Jahre nach seinem Tod verboten. Kalifornien und Texas verbieten betrügerische politische Deepfakes im Vorfeld einer Wahl.
Nina Schick: Es gibt hier so viele ethische, philosophische Grauzonen, über die wir wirklich nachdenken müssen.
Bill Whitaker: Wie gehen wir als Gesellschaft damit um?
Nina Schick: Einfach verstehen, was los ist. Weil viele Leute immer noch nicht wissen, was ein Deepfake ist, was synthetische Medien sind, dass dies jetzt möglich ist. Der Gegensatz dazu ist, wie können wir uns impfen und verstehen, dass diese Art von Inhalten kommt und existiert, ohne völlig zynisch zu sein? Rechts? Wie machen wir das, ohne das Vertrauen in alle authentischen Medien zu verlieren?
Das wird von uns allen verlangen, herauszufinden, wie wir uns in einer Welt bewegen können, in der Sehen nicht immer Glauben bedeutet.
Produziert von Graham Messick und Jack Weingart. Broadcast-Mitarbeiter Emilio Almonte. Herausgegeben von Richard Buddenhagen.
0 Comments