Laut einem neuen UCL-Bericht wurden gefälschte Audio- oder Videoinhalte von Experten als der besorgniserregendste Einsatz künstlicher Intelligenz im Hinblick auf ihre potenziellen Anwendungen für Kriminalität oder Terrorismus eingestuft.
Die Studie, die in Crime Science veröffentlicht und vom Dawes Center for Future Crime an der UCL finanziert wurde (und als Policy Briefing verfügbar ist), identifizierte 20 Möglichkeiten, wie KI zur Erleichterung der Kriminalität in den nächsten 15 Jahren eingesetzt werden kann. Diese wurden in der Reihenfolge ihrer Besorgnis eingestuft – basierend auf dem Schaden, den sie verursachen könnten, dem Potenzial für kriminellen Gewinn oder Gewinn, wie einfach sie durchzuführen wären und wie schwierig es wäre, sie zu stoppen.
Die Autoren sagten, dass gefälschte Inhalte schwer zu erkennen und zu stoppen seien und dass sie eine Vielzahl von Zielen haben könnten – von der Diskreditierung einer öffentlichen Person bis zur Gewinnung von Geldern, indem sie sich in einem Videoanruf als Sohn oder Tochter eines Paares ausgeben. Solche Inhalte könnten zu einem weit verbreiteten Misstrauen gegenüber audiovisuellen Beweisen führen, was selbst einen gesellschaftlichen Schaden bedeuten würde.
Bildnachweis: IFLA / Wikimedia Commons
Abgesehen von gefälschten Inhalten wurden fünf weitere AI-fähige Verbrechen als äußerst besorgniserregend eingestuft. Diese verwendeten fahrerlose Fahrzeuge als Waffen, halfen dabei, maßgeschneiderte Phishing-Nachrichten (Spear Phishing) zu erstellen, AI-gesteuerte Systeme zu stören, Online-Informationen für Zwecke der groß angelegten Erpressung zu sammeln und von AI verfasste gefälschte Nachrichten.
Der leitende Autor Professor Lewis Griffin (UCL Computer Science) sagte: „Mit der Erweiterung der Möglichkeiten von KI-basierten Technologien steigt auch das Potenzial für kriminelle Ausbeutung. Um uns angemessen auf mögliche KI-Bedrohungen vorzubereiten, müssen wir herausfinden, um welche Bedrohungen es sich handelt. und wie sie unser Leben beeinflussen können. „
Die Forscher stellten die 20 KI-fähigen Verbrechen aus wissenschaftlichen Veröffentlichungen, Berichten über Nachrichten und aktuelle Angelegenheiten sowie Fiktion und Populärkultur zusammen. Anschließend versammelten sie 31 Personen mit Fachkenntnissen in KI für zwei Tage Diskussionen, um die Schwere der potenziellen Verbrechen zu bewerten. Die Teilnehmer kamen aus Wissenschaft, Privatwirtschaft, Polizei, Regierung und staatlichen Sicherheitsbehörden.
Zu den mittelschweren Straftaten gehörte der Verkauf von Gegenständen und Dienstleistungen, die betrügerisch als „KI“ gekennzeichnet waren, wie Sicherheitsüberprüfungen und gezielte Werbung. Diese wären mit potenziell hohen Gewinnen leicht zu erreichen.
Zu den wenig besorgniserregenden Verbrechen gehörten Einbrecher-Bots – kleine Roboter, mit denen über Zugangspunkte wie Briefkästen oder Katzenklappen Zugang zu Immobilien erlangt wurde -, die als leicht zu besiegen eingestuft wurden, beispielsweise durch Briefkäfigkäfige, und AI-gestütztes Stalking extrem schädlich für Einzelpersonen, konnte nicht in großem Maßstab arbeiten.
Der Erstautor Dr. Matthew Caldwell (UCL Computer Science) sagte: „Menschen führen heute einen großen Teil ihres Lebens online und ihre Online-Aktivitäten können Reputationen aufbauen und zerstören. Eine solche Online-Umgebung, in der Daten Eigentum und Informationskraft sind, eignet sich ideal für die Nutzung durch AI-basierte kriminelle Aktivitäten.
„Im Gegensatz zu vielen traditionellen Verbrechen können Verbrechen im digitalen Bereich leicht geteilt, wiederholt und sogar verkauft werden, so dass kriminelle Techniken vermarktet und Kriminalität als Dienstleistung erbracht werden kann. Dies bedeutet, dass Kriminelle möglicherweise die schwierigeren Aspekte auslagern können ihres AI-basierten Verbrechens. „
Professor Shane Johnson, Direktor des Dawes-Zentrums für zukünftige Verbrechen an der UCL, das die Studie finanzierte, sagte: „Wir leben in einer sich ständig verändernden Welt, die neue Möglichkeiten schafft – gut und schlecht. Daher ist es unerlässlich, dass wir zukünftige Kriminalität antizipieren Bedrohungen, damit politische Entscheidungsträger und andere Akteure mit Handlungskompetenz dies tun können, bevor neue „Kriminalitätsernten“ stattfinden.
Ein paar Beispiele :
Kontakte und Quellen:
Chris LaneUniversity College London
Quelle :https://www.ineffableisland.com/2020/08/deepfakes-ranked-as-most-serious-ai.html
0 Comments