Einem beunruhigenden Bericht der New York Times zufolge hat das Biden-Regime neue „Killer-KI“-Roboter vorgestellt, die selbstständig entscheiden können, ob menschliche Ziele getötet werden sollen .
Länder wie die Vereinigten Staaten, China und Israel entwickeln eine tödliche KI, die die Macht erhalten soll, Bürger ohne menschliche Zustimmung zu töten, stellte die Times fest.
Kritikern zufolge wäre der Einsatz von „Killerrobotern“ eine dystopische Entwicklung, bei der Entscheidungen über Leben und Tod auf dem Schlachtfeld seelenlosen Maschinen ohne Empathie anvertraut würden.
Thepoliticsbrief.com berichtet: Mehrere Länder drängen die Vereinten Nationen auf eine verbindliche Resolution, die den Einsatz von KI-Killerdrohnen verbietet. Die USA gehören jedoch zu einer Handvoll Nationen, darunter Russland, Australien und Israel, die sich gegen einen solchen Schritt aussprechen.
„Dies ist wirklich einer der bedeutendsten Wendepunkte für die Menschheit“, sagte Alexander Kmentt, Österreichs Chefunterhändler in dieser Angelegenheit, in einem Interview. „Welche Rolle spielen Menschen bei der Anwendung von Gewalt – es ist eine absolut grundlegende Sicherheitsfrage, eine rechtliche Frage und eine ethische Frage.“
Laut einer Anfang des Jahres veröffentlichten Mitteilung arbeitet das Pentagon daran, Schwärme von Tausenden KI-gestützten Drohnen einzusetzen.
In einer Ansprache im August erklärte die stellvertretende US-Verteidigungsministerin Kathleen Hicks, dass Technologien wie KI-gesteuerte Drohnenschwärme es den USA ermöglichen werden, die zahlenmäßige Überlegenheit der chinesischen Befreiungsarmee (PLA) bei Waffen und Arbeitskräften auszugleichen.
„Wir werden der Masse der Volksbefreiungsarmee mit unserer eigenen Masse begegnen, aber unsere wird schwerer zu planen, schwerer zu treffen und schwerer zu besiegen sein“, sagte sie, berichtete Reuters.
Der Sekretär der Air Force, Frank Kendall, sagte gegenüber The Times, dass KI-Drohnen in der Lage sein müssen, unter menschlicher Aufsicht tödliche Entscheidungen zu treffen.
„ Individuelle Entscheidungen statt keine individuellen Entscheidungen zu treffen, ist der Unterschied zwischen Gewinnen und Verlieren – und Sie werden nicht verlieren “ , sagte er.
„Ich glaube nicht, dass die Leute, gegen die wir antreten würden, das tun würden, und es würde ihnen einen riesigen Vorteil verschaffen, wenn wir uns selbst diese Einschränkung auferlegen würden .“
Laut The New Scientist setzte die Ukraine in ihrem Konflikt mit Russland im Oktober KI-gesteuerte Drohnen ein, obwohl nicht bekannt ist, ob die Drohnen menschliche Verluste verursachten.
Stuart Russell, ein leitender KI-Wissenschaftler an der University of California, Berkeley, und andere werden das Video am Montag während einer Veranstaltung der Campaign to Stop Killer Robots im Rahmen des Übereinkommens der Vereinten Nationen über konventionelle Waffen zeigen.
Die Kampagne warnt: „Maschinen sehen uns nicht als Menschen, sondern nur als weiteren Code, der verarbeitet und sortiert werden muss.“ Von Smart Homes bis zum Einsatz von Roboterhunden durch die Polizei spielen KI-Technologien und automatisierte Entscheidungsfindung mittlerweile eine wichtige Rolle in unserem Leben. Am äußersten Ende des Spektrums der Automatisierung liegen Killerroboter.“
„Killerroboter tauchen nicht einfach auf – wir erschaffen sie“, fügte die Kampagne hinzu. „Wenn wir diese Entmenschlichung zulassen, werden wir Schwierigkeiten haben, uns in anderen Bereichen unseres Lebens vor maschinellen Entscheidungen zu schützen. Wir müssen autonome Waffensysteme verbieten, die gegen Menschen eingesetzt würden, um dieses Abgleiten in die digitale Entmenschlichung zu verhindern.“
Die Entwicklung und der Einsatz autonomer Waffen wie Drohnen, Panzer und automatische Maschinengewehre wären laut Russell katastrophal für die Sicherheit und Freiheit der Menschen, und die Zeit, ihre Entwicklung zu stoppen, schließt sich rasch.
„Die im Film dargestellte Technologie ist lediglich eine Integration bestehender Fähigkeiten. Es ist keine Science-Fiction. Tatsächlich ist es einfacher zu erreichen als selbstfahrende Autos, die weitaus höhere Leistungsstandards erfordern“, sagte Russell.
Die Kampagne zum Verbot von Killerrobotern weist auch darauf hin, dass KI-betriebene Maschinen „relativ billig in der Herstellung sind und Kritiker befürchten, dass autonome Waffen in Massenproduktion hergestellt werden und in die Hände von Schurkenstaaten oder Terroristen fallen könnten, die sie zur Unterdrückung der Bevölkerung und zur Verwüstung einsetzen könnten.“ Chaos, wie der Film darstellt.“
„Ein Vertrag zum Verbot autonomer Waffen würde die Herstellung dieser Technologie in großem Maßstab verhindern“, stellt BKR fest. „Es würde auch einen Rahmen für Polizeinationen bieten, die an der Technologie und der Verbreitung von Geräten und Software mit doppeltem Verwendungszweck wie Quadcoptern und Zielerkennungsalgorithmen arbeiten.“
„Berufliche Ethikkodizes sollten auch die Entwicklung von Maschinen verbieten, die entscheiden können, einen Menschen zu töten“, sagte Russell.
In einer Folge von „Black Mirror“ aus dem Jahr 2017 durchstreifen Killerroboterhunde die Erde und verfolgen unermüdlich Menschen, die von den Drohnen als „Bedrohung“ erkannt werden.
Der Schöpfer der denkwürdigen Episode, Charlie Brooker, erläuterte in einem Interview mit Entertainment Weekly seine Gedanken hinter seiner Vision einer Robopokalypse.
Brooker wurde nach seiner Inspiration für die Geschichte gefragt, die der Interviewer als eine Mischung aus „Boston Dynamics-Videos auf YouTube gekreuzt mit Night of the Living Dead“ bezeichnete.
„Das ist tatsächlich erschreckend richtig“, sagte Brooker. „Es kam vom Ansehen von Boston Dynamics-Videos, aber gekreuzt mit – Haben Sie den Film All Is Lost gesehen ?“ Ich wollte eine Geschichte machen, in der es fast keinen Dialog gibt. Und bei diesen Videos ist es etwas sehr Gruseliges, ihnen dabei zuzusehen, wie sie umgeworfen werden, und sie sehen irgendwie erbärmlich aus, wenn sie da liegen, aber dann schaffen sie es langsam, wieder aufzustehen.“
Letzte Woche setzte die Polizei von Los Angeles tatsächlich einen Roboterhund ein, um eine bewaffnete Pattsituation zu beenden.
Ein SWAT-Truppmitglied steuerte den Roboter fern, als er sich dem Bus näherte und durch den Eingang eintrat. Anschließend wanderte es durch den Bus und übermittelte den Beamten Live-Videoübertragungen.
Der Lautsprecher des Roboters wurde auch genutzt, um mit dem Mann zu sprechen und ihn zur Kapitulation zu ermutigen. Nach etwa einer Stunde und 45 Minuten wachte der Mann auf und verließ den Bus, wo er von der Polizei festgenommen wurde.
Auch bei Flugdrohnen kommt künstliche Intelligenz zum Einsatz. DroneSense ist eine Drohnen-Softwareplattform für die öffentliche Sicherheit, die von Drohnen gesammelte Rohdaten in verwertbare Informationen für Polizei, Feuerwehr und anderes Notfallpersonal umwandelt. Das DroneSense OpsCenter ermöglicht es mehreren Drohnenbenutzern, zusammenzuarbeiten, zu untersuchen, was jede Drohne beobachtet, und sogar die Flugbahn einer Drohne in Echtzeit zu verfolgen.
Hunderte von Teams haben die DroneSense-Plattform für öffentliche Sicherheit genutzt, um eine Reihe von Situationen der öffentlichen Sicherheit zu bewältigen. Das KI-gestützte Programm hilft SWAT-Teams dabei, Informationen zum Tatort zu sammeln, Schäden nach Stürmen und Tornados zu analysieren und nutzt sogar Wärmebilder, um vermisste Personen zu identifizieren.
Neurala ist ein Deep-Learning-Neuronales Netzwerk, das Drohnen dabei unterstützt, in Menschenmengen nach interessanten Personen zu suchen und diese zu identifizieren. Es kann auch riesige Industrieanlagen wie Telefonmasten überprüfen und in Echtzeit einen Schadensbericht erstellen. Das Startup gibt an, dass seine KI-gestützte Software nur 20 Minuten benötigt, um das Bild einer Person zu erfassen und Menschenmengen nach einer Person zu durchsuchen, und nicht die branchenüblichen Stunden oder Tage.
Scale nutzt KI und maschinelles Lernen, um das Training von Drohnen für Luftbildaufnahmen zu unterstützen. Software für maschinelles Lernen unterstützt Drohnen dabei, alles zu identifizieren, zu kennzeichnen und zu kartieren, von Wohnhäusern in einer Gemeinde bis hin zu bestimmten Objekten wie Fahrzeugen.
AeroVironment stellt autonome, KI-gestützte Militärdrohnen her. Die Drohnen des Unternehmens reichen von einem drei Fuß langen, unentdeckten Spionageflugzeug bis hin zur Switchblade, die mit einer präzisen Angriffsnutzlast für militärische Einsätze ausgestattet ist.
Aerovironment stellt eine Vielzahl von KI-betriebenen Drohnen für verschiedene militärische Anwendungen her. UAVs des Unternehmens werden auch in der Landwirtschaft eingesetzt, um Feldflächen zu kartieren, Gesundheitsprobleme bei Nutzpflanzen zu erkennen und Bewässerungsschwierigkeiten einzuschätzen.
Während künstliche Intelligenz offensichtlich ein nützliches Werkzeug ist, das der Menschheit enormen Nutzen bringen kann, ist sie auch eine gefährliche Waffe, mit der einer Bevölkerung ein totalitäres Regime aufgezwungen werden kann.
Während Atomwaffen die existenzielle Bedrohung für die Menschheit darstellten, die im Kalten Krieg eingedämmt werden musste, ist künstliche Intelligenz nun die aufkommende Bedrohung im Informationszeitalter.
Es bedarf eines wachsenden Bewusstseins für die Vor- und Nachteile von KI sowie der Entwicklung neuer Institutionen zur Gewährleistung von Transparenz und Rechenschaftspflicht, um zu verhindern, dass KI von Politikern missbraucht wird, um der Menschheit repressive Regime aufzuzwingen.
0 Comments