Der beliebte Chatbot mit künstlicher Intelligenz, ChatGPT, löscht die Daten von Menschen aus ihren Gesprächen mit dem Programm ohne deren Zustimmung – ein Schritt, der dazu führen könnte, dass der Chatbot in der gesamten Europäischen Union verboten wird.
Dies ist nach Angaben der italienischen Datenschutzbehörde Garante, die sagte, dass ChatGPT Daten auf eine Weise sammelt, die mit italienischen und europäischen Datenschutzgesetzen nicht vereinbar ist. Dies geschieht etwa einen Monat, nachdem Italien ChatGPT verboten hat und damit das erste Land in der westlichen Welt ist, das den fortschrittlichen Chatbot wegen Datenschutzproblemen blockiert. (Verwandte: Italien verbietet ChatGPT wegen Datenschutzbedenken .)
Laut Garante hat ChatGPT die Namen und E-Mail-Adressen von Personen ausgelesen und diese Daten ohne deren Zustimmung verwendet . Die Datenschutzbehörde gab OpenAI, dem Eigentümer von ChatGPT, bis zum 30. April Zeit, um dem Gesetz nachzukommen. Zu diesem Zweck legte Italien mehrere Anforderungen an OpenAI fest , um den Chatbot weiter zu betreiben.
Erstens muss OpenAI eine Informationsmitteilung veröffentlichen, in der detailliert beschrieben wird, wie es Daten kratzt und verarbeitet. Zweitens muss ChatGPT einen Altersüberprüfungsprozess erstellen, um zu verhindern, dass Minderjährige auf den Chatbot zugreifen. drittens muss ChatGPT hinreichend nachweisen, dass der Chatbot ein „berechtigtes Interesse“ an der Verarbeitung von Personendaten hat; und viertens muss OpenAI eine lokale Sensibilisierungskampagne durchführen, um die Italiener ordnungsgemäß darüber zu informieren, wie ChatGPT ihre Daten verwendet, und den Benutzern im Land Möglichkeiten bieten, Fehler zu korrigieren, die der Chatbot aufschreibt, und ihre Daten löschen zu lassen, wenn sie dies wünschen und möchten widersprechen, dass der Chatbot ihre Daten verwendet.
Wenn OpenAI Garante bis zum 30. April nicht antwortet, zahlt es eine Geldstrafe von 20 Millionen Euro (21,94 Millionen US-Dollar) oder bis zu vier Prozent des Jahresumsatzes des Unternehmens, was bedeutet, dass das Unternehmen bis zu 40 Millionen US-Dollar zahlen könnte .
Das ChatGPT-Verbot könnte sich über ganz Europa ausbreiten – und den Rest der Welt
Alle Augen sind nun auf die Argumente von OpenAI gegenüber den italienischen Datenschutzbehörden gerichtet. Wenn das Unternehmen Garante nicht davon überzeugen kann, dass seine Datennutzungspraktiken legal sind, könnte dies zu einem Dominoeffekt führen. Die Durchsetzung der Allgemeinen Datenschutzverordnung der Europäischen Union, des weltweit strengsten Datenschutzgesetzes, könnte das Verbot von ChatGPT in mehreren anderen europäischen Ländern bedeuten.
Datenschutzbehörden in Frankreich und Irland haben sich bereits an ihre Kollegen in Italien gewandt, um mehr Einblick in die Gründe der Nation für ihr Verbot von ChatGPT zu erhalten.
„Wir werden in dieser Angelegenheit mit allen EU-Datenschutzbehörden zusammenarbeiten“, sagte ein Sprecher der irischen Datenschutzkommission.
In Deutschland hat die Bundeskommission für Datenschutz und Informationsfreiheit Bedenken hinsichtlich der Datensicherheit geäußert und angedeutet, dass das Land eigene Beschränkungen für ChatGPT erlassen könnte.
Der Europäische Datenschutzausschuss der EU hat bereits eine Task Force zur Untersuchung von ChatGPT eingerichtet , ein wichtiger erster Schritt für den Block zur Schaffung einer gemeinsamen kontinentweiten Richtlinie zur Festlegung von Datenschutzregeln für künstliche Intelligenz. Die Task Force wurde nach einer Anfrage von Spaniens eigener Datenschutzbehörde für eine Art blockweite Intervention eingerichtet.
Die Auswirkungen des Data Scraping von ChatGPT können sich auch außerhalb der Europäischen Union erstrecken. In Lateinamerika hat beispielsweise der Senat von Brasilien die Verabschiedung von Maßnahmen zum Schutz der Bürgerrechte und zur Festlegung geeigneter Maßnahmen zur Information von Personen empfohlen, wenn sie mit KI-Systemen interagieren. Der Vorschlag enthält Bestimmungen zum Schutz personenbezogener Daten und zur Einführung von Antidiskriminierungssystemen.
0 Comments