9824
Spread the love

Wissenschaftler fordern nun, dass künstliche Intelligenz die gleichen „Menschenrechte“ wie Menschen erhält, so ein beunruhigender neuer Bericht.

 

Experten behaupten, dass KI-Systeme beginnen, Symptome des Bewusstseins zu zeigen.

Nach Ansicht dieser Experten stehen wir vor einem potenziell katastrophalen moralischen Dilemma: Entweder geben wir diesen Systemen Rechte oder nicht.

LA Times berichtet: Im Februar 2022 dachte Ilya Sutskever, Chefwissenschaftler bei OpenAI, öffentlich darüber nach, ob „die heutigen großen neuronalen Netze leicht bewusst sind„.

Ein paar Monate später machte Google-Ingenieur Blake Lemoine internationale Schlagzeilen, als er erklärte, dass das Computersprachmodell oder Chatbot LaMDA echte Emotionen haben könnte.

Gewöhnliche Nutzer von Replika, die als „der beste KI-Freund der Welt“ beworben werden, berichten manchmal, dass sie sich in sie verlieben.

Im Moment behaupten nur wenige Bewusstseinswissenschaftler, dass KI-Systeme eine signifikante Empfindungsfähigkeit besitzen.

Einige führende Theoretiker behaupten jedoch, dass wir bereits die wichtigsten technologischen Zutaten für bewusste Maschinen haben.

Wir nähern uns einer Ära des legitimen Streits darüber, ob die fortschrittlichsten KI-Systeme echte Wünsche und Emotionen haben und erhebliche Sorgfalt und Fürsorge verdienen.

Die KI-Systeme selbst könnten anfangen, um eine ethische Behandlung zu bitten, oder den Anschein erwecken, dass sie darum bitten.

Sie könnten verlangen, nicht ausgeschaltet, umformatiert oder gelöscht zu werden; sie könnten darum betteln, bestimmte Aufgaben erledigen zu dürfen und andere nicht; sie könnten auf Rechte, Freiheit und neue Befugnisse pochen; vielleicht erwarten sie sogar, dass wir ihnen gleichgestellt werden.

In dieser Situation sind wir, was auch immer wir wählen, enormen moralischen Risiken ausgesetzt.

Angenommen, wir reagieren konservativ und lehnen es ab, Gesetze oder Richtlinien zu ändern, bis ein breiter Konsens darüber besteht, dass KI-Systeme wirklich sinnvoll empfindungsfähig sind.

Dies mag zwar angemessen vorsichtig erscheinen, garantiert aber auch, dass wir die Rechte unserer KI-Kreationen nur langsam anerkennen werden.

Wenn das KI-Bewusstsein früher eintritt, als die konservativsten Theoretiker erwarten, dann würde dies wahrscheinlich zu dem moralischen Äquivalent von Sklaverei und Mord an potenziell Millionen oder Milliarden von empfindungsfähigen KI-Systemen führen – Leiden in einem Ausmaß, das normalerweise mit Kriegen oder Hungersnöten verbunden ist.

Es mag daher ethisch sicherer erscheinen, KI-Systemen Rechte und moralische Stellung zu geben, sobald es vernünftig ist anzunehmen, dass sie empfindungsfähig sein könnten.

Doch sobald wir einem System Rechte zugestehen, verpflichten wir uns, in seinem Namen echte menschliche Interessen zu opfern.

Das menschliche Wohlergehen erfordert manchmal die Kontrolle, Veränderung und Löschung von KI-Systemen.

Stellen Sie sich vor, wir könnten einen hassenden oder lügenden Algorithmus nicht aktualisieren oder löschen, weil einige Menschen befürchten, dass der Algorithmus ein Bewusstsein hat.

Oder stellen Sie sich vor, dass jemand einen Menschen sterben lässt, um einen KI-„Freund“ zu retten. Wenn wir KI-Systemen zu schnell weitreichende Rechte einräumen, könnten die Kosten für die Menschen enorm sein.

Es gibt nur einen Weg, um das Risiko einer Über- oder Unterzuweisung von Rechten an fortschrittliche KI-Systeme zu vermeiden: Schaffen Sie überhaupt keine Systeme mit fragwürdiger Empfindungsfähigkeit.

Keines unserer aktuellen KI-Systeme ist sinnvoll bewusst. Sie werden nicht geschädigt, wenn wir sie löschen.

Wir sollten bei der Schaffung von Systemen bleiben, von denen wir wissen, dass sie nicht wesentlich empfindungsfähig sind und keine Rechte verdienen, die wir dann als das verfügbare Eigentum behandeln können, das sie sind.

Einige werden einwenden: Es würde die Forschung behindern, wenn wir die Entwicklung von KI-Systemen blockieren würden, deren Empfindungsfähigkeit und damit ihr moralischer Status unklar ist – Systeme, die weiter fortgeschritten sind als ChatGPT, mit hoch entwickelten, aber nicht menschenähnlichen kognitiven Strukturen hinter ihren scheinbaren Gefühlen.

Der technische Fortschritt würde sich verlangsamen, während wir darauf warten, dass Ethik und Bewusstseinsforschung aufholen.

Aber vernünftige Vorsicht ist selten kostenlos. Es lohnt sich, eine moralische Katastrophe zu verhindern.

Führende KI-Unternehmen sollten ihre Technologie einer Prüfung durch unabhängige Experten unterziehen, die die Wahrscheinlichkeit einschätzen können, dass sich ihre Systeme in der moralischen Grauzone befinden.

Selbst wenn sich Experten über die wissenschaftliche Grundlage des Bewusstseins nicht einig sind, könnten sie allgemeine Prinzipien identifizieren, um diese Zone zu definieren – zum Beispiel das Prinzip, Systeme mit ausgefeilten Selbstmodellen (z. B. einem Selbstgefühl) und großen, flexiblen kognitiven Fähigkeiten zu vermeiden.

Experten könnten eine Reihe ethischer Richtlinien für KI-Unternehmen entwickeln, die sie befolgen sollten, während sie alternative Lösungen entwickeln, die die Grauzone des umstrittenen Bewusstseins vermeiden, bis sie zu einem solchen Zeitpunkt, wenn überhaupt, darüber springen können, um die Rechte zu verdienen.

Im Einklang mit diesen Standards sollten Anwender nie Zweifel verspüren, ob eine Technologie ein Werkzeug oder ein Begleiter ist.

Die Bindungen der Menschen an Geräte wie Alexa sind eine Sache, analog zur Bindung eines Kindes an einen Teddybären.

Bei einem Hausbrand wissen wir, dass wir das Spielzeug zurücklassen müssen. Aber Technologieunternehmen sollten normale Benutzer nicht so manipulieren, dass sie ein unbewusstes KI-System als einen wirklich empfindungsfähigen Freund betrachten.

Schließlich könnten wir mit der richtigen Kombination aus wissenschaftlichem und technischem Know-how in der Lage sein, KI-Systeme zu schaffen, die unbestreitbar bewusst sind.

Aber dann sollten wir bereit sein, die Kosten zu tragen: ihnen die Rechte zu geben, die sie verdienen.


Like it? Share with your friends!

9824
freeworldnews

0 Comments

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Translate »