9795
Spread the love
loading...

Facebook-Gründer Mark Zuckerberg erklärte öffentlich, dass es seinen mehr als drei Milliarden Nutzern ermöglicht, auf der Plattform auf einer gleichberechtigten Plattform mit denen mit größeren Stimmen zu sprechen, egal ob es sich um Eliten aus Politik, Kultur und Journalismus handelt. Er sagte, dass seine Verhaltensstandards für jeden gelten, unabhängig von Ruhm oder Status.

Dies ist nicht ganz richtig. Das Unternehmen baute privat ein System, das es hochkarätigen Benutzern ermöglichte, von einigen oder allen Regeln ausgenommen zu werden, wie aus Dokumenten hervorgeht, die vom Wall Street Journal geprüft wurden  .

Das Programm ist als „Cross-Check“ oder „XCheck“ bekannt und war ursprünglich als Qualitätskontrollmaßnahme für Aktionen gedacht, die gegen hochkarätige Accounts, darunter Prominente, Politiker und Journalisten, ergriffen werden.

Es schützt Millionen von Benutzern vor dem Durchsetzungsprozess des Unternehmens, da einige von ihnen auf die „weiße Liste“ gesetzt – oder von Durchsetzungsmaßnahmen immun gemacht werden – während andere Materialien veröffentlichen dürfen, die gegen Regeln verstoßen.

Die Dokumente zeigten auch, dass XCheck Persönlichkeiten des öffentlichen Lebens schützte, deren Posts Belästigung oder Anstiftung zu Gewalt enthielten. Diese Beiträge führen in der Regel zu Sanktionen für den durchschnittlichen Benutzer .

2019 erlaubte Facebook Fußballstar Neymar, Nacktfotos einer Frau zu zeigen, die ihn der Vergewaltigung beschuldigt. Konten auf der Whitelist teilten aufrührerische Behauptungen, die die Faktenprüfer von Facebook ebenfalls für falsch hielten.

Trotz der Versuche, die Zahl der ausgenommenen Personen zu minimieren, wuchs XCheck im Jahr 2020 auf mindestens 5,8 Millionen Nutzer an. In seinem Bemühen, Inhalte zu moderieren und negative Aufmerksamkeit zu vermeiden, hat Facebook unsichtbare Eliten im sozialen Netzwerk geschaffen.

Facebook führt die Öffentlichkeit und das Aufsichtsgremium in die Irre

Das System führte die Öffentlichkeit und sein eigenes Aufsichtsgremium in die Irre, das das Unternehmen ursprünglich eingerichtet hatte, um die Rechenschaftspflicht seiner Durchsetzungssysteme sicherzustellen.

Facebook teilte dem Aufsichtsgremium schriftlich mit, dass sein System für hochkarätige Benutzer bei „einen wenigen Entscheidungen“ verwendet wurde.

Facebook-Sprecher Andy Stone sagte, die Kritik an XCheck sei fair. Er fügte jedoch hinzu, dass es einen zusätzlichen Schritt für sie schaffen sollte, um Richtlinien für Inhalte, die mehr Verständnis erfordern könnten, genau durchzusetzen.

Er sagte auch, dass Facebook in seinen Mitteilungen an den Vorstand korrekt gewesen sei und dass das Unternehmen daran arbeite, die Praxis des Whitelisting auslaufen zu lassen. (Verwandt:  Facebook hat sich als massive Spionagemaschine erwiesen, die Ihre Gespräche aufzeichnet und Ihre Privatsphäre verletzt .)

„Ein Großteil dieses internen Materials besteht aus veralteten Informationen, die zusammengefügt wurden, um eine Erzählung zu erstellen, die den wichtigsten Punkt beschönigt: Facebook selbst hat die Probleme durch Gegenprüfungen identifiziert und daran gearbeitet“, sagte er.

Die Dokumente, die XCheck beschreiben, sind Teil einer umfangreichen internen Kommunikation. Sie zeigten, dass Facebook sich bewusst ist, dass seine Plattformen mit Fehlern übersät sind, die Schaden anrichten. Darüber hinaus zeigen die Unterlagen, dass dem Unternehmen der Wille oder die Fähigkeit fehlt, diese anzugehen.

Die eigenen Forscher von Facebook haben auch die eigenen negativen Auswirkungen der Plattform in Bereichen wie der psychischen Gesundheit von Teenagern, dem politischen Diskurs und dem Menschenhandel identifiziert. Das Unternehmen hielt sich auch zurück, aus Angst, seinem Geschäft zu schaden. Zum Beispiel hat Facebook zuvor Änderungen vorgenommen, die nach hinten losgingen.

Die Enthüllung dieser Dokumente hat das vielleicht deutlichste Bild davon gezeigt, wie allgemein Probleme innerhalb des Unternehmens bekannt sind. Wenn das Unternehmen jedoch öffentlich über diese Probleme spricht, gibt es oft irreführende oder teilweise Antworten, um zu verbergen, wie viel es weiß.

Zuckerberg schätzt, dass Facebook im Jahr 2018 10 Prozent seiner Entscheidungen zum Entfernen von Inhalten falsch macht; Abhängig von den ergriffenen Durchsetzungsmaßnahmen wird den Benutzern möglicherweise nicht mitgeteilt, gegen welche Regel sie verstoßen haben, oder ob ihnen die Möglichkeit gegeben wird, Einspruch einzulegen.

Mitarbeiter sagten, dass die Whitelisting-Praxis im Widerspruch zu den Werten des Unternehmens stehe. Kaushik Iyer, damals leitender Ingenieur des bürgerlichen Integritätsteams von Facebook, sagte in einem Memo aus dem Jahr 2020, dass das Unternehmen die Inhaltspolitik von der öffentlichen Ordnung trennen sollte.

Lesen Sie mehr unter TechGiants.news .

Quellen sind:

WSJ.com 1

WSJ.com 2


Like it? Share with your friends!

9795
freeworldnews

0 Comments

Deine E-Mail-Adresse wird nicht veröffentlicht.

Pin It on Pinterest

Translate »
error: Content is protected !!
Choose A Format
Personality quiz
Series of questions that intends to reveal something about the personality
List
The Classic Internet Listicles
Open List
Submit your own item and vote up for the best submission
Ranked List
Upvote or downvote to decide the best list item
Meme
Upload your own images to make custom memes
Video
Youtube and Vimeo Embeds
Audio
Soundcloud or Mixcloud Embeds
Image
Photo or GIF
Gif
GIF format