Die Zensur von Informationen ist so hoch wie nie zuvor, aber erkennen die Menschen wirklich, inwieweit sie durchgeführt wurde und wird? Ein kürzlich im British Medical Journal veröffentlichter Artikel der Journalistin Laurie Clarke hat die Tatsache hervorgehoben, dass Facebook bereits mindestens 16 Millionen Inhalte von seiner Plattform entfernt und etwa 167 Millionen anderen Warnungen hinzugefügt hat.
von Arjun Walia
YouTube hat ihnen zufolge fast 1 Million Videos entfernt, die sich auf „gefährliche oder irreführende medizinische Informationen zu Covid-19“ beziehen.
Als unabhängiges Medienunternehmen hat Collective Evolution diese Zensur hautnah miterlebt. Wir haben auch mit vielen Ärzten und weltbekannten Wissenschaftlern in Kontakt gestanden und erlebt, dass sie der gleichen Art von Behandlung von diesen Social-Media-Organisationen unterzogen wurden.
Vor nicht allzu langer Zeit habe ich einen Artikel über Dr. Martin Kulldorff geschrieben , einen Harvard-Professor für Medizin, der Probleme mit Twitter hat.
Dasselbe tat ich mit Dr. Carl Heneghan, einem Professor für evidenzbasierte Medizin aus Oxford und einem Notarzt, der einen Artikel über die Wirksamkeit von Gesichtsmasken bei der Eindämmung der Ausbreitung von COVID schrieb.
Sein Artikel wurde nicht entfernt, aber von Facebook mit einem Etikett versehen, das besagt, dass es sich um „gefälschte Informationen“ handelt. Es gibt noch viele weitere Beispiele.
Clarkes Artikel sagt in Bezug auf Beiträge, die entfernt und gekennzeichnet wurden, dass
„Während ein Teil dieses Inhalts wahrscheinlich absichtlich falsch oder rachsüchtig irreführend ist, ist die Pandemie mit Beispielen für wissenschaftliche Meinungen übersät, die im Schleppnetz gefangen wurden.“
Dies ist wahr, nehmen wir zum Beispiel die „Laborursprünge der COVID-Debatte“. Zu Beginn der Pandemie durften Sie nicht einmal erwähnen, dass COVID möglicherweise aus einem Labor stammt, und wenn doch, wurden Sie dafür bestraft .
Unabhängige Medienplattformen wurden demonetisiert und Änderungen der Algorithmen unterzogen. Jetzt wird es plötzlich in den Mainstream-Medien als legitime Möglichkeit diskutiert.
Das macht keinen Sinn.
Dies unterstreicht die Schwierigkeit, wissenschaftliche Wahrheit zu definieren, und wirft die größere Frage auf, ob Social-Media-Plattformen wie Facebook, Twitter, Instagram und YouTube überhaupt damit beauftragt werden sollten…“
Ich halte es für ziemlich gefährlich, dass wissenschaftliche Inhalte als Fehlinformation abgestempelt werden, nur weil die Leute dies möglicherweise wahrnehmen“, sagt Sander van der Linden, Professor für Sozialpsychologie in der Gesellschaft an der Universität Cambridge, Großbritannien.
„Auch wenn es in einem sehr technischen Sinne unter eine Definition (von Fehlinformation) passt, bin ich mir nicht sicher, ob dies der richtige Weg ist, es allgemeiner zu beschreiben, da dies zu einer stärkeren Politisierung der Wissenschaft führen könnte, was unerwünscht ist.“ – Clarke
Diese Art der „Politisierung der Wissenschaft“ ist genau das, was während dieser Pandemie passiert ist.
Wissenschaft wird aus politischen und finanziellen Gründen unterdrückt. Covid-19 hat staatliche Korruption im großen Stil ausgelöst und ist schädlich für die öffentliche Gesundheit. Verantwortlich für diese opportunistische Unterschlagung sind Politik und Industrie. Ebenso Wissenschaftler und Gesundheitsexperten. Die Pandemie hat gezeigt, wie der medizinisch-politische Komplex im Notfall manipuliert werden kann – eine Zeit, in der es noch wichtiger ist, die Wissenschaft zu schützen. – Kamran Abbas ist Arzt, Chefredakteur des British Medical Journal und Herausgeber des Bulletins der Weltgesundheitsorganisation. ( Quelle )
Ein wichtiger Punkt, den es zu vermitteln gilt, ist auch die Tatsache, dass diese unabhängigen „ Faktenprüfer“ mit Facebook zusammenarbeiten , das wiederum mit der Regierung zusammenarbeitet.
Der NSA-Whistleblower Edward Snowden äußerte sich zu der Zensur, die wir während dieser Pandemie im November letzten Jahres erlebt haben , und erklärte Folgendes:
Im Geheimen hatten sich alle diese Unternehmen bereit erklärt, mit der US-Regierung weit über das hinauszugehen, was das Gesetz von ihnen verlangt, und das ist, was wir bei diesem neuen Zensurschub sehen, wirklich eine neue Richtung in der gleichen Dynamik.
Diese Unternehmen sind gesetzlich nicht verpflichtet, fast alles zu tun, was sie tatsächlich tun, aber sie gehen in vielen Fällen darüber hinaus, um die Tiefe ihrer Beziehung (mit der Regierung) und die Bereitschaft der Regierung zu erhöhen zu vermeiden, sie im Kontext ihrer gewünschten Aktivitäten zu regulieren, was letztendlich dazu führt, den Gesprächs- und Informationsraum der globalen Gesellschaft auf unterschiedliche Weise zu dominieren… Sie versuchen, dich dazu zu bringen, dein Verhalten zu ändern.
Wenn es Ihnen nicht angenehm ist, die Grenzen angemessener politischer Rede von der Regierung bestimmen zu lassen, warum bitten Sie dann Mark Zuckerberg, dies zu tun?
Ich denke, die Realität hier ist … es geht nicht wirklich um Meinungsfreiheit und es geht nicht wirklich darum, Menschen vor Schaden zu schützen … Ich denke, was Sie sehen, ist, dass das Internet de facto zum Mittel der Massenkommunikation geworden ist.
Das repräsentiert Einfluss, der Macht repräsentiert, und was wir sehen, ist, dass wir eine ganze Reihe verschiedener Stämme im Grunde streiten, um die Kontrolle über dieses Machtinstrument zu erlangen.
Was wir sehen, ist eine zunehmende Tendenz, Journalisten zum Schweigen zu bringen, die Dinge sagen, die in der Minderheit sind.
Sie fragen sich, ob es bei dieser „Faktenprüfung“ tatsächlich um eine Faktenprüfung geht? Oder ist hier noch etwas los?
Nachfolgend finden Sie eine Aufschlüsselung aus Clarkes Artikel, die veranschaulicht, wie die Faktenprüfung funktioniert und was das Problem bei der Befolgung der Wissenschaft ist.
Da wir in den letzten 5 Jahren oft darüber berichtet haben, haben wir uns entschieden, unsere Leser es zur Abwechslung mal von jemand anderem hören zu lassen, da es wirklich recht ehrenhaft ist, wenn mehr Ermittler zu diesen Schlussfolgerungen kommen.
So Funktioniert Faktencheck
In den letzten zehn Jahren gab es ein Wettrüsten zwischen Benutzern, die Desinformation (absichtlich irreführend) hausieren oder unwissentlich Fehlinformationen weitergeben (von denen Benutzer nicht wissen, dass sie falsch sind) und den Social-Media-Plattformen, die sich mit der Überwachung dieser Daten beschuldigt sehen, ob sie es wollen oder nicht.1
Als das BMJ Facebook, Twitter und YouTube (im Besitz von Google) befragte, hoben sie alle ihre Bemühungen hervor, potenziell schädliche Inhalte zu entfernen und die Benutzer auf maßgebliche Informationsquellen zu Covid-19 und Impfstoffen hinzuweisen, einschließlich der Weltgesundheitsorganisation und der US-Zentren für die Kontrolle und Prävention von Krankheiten.
Obwohl sich ihre Moderationsrichtlinien leicht unterscheiden, entfernen oder reduzieren die Plattformen im Allgemeinen die Verbreitung von Inhalten, die Informationen von Gesundheitsbehörden wie der WHO und der CDC anfechten oder falsche gesundheitsbezogene Angaben verbreiten, die als schädlich gelten, einschließlich falscher Informationen über die Gefahren von Impfstoffen.
Aber die Pandemie hat ein sich veränderndes Flickwerk von Kriterien gesehen, die von diesen Unternehmen verwendet werden, um die Grenzen von Fehlinformationen zu definieren.
Dies hat zu einigen auffälligen Kehrtwendungen geführt: Zu Beginn der Pandemie wurden Beiträge, die besagten, dass Masken dazu beigetragen haben, die Ausbreitung von Covid-19 zu verhindern, als „falsch“ bezeichnet; jetzt ist es das Gegenteil, was den Wandel der akademischen Debatte und der offiziellen Empfehlungen widerspiegelt.
Twitter verwaltet seine Faktenprüfung intern. Aber Facebook und YouTube verlassen sich auf Partnerschaften mit externen Faktenprüfern, die unter dem Dach des International Fact-Checking Network einberufen sind – einer überparteilichen Einrichtung, die andere Faktenprüfer zertifiziert und vom Poynter Institute for Media Studies, einem gemeinnützigen Journalismus, betrieben wird Schule in St. Petersburg, Florida.
Zu den wichtigsten Geldgebern von Poynter gehören das Charles Koch-Institut (eine Forschungsorganisation für öffentliche Politik), das National Endowment for Democracy (eine US-Regierungsbehörde) und das Omidyar Network (eine „philanthropische Investmentfirma“) sowie Google und Facebook.
Poynter besitzt auch die Zeitung Tampa Bay Times und den hochkarätigen Faktenprüfer PolitiFact. Das Poynter Institute lehnte die Einladung des BMJ ab, zu diesem Artikel Stellung zu nehmen.
Für wissenschaftliche und medizinische Inhalte umfasst das International Fact-Checking Network wenig bekannte Einrichtungen wie SciCheck, Metafact und Science Feedback.
Health Feedback, eine Tochtergesellschaft von Science Feedback, wählt Wissenschaftler aus, um ihr Urteil zu fällen.
Mit dieser Methode wurde ein Meinungsartikel des Wall Street Journal 2 als „irreführend“ bezeichnet , der voraussagte, dass die USA bis April 2021 eine Herdenimmunität haben würden, geschrieben von Marty Makary, Professor für Gesundheitspolitik und -management an der John Hopkins University in Baltimore, Maryland.
Dies veranlasste die Zeitung, eine Gegenmeinung mit der Überschrift „Fact Checker von Facebooks Faktencheckern“ herauszugeben, in der argumentiert wurde, dass die Bewertung „Gegenmeinung, die als Faktenprüfung getarnt“ sei. 3
Lesen Sie auch: George Soros und Bill Gates als die Kraft hinter Facebooks neuem „Fake News“-Detektor entlarvt
Makary habe seine Argumente nicht als Tatsachenbehauptung präsentiert, heißt es in dem Artikel, sondern auf der Grundlage seiner Analyse der Beweise eine Prognose erstellt.
Ein Sprecher von Science Feedback teilt dem BMJ mit, dass es zur Überprüfung von Behauptungen Wissenschaftler auf der Grundlage „ihrer Expertise auf dem Gebiet der Behauptung/des Artikels“ auswählt.
Sie erklären: „Die Redakteure von Science Feedback beginnen in der Regel damit, die relevante wissenschaftliche Literatur zu durchsuchen und Wissenschaftler zu identifizieren, die Artikel zu verwandten Themen verfasst haben oder über die erforderliche Expertise verfügen, um den Inhalt zu bewerten.“
Die Organisation bittet dann entweder die ausgewählten Wissenschaftler, sich direkt zu wiegen oder sammelt Behauptungen, die sie in den Medien oder in sozialen Medien gemacht haben, um ein Urteil zu fällen.
Im Fall von Makarys Artikel wurden 20 relevante Wissenschaftler identifiziert und von dreien Feedback erhalten.
„Folge Der Wissenschaft“
Der strittige Charakter dieser Entscheidungen ist zum Teil darauf zurückzuführen, wie Social-Media-Plattformen die schlüpfrigen Konzepte von Fehlinformation versus Desinformation definieren.
Diese Entscheidung beruht auf der Idee eines wissenschaftlichen Konsens. Einige Wissenschaftler sagen jedoch, dass dies heterogene Meinungen erstickt, was problematisch die falsche Vorstellung verstärkt, dass Wissenschaft ein Monolith ist.
Dies wird in einem Pandemie-Slogan zusammengefasst:
„Folge der Wissenschaft.“ David Spiegelhalter, Vorsitzender des Winton Center for Risk and Evidence Communication an der Cambridge University, nennt dies „absolut schrecklich“ und sagt, dass Wissenschaftler hinter verschlossenen Türen die ganze Zeit damit verbringen, über einige ziemlich grundlegende Dinge zu streiten und zutiefst anderer Meinung zu sein.
Er sagt:
„Die Wissenschaft sagt Ihnen nicht, was zu tun ist; es sollte nicht sein. Ich betrachte es eher so, dass es neben dir hergeht, vor sich hin murmelt, Kommentare zu dem macht, was es sieht und einige vorläufige Vorschläge macht, was passieren könnte, wenn man einen bestimmten Weg einschlägt, aber es ist nicht verantwortlich.“
Der Begriff „Fehlinformation“ könnte selbst zu einer Abflachung der wissenschaftlichen Debatte beitragen. Martin Kulldorff, Medizinprofessor an der Harvard Medical School in Boston, Massachusetts, wurde für seine Ansichten zur Sperrung kritisiert, die eng an die entspanntere Strategie seiner Heimat Schweden anknüpfen. 4
Er sagt, dass Wissenschaftler, die während der Pandemie unorthodoxe Meinungen äußern, besorgt sind, „verschiedenen Formen der Verleumdung oder Zensur ausgesetzt zu sein …
Diese Sorge wird durch die Befürchtung verstärkt, dass dies die Förderung von Zuschüssen und die Fähigkeit zur Veröffentlichung wissenschaftlicher Arbeiten beeinträchtigen könnte, sagt er dem BMJ.
Die binäre Vorstellung, dass wissenschaftliche Behauptungen entweder richtig oder falsch sind, hat zu der Spaltung beigetragen, die die Pandemie geprägt hat. Samantha Vanderslott, Gesundheitssoziologin an der University of Oxford, Großbritannien, sagte gegenüber Nature: „Das Ausrufen von gefälschten Geschichten kann Ihr Profil erhöhen.“
Im selben Artikel bemerkte Giovanni Zagni, Direktor der italienischen Faktencheck-Website Facta, dass „Sie eine Karriere aufbauen können“, wenn Sie „eine angesehene Stimme werden, die gegen schlechte Informationen kämpft“. 5
Aber dies hat einen perversen Anreiz für Wissenschaftler geschaffen, die Positionen des anderen als Fehlinformation oder Desinformation zu bezeichnen. 6 Van der Linden vergleicht dies damit, wie Donald Trump den Begriff „Fake News“ als Waffe benutzte, um seine Kritiker zum Schweigen zu bringen.
Er sagt: „Ich denke, Sie sehen ein bisschen dasselbe mit dem Begriff ‚Fehlinformation‘, wenn es eine Wissenschaft gibt, mit der Sie nicht einverstanden sind und sie als Fehlinformation bezeichnen.“
Laut der Website von Health Feedback werden keine Wissenschaftler ausgewählt, um Behauptungen zu überprüfen, wenn sie ihre Glaubwürdigkeit untergraben haben, indem sie „Fehlinformationen verbreiten, ob absichtlich oder nicht“.
In der Praxis könnte dies zu einer kafkaesken Situation führen, in der Wissenschaftler daran gehindert werden, ihre Meinung im Rahmen der Faktenprüfung zu äußern, wenn sie eine Meinung äußern, die Facebook als Fehlinformation bezeichnet.
Der Echokammereffekt wird dadurch verstärkt, dass Health Feedback manchmal Behauptungen überprüft, indem es sich ansieht, was Wissenschaftler auf Twitter oder in den Medien gesagt haben.
Wissenschaftliche „Wahrheit“
Van der Linden sagt, dass es für die Menschen wichtig ist zu verstehen, dass es im wissenschaftlichen Bereich „Unsicherheit gibt, es Debatten gibt und es darum geht, im Laufe der Zeit Erkenntnisse zu sammeln und unsere Meinungen im Laufe der Zeit zu revidieren“.
Eine gesunde Debatte hilft, die Spreu vom Weizen zu trennen. Jevin West, außerordentlicher Professor an der Information School der University of Washington in Seattle, sagt, dass Social-Media-Plattformen daher „besonders vorsichtig sein sollten, wenn es um wissenschaftliche Debatten geht“.
Er erklärt:
„Die Institution der Wissenschaft hat diese Normen und Verhaltensweisen entwickelt, um selbstkorrigierend zu sein. Daher halte ich es für problematisch, dass [Social-Media-Plattformen] in dieses Gespräch einsteigen.“
Experten, die mit dem BMJ sprachen, betonten die Unmöglichkeit, zwischen einer wissenschaftlichen Minderheitsmeinung und einer objektiv falschen Meinung (Fehlinformation) zu unterscheiden.
Spiegelhalter sagt, dies sei ein schwieriges „juristisches Urteil darüber, was eine vernünftige wissenschaftliche Meinung wäre … Ich habe meine eigenen Kriterien, anhand derer ich entscheide, ob ich etwas für irreführend halte, aber es fällt mir sehr schwer, es zu kodifizieren“.
Andere Wissenschaftler befürchten, dass, wenn dieser Ansatz zur wissenschaftlichen Fehlinformation die Pandemie überdauert, die wissenschaftliche Debatte besorgniserregend kommerziellen Zwängen unterliegen könnte.
Vinay Prasad, außerordentlicher Professor an der University of California San Francisco, argumentierte auf der MedPage Today-Website:
„Das Risiko besteht darin, dass die unzähligen Akteure in der Biomedizin, von großen bis hin zu kleinen Biopharma- und [Medizin-]Gerätefirmen, ihre Bedenken an soziale Medien und Zeitschriftenunternehmen richten. Bei einem Thema wie Krebsmedikamenten könnte eine winzige Handvoll Personen, die einer neuen Arzneimittelzulassung kritisch gegenüberstehen, den wichtigsten Meinungsführern, die mit dem Unternehmen zusammenarbeiten, 10:1 überlegen sein.“ 7
So kann die Mehrheit, die am lautesten, sichtbarsten und am meisten online spricht, von der Öffentlichkeit als „richtig“ beurteilt werden – und Geschichte wird, wie man sagt, von den Siegern geschrieben.
Social-Media-Unternehmen experimentieren noch mit dem seit letztem Jahr eingeführten neuen Maßnahmenpaket und können ihr Vorgehen anpassen.
Van der Linden sagt, dass sich die Gespräche, die er mit Facebook geführt hat, darauf konzentriert haben, wie die Plattform dazu beitragen könnte, das Verständnis dafür zu fördern, wie Wissenschaft funktioniert, „um die Menschen tatsächlich auf Inhalte zu lenken, die sie über den wissenschaftlichen Prozess aufklären, anstatt etwas als wahr oder falsch zu bezeichnen“. .“
Diese Debatte spielt sich gegen einen breiteren ideologischen Kampf aus, bei dem das Ideal der „Wahrheit“ zunehmend über die „gesunde Debatte“ gestellt wird.
Kulldorff sagt:
„Dinge im Allgemeinen zu entfernen, halte ich für eine schlechte Idee. Denn selbst wenn etwas nicht stimmt, gibt es keine Möglichkeit, darüber zu diskutieren, wenn Sie es entfernen.“ Obwohl er beispielsweise Impfungen im Allgemeinen befürwortet, sollten Menschen mit Ängsten oder Zweifeln an den verwendeten Impfstoffen nicht in Online-Bereichen zum Schweigen gebracht werden, sagt er.
„Wenn wir innerhalb der Wissenschaft keine offene Debatte führen, dann hat das enorme Konsequenzen für Wissenschaft und Gesellschaft.“
Es gibt Bedenken, dass dieser Ansatz letztendlich das Vertrauen in die öffentliche Gesundheit untergraben könnte. In den USA, sagt West, sinke das Vertrauen in Regierung und Medien.
Er erklärt: „Die Wissenschaft ist immer noch eine der vertrauenswürdigsten Institutionen, aber wenn man anfängt, Gespräche innerhalb der Wissenschaft zu markieren und zu beenden, ist das für mich noch schlimmer als das eigentliche Posten dieser einzelnen Artikel.“
0 Comments