Der Algorithmus des Schreckens: Zuckerbergs Kapitulation vor der Wahrheit

Ein Unternehmen, das schon einmal eine Schlüsselrolle in einem dokumentierten Völkermord spielte, schaltet nun erneut alle Kontrollmechanismen aus. Das ist ein moralischer Bankrott, schreibt Jan Diedrichsen in seiner aktuellen Kolumne.

 

Mark Zuckerberg, CEO von Meta und seit langem Herrscher eines globalen Informationsimperiums, hat entschieden: Faktenchecks auf seinen Plattformen werden abgeschafft. Ein Federstrich genügte, um einen der letzten Schutzmechanismen gegen Desinformation zu beseitigen. Das ist keine Nachlässigkeit, sondern bewusste Strategie – und brandgefährlich.

Metas Plattformen wie Facebook und Instagram sind keine harmlosen Treffpunkte für Urlaubsfotos und Katzenvideos. Sie sind Machtinstrumente. Hier formen sich Meinungen, entstehen Narrative, werden Gesellschaften manipuliert. Wer diese Plattformen kontrolliert, lenkt den Diskurs. Die Abschaffung des Faktenchecks heißt: Schutz vor Lügen wird geopfert. Die Wahrheit ist schlecht für das Geschäft. Hass und Hetze sorgen für Umsatz.

Was passiert, wenn unkontrollierte Plattformen auf fragile Gesellschaften treffen, zeigt Myanmar. 2017 eskalierte dort die Verfolgung der muslimischen Minderheit der Rohingya – verstärkt durch Facebook. Facebook war in Myanmar fast gleichbedeutend mit dem Internet. Metas „Free Basics“-Programm hatte Millionen Menschen erstmals vernetzt – fast ausschließlich über Zuckerbergs Plattform. Nachrichten, politische Informationen, Meinungsaustausch: alles über Facebook. Doch statt Aufklärung verbreitete sich Hass. Radikale buddhistische Mönche nutzten die Plattform gezielt für antimuslimische Propaganda. Beiträge wie „Muslime sind Hunde und müssen erschossen werden“ oder die Bezeichnung der Rohingya als „Bengalen“, die das Land unterwanderten, überschwemmten Facebook – verstärkt durch Metas Algorithmen.

Gleichzeitig begann Myanmars Militär mit der brutalen Vertreibung der Rohingya: Dörfer wurden niedergebrannt, Flüchtende ermordet, Frauen systematisch vergewaltigt. Über 10.000 Menschen starben, Hunderttausende flohen. Die UNO sprach von Völkermord – und Facebook spielte eine zentrale Rolle bei der Eskalation. Algorithmen verbreiteten Hassbotschaften ungebremst weiter. Meta hatte zu diesem Zeitpunkt nur einen Moderator, der die Landessprache verstand.

Nach internationalem Druck gelobte Zuckerberg 2018 vor dem US-Senat Besserung. Mehr Moderatoren mit lokalen Sprachkenntnissen, bessere Kontrolle. Doch bis heute kritisieren Menschenrechtsorganisationen die Maßnahmen als unzureichend. Amnesty International warnt weiterhin vor Metas Algorithmen: Sie seien auf maximale Interaktion getrimmt – und Wut, Hass, Desinformation erzeugen mehr Klicks als Fakten.

Algorithmen verstärken Polarisierung, weil sie Reichweite maximieren. Ein Unternehmen, das schon einmal eine Schlüsselrolle in einem dokumentierten Völkermord spielte, schaltet nun erneut alle Kontrollmechanismen aus – moralischer Bankrott.

Die Macht sozialer Netzwerke in den Händen weniger Milliardäre bedroht längst die Demokratie. Wer die Regeln bestimmt, entscheidet, was sichtbar ist – und was im Schatten bleibt. Zuckerbergs Entscheidung ist mehr als ein Rückzug. Sie ist ein Freibrief für Desinformation und Hetze.

Doch es wäre zu einfach, die Schuld allein Zuckerberg, Musk, Bezos und Co. zuzuschieben. Auch Politiker, Entscheidungsträgerinnen, Meinungsmacher und wir als Nutzerinnen und Nutzer müssen uns fragen: Wollen wir diese Plattformen weiter unterstützen?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website ist durch reCAPTCHA geschützt und es gelten die Datenschutzbestimmungen und Nutzungsbedingungen von Google

Zurück zur Home-Seite