Hass im toten Winkel
Social-Media-Konzerne wie Facebook gehen zwar aktuell strikter gegen Desinformation und Hassreden vor, vernachlässigen dabei aber die Mehrheit ihrer Nutzer: Alle, die nicht Englisch sprechen.
Auf den Punkt gebracht
- Selektive Hilfe. Soziale Netzwerke setzen sich zunehmend gegen Fehlinformationen ein. Die Bemühungen beschränken sich aber auf die westliche Welt.
- Profit über Gemeinwohl. Dabei leben in Europa und Nordamerika nur ein Drittel aller Facebook-Nutzer. Sie sind aber der profitabelste Markt für den Konzern.
- Fake News erforschen. Datensätze, die Maschinen beim Identifizieren von Fake News helfen sollen, konzentrieren sich ebenfalls auf englischsprachige Inhalte.
- Menschen schützen. Dieser blinde Fleck stellt eine Gefahr dar. Vor allem unter autoritär geführten Regimes häuft sich der politische Missbrauch sozialer Medien.
Die sogenannten Facebook-Papers – interne Papiere, die von einer ehemaligen Facebook-Mitarbeiterin an die Medien gespielt wurden – haben im Vorjahr für großes Aufsehen gesorgt. Einer der Punkte, die ans Tageslicht kamen, ist für Menschen, die sich in nicht-englischsprachigen Ländern mit sozialen Medien befassen, wenig überraschend gewesen: Global agierende Social-Media-Plattformen wie Facebook investieren nur in jenen Ländern in die Bekämpfung von Unwahrheiten, Hassreden und Missbrauch, in denen es ihren Geschäftsinteressen schadet, wenn sie nichts dagegen tun.
Mehr im Dossier Fake News
- Der Pragmaticus: Die Hüter der Wahrheit
- Nadine Strossen: Finger weg von Zensur
- Nikil Mukerji: Wie wir Filterblasen zum Platzen bringen
- André Wolf: Wie Fake News Feindbilder schaffen
- Joseph Uscinski: Soziale Medien sind nicht das Problem
Zwar hatte Facebook-Gründer Mark Zuckerberg bereits im Jahr 2018 angekündigt, dass Künstliche Intelligenz das Problem von Fehlinformation auf der Plattform lösen würde, aber die von Whistleblowerin Frances Haugen geleakten Dokumente zeigen, dass das Unternehmen noch 2020 nicht in der Lage war, Hassreden und Desinformationen in anderen Sprachen als Englisch zu bekämpfen. Und mehr als die Hälfte der Facebook-Nutzer sprechen nicht Englisch. Über 70 Prozent der täglich aktiven Nutzer von Facebook lebt außerhalb von Europa und Nordamerika.
Wer nicht Englisch spricht, wird nicht geschützt
Nicht nur Facebook konzentriert sich auf seine englischsprachige Zielgruppe, aber die Reichweite von Facebook und seinen Schwesterunternehmen – unter anderem Instagram und Whatsapp – macht ihre Nachlässigkeit besonders gefährlich. Aber auch Reddit, eine weitere US-amerikanische Plattform mit globaler Reichweite, wurde wegen seiner Unfähigkeit kritisiert, Hassreden in seinen nicht englischsprachigen Foren zu kontrollieren.
Diese – auch technische – Unfähigkeit der Plattformen kann aus zwei Blickwinkeln betrachtet werden. Der erste ist ein Problem der internen Priorisierung. Asiatische Länder mögen die meisten Facebook-Nutzer haben, aber Nordamerika bringt die meisten Einnahmen. Die Plattformen bevorzugen wenig überraschend Märkte, die Einnahmen generieren, auf Kosten von Ländern mit mehr Nutzern – die deshalb möglicherweise einem größeren Risiko durch Hassreden und Fehlinformationen ausgesetzt sind.
Zahlen & Fakten
Während Social-Media-Konzerne insgesamt nur langsam gegen polarisierende Inhalte vorgehen, ist die relative Dringlichkeit, mit der sie auf amerikanische Bedenken reagieren, kaum zu übersehen. Für die US-Präsidentschaftswahlen 2020 kündigte Facebook an, dass es politische Anzeigen depriorisiert würden und dass es das Unternehmen in Betracht zieht, alle politischen Anzeigen bei einem potenziell unklaren Ausgang der Wahl abzuschalten.
Twitter kennzeichnete Fehlinformationen von Amtsträgern, darunter bekanntlich der damalige US-Präsident Donald Trump. Eine Reihe anderer Länder wie Griechenland und Ägypten, in denen im Jahr 2020 ebenfalls nationale Wahlen stattfanden, erhielten bei weitem nicht die gleiche Aufmerksamkeit. Selbst wenn eine Gefährdung von Menschenleben drohte, wie 2017 in Myanmar, wo auf Facebook gegen die Minderheit der Rohingya gehetzt wurde, haben sich die Plattformen dafür entschieden, die Inhalte auf ihren Plattformen nicht zu verfolgen und nicht darauf zu reagieren.
Auch Maschinen lernen nur Englisch
Das zweite Problem neben der internen Priorisierung betrifft den gesamten Bereich des so genannten „Social Computing“ und des maschinellen Lernens – also jener Tools, die den Plattformen helfen sollten, Falschmeldungen und Hassreden zu erkennen. Desinformation ist ein globales Phänomen, aber sie ist immer in einen lokalen Kontext eingebettet. Während sich in manchen Staaten Informationen vor allem über Influencer verbreiten, deren Beiträge von Algorithmen gepusht werden, sind es in anderen Teilen der Welt Nachrichten, die über Chat-Apps wie WhatsApp verbreitet werden – ganz ohne algorithmische Hilfe. Wenn Algorithmen nun beispielsweise lernen sollen, Behauptungen automatisiert und nahezu in Echtzeit zu überprüfen – um etwa ein Factchecking der Reden des US-Präsidenten zu ermöglichen – hilft das gegen Fake News via WhatsApp überhaupt nicht.
Asiatische Länder mögen die meisten Facebook-Nutzer haben, aber Nordamerika bringt die meisten Einnahmen.
Solche Werkzeuge sind vor allem im US-amerikanischen Kontext hilfreich, wo beispielsweise die im Fernsehen übertragenen Debatten zwischen den Präsidentschaftskandidaten ein Eckpfeiler des Wahlprozesses sind und die Überprüfung der Fakten in diesen Debatten wichtig ist. Bei Wahlen in anderen demokratischen Staaten, in denen solche Formate keine Rolle spielen, sind sie jedoch von geringer Bedeutung. Genauso sind Tools, die sich auf Textinhalte konzentrieren, in Entwicklungsländern, in denen die Menschen hauptsächlich über Bilder, Videos und Audionotizen kommunizieren, von begrenztem Nutzen.
Auch die Tools, die maschinelles Lernen als Waffe gegen Fehlinformationen oder Hassreden nutzen, sind weiterhin auf englische Inhalte konzentriert. Große Sprachmodelle wie GPT-3 – eine auf Deep Learning beruhende Künstliche Intelligenz, die Texte produziert, die den Anschein haben, von Menschen geschrieben zu sein – werden auf einem Korpus von Texten trainiert, die größtenteils auf Englisch sind. Auftraggeber und folglich auch Wissenschaftler neigen dazu, sich auf die Probleme zu konzentrieren, von denen sie selbst betroffen sind. Als klar wurde, dass automatisierte Tools bei der Bekämpfung von Fehlinformationen unvermeidlich sein werden, haben sich akademische Einrichtungen engagiert und Tools wie Hoaxy und InVid entwickelt, die es Journalisten und der Öffentlichkeit ermöglichen, Fake News zu verfolgen und darauf zu reagieren. Diese Tools sind für die Zivilgesellschaft auf der ganzen Welt hilfreich, aber sie helfen am besten in den Kontexten, für die sie entwickelt wurden.
Die Schwäche der Demokratien
Dazu kommt, dass die politische Situation nicht außer Acht gelassen werden darf. In Ländern, in denen Desinformationskampagnen auf sozialen Medien von herrschenden politischen Parteien geführt werden, und in denen das Recht auf freie Meinungsäußerung nicht ausreichend geschützt ist, kann auch die Berichterstattung und Forschung zu diesen Themen schwierig sein. Dabei wäre es natürlich gerade in diesen Situationen unerlässlich, Fehlinformationen in sozialen Medien zu verfolgen, zu melden und darauf zu reagieren – auch oder gerade wenn sie vom Staat selbst kommen.
In den vergangenen Jahren hat die Polarisierung auf der ganzen Welt zugenommen. Starke Demokratien sind schwächer geworden, repressive Regime wurden gestärkt. Während die Frage offen bleibt, welchen Anteil soziale Medien daran haben, kann ihr möglicher Einfluss nicht ignoriert werden. Soziale und politische Institutionen werden überall in Frage gestellt, aber in Ländern mit schwachen Institutionen werden soziale Medien von den politischen Entscheidungsträgern als Waffen gegen die eigene Bevölkerung genutzt. Sie werden routinemäßig genutzt, um Minderheiten und Kritiker der herrschenden politischen Ordnung ins Visier zu nehmen.
Soziale Medien sind nicht das Problem
Deshalb haben die verstärkten Bemühungen globaler Plattformen, Desinformation und Hassreden einzuschränken, politische Akteure in einigen Staaten verärgert. Einige Länder haben versucht, im Interesse der nationalen Souveränität auf eigene, einheimische Plattformen zu drängen. Das Kalkül dahinter ist klar: Dort, wo Unternehmen von politischen Sanktionen abhängig sind, könnten diese lokalen Social-Media-Plattformen mehr Desinformation und Hassrede zulassen, sofern sie bestimmte politische Interessen fördern. Es bleibt zwar abzuwarten, ob regionale Social-Media-Plattformen die Popularität der globalen Plattformen erreichen können, aber wir sollten uns nicht darauf verlassen, dass sie scheitern. Der Missbrauch sozialer Medien in autoritären Regimen und schwachen Demokratien kann viel schwerwiegendere Folgen haben als in starken Demokratien. In solchen Staaten, die tendenziell nicht englischsprachig sind, wäre ein Vorgehen gegen Desinformation und Hassreden deshalb am dringlichsten.
Wir können nicht auf Meta hoffen
Und die Initiative muss von Unternehmen wie Facebook ausgehen: Fünf der meistgenutzten Plattformen der Welt sind amerikanisch und vier davon (Facebook, Messenger, WhatsApp, Instagram) gehören demselben Unternehmen – Meta (früher Facebook). Jede Änderung, die Meta bei der Nutzung seiner Plattformen vornimmt, wirkt sich direkt auf Milliarden von Menschen aus. Diese Plattformen, und nur diese Plattformen, hätten die Macht und die finanziellen Mittel, um Forschung und Technologien gegen Desinformation voranzutreiben.
In Ländern mit schwachen Institutionen werden soziale Medien als politische Waffen gegen die eigene Bevölkerung genutzt.
Zum Teil tun sie das mittlerweile auch: 2020 rief Facebook etwa die „Hateful Memes“-Challenge ins Leben, um KI-Experten bei der Entwicklung neuer Systeme zur Erkennung von Hassreden zu unterstützen. Dennoch: Obwohl Memes in nicht-englischsprachigen Staaten noch beliebter sind als in den USA, war der erste Datensatz, den Facebook Wissenschaftlern zu Verfügung stellte, wieder auf Englisch. Und das primäre Meme, mit dem Facebook nach außen kommunizierte, zeigte ein Stinktier – ein Tier, das hauptsächlich in Nordamerika vorkommt.
Für die meisten Social-Media-Nutzer außerhalb Nord- und Südamerikas hat ein Meme mit einem Stinktier keinerlei Bedeutung – sie kennen die kulturellen Codes nicht und wissen nicht, dass sie mit Gestank assoziiert werden. Genauso wie für Nutzer in den USA und Deutschland viele indische Memes nicht verständlich wären. Trotzdem: An der „Hateful memes“-Challenge nahmen 3.000 Personen aus 150 Ländern teil, die offenes Wissen schufen, das nicht nur für Facebook, sondern auch für gemeinnützige Initiativen hilfreich ist, die gegen Hassreden vorgehen wollen. Unternehmen wie Meta müssen diese Erkenntnisse nutzen, um Tools zum Schutz ihrer schwächsten Nutzer zu entwickeln – etwa jene in Ländern mit autoritären Regimen. So wie Facebook in die Erstellung eines Datensatzes von hasserfüllten Memes in englischer Sprache investiert hat, muss es auch in die Erstellung von Datensätzen in Sprachen investieren, die mehr seiner Nutzer betreffen.
Die Zukunft muss mehrsprachig sein
Aber wir können uns nicht nur darauf verlassen, dass die Tech-Giganten das Problem lösen. Wir brauchen eine offene Forschung, die den Informationsfluss auf den Social-Media-Plattformen untersucht. Zu diesem Zweck greifen Wissenschaftler auf Computerlinguistik zurück, um beispielsweise nachzuverfolgen, wie sich der Diskurs auf Twitter zum Impfen entwickelt – sie können Schlüsselwörter oder Stimmungen aus Millionen von Tweets herausfiltern. Aber auch hier wiederholt sich das Problem, dass diese Techniken über Jahrzehnte hinweg für englische Inhalte verfeinert wurden, in vielen anderen Sprachen aber nur unzureichend funktionieren.
Die Zukunft der sozialen Medien ist schwer vorherzusagen. Sie könnten von einigen globalen Tech-Giganten geführt werden oder sich regionalisieren. Die aktuelle Monopolstellung einiger Plattformen könnte sich verstärken, genauso könnte es zu einer Zersplitterung kommen. Aber einige Punkte sind ganz unabhängig davon wichtig: Wir brauchen mehr Transparenz über die Funktionsweise und die Algorithmen dieser Plattformen, um ihre Auswirkungen auf den öffentlichen Diskurs, politische Prozesse und unsere psychosoziale Identität zu verstehen. Wir werden auch Instrumente brauchen, um die Interessen der Bürger zu schützen, wenn Plattformen und Regierungen dies nicht tun. Und wir müssen darauf achten, dass diese Instrumente allen Nutzern zur Verfügung stehen, unabhängig davon, welche Sprache sie sprechen.
Conclusio
Auch wenn sich die Diskussionen rund um soziale Medien und Fake News – nicht zuletzt, weil die meisten Plattformen US-amerikanisch sind und Donald Trump allerhand Stoff geboten hat – zumeist auf die USA konzentrieren: Über 70 Prozent der Facebook-Nutzer sind in anderen Weltgegenden als den USA und Europa daheim. Im zunehmenden Kampf gegen Falschinformationen und Hasspostings sind diese Staaten aber noch immer ein blinder Fleck: Sie sind nicht im Fokus der Unternehmen; und die technischen Möglichkeiten, Fake News zu erkennen, sind oft auf die englische Sprache begrenzt. Dabei wäre es gerade in Staaten, die über eine weniger gefestigte – oder gar keine – Demokratie verfügen, wichtig, dass Meta und Co dort Maßnahmen setzen. Auch weil die Fake News dort oft von staatlichen Akteuren kommen.