Blasen, Bots und Desinformationskampagnen

Jakob-Moritz Eberl
am 09.12.2019

Es sind noch etwa 330 Tage bis zu den nächsten US-Präsidentschaftswahlen und schon liest man die ersten Hiobsbotschaften über vermeintliche, von Social Bots unterstützte, Desinformationskampagnen in den Filterblasen sozialer Netzwerke. Ihre Verbreitung sei schneller und damit auch ihr Einfluss auf die WählerInnen größer als noch 2016. Gleichzeitig sind die traditionellen Medien – als mögliches Korrektiv – weiterhin geschwächt, denn das Vertrauen der US-BürgerInnen haben sie laut einer aktuellen Gallup-Umfrage noch nicht zurückgewinnen können.

Egal ob Filterblasen, Social Bots oder Fake News: Wir alle haben diese Begriffe zu fürchten gelernt. Verfolgt man den öffentlichen Diskurs, bedrohen diese digitalen Dämonen westliche Demokratien oder haben sie gar schon längst in die Knie gezwungen. Doch was steckt eigentlich hinter diesen mystischen Begriffen? Wie sehr müssen wir uns tatsächlich Sorgen machen? Die kommunikationswissenschaftliche Forschung beobachtet diese Phänomene schon seit Jahren ganz genau, unterscheidet Fakt von Mythos und bemüht sich um Begriffsklärung.

Obwohl Filterblasen im allgemeinen Sprachgebrauch sehr populär sind, ist das Konzept der Filterblase bzw. Echokammer auf sozialen Medien wissenschaftlich umstritten. Die Grundsorge ist, dass sich die eigenen Einstellungen weiter polarisieren – also, dass sie extremer werden –, da man aufgrund von Algorithmen auf sozialen Medien nur mit Meinungen in Kontakt kommt, die einen bestätigen.

Dennoch gibt es wenig empirische Beweise, dass Filterblasen auf sozialen Medien in besonderem Maße auftreten würden. Eine Studie aus den USA findet zum Beispiel, dass die Nutzung sozialer Netzwerke zwar zu ideologischer Polarisierung führen kann, die NutzerInnen dann aber trotzdem noch regelmäßig mit politischen Meinungen in Kontakt kommen, die nicht der eigenen entsprechen. Auch auf politischen Onlineforen bilden sich eher keine ideologischen Echokammern, so eine Studie aus Südkorea. Tatsächlich kann also davon ausgegangen werden, dass die ausgeweiteten Informationsmöglichkeiten in den digitalen Medien wohl immer noch zu einer größeren ideologischen Vielfalt der Inhalte führen können, als dies bei der Morgenlektüre von ein bis zwei Tageszeitungen der Fall ist.

Auch von sogenannten Social Bots hört man dieser Tage immer öfter. Dabei geht es um automatisierte oder teilautomatisierte Accounts in sozialen Medien, die eigene Inhalte verbreiten oder mit den Inhalten anderer interagieren, mit dem ausschließlichen Ziel der Manipulation der öffentlichen Meinung. Bots wurden medial unter anderem schon für den Ausgang der Brexit-Abstimmung oder die Wahl Trumps verantwortlich gemacht.

Allerdings gibt es noch wenig wissenschaftlichen Konsens darüber, ab welchem Stadium der Automatisierung ein Account tatsächlich als Bot gewertet und wann genau von “Manipulation” gesprochen werden sollte. Bisherige Studien sehen wenig Anhaltspunkte dafür, dass Bots politische Diskussionen auf sozialen Netzwerken maßgeblich beeinflussen würden.

Das Onlinetool “Botometer” klassifiziert Twitteraccounts auf ihr Bot-Potenzial und sucht dabei in erster Linie nach Mustern, die auf Automatisierung schließen lassen. Kritiker nahmen sich die Ergebnisse des Tools zu Herzen und fragten bei den vermeintlichen Bots nach. Der Botometer kam nämlich unter anderem zu dem etwas verwunderlichen Schluss, dass 33 Prozent der MitarbeiterInnen der Deutschen Presse-Agentur Bots wären.

An dieser Stelle sei außerdem betont, dass automatisierte Accounts auf Facebook verboten sind, während Twitter sehr strenge Regeln hat, in denen z.B. Teilautomatisierungen erlaubt sind. Wenn die Plattformen automatisierte Accounts entdecken, werden diese in der Regel gelöscht. Die wenig durchdachte politische Forderung einer Kennzeichnungspflicht – wie zuletzt im deutschen Bundestag diskutiert – wäre in diesem Kontext daher sogar eher ein Rückschritt.

Auch der Begriff “Fake News”, der Desinformationskampagnen salopp umschreiben soll, hat einen Haken. Der Begriff vermischt einfach zu viele Dinge, wie Jana Egelhofer und Sophie Lecheler von der Universität Wien erklären: Zum einen seien Desinformationskampagnen gemeint, zum anderen werde der Begriff als Waffe zur Delegitimierung von Medieneinrichtungen oder JournalistInnen eingesetzt. Verwendet man diesen Begriff, so die Annahme, verstärke man auch zweitere Bedeutung des Begriffs und trage beiläufig zur Delegitimierung journalistischer Institutionen bei.

Außerdem bleibt noch die Frage offen, wie viele Menschen überhaupt mit gezielter Desinformationen in Kontakt kommen. Obwohl das Beeinflussungspotenzial von solchen Kampagnen durchaus vorhanden ist, stellt eine immer größere Mehrheit wissenschaftlicher Studien fest, dass die Reichweite von vermeintlichen “Fake News” bisher sehr begrenzt war. Für die letzte US-Präsidentschaftswahl zeigt eine Studie, dass 1 Prozent der NutzerInnen für 80 Prozent der “Views” von Desinformationsmeldungen verantwortlich waren und 0.1 Prozent der NutzerInnen 80 Prozent der Retweets verursachten. Ähnliche Ergebnisse finden sich auch zu Frankreich, Italien oder Singapur .

Warum halten sich die Mythen dann so stark? In vielen Mythen steckt auch ein Funken Wahrheit. Filterblasen können zur Polarisierung politischer Einstellungen führen, aber es gibt nicht ausreichend belastbare Evidenz, dass diese Gefahr auf sozialen Medien eher gegeben ist, als in der Offline-Welt. Social Bots gibt es zwar und sie könnten in Zukunft zu einem Problem für den politischen Diskurs werden, allerdings nur, wenn sich Plattformen dazu entscheiden nicht mehr gegen (Teil-)Automatisierungen vorzugehen. Desinformationskampagnen können politische Einstellungen zwar beeinflussen, allerdings haben diese bisher nur eine sehr geringe Reichweite gehabt und dabei vor allem Personen erreicht, die ohnehin schon sehr extreme Einstellungen vertreten haben.

Im Journalismus weiß man außerdem, dass Hyperbeln zu digitalen Bedrohungsszenarien “sexy” sind. Sie erzeugen Aufregung und Aufregung verkauft sich gut. Auf gefühlte Bedrohungen können unsere politischen VertreterInnen auch kostengünstig mit symbolischer Politik reagieren und sich als die großen RetterInnen inszenieren.

Egal, ob Filterblasen, Social Bots oder Desinformationskampagnen, die Ergebnisse der oben beschriebenen Studien deuten eher darauf hin, dass die aktuelle Sorge um eine digitale Bedrohung an die Vertrauenskrise in die traditionellen Medien geknüpft sein könnte. Ist das Vertrauen in journalistische Institutionen als demokratisches Korrektiv wieder hergestellt, könnte sich auch die Sorge vor den digitalen Dämonen wieder von selbst legen.

 

Weitere Ausgaben:
Alle Artikel des FALTER THINK-TANK finden Sie in der Übersicht.

12 Wochen FALTER um 2,50 € pro Ausgabe
Kritischer und unabhängiger Journalismus kostet Geld. Unterstützen Sie uns mit einem Abonnement!