Die asymmetrische Macht der Algorithmen

21. April 2022
Die asymmetrische Macht der Algorithmen

Russische Propaganda passt sich Empfehlungssystemen sozialer Netzwerke an

21.04.2022. Von Dr. Marco Bastos, City University of London

Facebook kann die russische Desinformation nicht bekämpfen. Das zeigen Daten, die WDR, NDR und Süddeutsche Zeitung ausgewertet haben. Facebook-Whistleblowerin Frances Haugen kritisiert die Maßnahmen des Unternehmens als unzureichend. Sie weist darüber hinaus auf ein grundsätzliches Problem hin: Die Algorithmen geben den extremsten Positionen die größte Reichweite. Unsere aktuelle Studie ?Fact-Checking Misinformation: Eight Notes on Consensus Reality? kombiniert Datenanalyse mit mehrstufiger Verarbeitung visueller Kommunikation, um die visuellen Rahmen staatlich geförderter Propaganda in sozialen Medien zu klassifizieren. Dabei stützten wir uns auf die Wahlintegritätsdaten von Twitter, um Propagandaziele der russischen ?Internet Research Agency? zu untersuchen. Sie prüfen, inwieweit ihre Operationen von der kanonischen Staatspropaganda abweichen, die durch Symbole der nationalen Identität und heroische Männlichkeit gekennzeichnet ist. Die Berichterstattung über den Krieg in der Ukraine in sozialen Medien bestätigt nachträglich unsere Analyse.

Die Ergebnisse zeigen, dass die von der russischen ?Internet Research Agency? verwendeten optischen Rahmen so gestaltet sind, dass sie die Vox Populi mit sympathischen, vertrauten oder attraktiven Gesichtern von gewöhnlichen Menschen verkörpern. Die Studie legt nahe, dass sich die staatlich geförderte Propaganda auf die subkulturellen und visuellen Möglichkeiten sozialer Plattformen eingestellt hat. Es überrascht nicht, dass polarisierende Inhalte in den sozialen Medien während des russischen Überfalls auf die Ukraine florieren. Zermürbungskriege werden unweigerlich von Propaganda begleitet, die versucht, so wahrheitsgetreu wie möglich zu erscheinen. Dieser Kampf um das hegemoniale Narrativ wurde deutlich, als die russische Regierung beschlossen hat, den Begriff spezielle Militäroperation durchzusetzen, um die russische Invasion in der Ukraine zu beschreiben. Dieser Kampf um die Deutungshoheit wird mit der Dauer des Krieges für den Nutzer noch schwerer zu beurteilen sein, da Russen und Ukrainer Kriegsnarrative vorantreiben, in denen Fakten umstritten, nicht nachprüfbar sind oder allgemein als unrechtmäßig gelten.

In dieser unübersichtlichen Situation ist es problematisch, dass soziale Plattformen keine externe Kontrolle über die algorithmischen Routinen bieten, die die Inhalte auswählen, welche den Benutzern angezeigt werden sollen. Diese Algorithmen sind optimiert, um Inhalte zu priorisieren, die das Unternehmen als wichtig für die Nutzer erachtet. Die genaue Art dieser Optimierung wird jedoch durch den geschützten Charakter der Facebook-Algorithmen verschleiert, wobei sowohl die Daten als auch die Modelle, die den Algorithmen zugrunde liegen, einer Prüfung durch politische Entscheidungsträger oder die Forschungsgemeinschaft entzogen sind.

Zu den Algorithmen gehören Empfehlungssysteme, die auf kollaborativer Filterung (Filterung sozialer Informationen), inhaltsbasierter Filterung, einschränkungsbasierter Empfehlung und kritikbasierter Empfehlung basieren. Diese Empfehlungsalgorithmen werden kombiniert, um stark personalisierte Ergebnisse für den einzelnen Nutzer zu erzielen. Die Propaganda in den sozialen Medien hat diese Hinweise natürlich aufgegriffen und die Beeinflussungsinstrumente so angepasst, dass identifizierbare und vertraute Gesichter gewöhnlicher Menschen eingesetzt werden. Ausgeklügelte Beeinflussungsmaßnahmen in den sozialen Medien sind praktisch nicht von organischen Inhalten zu unterscheiden, die durch Algorithmen verstärkt werden.

Problematisch ist auch, dass Facebook-Algorithmen einer intrinsischen Heuristik folgen, deren Ziele sich eher aus den Prioritäten des Unternehmens als aus den strengen Regeln der journalistischen Praxis ergeben. Dieser Prozess führt dazu, dass Hunderte von Inhalten destilliert werden, um dem Nutzer diejenigen anzuzeigen, die ihn den Vorhersagen zufolge am meisten interessieren könnten. Leider sind die Inhalte, mit denen die Nutzer am ehesten etwas anfangen können, nicht die, die am ehesten zutreffend sind. Vielmehr handelt es sich dabei um Inhalte, die eher emotionale Reaktionen auslösen.

Es gibt immer mehr Beweise dafür, dass Facebook-Feed eine große Auswirkung auf Nachrichteninhalte hat, genau auf die Gruppe von Inhalten, die dazu beitragen können, die Kluft zwischen Propaganda und tatsächlicher Realität zu überbrücken. Tageschehen und Politik sind eher von algorithmischen Änderungen betroffen als Nachrichten rund um Lifestyle, Sport und Kunst. Die asymmetrische Macht, die soziale Plattformen in den letzten zehn Jahren auf Nachrichtenorganisationen ausgeübt haben, ist eine weitere Kraft, die die Integrität des Informationsökosystems beeinträchtigt, insbesondere im Hinblick darauf, wie vertrauenswürdige Informationen und Nachrichten online abgerufen und konsumiert werden. Leider wird sich diese Kluft im Kontext eines Zermürbungskrieges, wie wir ihn gegenwärtig in der Ukraine erleben, wahrscheinlich weiter verschärfen.

Dr. Marco Bastos:

Dr. Marco Bastos ist Senior Lecturer in der Abteilung für Soziologie an der City University of London, wo er Medien- und Kommunikationstheorie und Forschungsmethoden unterrichtet. Zuvor hatte er Forschungspositionen an der Universität von Sao Paulo, der University of California in Davis und der Duke University inne, wo er Mitglied des Duke Network Analysis Center ist. Im Jahr 2017 ergab Dr. Bastos' Forschung Beweise für Netzwerke von Tausenden von verdächtigen Twitter-Bots, die im Vorfeld des EU-Referendums daran arbeiteten, die Brexit-Debatte zu beeinflussen. Die Untersuchung wurde zu einer wichtigen internationalen Information, die zunächst von Buzzfeed veröffentlicht wurde. Seine Untersuchungen befassen sich mit den soziologischen Aspekten digitaler Medien, wobei sein Hauptinteresse den Wechselwirkungen zwischen sozialen Online- und Offline-Netzwerken gilt. Seine Forschung verbindet Kommunikations- und computergestützte Sozialwissenschaften. Der Quellcode seiner Projekte ist auf CRAN und GitHub verfügbar.

Zur Übersicht