Medienwissenschaft:

Facebook – kritischer Knotenpunkt der digitalen Öffentlichkeit

von am 14.09.2017 in Allgemein, Archiv, Digitale Medien, Gastbeiträge, Medienkompetenz, Medienwissenschaft, Plattformen und Aggregatoren, Social Media, Studie

<h4>Medienwissenschaft:</h4> Facebook – kritischer Knotenpunkt der digitalen Öffentlichkeit
Prof. Dr. Birgit Stark, Institut für Publizistik, Johannes Gutenberg-Universität Mainz

Die Bedeutung von Intermediären für die Meinungsbildung wird überschätzt

14.09.17 Von Prof. Dr. Birgit Stark, Institut für Publizistik, Johannes Gutenberg-Universität Mainz

Die Bedeutung sogenannter Intermediäre wie Facebook für die Meinungsbildung (Stichworte: Echokammern, Filterblasen) wird überschätzt. Einer neuen Expertise zufolge ist Facebook für die meisten Nutzer eine Nachrichtenquelle unter vielen, aber nicht die alleinige Informationsquelle. Die Befürchtung, dass sich die Menschen in Filterblasen bewegten und etwa mit Blick auf die Bundestagswahl nur eingeschränkt informiert seien, muss demnach aus wissenschaftlicher Sicht relativiert werden. Die von der Landesanstalt für Medien NRW (LfM) in Kooperation mit dem Forschungsschwerpunkt MedienKonvergenz der Johannes Gutenberg-Universität Mainz (JGU) vorgelegte Expertise „Ganz meine Meinung? Informationsintermediäre und Meinungsbildung“ geht der tatsächlichen Bedeutung der Informationsintermediäre für die Meinungsbildung nach, die empirisch bislang wenig untersucht ist. Ein signifikanter Effekt für Facebook sei beim wahrgenommenen Meinungsklima zu beobachten. Hier könne es zu einer Gefahr für die Meinungsbildung kommen, wenn gesellschaftliche Randgruppen – unterstützt durch Social Bots oder Fake News – Diskussionen manipulieren, indem sie beispielsweise bestimmte Themen pushen oder gezielt durch Kommentare emotional polarisieren. Die Studie belegt zudem weitere Einflussfaktoren auf die Meinungsbildung, darunter Persönlichkeitseigenschaften wie die Persönlichkeitsstärke oder das eigene politische Interesse und nichtmediale Informationsquellen, wie das persönliche Gespräch.

Implikationen aus der Studie

Zusammengefasst zeigen die Befunde unserer Untersuchung, dass die Rolle von Informationsintermediären im Meinungsbildungsprozess differenziert betrachtet werden muss. Keinesfalls darf ihr Wirkungspotenzial losgelöst, d. h., ohne den Blick auch auf das gesamte Informationsrepertoire der Nutzer und individuelle Einflussfaktoren zu werfen, analysiert werden. Simple Erklärungsmuster im Sinne einer isolierten Betrachtung von Facebook würden den komplexen Wirkmechanismen nicht gerecht werden und die Bewertung der Folgen auf gesamtgesellschaftlicher Ebene verzerren. Zentral sind im Kontext unserer Gesamtergebnisse deshalb folgende Punkte:

1. Voraussetzungen für Filterblasen nicht gegeben:

Facebook ist zweifelsohne zu einem wichtigen Faktor für die Meinungsbildung geworden.
Allerdings ist Facebook in aller Regel lediglich eine Zusatzquelle, und nicht die alleinige Informationsquelle für politische Themen. Das bedeutet, der Anteil algorithmisch gesteuerter Informationen bestimmt das Informationsrepertoire (noch) nicht – oder anders ausgedrückt, der Anteil von Nachrichten, die aus personalisierten Quellen bezogen werden, ist überschaubar. Damit sind die Voraussetzungen für Filterblasen mit Blick auf die Informationsrepertoires bislang nicht gegeben. Denn das Angebot traditioneller Nachrichtenquellen, das in der Regel nicht personalisiert ist, gibt jedem Nutzer die Chance, auf universelle Nachrichtenangebote zu treffen, und schließt im Umkehrschluss aus, dass Nutzer ausschließlich mit zur eigenen Einstellung passenden Informationen konfrontiert werden. Dass die Effekte von Facebook weniger stark als befürchtet sind, gibt aber keinesfalls Grund zur Entwarnung, denn sie sind messbar und werden ansteigen, sobald personalisierte Nachrichtenquellen weiter an Relevanz gewinnen bzw. klassische Vermittler von Nachrichten schwächer werden.

2. Meinungsbildungsrelevanz durch Meinungsklimawahrnehmung:

Subtile Beeinflussungsmechanismen zeigen sich vor allem auf der letzten Stufe des Meinungsbildungsprozesses, insbesondere bei der Beobachtung des Meinungsklimas auf Facebook, das zu medienspezifischen Wahrnehmungsphänomenen führen kann. Es bestätigt sich, dass gruppen dynamische Entwicklungsprozesse entstehen, die den prägenden Charakteristika der Kommunikationsumgebung auf Facebook geschuldet sind und als Ursache von Wahrnehmungsverzerrungen interpretiert werden müssen, die zugleich den Nährboden für Echokammern-Effekte schaffen. Den Befunden der Studie zufolge kommen diese aber nur unter bestimmten Bedingungen zum Tragen. Unabhängig von der tatsächlichen Meinungsverteilung in der Bevölkerung kann dies dazu führen, dass die Menschen die Mehrheitsmeinung zu bestimmten Themen in der Gesellschaft falsch einschätzen. So kann es auf Facebook zu einem Spiralprozess kommen, in dessen Verlauf ein Meinungslager vielleicht nicht mehr wahrgenommen werden kann, bedingt durch die höhere Artikulationsbereitschaft des anderen. In diesem Sinne unterliegen Facebook-Nutzer der so genannten „looking-glass perception“ (Wojcieszak & Price 2009), einer Art Spiegel-Wahrnehmung: Man glaubt, die reale Welt – sprich die tatsächliche Meinungsverteilung – zu sehen. Tatsächlich schaut man aber in einen „Spiegel“ und geht in der Folge unbewusst davon aus, dass die eigene Meinung der gesellschaftlichen Mehrheitsmeinung entspricht.

3. Manipulationsgefahr in Bezug auf die Wahrnehmung des Meinungsklimas am höchsten:

So zeigt sich das Wirkungspotenzial sozialer Netzwerkplattformen wie Facebook am stärksten in der Einschätzung des Meinungsklimas und damit auch bei der Vorstellung von sozialer Realität im Allgemeinen. Die Befunde der Studie verweisen hier auf mögliche affektive Polarisierungseffekte, die themenspezifisch auftreten und durch die Aufmerksamkeitssteuerung klassischer Medien verstärkt werden können. Diese greifen wiederum solche Themen auf, die dadurch in der Öffentlichkeit gewaltige Resonanz erfahren. In kürzester Zeit werden diese moralisch aufgeladenen Themen in die öffentliche Debatte gebracht, verlieren umgekehrt aber genauso rasch wieder an Bedeutung – was in Bezug auf Facebook auf eher kurzfristige Wirkungseffekte schließen lässt. Den Befunden der Studie zufolge ist an dieser Stelle des Meinungsbildungsprozesses das Einfallstor für einen möglichen Missbrauch durch Social Bots und Falschmeldungen auf Facebook am größten. Denn auf diesem Wege kann interessengeleitete Desinformation nicht nur durch bestimmte Themensetzungseffekte die Medienagenda, sondern auch das Meinungsklima in der Bevölkerung im gewünschten Sinne beeinflussen. Das bestätigt auch das aktuelle Whitepaper von Facebook, das die Rolle von Fake-Accounts hervorhebt. Diese können dazu dienen, bestimmte Themen durch viele Likes, Shares und Kommentare zu pushen oder verschiedene Gruppen gegeneinander aufzuhetzen (Weedon, Nuland & Stamos 2017).

Welche Maßnahmen erscheinen im Kontext unserer Ergebnisse angebracht?

Resümierend dokumentieren die Befunde unserer Studie, dass Facebook seine Nutzer nicht per se in abgeschottete Kommunikationsräume trägt. Ob aus algorithmenbasierter Informationsvermittlung gefährliche Filterblasen oder Echokammern werden, liegt in den Händen mehrerer gesellschaftlicher Gruppen und Institutionen: der Nutzer, des Gesetzgebers, der klassischen Massenmedien und nicht zuletzt von Facebook selbst. Sie alle tragen Verantwortung im digitalen Zeitalter und müssen sich ihrer (neuen) Rolle bewusst(er) werden.

Was Nutzer lernen müssen: Umgang mit Algorithmen

So unterstreicht unsere Studie die Rolle der Medienkompetenz als Bildungsaufgabe. Nicht nur die zunehmende Mediatisierung des Alltags, sondern auch die wachsende Bedeutung von Informationsintermediären für die politische Informationsvermittlung verdeutlichen, wie wichtig der kompetente Umgang mit den relevanten Netzwerkplattformen ist. Dass diese zentrale Aufgabe im Sinne lebenslangen Lernens zu verstehen ist, veranschaulichen die Beiträge in der Online-Community. Denn sie zeigen einerseits, wie viel reflektierter als vielfach erwartet die Nutzer zum Teil mit den beschriebenen Problemen auf Facebook umgehen. Anderseits machen sie deutlich, wie schwer bestimmte Nutzergruppen für solche Maßnahmen erreichbar sind. Der reflektierte Umgang könnte zweifelsohne noch viel stärker von Facebook selbst gefördert werden, indem z. B. die Funktionsweise des Algorithmus dem Nutzer auf einfache Art und Weise nähergebracht wird. Bewusstes Liken und Interagieren mit bestimmten Inhalten beeinflusst den Newsfeed, so dass die aktive Auswahl von Inhalten seitens der Nutzer durchaus einen Einfluss haben könnte. Voraussetzung dafür wäre ein gewisses Grundverständnis der Nutzer von der Funktionsweise des Algorithmus. Mehr Transparenz für die Wirkungsmechanismen von Algorithmen könnte durch entsprechende Apps geschaffen werden, wie es bislang nur wenige auf dem Markt gibt. So sollen Apps wie „Read Across the Aisle“ oder Plug-Ins wie „Politecho“ helfen, Nachrichten bewusster zu konsumieren und sich auch mit abweichenden Meinungen zu befassen, indem sie beispielsweise Auskunft darüber geben, wie einseitig die Facebook-Nachrichtenumgebung ist (Beisel 2017). Die Rolle einer bewussten Aufmerksamkeitslenkung im Sinne einer positiven Vielfaltssicherung (insbesondere im Kontext von „diversity by design“) wird deshalb zukünftig noch stärker diskutiert werden müssen (Stark & Steiner 2016). Solche Vorschläge sind im Sinne von „labeling information“ im veränderten Nachrichten-Ökosystem zu verstehen, wie es Frank Pasquale bei seinem Vortrag auf der diesjährigen re:publica thematisiert hat.

Was Nutzer sich wünschen: Härteres Vorgehen

Ganz klar wünschen sich die Nutzer ein rigoroses Vorgehen gegen Hasskommentare. Hier beziehen sie eindeutig Position, denn die meisten von ihnen haben damit bereits sehr negative Erfahrungen gemacht. Eine aktive Mitwirkung seitens der Nutzer durch kritische Kommentarmeldungen sollte entsprechende Reaktionen von Facebook nach sich ziehen. Keine oder eine als unbefriedigend empfundene Reaktion seitens Facebook führt dagegen zu Resignation. Das heißt im Klartext, wenn Nutzer versuchen sich aktiv einzubringen, darauf aber keine Reaktion erfolgt, ist das ein fatales Signal. Insgesamt beurteilen auch die Nutzer selbst den Erfolg möglicher Regulierungsmaßnahmen von Hasskommentaren auf Facebook als sehr ambivalent. Die Möglichkeiten, dem Problem Herr zu werden, werden als eher gering eingeschätzt. Als mögliche Verantwortliche werden Facebook, die Nutzer und der Gesetzgeber genannt. Insgesamt unterstreichen unsere Resultate den Handlungsbedarf. Denn aus der Wirkungsperspektive ist die rasche Entfernung von rechtswidrigen Inhalten in sozialen Netzwerken nicht nur zentral, sondern auch von Nutzerseite dezidiert erwünscht. Dabei ist allerdings die Meldung von Inhalten durch Einzelpersonen von der inhaltlichen Bewertung und der Löschentscheidung strikt zu trennen: Den Nutzern selbst fehlt letztlich die Legitimation für einen solchen Eingriff in die kommunikativen Freiheiten ihrer Mitbürger. Könnten sie unmittelbar über die Entfernung von Inhalten entscheiden, droht zudem die Unterdrückung von Minderheitenpositionen.

Was kann das Facebook-Gesetz bewirken: Schutz oder Ende der Meinungsfreiheit?

Inwieweit mit dem im Bundestag verabschiedeten Netzwerkdurchsetzungsgesetz ein wirksames Beschwerdemanagement realisiert werden kann, wird sich nach Inkrafttreten des Gesetzes im Herbst 2017 zeigen müssen. Das Gesetz verpflichtet die Betreiber sozialer Netzwerke, „offensichtlich“ strafbare Inhalte binnen 24 Stunden nach Eingang einer Beschwerde zu löschen oder zu sperren: Für sonstige rechtswidrige Inhalte bleibt mehr Zeit; sie müssen innerhalb von sieben Tagen gelöscht oder gesperrt werden, ansonsten drohen bei mehrfachen Verstößen hohe Geldstrafen. Verbindliche Standards für das Beschwerdemanagement sollen Netzwerkbetreiber zu einer besseren Aufsicht über rechtswidrige Posts zwingen, auch die Benennung eines inländischen Zustellungsbevollmächtigten – ein Ansprechpartner u. a. für Gerichte – soll helfen, die Rechte Betroffener besser zu wahren. Auch können die sozialen Netzwerke im Falle von nicht offensichtlich rechtswidrigen Inhalten die Entscheidung an gemeinsame Einrichtungen der Plattformbetreiber abgeben, die unabhängig sein müssen – eine „anerkannte Einrichtung der regulierten Selbstregulierung“.Für mehr Transparenz soll zudem die regelmäßige Veröffentlichung eines Beschwerdeberichts sorgen.
Die generelle Zielsetzung des Gesetzes, strafbare Inhalte zu vermeiden und somit einen zivilen Diskurs auf Plattformen zu gewährleisten, stößt auf breite Unterstützung. Allerdings werden der Weg und die konkrete Umsetzung scharf kritisiert. So wurde das Gesetz nach Ansicht vieler nicht nur völlig überhastet verabschiedet, sondern weist trotz einiger Änderungen noch handwerkliche Fehler auf: Nach Meinung der Kritiker stellt es insbesondere eine Gefahr für die Meinungsfreiheit dar, da es den Anreiz zum Overblocking („im Zweifel lieber löschen“) schaffe.
Darüber hinaus wird die Privatisierung der Rechtsdurchsetzung als der zentrale Konstruktionsfehler des Regulierungsversuchs kritisiert. Zweifel bestehen an der Bundeskompetenz für das Gesetzesvorhaben, da der Schutz des Kommunikationsprozesses in der Zuständigkeit der Länder liegt. Zudem ist unklar, ob das Gesetz den einschlägigen Maßstäben des Europarechts genügt.
Unverkennbar hat die Auseinandersetzung gezeigt, dass wir erst am Anfang der Debatte stehen, auch den Einfluss von Algorithmen auf die öffentliche Kommunikation medienpolitisch richtig einzuordnen und die normativen Leitlinien angemessen zu gestalten.

Wie können Medien den Lernprozess fördern: Digitale Aufklärung

Dass gerade auch die Berichterstattung in traditionellen Medien zu diesem Thema eine zentrale Rolle spielt, rückt erst allmählich ins Bewusstsein. So verweisen in den letzten Monaten Journalisten selbst zunehmend auf ihre Aufklärungsfunktion und eigene Wahrnehmungsblasen, manche sprechen sogar von „journalistischen Filterblasen“ (beispielsweise Hurtz & Tanriverdi 2017; Gutjahr 2017). Nicht zuletzt werden der Filterblasen- und der Echokammern-Effekt durch das enorm starke Medieninteresse an diesem Thema und exemplarische Beobachtungen in der öffentlichen Debatte überschätzt. Auf Basis unserer Befunde gehen wir jedoch davon aus, dass beides keine Breitenphänomene sind, sondern sich solche Tendenzen an den Rändern des politischen Spektrums zwar durchaus finden lassen, aber nur einen kleinen Teil der Nutzer betreffen – eben solche mit radikalen Ansichten, die durch Befragungen vermutlich nicht erreichbar sind und sich früher auch offline in Echokammern begeben haben (und sich auch heute noch begeben) – z. B. an Stammtischen und in radikalen politischen Gruppierungen.
Grund für Entwarnung ist das aber nicht, denn selbst wenn sich nur wenige Nutzer am Rand des politischen Spektrums in Echokammern befinden, besteht Handlungsbedarf – nicht zuletzt aufgrund eines zentralen Unterschieds zu früheren „Offline-Echokammern“: Die Reichweite und Verbreitungsgeschwindigkeit sind online um ein Vielfaches größer. Während „Offline-Echokammern“ früher lokal begrenzt waren, eröffnen Facebook und ähnliche Plattformen eine geografisch unabhängige, weltweite Vernetzung mit Gleichgesinnten. Und wenn auf Facebook zudem vorwiegend Menschen mit extremen Meinungen schreiben – darunter viele, die man gar nicht persönlich kennt –, kann vermutlich leichter als offline der Eindruck entstehen, man gehöre mit seiner Minderheitenmeinung der Mehrheit an. Auch bei denjenigen mit gemäßigten Meinungen, die diesen Diskussionen meist passiv folgen, kann das zu einer verzerrten Wahrnehmung des Meinungsklimas führen. Und darin besteht tatsächlich eine Gefahr für den gesellschaftlichen Zusammenhalt.

Was Facebook tun sollte: Zugang zu Daten – Kooperation mit der Wissenschaft

Angemessene Handlungsmöglichkeiten zu entwickeln ist schwierig, zumal sich die zu regulierenden Phänomene rasant weiterentwickeln und eine große Zahl von Menschen betreffen. Gerade deshalb wäre es aber das falsche Signal, Informationsintermediäre aus ihrer Verantwortung zu entlassen. Sie waren früher und sind heute keineswegs nur unbeteiligte Vermittler, sondern tragen Mitverantwortung für Fehlentwicklungen. Das von ihnen oft angeführte Argument, sie seien nur Technologieplattformen, entbindet sie ebenso wenig von ihrer Rechenschaftspflicht, da sie faktisch längst vergleichbare Wirkungseffekte wie der Journalismus erzielen. Hinzu kommt, dass es ohne die Mitwirkung der Unternehmen schlichtweg nicht möglich ist, gegen bestimmte Entwicklungen vorzugehen. Daher müssen die Plattformanbieter in Co-Regulierungsmaßnahmen eingebunden werden und mehr Einblicke in die Funktionsweise ihrer Algorithmen gewähren. Eine stärkere Öffnung der Plattform zu Forschungszwecken in Kooperation mit unabhängigen Wissenschaftlern wäre ebenso ein Schritt in die richtige Richtung. Denn nur, wenn sich die Black Box öffnet, kann sich unser Verständnis von den Wirkungsmechanismen weiterentwickeln.

Was zukünftig noch wichtiger wird: Verantwortung für den öffentlichen Diskurs

Insgesamt dürfte deutlich geworden sein, dass nur ein Maßnahmenkatalog, bei dem alle beteiligten Akteure eingebunden sind, dauerhaft zu einer positiven Veränderung führen kann. Eine alleinige Selbstregulierung seitens der Informationsintermediäre führt sicherlich zu einem Kontrollvakuum. Denn das Bewusstsein für Verantwortung im Sinne einer neuen Form von „intermediary accountability“ ist leider noch nicht hinreichend bei ihnen angekommen (Mündgens 2017). Immer wieder entsteht der Eindruck, die Plattformen initiierten Maßnahmen nur, weil sie in der öffentlichen Debatte dazu gedrängt werden, nicht weil es ihnen selbst ein Anliegen ist – also aus Imagegründen. Facebook als ein „kritischer Knotenpunkt“ in der neuen digitalen Öffentlichkeit wird lernen müssen, mit dieser Verantwortung umzugehen. Gleichwohl ist es für eine freie, offene und demokratische Gesellschaft sowie für den Zusammenhalt in einer solchen Gesellschaft zentral, dass der Gesetzgeber einen angemessenen Ordnungsrahmen gegen Rechtsverletzungen vorgibt, um die Meinungsfreiheit im Netz zu gewährleisten.

Birgit Stark, Melanie Magin, Pascal Jürgens „Ganz meine Meinung? Informationsintermediäre und Meinungsbildung – Eine Mehrmethodenstudie am Beispiel von Facebook“
LfM-Dokumentation, Band 55; ISBN 978-3-940929-44-0, www.lfm-nrw.de/

Der Beitrag wurde in der promedia-Ausgabe 09/17 erstveröffentlicht.

Print article

Kommentieren

Bitte Pflichtfelder ausfüllen