Breaking the News?

von am 02.03.2021 in Aktuelle Top Themen, Archiv, Digitale Medien, Gesellschaftspolitik, Journalismus, Kommunikationswissenschaft, Medienpolitik, Medienregulierung, Medienwissenschaft, Plattformen und Aggregatoren, Social Media, Studie

Breaking the News?

Politische Öffentlichkeit und die Regulierung von Medienintermediären

02.03.2021. Von Maximilian Gahntz, Katja T. J. Neumann, Philipp C. Otte, Bendix J. Sältz, Kathrin Steinbach

Die Bedeutung von Google, Facebook und Twitter für die Verbreitung und Sortierung von Informationen ist unverkennbar. Mit der Sperrung der Social-Media-Profile des scheidenden US-Präsidenten Donald Trump im Januar 2021 hat die Frage nach dem Einfluss der großen Plattformen und Suchmaschinen noch einmal neue Brisanz bekommen. Mit ihrem globalen Aufstieg hat sich unser Informationsverhalten radikal gewandelt. Nachrichten tauchen nun oft nebenbei im individualisierten Newsfeed auf. Plattformen fungieren mit ihren Empfehlungsalgorithmen als mächtige Gatekeeper, gleichzeitig verändern neue Mechanismen der direkten Interaktion und Personalisierung die öffentliche Kommunikation. Die konzentrierte Marktstellung, die Dynamik von Hassbotschaften und die unzureichende Datensicherheit bieten Anlass für Forderungen nach einer rechtlichen Einhegung und Regulierung dieser globalen Akteure. Die Studie der Friedrich-Ebert-Stiftung untersucht die aktuellen Ansätze im Medienstaatsvertrag und im geplanten Digital Services Act. medienpolitik.net publiziert einen Ausschnitt aus der Studie.

Algorithmen zur Empfehlung und Sortierung bei Intermediären

„Für die Empfehlung und Sortierung von Inhalten verwenden Intermediäre Algorithmen zur Erkennung von Mustern und zur Vorhersage von Verhalten, basierend auf Beobachtungen vorhergegangener Interaktionen und anderer Daten der Nutzer– insbesondere mithilfe von Methoden aus dem Bereich der Künstlichen Intelligenz (KI). Als Datenbasis dienen alle dem Betreiber zur Verfügung stehenden Metadaten wie Standort, IP-Adresse, Seitenaufrufe, Interaktionen (Käufe, Kommentare, Likes usw.), Endgerät oder Daten aus Cookies. Basierend auf diesen Daten entscheiden die Algorithmen der Intermediäre, welche Inhalte bestimmte Nutzer in welcher Reihenfolge zu sehen bekommen. Diese Praxis führt zu Rückkopplungseffekten. Haben Nutzer in der Vergangenheit häufig mit den Inhalten eines bestimmten Absenders interagiert, so wird dies in Zukunft je nach Algorithmus-Design zu einer stärkeren Präsenz dieser Angebote im persönlichen Feed führen. Auch die Relevanz eines bestimmten Inhalts wird bei überdurchschnittlicher Interaktionsfreudigkeit durch Nutzer entsprechend höher bewertet und mit größerer Wahrscheinlichkeit weiteren Nutzern angezeigt. Dieser Mechanismus kann durch einen weiteren Effekt begünstigt werden: Studien deuten darauf hin, dass Nutzer mit moralisch-emotionalen Inhalten überdurchschnittlich häufig interagieren und diese auch weiterverbreiten. So konnten Forscher für die USA aufzeigen, dass bei Tweets zu den umstrittenen Themen Waffengesetze, gleichgeschlechtliche Ehe und Klimawandel die durchschnittliche Retweetrate mit jedem moralisch emotionalen Wort deutlich steigt. Überspitzt formuliert heißt das: je emotionaler die Botschaft, desto höher die Reichweite.

Relevanz ist nicht gleich Relevanz

Was bedeutet es vor diesem Hintergrund, wenn es heißt, dass Plattformen ihre Empfehlungsalgorithmen fortlaufend „optimieren“? Was für Nutzer relevant ist und was nicht, entscheiden Intermediäre bisher im Geheimen. Intermediäre sind nicht in gleichem Maße wie traditionelle Medien rechtlich und normativ gebunden. Letzteren obliegt die Pflicht, einen positiven Beitrag zur öffentlichen Meinungsbildung zu leisten und dabei Vielfalt und Ausgewogenheit der Berichterstattung zu achten. Der wichtige Beitrag des Mediensystems zur liberalen Demokratie ist in der Verfassung verankert und wird in Landespresse- und Landesmediengesetzen sowie im Medienstaatsvertrag geregelt. Journalistische Berichterstattung richtet sich nach berufsethischen Grundsätzen, zu denen u.a. die strikte Trennung von Werbung und Redaktion gehört. Die Einhaltung des Pressekodex als freiwillige Selbstverpflichtung der Medien wird vom Deutschen Presserat geprüft. Weitere Qualitätskriterien journalistischer Arbeit sind etwa die klare Kennzeichnung von Nachrichten und Meinung und das Prinzip nachrichtlicher Relevanz. Dabei geht es vor allem um die Frage, welche Informationen für Bürger wichtig sind, um souveräne politische Entscheidungen treffen zu können. Bei Intermediären hingegen richtet sich Relevanz nach der Zielsetzung, die Interaktion und Verweildauer der Nutzer im Ökosystem der Plattform zu steigern und damit mittelbar im Sinne des Geschäftsmodells Werbeerlöse zu fördern. Sie treffen für das Design ihrer Empfehlungsalgorithmen grundlegende Entscheidungen, anhand derer sie die Vielzahl von Beiträgen für ihre Nutzer auswählen und sortieren. Die Entscheidungskriterien sind derzeit weder transparent noch nachvollziehbar und entziehen sich weitestgehend der Evaluation durch Nutzer.

Darüber hinaus wird das Ergebnis algorithmischer Kuratierung von Nutzern häufig als vermeintlich objektiv wahrgenommen.  Was in den Feed gespült wird oder in den Trefferlisten von Suchanfragen oben steht, wird häufig unreflektiert als wahr und als nach vermeintlich objektiven Kriterien relevant eingeordnet. Vielen Nutzern ist das Wirken einer algorithmischen Sortierfunktion dabei gar nicht bewusst. Kritisch ist dies u.a. dann, wenn Inhalten mit Nähe zu Verschwörungsideologien auf diese Weise zu Legitimation verholfen wird. Dies ist in besonderem Maße kritisch, da Menschen Informationen und Nachrichten häufig nicht rational einordnen, sondern kognitiven Verzerrungen unterliegen. Das verhaltenspsychologische Konzept der Bestätigungsverzerrung (confirmation bias) etwa legt nahe, dass Menschen insbesondere denjenigen Aussagen Glauben schenken, die ihren bereits vorhandenen Überzeugungen entsprechen. Von Echokammern und Filterblasen Die oben beschriebenen Rückkopplungseffekte und kognitiven Verzerrungen begünstigen mutmaßlich auch das Entstehen der vielzitierten sogenannten Filterblasen und Echokammern – eng miteinander verwandte Konzepte, die aber in unterschiedlichem Maße speziell die Rolle von Intermediären betreffen (siehe Kasten). Die Konzepte sind in diesem Zusammenhang umstritten: Zum einen gewinnen Echokammern im digitalen Raum zwar neue Relevanz, zugleich handelt es sich aber nicht um ein neuartiges Phänomen. Schon früher fanden sich Menschen in solchen separierten und selbstverstärkenden Informationsräumen wieder oder haben diese gar selbst konstruiert, etwa bei einseitiger Auswahl ihrer Nachrichtenquellen oder der Teilnahme am Stammtisch mit politisch Gleichgesinnten. Zum anderen scheinen in beiden Fällen die unterstellten Wirkungen von Intermediären und algorithmischer Inhaltsauswahl zwar plausibel, doch mangelt es nach wie vor an Empirie, die diese untermauert. Vorhandene Studien bleiben sowohl überschaubar als auch inhaltlich ambivalent. Eine Studie von Forschern der Universität Oxford bspw. untersuchte, inwieweit sich das Publikum unterschiedlicher Print-, Fernseh- und Onlinemedien in verschiedenen Ländern überschneidet. Die Autoren zeigen auf, dass es bei Onlinemedien nicht weniger Überschneidungen als offline gibt, ihr Publikum also keinesfalls fragmentierter und in Echokammern gefangen zu sein scheint. Eine Untersuchung derselben Autoren verglich zudem den Medienkonsum von Nutzer_innen aus drei europäischen Ländern und den USA, die angaben, Suchmaschinen als Nachrichtenquelle zu nutzen und jenen, die dies nicht taten. Das Ergebnis: Nutzer, die Suchmaschinen als Nachrichtenquelle nutzen, greifen im Durchschnitt sowohl auf eine höhere Zahl an Quellen zurück als auch auf eine ausgewogenere Auswahl von Quellen auf verschiedenen Seiten des politischen Spektrums. Eine Untersuchung zu Google-Suchen nach politischen Inhalten von Nutzern in den USA legt zudem nahe, dass die prominentesten Suchergebnisse für konservative und liberale Nutzer_innen nahezu identisch sind.

Dieselbe Studie zeigt zudem auf, dass eine geringe Zahl publizistischer Medien einen Großteil der am weitesten oben gelisteten Suchergebnisse ausmacht und dabei Nutzer auf beiden Seiten des politischen Spektrums erreicht. Eine weitere Studie zeigt auf Basis von Daten zum Medien- und Internetnutzungsverhalten von 200.000 US-Amerikaner, dass eine verstärkte Nutzung etwa von Facebook und Reddit zu einer höheren Vielfalt aufgerufener Nachrichtenquellen führt. Gleichzeitig zeigen die Autoren auf, dass etwa Konservative bei verstärkter Facebook-Nutzung deutlich konservativere Nachrichten konsumieren als üblicherweise, während dieser Effekt bei verstärkter Nutzung von Reddit – einer populären Plattform zum Teilen, Diskutieren und Bewerten von Inhalten mit global über 400 Millionen aktiven Nutzern – umgekehrt wird. So zeigt sich, dass sich verschiedene Funktionsweisen von Plattformen und Algorithmen stark unterschiedlich auf den Medienkonsum von Nutzern auswirken können. Vor diesem Hintergrund wird deutlich, dass die kausalen Wirkmechanismen und durch Intermediäre verursachten Effekte auf den Informationskonsum von Nutzern vielschichtiger sind, als in der öffentlichen Debatte häufig angenommen wird. Auch mangelt es an Untersuchungen zu der Frage, ob oder wie solche Mechanismen in verschiedenen Ländern und dementsprechend unterschiedlichen medialen Ökosystemen wirken. So drängt sich die Erkenntnis auf, dass dieses Feld nicht hinreichend erforscht und es nur bedingt gelungen ist, adäquat die Problemlagen im Verhältnis zwischen Intermediären und digitaler bzw. politischer Öffentlichkeit zu benennen.

Traditionelle Medien verlieren an Macht

Allgemein ist der Informationskonsum der Nutzer eklektischer geworden. Traditionelle Informationsquellen werden durch heterogene digitale Kanäle und Aggregatoren mit neuen Nutzungs- und Kuratierungslogiken ergänzt, bei denen der Konsum von Nachrichten mitunter nebenbei erfolgt. Eine Vielzahl an Nachrichteninhalten erscheint heutzutage im Fluss nutzergenerierter unterhaltender oder werblicher Inhalte in hybriden Feeds. Das kann Auswirkungen auf die Meinungsbildung haben, wenn zugespitzte Überschriften und Teaser die Nutzer ohne Kontext, Zeit und Muße für die Auseinandersetzung mit dem Inhalt treffen. So beachtlich der Siegeszug des Internets im Medienkosmos auch ist, so zeigen die Zahlen des Reuters Institute Digital News Report auch, dass Intermediäre und Onlinemedien den Medienmix ergänzen und die traditionellen Informationsquellen nicht verschwinden. Dazu kommt, dass sich Nutzer auch auf den neuen Plattformen an etablierten Medien orientieren. Trotzdem haben klassische Medien bei der Informationsverbreitung nicht nur ihre unangefochtene Rolle als Gatekeeper für die öffentliche Meinungsbildung zugunsten der Intermediäre zumindest ein Stück weit verloren. Vielmehr sind sie selbst in eine Abhängigkeit von Intermediären geraten, wenn es darum geht, Reichweite für ihre monetarisierten digitalen Produkte zu erzielen – und so wirtschaftlich zu bleiben.

Als etwa Facebook 2016 und 2017 Anpassungen an seinem Newsfeed-Algorithmus zu Gunsten von nutzergenerierten Inhalten und Werbeflächen vornahm, kam es in der Folge teils zu signifikanten Einbrüchen in der Reichweite von Medienanbietern. Sie müssen sich diesen neuen Voraussetzungen anpassen und neue Nachrichtenformate und -produkte zur besseren Verbreitung über Intermediäre entwickeln, um die Reichweite zu stabilisieren und neue Geschäftsmodelle zu erschließen. Neben begrüßenswerten journalistischen Innovationen führt etwa die Optimierung von Inhalten für die sozialen Medien auch bei seriösen Medien teils zu fragwürdigen Anpassungsreflexen.

Emotionalisierende oder verkürzende Darstellungen von Sachverhalten in Teasern folgen der weiter oben skizzierten Logik, nach der sich derartige Inhalte losgelöst von nachrichtlicher Relevanz überproportional verbreiten. An diesem Beispiel wird deutlich, dass Empfehlungsalgorithmen Realität nicht nur abbilden, sondern sie auch konstruieren. Wenn Empfehlungsalgorithmen die Agenda für politische Berichterstattung setzen, schließt sich der Kreis: Die Relevanzkriterien der Intermediäre nehmen nicht mehr nur Einfluss auf das, was die Nutzer zu sehen bekommen, sie nehmen auch eine nicht unerhebliche Rolle bei der Frage ein, welche Themen die Medien selbst für berichtenswert halten. Zusammengefasst sind die neuen digitalen Distributionskanäle auch für etablierte Medien unverzichtbar geworden und haben Intermediären zu einer Machtposition verholfen.

Schlussfolgerungen für die deutsche Medienlandschaft

Die Debatte um die Wechselwirkungen zwischen Intermediären, traditioneller Medienlandschaft und politischer Öffentlichkeit erreicht eine neue Phase. Erkenntnisse aus der empirischen Forschung stellen etablierte Narrative wie jene vom Entstehen von Filterblasen zunehmend infrage. Die Dynamik ist vielschichtiger und kontextabhängig, ein uniformer Trend hin zu einem sich immer weiter verengenden inhaltlichen Spektrum auf den Feeds von Nutzern nur bedingt erkennbar. Vor diesem Hintergrund scheint ein Eingeständnis naheliegend: Über das Zusammenspiel von Intermediären und politischer Öffentlichkeit ist noch zu wenig bekannt. Der Stand der Forschung liefert erste Einblicke, doch es gilt ein tiefgehendes Verständnis der verschiedenen Wirkmechanismen und Probleme zu erlangen. Dieses Eingeständnis ist nötig, um politischem Aktionismus vorzubeugen und keine überstürzten Lösungen für Probleme voranzutreiben, die in vielerlei Hinsicht noch nicht verstanden sind. Doch nicht alle Initiativen kommen zu früh. Bereits heute werden die Grundlagen dafür geschaffen, die beschriebenen Herausforderungen langfristig zu überwinden. So gilt es erstens, die Autonomie von Nutzern zu stärken. Zweitens muss größere Transparenz seitens der Intermediäre geschaffen werden, um eine bessere Erforschung der durch sie verursachten (bzw. nicht verursachten) Effekte auf Medien, Meinungsbildung und Demokratie zu ermöglichen.

Mehr Transparenz durch Zugang zu Daten schaffen

Der zunehmende Einfluss von Intermediären auf die politische Öffentlichkeit und Demokratie ist ein noch junges Phänomen. Um eine Evidenzbasis für einen angemessenen und zukunftsfesten Ordnungsrahmen zu schaffen und um demokratische Kontrolle der Intermediäre – durch Politik, Gerichtsbarkeit, Wissenschaft und Zivilgesellschaft – sicherzustellen, braucht es daher vor allem eines: Transparenz. Um diese zu schaffen, müssen Intermediäre Einblicke in ihre Funktionsweise und Outputs gewähren. Dies erfordert einen Zugriff auf ihre Daten. Denn diese werden zwar erfasst, doch noch viel zu selten geteilt – teils auch aufgrund berechtigter Bedenken, etwa beim Datenschutz. Es gilt also, Mechanismen zu schaffen, die einen Datenzugriff durch Dritte ermöglichen und zugleich legitime Bedenken der Intermediäre berücksichtigen. Mittels Programmierschnittstellen sollten Prozesse etabliert werden, über die Aufsichtsbehörden, Forscher und zivilgesellschaftliche Organisationen Zugriff auf anonymisierte Daten erhalten – ähnlich wie im DSA der Europäischen Kommission vorgeschlagen. Auf diese Weise werden zwei Ziele erreicht: Zum einen könnte der vereinfachte Datenzugang mehr Forschungsaktivität fördern und die Validierung oder Falsifizierung bestehender Hypothesen ermöglichen. Zum anderen könnten Intermediäre besser für schädliche Nebenwirkungen ihrer Produkte und Geschäftsmodelle zur Rechenschaft gezogen werden – unabhängig davon, ob diese ungewollt sind oder wissentlich in Kauf genommen werden.

Die Autonomie der Nutzer stärken

Demokratien trauen ihren Bürgen einiges zu. Ihrer starken Rolle im demokratischen Prozess liegt die Annahme zugrunde, dass sie sich frei und selbstständig informieren und eine Meinung bilden können. Voraussetzung hierfür ist auch ein funktionierendes Mediensystem, das Zugang zu glaubwürdigen Informationen und vielfältigen Standpunkten verschafft. Der zunehmende Einfluss von Intermediären in unserem Mediensystem schafft neue Herausforderungen. Sich frei und selbständig informieren zu können, erfordert – unabhängig von den tatsächlichen Inhalten – auch ein grundlegendes Verständnis davon, weshalb sich welche Inhalte in welcher Reihenfolge in einem Feed oder in Suchergebnissen wiederfinden. Dies gilt insbesondere, je stärker Empfehlungsalgorithmen sich auf Verhaltensdaten jenseits vom „Folgen“ und „Abonnieren“ bestimmter Personen oder Kanäle stützen. Das Transparenzgebot des Medienstaatsvertrags ist hierbei ein Schritt in die richtige Richtung, wie auch die im DSA vorgeschlagenen Informationspflichten zu Empfehlungsalgorithmen bei besonders großen Plattformen. Eine mögliche Funktion, um Transparenz für Nutzer zu schaffen, wären zudem etwa ähnliche Erklärungen, wie sie sich bei manchen Plattformen bereits auch direkt bei personalisierten Werbebeiträgen wiederfinden. Doch Transparenz ist zwar notwendige, aber nicht hinreichende Bedingung für effektive Selbstbestimmung der Nutzer. Letztere erfordert auch ein Mindestmaß an Einflussnahme auf jenen Ausschnitt der Realität, den ein Feed oder Suchergebnisse abbilden. Dieses muss über die Entscheidung hinausgehen, einer Person zu folgen oder einen bestimmten Suchbegriff einzugeben. Personalisierung sollte kein vorrangig passiver, sondern ein aktiver, bewusster Prozess sein. Das umfasst auch die Möglichkeit, sich einer algorithmischen Personalisierung gänzlich zu verweigern, wie ebenfalls im DSA als Wahlmöglichkeit angeregt. Tatsächlich sollten Nutzer in eine solche Personalisierung proaktiv einwilligen (Opt-In). Standardmäßig sollte dagegen eine Sortierung angeboten werden, die etwa chronologisch – wie z.B. von Twitter angeboten – oder anhand selbst wählbarer Parameter erfolgt (bspw. nach Anzahl der Likes). Dies ginge über existierende Mechanismen bewusster Personalisierung, etwa das Abonnieren bestimmter Kanäle, hinaus und könnte neue innovative Ansätze hervorrufen. So ist es etwa denkbar, wie bei der Einwilligung in die Nutzung von Cookies seit Inkrafttreten der Datenschutzgrundverordnung, mehrere Abstufungen bei der Personalisierung anzubieten – mit dem Vorteil, dass Intermediäre diese Einstellung nur einmalig abfragen müssten.

Wohin führt der Weg?

Wie soll die Medienlandschaft der Zukunft aussehen? Welche Art politischer Öffentlichkeit ist am besten geeignet, unsere Demokratie zu stärken? Es liegt an Politik und Gesellschaft, diese Fragen zu beantworten. Den Zustand früherer Tage eins zu eins wiederherstellen zu können, ist realitätsfern und sollte auch nicht das Ziel sein. Intermediäre wie soziale Medien oder Suchmaschinen werden auf absehbare Zeit nicht verschwinden – aus gutem Grund. Sie schaffen neue Möglichkeiten für Austausch und Partizipation und können in einer Zeit, in der die Fülle zugänglicher Informationen überwältigend ist, dabei helfen, Informationen auffindbar und sortierbar zu machen. Die diskutierten Risiken, die damit einhergehen, sind zu bewältigen – wenn Intermediäre in einen angemessenen Ordnungsrahmen eingebettet sind und sich demokratischer Kontrolle nicht entziehen können. Die zentrale Herausforderung ist also nicht, die Uhr zurückzudrehen, sondern demokratischen Werten auch in einem drastisch veränderten Mediensystem Geltung zu verschaffen. Das erfordert sowohl Geduld als auch Vorstellungskraft, weder voreiliger Aktionismus noch Sentimentalität sind dabei zielführend. Damit der Wandel der Medienlandschaft sich in einem demokratischen Rahmen vollzieht, müssen bestehende Regulierungen weiterentwickelt werden – mit Umsicht und auf Basis wissenschaftlicher Evidenz.“

https://www.fes.de/medienpolitik/artikelseite/breaking-the-news

Print article