Medienpolitik:

„Relevanz allein ist kein Kriterium für Vielfalt“

von am 25.06.2018 in Allgemein, Archiv, Digitale Medien, Internet, Interviews, Medienordnung, Medienpolitik, Medienregulierung, Plattformen und Aggregatoren, Regulierung

<h4>Medienpolitik:</h4> „Relevanz allein ist kein Kriterium für Vielfalt“
Prof. Dr. Werner Schwaderlapp, Vorsitzender der Medienkommission der Landesanstalt für Medien NRW (LfM)

Medienversammlung NRW debattiert über Auswirkungen von Algorithmen und Künstlicher Intelligenz

25.06.18 Interview mit Prof. Dr. Werner Schwaderlapp, Vorsitzender der Medienkommission der Landesanstalt für Medien NRW (LfM)

Algorithmische Entscheidungsprozesse und Künstliche Intelligenz sind längst Teil unseres Lebens. So nehmen sie auch im medialen Bereich eine zunehmend wichtige Stellung ein, indem sie unsere Aufmerksamkeit lenken und beeinflussen, welche Inhalte wir wahrnehmen. Dabei lernen sie ständig mehr über unsere Vorlieben und Interessen und passen das Medienangebot fortlaufend daran an. Diese Automatisierungsprozesse befeuern einerseits die Entstehung und Entwicklung medialer Vielfalt, bergen aber auch potenzielle Vielfaltsrisiken: Wie wirkt sich die zunehmende Personalisierung auf eine öffentliche Debatte aus? Nach welchen Regeln bestimmen Algorithmen, welche Inhalte relevant sind? Lesen, sehen und hören wir zukünftig nur noch Inhalte, die eine große Aufmerksamkeit und damit eine optimierte Refinanzierung versprechen? Über diese Fragen debattiert Ende Juni die Medienversammlung der Landesanstalt für Medien Nordrhein-Westfalen (LfM) zum Thema „Algorithmen und Künstliche Intelligenz: Magie mit (medialen) Nebenwirkungen“.
Die Medienversammlung ist eine besondere Einrichtung in NRW. Die Versammlungen findet in der Regel einmal im Jahr statt. Gegenstand der Medienversammlung sind aktuelle Themen, die aus Sicht der Beteiligten, insbesondere der Nutzerinnen und Nutzer, für den Stand und die Entwicklung der Medien in Nordrhein-Westfalen von besonderer Bedeutung sind.

medienpolitik.net: Herr Schwaderlapp, die LfM-Medienversammlung wird sich Mitte Juni mit dem Thema „Algorithmen und Künstliche Intelligenz“ befassen. Warum haben Sie dieses Thema gewählt?

Prof. Dr. Werner Schwaderlapp: Die Digitalisierung hat große Auswirkungen auf unsere privaten und öffentlichen Lebensbereiche. Sie verändert praktisch alles, mit erheblichen Konsequenzen etwa für die Arbeitswelt. Algorithmenbasierte Entscheidungsprozesse stehen dabei im Mittelpunkt der Entwicklungen. Deren Auswirkungen auf die Gesellschaft sind überhaupt noch nicht absehbar. Es ist aus meiner Sicht das große Thema, das auch die Medienregulierung beschäftigen muss.

medienpolitik.net: Dazu ist in den vergangenen Monaten schon viel gesagt worden. Wo sehen Sie neue Aspekte oder offene Fragestellungen?

Prof. Dr. Werner Schwaderlapp: Wichtige Fragen sind vielleicht schon länger bekannt, aber noch kaum beantwortet. Wir wissen doch zum Beispiel wenig darüber, wie sich Algorithmen auf die Vielfalt und den gesellschaftlichen Diskurs auswirken. Das Wissen darüber ist aber wichtig: Denn Informationsintermediäre wie Facebook oder Google, deren Herzstück automatisierte Prozesse sind, haben einen großen Einfluss auf mediale Vielfalt. Bereits heute nutzen rund 33 Prozent der Bevölkerung Google, Facebook & Co. täglich zur Information über das Zeitgeschehen. Damit ist die „informierende“ Tagesreichweite dieser Plattformen bereits höher als die aller Tageszeitungen.

medienpolitik.net: Welche praktischen Konsequenzen hat dieses Themenfeld für die Arbeit der LfM?

Prof. Dr. Werner Schwaderlapp: Die LfM hat seit 2016 den gesetzlichen Auftrag, sich mit Informationsintermediären zu beschäftigen und hier vor allem die Medienwirkung bzw. potenzielle Gefährdungsfelder für die Vielfalt zu erforschen.
Algorithmen, mit denen die Intermediäre arbeiten, bestimmen die Auswahl, die Aggregation und die Präsentation der Inhalte. Ohne Transparenz darüber, wie diese Prozesse funktionieren und auf welchen Relevanzkriterien sie beruhen, kann keine Aussage darüber getroffen werden, ob und wie bestimmte Inhalte diskriminiert werden, bzw. ob im Einzelfall ein diskriminierender Missbrauch vorliegt. Auch eine möglicherweise entstehende Verengung der Vielfalt von journalistisch-redaktionellen Angeboten sowie eine (gezielte) Einflussnahme auf die Meinungsbildung der Nutzer kann bisher nicht umfassend bewertet werden.

medienpolitik.net: Welche Auswirkungen können mediale Automatisierungsprozesse auf die mediale Vielfalt haben?

Prof. Dr. Werner Schwaderlapp: Ich bin davon überzeugt, dass die Digitalisierung und neue Medien in der Summe einen positiven Vielfaltseffekt bewirkt haben und weiterhin bewirken werden. So viele Inhalte für so viele verschiedene Themen, Sichtweisen und Darstellungsformen wurden in der analogen Welt nie produziert. Daher müssen Intermediäre mit ihren Algorithmen die Auffindbarkeit von und Aufmerksamkeit für mediale Inhalte auf neuen Verbreitungsplattformen gestalten. Dies ist eine wunderbare, die Vielfalt für den Nutzer überhaupt erst erschließende Leistung. Es kann unter bestimmten Bedingungen aber auch vielfaltsverengend oder tendenziös wirken und könnte im schlimmsten Fall auch effektiv für gezielte Desinformation genutzt werden.
Nutzer, Medienakteure, Politik und Regulierung müssen daher wissen und verstehen, wie diese Entscheidungs- und Auswahlprozesse funktionieren, welche Relevanzkriterien dabei angewendet werden und welche Rolle die dabei verwendete Datenbasis spielt. Wenn die digitale Welt auf Basis gesellschaftlicher Entscheidungen strukturiert und gestaltet werden soll, und eben nicht abhängig von den Interessenslagen privater Unternehmen sein soll, brauchen wir eine gesellschaftliche Übereinkunft auf Wertvorstellungen. Algorithmen und diejenigen, die sie einsetzen, müssen dann darauf verpflichtet werden.

medienpolitik.net: Wo liegen Ihrer Meinung nach die Risiken der zunehmenden Personalisierung?

Prof. Dr. Werner Schwaderlapp: Bisher gibt es in Deutschland noch ein relativ ausgewogenes, vielfältiges Medienangebot, das auch genutzt wird und das einer einseitigen Information entgegenwirkt. Zeitungen, Radio und Fernsehen können ihr Informationsangebot eben gerade nicht auf die Interessen sehr kleiner Zielgruppen aussteuern. Insofern nimmt jeder auch immer wieder etwas jenseits seines Tellerrandes wahr.
In sozialen Medien und algorithmengesteuerten Informationsangeboten werden die Nutzerinteressen zu recht zum Auswahlkriterium. Der User fordert Relevanz. Außerdem werden hier die Diskussionen oft viel emotionaler und negativer geführt. Das kann zu gruppenspezifischen Wirklichkeitsauffassungen führen, die sich immer nur selbst legitimieren und diskursunfähig werden.

medienpolitik.net: Muss der Einsatz von Algorithmen bei Smart Speakern und Sprachassistenten speziell geregelt werden?

Prof. Dr. Werner Schwaderlapp: Noch sind die Geschäftsmodelle der Anbieter nicht hinreichend bekannt, bzw. befinden sich noch in der Entwicklung. Daher lässt sich auch nur schwer sagen, ob hier spezielle Regelungen notwendig sein werden. Es ist allerdings wahrscheinlich, dass es über den Einsatz dieser neuen „Kundenschnittstelle“ zu einer weiteren Verengung der auffindbaren Inhalte für den Nutzer kommt. Heute sehe ich zumindest noch die ersten drei bis vier Ergebnisse einer Suche im Netz oder der angezeigten Inhalte auf Facebook. Vorgelesen wird aber künftig wohl nur noch das als am relevantesten eingeschätzte Ergebnis einer Frage an Alexa oder Siri. Daher ist auch hier Transparenz mit Blick auf Geschäftsbedingungen und Auswahlkriterien von oberster Bedeutung.

medienpolitik.net: Wie sollte Ihrer Meinung nach der Umgang mit Algorithmen generell geregelt, wie stark sollen sie reguliert werden?

Prof. Dr. Werner Schwaderlapp: Die Frage lässt sich nicht generell beantworten. Algorithmen werden in vielen Bereichen genutzt. Die nötige Transparenz und der Regulierungsbedarf müssen sektorspezifisch bestimmt werden. Das kann im Finanzsektor, beim Verbraucherschutz, bei der Gesichtserkennung, bei der Verbrechensprävention und eben in der öffentlichen Kommunikation ganz unterschiedlich sein. Für den letzteren Bereich muss von den Intermediären einer bestimmten Größenordnung wie beispielsweise Facebook oder Google bei der Organisation der massenhaften Individualkommunikation Transparenz und Diskriminierungsfreiheit bis hin zu einer Nicht-Parteilichkeit gefordert werden.

medienpolitik.net: Reichen vielleicht Selbstverpflichtungen der Anbieter aus?

Prof. Dr. Werner Schwaderlapp: Selbstverpflichtungen können ein pragmatischer Ansatz sein, damit die jeweilige Branche ihre Spezifika und ihre Ethik definiert. Die grundsätzlichen Maßstäbe müssen jedoch gesetzlich geregelt sein. Deren Einhaltung durch Selbstverpflichtungen und in der Wirklichkeit muss von geeigneten Institutionen kontrolliert und durchgesetzt werden können.

medienpolitik.net: Sollte die Kontrolle der Algorithmen ein Feld der Landesmedienanstalten werden?

Prof. Dr. Werner Schwaderlapp: Nur soweit es die Informationsintermediäre angeht, hier aber unbedingt. Bei der Vielfaltssicherung ist Artikel 5 Grundgesetz die maßgebliche Vorgabe. Die Landesmedienanstalten sind staatsfern organisiert und haben durch die Besetzung der Gremien durch ein breites Spektrum gesellschaftlicher Gruppen gleichwohl die Legitimation, für die Allgemeinheit zu handeln. Eine bessere Konstruktion gibt es bisher nicht. Dabei müssen nicht unbedingt „die Algorithmen“ „kontrolliert“ werden, wohl aber die zugrunde gelegten Kriterien. Diese Kriterien sollten so ausgestaltet sein, dass sie gemäß Geschäftsmodell zwar für Nutzer relevante Inhalte darstellen, eine ungerechtfertigte Inhaltediskriminierung aber ausgeschlossen wird.

medienpolitik.net: Sie führen die Medienversammlungen seit einigen Jahren durch. Wo sehen Sie den Nutzen?

Prof. Dr. Werner Schwaderlapp: Die Medienversammlung leistet einen öffentlichen Beitrag zur Diskussion über die Entwicklung der Medien, in dem breitenwirksam und verständlich Themen aufgearbeitet und vermittelt werden. Sie kann Impulse für die weitere Befassung mit bestimmten Themen bei Mediennutzern, Medienakteuren, Politik und Wissenschaft setzen.

Das Interview ist eine Vorveröffentlichung  der promedia-Ausgabe 07/18.

Print article

Kommentieren

Bitte Pflichtfelder ausfüllen