„Es besteht immer die Möglichkeit der Manipulation“
von Helmut Hartung am 05.06.2019 in Aktuelle Top Themen, Allgemein, Archiv, Digitale Medien, Internet, Medienordnung, Medienpolitik, Medienrecht, Medienregulierung, Netzpolitik, Plattformen und Aggregatoren, Social Media

Zwei-Säulen-Modell für die Regulierung von Medienintermediären
05.06.2019. Interview mit Prof. Dr. Rolf Schwartmann, Leiter der Kölner Forschungsstelle für Medienrecht an der Technischen Hochschule Köln
Die Regulierung der großen Medienintermediäre wie Facebook, Twitter und Google ist eine der zentralen Herausforderungen der Medienpolitik. Dass Medienintermediäre die Meinungen im Netz steuern können, liegt ebenso auf der Hand, wie ihre Möglichkeit, die Freiheit der Meinungsbildung im Internet zu gefährden. Der Entwurf des Medienstaatsvertrages befasst sich mit der Regulierung der Intermediäre und setzt hierbei auf Transparenzgebote und Diskriminierungsverbote. Rolf Schwartmann hat nun ein darüberhinausgehendes Zwei-Säulen-Modell vorgeschlagen. Jeder relevante Intermediär soll neben seinem auf Nutzer- und Geschäftsinteressen fußenden Angebot der individuellen Vielfalt für jeden Nutzer auch ein ausgewogenes Angebot anbieten müssen. So sollen Medienintermediäre in die ausgestaltungsbedürftige Medienordnung eingepasst werden. Ihrem Geschäftsmodell wird dabei ebenso Rechnung getragen, wie ihren Risiken für die Demokratie und Meinungsfreiheit.
Medienpolitik.net: Herr Schwartmann, immer wenn es um Regulierung im Internet und eine stärkere Kontrolle der Funktionsmechanismen bei Plattformen, Intermediären und sozialen Netzwerken geht, wird vor einer „Zensur“ und dem Ende der Internetfreiheit gewarnt. Wann ist Regulierung mit „Zensur“ gleichzusetzen?
Schwartmann: Zensur im verfassungsrechtlichen Sinne ist das unterbinden einer Meinung durch den Staat bevor sie entsteht. Die berühmte „Schere im Kopf“ des Journalisten aus Angst vor den staatlichen Machthabern nach den Erfahrungen der NS-Zeit. Der Begriff ist auf Vorzensur bezogen und die ist verfassungsrechtlich per absoluter Sperre verboten. Regulierung ist dann Zensur, wenn gesetzliche Vorgaben gemacht werden, um Meinungen zu unterbinden. Man darf das nicht mit der Wahrung redaktioneller Standards zur Absicherung der Einhaltung der Schranken der Meinungsfreiheit im Netz verwechseln. Die Meinungsfreiheit des Grundgesetzes ist nicht absolut, sondern lebt vom Ineinandergreifen von Freiheit und Schranke.
Medienpolitik.net: Warum müssen Algorithmen reguliert werden? Die sogenannten Filterblasen sind nicht eindeutig bewiesen?
Schwartmann: Sie werden aber auch nicht bestritten. Für das Medienrecht kommt es auf die Gefahr für die Meinungs- und Informationsfreiheit an. GAFA (Google, Apple, Facebook, Amazon) machen zwar in erster Linie nicht selbst Meinung. Als Flaschenhals kommt ihnen aber eine besondere Bedeutung für die Meinungsbildung zu. Solange hier Missbrauch nicht ausgeschlossen werden kann, bedarf es der Regulierung, um die Voraussetzungen der ausgewogenen, tendenzfreien, neutralen Vielfalt zu schaffen. Das ist der Grund für die Regulierung des Rundfunks. Eine wohl höhere Suggestivkraft, Aktualität und Breitenwirkung findet sich längst im Wirkungsbereich der großen Intermediäre. Auf der Basis Nutzerinteressen geht es ihnen darum, Werbeinhalte und möglicherweise auch eigene Themen sowie Inhalte sonstiger Dritter passgenau an den Nutzer zu bringen. Sie programmieren dabei ihre algorithmischen Systeme nach eigenen, intransparenten Regeln. Das ist bei Werbeinhalten eher unproblematisch. Die Steuerungssysteme können und sollen aber nicht zwischen Werbung für Seife oder Politik unterscheiden. Es geht damit schon aus technischen Gründen zwangsläufig immer auch um eine interessengeleite personalisierte und gegebenenfalls auch politische Ansprache. Diese Durchmischung ist ein Problem. Es besteht zum einen immer die Möglichkeit der Manipulation. Zum anderen lenkt die Filterblase von der Auseinandersetzung mit anderen und fremden Inhalten ab. Das System der gesteuerten Bestätigung stört die Entstehung einer ausgewogenen Meinungsbildung.
„Die Meinungsfreiheit des Grundgesetzes ist nicht absolut, sondern lebt vom Ineinandergreifen von Freiheit und Schranke.“
Medienpolitik.net: Es gibt im Entwurf des Medienstaatsvertrages auch einen Vorschlag für die Regulierung der Medienintermediäre, bei dem die Funktion von Algorithmen transparenter werden und diese nicht diskriminierend wirken sollen. Was halten Sie von diesen Vorschlägen?
Schwartmann: Die Herstellung von Transparenz ist eine elementare, weil notwendige Voraussetzung für die Souveränität des Einzelnen bei der Meinungsfreiheit. Wie wichtig Transparenz ist, erkennen wir aktuell in der Debatte um die Rolle der YouTuber bei der politischen Meinungsbildung. Sie sind in der Medienlandschaft herzlich willkommen und sie sind eine Bereicherung, gerade weil sie die Jugend erreichen. Für sie müssen aber unter anderem dieselben Transparenzstandards gelten, wie für alle anderen Meinungsmacher. Es ist wichtig zu wissen, ob und wenn welche Werbe- oder Medienagentur oder wer auch immer hinter einem politisch wirkenden Blogger steht. Nur durch Transparenz kann man fremde Einflussnahme bis hin zur Manipulation ausschließen. Es darf nicht dazu kommen, dass die Meinungsfreiheit politisch wirkmächtiger Youtuber der Schlüssel zu Manipulation oder unzulässiger Einflussnahme für Werbeagenturen oder sonstige Dritte, Medienintermediäre eingeschlossen, wird. Man muss aber sehen, dass Google & Co. jedenfalls die datenschutzrechtlichen Transparenzanforderungen schon weitgehend erfüllen. Das Kleingedruckte der Timeline bei Facebook und dessen Erklärvideos lassen tief blicken. Eines ist muss aber für die Medienregulierer auch klar sein: Transparenz schafft keine ausgewogene Vielfalt. Sie führt den Missstand vor Augen, ohne ihn zu beheben. Das Diskriminierungsverbot halte ich daher für nicht ausreichend. Die Angebote der Intermediäre sollen ja gerade persönliche Interessen bedienen und sollen damit diskriminieren. Dem kann man nicht mit einem politischen Neutralitätsgebot begegnen. Der Ansatz ist sinnvoll, solange es um die Verhinderung von Missbrauch geht. Er stößt aber an seine Grenzen, wenn man Vielfalt im Sinne einer positiven Ordnung ausgestalten muss. Das müssen die Landesgesetzgeber aber, wenn die von den Intermediären gesteuerten algorithmischen Systeme zur personalisierten Ansprache der Bürger eine Gefahr für die ausgewogene Vielfalt der Meinungen bedeuten.
Medienpolitik.net: Können Algorithmen überhaupt neutral sein?
Schwartmann: Ein algorithmisches System ist als technisches Instrument zwangsläufig neutral und folgt dem Ziel seiner Programmierung. Es kommt auf die Vorgabe für seine automatisierte Vorgehensweise und auf die Programmierung an. Ist die Datenbasis klar und valide, die Programmierung frei von sachfremden Interessen und das Ziel zulässig, kann er wertungsoffen Ergebnisse liefern. So kann er anhand von Vorgaben und Mustern zuverlässig und wertfrei gutartige Hautveränderungen von bösartigen unterscheiden. Auf diese Weise könnte er neutral auch Vielfalt abbilden.
„Für YouTuber müssen dieselben Transparenzstandards gelten, wie für alle anderen Meinungsmacher.“
Medienpolitik.net: Was wäre ein Ausweg, um Meinungsvielfalt zu sichern und dennoch einen Missbrauch zur Manipulation zu verhindern?
Schwartmann: Man muss ein technisches System schaffen, das neben der individuellen Vielfalt einer jeden Filterblase auch die tendenzfreie, ausgewogene und neutrale Vielfalt abbildet. So habe ich es in der F.A.Z. vorgeschlagen (https://www.faz.net/aktuell/feuilleton/hoch-schule/forderung-fuer-demokratie-kontrolle-von-internet-und-algorithmen-16198048.html?GEPC=s3). Wenn man so will, wird die Idee des Dualen Rundfunksystems aus der Rechtsprechung des Bundesverfassungsgerichts auf die Welt der Intermediäre übertragen. Aus dem Datenpool eines jeden relevanten Dienstes, müssen zwei voneinander unabhängige Säulen, also Angebote an den Nutzer generiert werden. Eine Säule darf weitgehend frei von Regulierung, wie bisher, die individuelle Vielfalt des Nutzers abbilden. Daneben muss jedem Nutzer ein weiteres Angebot, die zweite Säule gezeigt werden, die ein ausgewogenes Angebot, frei von Beeinflussung durch Werbung und Plattformen enthält. So hat der Nutzer die Wahl zwischen der individuellen Vielfalt seiner Timeline und der ausgewogenen Vielfalt der breiten Öffentlichkeit. Nur wenn der Intermediär beide Säulen anbietet, ist sein Dienst zulässig.
Medienpolitik.net: Ist ein solches „duales System“ bei Intermediären überhaupt zu kontrollieren? Wer kann einschätzen, wie neutral die 2. Säule funktioniert?
Schwartmann: Die erste Säule würde im Wesentlichen nach den Regeln der Intermediäre gestaltet werden dürfen. Die technisch unvermeidliche Durchmischung von Werbung und politischer Meinung wäre deshalb hinzunehmen, weil es die zweite Säule als Referenz gibt. Bei Säule eins würde die unabhängige Medienaufsicht auf die Einhaltung Transparenz und die Durchsetzung eines Missbrauchsverbotes achten. Die strengere Aufsicht würde sich auf die zweite Säule beschränken. Hier spielen die Interessen der Intermediäre keine Rolle. Sie müssen aus ihrem Datenpool aus Likes, Klicks, Sprachanfragen und sonstigen Daten ein vielfältiges Angebot über einen Algorithmus generieren, der nach regulatorischen Vorgaben die ausgewogene, tendenzfreie und neutrale Vielfalt sichert. Parameter könnten eine ausgewogene Mischung aus Quellen (Print, Rundfunk, Blogs, Youtuber etc.), Klickhäufigkeit und andere Kriterien sein. Dass die zweite Säule aus der Datenbasis des Intermediärs unter Berücksichtigung von Quellenvielfalt entsteht ist für mich ihr entscheidender Vorteil gegenüber den Ansätzen, die nur die Inhalte aus bestimmten Quellen zugrunde legen. Für mich wäre es keine Lösung, wenn etwa der öffentlich-rechtliche Rundfunk das Gegengewicht zu den Intermediären wäre. Derartige Vorschläge gibt es ja aktuell. Es kommt bei der ausgewogenen Vielfalt etwa genauso auf die Inhalte der Verlage, die des privaten Rundfunks und der Anderen, etwa YouTubern an. Sie alle müssen in der zweiten Säule vorkommen. Sonst ist sie kein ausgewogenes Gegengewicht der individuellen Vielfalt der ersten Säule.
Medienpolitik.net: In der zweiten Säule soll ein nach allgemeinen Kriterien erstelltes Angebot zu finden sein. Wer definiert diese „allgemeinen Anforderungen“? Welche sollten das sein?
Schwartmann: Damit, wie die verfassungsrechtlich saubere Konkretisierung der Abstraktion der Inhalte der zweiten Säule aussehen können, befasse ich mich als Mitglied der Datenethikkommission der Bundesregierung ebenso wie als Wissenschaftler. Dazu arbeite ich als Medienjurist interdisziplinär unter anderem mit Programmierern und Ethikern zusammen. Klar ist, dass der Lösungsansatz die technischen Regeln der „künstlichen Intelligenz“ zentral berücksichtigen muss. Eine algorithmenbasierte Medienlandschaft ist Neuland. Sie muss jetzt in die entwicklungs- und zukunftsoffene Medienordnung unter Mitwirkung der Medienintermediäre, die zunächst für diesen Kontext näher definiert werden müssten, eingepasst werden. Der Verfassungsauftrag liegt auf der Hand und aus der FRAPORT-Entscheidung des Bundesverfassungsgerichts lässt sich ableiten, dass die großen Medienintermediäre deshalb unter höherer Grundrechtsbindung stehen, weil sie ebenso wie Flughäfen oder Rundfunkanbieter Flaschenhälse der Daseinsvorsorge sind.
Medienpolitik.net: Algorithmen sind für eine Personalisierung von Medienangeboten unerlässlich. Bedeutet eine Regulierung dann nicht eher eine Begrenzung der Meinungsvielfalt als eine Sicherung?
Schwartmann: Aus meiner Sicht kann das weitere Angebot der zweiten Säule, das neben die erste Säule tritt, die unverändert fortbesteht, die Meinungsvielfalt nur erweitern. Die zweite Säule meines Modells sichert die Vielfalt genauso, wie die Säule des öffentlich-rechtlichen Rundfunks im Dualen Rundfunksystem die ausgewogene Vielfalt im Zusammenwirken mit den privaten Rundfunkveranstaltern trifft.
Medienpolitik.net: Haben Sie über diese Idee schon mit Staatskanzleien gesprochen?
Schwartmann: Noch nicht.

Rolf Schwartmann ist leitet die Kölner Forschungsstelle für Medienrecht an der Technischen Hochschule Köln und Mitglied der Datenethikkommission der Bundesregierung. Er ist zugleich Vorsitzender der Gesellschaft für Datenschutz- und Datensicherheit befasst sich in einem kurz vor dem Abschluss stehenden Gutachten für die Medienanstalt Hamburg/Schleswig-Holstein unter anderem mit Fragen der Vielfaltssicherung durch (datenschutzrechtliche) Transparenzanforderungen.