„‘Torwächter‘ sind ein Gefährdungspotential für die demokratische Willensbildung“

Medienintermediäre mit Torwächterfunktion sollen vergleichbar dem Rundfunk reguliert werden
31.10.2019. Interview mit Prof. Dr. Rolf Schwartmann, Leiter der
Kölner Forschungsstelle für Medienrecht an der Technischen Hochschule Köln und Mitglied
der Datenethikkommission
Im Juli 2018 nahm eine
Datenethikkommission, die vom Innen- und dem Justizministerium eingesetzte war,
ihre Arbeit auf. Zu den 16 Experten gehörte Prof. Dr. Rolf Schwartmann, Leiter
der Kölner Forschungsstelle für Medienrecht an der Technischen Hochschule Köln.
Im 240 Seiten langen Abschlussbericht definiert die Kommission einen
umfassenden Regulierungsrahmen für den Umgang mit Daten und algorithmischen
Systemen. So stellen die Experten die Kontrolle algorithmischer Systeme in
einen Zusammenhang mit ihrem „Schädigungspotenzial“. So wurden die Algorithmen
Anhand der Gefährlichkeit in fünf Risikoklassen eingeteilt und den Betreibern
von Algorithmen sollen dementsprechend Pflichten auferlegt werden. Bei einem
„gewissen Schädigungspotenzial“ müssen die Unternehmen eine „angemessene
Risikofolgenabschätzung“ veröffentlichen. Algorithmen mit „unvertretbarem
Schädigungspotenzial“ sollen auch verboten werden können. „Wenn Facebook, Google und Co. die Daten, die
durch ihre Schleusen und Filter ins Netz gelangen zur Steuerung unseres
Kaufverhaltens nutzen können“ erläutert Prof. Dr. Rolf Schwartmann, „dann
können sie so auch politische Meinungen steuern. Ob das geschieht weiß man
nicht, aber die Gefahr ist nicht von der Hand zu weisen.“
medienpolitik.net: Herr Schwartmann, im September 2018 nahm die vom Innen- und dem Justizministerium eingesetzte sogenannte Datenethikkommission (DEK) ihre Arbeit auf. Mit welchem Ziel wurde diese Kommission eingesetzt?
Schwartmann: Wir hatten einen ganzen Fragenkomplex abzuarbeiten. Es ging zum einen darum den ethischen und rechtlichen Rahmen für den Einsatz algorithmenbasierter Prognose- und Entscheidungsprozesse, insbesondere unter Berücksichtigung „künstlicher Intelligenz“ abzustecken. Zum anderen war ein ganzes Fragenpaket um den Einsatz von Daten aufgeworfen. Wir haben als interdisziplinäres Gremium von Sachverständigen, insbesondere aus den Bereichen Ethik, Recht und Informatik den knappen Zeitrahmen von einem Jahr eingehalten und ausgesprochen intensiv und konstruktiv gearbeitet und sehr sachorientiert um die Ergebnisse in den 75 Empfehlungen gerungen und letztlich alle im Konsens verabschiedet. Zu den 16 Sachverständigen, die völlig unabhängig und unbeeinflusst arbeiten durften, gehörten auch Vertreter von Institutionen wie dem BDI, BfDI und VZVB und auch des DFKI.
medienpolitik.net: Der Abschlussbericht umfasst 240 Seiten. Was geschieht mit diesen Vorschlägen? Wie verbindlich sind diese für die Bundesregierung?
Schwartmann: Die 75 Empfehlungen werden im BMI und im BMJV nach allem was wir wissen ausgesprochen ernst genommen. In der laufenden Legislaturperiode wäre ja auch noch genügend Zeit etwas zu bewegen. In der Hauptsache richten wir uns an unseren Auftraggeber, die Bundesregierung. Weil die Empfehlungen aber teilweise, das gilt insbesondere mit Blick auf die Medien, die Kompetenz der EU auf der einen Seite und den Zuständigkeitsbereich der Länder auf der anderen Seite betreffen, konnten wir die Bundesregierung nur auffordern dort auf eine Umsetzung der Empfehlungen hinzuwirken. Verbindlich sind Empfehlungen eines solchen Gremiums natürlich nicht.
medienpolitik.net: In mehreren Punkten werden Aspekte der Medienordnung berührt, so bei der „Beeinflussung politischer Wahlen“, bei der „Kontrolle algorithmischer Systeme“, bei „Medienintermediären“. Welche Rolle spielten Medien und Kommunikation insgesamt für die Kommission?
Schwartmann: Teil F.6 des Gutachtens legt besonderes Augenmerk auf den Einsatz algorithmischer Systeme bei Medienintermediären. Dieser Teil mit seinen Handlungsempfehlungen 65 bis 68 hat in der medialen Berichterstattung um die Veröffentlichung des Gutachtes ein Hauptaugenmerk auf sich gezogen. Hier liegt in der Tat ein Kern der Überlegungen der DEK. Sie sieht perspektivisch ein hohes Gefährdungspotential für die demokratische Willensbildung durch die „Torwächter“ über die Information im Netz und deshalb erheblichen Handlungsbedarf für den Regulierer. Wenn Facebook, Google und Co. die Daten, die durch ihre Schleusen und Filter ins Netz gelangen zur Steuerung unseres Kaufverhaltens nutzen können, dann können sie so auch politische Meinungen steuern. So wie sich interessengenau und intransparent Konsumgüter anbieten lassen, so lassen sich unbemerkt auch politische Meinungen persönlich zuschneiden. Ob das geschieht weiß man nicht, aber die Gefahr ist nicht von der Hand zu weisen. Die DEK schlägt deshalb vor, „Torwächter-Dienste“, wie Facebook und Google dazu zu verpflichten, zusätzlich zu ihrem intransparenten und nach eigenen Regeln gesteuerten Angebot, für meinungsrelevante Inhalte ein plurales Angebot vorzuhalten, auf das sie als Dienste keinen Einfluss nehmen dürfen. Die einschlägige Empfehlung 66 lautet: „Den nationalen Gesetzgeber trifft die verfassungsrechtliche Pflicht, die Demokratie vor den Gefahren für die freie demokratische und plurale Meinungsbildung, die von Anbietern mit Torwächterfunktion ausgehen, durch Etablierung einer positiven Medienordnung zu schützen. Die DEK empfiehlt, die Anbieter in diesem engen Bereich zum Einsatz solcher algorithmischer Systeme zu verpflichten, die den Nutzern zumindest als zusätzliches Angebot auch einen Zugriff auf eine tendenzfreie, ausgewogene und die plurale Meinungsvielfalt abbildende Zusammenstellung von Beiträgen und Informationen verschaffen.“ Damit werden Medienintermediäre mit Torwächterfunktion mit Blick auf ihre Regulierungsbedürftigkeit zu Recht vergleichbar dem Rundfunk reguliert. Während wir beim Rundfunk Aktualität, Breitenwirkung und Suggestivkraft als Grund für die Sonderregulierung im Rahmen einer positiven Medienordnung gilt, kommt bei den großen Medienintermediären die Torwächterfunktion über die Informationen im Netz hinzu. Wir widersprechen damit insbesondere der Selbsteinschätzung der großen Suchmaschinen und Sozialen Netzwerke, sie seien ohne eigenen Einfluss auf die Meinungsbildung und deshalb nicht vergleichbar dem Rundfunk regulierungsbedürftig. Das Gutachten zitiert in diesem Zusammenhang mein „Zwei-Säulen-Modell“ zur Intemediärsregulierung (MMR 2019, 498 ff., medienpolitik.net), ist aber im Ergebnis bereit, regulatorisch noch deutlich weiter zu gehen, als ich es vorgeschlagen habe. „Dabei sollte ein ganzes Spektrum gefahrenabwehrender Maßnahmen erwogen werden, das bis hin zu einer Ex-ante-Kontrolle (z. B. in Form eines Lizenzierungsverfahrens) reichen kann.“ So heißt es in Empfehlung 65.
medienpolitik.net: Angenommen, die Vorschläge der Datenethikkommission würden alle umgesetzt werden, welche Konsequenzen hätte das für die Medienordnung und die Medienunternehmen?
Schwartmann: Die Maßnahmen zielen auf die enge Gruppe der für die demokratische Willensbildung gefährlichen Dienste mit dem Potential, Massen durch zuspielen personalisierter Inhalte zu steuern. Gemeint sind also in erster Linie Anbieter wie Facebook und vielleicht Twitter oder TikTok bei den Sozialen Netzwerken und insbesondere Google bei den Suchmaschinen. Unterhalb dieser Schwelle muss aber ebenfalls eine risikoadäquate Regulierung erfolgen. „Für alle Medienintermediäre und auch bei Anbietern ohne Torwächterfunktion oder bei geringerem Schädigungspotenzial für die demokratische Meinungsbildung sollte die Bundesregierung Maßnahmen prüfen, die den charakteristischen Gefahren des Mediensektors Rechnung tragen.“ Den klassischen Medienunternehmen kommt nach der Logik des Gutachtens nicht grundsätzlich Torwächterfunktion zu. In der Medienordnung würde sich im klassischen Bereich des Rundfunks nichts ändern, weil die privaten und öffentlich-rechtlichen Rundfunkanbieter ja nach den Vorgaben des Bundesverfassungsgerichts schon effektiv und verfassungskonform reguliert sind. Massive Änderungen stünden derzeit mit Blick auf die Sicherung der Meinungsvielfalt den völlig unregulierten Meinungsgiganten wie Facebook und Google bevor. Sie müssen entsprechend ihrer hohen Gefahr für die demokratische Willensbildung in die positive Medienordnung einbezogen werden.
„Medienintermediäre mit Torwächterfunktion werden mit Blick auf ihre Regulierungsbedürftigkeit zu Recht vergleichbar dem Rundfunk reguliert.
medienpolitik.net: Immer mehr Medien setzen auf personalisierte Angebote, auch der öffentlich-rechtliche Rundfunk. Würde das künftig erschwert werden oder sogar unmöglich?
Schwartmann: Personalisierte Angebote, gleich welcher Herkunft, bergen Risiken. Solange sie mangels Bedeutung und Relevanz im Internet keine Gefahr für die Demokratie darstellen, sind sie dementsprechend schwächer zu regulieren. „Dies könnte Mechanismen zur Transparenzsteigerung (z. B. Einblick in technische Verfahren der Nachrichtenauswahl und -priorisierung, Kennzeichnungspflichten für Social Bots) und ein Recht auf Gegendarstellung in Timelines erfassen.“ So wird es in Empfehlung 67 ausgeführt. Diese „Erschwerungen“ sind der Besonderheit geschuldet, dass dem Bürger transparent gemacht werden muss, ob und dass er durch „Nudging“ beeinflusst wird. Weiß und will das der Nutzer, dann ist das in Ordnung, sofern keine Schäden für die Demokratie entstehen können. Das gilt etwa grundsätzlich für die Beeinflussung von Konsumverhalten durch personalisierte Werbung.
medienpolitik.net: Die Kommission schlägt vor, Algorithmen nach einer fünfstufigen Risikoeinschätzung zu klassifizieren. Wo würden hier Algorithmen im Medienbereich eingestuft werden?
Schwartmann: Es ist der DEK wichtig, mit Blick auf das Risiko der eingesetzten Technik zu differenzieren. Für einen Getränkeautomaten der Algorithmen benutzt, müssen andere Regeln gelten als für ein System, das personalisierte Kaufentscheidungen hervorrufen will. Für Facebook oder Google mit ihrer gigantischen Meinungsmacht würdem demgegenüber wegen des Schädigungspotentials schärfere Regeln gelten. Die bestehen aber auch für algorithmische Systeme, die Gesundheits- oder Lebensgefahren begründen können, wie ein mit Hilfe von algorithmischem Systemen kontrolliertes Kernkraftwerk. Die Regulierung soll nach dem Willen der DEK risikoadaptiert erfolgen. Um die potentielle Gefahr eines Angebotes im Kontext interessengerecht zu regeln, schlägt die DEK eine Kritikalitätspyramide vor, mit dem fünfstufigen System von nicht regulierungsbedürftig bis zu verboten, da Risiko unvertretbar, vor. Je nach Kritikalität steigen die Anforderungen an die Regulierung. Ist das algorithmische System – das sind die meisten Fälle – ungefährlich (Stufe 1), erfolgt keine Regulierung. Hat es ein gewisses Schädigungspotential (Stufe 2), wären etwa Transparenzanforderungen, Risikofolgenabschätzungen, Ex-ante und Ex-post-Kontrollen erforderlich. Auf Stufe 3 wohnt der Anwendung regelmäßiges oder deutliches Schädigungspotential inne, was zum Beispiel ein Zulassungsverfahren erfordert. Bei Anwendungen mit erheblichem Schädigungspotential (Stufe 4) kämen möglicherweise eine Liveschnittstelle für die Aufsicht hinzu. Das leuchtet bei einem Kernkraftwerk ebenso ein, wie bei einem Algorithmus, der über die zweite Säule im Rahmen meines „Zwei-Säulen-Modells“ im Rahmen einer positiven Medienordnung Vielfalt erzeugen soll, ohne das ein Intermediär im Wege der Programmierung darauf Einfluss nehmen kann. Um ein algorithmisches System zu kontrollieren, das in Risikobereichen eingesetzt wird, muss Transparenz über dessen Funktion herrschen und ein Kontrolleur muss jederzeitigen Zugriff nehmen können, wenn durch das System Risiken für das Wohlergehen oder die Sicherheit der Bevölkerung drohen. Ebenso muss man in ein algorithmisches System eingreifen können, wenn es die Grundlagen der demokratischen Willensbildung zu gefährden droht. Facebook und Google wären wegen der Demokratiegefahr zwar insgesamt auf Stufe 4 einzuordnen. Nach meiner Idee wäre aber das personalsierte Angebot der „ersten Säule“ mit Blick auf die Meinungsvielfalt nicht streng zu regulieren, weil die Vielfalt über die „zweite Säule“ gesichert wird. Aus meiner Sicht könnte bei dieser rechtlichen Konstruktion deshalb auf eine Lizenz für die betroffenen Intermediäre verzichtet werden. Das Geschäftsmodell der klassischen Rundfunkanbieter wäre in der Pyramide auf Stufe 3 zu verorten und die Anforderungen der Pyramide wären über die Rundfunklizenz und die Kontrollmechanismen der Medienaufsicht erfüllt. Stufe 5 ist Angeboten mit unvertretbarem Schädigungspotential vorbehalten. In Betracht kämen etwa völlig autonome Waffensysteme mit dem Auftrag, Menschen algorithmengesteuert zu töten.
medienpolitik.net: Wer soll eine Klassifizierung und Kontrolle vornehmen?
Schwartmann: Wenn es um Gefahren für die Demokratie geht, kommt wie beim Rundfunk auch der Regulierer ins Spiel. Das sind in unserem föderalen System die Bundesländer. Die Medienregulierung gibt ja einen Rahmen vor, den das Bundesverfassungsgericht mit Blick auf die Vielfaltssicherung aus der Verfassung abgleitet hat. Da die geschilderten Gefahren, die von den großen Intermediären für die Demokratie ausgehen muss ein Ansatz gewählt werden, der sich daran orientiert. Einzelheiten finden sich hier. https://www.medienpolitik.net/2019/06/es-besteht-immer-die-moeglichkeit-der-manipulation/
medienpolitik.net: Im Entwurf des Medienstaatsvertrages ist vorgesehen Medienintermediäre zu regulieren, vor allem durch eine größere Transparenzpflicht. Entspricht der Medienstaatsvertrag damit bereits den Maßstäben und Regulierungsempfehlungen der Datenethikkommission?
Schwartmann: Die DEK begrüßt die Ansätze des Entwurfs des Medienstaatsvertrages ausdrücklich (S. 209 des Gutachtens) als ersten Schritt in die richtige Richtung. Der Entwurf des Medienstaatsvertrages legt Medienintermediären weitgehende Transparenzpflichten auf, die die Souveränität der Nutzer stärken und die Kontrolle der Systeme ermöglichen sollen. Diesen Ansatz greift auch die DEK in Empfehlung 67 auf, geht aber weiter als der Entwurf: Maßnahmen, mit denen den Gefährdungen durch Medienintermediären begegnet werden kann, „könnte(n) Mechanismen zur Transparenzsteigerung (z. B. Einblick in technische Verfahren der Nachrichtenauswahl und -priorisierung, Kennzeichnungspflichten für Social Bots) und ein Recht auf Gegendarstellung“ sein. Auch bleibt der Entwurf des MStV-E hinter den Anforderungen der DEK zurück, als die verfassungsrechtlichen Maßnahmen zur Vielfaltssicherung im MStV-E fehlen. Diese Einschätzung wird in der Kulturpolitik dezidiert geteilt.[1]
[1] https://www.faz.net/aktuell/wissen/forschung-politik/medienstaatsvertrag-ein-ausgewogenes-meinungsbild-im-internet-ergibt-sich-nicht-von-selbst-16411195.html