Verantwortungszuweisung durch das Recht
von Helmut Hartung am 21.11.2022 in Aktuelle Top Themen, Archiv, Digitale Medien, Gesellschaftspolitik, Medienordnung, Medienpolitik, Medienrecht, Medienregulierung, Plattformen und Aggregatoren, Regulierung, Social Media

Medienintermediäre müssen durch eine gemeinwohlorientierte Regulierung in die Pflicht genommen werden
21.11.2022. Von Prof. Dr. Jürgen Kühling, LL.M., Universität Regensburg und Vorsitzender der Monopolkommission
„Die gemeinwohlorientierte Regulierung der Medienintermediäre ist essentiell, wollen wir, um mit Jürgen Habermas zu sprechen, den „deliberativen Charakter der öffentlichen Willens- und Meinungsbildung“ sichern, der, so möchte ich betonen, für den Schutz der freiheitlich-demokratischen Grundordnung essentiell ist“ stellt Prof. Dr. Jürgen Kühling, LL.M, Vorsitzender der Monopolkommission, in seiner Keynote auf dem Symposium anlässlich des 25-jährigen Bestehens der öffentlich-rechtlichen Abteilung des Instituts für Informations-, Telekommunikations- und Medienrecht an der Universität Münster fest. Das jahrelange regulatorische Phlegma sei Folge eines Gemischs fundamentaler Missverständnisse gewesen. Die extreme gesellschaftliche Bedeutung der Medienintermediäre wurde unterschätzt, ihr grundlegender Unterschied zum Vertrieb sonstiger Produkte und „einfacher“ E-Commerce-Angebote verkannt. Eine ausgesprochene Naivität gegenüber den gebotenen Schutzmechanismen in allen gesellschaftlichen Subsystemen, und auch in der Wissenschaft, seien der Nährboden für ein jahrelang insuffizientes Recht gewesen. Schritt für Schritt erkämpfe sich das Recht aber seine Herrschaft zurück und nehme die Medienintermediäre in die Pflicht.
I. Einführung
Die gemeinwohlorientierte Regulierung der Medienintermediäre ist essentiell, wollen wir, um mit Jürgen Habermas zu sprechen, den „deliberativen Charakter der öffentlichen Willens- und Meinungsbildung“(1) sichern, der, so möchte ich betonen, für den Schutz der freiheitlich-demokratischen Grundordnung essentiell ist. Das jahrelange regulatorische Phlegma war Folge eines Gemischs fundamentaler Missverständnisse. Die extreme gesellschaftliche Bedeutung der Medienintermediäre wurde unterschätzt, ihr grundlegender Unterschied zum Vertrieb sonstiger Produkte und „einfacher“ E-Commerce-Angebote verkannt. Es bestand eine falsche Sorge vor einer innovationshemmenden Überregulierung, ein falsches Verständnis angeblich fehlender Regulierungsmöglichkeiten gegenüber Anbietern primär US-amerikanischer Provenienz; ein Missverständnis der Meinungsfreiheit, das der US-amerikanischen First-Amendment-Dogmatik, nicht aber den deutschen und europäischen Grundrechtsinterpretationen entspricht, die zwar ebenso von der Bedeutung der Meinungsfreiheit ausgehen, aber die Rahmenbedingungen einer funktionsfähigen Öffentlichkeit genauso schützen wie Persönlichkeitsrechte und insgesamt auf einen grundrechtsgeprägten Ausgleich, eine „praktische Konkordanz“ (Konrad Hesse), der kollidierenden Rechtsgüter ausgerichtet sind. Damit verbunden wurden die Gefahren einer angeblichen Zensur überbetont. Noch viel grundlegender unterliegt manch Kritiker einer gemeinwohlorientierten Regulierung der Medienintermediäre auch einer fundamentalen Fehleinschätzung der Notwendigkeit eines starken Rechtsstaates in der schönen neuen digitalen Welt und einer groben Fahrlässigkeit gegenüber den Schutzbedürfnissen unserer Demokratie. In den USA können wir die Schäden dieser Missverständnisse in erschreckendem Ausmaß beobachten. Mit dem Sturm auf das Kapitol am 6. Januar 2021 hat eine der ältesten und sicherlich die wichtigste westliche Demokratie in den Abgrund geschaut. Auch wenn die Intermediäre und noch breiter die jahrelangen Defizite der Medienregulierung in den USA hier nur eine der Ursachen waren, ist ihr Brandbeschleunigungscharakter doch offensichtlich. Eine ausgesprochene Naivität gegenüber den gebotenen Schutzmechanismen in allen gesellschaftlichen Subsystemen, und auch in der Wissenschaft, waren der Nährboden für ein jahrelang insuffizientes Recht.
Schritt für Schritt erkämpft sich das Recht aber seine Herrschaft zurück und nimmt die Medienintermediäre in die Pflicht. Vorreiter war hier in der Europäischen Union und auch weltweit Deutschland sehr früh mit dem Netzwerkdurchsetzungsgesetz und zuletzt mit Anpassungen im Medienstaatsvertrag. Die Europäische Union ist gerade mit dem druckfrisch zu dieser Tagung im Amtsblatt der EU veröffentlichten Gesetz über Digitale Dienste (Digitale Dienste Gesetz; DDG)(2) nachgezogen. Nun werden die Gefahren einer womöglich fehlerhaften Regulierung gebrandmarkt. „Das Digitalgesetz der EU vernichtet die Pressefreiheit im Internet“ war die scharfe Überschrift über einen Beitrag von Christoph Fiedler, Geschäftsführer Europa- und Medienpolitik des Medienverbands der freien Presse, in der FAZ(3)
Fundamentale Fragen der Gestaltung des öffentlichen Kommunikationsraums stehen also im Raum. Die enorme Relevanz dieses Themas und die enormen Herausforderungen einer grundrechtskonformen Regulierung zum Schutze der freiheitlich-demokratischen Grundordnung zu betonen, ist schon die Kernbotschaft meiner Keynote. Um diese Kernthese näher zu erläutern, möchte ich als Ausgangspunkt die Rolle der Medienintermediäre knapp skizzieren und von Medienplattformen abgrenzen (II.). In den Folgeschritten werde ich die Reaktionen im NetzDG (III.) und im MStV (IV.) knapp darlegen, die jeweils durch neue Bestimmungen auf unionaler Ebene im DDG ergänzt werden. Mit einem Fazit möchte ich schließen.
II. Medienintermediäre
1. Abgrenzung zu Medienplattformen Die Vielfalt der Medienintermediäre ist groß. Ihnen allen gemein ist, dass sie Inhalte Dritter verfügbar machen, sei es als Suchmaschine wie Google, als soziales Netzwerk à la Facebook oder als Mikrobloggingdienst wie Twitter. Im Medienstaatsvertrag werden sie definiert als „Telemedium, das auch journalistisch-redaktionelle Angebote Dritter aggregiert, selektiert und allgemein zugänglich präsentiert, ohne diese zu einem Gesamtangebot zusammenzufassen“ (§ 2 Abs. 2 Nr. 16 MStV). Sofern sie dazu übergehen, ein Gesamtangebot zusammenfassen, liegen dagegen Medienplattformen vor (§ 2 Abs. 2 Nr. 14 MStV), die demnach durch eine stärker redaktionell gesteuerte Präsentation geprägt sind. Dabei setzen Medienintermediäre nicht primär auf eine eigenständige redaktionelle Aufbereitung und schon gar nicht auf die Produktion eigener Inhalte, sondern stattdessen auf automatisierte Mechanismen insbesondere unter Rückgriff auf Algorithmen zur Präsentation fremder Inhalte. Ihr Einfluss auf die Strukturierung der Öffentlichkeit ist damit keineswegs geringer und – trotz aller Vorteile und Errungenschaften – erst recht nicht weniger problematisch(4) Zu Recht stellt sich daher die Frage nach ihrer Regulierung und insbesondere nach der Notwendigkeit eines Einfangens problematischer Aspekte algorithmengetriebener Inhaltevermittlung. Auch wenn die entsprechenden Diensteanbieter lange Zeit versucht haben, sich ihrer Verantwortung zu entledigen, stellt § 2 Abs. 2 Nr. 21 MStV hinsichtlich der Anbieter des Medienintermediärs zutreffend fest, dass sie faktisch „die Verantwortung für die Aggregation, Selektion und allgemein zugängliche Präsentation von Inhalten“ übernehmen und diese Verantwortung sodann auch inhaltlich ausfüllen müssen.
2. Gestiegene Bedeutung; algorithmenbasierte Inhalteverbreitung
Hinzu kommt der gigantische faktische Machtzuwachs der Medienintermediäre für öffentliche Debatten: Denn die Anzahl ihrer Nutzer und die Nutzungshäufigkeit ist in den letzten Jahren explosionsartig gestiegen. Zudem nimmt die qualitative Nutzung, insbesondere in jüngeren Altersgruppen, kontinuierlich zu(5) Dabei ist die algorithmengetriebene Inhalteverbreitung wesentlicher Beschleuniger von Filterblasen, Hassrede und Falschnachrichten.(6) Primäres Ziel der Algorithmen ist es, den Nutzern diejenigen Inhalte zur Verfügung zu stellen, die ihren Konsumentenpräferenzen entsprechen, um so eine möglichst große Kundenzufriedenheit und Verweildauer auf den Plattformen der Diensteanbieter zu erzeugen mit dem Ziel, möglichst große Werbeeinnahmen zu generieren. Trotz aller Vielfalt der Wirkungsweise der Algorithmen wird deutlich, dass auf der Basis des im Rahmen der Auswertung personenbezogener Daten erfassten Nutzungsverhaltens funktionierende, abschottungsbefördernde Algorithmen eher üblich sind, als klassisch „massenmediale“ Ansätze wie bei YouTube mit dem sogenannten „P-Score“.(7)
III. Das NetzDG und die Bekämpfung von Hassrede
1. Endlich mehr Steuerung der Intermediäre
Beim Gesetzgeber ist das Problem der Verrohung des öffentlichen Diskussionsraums als Erstes in den Fokus der Regulierungsdiskussion geraten.(8) Daher hat die Legislative reagiert und mit dem Netzwerkdurchsetzungsgesetz die Pflichten der Betreiber von sozialen Netzwerken verschärft. Zwar gelten materiell weiterhin die gleichen Löschungsansprüche, die nach wie vor nur unter Berücksichtigung des „Notice-and-take-down“-Verfahrens gegen mittelbare Störer geltend gemacht werden können. Allerdings überließ es das „Compliance-Gesetz“(9) nicht mehr den Diensteanbietern selbst zu entscheiden, wie sie das Löschverfahren organisieren. Eine Berichtspflicht (§ 2 NetzDG), Regelungen für ein transparentes und effizientes Beschwerdeverfahren (§ 3 NetzDG) und Bußgelder (§ 4 NetzDG) sollten vielmehr die Rechtsdurchsetzung bei Persönlichkeitsverletzungen, die Straftaten im Sinne des Strafgesetzbuches sind, sicherstellen.
Trotz aller Unzulänglichkeiten ist das Netzwerkdurchsetzungsgesetz die notwendige und kraftvolle Demonstration gewesen, dass das deutsche Rechtssystem deutsche bzw. europäische Standards im Widerstreit von Meinungsfreiheit und Persönlichkeitsschutz gegen US-amerikanische Internetgiganten genauso durchsetzen kann wie gegen deutsche oder europäische Unternehmen. Die bisherigen Erfahrungen mit dem Netzwerkdurchsetzungsgesetz sind auch durchaus ermutigend. Insbesondere ist es nicht zu dem befürchteten „Overblocking“ gekommen.(10) Die Pflichten der Diensteanbieter müssen gleichwohl mit Augenmaß weiterentwickelt werden. In diese Richtung zielen auch die jüngsten Novellierungen des Netzwerkdurchsetzungsgesetzes.(11) So kann einerseits vom Autor bzw. von Nutzern eines gelöschten Beitrags eine Aufhebung der Entscheidung verlangt werden (sogenanntes „Put-back“). Auf diese Weise wird der Schutz vor unberechtigten Löschungen und auch Account-Sperren gestärkt. Umgekehrt können die Nutzer eine Überprüfung der Entscheidung des Diensteanbieters verlangen, wenn dieser einen als rechtswidrig gemeldeten Inhalt nicht löscht. Jenes in § 3b NetzDG vorgesehene Gegenvorstellungsverfahren hilft insgesamt, eine feingranularere und damit inhaltlich zutreffendere Entscheidungsprozedur über Löschansprüche zu entwickeln. Insgesamt wird damit ein sinnvoll aufgesetzter Mechanismus im NetzDG optimiert.
2. Weiter notwendige Reformschritte
Einen sinnvollen Schritt weiter ginge die Schaffung eines materiell-rechtlichen Anspruchs auf Wiedereinstellung (sogenanntes „Put-back“-Verfahren).(12) Auch wenn dies regelmäßig die faktische Folge eines begründeten Gegenvorstellungsverfahrens sein wird,(13) dürfte dieser letzte Baustein jedenfalls für die sehr großen Plattformen, die eine entsprechend weit reichende Grundrechtsbindung treffen, sinnvoll sein, um einen angemessenen Schutz zu gewährleisten. Davon unberührt bedarf es einer normativen Umhegung der Löschung auf der Basis der „Hausregeln“.
Insoweit im Rahmen der Auflösung der konfligierenden Grundrechtspositionen die „praktische Konkordanz“ herzustellen und die rechtlichen Leitmaßstäbe zu entwickeln, ist keine leichte Aufgabe und die Gerichte sind dazu gewiss besonders befähigt. Die Lösung dieser schwierigen Konflikte sollte gleichwohl nicht der Judikative allein überlassen werden, auch wenn diese mit dem BGH(14) an der Spitze in jüngerer Zeit wichtige Pflöcke eingeschlagen hat.(15) Vielmehr muss der Gesetzgeber seinen Ansatz im NetzDG sukzessive ausbauen. So muss im parlamentarischen Verfahren darüber gestritten werden, welche Leitplanken den Intermediären bei der Ausgestaltung der Nutzungsbedingungen darüber hinaus gesetzt werden sollen. Das betrifft Löschungen genauso wie die anschließenden Sanktionen bei Verstößen gegen die „Hausregeln“. Dabei ist mit Blick auf die ausdifferenzierte Rechtsprechung des Bundesverfassungsgerichts zur Meinungsfreiheit(16) zu klären, in welchem Umfang großzügigere Maßstäbe für politische Diskussionen und Politiker („Vermutungsformel für die Freiheit der Rede“) insbesondere in Wahlkampfzeiten („Supervermutungsformel“) zwingend von den privaten Plattformbetreibern zu beachten sind – und inwieweit diese überhaupt für die Inhalteverbreitung auf Plattformen gelten sollen. Sinnvoll ist auch die Absicherung hinreichender institutioneller Mechanismen, um die diskriminierungsfreie Anwendung der Regeln einschließlich der Sanktionsmechanismen zu gewährleisten. Im Ergebnis geht es nur um grobe Leitplanken, auf deren Basis die Intermediäre ihre Hausregeln ausgestalten können.
3. Sinnvolle Ergänzung im DDG
a) Umfassendere Verantwortung für Intermediäre auch im DDG
In der Sache sieht das DDG eine besondere Pflicht für Intermediärsdienste vor und unterscheidet diese endlich von „einfachen“ E-Commerce-Angeboten. Im Kern hält die Verordnung in materiell-rechtlicher Hinsicht zwar an der Haftungsfreistellung für die bloßen Intermediärsdienste fest (Art. 4 Abs. 1 DDG),(17) selbst wenn sie eigene Anstrengungen unternehmen, um gegen illegale Inhalte vorzugehen (Art. 7 DDG). Sie trifft damit keine allgemeine Überwachungspflicht der Inhalte (Art. 7 DDG). Stattdessen müssen sie aber mitgliedstaatlichen Anordnungen Folge leisten, gegen illegale Inhalte vorzugehen und sie müssen dafür die relevanten Informationen den zuständigen mitgliedstaatlichen Instanzen zur Verfügung stellen (Art. 9 und 10 DDG). Im Mediensektor besonders wichtig ist im Übrigen in materiell-rechtlicher Hinsicht, dass die Intermediärsdienste nicht nur transparente Informationen in ihren Nutzungsbedingungen zur Frage der Informationsbereitstellung an die Empfänger vorhalten müssen, womit die Löschregeln angesprochen sind, sondern sie müssen insoweit auch „sorgfältig, objektiv und verhältnismäßig“ handeln und „dabei die Rechte und berechtigten Interessen aller Beteiligten sowie die Grundrechte der Nutzer, die in der Charta verankert sind“ berücksichtigen (Art. 14 Abs. 4 DDG). Damit wird zwar nur eine sehr rudimentär vorstrukturierte, aber doch klare Vorgabe normiert, bei der Ausgestaltung und Anwendung der Nutzungsbedingungen den konfligierenden Interessen und Grundrechtspositionen gerecht zu werden – gleichsam im Sinne der in der bundesdeutschen Rechtsprechung angelegten praktischen Konkordanz (dazu soeben 2.). Hier wird der EuGH in der weiteren Ausgestaltung gefordert sein, insbesondere auch entsprechende Grundrechtsanforderungen an die Ausdifferenzierung der Hausregeln selbst, und nicht nur an deren Vollzug zu stellen.Sämtliche Anbieter von Intermediärsdiensten müssen zudem in prozeduraler Hinsicht Kontaktstellen bzw. einen gesetzlichen Vertreter benennen und sie treffen verschiedene Transparenz- und Berichtspflichten (Art. 11, 12, 13 und 15 DDG).
b) Insbesondere: „Notice-and-take-down“-Verfahren für Online-Plattformen
Im vorliegenden Kontext besonders relevant sind sodann Online-Plattformen, die Informationen für einen Inhalteanbieter auf Anfrage eines Empfängers speichern und verbreiten (Art. 2 lit. i DDG), also Medienintermediäre im vorliegenden Sinne. Diesewerden weiteren Vorgaben unterworfen. Entscheidend ist insbesondere, dass sie ein effektives „Notice-and-take-down“-Verfahren vorhalten (Art. 16 DDG und ihre Eingriffe entsprechend begründen müssen (Art. 17 DDG). Kritisch zu prüfen werden hier die Auswirkungen zu prüfen sein, dass das Verfahren viel breiter auf illegale Inhalte nach Art. 2 lit. h DDG abstellt und nicht nur – wie in § 1 Abs. 3 NetzDG – einen engen Katalog strafrechtlicher Inhalte erfasst. Damit hat das DDG einen potenziell deutlich weiteren Spielraum.(18) Speziell für Online-Plattformen gilt zudem die Verpflichtung zur Einrichtung eines internen Beschwerde- und Abhilfemechanismus (Art. 20 DDG) sowie der Möglichkeit einer außergerichtlichen Streitbeilegung (Art. 21 DDG). Hier geht Art. 20 DDG weiter als das deutsche NetzDG, da ein materiell-rechtlicher „Put-back“- Anspruch vorgesehen ist.(19) Ferner muss das „Notice-and-take-down“-Verfahren vertrauenswürdige Hinweisgeber priorisiert und ohne weitere Verzögerung berücksichtigen (Art. 22 DDG)(20) und Maßnahmen sowohl gegen die missbräuchliche Nutzung des Verfahrens gegenüber entsprechenden irreführenden Meldern (Art. 23 Abs. 2 DDG) als auch für den Fall der mehrfachen Verbreitung von illegalen Inhalten gegen die Inhalteanbieter bereithalten (Art. 23 Abs. 1 DDG). Letzteres impliziert ein vorübergehendes Sperren von Accounts.
c) Zudem: besondere Pflichten für große Online-Plattformen
Schließlich widmet sich ein ganzer Abschnitt (Art. 33 ff. DDG) der Regulierung besonders großer Online-Plattformen, die mehr als 45 Millionen Nutzer in der EU verzeichnen. Diese Zahl wird auf der Basis einer noch näher von der Kommission zu entwickelnden Methodologie bestimmt. Es ist aber davon auszugehen, dass vor allem die großen US-amerikanischen Intermediäre wie der Social-Media-Diensteanbieter Meta oder der Suchmaschinen-Anbieter Google dazuzählen. Jene „Internetgiganten“ sollen umfassende Pflichten zum Risikomanagement und zur Entwicklung von Maßnahmen in Risikofällen treffen (externe Manipulationen etc; Art. 34 f. DDG). Sie müssen sich einer externen Auditierung unterziehen (Art. 37 DDG), einen spezifischen Compliance-Officer betrauen (Art. 41 DDG), verschiedene Transparenz(berichts-)pflichten einhalten (Art. 42 DDG), diverse Verhaltenskodizes entwickeln (Art. 45 ff. DDG) und im Krisenfall mit der Kommission zusammenarbeiten (Art. 48 DDG). Sehr große Online-Plattformen und Online-Suchmaschinen können darüber hinaus zur Mitwirkung aufgefordert werden, soweit ihre Plattformen zu einem solchen Krisenfall beitragen (Art. 36 DDG).
IV. Moderate Regulierung des Einsatzes von Algorithmen im MStV
Mit Blick auf die Frage, welche regulatorischen Maßnahmen zum Zwecke der Vielfaltssicherung indiziert sind, hat der MStV mit der Transparenzpflicht und einem Diskriminierungsverbot (dazu 1.) zu Recht einen moderaten Weg eingeschlagen und von weiter reichenden positiven Maßnahmen vorerst abgesehen (dazu 2.).
1. Transparenzpflicht und Diskriminierungsverbot als negative Vielfalts-Regulierung
Es zeigt sich damit, dass die jüngste Novellierung des Rundfunkstaatsvertrags hin zum Medienstaatsvertrag insoweit in die richtige Richtung weist.(21) Die Transparenzpflicht (dazu a)) und das Diskriminierungsverbot (dazu b)) werden im Übrigen durch eine Satzung zur Regulierung von Medienintermediären durch die Landesmedienanstalten konkretisiert.(22) Sinnvolle ergänzende Bestimmungen erfolgen auch hier im DDG (dazu c)).
a) Transparenzpflicht (§ 93 MStV)
So ist mit Blick auf den Einsatz von Algorithmen zur Zusammenstellung nutzerpräferierter Angebote dementsprechend die Verpflichtung zu einer grobmaschigen Transparenz der Diensteanbieter hinsichtlich der Selektions- und Präsentationskriterien und Wirkungsmechanismen erforderlich. Eine solche Regelung findet sich nun in § 93 MStV.(23) Danach müssen gemäß § 93 Absatz 1 MStV die Anbieter von Medienintermediären leicht zugängliche Hinweise bereit halten, einerseits zur Frage des Zugangs und des Verbleibs eines Inhalts in ihrem Angebot und andererseits zu den maßgeblichen Parametern für die Aggregations-, Selektions- und Präsentationsprozesse. Letzteres ist vorliegend von besonderem Interesse und erstreckt sich gerade auch auf die „Funktionsweise der eingesetzten Algorithmen“, die „in verständlicher Sprache“ erläutert werden muss. § 93 Abs. 2 MStV verlangt zudem im Falle einer thematischen Spezialisierung, diese offen zu legen. Die damit getroffene Regelung ist grundsätzlich sinnvoll. Sie reduziert die Informationsasymmetrie zwischen Anbietern und Nutzern(24) und ist deshalb geboten, weil sie jedenfalls nicht von allen Anbietern von sich aus – also freiwillig – hinreichend erfüllt wird. Die Nutzer können sich daraufhin ein besseres Bild von der Art und Weise der Zusammenstellung der Inhalte machen. Zu Recht wird moniert, dass eine weitere Ausdifferenzierung der Verpflichtung sinnvoll gewesen wäre. So sollte das Ausmaß der Offenlegung der entsprechenden Parameter insbesondere danach unterscheiden, ob eine inhaltsneutrale oder eine inhaltsorientierte Sortierung erfolgt.(25) Denn Letztere ist mit Blick auf die etwaige Marktmacht des Diensteanbieters wesentlich problematischer als Erstere. Daher müssen derartige Selektionsparameter besonders differenziert offengelegt werden. So ist auch keineswegs gesichert, dass die Anbieter durchgängig inhaltsneutrale Selektionsparameter anwenden.
In einer weiteren Entwicklungsstufe spricht zudem vieles dafür, neben dieser grundlegenden Transparenz eine zusätzliche Prüfung durch eine spezifische Kontrollinstanz zu ermöglichen, die mit technischem Know-how ausgestattet einen umfassenderen Einblick in die Arbeitsweise der Algorithmen erlangen kann.(26) Das ist auch das Ziel des DDG, der entsprechende Kontrollmöglichkeiten für die zuständigen Behörden schaffen möchte (siehe dazu auch unten c)). Die Prüfinstanz wäre – wie andere Kontrollbehörden auch – grundsätzlich auf die Wahrung der Betriebs- und Geschäftsgeheimnisse verpflichtet und könnte daraufhin auch eine tiefergehende Prüfung vornehmen, um etwaige Missbräuche zu identifizieren. Allerdings setzt dies voraus, dass entsprechende Informationsasymmetrien tatsächlich hinreichend reduziert werden können. Zugespitzt formuliert: Kann eine Kontrollinstanz überhaupt das Know-How aufbauen, um Manipulationen zu identifizieren? Hier sollte allerdings nicht allzu schnell aufgegeben werden. Denn weitere institutionelle Flankierungen, wie etwa ein Anreizmechanismus in Form einer „Kronzeugenregelung“ zur erleichterten Aufdeckung von Verstößen (ähnlich wie im Kartellrecht)(27), könnten entwickelt werden.
Ergänzend ist auch die Einbeziehung von Wissenschaftlern sinnvoll, die sich mit der Wirkungsweise des Einsatzes von Algorithmen durch Medienintermediäre befassen und die Zugang zu vertieften Informationen erhalten könnten, um dabei zu helfen, etwaige Missbräuche aufzudecken. Erneut sieht auch der das DDG entsprechende Zugangsmöglichkeiten zu Daten für Forscher vor (dazu unten c)).
b) Diskriminierungsverbot (§ 94 MStV)
Eine umfassende Transparenz über die Parameter der Inhalteselektion schafft zugleich die Vergleichsgrundlage und einen Aufschlagpunkt für eine anschließende Diskriminierungskontrolle.(28) Letzteres könnte durch eine flankierende Kontrollinstitution gestärkt werden. Das in § 94 MStV statuierte Diskriminierungsverbot für „journalistisch-redaktionell gestaltete Angebote“ referenziert darauf, ob die angegebenen Parameter einen Behinderungseffekt implizieren oder von ihnen ohne Rechtfertigungsgrund abgewichen wird. In diesem Fall muss ein umfassender Zugangsanspruch greifen. Sofern es sich bei dem Diensteanbieter um ein marktbeherrschendes Unternehmen handelt, ergibt sich ein regulatorisches Rechtfertigungsbedürfnis dafür aus dem Gedanken der Marktmachtkontrolle. Zwar könnte kritisch eingewandt werden, ob es einer derartigen eigenständigen medienrechtlichen Regelung neben der allgemeinen kartellrechtlichen Regulierung überhaupt bedurft hätte. So ist der erste größere Fall zum Vorwurf einer Diskriminierung durch „Google“ trotz spezifischer Regelung im Medienstaatsvertrag(29) vom Landgericht München im einstweiligen Rechtsschutz auf der Basis von § 33 Abs. 1 GWB i.V.m. § 1 GWB, Art. 101 Abs. 1 AEUV, also des allgemeinen Kartellrechts entschieden worden.(30) Trotz dieser kartellrechtlichen Handlungsoption weist die medienrechtliche Regelung jedoch den Vorzug auf, dass keine komplexe Marktabgrenzung erforderlich ist, die auch im klassischen Kartellrecht zunehmend Schwierigkeiten aufwirft.(31) Angesichts der besonderen Gefahren entsprechender Diensteanbieter für die Meinungsfreiheit kann insofern durchaus ein niedrigerer Schwellenwert angezeigt sein und auf die Größe des Nutzerkreises abgestellt werden.(32) Die Schwelle von einer Millionen Nutzer über einen Zeitraum von sechs Monaten nach § 91 Abs. 2 Nr. 1 MStV erscheint insoweit durchaus vertretbar.
c) Sinnvolle Ergänzung und Fortführung des Ansatzes des MStV im DDG
In die Richtung des MStV zielen auch die Vorgaben im bereits erwähnten DDG. Dieser normiert u.a. Selbstregulierungsansätze insbesondere in Form eines Risikomanagementsystems mit Abhilfemaßnahmen auf der Basis von Best-Practice- Ansätzen (Art. 34 und 35 DDG), Standardisierungen (Art. 26 DDG), Verhaltenskodizes (Art. 45 ff. DDG), aber auch eine Transparenz der Empfehlungssysteme (Art. 27, 38 DDG), Datenzugangsrechte von Behörden und Forschern (Art. 40 DDG) sowie für die Europäische Kommission spezifisch vor Ort der Zugang zu Informationen über den Einsatz von Algorithmen (Art. 69 Abs. 2 lit. d DDG). Informationen in Bezug auf die Funktionsweise von Algorithmen können der DDG sowie die Kommission zudem nach Maßgabe des Art. 40 Abs. 3 DDG verlangen. Damit kann auch der DDG eine wichtige regulatorische Rolle in Fortführung der Ansätze des Medienstaatsvertrags spielen.
2. Gegenwärtig keine positive Vielfalts-Regulierung
Inzwischen hat auch die Diskussion Fahrt aufgenommen, ob es nicht einer positiven Vielfalts-Regulierung bedarf. Einen Schritt weiter wäre es etwa denkbar, die Anbieter auch dazu zu verpflichten, neben einer präferenzbezogenen Aufbereitung zusätzlich eine nutzerunabhängige anzubieten.(33) Dies erfolgt ohnehin bereits durch eine Reihe von Anbietern auf freiwilliger Basis und stellt einen sinnvollen und moderaten Vorschlag dar, um die Konsumentenauswahlfreiheit zu erhöhen. (34) Bei dieser prinzipiell sinnvollen Verpflichtung kann letztlich auch nicht von einer positiven Vielfaltssicherung in einem engeren Sinne gesprochen werden. Das ist dagegen bei den wesentlich weiter reichenden Vorschlägen dahingehend der Fall, dass ein „vielfaltsreguliertes“ zusätzliches Angebot oder – sogar noch weiter gehend – nur noch ein vielfaltsorientiertes Angebot zu präsentieren wäre. Derartige Ansätze sind jedenfalls gegenwärtig abzulehnen. So besteht gegenwärtig kein Zwang zu vielfaltsorientiertem Zusatzangebot. Eine Pflicht zu einem wie auch immer näher zu definierenden „Binnenpluralismus“-Modell würde die Probleme eher verschärfen.(35) Derartige Vorschläge sind in ihrer Verwirklichung nicht nur noch unrealistischer, sondern vor allem auch grundrechtlich nochmals deutlich problematischer. Denn dann würde einerseits dem Nutzer die Möglichkeit genommen, eine bewusste und präferenzorientierte Auswahlentscheidung zu treffen, da es gar keine „unverzerrte“, rein präferenzorientierte Inhaltepräsentation mehr gäbe. Andererseits würde der Intermediär in die Rolle eines mächtigen Entscheiders über die Relevanz von Inhalten und damit letztlich aus seiner grundsätzlich inhaltsneutralen Rolle gedrängt. Auch wenn derartige Vorschläge durch institutionelle Mechanismen wie einen pluralistisch besetzten Vielfaltsbeirat gemildert werden sollen(36), wäre die Konsequenz eine massive Verschärfung des Problems statt einer Verbesserung.(37) In dieser Logik ist auch eine „Must-be-found“-Regulierung wenig zielführend. Stattdessen ist die Stärkung der Qualitätsinhalte das Gebot der Stunde. So muss die Medienregulierung für Rahmenbedingungen sorgen, die weiterhin die Produktion von Qualitätsinhalten durch private und öffentlich-rechtlich(38) strukturierte Anbieter sowie, noch wichtiger, deren Auffindbarkeit und Erreichbarkeit auch in algorithmengetriebenen Verbreitungslogiken ermöglicht. Die Strukturdebatte des öffentlich-rechtlichen Rundfunks, die vom ARD-Intendanten Tom Buhrow jüngst einen neuen Impuls in die richtige Richtung der Mehrwertfokussierung bekommen hat (39), ist insofern von komplementärer Bedeutung.
V. Fazit
Die Bedeutung der Medienintermediäre wie Meta, Twitter oder YouTube für die Gestaltung öffentlicher Kommunikationsräume ist dramatisch gestiegen. Die Verrohung des öffentlichen Diskurses durch die massenhafte Zunahme hasserfüllter Meinungsbeiträge und die Zunahme faktenverachtender Inhalte sind insoweit zwei besonders sichere Kollateralschäden des Aufstiegs der Intermediäre. Beide Negativentwicklungen werden durch die algorithmengetriebene Funktionsweise der Medienintermediäre begünstigt. Zu Recht ist insoweit ein Handeln der Unternehmen wie des Staates gefordert, auch wenn bislang noch keine Lösungen gefunden wurden, die an der Wurzel der Selektionsprozesse selbst ansetzen, sondern nur die Symptome abmildern. Entscheidende Voraussetzung dafür ist, dass die Intermediäre Verantwortung übernehmen für die teils schädigende Strukturierung des öffentlichen Kommunikationsraums. Die im Grundsatz begrüßenswerte Entwicklung strengerer Anforderungen zur Bekämpfung von Hassrede vor allem im Rahmen des bereits sinnvoll novellierten Netzwerkdurchsetzungsgesetzes gehen daher in die richtige Richtung. Stimmen, die gerade darin enorme Risiken für die Meinungsfreiheit erkennen wollen, sind bestenfalls naiv und auf dem Auge des „chilling effects“ und der disproportionalen Beflügelung hasserfüllter Inhalte in den sozialen Medien blind. Sollten die Intermediäre nicht selbst, unter der Kontrolle durch die Rechtsprechung, wirksame Mechanismen zur Bekämpfung von Falschnachrichten entwickeln, ist auch insoweit der steuernde Staat als Gesetzgeber gefragt.
Die jüngste Fortentwicklung des Rundfunkstaatsvertrags zum Medienstaatsvertrag beschreitet mit Blick auf die Regulierung des Einsatzes von Algorithmen durch Intermediäre ebenfalls einen überzeugenden Weg. Das Transparenzgebot ist ebenso wie das Diskriminierungsverbot zu begrüßen, auch wenn noch Nachbesserungen erforderlich sind. Insgesamt ist jedenfalls der Ansatz eines schrittweisen Ausprobierens der Regulierungsinstrumente überzeugend.
Angesichts überzeugender Ergänzungen der Ansätze im deutschen Recht durch das DDG wird eine große Herausforderung künftig sein, die verschiedenen Regelungsansätze überlappender Problemkonstellationen im Mehrebenensystem von Europäischer Union, Bund und Ländern sinnvoll aufeinander abzustimmen, um eine „Regulierungskakophonie“ zu vermeiden.(40) Wichtig ist dabei auch die Wahrung der Unabhängigkeit der Regulierungsbehörden, weshalb die Ertüchtigung der Europäischen Kommission mit Aufgaben der Inhaltekontrolle kritisch zu sehen ist.
Fußnoten:
Beim vorliegenden Beitrag handelt es sich um eine in leicht gekürzter Form gehaltene Keynote des Verfassers auf dem Symposium anlässlich des 25-jährigen Bestehens der öffentlich-rechtlichen Abteilung des Instituts für Informations-, Telekommunikations- und Medienrecht an der Universität Münster. Grundlage der Keynote ist der Beitrag des Verfassers mit dem Titel „Gemeinwohlorientierte Regulierung der Medienintermediäre“, MMR 2022, S. 1016 – 1021.
1 Habermas, Ein neuer Strukturwandel der Öffentlichkeit und die deliberative Politik, 2022, S. 67.
2 ABl.EU 2022 L 277 vom 27.10.2022, S. 1.
3 Siehe https://www.faz.net/aktuell/feuilleton/medien/digital-services-act-der-eu-vernichtet-pressefreiheit-im-internet-18198207.html.
4 Dazu sehr kritisch Schweiger, Der (des)informierte Bürger im Netz. Wie soziale Medien die Meinungsbildung verändern, 2016, passim und insbesondere S. 128 ff.
5 Siehe den aufschlussreichen Bericht über die Untersuchung von Hölig/Hasenbrink, Reuters Institute Digital News Report 2019 – Ergebnisse für Deutschland, 2019.
6 Die Details sind insoweit allerdings umstritten, siehe die weiteren Hinweise bei Zimmer, Regulierung für Algorithmen und Künstliche Intelligenz/ Kühling, Die Verantwortung der Medienintermediäre für den Schutz öffentlicher Kommunikationsräume – Algorithmen als Treiber von Hate speech, Fake News und Filter bubbles?, 2021, S. 91 f.
7 Siehe dazu wiederum ausführlicher Zimmer, Regulierung für Algorithmen und Künstliche Intelligenz/ Kühling, Die Verantwortung der Medienintermediäre für den Schutz öffentlicher Kommunikationsräume – Algorithmen als Treiber von Hate speech, Fake News und Filter bubbles?, 2021, S. 95 ff.
8 Banks International review of Law, Computers & Technology 24(3) 2010, 233 (234 f.).
9 BT-Drs. 18/12356, 2 und BT-Drs. 18/12727, 2.
10 Wie hier auch Löber/Roßnagel MMR 2019, 71; skeptisch nach wie vor Müller/Denner, Was tun gegen Fake News, 2019, S. 22.
11 Siehe dazu die umfassende Information https://www.bmj.de/SharedDocs/Gesetzgebungsverfahren/DE/NetzDGAendG.html (abgerufen am 29.8.21).
12 Dafür etwa früh mit umfassendem Gesetzesvorschlag Peukert MMR 2018, 572; dem folgend etwa Löber/Roßnagel MMR 2019, 71 (75); ebenso tendenziell Sahl/Bielzer ZRP 2020, 2 (4).
13 So zutreffend der Hinweis bei Kalbhenn/Hemmert-Halswick MMR 2020, 518 (520).
14 Siehe insbesondere BGH NJW 2021, 3179.
15 In diese Richtung auch Tschorr MMR 2021, 204 (208), die eine „weitergehende Debatte“ fordert.
16 Dazu Beck’scher Online-Kommentar Informations- und Medienrecht/ Kühling, 36. Ed. 1.5.2022, GG
Art. 5 Rn. 140 ff. m.w.Nachw.
17 Ebenso Berberich/Seip GRUR-Prax 2021, 4; Kaesling ZUM 2021, 177 (179); Kalbhenn/Hemmert-
Halswick ZUM 2021, 184 (187 f.).
18 Zutreffend Kalbhenn/Hemmert-Halswick ZUM 2021, 184 (189).
19 Darauf weist zu Recht Kaesling ZUM 2021, 177 (182), hin.
20 Zur Privilegierung der sogenannten „Trusted Flagger“ auch Kalbhenn/Hemmert-Halswick ZUM 2021, 184 (190).
21 Ebenso Steinebach u.a, Desinformation aufdecken und bekämpfen. Interdisziplinäre Ansätze gegen Desinformationskampagnen und für Meinungspluralität, 2020, S. 185 ff.
22 Siehe dazu Medienanstalten, Satzung zur Regulierung von Medienintermediären gemäß § 96 Medienstaatsvertrag (MI-Satzung), 11.10.2021, abrufbar unter https://www.die-medienanstalten.de/fileadmin/user_upload/Rechtsgrundlagen/Satzungen_Geschaefts_Verfahrensordnungen/20211011_MI-Satzung_final.pdf (zuletzt abgerufen 29.8.22).
23 Sehr früh für Transparenzpflichten Schulz/Dankert, Die Macht der Informationsintermediäre. Erscheinungsformen, Strukturen und Regulierungsoptionen, 2016, S. 74 f.
24 Paal/Heidtke ZUM 2020, 230 (234).
25 So zutreffend Kellner, Die Regulierung der Meinungsmacht von Internetintermediären, 2019, S. 150 ff.
26 Für einen Ausbau der Organisationsstrukturen auch Krönke, Öffentliches Digitalwirtschaftsrecht,
2020, S. 458.
27 Siehe dazu exemplarisch im Kartellrecht Streinz, EUV/AEUV/ Niggemann, 3. Aufl. 2018, AEUV Vorbemerkungen Art. 101 – Art. 106 Rn. 55 ff.
28 So tendenziell auch Krönke Öffentliches Digitalwirtschaftsrecht, 2020, S. 448.
29 Zur Tätigkeit der Medienanstalt Hamburg/Schleswig Holstein, https://www.ma- hsh.de/infothek/pressemitteilung/kooperation-google-mit-bundesministerium-fur-gesundheitma-hsh-leitet-medienrechtliches-verfahren-ein.html (zuletzt abgerufen 29.8.22).
30 LG München MMR 2021, 431.
31 Kellner Die Regulierung der Meinungsmacht von Internetintermediären, 2019, S. 181 ff.
32 Siehe auch Schneiders ZUM 2021, 480 (488), der von einer „das Missbrauchspotential
adressierende[n] Risikovorsorge“ spricht.
33 Monopolkommission, Hauptgutachten Wettbewerb 2018, Ziff.1178.
34 Ebenso Kellner, Die Regulierung der Meinungsmacht von Internetintermediären, 2019, S. 293.
35 Vgl. Kreile ZUM 2017, 268 (276 f.); Kreile/Thalhofer ZUM 2014, 629 (637); Müller-Terpitz AfP 2017, 380 (384).
36 Vgl. wiederum Kreile ZUM 2017, 268 (276 f.); Kreile/Thalhofer ZUM 2014, 629 (637); Müller-Terpitz AfP 2017, 380 (384).
37 Zutreffend Kellner Die Regulierung der Meinungsmacht von Internetintermediären, 2019, S. 294.
38 Zur Bedeutung des öffentlich-rechtlichen Rundfunks „in Zeiten vermehrten komplexen Informationsaufkommens einerseits und von einseitigen Darstellungen, Filterblasen ,Fake News, Deep Fakes andererseits“ äußerte sich jüngst das BVerfG Beschl. v. 20.7.2021 – 1 BvR 2756/20 Rn. 81.
39 Siehe dazu schon Kühling FAZ 2014, S. 7.
40 Das gilt sowohl für jede einzelne normative Ebene als auch für das Zusammenspiel der verschiedenen Ebenen; zu dem Problem mit Blick auf den KI-VO-E und den DSA-E auf unionaler Ebene insoweit zu Recht der Hinweis von Kalbhenn ZUM 2021, 663 (674)
Biografie:
Prof. Dr. Jürgen Kühling, LL.M. ist seit 2007 Inhaber des Lehrstuhls für Öffentliches Recht, Immobilienrecht, Infrastrukturrecht und Informationsrecht an der Fakultät für Rechtswissenschaft der Universität Regensburg. Er hat an den Universitäten Trier und Nancy II Jura studiert sowie in Brüssel das Master-Studium (LL.M.) abgeschlossen. Er wurde an der Universität Bonn im Jahr 1998 zum Dr. jur. promoviert und Ende des Jahres 2002 habilitiert. Nach Lehrstuhlvertretungen in Hamburg und Karlsruhe war er zwischen 2004 und 2007 Professor für Öffentliches Recht, insbesondere Medien- und Telekommunikationsrecht sowie Datenschutzrecht am Zentrum für angewandte Rechtswissenschaft (ZAR) der Universität Karlsruhe. Jürgen Kühling war vom 1. Oktober 2017 bis zum 30. September 2019 Dekan der Rechtswissenschaftlichen Fakultät seiner Universität. Er war bis Ende 2016 Mitglied im Wissenschaftlichen Arbeitskreis für Regulierungsfragen der Bundesnetzagentur (WAR). Forschungsschwerpunkte von Prof. Jürgen Kühling sind u a. die Regulierung von Netzindustrien, das Informationsrecht und das Europäische Beihilfenrecht. Prof. Jürgen Kühling ist seit dem 1. Juli 2016 Mitglied und seit September 2020 Vorsitzender der Monopolkommission.