Eine Regulierung von Desinformation ist möglich

von am 11.11.2021 in Aktuelle Top Themen, Archiv, Digitale Medien, Gesellschaftspolitik, Journalismus, Medienordnung, Medienrecht, Medienregulierung, Regulierung, Social Media

Eine Regulierung von Desinformation ist möglich

11.11.2021. Medienanstalt NRW veröffentlicht juristisches Gutachten des Leibniz-Instituts für Medienforschung zu adäquaten Maßnahmen gegen Desinformation

Desinformationskampagnen zu verhindern, ohne das Recht auf freie Meinungsäußerung zu gefährden – das ist eine der dringendsten Herausforderungen für unsere Demokratien. Das von der Landesanstalt für Medien NRW in Auftrag gegebene Gutachten des Leibniz-Instituts für Medienforschung „Desinformation – Risiken, Regulierungslücken und adäquate Gegenmaßnahmen“ bietet dazu erste Ansätze. Ziel des Gutachtens war es, ein differenziertes Verständnis von Risiken für individuelle Rechte und gesellschaftliche Interessen und von bereits geltenden Gesetzen gegen die gezielte Verbreitung von Falschinformationen zu gewinnen. Außerdem sollen konkrete Ansätze für eine mögliche zukünftige Regulierung von Desinformation aufgezeigt werden. Prof. Dr. Wolfgang Schulz vom Leibniz-Institut für Medienforschung stellt zum Gutachten fest: „Die Governance von Desinformation ist komplex. Es gibt dafür in einem Rechtsstaat keine einfachen Lösungen, auch wenn man sich das wünschen mag. Der Staat kann in der Regel nur dann an die Unwahrheit einer Aussage Folgen knüpfen, wenn eine unabhängige Stelle – etwa ein Gericht – dies geprüft hat. Das muss auch angesichts der Menge von Kommunikation im Netz auf Extremfälle beschränkt bleiben.“

Zusammenfassung des Gutachtens

1. Da wissenschaftliche Ansätze zur Definition von Desinformation an der Unwahrheit einer Behauptung und an der Intention der äußernden Person anknüpfen, die schwer ermittelbar sind, taugen sie kaum für eine regulatorische Diskussion. Im Gutachten legen wir daher folgendes Verständnis zugrunde: „Desinformation beschreibt Äußerungen,

  • deren Wahrheit mit guten Gründen angezweifelt werden kann,
  • die niedrigschwellig (weiter-)verbreitbar sind,  
  • die durch die Person des Äußernden oder ihre Gestaltung aus Sicht eines objektiven Empfängers einen besonderen Wahrheitsgehalt beanspruchen und 
  • Schutzrechte und -güter beeinträchtigen.“

2. Die so gefassten Äußerungen lassen sich für die weitere Analyse nach einer Reihe an Dimensionen aufschlüsseln, die dann im Einzelnen für eine Typenbildung zur Verfügung stehen und so den Regulierungsdiskurs versachlichen und fokussieren können, nämlich  

  • die Art der Äußerung,
  • der Kontext der Äußerung,
  • die Akteursstruktur der Äußernden,
  • das Äußerungsmotiv und dafür ursächliche Anreize,
  • der Grad der möglichen öffentlichen Sichtbarkeit,
  • eine im Einzelfall erkennbare Irreführungs- bzw. Täuschungsabsicht sowie 
  • zentral das Gefahrenpotenzial für geschützte Rechtsgüter (in den Dimensionen Grad der Unmittelbarkeit einer Gefährdung, Wahrscheinlichkeit einer Verletzung, Intensität der Rechtsgutsverletzung und Bedeutung der betroffenen Rechtsgüter).

3. Die Beantwortung der Frage, inwieweit hier angesichts der Verbreitung von Desinformation Handlungsbedarf besteht und welche Optionen es gibt, setzt zunächst voraus, sich die potenziell gefährdeten Interessen und Rechtsgüter bewusst zu machen. Hier identifizieren wir die folgenden (im Einzelfall können natürlich weitere betroffen sein):

Auf individueller und gruppenbezogener Ebene

  • die individuelle Autonomie,
  • die Freiheitlichkeit der politischen Willensbildung und der Meinungsbildung, 
  • die Wahlfreiheit,
  • die Meinungsfreiheit,
  • die Informationsfreiheit,
  • das allgemeine Persönlichkeitsrecht, 
  • das Recht auf unbeeinträchtigte Persönlichkeitsentwicklung und
  • die Rechte auf Leben und Gesundheit

Auf gesellschaftlicher Ebene

  • die Freiheitlichkeit der öffentlichen Meinungsbildung,
  • die kommunikative Chancengerechtigkeit,
  • die Meinungsvielfalt,
  • die demokratische Willensbildung und die Integrität und Freiheit der Wahl,
  • das Vertrauen in demokratische Institutionen, 
  • die gesellschaftliche Realitätskonstruktion und den gesellschaftlichen Zusammenhalt sowie 
  • die öffentliche Sicherheit und Ordnung, und die öffentliche Gesundheit.

4. Die Kontrastierung der gefährdeten Interessen und Rechtsgüter mit dem aktuellen Rechtsrahmen zeigt am Beispiel Deutschlands, dass zumindest individuelle und gruppenbezogene Rechtsgüter grundsätzlich auch gegen Gefahren geschützt sind, die von (Online-) Kommunikation ausgehen. Kritik kann es an der Effektivität des Schutzes bzgl. Möglichkeiten des Rechtssystems geben, mit Mengen und Verbreitungstempo von potenziell schädigenden Kommunikaten auf Plattformen umzugehen. Dies ist aber ein Problem aller rechtsgütergefährdenden Inhalte und nicht auf solche beschränkt, die wegen ihrer Unwahrheit Gefahren auslösen.

5. Letztere sind eher eine Problemkategorie, wenn es um die Möglichkeiten platt-formspezifischer rechtlicher Reaktionen geht, den Schutz effektiver zu gestalten. Liegt die Rechtsgutsverletzung gerade in der Unwahrheit etwa einer Behauptung über eine Person, setzt eine adäquate Lösung des Rechtsstreits voraus, dass – je nach Beweislast – die Wahrheit oder Unwahrheit bewiesen können werden muss. Verfahren wie die des NetzDG verlangen von den Plattformen, diese Entscheidung zu treffen, obwohl sie keine gerichtsförmigen Erkenntnisverfahren besitzen. Eine adäquate Konfliktlösung bezieht sich nicht nur auf die Ermittlung des Sachverhalts, sondern schon vorgelagert auf die Frage, ob überhaupt eine Tatsachen-behauptung vorliegt und welchen genauen Inhalt die Behauptung ggf. hat. Die mit einer Prüfpflicht verbundenen Anreize für Plattformen zur Löschung führen hier zu Zweifeln daran, ob derartige Regelungskonzepte überhaupt konform mit Grund- und Menschenrechten ausgestaltet werden können.

6. Im Hinblick auf gesellschaftliche Interessen gibt es konkrete Regelungen in Deutschland bislang nur für einzelne Rechtsgüter wie den öffentlichen Frieden sowie die kontrafaktische Stabilisierung des Vertrauens in journalistisch-redak tionell gestaltete Inhalte durch Vorschriften zur Einhaltung journalistischer Sorgfaltsmaßnahmen (§ 19 MStV). Weitergehende Regelungsoptionen haben hier ebenfalls mit dem Problem zu kämpfen, dass bei einem Anknüpfen an die Dichotomie wahr/unwahr eine bestimmte Stelle die Unwahrheit feststellen können müsste. Abgesehen von kontradiktorischen Verfahren vor unabhängigen Gerichten ist die Wahrheitsfindung aber keine Aufgabe des Staates, sondern ein gesellschaftlicher Prozess kommunikativer Konstruktion, in dem Begründen und Zweifeln eine wichtige Rolle spielen. In diesem Prozess ergeben sich jedenfalls zeitweise geteilte Verständnisse darüber, „was der Fall ist“.

7. Das Funktionieren dieses diskursiven Prozesses kann nur sehr begrenzt durch staatliche Maßnahmen gewährleistet werden. Wird das Vertrauen in Akteure oder Einzelpersonen, denen eine besondere Rolle bei der Realitätskonstruktion zukommt, erodiert, hat dies Auswirkungen auf die demokratische Selbstverständigung einer Gesellschaft. Dies ist etwa der Fall, wenn derzeit in den USA politisch-strategisch behauptet wird, die Präsidentschaftswahl sei manipuliert worden, obwohl Gerichte das zurückgewiesen haben. Politische Akteure sollten sich der fundamentalen Gefahr bewusst sein, die eine Veränderung der Praktiken der Realitätskonstruktion mit sich bringt. Der Erhalt der politischen Kultur erscheint in diesem Fall der zentrale Faktor. Selbstverpflichtungen, insbesondere für Wahl-kampf-Kommunikation, können hier ein Weg sein. Es bleiben aber Bereiche, in denen der Staat den gesellschaftlichen Prozess zwar nicht ermöglichen, aber durch rechtliche Rahmenvorgaben unterstützen kann.

8. Dabei scheint über alle untersuchten Gegenmaßnahmen hinweg auf, dass für derartige diskursunterstützende Ansätze klassische Regelungsformen nicht zulässig, nicht hilfreich oder in der Praxis nicht umsetzbar erscheinen. Ein Grund hierfür liegt darin, dass für deren Umsetzung regelmäßig private Akteure zuständig wären, die ihrerseits über große Gestaltungsfreiheiten ihrer Angebote und Vertragsbedingungen verfügen. Hier sind neben klassischen Formen der Selbst-regulierung neue Formen hybrider Governance nötig, in denen staatliche Regulierung und anbietereigene Governance-Bereiche verschränkt werden und reziprok wirken. Staatliche Kommunikationskontrolle kann zur Lösung der Probleme, die mit Desinformation einhergehen, kaum etwas beitragen – oder nur um den Preis, die Freiheit, die geschützt werden soll, selbst zu gefährden.

9. Vor diesem Hintergrund erscheinen nur wenige Pfade als zielführend, um Probleme der Desinformation weiter regulatorisch einzuhegen. Und nur wenige knüpfen an das Kriterium der (Un-)Wahrheit an. Neben den genannten Gründen ist die Dichotomie wahr/unwahr auf den Äußerungstyp bezogen, dies wird aber der Sprachnutzung nicht immer gerecht: Derzeit scheint sich eine Sprachver-wendung zu etablieren, die durch offensive Leugnung von Fakten ein politisches Bekenntnis unterstreicht (z. B. „Mir ist egal, dass es widerlegt ist, die Wahl wurde gestohlen“). Das dahinterliegende Problem wird durch die Wahrheitsprüfung der Aussage nicht adressiert. Folgende Pfade könnten auf der Basis dieses Gutachtens weiterverfolgt werden, bestenfalls in Kombination:

  • An die Unwahrheit anknüpfende Maßnahmen kommen in Betracht, wenn mit hoher Wahrscheinlichkeit unmittelbare Gefahren für höchste individuelle Rechtgüter wie Leben und körperliche Unversehrtheit drohen. Hier ist an Äußerungen zu denken, die möglicherweise einen Lynchmob mobilisieren oder an Tatsachenbehauptungen, die das Potenzial aufweisen, unmittelbar Selbstschädigungen auszulösen. In diesen Fällen können Äußerungen nach Abwägung ausnahmsweise erst gelöscht und dann im Rechtsschutzverfahren auf ihre Unwahrheit überprüft werden. In diesen Fällen würde der öffentliche Diskurs seine Funktion nicht erfüllen, da er zu spät käme. 
  • Ein weiterer Bereich gesetzlicher Rahmung kann sich auf unwahre Äußerungen beziehen, die in unmittelbarem zeitlichem Zusammenhang mit dem Wahlakt getätigt werden. Auch in diesen Fällen ist der Gesellschaft die Möglichkeit entzogen, die Wahrheit der Behauptung auszuhandeln. Soweit dadurch Wählerinnen und Wähler manipuliert werden können, überwiegt das gesellschaftliche Interesse an der Wahlfreiheit die Rechte des Äußernden.
  • Maßnahmen, die Zweifel an bestimmten Behauptungen sichtbar machen und überprüfen (Tagging- bzw. Kennzeichnungsformen, Fact-Checking-Verfahren, Hinweise und Warnungen sowie Kombinationen daraus), können für legale Inhalte gesetzlich nicht verpflichtend eingeführt werden, sondern sind der Freiwilligkeit der Plattformen unterstellt. Durch Kooperationen von Staat und Anbietenden sowie letzteren untereinander können hier aber Erwartungen und Ideen ausgetauscht werden. Soweit Plattformanbieter entsprechende Maßnahmen und Verfahren einführen, sollte der (EU- oder nationale) Gesetzgeber einen grundrechtssichernden Rechtsrahmen dafür vorgeben. Dazu kann die Pflicht gehören, Informationen zu der Existenz entsprechender Verfahren und ihrer Entscheidungsherstellung, zu möglichen Sanktionen und zu Betroffenen-rechten in den Nutzungsbedingungen oder AGB transparent vorzuhalten. 
  • Der bestehende Rechtsrahmen zur kontrafaktischen Stabilisierung des Vertrauens in journalistisch-redaktionell gestaltete Inhalte durch Einhaltungs-forderungen von Sorgfaltspflichten ist eine Möglichkeit, Äußerungen mit erhöhtem Wahrheitsanspruch an damit einhergehende erhöhte Pflichten zur Wahrheitsfindung zu koppeln. Wird ein gleitender Sorgfaltsmaßstab angelegt, können von entsprechenden Pflichten auch nichtjournalistische Akteure mit hoher Meinungsbildungsrelevanz – wie etwa Influencerinnen und Influencer oder Aktivistinnen und Aktivisten – umfasst sein. Derartige Maßnahmen haben auch den Vorteil, dass sie dazu beitragen, Erwartungen an bestimmte Typen von Angeboten zu stabilisieren. Angesichts der Vielgestaltigkeit von Angeboten auf Plattformen ist dies sowohl für Nutzende als auch Anbietende bedeutsam. Angesichts des Missbrauchspotenzials dieses Instruments müssen die Aspekte der Auswahl, des Nachweises und der Maßnahmen besonders sensibel, transparent und nachvollziehbar ausgestaltet sein, um sich nicht dem Verdacht einer meinungsbezogenen Aufsicht aussetzen. Als erforderliche Sanktionen bei Verstößen gegen die Sorgfaltspflichten bieten sich statt Unterlassungs- oder Löschungsverfügungen Formen der Kennzeichnung als milderes Mittel an.
  • Die oftmals eher pauschale Forderung nach Herausgabe von Daten durch Plattformen hat im Bereich möglicher Desinformation einen spezifischen Sinn: Nur so kann die Gesellschaft lernen, welche der diskursorientierten Maßnahmen des Sichtbarmachens von Zweifeln, etwa durch Kennzeichnungen oder Erweiterungen mit Gegenrede, entsprechende Folgen haben. Regulierung könnte darauf hinwirken – und zwar im Idealfall so, dass durch ein etabliertes Verfahren oder einen „Datenbroker“ nicht jedes Mal im Einzelfall die Bedingungen der Datenherausgabe verhandelt werden müssen.

10. Die Regulierung nichtauthentischen Verhaltens auf Plattformen kann daneben ein Weg sein, die virale Verbreitung von Desinformation zu verlangsamen. Sie verweist aber auf ein generelles Problem der Plattformregulierung, das nur angerissen werden kann: Es besteht ein legitimes Interesse einer Plattform, zu definieren, was nach ihrer eigenen Vorstellung als authentische Kommunikation der Nutzerinnen und Nutzern gilt. Auch in diesem Bereich hybrider öffentlich/privater Governance sind neue Formen des Zusammenwirkens von staatlichem und privatem Normsetzen sinnvoll. In diesem Fall könnte dies darin bestehen, dass etwa staatlich eingesetzte Regulierende Anforderungen an Authentizität aus Sicht der gesellschaftlichen Interessen formulieren. Es würde dann aber den Plattformen überlassen bleiben, wie sie dies konkret ihn ihren Nutzungs- oder Geschäftsbedingungen umsetzen und diese Umsetzung dann kontrollieren. Dieses Instrument ist auch nur scheinbar inhaltsneutral, da bestimmte Akteure über spezifische Muster bspw. des Teilens oder Likens erkannt werden können.

11. Eine zentrale zukünftige Herausforderung beim Umgang mit Desinformation ist die Suche nach Möglichkeiten der plattformübergreifenden Verwendbarkeit von Verfahren zur Sichtbarmachung von Zweifeln und durchgeführten Fact-Checking-Ergebnissen. Wenn der Geltungsanspruch einer Behauptung mit guten Belegen und Argumenten auf einer Plattform bestritten wird, können interoperable Formen des Sichtbarmachens dieses Zweifels dagegen helfen, dass die gleiche Äußerung auf anderen Plattformen unhinterfragt bleibt.

12.  Nicht spezifisch desinformationsbezogene, aber kompensierende Maßnahmen können darin bestehen, die Informationskompetenz von Kindern, Jugendlichen und Erwachsenen systematisch zu verbessern, die den Anforderungen an journalistische Sorgfalt verpflichtete Anbieter positiv zu kennzeichnen und mit journalistischen Angeboten auch Formen desinformationssensibler(er) Berichterstattung zu diskutieren.

13. Governance-Maßnahmen, die die Risikopotenziale von Desinformation verringern sollen, dürfen nicht davon ablenken, dass das vermehrte Aufkommen von Falsch-informationen tieferliegende gesellschaftliche Ursachen haben kann. Wenn Desinformation ein Symptom ist, können Staaten und Gesellschaften das Problem nur nachhaltig lösen, wenn sie parallel auch diese Ursachen angehen.

Bei den abgedruckten Abschnitten handelt es sich um Ausschnitte aus einem größeren rechtswissenschaftlichen Gutachten, das im Erscheinen ist. Es untersucht vor dem Hintergrund möglicher Risiken von Desinformation für geschützte Rechtspositionen und -güter systematisch, welche Möglichkeiten und Grenzen einer rechtlichen Intervention bestehen. Hier dokumentiert sind die zentralen Ergebnisse der Untersuchung und die überblicksartige Darstellung der identifizierten Handlungsoptionen.

https://www.medienanstalt-nrw.de/fileadmin/user_upload/NeueWebsite_0120/Themen/Desinformation/Leibnitz-Institut_LFMNRW_GutachtenDesinformation_Zusammenfassung.pdf

Print article