?Nie zuvor waren wir professioneller aufgestellt?

20. April 2022
?Nie zuvor waren wir professioneller aufgestellt?

Künstliche Intelligenz hilft den Landesmedienanstalten beim Kampf gegen Hass und Jugendgefährdung im Netz

20.04.2022. Interview mit Dr. Tobias Schmid, Direktor der Landesanstalt für Medien NRW

Seit diesem Monat arbeiten die Medienanstalten mit einer für die Landesanstalt für Medien NRW entwickelten KI-Lösung. In Zusammenarbeit mit den Mitarbeitenden der Medienanstalten in den anderen Ländern ist dieses technische Hilfsmittel in den letzten Monaten realisiert und jetzt deutschlandweit ausgerollt worden. Das KI-Tool beschleunigt, vereinfacht und verbessert die Medienaufsicht im Netz. Durch automatisiertes Monitoring von Social Media-Plattformen und Webseiten werden potenzielle Rechtsverstöße identifiziert und zur Prüfung durch die Mitarbeitenden der Aufsicht vorbereitet. ?Diese KI beschleunigt, vereinfacht und verbessert die Arbeit der Medienaufsicht. Indem sie das Netz durchsucht und unsere Mitarbeitenden auf mögliche Rechtsverstöße hinweist. Sie vereint damit höchsten technologischen Standard mit menschlicher Expertise. Nie zuvor waren wir professioneller aufgestellt, um ganzheitlich den Kampf gegen Hass und Jugendgefährdung im Netz aufnehmen zu können?, erläutert Dr. Tobias Schmid, Direktor der Landesanstalt für Medien NRW, den Nutzen der KI-Lösung gegenüber www.medienpolitik.net.

medienpolitik.net: Herr Schmid, mit dem Medienstaatsvertrag wurden den Landesmedienanstalten neue Aufgaben für die Medienregulierung im Internet übertragen. Seit vergangenem Jahr existieren dazu auch die entsprechenden Richtlinien und Satzungen. Wie stark haben sich die Aufgaben der Landesmedienanstalten dadurch erweitert?

Schmid: Der Medienstaatsvertrag hat sicher eine Tendenz verstärkt, die sich auch schon vorher abgezeichnet hat. Aus dem Rundfunkstaatsvertrag ist der Medienstaatsvertrag geworden. Und wir sind eben nicht mehr nur zuständig für Rundfunk, sondern in diesem Sinne für Medien. Heute sind diese Medien überwiegend digital und genau da liegt auch der neuere Schwerpunkt unserer Arbeit. Das trifft auf Verstöße gegen die Menschenwürde und Delikte im Bereich der Hassrede ebenso zu wie auf den Jugendmedienschutz, die Verbreitung von Pornographie und Gewaltdarstellungen aber auch die Einhaltung der Werbevorschriften. Zu den neuen Aufgaben gehört auch, dass wir gerade das Public Value-Verfahren durchführen und gegen zahlreiche Angebote vorgegangen, die sich nicht an die journalistischen Sorgfaltspflichten im Netz gehalten haben.

medienpolitik.net: Welche Regulierungsaufgaben muss die Landesanstalt für Medien NRW gegenwärtig im Netz insgesamt durchführen?

Schmid: Unsere Aufgaben ergeben sich auf Bundesebene aus dem Medienstaatsvertrag und dem Jugendmedienschutzvertrag. Auf Landesebene ist das Landesmediengesetz für uns maßgeblich und das jeweils im Lichte der europarechtlichen Vorgaben. Sie alle zusammen bestimmen unsere Zuständigkeiten und diese umfassen das Vorgehen gegen Hassrede und Gewaltdarstellungen genauso wie die Einhaltung von Werbekennzeichnung oder die Vergabe von Lizenzen.

medienpolitik.net: Welche Rolle spielen dabei der Kampf gegen Hass und Jugendgefährdung?

Schmid: Der Kampf gegen Hass und Jugendgefährdung spielt eine zentrale Rolle. Anhand dieser Bereiche wird besonders deutlich, dass die Freiheit immer auch Regeln und deren Durchsetzung braucht. Hier kommen viele Fälle zusammen und wir priorisieren diese Fälle sehr hoch. Der Jugendschutz und der Schutz einer Debattenkultur im Netz, die vor allem Meinungsfreiheit ermöglicht und nicht durch Hass dominiert wird, sind uns in der Aufsichtspraxis besonders wichtig.

?Die Meinungsfreiheit im Netz zu sichern, kann nur gelingen, wenn wir Regeln zu ihrem Schutz haben und durchsetzen.?

medienpolitik.net: Wie erfolgte die Medienaufsicht bisher?

Schmid: Bisher haben wir in der Medienaufsicht vor allem händisch nach Verstößen im Netz gesucht und sind Beschwerden nachgegangen, die uns erreicht haben. Wir haben acht studentische Hilfskräfte beschäftigt, die von uns geschult wurden und die ausgehend von Erfahrungen und vorangegangenen Verstößen Hintergrundrecherchen und Checks gemacht haben. Sie haben unseren Juristinnen und Juristen vorgearbeitet - eine echte Sisyphus-Aufgabe ohne jede Chance auf Vollständigkeit. Uns ist natürlich klar, dass man das Netz nicht mit einigen Teilzeitkräften monitoren kann. Und wir sind dabei noch im Vergleich zu anderen Medienanstalten wirklich gut personell aufgestellt. Wir brauchten eine technische Lösung, um den Prozess zu vereinfachen. Daher haben wir eine Machbarkeitsanalyse durchgeführt und festgestellt, man kann auch automatisch und mit Hilfe von künstlicher Intelligenz nach Verstößen im Netz suchen lassen.  Die Idee einer KI-Lösung war geboren und nun ist unser KI-Tool KIVI in NRW seit einem Jahr im Einsatz. Seit Anfang April nutzen es auch die Kolleginnen und Kollegen in allen anderen deutschen Medienanstalten und unsere studentischen Hilfskräfte beschäftigen wir nach wie vor ? nur wesentlich effizienter und durch einige Features des Tools besser geschützt vor der direkten Konfrontation mit bisweilen verstörenden Inhalten im Netz.

medienpolitik.net: Was ändert sich nun durch den Einsatz von KI?

Schmid: Diese KI beschleunigt, vereinfacht und verbessert die Arbeit der Medienaufsicht. Indem sie das Netz durchsucht und unsere Mitarbeitenden auf mögliche Rechtsverstöße hinweist. Sie vereint damit höchsten technologischen Standard mit menschlicher Expertise. Nie zuvor waren wir professioneller aufgestellt, um ganzheitlich den Kampf gegen Hass und Jugendgefährdung im Netz aufnehmen zu können. Und keine andere europäische Medienaufsichtsbehörde ist dafür besser ausgestattet als wir. Was mich daran besonders freut, ist, dass der Föderalismus damit ganz nebenbei seine Leistungsfähigkeit beweist.

medienpolitik.net: Was wird mit Hilfe der KI untersucht bzw. abgeglichen?

Schmid: Unser Fokus lag bei der Entwicklung des Tools zunächst auf dem Schutz der Menschenwürde und dem Jugendschutz. Zu den konkreten Verstoßkategorien, die das Tool ausweist, zählen beispielsweise Gewaltdarstellungen, Volksverhetzung, die Verwendung verfassungsfeindlicher Kennzeichen oder frei zugängliche Pornografie. Anschließend konnten wir das Tool Kanal für Kanal ausrollen. Von Twitter und YouTube bis zu Plattformen wie Telegram und VK kann das Tool heute täglich mehr als 10.000 Seiten automatisch durchsuchen.

Die trainierten Verstoßkategorien, aber auch die Herkunft eines Verstoßes kann das Tool erkennen ? zum Beispiel weist es aus, auf welchen internationalen Kanälen die Nutzerinnen und Nutzer auf Deutsch angesprochen werden. Für die territoriale Zuständigkeit der Medienanstalten ist das ein großer Vorteil. Denn das Tool kann so mutmaßliche Verstöße erkennen, die für Mediennutzerinnen und -nutzer in unserem Zuständigkeitsbereich relevant sind ? oder eben für unsere Kolleginnen und Kollegen in den anderen Bundesländern. Und daher überrascht es nicht, dass wir auch aus anderen europäischen Ländern Anfragen aus der Medienaufsicht erhalten, die das Tool ebenfalls nutzen wollen.

?Von Twitter und YouTube bis zu Plattformen wie Telegram und VK kann das Tool heute täglich mehr als 10.000 Seiten automatisch durchsuchen.?

medienpolitik.net: Mittels KI sollen Rechtsverstöße ermittelt und die Sicherung der Meinungsfreiheit erreicht werden. Mehr Meinungsfreiheit durch Künstliche Intelligenz?

Schmid: Das ist jedenfalls unsere Überzeugung. Die Meinungsfreiheit im Netz zu sichern, kann nur gelingen, wenn wir Regeln zu ihrem Schutz haben und durchsetzen. Mit dem KI-Tool können wir diese Aufgabe besser denn je annehmen. Ohne diese technische Hilfe, konnten wir nur einen Bruchteil der Verstöße im Netz finden, geschweige denn bearbeiten. Die deutliche Steigerung unserer Präsenz im Netz ist ein großer Erfolg des Tools. Dadurch finden wir mehr Rechtsverstöße, ohne unsere Ressourcen für die Suche zu verwenden. Zudem erhalten wir einen Überblick über die Gefahrenlage im Internet und können den Rechtsverstößen priorisiert nachgehen ? zum Schutz der Meinungsfreiheit.

medienpolitik.net: Seit Ende 2020 wird das KI-Tool in NRW eingesetzt. Wie ist die Bilanz?

Schmid: Schon nach wenigen Wochen Einsatz des KI-Tools schnellten die entdeckten Verstöße in die Höhe. Dadurch konnten die Strafanzeigen zu früheren Vergleichsmonaten verdoppelt werden. Dank der Schutzfunktionen, die das Tool bietet, hat außerdem die psychische Belastung der Mitarbeiterinnen und Mitarbeiter im Monitoring maßgeblich abgenommen. Mit Werkzeugen wie dem KI-Tool werden auch wir als Medienanstalt im Kampf gegen Rechts­verstöße im Netz immer besser.

medienpolitik.net: Ist durch den KI-Einsatz eine lückenlose Überwachung des Internets möglich?

Schmid: Ganz sicherlich nicht. Und um Überwachung geht es auch nicht und das streben wir ja auch nicht an. Vielmehr setzen wir auf den Effekt der Generalprävention. Unser Ziel ist es, ein grundlegendes Verständnis von Recht und Rechtsverstößen im Netz zu erwirken. Dafür müssen wir nicht jeden Verstoß finden. Aber es hilft, wenn sich potentielle Straftäterinnen und Straftäter immer weniger sicher sein können, dass wir sie nicht finden.

Zur Übersicht