„Verantwortung nicht auf den Nutzer abschieben“

von am 24.10.2019 in Allgemein, Archiv, Digitale Medien, Internet, Kommunikationswissenschaft, Medienkompetenz, Medienpolitik, Medienregulierung, Medienwissenschaft, Netzpolitik, Netzpolitik, Regulierung, Social Media

„Verantwortung nicht auf den Nutzer abschieben“
Prof. Dr. Birgit Stark und Dominique Facciorusso, Mainzer Medieninstitut

Transparenz bei Intermediären schafft nicht zwangsläufig die Voraussetzung für autonome Nutzerentscheidungen im Netz

24.10.2019. Interview mit Professorin Dr. Birgit Stark, Direktorin des Mainzer Medieninstituts und Dominique Facciorusso, Mitarbeiterin am Mainzer Medieninstitut

Transparenz spielt im Medienstaatsvertrag bei der Regulierung der Informationsintermediäre (z. B. Suchmaschinen, soziale Netzwerke, Portale) eine wichtige Rolle. Sie soll die Voraussetzung für eigenverantwortliche Nutzerentscheidungen im Netz schaffen (Nutzerautonomie) und gegen diskriminierende Selektions- und Sortierpraktiken schützen. Dabei geht es weniger um die Pflicht, die Algorithmen offen zu legen, als um Informationen über die Leitidee, das Geschäftsmodell oder auch die Struktur und die maßgeblichen Kriterien der automatisierten Datenverarbeitung. Doch wie schätzen Expertinnen und Experten die Transparenznorm ein? Was kann Transparenz leisten, speziell mit Blick auf die Unterstützung autonomer Nutzerentscheidungen im Netz? Wo werden die Grenzen des Konzepts gesehen? Das Mainzer Medieninstitut Institut ist u.a. diesen Fragen in einer aktuellen Studie nachgegangen, in der insgesamt 11 Vertreterinnen und Vertreter der Datenschutzbehörden, Landesmedienanstalten und Zivilgesellschaft interviewt wurden. Die Ergebnisse sind Teil einer Mehrmethoden-Studie, die zusammen mit dem Institut für Publizistik durchgeführt wurde. „Die Ergebnisse zeigen klar“, erläutert Prof. Dr. Birgit Stark, Direktorin des Mainzer Medieninstituts in einem medienpolitik.net-Gespräch, „dass aus Expertensicht mit Transparenz allein nicht zwangsläufig die Voraussetzung für autonome Nutzerentscheidungen im Netz geschaffen werden.“     

medienpolitik.net: Frau Stark, Algorithmen sind in vielen Bereichen unseres Lebens im Einsatz und prägen einen Großteil unserer alltäglichen Informations- und Kommunikationssituationen. Mit der zunehmenden Debatte um die gesellschaftlichen Folgen algorithmischer Entscheidungen wird auch der Ruf nach Regulierung laut. In diesem Zusammenhang wird vor allem „Transparenz“ als ein wichtiger Ansatz gesehen. Was steht hinter dieser Forderung?

Stark: Bei der Frage wie Algorithmen reguliert werden könnten, ist man mit der Tatsache konfrontiert, dass algorithmische Systeme durch einen hohen Grad an Opazität gekennzeichnet sind. Die Forderung nach Transparenz setzt daran an, dieser Intransparenz entgegenzusteuern. Um Transparenz herzustellen, müssen Informationen über algorithmische Entscheidungsprozesse dem Nutzer verfügbar und zugänglich gemacht werden. Zudem müssen sie verständlich aufbereitet sein. Dabei hat Transparenz mit Blick auf den Nutzer vor allem das Ziel, diesen anhand von hinreichenden und verständlichen Informationen in seinem Entscheidungsfindungsprozess erkenntnisorientiert zu unterstützen. So soll er zum Beispiel erkennen können, wann er mit menschlicher und wann mit algorithmischer Entscheidungsfindung zu tun hat (Kennzeichnungspflicht) oder nachvollziehen wie eine automatisierte Entscheidungsfindung zustande kommt (Verständnis der Funktionsweise). Das Interpretations-Spektrum der Forderung reicht dabei von der Offenlegung des Quellcodes über die Offenlegung der In- und Output-Daten, die für algorithmische Entscheidungen relevant sind (Also welche Art von Informationen etwa zum Lernen genutzt werden oder wie die Daten jeweils zum Ergebnis beitragen), bis hin zu Erklärungen warum dem Nutzer bestimmte Dinge (wie z.B. Werbung) angezeigt werden oder wie bspw. eine Kreditzusage zustande kommt.

medienpolitik.net: Der Transparenzansatz wird im wissenschaftlichen und politischen Diskurs aber auch ambivalent betrachtet.

Stark: Das ist richtig, das Konzept steht durchaus auch in der Kritik. Dafür gibt es vielschichtige Gründe. Einer davon ist zum Beispiel, dass die Offenlegung des Quell-Codes aufgrund der fehlenden Nachvollziehbarkeit als wenig zielführend gilt, da sie dem Nutzer keinen echten Mehrwert bietet. Sind algorithmische Systeme durch einen hohen Grad an Komplexität gekennzeichnet, ist es einem Laien in der Regel nicht möglich für sich daraus nützliches Wissen zu ziehen, da er nicht über das notwendige technische Know-how verfügt (Mangel an „algorithmic literacy“). Zum anderen kann Intransparenz durchaus auch berechtigte Gründe haben. Da die Software das Kapital des Anbieters darstellt, kann eine Veröffentlichung des Algorithmus für das Unternehmen zum Beispiel geschäftsschädigend sein (Geschäftsgeheimnis). Des Weiteren kann das Wissen um die Funktionsweise eines Algorithmus für eigene Interessen manipuliert werden, weshalb „Intransparenz“ in bestimmten Fällen sogar notwendig ist um Manipulationsrisiken zu minimieren („Gaming the system“). Zudem gibt es auch sensible Bereiche (z.B. bei Finanz- oder Gesundheitsdaten), in denen es wichtig sein kann bestimmte Elemente einer algorithmenbasierten Entscheidung geheim zu halten, um die Privatsphäre der Nutzer zu wahren (Datenschutz-Aspekt).   

„Die Offenlegung des Quell-Codes ist aufgrund der fehlenden Nachvollziehbarkeit wenig zielführend, da sie dem Nutzer keinen echten Mehrwert bietet.“

medienpolitik.net: Frau Facciorusso, Sie haben ebenfalls an der Studie mitgearbeitet.Wie bewerten dort die Expertinnen und Experten die Transparenznorm?

Facciorusso: Unsere Ergebnisse zeigen, dass Vertreterinnen und Vertretern der Datenschutzbehörden, Landesmedienanstalten und Zivilgesellschaft die Norm grundsätzlich als eine wichtige Grundlage sehen, um der Opazität algorithmischer Systeme entgegenzuwirken. Transparenz kann ein wirkungsvoller Hebel sein, um bestimmte Ziele zu erreichen. Um diese Ziele zu erreichen, muss man sich zunächst darüber bewusst werden was Transparenz im spezifischen Fall überhaupt leisten kann und soll. Soll dem Nutzer zum Beispiel offengelegt werden, wo Algorithmen zum Einsatz kommen oder geht man noch einen Schritt weiter und informiert ihn über die Funktionsweise algorithmischer Systeme? Die Norm kann also sehr differenziert betrachtet werden, weshalb es nicht zwingend notwendig sein muss für jedes dieser Ziele den Quellcode offenzulegen bzw. die sogenannte “Blackbox” zu öffnen. Betont wurde auch, dass Transparenz in zwei Richtungen wirkt, nämlich einmal mit Blick auf den Nutzer, dem so (theoretisch) eine informierte Entscheidungsfindung ermöglicht wird. Und zum anderen mit Perspektive auf die Anbieter, die verpflichtet sind die Logik der automatisierten Entscheidungsfindung bei Fragen näher erklären zu können. Somit können die Transparenzvorschriften auch als Sensibilisierungsmaßnahme gegenüber den Anbietern verstanden werden, da diese sich mit Fragen auseinandersetzen müssen wie zum Beispiel „Wie werden Algorithmen eingesetzt? Wie funktionieren sie genau? Wer hat Zugriff auf die Daten? Werden die Rechte und Freiheiten der Nutzer (in Zukunft) gewahrt?“ oder „Kann Kontrolle über algorithmische Entscheidungen gewährleistet werden?“

„Als Nutzer hat man oft keine Wahl und kann bestimmte Entscheidungen gar nicht treffen, weil eher das Motto gilt ‚Take it or leave it!.“

medienpolitik.net: Mit Blick auf die Nutzer – was kann Transparenz leisten und wo sind die Grenzen des Konzepts? 

Facciorusso: Auch wenn alle Experten Transparenz als eine wichtige Grundlage bewerten, wird der Ansatz nicht als hinreichendes Mittel gesehen, um Nutzern damit automatisch zu autonomeren Entscheidungen zu verhelfen. Es wurden einige Punkte genannt, die verdeutlichen warum die Forderung mit Vorsicht zu genießen ist. Angefangen bei der (noch) geringen Awareness seitens der Nutzer was ihre Rechte angeht oder auch, dass sich viele für die Thematik nicht interessieren oder zu bequem sind, sich mit den dargelegten Informationen zu befassen. Gerade wenn man das allgegenwärtige Aufpoppen der Datenschutzerklärungen bedenkt, die oft einfach nur mit „ok“ weggeklickt werden, ist aus Sicht der Expertinnen und Experten fraglich, ob Transparenz für den Nutzer wirklich immer von Vorteil ist. Zudem sind bestimmte Ressourcen notwendig um die offengelegten Informationen effektiv für sich nutzen zu können. Dazu zählt etwa ein bestimmter Grad an Medienkompetenz oder auch der Faktor Zeit, da man sich mit den Informationen zu einem bestimmten Grad auch bewusst auseinandersetzen muss.

Auf der anderen Seite gibt es aber auch Aspekte, die man vom Nutzer nicht erwarten kann, die aber sehr wohl notwendig sind, um “echte“ Transparenz über algorithmische Entscheidungen herzustellen. So müssen notwendige Informationen zum einen leicht zugänglich und gut nachvollziehbar sein. Denn auch wenn sehr genau vorliegt, was mit den Daten passiert, können Nutzer aufgrund mangelnder Expertise daraus in der Regel keinen Mehrwert für sich ziehen. Weiterhin fehlen Einspruchs- und Gestaltungsmöglichkeiten bei bestimmten Angeboten, um bspw. auf fairere Systeme zu drängen. Hinzu kommt, dass es zu marktbeherrschenden Angeboten oft keine echte Alternativen gibt, zu der man wechseln kann, falls man mit bestimmten Aspekten der Datenverarbeitung nicht einverstanden wäre. Da die Nutzung vieler Angebote auch eine soziale Kompetente hat, kommt ein Verzicht oft nicht in Betracht, da das Bedürfnis sich nicht ausschließen zu wollen klar überwiegt. Als Nutzer hat man also oft keine Wahl und kann bestimmte Entscheidungen gar nicht treffen, weil eher das Motto gilt „Take it or leave it!“.   

medienpolitik.net: Was kann Transparenz dann für den Nutzer überhaupt leisten? 

Facciorusso: Die Norm ist nach Ansicht der Expertinnen und Experten an bestimmte Bedingungen geknüpft um ihr Potential besser ausschöpfen zu können. Nutzerseitig gilt Medienkompetenz etwa als ein wichtiger Baustein, um eine Awareness und ein Grundverständnis für Algorithmen aufzubauen. Hier wird ein dringender Investitionsbedarf gesehen, indem die Kompetenzvermittlung stärker auf unterschiedliche Zielgruppen ausdifferenziert wird. Eine weitere Bedingung die an Transparenz geknüpft wird, betrifft die Usability der dargelegten Informationen. Hier wird vor allem betont, dass es der Entwicklung nutzerfreundlicherer Formate bedarf, die die Informationen so transportieren, so dass Menschen mehr Input für sich daraus ziehen können. Doch Transparenz, selbst wenn sie nutzerfreundlich ausgestaltet wird, und auch Medienkompetenz haben ab einem bestimmten Punkt klare Grenzen, weshalb davor gewarnt wird die Verantwortung zu sehr auf den Nutzer abzuschieben. Da dieser letztlich keine Möglichkeiten der Durchsetzungsmacht hat, werden vor allem externe Kontroll- und Interventionsmöglichkeiten durch regulierende Stellen (z.B. Aufsichtsbehörden) als wichtiges Mittel gesehen, um die Position des Nutzers stellvertretend zu unterstützen.  

Print article