Medienethik:

„Das Risiko liegt in der Intransparenz“

von am 11.04.2016 in Allgemein, Archiv, Datenschutz, Digitale Medien, Internet, Interviews, Medienethik, Medienwirtschaft, Medienwissenschaft, Plattformen und Aggregatoren, Regulierung, Social Media

<h4>Medienethik:</h4> „Das Risiko liegt in der Intransparenz“
Prof. Dr. Katharina Anna Zweig, Fachbereich Informatik der Technischen Universität Kaiserslautern

Die Gesellschaft muss Prinzipien ethischen Handelns bei der Anwendung von Algorithmen entwickeln

11.04.16 Interview mit Prof. Dr. Katharina Anna Zweig, Fachbereich Informatik der Technischen Universität Kaiserslautern

Algorithmen prägen gegenwärtig auch die Debatte um die mögliche Regulierung von Intermediären. Dabei geht es um Angebote, die Inhalte anderer Anbieter selektieren, aggregieren und präsentieren. Das Gewichten, Filtern und oft auch Personalisieren einzelner Inhalte erfolgt in der Regel mit Hilfe von Algorithmen, die darüber entscheiden, welche Nutzer bestimmte Suchmaschinen-Ergebnisse angezeigt bekommen oder Nachrichten in ihrem News-Feed erhalten. Von der oft geforderten Offenlegung von Programmiercodes für Algorithmen hält Prof. Dr. Katharina Anna Zweig vom Fachbereich Informatik der Technischen Universität Kaiserslautern nichts: Einerseits würde dies die wirtschaftliche Grundlage der betroffenen Unternehmen gefährden und andererseits zugleich bedeuten, dass sich die Algorithmen-Mechanik von Dritten missbrauchen oder manipulieren lasse. Um dennoch eine Art Algorithmen-Ethik zu verwirklichen, müssten bei Algorithmen in einem „Beipackzettel“ Einsatzgebiet, Modellannahmen und „gesellschaftliche Nebenwirkungen“ genannt werden. So lasse sich mehr Transparenz erzielen.

medienpolitik.net: Frau Zweig Sie forschen über „statistisch signifikante Muster in komplexen Netzwerken“, also über Algorithmen, warum haben Sie sich freiwillig dem „Reich des Bösen“ verpflichtet?

Prof. Dr. Katharina Anna Zweig: Natürlich bin ich eine von den Guten – das versteht sich ja von selbst! Aber davon abgesehen sind ja nicht die Algorithmen, also Problemlösevorschriften, an sich bösartig. Es gibt für mich fünf verschiedene Fehlerkategorien: erstens, der Algorithmus kann einfach fehlerhaft sein – das ist die Kategorie, die meistens schnell entdeckt wird. Dann können zweitens Algorithmen auf ein Alltagsproblem angewendet werden, für das sie die falsche Antwort liefern. Drittens brauchen „lernende Algorithmen“ aus dem Bereich der künstlichen Intelligenz Daten, von denen sie lernen. Diese sind manchmal mehr und manchmal weniger gut geeignet. Viertes kann ein eigentlich vernünftiger Algorithmus zusammen mit menschlichem Handeln merkwürdige Phänomene erzeugen: die Suchvervollständigung führt insbesondere bei Klatsch- und Tratschthemen durch unsere innewohnende Neugierde dazu, dass auch mögliche Verleumdungen (Fall Wulff) lange im System verbleiben. Nicht zuletzt gibt es Problemstellungen, bei denen Algorithmen meiner Meinung nach grundsätzlich nicht eingesetzt werden sollten, z.B. bei der Bestimmung des Strafmaßes bei Gericht oder bei der Frage nach automatischem Abschuss durch Drohnen. Das wäre für mich eine Grenze, zu der Algorithmen nicht vorstoßen sollten.

medienpolitik.net: Wie sehr bestimmen Algorithmen bereits heute unseren Alltag?

Prof. Dr. Katharina Anna Zweig: Das kommt sehr darauf an, wie Sie leben. Für die bis ca. 50jährigen sind sie tägliche Begleiter, vom modernen Auto mit seinen vielen Algorithmen über die der vielen Apps im Smartphone zu denen, die uns auf Ebay oder Google oder vielleicht schon in unserer Firma bewerten, kategorisieren und unser Verhalten vorhersagen.

medienpolitik.net: Bei Algorithmen denkt man zuerst an die Suchmaschine von Google oder die Empfehlungen von Amazon. In welchen anderen Bereichen sind Algorithmen aktiv?

Prof. Dr. Katharina Anna Zweig: Mit Algorithmen wird z.B. auch die tägliche Logistik, die unser „just-in-time“-Leben benötigt, berechnet, Ärzte suchen damit nach Zusammenhängen zwischen möglichen Heilverfahren und Heilerfolgen in großen Datenmengen, Algorithmen berechnen auch den kürzesten Heimweg, welche Werbung wir im Internet sehen, und können uns bald helfen, als älterer Mensch länger zu Hause zu bleiben, weil das Haus selbst intelligent wird. Algorithmen sind immer dann nützlich, wenn sich viele Probleme auf dieselbe Art und Weise lösen lassen und diese Probleme sehr oft auftreten.

medienpolitik.net: Wo können Algorithmen künftig bei der Lösung von Alltagsproblemen helfen?

Prof. Dr. Katharina Anna Zweig: Wir werden sehen, dass unsere Umgebung deutlich „smarter“ werden wird, indem Sensorik unser Handeln aufzeichnet und Algorithmen versuchen werden, diese Daten zu interpretieren und uns dann Unterstützung im Alltag bieten werden. Ich habe heute mit meinem Mann zum Beispiel mehrere Möbel aufgebaut und Kollegen von mir arbeiten daran, dass man die nächsten Arbeitsschritte mit Hilfe einer Datenbrille direkt im Sichtfeld angezeigt bekommt. Genauso könnten die Brillen uns auch helfen, das nächste Teil unter den 100 von Einzelteilen, die im Zimmer verstreut sind, zu finden. Solche direkten Unterstützungen von Arbeitstätigkeiten durch den Computer werden wir in den nächsten Jahrzehnten viel sehen und es wird insgesamt dazu führen, dass weniger gut ausgebildete Personen den jeweiligen Job machen werden können.

medienpolitik.net: Auf Ihrer Online-Seite steht, dass ihr besonderes Forschungsinteresse der Entwicklung einer prinzipiengeleiteten Netzwerkanalyse gilt. „Prinzipiengeleitet“ hört sich nach menschlichen Grundsätzen an. Wie meinen Sie das?

Prof. Dr. Katharina Anna Zweig: Momentan ist es leider so, dass viele Forscher – insbesondere, wenn sie selber keine Informatiker sind – algorithmische Datenanalysen betreiben, indem sie vorgefertigte Algorithmen auf ihre Daten anwenden. Das führt oft zu Fehlinterpretationen: der Algorithmus „funktioniert“ zwar scheinbar und spuckt Ergebnisse aus, diese sind aber nicht in der Art und Weise interpretierbar, wie es die Methode suggeriert. Z.B. gibt es verschiedene Methode, den „zentralsten“ Ort in einem Straßennetzwerk zu finden. Das heißt aber nicht, dass man dieselben Methoden auch einfach auf ein Flugtransportnetzwerk anwenden darf. Für diese Auswahl von Methoden bezüglich einer Problemstellung versuche ich Prinzipien zu entwerfen, die auch für Nichtinformatiker und Nichtinformatikerinnen verständlich sind.

medienpolitik.net: In welchem Maß sind Algorithmen lernfähig?

Prof. Dr. Katharina Anna Zweig: Die Algorithmen aus der künstlichen Intelligenz sind lernfähig, indem sie in Daten nach Mustern suchen und die gefundenen Muster mit neuen Daten abgleichen. Zum Beispiel gibt es hier die sogenannten Entscheidungsbäume: diese verarbeiten Daten, die aus ganz vielen Eigenschaften bestehen (Geschlecht, Alter, Beruf, Lohnhöhe, hat schon mal einen Kredit gehabt, etc.) und einem beobachteten Verhalten, das jemanden interessiert (z.B., ob die Person den Kredit auch zurückgezahlt hat). Mit vielen dieser Daten kann versucht werden, diese mit möglichst wenigen Entscheidungsfragen  zu kategorisieren, z.B.: Wenn eine Person mindestens 30 Jahre alt ist und ihr Lohn mind. 4000/Monat beträgt, wurde der letzte Kredit fast immer (>90%) zurückgezahlt, aber wenn unter 20 Jahren und weniger als 1000 Euro/Monat, dann eher selten (20%). Mit einem solchen Baum kann dann die nächste Kreditanfrage „durchgespielt“ werden und der Baum gibt seine „Meinung“ über den Fall ab, basierend auf den Daten, aus denen er konstruiert wurde. Im echten Leben baut man aus einem Datensatz nicht nur einen Baum, sondern mehrere, z.B. 400. Eine neue Kreditanfrage wird dann durch alle 400 Bäume gejagt und – sagen wir mal – dann akzeptiert, wenn mindestens 90% der Bäume der „Meinung“ sind, dass dieser Fall zu denen gehört, die tendenziell den Kredit zurückzahlen werden. Der Algorithmus selbst, der die Bäume baut, ändert sich selbst nicht durch das „Lernen“, aber die Struktur, die er aufbaut, hat von den Daten „gelernt“.

medienpolitik.net: Welcher Zusammenhang besteht zwischen Algorithmen und künstlicher Intelligenz?

Prof. Dr. Katharina Anna Zweig: Die künstliche Intelligenz ist nur ein Feld im Bereich der Algorithmen – ansonsten gibt es z.B. noch die Schedulingprobleme, graphentheoretische Algorithmen, Software-Verifikationsalgorithmen, Datenbankalgorithmen, und viele, viele weitere, die alle nicht lernen. Also, die künstliche Intelligenz ist nur ein kleines, aber immer bedeutsamer werdendes Teilgebiet der Algorithmenentwicklung.

medienpolitik.net: Können Algorithmen, durch das Prinzip des Sortierens und Auswählens die Meinungsvielfalt verringern oder Meinungen steuern und damit auch manipulieren?

Prof. Dr. Katharina Anna Zweig: Ja, natürlich können sie das. Jede Zeitung, jedes Fernsehprogramm verändert unsere Meinung, permanent und ständig. Bei klassischen Medien in Deutschland haben wir aber das Gefühl, dass die Auswahl und die Art der Berichterstattung nicht primär dazu gemacht ist, uns zu manipulieren – auch wenn sie unsere Art zu denken (hoffentlich!) verändert. Ähnlich ist es auch mit den Algorithmen: durch die Auswahl von Nachrichten oder Informationen z.B. über Wahlkandidaten ändern sie unsere Meinungen. Die Frage nach der Möglichkeit von Manipulation muss mit einem klaren Ja beantwortet werden, aber es ist auch notwendig hier Ruhe zu bewahren: Erstens gibt es dafür momentan z.B. bei den großen Suchmaschinen keine Anhaltspunkte, zweitens ist natürlich die Frage, wie stark diese Manipulation werden kann, ohne dass es jemandem auffällt – dazu gibt es momentan beunruhigende, aber noch nicht ausreichende Studien, und drittens ist die Fragen in welchem Medienmix der heutige Medienkonsument sich genau bewegt und wie stark dieser von Algorithmen geprägt ist. Mein Wunsch ist es, dass diese Fragen sehr viel besser untersucht werden und durch Diskussionen mit Bürgerinnen und Bürgern und Politikeren ein Konsens gefunden wird zu dem, was wir in Zukunft durch Algorithmen bewertet haben wollen – und welche Bereiche vielleicht auch nicht.

medienpolitik.net: Wo sehen Sie insgesamt das Risiko der Anwendung von Algorithmen?

Prof. Dr. Katharina Anna Zweig:In den oben genannten fünf möglichen Fehlerquellen wird deutlich, dass Algorithmen gesellschaftliche Nebenwirkungen haben können, die gar nicht intendiert waren. Viele der lernenden Algorithmen sind zudem inzwischen so komplex, dass nicht einmal mehr deren Erbauer ganz genau wissen, wie sie sich verhalten werden. (Dazu Referenz auf einen Blog von Facebook vom 1.2.2016: „As this change takes effect, we’ll be learning about what possible factors or posting strategies may lead to increases or declines in referral traffic, and we are committed to communicating with our partners about those findings.“ (1)

Auch sind diese lernenden Algorithmen nicht immer in der Lage, von einem Menschen wieder in ihrem Antwortverhalten verstanden zu werden: manche entscheiden zwar sehr zuverlässig, aber wir könnten jemandem, dessen Kreditantrag abgelehnt wird, nicht wirklich sagen, warum das so ist und was er oder sie verbessern müsste. Das halte ich für ungünstig bei wichtigen Lebensentscheidungen.
Insgesamt liegt momentan also das Risiko in der starken Intransparenz der verwendeten Algorithmen, die auf der anderen Seite sehr mächtig sind, weil sie uns eben kategorisieren und darauf basierend unser Verhalten vorhersagen.

medienpolitik.net: Seit wenigen Jahren wird darüber diskutiert, Algorithmen zu regulieren, also festzulegen was sie dürfen und was nicht, also zu normatieren. Sind solche allgemeinen Normen sinnvoll und möglich?

Prof. Dr. Katharina Anna Zweig: Ich glaube, dass wir hier schnell einen Konsens darüber brauchen, wo wir Algorithmen überhaupt einsetzen wollen. Es gibt Situationen, wo sie objektiver als ein Mensch sind und solche, wo sie nur scheinbar objektiver sind und am Ende Menschen nicht so behandeln, wie wir Menschen behandelt sehen wollen: diskriminierungsfrei und anhand nachvollziehbarer Kriterien. Die Entwicklung solcher Normen ist definitiv sinnvoll und Durchsetzung solcher Normen ist – bei vielen Algorithmen, aber nicht bei allen, s.o. – durch Inspektion in Zusammenarbeit mit der entwickelnden Firma meiner Meinung nach möglich. Dabei sollte aber „Norm“ nicht immer gleich im rechtlichen Sinne verstanden werden und wir müssen uns als Gesellschaft auch sehr genau überlegen, welche Regulierungsforderung wir an welche Unternehmen stellen wollen. Gerade kleinere Firmen und Start-Ups brauchen irgendwo auch den Raum, Dinge zu versuchen und voranzutreiben. Gerade diese haben aber auch meistens nicht die Marktmacht, um wirklich die Demokratie und ihre Grundrechte zu erschüttern. Es geht mir also darum, dass wir erst einmal gemeinsam als Gesellschaft eine Reihe von Prinzipien ethischen Handelns bei der Anwendung von Algorithmen entwickeln und diese dann mit Augenmaß rechtlich umsetzen. Das wird nicht einfach, sollte aber dringend jetzt erfolgen, bevor wir den ersten großen Fall von ethischem Fehlverhalten mittels Algorithmen erleben.

medienpolitik.net: Wie wird durch Algorithmen die Gesellschaft beeinflusst?

Prof. Dr. Katharina Anna Zweig: In China soll das Spiel „Sesame Credit“ bald für alle Bürger verpflichtend werden. Es berechnet einen „Citizen Score“: wie brav hat man eingekauft, was auf Twitter gepostet, und wie brav sind die eigenen Freunde auf den sozialen Netzwerken? Der Score steigt, wenn man lokale Produkte kauft und sinkt, wenn man regimekritische Beiträge postet. Aber nicht nur der eigene sinkt, sondern auch der von Freunden. Und mit hohem Score kommen Privilegien! Hier sieht man sofort, wie Algorithmen – die übrigens gar nicht besonders kompliziert sein müssen- eine Gesellschaft nachhaltig verändern können.

medienpolitik.net: Sie haben einen Studiengang „Sozioinformatik“ aufgebaut, „in dem es um die Frage geht, wie IT-Systeme und die Gesellschaft miteinander interagieren und sich gegenseitig in ihrer Entwicklung beeinflussen.“ Wie interagieren heute bereits IT-Systeme und Gesellschaft miteinander?

Prof. Dr. Katharina Anna Zweig: Nun, vermittelt über das Internet und digitale Produkte findet ein Großteil unserer Kommunikation statt. Neue Kommunikationskanäle verändern die menschliche Zusammenarbeit, den Zugang zu Wissen und Bildung, und erlauben es beispielsweise, Produkte auf nie dagewesene Art und Weise günstig zu personalisieren, was wiederum unseren Konsum verändern wird. All das verändert auch die Gesellschaft, indem es manche Hierarchien flacher macht und bei anderen Zugangshürden aufbaut, die es vorher nicht gab.

Der Beitrag wurde in der promedia-Ausgabe Nr. 4/2016 erstveröffentlicht.

1 http://newsroom.fb.com/news/2016/02/news-feed-fyi-using-qualitative-feedback-to-show-relevant-stories

Print article

Kommentieren

Bitte Pflichtfelder ausfüllen