Netzpolitik:

„Wir sind nicht hilflos“

von am 25.08.2017 in Allgemein, Archiv, Digitale Medien, Internet, Interviews, Medienregulierung, Netzpolitik, Netzpolitik, Plattformen und Aggregatoren, Regulierung

<h4>Netzpolitik:</h4>„Wir sind nicht hilflos“
Prof. Dr. Katharina Anna Zweig, Fachbereich Informatik der Technischen Universität Kaiserslautern

Kontrolle von Algorithmen nur bei großer gesellschaftlicher Relevanz

25.08.17 Interview mit Prof Dr. Katharina Anna Zweig, Professorin für Informatik an der TU Kaiserslautern

Algorithmen spielen eine immer größere Rolle im gesellschaftlichen Zusammenleben – doch die Gesellschaft bekommt oft nur wenig davon mit. Die Initiative Algorithm Watch, die vor einem Jahr gegründet wurde, möchte verstehen, wie wichtige Algorithmen funktionieren und was sie regeln sollen. Katharina Zweig, Informatik-Professorin an der Technischen Universität Kaiserslautern, gehört zu den vier Mitgründern der Initiative. Algorithm Watch plädiert nicht für eine Offenlegung aller Algorithmen. In dem Manifest der Initiative heißt es: „Algorithmische Entscheidungsprozesse (Algorithmic Decision Making, ADM) sind niemals neutral. Die Schöpfer von ADM-Prozessen sind verantwortlich für ihre Resultate. ADM-Prozesse werden nicht nur von ihren Entwicklern erschaffen. ADM-Prozesse müssen nachvollziehbar sein, damit sie demokratischer Kontrolle unterworfen werden können.“

medienpolitik.net: Frau Zweig, vor einem Jahr wurde Algorithm Watch gegründet. Was wollen Sie genau „überwachen“?

Prof Dr. Katharina Anna Zweig: Algorithm Watch möchte die Chancen und Risiken von automatischer Entscheidungsfindung bekannt machen, insbesondere solcher, die auf maschinellem Lernen und künstlicher Intelligenz beruhen und Menschen kategorisieren. In den USA werden beispielsweise Kriminelle hinsichtlich ihres Rückfälligkeitsrisikos von Modellen der künstlichen Intelligenz bewertet, in Polen werden Arbeitslose durch sie in eine von vier Kategorien einsortiert – was dann eine unterschiedliche Behandlung begründet. Diese Modelle müssen von außerordentlich hoher Qualität sein, da sie die gesellschaftliche Teilhabe von Personen stark einschränken können. Darauf wollen wir hinweisen.

medienpolitik.net: Müsste die Überwachung nicht längst durch eine staatliche Stelle erfolgen?

Prof Dr. Katharina Anna Zweig: Wir sind in Deutschland noch in der komfortablen Lage, dass solche Systeme, die Menschen kategorisieren, recht selten sind – gleichzeitig können wir uns im Ausland schon ansehen, was funktioniert und was nicht funktioniert. Darauf basierend können wir eruieren, was wir als Gesellschaft haben wollen und was nicht. Insofern kommt die Diskussion noch zeitig.

medienpolitik.net: Was haben Sie in dem ersten Jahr bewirken können?

Prof Dr. Katharina Anna Zweig: Wir haben im ersten Jahr gemeinsam auf ca. 75 Veranstaltungen gesprochen und mindestens ebenso viele Interviews gegeben. Wir werden regelmäßig von den verschiedenen Ministerien angefragt, beraten daneben auch Stiftungen, verschiedene Organisationen der Kirchen und die Landesmedienanstalten. Neben dem „Sagen“ ist aber natürlich vor allen Dingen das „Tun“ wichtig. Wir haben mehrere Arbeitsberichte veröffentlicht, darunter auch die Analyse der Anwendung von Algorithmen der sozialen Netzwerkanalyse auf Gangs in Großbritannien. Momentan läuft mit der „Datenspende Bundestagswahl 2017“ (datenspende.algorithmwatch.org) die weltweit erste Datensammlung, bei der Bürger und Nutzer eines sozialen Dienstes der Öffentlichkeit die Ergebnisse dieses Dienstes spenden. Wir haben dafür ein Plugin entwickelt, das bei den Nutzern alle 4 Stunden nach 16 Begriffen auf Google sucht, die relevant sind für die Bundestagswahl 2017. Dies sind die Namen von neun Spitzenpolitikerinnen und -politikern und die von sieben Parteien. Die Daten werden sofort der Öffentlichkeit gespendet und können von allen analysiert werden. Wir wollen damit messbar machen, wie personalisiert Suchergebnisse heutzutage sind. Es ist damit auch weltweit das erste Projekt, das zeigt, dass wir als Gesellschaft gegenüber den sozialen Diensten im Netz nicht hilflos sind, sondern deren Verhalten auch ohne direkte Einsicht in den Code überwachen können. Aber natürlich ist es noch eine äußerst primitive Variante davon, wie man das dauerhaft aufbauen müsste.

medienpolitik.net: Werden Rolle und Bedeutung von Algorithmen für die gesellschaftliche Kommunikation gegenwärtig eher über- oder unterbewertet?

Prof Dr. Katharina Anna Zweig: Ein herzliches „Sowohl als auch“. Ich persönlich teile nicht ganz die Auffassung, dass wir kurz davorstehen, eine wirklich allgemeine Maschinenintelligenz zu schaffen. Auf der anderen Seite ist es für den normalen Bürger unvorstellbar, was Computer schon heute in der Lage sind zu leisten – und oftmals wissen wir als Bürger gar nicht, wofür sie schon alles genutzt werden – vielleicht auch, ohne dafür geeignet zu sein.

medienpolitik.net: Wo sehen Sie gegenwärtig die Hauptprobleme beim Einsatz von Algorithmen?

Prof Dr. Katharina Anna Zweig: Die automatischen Entscheidungssysteme, die wir uns angesehen haben und die Menschen kategorisieren, sind aus meiner Sicht nicht gut genug. Wir haben uns in unserer Forschung insbesondere Rückfälligkeitsvorhersagealgorithmen angesehen, die in den USA verwendet werden. Diese irren sich sehr oft in ihrer Vorhersage, ob jemand ein hohes Risiko hat, rückfällig zu werden. Für allgemeine Straftaten liegt die Irrtumswahrscheinlichkeit bei 50 Prozent, bei schweren Straftaten sogar bei 80%. Das ist die Irrtumswahrscheinlichkeit, wohlgemerkt. Ich halte ein System mit so hohen Irrtumsquoten für nicht einsetzbar – aber sie werden eingesetzt.

medienpolitik.net: Also sollte der Einsatz von Algorithmen kontrolliert und reguliert werden?

Prof Dr. Katharina Anna Zweig: Natürlich müssen gewisse Dinge reguliert werden, aber sicherlich sollte – wie bei jedem anderen Feld mit Risiken und Chancen auch – nicht alles gesetzlich reguliert werden. Es könnte auch Selbstverpflichtungen und Selbstkontrollen geben und eine Art Algorithmen-TÜV, so wie Mayer-Schönberger und Cukier es gefordert haben, und eben auch NGOs. Daneben brauchen wir ein klares Curriculum für den Beruf des Data Scientists und ein paar grundlegende, ethische Regeln. Zum Beispiel darüber, wie Gruppen zusammengesetzt sein sollten, die Systeme bauen, die soziologische, politische und psychologische Konsequenzen haben.
Zur „Transparenz von Algorithmen“ gibt es auch einiges zu sagen: wer darunter versteht, dass doch der Code eines Systems veröffentlicht werden müsse, geht an verschiedenen Punkten fehl. Erstens ist zum Verständnis der Systeme ihre Datengrundlage in den allermeisten Fällen mindestens genauso wichtig – der Code reicht also nicht. Zweitens kostet es viele Personenstunden, einen Code zu entziffern, der möglichst unverständlich geschrieben wurde – der Nutzen ist also nicht automatisch mit der Veröffentlichung gegeben. Drittens wird eine wirklich öffentliche Bekanntgabe von Code neben großen wirtschaftlichen Konsequenzen für die Firmen auch oft gesellschaftliche Nebenwirkungen haben: gerade im Bereich der sozialen Netzwerke und Suchmaschinen werden vor allen Dingen Kriminelle ein großes Interesse daran haben, diese Algorithmen für eine Verbreitung ihrer Phishing-Attacken und Fake News zu nutzen. Aus meiner Sicht müssen wir uns daher zuerst einigen, welche Art von Systemen gesellschaftlich so relevant sind, dass wir sie kontrollieren wollen und dann, wie eng wir sie kontrollieren wollen. Das Zugänglichmachen von Code für eine beschränkte Menge von dafür ausgebildeten Gutachterinnen und Gutachtern kann dabei eine Maßnahme sein – bei Fällen, die ein hohes Potenzial haben, die gesellschaftliche Teilhabe von vielen Menschen stark einzuschränken. Wir sollten aber kreativer sein und die volle Bandbreite von Maßnahmen testen.

medienpolitik.net: Wie kann sich die Gesellschaft vor dem manipulativen Einsatz von Algorithmen schützen?

Prof Dr. Katharina Anna Zweig: Diese Frage lässt sich in ihrer Allgemeinheit so sicherlich nicht beantworten – und wie oben schon erwähnt, sind die Algorithmen, die bewusst manipulativ geschrieben sind, nicht unser einziges Problem, ja vielleicht noch nicht einmal unser größtes. Es sind auch diejenigen problematisch, die Gutes wollen, aber schlecht gebaut sind, oder die, die sich von außen manipulieren lassen, wie z.B. die Algorithmen von Suchmaschinen und sozialen Netzwerken. Der beste Schutz besteht darin, dass wir als Gesellschaft gut hinschauen: welche Ergebnisse erwarten wir von diesen Systemen, was heißt Diskriminierungsfreiheit und wie kann sie dauerhaft überwacht werden? Welche Daten wurden zugrunde gelegt und welche Theorien, welches Menschenbild implementiert? Wenn wir die Antworten auf diese Fragen wissen und zusätzlich bei den besonders relevanten Systemen noch eine vertrauenswürdige Instanz in den Code sehen kann – dann denke ich, dass wir auf einem guten Weg sind.

Der Beitrag wurde in der promedia-Ausgabe 08/17 erstveröffentlicht.

Print article

Kommentieren

Bitte Pflichtfelder ausfüllen