Netzpolitik:

„Algorithmen sind wie Berater“

von am 26.06.2017 in Allgemein, Archiv, Digitale Medien, Internet, Interviews, Medienregulierung, Netzpolitik, Regulierung, Technik

<h4>Netzpolitik:</h4> „Algorithmen sind wie Berater“
Prof. Dr. Sebastian Stiller, Technische Universität Braunschweig, Carolo-Wilhelmina Institut für Mathematische Optimierung

Die grundsätzlichen Kriterien, nach denen ein Algorithmus arbeitet, müssen veröffentlicht werden

26.06.17 Interview mit Prof. Dr. Sebastian Stiller, Technische Universität Braunschweig, Carolo-Wilhelmina Institut für Mathematische Optimierung

Der Mathematiker Prof. Dr. Sebastian Stiller hält die These von Algorithmen, die außer Kontrolle geraten, für „Science Fiction“. „Ein sogenannter lernender Algorithmus ist nichts weiter als ein statistisches Verfahren“, so Prof. Stiller in einem medienpolitik.net-Gespräch. „Wir verschätzen uns schnell, was die Leistungsfähigkeit von Algorithmen angeht. Die Berichterstattung über Algorithmen, vor allem die hemmungslose Anthropomorphisierung ist irreführend. Vieles, was uns gezeigt wird, sind PR Stunts. Konkret ist es eine heillose Überschätzung zu glauben, es könne eine rein algorithmische Lösung für die Prüfung der Wahrheit einer jeden Nachricht geben. Es sei vollkommen abwegig zu glauben, rein algorithmische Lösungen könnten journalistische, redaktionelle oder herausgeberische Arbeit ersetzen.“ Zugleich fordert der Experte für Algorithmen, dass die grundsätzlichen Kriterien, nach denen ein Algorithmus arbeite, „auf den Tisch müssen“. Das sei nicht nur machbar, sondern auch notwendig, denn einen Algorithmus zu verwenden, dessen Kriterien man nicht kenne, sei fahrlässig.

medienpolitik.net: Herr Stiller, Sie haben jüngst bei den 5. Jenaer Medienrechtlichen Gesprächen von FSU und TLM gesagt, dass Algorithmen aus unserem Alltag nicht mehr weggedacht werden können. Wo bestimmen Algorithmen heute unseren Alltag?

Prof. Dr. Sebastian Stiller: Schriftliche Addition, wie man sie in der Grundschule lernt, ist auch ein Algorithmus und ein ziemlich guter. Es ist ganz natürlich für uns Menschen Algorithmen zu nutzen. Algorithmisches Denken, also zu überlegen, wie man sich etwas überlegt, ist schon immer wesentlich für unsere Zivilisation gewesen. Die Straßenverkehrsordnung oder das Wahlrecht sind algorithmisch gedacht.
Gegenwärtig reden wir viel über Digitalisierung. Digitalisierung ist die enorme Zunahme an Verfügbarkeit und Verarbeitbarkeit von Daten. Beides beruht unabdingbar auf Algorithmen.
Bei der schriftlichen Addition können wir uns darauf verlassen, dass das richtige rauskommt. Solche Algorithmen mit exakten Kriterien gibt es viele und wir könnten sie noch viel mehr einsetzen – für ein dezentrales Stromnetz, für effizientere Logistik, also weniger Verkehr oder um zuverlässige, zunehmend automatisierte Fahrzeuge zu bauen. Überall wo ein System nicht nur irgendwie, sondern besonders gut, zum Beispiel Ressourcen-effizient funktionieren soll, können solche Algorithmen helfen.
Wenn in der Öffentlichen Diskussion über Algorithmen gesprochen wird meint man meist Verfahren mit Pi-mal-Daumen Kriterien. Suchmaschinen gehören dazu. Meistens sind es statistische Verfahren. Auch das hat seine Berechtigung. Versuchen Sie mal ohne Suchmaschine ins Netz zu gehen. Aber man muss ganz anders mit ihnen umgehen.

medienpolitik.net: Welche Vorteile bringen Algorithmen?

Prof. Dr. Sebastian Stiller: Ein Algorithmus entsteht, wenn man sich überlegt, wie man sich etwas überlegt. Die Vielfalt an Vorteilen ist so groß wie die Vielfalt an Denkweisen, die so algorithmisch gefasst werden. Über „die Algorithmen“ zu sprechen, ist meistens zu allgemein. Ich glaube, wir hätten eine zielführendere Debatte, wenn wir öfter zwischen den verschiedenen Arten von Algorithmen unterscheiden würden. Ein Algorithmus, der eine Tabelle nach der dritten Spalte sortiert, ist etwas völlig anderes als ein Algorithmus, der mir abends einen Film vorschlägt.
Dennoch gibt es einen gemeinsamen Kern. Wenn man sich überlegt hat, wie man sich etwas überlegt, kann man seine eigene Denkweise auslagern, zum Beispiel an eine Maschine. Die Maschine kann dann diese Art zu denken unvergleichlich viel öfter durchführen kann als man selbst. Das ist der Kern.
Deshalb haben Algorithmen immer etwas mit Macht und mit großen Mengen zu tun. Wenn ich mir gründlich überlege, wie man sich eine Sache am besten überlegen sollte, dann überlege ich damit für alle anderen Menschen mit. Schauen Sie sich die Firmen an, die mit Algorithmen groß geworden sind. Das Geschäftsmodell ist immer etwas zu finden, das skaliert: einmal gründlich nachdenken und es dann mit sehr geringen Grenzkosten beliebig oft anwenden.

medienpolitik.net: Wie groß ist die Gefahr für die Meinungsbildung und gesellschaftliche Ordnung wirklich?

Prof. Dr. Sebastian Stiller: Im Moment stehen Phänomene im Vordergrund, die mit einer vagen statistischen Typisierung von Nutzern zu tun haben. Das sind oft ganz einfache statistische Verfahren. Statistische Verfahren können im Einzelfall immer falsch liegen. Aber selbst bei einer sehr unsauberen Typisierung erhöht man deutlich die Chancen mit einer auf die Typen zugeschnittenen Werbung – kommerziell oder politisch – mehr zu erreichen als mit dem Gießkannenprinzip.
Das gleiche Grundprinzip zeigt sich in der sogenannten Blasenbildung. Die Pi-mal-Daumen-Kriterien reichen aus, damit sich Gleichgesinnte oder beinahe gleichgesinnte finden und ihre Gedanken austauschen und verstärken. Das unterstützt sicherlich ein Auseinanderdriften des Meinungsbildes in der Gesellschaft.
Um diesen Effekten entgegenzuwirken, glaube ich, ist es wichtig, dass wir mehrheitlich den Wert einer gemeinsamen, öffentlichen, pluralistischen Diskussion erkennen. In wie weit dies gelingen wird, kann ich nicht beurteilen. Aber ich bin optimistisch.

medienpolitik.net: Können Algorithmen heute schon über Macht oder Ohnmacht der Politik entscheiden?

Prof. Dr. Sebastian Stiller: Es gibt mindestens drei Ebenen in denen Algorithmen politische Macht entfalten. Zum einen gibt es Algorithmen als Werkzeuge der Macht, als Waffen. Dazu gehören Verschlüsselungsalgorithmen, die erwähnte gezielte Werbung oder auch Gesichtserkennungsoftware. Gebrauch und Missbrauch von Gesichtserkennung – so schlecht sie funktioniert – wird uns noch vor große Probleme stellen.
Eine zweite Ebene ist die direkte Manipulation. Ein Unternehmen bietet einen Algorithmus für ein bestimmtes Kriterium an, verändert aber heimlich das Kriterium in seinem Interesse. Das ist schlicht Betrug und muss in relevanten Fällen juristisch bekämpft werden – egal wie schwierig der Nachweis ist.
Weiter wichtiger, weil uns zu wenig bewusst, ist meines Erachtens die dritte Ebene. Algorithmen sind wie Berater. Bei einem Berater will ich wissen, wie er zu seinem Ergebnis kommt und wo und in wie weit ich mich auf sein Urteil verlassen kann. Wenn ich ihm jederzeit blind vertraue, verletze ich meine eigene Verantwortung. Bei Algorithmen ist das nicht anders. Die Kriterien, nach denen sie uns beraten, sind ganz unterschiedlich. Manche sind exakt und absolut verlässlich. Andere sind Schätzungen, die mit einer bestimmten Konfidenz verbunden sind und deren Güte stark vom Anwendungsfall abhängt.
Ich befürchte – und das ist keine Hypochondrie – dass viele Unternehmen, Behörden und Privatleute diesen Beratern blind vertrauen werden – ohne bösen Willen, einfach aus Achtlosigkeit und Inkompetenz.
Die Produkte großer Unternehmen wie Alphabet oder Facebook stehen ständig in der öffentlichen Diskussion. Das zeigt, dass dort Klärungsbedarf besteht. Viel mehr Sorge machen mir aber kleinere Unternehmen, deren Arbeit unter dem Radar der öffentlichen Diskussion stattfindet. Warum sollte es dort weniger Klärungsbedarf geben?

medienpolitik.net: Sie haben in einem Interview gesagt: „Es geht nicht um mehr oder weniger Algorithmen, sondern um die richtigen Algorithmen.“ Welches sind die „richtigen“ Algorithmen?

Prof. Dr. Sebastian Stiller: Was sind die richtigen Produkte? Was ist das richtige Essen? Es gibt da keine pauschale Antwort. Was wir brauchen ist eine kompetente Diskussion darüber welche Art von Algorithmus für welche Anwendung mit welchen Vorbehalten benutzt wird. Eine Beurteilung der Kreditwürdigkeit muss anderen Anforderungen unterworfen werden als Kriterien zur Partnervermittlung. Die Algorithmen, die so erfolgreich Go spielen können, versagen dabei die Reihenfolge zu planen, in der ein Roboter Schweißpunkte abarbeitet – und umgekehrt.
Unterschiedliche Anwendungen erfordern unterschiedliche Algorithmen. Und für unterschiedliche Arten von Algorithmen sollte man unterschiedliche Fragen zur Qualität des konkreten Algorithmus stellen. Um diese Fragen stellen zu können, brauchen wir ein Grundwissen. Dieses Wissen ist sicherlich unterschiedlich für Experten, Entscheidungsträger und Bürger. Aber ein gewisses Grundwissen sollte jeder haben. Das Gute ist: man kann sich dieses Wissen erlernen. So schwierig ist das gar nicht. Grundsätzlich gilt: wenn mir jemand einen Algorithmus andrehen will und mir nicht erklären kann, nach welchem Kriterium dieser arbeitet, dann würde ich die Finger davon lassen.

medienpolitik.net: Wie wichtig ist es dann, den Einsatz und die Transparenz von Algorithmen zu regulieren?

Prof. Dr. Sebastian Stiller: Es hängt immer von der Anwendung ab, welche Art der Transparenz oder Regulierung angemessen ist. In den meisten Fällen werden die Anbieter von der Transparenz profitieren. Langfristig sind informierte Kunden besser als übertölpelte Kunden. Voraussetzung ist aber, dass die Kunden die Information über die Algorithmen auch aufnehmen können. Was nützt mir die beste Lebensmittelkennzeichnung, wenn ich nichts darüber weiß, wie die Inhaltsstoffe auf meinen Körper wirken. Wüssten Sie für welche Anwendungen Machine Learning Algorithmen sinnvoll sind und nach welchen Kriterien sie zu beurteilen sind?
Dabei ist das gar nicht schwierig. Machine Learning Algorithmen sind statistische Verfahren. Also sollte man fragen mit welcher Wahrscheinlichkeit sie im Test erfolgreich waren, man sollte überlegen, ob die Testinstanzen den Anwendungsinstanzen entsprechen, und man sollte gewärtig sein, dass so ein Verfahren in Einzelfällen – gerade wenn der Algorithmus menschliches, willentliches Verhalten verstehen soll – vollkommen falsch liegen kann. Für eine Filmempfehlung also OK, für gezielte Werbung mit gewisser Trefferquote auch OK, für eine Kreditwürdigkeitsprüfung inakzeptabel – und zum Glück auch verboten.

medienpolitik.net: Was kann überhaupt geregelt werden, was kann transparent sein, ohne dass in Geschäftsmodelle oder Betriebsgeheimnisse eingegriffen wird, wie es Politiker immer wieder befürchten?

Prof. Dr. Sebastian Stiller: Es gibt zwei Gründe Details der Implementierung von Algorithmen geheim zu halten. Der eine ist der Schutz der eigenen Entwicklung. Zum anderen kann man Systeme, die man bis ins Detail kennt leichter missbrauchen oder aushebeln. Wenn eine Suchmachine genau sagen würde, wie sie erkennt, wenn Links nur gesetzt worden sind um eine Webseite „hochzugooglen“, dann ließe sich dieser Schutz sehr wahrscheinlich umgehen und morgen wäre die Suchmaschine blind und mit ihr wir alle, wenn wir surfen. Es ist daher abzuwägen, wieviel preisgegeben werden soll.
So eine Abwägung ist sehr gut möglich und funktioniert in anderen Industrien wunderbar. Ich muss nicht die Konstruktionsgeheimnisse eines Motors kennen. Aber jeder Kunde weiß, ob er einen Diesel oder einen Hybrid kauft. Experten können sogar noch viel mehr darüber wissen, ohne dass die Wettbewerbsfähigkeit tangiert wäre. Die grundsätzlichen Kriterien, nach denen ein Algorithmus arbeitet, müssen auf den Tisch. Das ist nicht nur machbar, das ist notwendig, denn einen Algorithmus zu verwenden, dessen Kriterien ich nicht kenne, ist fahrlässig.
De facto haben wir ein ganz anderes Problem. Für Experten ist es meistens sonnenklar, welche Art von Algorithmus verwendet wird. Wäre das auch dem Anwender klar, wäre oft schon viel gewonnen. Das Problem ist: welcher Anwender kennt den Unterschied zwischen einer Support Vector Machine und einem ganzzahligen Programm? Der mündige Verbraucher braucht ein gewisses Grundwissen. Im Moment fehlt dies wohl nicht nur beim Endverbraucher, sondern schon beim Gros der einschlägigen Entscheidungsträger.

medienpolitik.net: Sie haben – so habe ich gelesen – einen Algorithmen TÜV gefordert. Wie soll der funktionieren?

Prof. Dr. Sebastian Stiller: Ich habe nie einen Algorithmen TÜV gefordert. Das Wort Algorithmen TÜV gehört zu den wenig hilfreichen Begriffen in dieser Debatte. Eine Sache muss nicht technisch überwacht werden, weil es ein Algorithmus ist, sondern dann, wenn es in einer sicherheitsrelevanten Anwendung benutzt werden soll. Es muss verschiedene Arten der Qualitätssicherung geben. Welche Art angemessen ist – staatliche Zertifizierung, Kennzeichnungspflicht, Marktdruck, Verbraucherorganisationen, oder auch gar keine – hängt von der Anwendung ab. Und in sicherheitsrelevanten Anwendungen gibt es bereits Zertifizierung auch für algorithmische Bestandteile.
Die Art der Qualitätssicherung muss sich nach der Anwendung richten. Aber die Inhalte der Qualitätssicherung müssen sich nach den Arten der Algorithmen und deren Kriterien richten. Bei einem statistischen Kriterium muss man andere Fragen stellen als bei einem exakten Kriterium.
Es gibt Typen von Algorithmen für die es ein Zertifikat „unbedenklich“ nicht geben kann. So wie es Ratschläge gibt, die man nicht ohne sich selbst zu bedenken verwenden sollte. Jeder hat das Recht ein nicht hundertprozentig verlässliches Kriterium zu verwenden, sofern er selbst die Verantwortung trägt. Aber um die Verantwortung glaubhaft zu tragen, muss er zumindest wissen, was er in die Hand nimmt. Wieder ist es entscheidend, dass ausreichend allgemeine Fachkompetenz existiert. Ein mündiger Umgang aufgeklärter Bürger ist durch staatliche Regulation nicht zu ersetzen. Da greift man immer entweder zu kurz oder erstickt den Fortschritt.

medienpolitik.net: Man hört viel von lernenden Algorithmen. Wie groß ist die Gefahr, dass sie außer Kontrolle geraten?

Prof. Dr. Sebastian Stiller: Das ist Science Fiction. Ein sogenannter lernender Algorithmus ist nichts weiter als ein statistisches Verfahren. Wenn wir Worte wie „maschinelles Lernen“ oder „künstliche Intelligenz“ hören, assoziieren wir ein menschenähnliches Denken, Bewusstsein, vielleicht sogar einen Willen. Und dann glauben wir an einem Tag, dass sie uns Menschen perfekt ersetzen, und am anderen Tag, dass sie durchdrehen. Von alle dem kann aber nach wissenschaftlichen Maßstäben keine Rede sein. In diesem Sinne gibt es keine künstliche Intelligenz. Was passieren kann – und schon heute passiert – ist, dass man überschätzt was Algorithmen und Statistik leisten. Wenn man Werkzeuge benutzt, die man nicht versteht, wird es immer gefährlich.

medienpolitik.net: Gibt es Grenzen für die Wirkung von Algorithmen?

Prof. Dr. Sebastian Stiller: Selbstverständlich gibt es Grenzen für Algorithmen. Es gibt eine ganze Wissenschaft, die Komplexitätstheorie, die sich damit beschäftigt, was praktisch berechenbar ist. Grundsätzlich gilt das gleiche für die Grenzen wie für die Vorteile: Sie sind so vielfältig wie die Denkweisen, die algorithmisch gefasst werden.
Wir verschätzen uns schnell was die Leistungsfähigkeit von Algorithmen angeht. Die Berichterstattung über Algorithmen, vor allem die hemmungslose Anthropomorphisierung ist irreführend. Vieles was uns gezeigt wird sind PR Stunts. Konkret ist es eine heillose Überschätzung zu glauben, es könne eine rein algorithmische Lösung für die Prüfung der Wahrheit einer jeden Nachricht geben.
Es ist vollkommen abwegig zu glauben, rein algorithmische Lösungen könnten journalistische, redaktionelle oder herausgeberische Arbeit ersetzen. Das ist aktuell nicht möglich und es gibt substantielle Gründe, dass dies auch auf lange Sicht nicht der Fall sein kann. Es hat nichts mit Fortschritt zu tun, sondern wäre ein fataler Rückschritt, wenn man eine existierende, pluralistische Medienlandschaft für rein algorithmisch ausgewählte Newsfeeds aufgeben würde. Wenn ein einzelner das tut, verschließt er die Augen vor der bestmöglichen Diskussion um die Wahrheit.

Der Beitrag ist eine Vorveröffentlichung aus der promedia-Ausgabe 07/17.

Print article

Kommentieren

Bitte Pflichtfelder ausfüllen