Netzpolitik:

„Auf sozialen Medien gibt es keinen Schutz“

von am 09.05.2018 in Allgemein, Archiv, Datenschutz, Digitale Medien, Internet, Interviews, Kommunikationswissenschaft, Medienregulierung, Medienwissenschaft, Netzpolitik, Netzpolitik, Plattformen und Aggregatoren, Regulierung, Social Media

<h4>Netzpolitik: </h4>„Auf sozialen Medien gibt es keinen Schutz“
Prof. Dr. Katharina Anna Zweig, Fachbereich Informatik der Technischen Universität Kaiserslautern

Für Algorithmen sollten Verhaltensregeln festgelegt werden, die transparent sind

09.05.18 Interview mit Prof. Dr. Katharina Anna Zweig, Fachbereich Informatik der Technischen Universität Kaiserslautern

Wenn Mediennutzer – insbesondere in sozialen Medien – immer ähnliche Meinungen präsentiert bekommen, ist schnell von „Filterblase“ die Rede. Offenbar etwas zu schnell, so ein Resümee von Prof. Dr. Katharina Zweig aus dem Forschungsprojekt #Datenspende. Entgegen der Vermutung in der Filterblasentheorie von Eli Pariser ist die Personalisierung von Suchergebnissen auf Google weit geringer als erwartet. Zumindest mit Blick auf Google sei die Filterblase geplatzt, lautet die eine Lehre aus dem Projekt #Datenspende. Das heiße aber nicht, dass sie in anderen sozialen Netzwerken nicht existieren, betont Katharina Zweig in einem medienpolitik.net-Gespräch.Ich glaube, dass die Filterblasen-Theorie richtig ist, wenn eine starke Personalisierung der Algorithmen erfolgt. Wir wissen aus dem sozialen Kontext, dass Menschen etwas interessant finden, das mit ihrem jetzigen Weltbild übereinstimmt. Insofern halte ich die Logik, die hinter der Filterblasentheorie steckt, immer noch für korrekt.“

Eine zu starke Regulierung oder gar Offenlegung von Algorithmen seien keine Lösungen: „Es muss ein Verhaltensregelwerk geschaffen werden, das festlegt, wann eine gesellschaftliche Norm verletzt wird und diese Verletzung auch sanktioniert“, so die Informatikwissenschaftlerin.

medienpolitik.net: Frau Zweig, wie groß ist heute die Bedeutung von Algorithmen für die Meinungsbildung?

Prof. Dr. Katharina Anna Zweig: Bei den Faktoren für die Meinungsbildung kommt es auf den individuellen Medienmix an. Das Hans-Bredow-Institut hatte dazu im vergangenen Jahr eine Studie erarbeitet, die insgesamt für Deutschland eher Entwarnung gibt. Der Durchschnittsbürger hört drei Stunden Radio, sieht Fernsehen, liest eventuell noch eine Tageszeitung und nutzt aktiv Suchmaschinen, um sich mit Nachrichten zu versorgen und wird passiv versorgt von Aggregatoren wie News-Apps. Bei einem solchen Medienmix ist die Bedeutung der Algorithmen eher hilfreich, da der Nutzer noch in der Lage ist, aktiv Informationen zu finden. Wenn die Meinungsbildung aber so erfolgt wie in den USA oder wie man es bei einigen jüngeren Menschen beobachtet, die nur noch passiv für sie gefilterte Nachrichten erhalten, ist nicht ganz klar, wie stark sich dieser Effekt auswirkt. Denn wir können bisher nicht nachverfolgen, welches Individuum welche Nachrichten konkret erhält und nutzt.

medienpolitik.net: Wie groß ist die reale Gefahr, dass mit Hilfe von Algorithmen Meinungen manipuliert werden?

Prof. Dr. Katharina Anna Zweig: Alle Medien oder Informationskanäle, die in der Lage sind, die Menschen mit Nachrichten zu versorgen und ihre Aufmerksamkeit zu erheischen, sind in der Lage zu manipulieren. Propaganda funktioniert ja auch so, dass man die Aufmerksamkeit eines Menschen erhält und dann versucht Meinungen in nur eine Richtung zu lenken. Man kann prinzipiell davon ausgehen, dass Algorithmen Meinungen manipulieren können.

medienpolitik.net: Aber inwieweit ist diese Manipulation von den Absendern oder den Suchmaschinenbetreibern gewollt oder ist es ein notwendiges Übel, was man in einer Algorithmen-gesteuerten Welt hinnehmen muss?

Prof. Dr. Katharina Anna Zweig: Das sind zwei verschiedene Sachverhalte. Im Endeffekt werden wir von den Informationen selbst manipuliert, die ja meistens nicht von den Firmen erstellt werden, die Algorithmen entwickeln, sondern von Personen, die ein Interesse daran haben, Meinungen zu manipulieren. Das kann ein anderer Staat sein, das kann der eigene Staat sein, dass kann eine Partei sein, dass können sehr unterschiedliche Interessenten sein. Diese Absender verstehen sehr gut, wie Algorithmen funktionieren und nutzen dieses Know-how. Diese Manipulationsversuche kann man in den Griff bekommen.

Unternehmen, zum Beispiel Suchmaschinen, könnten natürlich auch selbst den Algorithmus so programmieren, dass Nachrichten mit bestimmtem politischem Hintergrund unterdrückt oder hervorgehoben werden. Die Wahrscheinlichkeit dafür muss man so ähnlich wie einen Kriminalfall betrachten, denn solche Firmen haben vor allem ökonomische Interessen. Wenn sich solch ein Unternehmen mithilfe ihrer Algorithmen für eine Partei einsetzen würde, zum Beispiel in den USA, wo ungefähr 50 Prozent der Wähler die beiden großen Parteien wählen, und dies bekannt würde, dann würden möglicherweise auch Wähler der Partei, für die man Werbung gemacht hat, verloren gehen, weil viele Menschen solche Manipulation für unrechtmäßig halten. Es ist sicher alles denkbar, aber ich habe bisher keine überzeugenden Indizien dafür gesehen, dass eine der großen Suchmaschinen oder Intermediäre unmittelbar bestimmte Kandidaten unterstützt und mit Hilfe von Algorithmen promotet haben.

medienpolitik.net: Gibt es die berüchtigte Filterblase bei Internet-Inhalten, oder gibt es sie nicht?

Prof. Dr. Katharina Anna Zweig: Dazu muss man kurz erläutern, worum es sich bei der algorithmisch erzeugten Filterblase handelt: Die Idee war, dass Algorithmen stark personalisieren können, unter Umständen die Informationsnutzung über einen bestimmten Zeitraum beobachten und dann nur noch solche Nachrichten hochspielen, die bereits die Meinung des Nutzers treffen, sodass seine Meinung verhärtet wird und es keinen Diskurs mehr gibt. Dass heißt, die Grundlage einer Filterblase ist eine starke Personalisierung durch den Algorithmus. Wir haben uns auf Google, aber nicht auf Facebook oder anderen sozialen Netzwerken, wo wir vermuten, dass er noch stärker ist, den Filterblaseneffekt angesehen. Wir haben auf Google danach gesucht, ob die Menschen bei politischen Begriffen sehr unterschiedliche Suchergebnisse erhalten. Dazu haben wir nach politisch bekannten Personen und Parteien suchen lassen und haben festgestellt, dass der Personalisierungsgrad unter unseren Nutzern relativ gering war, geringer als für eine algorithmisch erzeugte Filterblase notwendig ist. Damit haben wir durch unseren Nutzertest gezeigt, dass auf Google und Google-News keine ausreichende Personalisierung erfolgt, um die Grundlage für algorithmisch erzeugte Filterblasen zu bilden. Das heißt nicht, dass sie in anderen sozialen Netzwerken nicht existieren. Und es gibt auch eine kleine Schwäche unserer Studie. Die Nutzer konnten selbst entscheiden, ob sie an der Studie teilnehmen. Wir haben damit keine repräsentative Nutzerbasis. Das war mit diesem Projekt nicht geplant. Wir wollten erst einmal zeigen, dass man eine so wichtige Frage mit relativ geringen Mittel überwachen und dementsprechend auch handeln kann.

medienpolitik.net: Hat es Sie nicht auch erstaunt, dass bei Google die Personalisierung geringer ist als man annimmt?

Prof. Dr. Katharina Anna Zweig: Absolut, damit habe ich überhaupt nicht gerechnet. Ich habe mich ein wenig über mich selbst geärgert, da ich die These von Eli Pariser in seinem Buch „The Filter Bubble“ gelesen habe und mir die Ausführungen einleuchtend erschienen. Erst im Nachhinein habe ich bemerkt, dass in dem Buch keine Studie war. Auch in seinem berühmten TED Talk zeigt er zwei Suchergebnislisten die visuell sehr unterschiedlich sind. Der eine bekommt eher Bilder, der andere eher Nachrichten. Wenn man genauer hinsieht erkennt man, dass unter den ersten fünf Sucheinträgen drei gemeinsame Sucheinträge sind. Die Suchergebnisse waren auch hier gar nicht so unterschiedlich. Leider verfügen wir über kein Internetarchiv für solche Suchanfragen. Ich würde gern wissen, ob der Grad der Personalisierung damals wirklich höher war. Es hat mich erstaunt, dass wir eine so geringe Personalisierung gefunden haben. Kurz vor unserer Studie veröffentlichten befreundete Wissenschaftler, ähnliche Ergebnisse. Es ist jetzt reine Spekulation, ob die Personalisierung schon immer so gering war, oder ob Google die Personalisierung verringert hat. Das können wir im Nachhinein nicht mehr feststellen.

medienpolitik.net: Es hört sich doch so an, als ob man diese Theorie der Filterblasen relativ kritiklos übernommen hat, da man damit bestimmte Phänomene in sozialen Netzwerken relativ plausibel beantworten kann. War das vielleicht auch politisch bequem, von Filterblasen zu sprechen, da man dann nicht weiter forschen musste?

Prof. Dr. Katharina Anna Zweig: Ich glaube, dass die Rezeption nicht kritiklos war. Aber ich habe mich im Nachhinein gewundert, dass so lange darüber diskutiert wurde, anstatt es zu messen. Das #Datenspende-Projekt war nicht sehr aufwendig und hätte schon früher stattfinden können. Es sollte auch weiter fortgeführt werden, um eine dauerhafte Überwachung zu installieren. Ich glaube, dass die Filterblasen-Theorie richtig ist, wenn eine starke Personalisierung der Algorithmen erfolgt. Wir wissen aus dem sozialen Kontext, dass Menschen etwas interessant finden, das mit ihrem jetzigen Weltbild übereinstimmt. Insofern halte ich die Logik, die hinter der Filterblasentheorie steckt, immer noch für korrekt. Die Frage ist nur, stimmt die Basis? Ist die Personalisierung so groß, dass es zu diesem Effekt kommt, oder nicht.

medienpolitik.net: Das heißt, dass man genauer als bisher bei Algorithmen, die Auswirkung auf die Meinungsbildung haben, das Maß der Personalisierung kennen muss, um festzustellen, welche Konsequenzen das haben kann?

Prof. Dr. Katharina Anna Zweig: Ja. Bei allen Algorithmen, die potenziell Einfluss auf die Meinungsbildung haben, und das sind natürlich alle selektierenden Algorithmen, sollten auch genügend Nutzer existieren, ansonsten besteht die Gefahr einer Überregulierung. Aber wenn diese beiden Faktoren – also die Relevanz für die Meinungsbildung und die Reichweite – zusammentreffen, sollte man analysieren, wie stark sie personalisieren und worin der Inhalt besteht. Wenn sie nicht poltischer Natur sind, dann ist es sicher unkritischer. Wenn die Personalisierung stark ist, muss man überlegen wie man weiter reagiert. Die Gefahren die Eli Pariser beschreibt, dass Menschen eines politischen Spektrums nur noch Nachrichten aus ihrer eigenen Filterblase bekommen, halte ich für real. Es gab einen Artikel in der „Süddeutschen Zeitung“ von Simon Hurtz, der sich unter einem Feak-Account bei Facebook angemeldet und „AfD“ geliked hat. Er beschreibt sehr beeindruckend, was diese Nachrichten, die er daraufhin erhielt, auf ihn gewirkt haben. Durch das Übermaß an Nachrichten über kriminelle Ausländer, die zum Teil auch richtig waren, musste er sich zwingen, auf derselben Straßenseite zu bleiben, wenn ihm nachts augenscheinlich eine Gruppe von Ausländern entgegenkam. Dieses Feld der Beeinflussung durch soziale Medien ist noch viel zu wenig erforscht.

medienpolitik.net: Sie haben sich wiederholt dagegen ausgesprochen, dass man generell mehr Transparenz bei Algorithmen fordert. Wie kann man gegen das Entstehen von Filterblasen vorgehen?

Prof. Dr. Katharina Anna Zweig: Der Begriff „Transparenz“ ist völlig überfrachtet. Einige verstehen darunter das öffentliche Offenlegen des Codes. Das ist auf der einen Seite naiv und auf der anderen Seite schädlich. Ein Programmiercode besteht in der Regel aus Millionen verschlüsselter Zeilen von Codes. Da sind sicher auch bekannte Strukturen dabei, die man noch mit betrachten müsste. Man kann sich diesem Code mit mehr als zehntausend Personenstunden sicher nähern, aber die Personen, die wirklich einen Anreiz haben diese Codes zu „knacken“ um sie zu missbrauchen sind diejenigen, die Spams verteilen. Diese würden die Personenstunden sicher schneller zusammen bekommen, als diejenigen die die Algorithmen im Interesse der Gesellschaft überwachen. Als Bürger würden wir durch „transparente“ Algorithmen jede Menge Spams bei unseren Suchanfragen finden und die Suchmaschinen wären dann erst einmal eine Weile kaputt. Die Transparenz, die man natürlich benötigt und die es geben muss, findet man auf den Google-Web-Seiten. Es wird erklärt, wie man seine Web-Seite aufbauen sollte, damit sie für bestimmte Suchbegriffe gerankt wird. Ein guter Optimierer oder eine gute Optimiererin wissen natürlich, was zu tun ist. Es gibt eine Balance zwischen dem Transparenzanspruch der Gesellschaft und dem Intransparenz-anspruch der Gesellschaft.

medienpolitik.net: Ich gehe davon aus, dass besserer Datenschutz darauf hinausläuft, dass künftig soziale Netzwerke und Suchmaschinen weniger persönliche Daten haben werden als heute. Reduziert das automatisch die Gefahr von Algorithmus-gesteuerten Filterblasen, da die Personalisierung geringer wird?

Prof. Dr. Katharina Anna Zweig: Nein. Einem sozialen Medium kann man die sozialen Daten nicht „wegnehmen“. Durch die Art und Weise wie Menschen miteinander agieren und wie sie ihre Daten freiwillig preisgeben kann man weiterhin sehr viel ableiten. Es gibt noch immer Personen die angeben wie alt und wie gebildet sie sind, wie viel Geld sie haben, ob sie Single sind oder nicht. Aus ihrem Interaktionsverhältnis kann man viel über ihre Freunde erschließen. Man kann eine Textanalyse aus den Nachrichten, die sie verschicken, erstellen. Man kann sich ansehen, auf was für Texte sie klicken. All diese Informationen verraten uns etwas über die Nutzer. Der Werbetreibende will eigentlich nur wissen, ob die Person auf die von ihm verschickte Werbung klickt. Wenn ja, dann erhalten die Werbung künftig nur solche Leute die darauf klicken und nicht mehr die, die nicht darauf klicken. Das heißt, ein soziales Medium hat immer die Informationen zur Verfügung, um herauszubekommen, ob das die Menschen sind, die auf die Werbung klicken oder nicht. Ich glaube, dass es bei einem sinnvollen Datenschutz und einer Verwendung persönlicher Daten um Normen und Verhaltensregeln bei den Intermediären und sozialen Netzwerken geht, sich selbst Regeln aufzuerlegen, für welchen Zweck diese Daten genutzt werden und für welchen nicht. Darüber müssen die Nutzer informiert sein.

medienpolitik.net: Weshalb dann die große Aufregung bei dem jüngsten Facebook-Daten-Skandal?

Prof. Dr. Katharina Anna Zweig: Wenn ich die Geschichte um Facebook richtig verstanden habe, war es in diesem Falle eine wissenschaftliche Gruppe die mit Nutzerdaten experimentieren wollte und von Facebook dafür auch die Genehmigung erhielt, allerdings sollten sie diese Daten später löschen, was anscheinend nicht geschah. Dann gab es eine App in der stand, dass die persönlichen Daten genutzt werden, wenn die App heruntergeladen wird. Das haben die Leute angeklickt. Diese App informierte anscheinend auch darüber, dass die Freunde der Nutzer erfasst werden. Inwieweit auf die Daten der Freunde zugegriffen wurde, weiß ich nicht. Das alles beruhte also auf einer Zustimmung der Nutzer.

Ein Aspekt ist in der bisherigen Debatte allerdings noch gar nicht beleuchtet worden: Es ist völlig egal ob es in Deutschland 300.000 oder 500.000 Leute waren, die zugestimmt haben, wir sind alle kompromittiert. Denn diese Firmen sammeln nicht persönliche Daten über Personen an sich, sondern sie sammeln so viele Daten wie nötig, um statistische Modelle zu erstellen. Denn die statistischen Daten sagen aus, für was Menschen empfänglich sind, die sich in bestimmter Art und Weise verhalten. Bei den erhobenen Fallzahlen sind wir alle in statistischen Modellen erfasst und das ist der eigentliche Skandal, der in Deutschland noch gar nicht beachtet worden ist.

medienpolitik.net: Wie kann man die Nutzer sozialer Netzwerke vor sich selber schützen?

Prof. Dr. Katharina Anna Zweig: Auf sozialen Medien gibt es keinen Schutz. Es muss ein Verhaltensregelwerk geschaffen werden, das festlegt, wann eine gesellschaftliche Norm verletzt wird und diese Verletzung auch sanktioniert. In diesem Falle haben sowohl Cambridge Analytica als auch Facebook eine solche Norm verletzt. Der Nutzer hätte in dem genannten Fall explizit dem wissenschaftlichen Experiment zustimmen und auch einwilligen müssen, dass seine Daten weiter wissenschaftlich verwendet werden. In diesem Falle hätten sicher viele Facebook-Nutzer nicht zugestimmt, dass ermittelt wird, wie beeinflussbar er durch Werbung ist und welche Persönlichkeitsstruktur er hat.

medienpolitik.net: Aber zu einer besseren Kennzeichnung des Umgangs mit solchen persönlichen Daten könnte ein Staat doch die Plattform zwingen.

Prof. Dr. Katharina Anna Zweig: Hierbei befinden wir uns in einem Dilemma. Wir alle wollen guten Service von Facebook. Facebook und alle anderen Web-Seiten sind konstant dabei ihre Produkte zu verbessern. Und das funktioniert so: Sie geben ihren Nutzern zwei verschiedene Varianten einer Web-Seite an. Und dann wird geschaut, ob die fünfzig Prozent, die Variante A bekommen hat länger dabei ist, eine größere Rolle spielt, mehr In-App Käufe generiert oder die Variante B. Und dann erhält der Nutzer nur noch die Variante, auf die mehr Menschen mehr angesprochen haben. Das nennt sich IP-Testing. Als eine wissenschaftliche Studie untersucht hatte, wie es unser Kaufverhalten beeinflusst, wenn wir mehr traurige oder mehr fröhliche Nachrichten erhalten, gab es einen Aufschrei in der Bevölkerung, das sei ein soziales Experiment und müsse verboten werden, da keiner eingewilligt habe. Aber es ist die gängige Praxis aller Unternehmen, die digitale Produkte verkaufen, ständig diese Verbesserungsstudien durchzuführen. Das ist Teil ihres digitalen Geschäftsmodells. Müssen solche Optimierungen verboten werden?

Das müsste man mit regulieren und dann wird es schwierig. Es existiert natürlich ein berechtigtes Interesse von Unternehmen und von Nutzern, dass Online-Dienste beständig verbessert werden. Das wird immer mit Hilfe sozialer Studien gemacht, die auch nicht unbedingt geheim sind. Doch der Schritt ist nicht weit zu erfahren, wer auf welche Werbung oder welche Informationen besonders gut anspricht. Das zu regulieren wird auf jeden Fall interessant werden.

Der Beitrag wurde in der promedia-Ausgabe 05/18 erstveröffentlicht.

Print article

Kommentieren

Bitte Pflichtfelder ausfüllen