Medienforschung:

„Routineaufgaben werden wegfallen“

von am 22.12.2015 in Allgemein, Archiv, Digitale Medien, Internet, Interviews, Journalismus, Kreativwirtschaft, Medienethik, Medienpolitik, Medienwissenschaft

<h4>Medienforschung:</h4>„Routineaufgaben werden wegfallen“
Frank Feulner, CTO bei AX Semantics

Automatisierte Nachrichten zur US-Präsidentschaftswahl im Minutentakt

22.12.15 Interview mit Frank Feulner, CTO bei AX Semantics

AX Semantics zählt zu den Pionieren des Roboterjournalismus. Das aktuellste Projekt des deutschen Start-Ups ist ein Forschungsprojekt zur US-Präsidentschaftswahl, bei dem von Januar bis zur Wahlentscheidung am 8. November 2016 automatisierte Nachrichtentexte auf Basis von Prognosedaten erstellt werden. Gemeinsam mit der Ludwig-Maximilians-Universität (LMU) München und der Deutschen Welle sollen dabei die Akzeptanz und das Verständnis automatisierter Inhalte seitens der Leser untersucht werden. Die Deutsche Welle wird für die Datenvisualisierung sorgen und kommuniziert Status und Ergebnisse des Projekts an die weltweite Daten-Journalismus Community. Die Entwicklung des Projektes kann man unter www.pollyvote.com Schritt für Schritt mitverfolgen.

medienpolitik.net: Herr Feulner, das US-Prognosen-Projekt Data-Driven Campaign Coverage – Woher kommen die Daten?

Frank Feulner: Aktuell sind wir an einem Forschungsprojekt beteiligt, mit dem anhand der Prognosen des US-Wahlkampfes Erkenntnisse über Produktion und Rezeption von datengetriebenem Journalismus gewonnen werden soll. Das Forschungsprojekt Data-Driven Campaign Coverage wird von den Projektpartnern LMU München, AX Semantics und dem Innovationsteam der Deutschen Welle durchgeführt. Das übergeordnete Ziel des Projektes ist herauszufinden, wie datenjournalistische Inhalte wahrgenommen werden: Wie beurteilt der Leser solche Prognosen? Wie kann in einem datenjournalistischen Produkt Qualität definiert und gesichert werden? Aus den Beobachtungen zum Verlauf und den Ergebnissen der Befragungen werden “best practices” für die Publikation von Daten, der Datenvisualisierung und der Nachrichtenproduktion abgeleitet.

medienpolitik.net: Warum US-Wahlkampf?

Frank Feulner: Das Projekt in den Rahmen eines Wahlkampfes zu setzen hat drei Gründe. Einer davon ist ganz pragmatisch: Andreas Graefe, der Leiter des Projekts, hat mit PollyVote bereits ein Verfahren für die Erstellung von Wahlprognosen mitentwickelt, darauf zurückzugreifen lag nahe. Daneben sind Wahlprognosen ein Herzstück des Datenjournalismus: Die Zahlen rund um zukünftige Wahlen wurden schon routiniert journalistisch aufbereitet, sehr lange bevor der Begriff “Datenjournalismus” überhaupt aufkam. Und nicht zuletzt spielt auch das Interesse der Öffentlichkeit eine Rolle, der US-Wahlkampf ist ein extrem wichtiges internationales Medienthema. Die Prognosen und die Daten liefert PollyVote, ein Projekt zur Prognosenerforschung mit dem Ziel, die Genauigkeit von Wahlvorhersagen mit Hilfe von empirisch validierten Prognosemethoden zu verbessern. Dabei sammelt PollyVote Vorhersagedaten aus unterschiedlichen Quellen: Dazu gehören die klassischen Wahlumfragen, Prognosemärkte, auf denen Teilnehmer auf den Wahlausgang wetten, Experteneinschätzungen und Vorhersagen von statistischen Modellen, die auf theoretische Ansätze der Wahlforschung beruhen. Diese unterschiedlichen Informationen wertet PollyVote nach bestimmten Prinzipien in mehreren Durchgängen aus und kommt dabei zu exakten Prognosen, wie der Abgleich der Prognosen mit den letzten drei US Präsidentschaftswahlergebnissen zeigt.

medienpolitik.net: Wie zuverlässig ist die Datenbasis?

Frank Feulner: Die unterschiedlichen Datenquellen, die Berechnungsmethoden und die lange Projektlaufzeit von PollyVote bieten eine sehr zuverlässige und aussagekräftige Datengrundlage für die Entwicklung datenjournalistischer Inhalte. Aus den Prognosen werden sowohl interaktive Info-Grafiken als auch automatisierte Texte erstellt. Der Beitrag von AX besteht darin, auf Basis der historischen Daten die Textmaschine zu trainieren und ab Februar 2016 für die Plattform PollyVote.com täglich aktuelle automatisierte Texte zu liefern. Mario Haim und Andreas Graefe von der LMU München werden dann die Rezeption der Grafiken und Texte analysieren: Bewertet ein Rezipient einen Artikel anders, wenn ihm die Recherchemethoden und Datenquellen offengelegt werden? Wie nehmen Leser Inhalte auf, die auf der Visualisierung großer Datensätze beruhen? Wie beurteilen sie die Qualität computergenerierter Artikel?

medienpolitik.net: Für welche Themen und Gebiete eignet sich Roboterjournalismus?

Frank Feulner: Das Projekt ist ein sehr gutes Beispiel dafür, worauf es ankommt, damit Roboterjournalismus gut funktionieren kann: Es liegen viele qualitativ hochwertige Daten vor, d.h. dass genügend Datensätze mit ausreichend Daten vorhanden sind. Ein für AX interessanter Aspekt ist daneben auch die Zusammenführung unterschiedlicher Datenquellen. PollyVote hat über die letzten sechs US Wahlen über 26.000 Prognosen gesammelt, die wiederum aus unterschiedlichen Datenquellen zusammengesetzt sind.
Dann werden die Daten ausgewertet: Wo liegt die Besonderheit in den Daten? Welche Abweichungen gibt es und sind sie relevant? Es ist die klassische Suche nach dem Nachrichtenwert in einer Umgebung, die so komplex ist, dass eine Software hier zuverlässiger arbeitet als ein Mensch. Im nächsten Schritt generiert die Software aus den Erkenntnissen und Aussagen Texte. Die Stärke der Software liegt bei Themen und Nachrichten, die einen wichtigen Teil der zugrunde liegenden Informationen aus Datensätzen entnehmen können. Da ist die Wahlberichterstattung natürlich ein hervorragendes Beispiel, auch im Finanzbereich spielen Daten und Zahlen eine große Rolle, aber auch im Sport ist die Voraussetzung für die Produktion automatisierter Texte gut. So sind im Fußball beispielsweise die Spielverläufe und Ergebnisse bis in die kleinsten Klassen in Datenbanken vorhanden. Der zweite Aspekt für den Einsatz von automatisierten Nachrichten ist die Wiederholung: je häufiger ähnliche Texte gebraucht werden, desto geeigneter ist die Maschine. Polizeiberichte, die regelmäßig erscheinen oder Verkehrsmeldungen gehören dazu.

medienpolitik.net: Wie viel redaktioneller Input ist notwendig? Welche Voraussetzungen müssen in Redaktionen bestehen?

Frank Feulner: Im Zusammenhang mit dem Thema “Datenjournalismus” wird ja schon heftig das Berufsbild des “Datenjournalisten” diskutiert, er sollte sowohl Schreib- als auch Programmierkompetenzen haben. Für uns liegt die Zielvorgabe etwas anders: Wir entwickeln mit unserem Tool “ATML3” eine Software, die ein Redakteur bedienen und trainieren kann. Dafür reichen gute Computerkenntnissen aus, er muss nichts vom Programmieren verstehen. Er schreibt wie gewohnt seinen Text und verknüpft dann bestimmte Abschnitte mit bestimmten Regeln, ganz ähnlich wie etwa bei der Arbeit mit HTML. Wir nähern uns also den Kompetenzen der Redakteure an und erwarten nicht, dass sie spezielle Kenntnisse haben, aber eine gewisse Offenheit gegenüber der Software und dem eher “technischen” Umgang mit Text muss schon vorhanden sein.

medienpolitik.net: Welche Effekte werden damit in Redaktionen erreicht?

Frank Feulner: Ein Tool, das eine so zentrale redaktionelle Aufgabe, wie das Schreiben übernimmt oder unterstützt, wird sicherlich die Abläufe in einer Redaktion verändern. Vor allem Routineaufgaben werden wegfallen, für die eigentlich heute schon keine Zeit mehr eingeplant ist: Das Schreiben des täglichen Wetterberichts, die News aus den Polizeiberichten, die kurzen Finanzartikel – das wird die Software komplett übernehmen. Für andere Bereiche werden Vorlagen geliefert, die ein Redakteur noch überarbeitet. Die Software wird dabei nicht nur automatisch Texte erzeugen, sie weist auch die Redakteure auf den besonderen Nachrichtenwert einer Information hin, so dass er im Einzelfall aktiv werden kann. Wenn die Prognosen nur die erwarteten Abweichungen anzeigen, dann verfasst die Maschine zuverlässig und abwechslungsreich (die Varianz ist schon programmiert) die Routine-Texte. Wenn es aber eine starke, unerwartete Abweichung gibt, weil z.B. ein Kandidat zurücktritt, dann kann z.B. ein Redakteur per Mail benachrichtigt werden. Dieser kann dann recherchieren und einen Artikel darüber schreiben, was die Hintergründe des Rücktritts sind und welche Auswirkungen das auf den Verlauf des Wahlergebnisses haben kann.

medienpolitik.net: Wie groß ist die Gefahr der Manipulation durch entsprechende Algorithmen?

Frank Feulner: Bei der Automatisierung der redaktionellen Prozesse stellt sich die Frage, wie sich Verantwortlichkeiten verschieben: Wer ist für z.B. die Richtigkeit der Schlüsse, die die Software zieht verantwortlich? Diese Aspekte werden bereits politisch diskutiert: Interessant ist hierfür auch die Diskussion zur Gesetzgebung in der EU: Das Fazit der europäischen Arbeitsgruppe „RoboLaw“ ist, dass eine allgemeine (restriktive) Gesetzgebung zum Thema „Roboter“ nicht sinnvoll sei, vielmehr gehe es darum, eine funktionale Perspektive einzunehmen, die sich an der Praxis orientiert. Die journalistische Sorgfaltspflicht bleibt unserer Meinung nach erhalten und muss bereits bei der Auswertung der Daten und der Entwicklung des Algorithmus einbezogen werden. Entscheidend ist hierbei die Transparenz der Datenquellen und Algorithmen. Deswegen wird im aktuellen Forschungsprojekt das Training für den Algorithmus veröffentlicht werden: Jeder kann nachlesen, auf welche Weise die Software die Schlüsse gezogen hat.

medienpolitik.net: Wo sind die Grenzen des Roboterjournalismus?

Frank Feulner: Am offensichtlichsten liegen die Grenzen des Roboterjournalismus dort, wo man vor Ort recherchieren muss, wo keine strukturierten Daten vorliegen und wo Meinung gefragt ist. Ein Journalist kann in einem Leitartikel darüber spekulieren, ob der aktuelle US-Präsident für eine zweite Amtszeit kandieren sollte oder nicht, die wichtigsten Schritte der ersten Amtszeit beschreiben und eine eigene Einschätzung der aktuellen gesellschaftlichen Stimmung geben. Das kann die Software nicht. Ein guter Journalist entwickelt ein Gespür für den Wahrheitsgehalt der gelieferten Daten und kann die Verlässlichkeit seiner Quellen einschätzen. Er sammelt auch Informationen, die nicht in Datenbanken vorliegen: Er spricht mit Beteiligten und interviewt Experten. Die Recherche aus unterschiedlichen Quellen, das Gespräch mit den Menschen, die Meinung. Dort wo das journalistische Handwerk kritisch und auf hohem Niveau ausgeübt werden muss, bleibt der menschliche Journalist weiterhin unersetzlich.
Der Journalist versteht also viele Zusammenhänge, die eine Software nicht erkennen oder verstehen kann. Je allgemeiner das Thema ist und je weniger strukturierte Daten dazu der Software zur Verfügung stehen, desto ungeeigneter ist die Software. Ein Feuilleton-Artikel über eine Theateraufführung zu generieren, die über allgemeine beschreibende Sätze hinausgeht – liegt automatisiert noch in ferner Zukunft. Gerade in dem, was Gefühle, Symbole oder Metaphern betrifft – die ja z.B. bei Theateraufführungen alle eine große Rolle spielen, ist die Auffassungsgabe der Roboterautoren den menschlichen Fähigkeiten noch nicht gewachsen.
In den Diskussionen rund um den Roboterjournalismus wird häufig die Fähigkeit des Menschen, einer Geschichte einen besonderen Ton zu verleihen als Alleinstellungsmerkmal des menschlichen Autors hervorgehoben. Das ist für uns bei AX Semantics allerdings nicht so eindeutig, denn gut Schreiben kann die Software lernen. Mit dem richtigen Briefing und der richtigen Programmierung können Sprache und Stil der generierten Texte ziemlich genau an die Anforderungen angepasst werden. Es sind keine „blechern“ klingenden Roboter-Texte, die da aus dem Computer kommen.

medienpolitik.net: Passen Roboterjournalismus und Qualitätsjournalismus zusammen?

Frank Feulner: Aus der Debatte um Qualitätsmedien halten wir uns als Softwareproduzent heraus, das müssen die Journalisten und Verlage selbst diskutieren. Für uns ist aber klar, dass mit der Software journalistische Qualität produziert werden kann: Qualitätsstandards können mit der Software besser eingehalten werden, denn im Auswertungs-und Schreibprozess sind in jedem Schritt spezielle abgestimmte Qualitätssicherungsmaßnahmen eingebaut. Eine so umfassende Qualitätssicherung ist in den meisten Redaktionen für Standardtexte kaum umsetzbar. Und wer genauer hinschaut, der findet bei den herkömmlich produzierten journalistischen Massentexten sehr häufig Ungenauigkeiten und Fehler, kein Wunder, denn sie müssen schnell und ohne Aufwand heruntergeschrieben werden.
Erkenntnisse aus der Rezeptionsforschung zeigen zudem, dass die Leser kaum zwischen automatisierten und handgeschriebenen Texten unterscheiden können. In einigen Fällen halten sie computergenerierte Texte sogar für glaubwürdiger. Einen wichtigen Aspekt in diesem Zusammenhang sind meiner Meinung nach die Skalierungsmöglichkeiten, die die Verlage mit den automatisierten Texten haben. Die Nachrichten können ohne großen Mehraufwand, durch Verändern der Eingangsparameter oder durch eine Neukombination der Daten auf sehr kleine Zielgruppen passgenau zugeschnitten werden. Content muss nicht mehr für die gesamte Leserschaft konsensfähig sein.

Der Beitrag wurde in der promedia-Ausgabe Nr. 12/2015 erstveröffentlicht.

Print article

Kommentieren

Bitte Pflichtfelder ausfüllen