Transparenz ist das Schlüsselwort

von am 05.02.2019 in Archiv, Gastbeiträge, Medienordnung, Medienpolitik, Medienregulierung, Medienwirtschaft, Regulierung

Transparenz ist das Schlüsselwort
Christiane Stützle, Partner, Morrison Foerster, Berlin und Patricia Ernst, Senior Associate, Morrison Foerster Berlin

Künstliche Intelligenz – wer macht sich wen untertan?

05.02.2019. Von Christiane Stützle, Partner und Global Chair Film & Entertainment Practice, Morrison Foerster,Patricia Ernst, Senior Associate, Morrison Foerster

Künstliche Intelligenz (KI) ist eines der „Buzz“-Worte der heutigen Zeit, alle sprechen davon, doch nicht jedem ist wirklich bewusst, in welchen Lebensbereichen sie aktuell relevant ist und ob es für KI einen hinreichenden rechtlichen Rahmen gibt. Die auch heute noch geführte Debatte „Wollen wir künstliche Intelligenz?“ dürfte indes überholt sein, denn KI ist bereits Bestandteil des alltäglichen Lebens und weitere Entwicklungen sind nicht mehr aufzuhalten. „Stärke den Menschen mit künstlicher Intelligenz“ – so der Slogan eines Pekinger Technologieunternehmens, das verspricht, dass das Leben durch KI einfacher und sicherer wird. Diese auf den ersten Blick positiv klingende Botschaft ist vor dem Hintergrund des bereits in einigen Provinzen in China eingeführten Bonus- und Malus-Systems auf Basis einer KI-basierten Gesichtserkennungssoftware durchaus fraglich und bietet Raum für Missbrauch.

Wie so oft im Bereich der fortschreitenden Digitalisierung, ist die tatsächliche Entwicklung den rechtlichen Rahmenbedingungen immer einen Schritt voraus. Wo stehen wir heute?

Investitionen auf EU Ebene

Die Europäische Kommission hat im Dezember 2018 bekanntgegeben, dass bis Dezember 2020 die Summe von 20 Milliarden Euro in die europäische Entwicklung von KI investiert werden soll, um im Wettbewerb mit China und U.S.A. relevant zu bleiben. Weitere 20 Milliarden Euro jährlich sind ab 2021 vorgesehen. Dies passt zu der gegenwärtigen Position der Bundesregierung, die KI-Entwicklung verstärkt voranzutreiben. Im Bereich der Ethik-Debatte setzt nun die jüngst durch den Bundestag eingesetzte Enquete-Kommission wichtige Impulse. Gerade in den rechtlichen Bereichen Haftung, Datenschutz, Transparenz und Schutzfähigkeit könnte aber ebenfalls legislatives Handeln geboten sein. In einem kurzen Überblick werden die wesentlichen Handlungsfelder nachfolgend dargestellt.

Definition und Einsatz von KI

Als fester Bestandteil der Produktvermarktung wird heute nahezu jede Datenverarbeitung – unabhängig von dem tatsächlich dahinterstehenden Algorithmus – als KI angepriesen. Tatsächlich ist eine KI wohl aber eher als ein Algorithmus zu definieren, der unter Wahrnehmung externer Faktoren und mit der Fähigkeit der Selbstoptimierung Probleme „eigenständig“ bearbeitet. Die Einordnung von Begrifflichkeiten wie „starker“ oder „schwacher“ KI sowie „Expert Systems“ und „Maschinellem Lernen“ ist teilweise noch umstritten, wobei der britische Mathematiker und Informatiker Alan Turing bereits 1950 als Maßstab für eine „starke KI“ formulierte: „A computer system would deserve to be called intelligent if it could deceive a human being into believing that it was human.“ Die Eigenständigkeit in der Entscheidungsfindung wird dem System durch Vorgabe eines konkreten Zieles und Zugabe eines entsprechenden Datensatz „angelernt“ – es ist daher stets das Produkt der eingegebenen Informationen. Der Lernprozess kann durch verschiedene Methoden realisiert werden, dabei insbesondere auch durch das Maschinelle Lernen (Machine Learning). Hier generiert das System Wissen aus Erfahrung, erkennt schließlich „richtige“ und „falsche“ Muster und kann bspw. schließlich befähigt sein, auf Basis der menschlichen Sprache mit Personen zu interagieren (so. z.B. die Google KI „Duplex“, die mit menschenähnlicher Stimme Termine und Reservierungen vereinbaren kann). Ein wichtiger Teilbereich des Maschinellen Lernens ist das sog. Deep Learning, welches durch leistungsstarke neuronale Netze die Funktionsweise des menschlichen Gehirns nachbildet. Erst der sprunghafte Zuwachs verfügbarer Rechenkapazitäten verhalf dieser bereits seit den 1980er Jahren bekannten Methode zu ihrem Durchbruch und ermöglicht heute die Entwicklung fortgeschrittener KI-Anwendungen. Als beliebtes Motiv in Filmen und TV-Serien werden KIs zwar häufig als Roboter mit menschlichem Antlitz oder Weltherrschaftsabsichten dargestellt (so etwa in den Serien „Humans“ und „Black Mirror“). Tatsächlich zeigt sich die reale KI derzeit jedoch – neben dem großen Themenkreis des autonomen Fahrens – als eher unscheinbarer Helfer, z. B. als Spracherkennungsassistenz auf dem Smartphone, für Recherchen und Analysen großer Datenmengen durch Text-and-Data-Mining (TDM), die Erkennung von Krebszellen oder als Micro-Expressions-„Lügendetektor“ bei Grenzkontrollen (das in der Testphase befindliche iBorderCtrl-System wurde 2016 von der EU mit 4,5 Millionen Euro unterstützt). Aber auch wenn KI somit wenig mit dem mörderischen Computer Hal 9000 aus Kubrick’s „2001: Odysee im Weltraum“ gemein hat, sind Kollisionen mit bestehendem Recht auch in den vorgenannten Nutzungsvarianten möglich.

Haftung und Verantwortlichkeit

Die Bundesregierung sieht bislang nur begrenzt Handlungsbedarf. In ihrer „Strategie Künstliche Intelligenz“ bewertet sie den bestehenden Rechtsrahmen als stabile rechtliche Grundlage, die nur vereinzelt einer Überarbeitung bedarf. Klärungsbedürftig sind derzeit jedoch noch vielzählige Fragen wie beispielsweise:

  • Wer haftet deliktsrechtlich für den Verkehrsunfall eines selbstfahrenden Autos (der Fahrzeughersteller, der Programmierer, der Systemhersteller)? Wie ist die strafrechtliche Verantwortlichkeit des „Fahrers“ zu bewerten?
  • Wie ist mit Vertragsschlüssen durch KIs umzugehen und können diese immer einem menschlichen Vertragspartner zugerechnet werden?
  • Wem gehört die KI und wer ist Urheber eines durch KI geschaffenen (Kunst)-Werks?

Wie wichtig eine grundlegende gesetzliche Konkretisierung der Verantwortlichkeit ist, wird nicht zuletzt durch den engen Zusammenhang zwischen KI-initiierten Entscheidungen und eingespeisten Lerndaten offensichtlich. So schlug ein KI-basiertes Recruiting-Programm für technische Jobs bevorzugt Männer vor. Die KI war mit Bewerbungsunterlagen der letzten zehn Jahre trainiert worden – da in der Technikbranche die meisten Bewerbungen von Männern stammten, erschienen diese der KI statistisch bevorzugungswürdig. Eine weitere Recruiting-KI favorisierte Kandidaten, welche Verben verwendeten, die vorwiegend von männlichen Bewerbern gewählt werden (etwa „executed“ oder „captured“). Die Auswahl der einzuspeisenden Lerndaten und die kritische Analyse KI-initiierter Entscheidungen ist somit von potentiell haftungsträchtiger Bedeutung. Der europäische Gesetzgeber hat den Regulierungsbedarf bereits erkannt. Im Jahr 2017 forderte das Europäische Parlament die Europäische Kommission auf, „zumindest für die ausgeklügeltsten Roboter ein[en] Status als elektronische Person“ mit entsprechender Regelung der Verantwortlichkeiten festzulegen. Über die schwierige Materie ließ sich indes kein Konsens finden, vielmehr soll nun bis Mai 2019 ein Auslegungsleitfaden für die Produkthaftungsrichtlinie von 1984 erarbeitet werden.

DSGVO als „dummes Eigentor“ für die wirtschaftliche Nutzung von KI-Anwendungen?

KI-Tools wie LinkedIn’s Kandidatenranking wirken lediglich unterstützend bei der Bewerberauswahl. Eine menschliche Endabnahme unterbleibt aber heute schon bei automatisierten Entscheidungsprozessen (sog. ADM-Systeme = Algorithmic Decision Making), etwa bei Bonitätsscoring und Profiling. Obwohl das Ergebnis den Betroffenen erheblich beeinträchtigen kann, stellen sich der Datenverarbeitungsprozess und die resultierenden Ergebnis für den Betroffenen als „Black Box“ dar. Seit Mai 2018 verbietet die Datenschutzgrundverordnung (DSGVO) nun eine Anwendung von ausschließlichauf automatisierter Verarbeitung beruhenden Entscheidungen auf den Einzelnen. Im Bereich gesetzlicher Ausnahmen wird dem Betroffenen ein Auskunftsanspruch hinsichtlich der dem Algorithmus zugrundeliegenden Logik, Tragweite und Auswirkung gewährt. Kritiker bezweifeln allerdings angesichts der Komplexität KI-basierter Entscheidungsfindungen, dass ein hinreichendes Maß an Transparenz erreicht werden kann.

Datenschutzrechtliche Erwägungen werden zudem bereits im Rahmen der KI-Entwicklung relevant. Deep Learning erfordert die Verwendung großer Datenmengen. „KI ohne Daten ist so wie Kühe ohne Futter – sie kriegen keinen Zuchterfolg“ verkündete Bundeskanzlerin Angela Merkel im Mai 2018. Das unausweichliche Spannungsverhältnis zwischen „Big Data“ und dem wachsenden Datenschutzbewusstsein ist allerdings evident. Schon wurde die DSGVO durch einen internationalen Big-Data-Investor als „dummes Eigentor“ der EU bezeichnet. Zwar enthält die DSGVO außerhalb des Bereichs automatisierter Entscheidungen keine speziellen Regelungen für KI-Systeme. Die von ihr geschützten personenbezogenen Daten werden jedoch auch von KI-Anwendungen, etwa im Bereich des Marketings oder autonomen Fahrens, verwendet. Die Auswirkungen und Umsetzbarkeit von Regelungen zur expliziten Einwilligung durch den Betroffenen, seines Rechts auf Datenmitnahme und zur Löschung von Daten im Bereich von KI-Systemen wurde jedoch noch nicht ausgelotet. Bei allen Herausforderungen der DSGVO-Anwendung auf KI-Systeme erweisen sich gerade diese aber auch als praktische Werkzeuge: die KI „Claudette“ identifiziert bereits Verstöße gegen das neue datenschutzrechtliche Regelwerk.

Transparenz und Kennzeichnung

Sogenannte Social Bots beteiligen sich seit geraumer Zeit an Online-Diskussionen, kommentieren Beiträge im Internet, posten Bilder und twittern. Dabei imitieren sie (oft täuschend echt) menschliches Verhalten und können sich so auch auf die öffentliche Meinungsbildung auswirken. Verbreiten oder generieren Social Bots beleidigende oder volksverhetzende Inhalte, kann zudem die Anwendbarkeit straf- und persönlichkeitsrechtlicher Vorschriften erwogen werden, wobei Diskussionsbedarf im Bereich Täterschaft/Teilnahme und Vorsatzbestimmung besteht. Der Diskussionsentwurf zum „Medienstaatsvertrag“ der Rundfunkkommission der Länder vom September 2018 sieht derzeit eine Verpflichtung zur deutlichen Kennzeichnung automatisiert erstellter oder weiterverbreiteter Inhalte sowohl des Betreibers des Bots, als auch des Plattformbetreibers vor. Wie der Plattformbetreiber Bots allerdings erkennen können soll, ist bislang ebenso ungeklärt wie die Vereinbarkeit hieraus ggf. resultierender Überwachungspflichten mit der E-Commerce-Richtlinie. Denn anders als das Netzwerkdurchsetzungsgesetz (NetzDG) legt die Lesart des Medienstaatsvertrag-Entwurfes nahe, dass die Kennzeichnungspflichten nicht erst durch eine konkrete Beschwerde und damit durch Kenntniserlangung ausgelöst werden, sondern dass der Anbieter proaktiv tätig werden muss. In diesem Zusammenhang ist noch ungeklärt, ob Intermediäre ihrer Pflicht durch eine entsprechende AGB-Ausgestaltung nachkommen können. Dass mit dem Medienstaatsvertrag die Regulierung von Social Bots abgeschlossen wird, ist indes nicht zu erwarten. Mit Beschluss vom 23. November 2018 hat sich der Bundesrat (Drs. 519/18) jüngst für eine umgehende Kennzeichnungspflicht ausgesprochen. Auf EU-Ebene verkündete die Europäische Kommission am 5. Dezember 2018 ihren „Aktionsplan gegen Desinformation“, welcher im Vorfeld der Europäischen Parlamentswahlen 2019 mit Datenanalysesystemen, Medienbeobachtungsdiensten und verstärkter Koordination gegen Social Bots vorgehen will. Bereits im September hatten sich Werbetreibende, Plattformen und Intermediäre, wie bspw. Google und Facebook, einem freiwilligen Verhaltenskodex zur Bekämpfung von Desinformationen angeschlossen. Zu den angekündigten Maßnahmen gehört die Schließung von Scheinkonten, die Entmonetarisierung von Desinformationslieferanten und Transparenz in politischer Werbung.

Mangelnde Algorithmustransparenz ist kürzlich bereits dem Online-Bewertungsportal Yelp zum Verhängnis geworden. Da nur die von dem Algorithmus „empfohlenen“ Wertungen (im konkreten Fall gerade einmal 5 %) in die Gesamtbewertung eines Unternehmens einfließen, ergab sich für die Klägerin eine schlechtere Gesamtbewertung als bei Berücksichtigung aller Einzelbewertungen. Dies stand dem Gericht zufolge im Widerspruch mit den allgemeinen Verkehrserwartungen an ein Bewertungsportals, weshalb einem Schadenersatzbegehren der Klägerin stattgegeben wurde.

Transparenz ist schließlich auch das Schlüsselwort für sogenannte „Deep Fakes“-Anwendungen, welche fotorealistische Aufnahmen und Videos von prominenten Personen erzeugen. Für Aufsehen hat beispielsweise das vom Online-Portal Buzzfeed und „Get out“ – Regisseur Jordan Peele hergestellte YouTube-Video eines KI-erzeugten, täuschend echt wirkenden Barack Obama gesorgt, in dem dieser Donald Trump als „Vollidioten“ bezeichnet. Ob die Aussage des Politikers echt oder gefälscht ist, konnte hier durch die reine Rezeption des Videos nicht mehr bestimmt werden. Neben den sich hieraus offenkundig ergebenden Transparenzfragen, beinhaltet der Bereich des „faceswapping“ allerdings auch neue Möglichkeiten im professionellen Filmbereich. Die Charaktere verstorbener Darsteller könnten in Sequels weiterhin beibehalten werden oder das Gesicht des Darstellers könnte mit dem des Stuntmens ausgetauscht werden. Hollywood Postproduktionsunternehmen wie etwa Animal Logic und Industrial Light & Magic beschäftigen sich daher ebenso wie die Volucap Studios in Zusammenarbeit mit dem Frauenhofer Institut mit KI-Technologie im Filmbereich. Sollten sich solche Technologien fest etablieren, ist mit entsprechenden lizenzrechtlichen Anpassungen der Darstellerverträge sowie mit persönlichkeitsschutzrechtlichen Fragen zu rechnen.

Rechtmäßigkeit von TDM und Schutzfähigkeit künstlicher Intelligenz

Nach einer aktuellen Bitkom-Studie wird der europäische KI-Markt bis zum Jahr 2022 von 3 auf bis zu 10 Milliarden Euro wachsen. Dem erheblichen Investitionspotential steht indes Rechtsunsicherheit über die Rechtmäßigkeit und Schutzfähigkeit der KI-Anwendungen gegenüber. Die für das Maschinelle Lernen verwendeten Trainingsdaten sind teilweise nämlich nicht nur datenschutzrechtlich, sondern auch urheberrechtlich geschützt. Die 2018 eingeführte „Text-and-Data-Mining“-Schranke (§ 60d UrhG) privilegiert aber allein nichtkommerzielle wissenschaftliche Forschung, nicht aber innovationstreibende kommerzielle Anwendungen. Nach dem Kommissionsvorschlag zur Urheberrechtsrichtlinie (2016/0280(COD)) soll sich auch die unionsweite Ausnahmeregelung auf Forschungsorganisationen beschränken. Der derzeit in Verhandlungen befindliche Änderungsvorschlag des Europäischen Parlamentes ergänzte dies allerdings um eine Öffnungsklausel, nach der die Mitgliedstaaten auch weitergehende Ausnahmen festlegen können. Solange Deutschland hiervon allerdings keinen Gebrauch macht, ist kommerziellen Privatunternehmen die Vervielfältigung urheberrechtsgeschützer Werke im Rahmen des maschinellen Lernens einer KI nicht ohne Lizenz gestattet.

Angesichts des erheblichen Investitionsvolumens hat zudem die Frage „Wem gehört die KI?“ handfeste wirtschaftliche Implikationen. Der Schutz als Computerprogramm (§ 69 UrhG) beschränkt sich in seiner gegenwärtigen Ausgestaltung auf den konkreten Programmcode und die innere Programmstruktur, erfasst aber etwa nicht die zugrundeliegenden Algorithmen und Funktionen wie die sinnvolle Filterung der Lerndaten. Einer Anerkennung als „geistige Schöpfung“ unabhängig von § 69 UrhG steht wiederum die mangelnde Schutzfähigkeit der einzelnen Trainingsergebnisse entgegen. Teilweise kann hier die Richtlinie über den Schutz vertraulichen Know-hows und vertraulicher Geschäftsinformationen (2016/943) bzw. deren Umsetzung in nationales Recht einen gewissen Schutz bieten. Im Gegensatz zu dem Urheberrecht bedarf der Know-how-Schutz allerdings des Nachweises, dass spezielle Maßnahmen zum Schutz des Know-how ergriffen worden sind, wie etwa vertragliche Vertraulichkeitsvereinbarungen mit Mitarbeitern und Geschäftspartnern. Einem sicheren Schutz nach dem Patentrecht steht wiederum entgegen, dass Softwareprogramme „als solche“ nicht schutzfähig sind und dass der Schwerpunkt einer KI-Anwendung in ihren Algorithmen, nicht aber der Lösung eines technischen Problems liegt. Entsprechend hat sich das BPatG bereits mehrfach gegen den Schutz einer KI im jeweiligen Einzelfall ausgesprochen.

Schutz der Erzeugnisse einer KI

Schließlich stellt sich auch die Schutzfähigkeit von KI-Erzeugnissen als klärungsbedürftig dar, wobei teilweise der Ruf nach einer legislativen Regelung laut wird. So ist die Patentierbarkeit einer KI-„Erfindung“ überaus umstritten, eine gesetzliche Klarstellung müsste sich insbesondere mit Fragen der Offenlegungspflicht sowie der Frage auseinandersetzen, ob die Ergebnisse bei Nutzung einer „nach dem Stand der Technik bekannten“ KI naheliegend sind. Von zunehmendem öffentlichem Interesse sind aber auch solche KI-Erzeugnisse, die, wären sie von Menschen geschaffen, dem urheberrechtlichen Schutz unterfielen. Die Anwendung flow machine komponiert auf Basis vorgegebener Parameter Musik in einem bestimmten Stil (etwa der Beatles), mit The Next Rembrandt schuf eine KI auf Grundlage von 346 Originalwerken ein „neues“ Gemälde à la Rembrandt und der Kurzfilm Zone Out wurde innerhalb von nur 48 Stunden von einer KI anhand einer Filmdatenbank, den Gesichtern von Schauspielern und Drehbüchern erstellt. Dass solche Kreationen nicht nur Sinnbild technischen Fortschritts, sondern auch von wirtschaftlichem Wert sind, zeigt die Versteigerung des KI-erzeugten „Portrait of Edmond Belamy“ durch Christie’s für 432.500 USD. Bereits die Voraussetzung einer „persönlichen geistigen Schöpfung“ stellt für solche „Werke“ jedoch eine Hürde dar, bei der das notwendige Maß menschlicher Einflussnahme entscheidend ist. Handelt es sich um einen rein maschinell erfolgenden Schaffungsprozess ist für eine persönliche geistige Schöpfung auf Grundlage derzeitiger Begriffsdefinition eher kein Raum mehr. Für einzelne Erzeugnisse kommt auch das Leistungsschutzrecht des Datenbankherstellers nach § 87a UrhG nicht in Betracht. Aus Investitionsschutzgesichtspunkten wäre die Einführung eines Leistungsrechtes denkbar, wie es beispielsweise bereits im britischen Recht verankert ist.

Ausblick

Neben dem anzupassenden rechtlichen Rahmen bedarf es aus Sicht der Verfasser auch einer stärkeren Diskussion über die sich wandelnde Rolle des Menschen in einer KI-geprägten Welt und seinem Schutz vor Missbrauch. Die KI bietet vielfältige Chancen, doch im Zuge der sich immer weiter perfektionierenden KI-Algorithmen auch Gefahren, da der Mensch selbst gerade nicht perfekt ist. Es bleibt sicherzustellen, dass sich der Mensch die KI untertan macht und nicht umgekehrt.

****

Die internationale Anwaltskanzlei Morrison Foerster veranstaltet am 7. Februar 2018 in Kooperation mit der Motion Picture Association während der Berlinale ein Fachpanel „Film goes AI – Innovation and Accountability“

Print article