Wer übernimmt die Verantwortung? – Christiane Wendehorst zur Frage der Haftung von Künstlicher Intelligenz

„Haftung für Künstliche Intelligenz – droht ein Verantwortungsvakuum?“ – Vortrag von Prof. Dr. Christiane Wendehorst innerhalb der Ringvorlesung im Wintersemester 2020/2021 „Machtverschiebung durch Algorithmen und KI“

Von Kristina Balaneskovic

Künstliche Intelligenz kommt in den verschiedensten Sphären und Disziplinen zum Einsatz. Mit der stetigen Weiterentwicklung von KI rückt diese immer weiter in den gesellschaftlichen Vordergrund. Doch die Diskussionen um die Funktion, Wirkung und Fehlbarkeit von Künstlicher Intelligenz werden nicht nur von Fragen technischer Art begleitet. Nicht zuletzt stellt sich die Frage, wer eigentlich haftet, wenn Künstliche Intelligenz Fehler macht? Dieser geht Prof. Dr. Christiane Wendehorst in ihrem Vortrag: „Haftung für Künstliche Intelligenz – droht ein Verantwortungsvakuum?“, welchen sie am 25. Januar 2021 online innerhalb der Ringvorlesung im Wintersemester 2020/2021 „Machtverschiebung durch Algorithmen und KI“, gehalten hat, nach.
Christiane Wendehorst ist Professorin für Zivilrecht an der Universität Wien und u.a. Präsidentin des European Law Institute. Veranstalter der Ringvorlesung ist das Forschungsnetzwerk „Die normative Ordnung Künstlicher Intelligenz | NO:KI“ am Forschungsverbund „Normative Ordnungen“ gemeinsam mit den Frankfurter Gesprächen zum Informationsrecht des Lehrstuhls für Öffentliches Recht, Umweltrecht, Informationsrecht und Verwaltungswissenschaften und dem Fachbereich Rechtswissenschaft der Goethe-Universität Frankfurt am Main.

Wer haftet nun, wenn Künstliche Intelligenz versagt? Wie sind Entwicklungen auf EU-Ebene zu bewerten? Haftung für KI oder lieber Kontrolle von KI? Christiane Wendehorst hält fest: Damit diese Frage adressiert werden kann, bedürfe es zunächst der Frage, was wir unter der Überschrift ‚Haftung‘ diskutieren. Zunächst müsse nach der Referentin zwischen zwei Dimensionen unterschieden werden, nämlich der ‚physischen‘ und der ‚sozialen‘ Dimension von KI. Die ‚physische‘ Dimension sieht vor, Vorteile durch Produkte und Dienstleistungen mit KI, z.B. innerhalb einer besseren Gesundheitsversorgung, weniger Verkehrsunfällen oder weniger Emissionen, zu erlangen. Dahingegen steht die ‚soziale‘ Dimension, die durch Auslagerungen von Entscheidungen und Aktivitäten an KI z.B. von besseren Entscheidungen durch mehr Fairness oder auch mehr freien Ressourcen für menschliche Interaktionen profitieren kann. Mit der ‚physischen‘ und der ‚sozialen‘ Dimension sind allerdings auch entsprechende Risiken verbunden. Beispielsweise könnten unter der Beteiligung von KI, Menschen oder Objekte aufgrund von unsicheren Produkten zu Schaden kommen. Weiterhin können z.B. Diskriminierung, Manipulation, Ausbeutung oder auch Kontrollverluste durch unangemessene Entscheidungen und Machtausübung basierend auf Künstlicher Intelligenz nicht ausgeschlossen werden. Aus diesem Grund müsse, so Wendehorst, ein Haftungssystem versuchen, beide Dimensionen angemessen zu adressieren. Probleme sieht die Referentin darin, dass sich ein Großteil der Diskussion zur ‚Haftung von KI‘ auf die ‚physische‘ Dimension konzentriere und die ‚soziale‘ Dimension außer Acht lasse. Herausforderungen bestehen für das Haftungsrecht also darin, beide Dimensionen in den Mittelpunkt einer funktionierenden Systematik zu stellen.

 

Haften Roboter selbst für Schäden? Die Rechtsordnung kennt natürliche Personen (d.h. Menschen) und juristische Personen (z.B. Vereine oder eine GmbH). Maschinen, so die Referentin, haben bislang keine Rechtspersönlichkeit. Vielmehr richten sich rechtliche Regelungen an die dahinterstehenden Personen. Eine neue Dynamik nimmt diese Diskussion auf, wenn es um E-Personen gehe. Denn die Analogie zu Menschen würde Robotern eine intrinsische Würde und die Fähigkeit zu moralisch verantwortlichem Handeln verleihen, für die es allerdings keine Basis gebe. Die Schaffung einer neuen Gesellschaftsform, einer sogenannten „E-GmbH“ mit einem eigenen Haftungsfonds, sei diskutabel, aber nach Wendehorst wohl eher unnötig und zumindest mittelfristig politisch nicht zu erwarten.

Weiterhin gebe es auf die Frage, wer derzeit für KI hafte, bereits Antworten nach geltendem Recht. Somit hafte z.B. bei einem Verkehrsunfall mit einem autonom fahrenden KFZ der Fahrzeughalter, auch ohne Verschulden und Pflicht-Haftpflichtversicherung. Daneben bestehe gegebenenfalls auch die Haftung des Herstellers für Produktfehler. Daher gebe es prinzipiell keine Haftungslücken und die Diskussion betreffe vor allem auch künftig noch eine faire Verteilung der Versicherungslast. Diese gelten vor allen Dingen innerhalb des Einsatzes von Robotern im Dienstleistungssektor. Käme es hierbei beispielsweise zu einem Unfall mit Personenschaden, werden Haftungslücken befürchtet. Daher werde nach der Referentin eine Gefährdungshaftung gefordert. Aber auch hier ist umstritten, wer im Falle eines Unfalls haften soll: Halter, Hersteller, oder vielleicht auch derjenige, der Updates für den Roboter zur Verfügung stellt? Das Hauptproblem liege nach Christiane Wendehorst darin, dass es eine fehlende Anpassung der Produkthaftungs-Richtlinie an vernetzte und offene Produkte gebe. Auch im Falle von sozialen Risiken, die auf das Verschulden von Künstlicher Intelligenz zurück-zuführen sind, gebe es reichlich Diskussionsbedarf. Soweit allerdings eine Konstellation von geltendem Antidiskriminierungsrecht erfasst ist, sei auch mittelbare Diskriminierung verboten und somit auch bei Einsatz von KI.

Nicht zuletzt stellt sich natürlich die Frage: Haftung für KI oder lieber Kontrolle von KI? Dahingehend liegt der Streitpunkt der Perspektive im Vordergrund. Wird die Sicherheit und Schadensvermeidung (ex ante) präferiert, so soll auf Kontrolle von KI in Entwicklung und Anwendung zurückgegriffen werden. Liegt aber der Schadensausgleich (ex post) im Fokus, ist ein Konzept der Haftung von Künstlicher Intelligenz, beziehungsweise den Verantwortlichen zwingend. Auch hier seien aktuelle Entwicklungen, vor allem auf EU-Ebene, zu beobachten. So zum Beispiel eine 2018 gegründete hochrangige ExpertInnengruppe der EU-Kommission für Künstliche Intelligenz (HLEG AI). Weiterhin wurde ebenfalls im Jahre 2018 eine Datenethikkommission (DEK), unter Vorsitz von Christiane Wendehorst und Christiane Woopen, als Beratungsgremium der deutschen Bundesregierung eingerichtet. Diese hatte den Auftrag, innerhalb eines Jahres einen ethischen und regulatorischen Rahmen für Daten und KI zu entwickeln. Der im Oktober 2019 von der DEK vorgelegte Bericht enthält bereits ethische Richtlinien und 75 konkrete Handlungsempfehlungen. Somit sei der erste Schritt in die Richtung einer funkti-onierenden Struktur bereits getan.

Abschließend kann zusammengefasst werden, dass innerhalb der Thematik der Haf-tung von Künstlicher Intelligenz ein Bedarf nach Handlung aufgrund von Aktualität festzustellen ist. Danach sei nach der Referentin das geltende Recht auf KI und digitale Ökosysteme ganz allgemein nur unzureichend vorbereitet, wenngleich durch KI auch kein völliges ‚Verantwortungsvakuum‘ zu befürchten sei. Sowohl auf ‚physischer‘ als auch auf ‚sozialer‘ Ebene müssen Entwicklungen von Möglichkeiten, aber auch dement-sprechende Risiken, frühzeitig erkannt werden. Nicht nur die Erkennung spezieller Risiken trete hierbei in den Vordergrund, sondern sei vor allem die Relevanz einer Entwicklung von neuen Haftungskonzepten, um Schäden so gering wie möglich halten zu können, zu unterstreichen. Jedoch seien nach Christiane Wendehorst auf empirischer Ebene in naher Zukunft Maßnahmen zu erwarten, welche den Spagat zwischen einem hohen Schutzniveau und einem innovationsfreundlichen Klima in Europa ermöglichen sollen.


Aktuelles

Newsletter aus dem Forschungszentrum „Normative Ordnungen“

Zukünftig informiert ein Newsletter über aktuelle Veranstaltungen, Veröffentlichungen und wissenswerte Entwicklungen im Forschungszentrum „Normative Ordnungen“. Die erste Ausgabe finden Sie hier...

Nächste Termine

30. und 31. März 2023

XXIInd Walter Hallstein-Symposium: The Common Security and Defence of the EU - Perspectives from Member States. More...

13. April 2023, 20 Uhr

Lecture & Film „Kino am Abgrund der Moderne. Die Filme von Luis Buñuel“: Fernando Gonzalez de Leon (Springfield): Viridiana: Interpreting Buñuel’s Gothic Masterwork. Mehr...

-----------------------------------------

Neueste Medien

Sprache und Gewalt. Perspektiven aus Theorie und Praxis

Mit: Meron Mendel (Direktor der Bildungsstätte Anne Frank), Natasha A. Kelly (Kommunikationswissenschaftlerin & Autorin) und Nicole Rieber (Berghof Foundation, Globales Lernen für Konflikttransformation)
Moderation: Christopher Daase (Forschungszentrum TraCe) und Rebecca Caroline Schmidt (Clusterinitiative ConTrust, Normative Orders)
Dialogpanel im Rahmen der TraCe-Jahreskonferenz „Language(s) of Violence“

Was ist Befreiung?

Prof. Dr. Christoph Menke (Goethe-Universität, Normative Orders) im Gespräch mit Cord Riechelmann (Autor)
Gesprächsreihe "Frankfurter Schule"

Videoarchiv

Weitere Videoaufzeichnungen finden Sie hier...

Neueste Volltexte

Christoph Burchard und Finn-Lauritz Schmidt (2023)

Climate Crimes - A Critique. Normative Orders Working Paper 01/2023. Mehr...