Wer übernimmt die Verantwortung? – Christiane Wendehorst zur Frage der Haftung von Künstlicher Intelligenz

„Haftung für Künstliche Intelligenz – droht ein Verantwortungsvakuum?“ – Vortrag von Prof. Dr. Christiane Wendehorst innerhalb der Ringvorlesung im Wintersemester 2020/2021 „Machtverschiebung durch Algorithmen und KI“

Von Kristina Balaneskovic

Künstliche Intelligenz kommt in den verschiedensten Sphären und Disziplinen zum Ein-satz. Mit der stetigen Weiterentwicklung von KI rückt diese immer weiter in den gesellschaftlichen Vordergrund. Doch die Diskussionen um die Funktion, Wirkung und Fehl-barkeit von Künstlicher Intelligenz werden nicht nur von Fragen technischer Art beglei-tet. Nicht zuletzt stellt sich die Frage, wer eigentlich haftet, wenn Künstliche Intelligenz Fehler macht? Dieser geht Prof. Dr. Christiane Wendehorst in ihrem Vortrag: „Haftung für Künstliche Intelligenz – droht ein Verantwortungsvakuum?“, welchen sie am 25. Januar 2021 online innerhalb der Ringvorlesung im Wintersemester 2020/2021 „Machtverschiebung durch Algorithmen und KI“, gehalten hat, nach.
Christiane Wendehorst ist Professorin für Zivilrecht an der Universität Wien und u.a. Präsidentin des European Law Institute. Veranstalter der Ringvorlesung ist das Forschungsnetzwerk „Die normative Ordnung Künstlicher Intelligenz | NO:KI“ am Forschungsverbund „Normative Ordnungen“ gemeinsam mit den Frankfurter Gesprächen zum Informationsrecht des Lehrstuhls für Öffentliches Recht, Umweltrecht, Informati-onsrecht und Verwaltungswissenschaften und dem Fachbereich Rechtswissenschaft der Goethe-Universität Frankfurt am Main.

Wer haftet nun, wenn Künstliche Intelligenz versagt? Wie sind Entwicklungen auf EU-Ebene zu bewerten? Haftung für KI oder lieber Kontrolle von KI? Christiane Wendehorst hält fest: Damit diese Frage adressiert werden kann, bedürfe es zunächst der Frage, was wir unter der Überschrift ‚Haftung‘ diskutieren. Zunächst müsse nach der Referentin zwischen zwei Dimensionen unterschieden werden, nämlich der ‚physischen‘ und der ‚sozialen‘ Dimension von KI. Die ‚physische‘ Dimension sieht vor, Vorteile durch Produkte und Dienstleistungen mit KI, z.B. innerhalb einer besseren Gesundheitsversorgung, weniger Verkehrsunfällen oder weniger Emissionen, zu erlangen. Dahingegen steht die ‚soziale‘ Dimension, die durch Auslagerungen von Entscheidungen und Aktivitäten an KI z.B. von besseren Entscheidungen durch mehr Fairness oder auch mehr freien Ressourcen für menschliche Interaktionen profitieren kann. Mit der ‚physischen‘ und der ‚sozialen‘ Dimension sind allerdings auch entsprechende Risiken verbunden. Beispielsweise könnten unter der Beteiligung von KI, Menschen oder Objekte aufgrund von unsicheren Produkten zu Schaden kommen. Weiterhin können z.B. Diskriminierung, Manipulation, Ausbeutung oder auch Kontrollverluste durch unangemessene Entscheidungen und Machtausübung basierend auf Künstlicher Intelligenz nicht ausgeschlossen werden. Aus diesem Grund müsse, so Wendehorst, ein Haftungssystem versuchen, beide Dimensionen angemessen zu adressieren. Probleme sieht die Referentin darin, dass sich ein Großteil der Diskussion zur ‚Haftung von KI‘ auf die ‚physische‘ Dimension konzentriere und die ‚soziale‘ Dimension außer Acht lasse. Herausforderungen bestehen für das Haftungsrecht also darin, beide Dimensionen in den Mittelpunkt einer funktionierenden Systematik zu stellen.

Haften Roboter selbst für Schäden? Die Rechtsordnung kennt natürliche Personen (d.h. Menschen) und juristische Personen (z.B. Vereine oder eine GmbH). Maschinen, so die Referentin, haben bislang keine Rechtspersönlichkeit. Vielmehr richten sich rechtliche Regelungen an die dahinterstehenden Personen. Eine neue Dynamik nimmt diese Diskussion auf, wenn es um E-Personen gehe. Denn die Analogie zu Menschen würde Robotern eine intrinsische Würde und die Fähigkeit zu moralisch verantwortlichem Handeln verleihen, für die es allerdings keine Basis gebe. Die Schaffung einer neuen Gesellschaftsform, einer sogenannten „E-GmbH“ mit einem eigenen Haftungsfonds, sei diskutabel, aber nach Wendehorst wohl eher unnötig und zumindest mittelfristig politisch nicht zu erwarten.

Weiterhin gebe es auf die Frage, wer derzeit für KI hafte, bereits Antworten nach geltendem Recht. Somit hafte z.B. bei einem Verkehrsunfall mit einem autonom fahrenden KFZ der Fahrzeughalter, auch ohne Verschulden und Pflicht-Haftpflichtversicherung. Daneben bestehe gegebenenfalls auch die Haftung des Herstellers für Produktfehler. Daher gebe es prinzipiell keine Haftungslücken und die Diskussion betreffe vor allem auch künftig noch eine faire Verteilung der Versicherungslast. Diese gelten vor allen Dingen innerhalb des Einsatzes von Robotern im Dienstleistungssektor. Käme es hierbei beispielsweise zu einem Unfall mit Personenschaden, werden Haftungslücken befürchtet. Daher werde nach der Referentin eine Gefährdungshaftung gefordert. Aber auch hier ist umstritten, wer im Falle eines Unfalls haften soll: Halter, Hersteller, oder vielleicht auch derjenige, der Updates für den Roboter zur Verfügung stellt? Das Hauptproblem liege nach Christiane Wendehorst darin, dass es eine fehlende Anpassung der Produkthaftungs-Richtlinie an vernetzte und offene Produkte gebe. Auch im Falle von sozialen Risiken, die auf das Verschulden von Künstlicher Intelligenz zurück-zuführen sind, gebe es reichlich Diskussionsbedarf. Soweit allerdings eine Konstellation von geltendem Antidiskriminierungsrecht erfasst ist, sei auch mittelbare Diskriminierung verboten und somit auch bei Einsatz von KI.

Nicht zuletzt stellt sich natürlich die Frage: Haftung für KI oder lieber Kontrolle von KI? Dahingehend liegt der Streitpunkt der Perspektive im Vordergrund. Wird die Sicherheit und Schadensvermeidung (ex ante) präferiert, so soll auf Kontrolle von KI in Entwicklung und Anwendung zurückgegriffen werden. Liegt aber der Schadensausgleich (ex post) im Fokus, ist ein Konzept der Haftung von Künstlicher Intelligenz, beziehungsweise den Verantwortlichen zwingend. Auch hier seien aktuelle Entwicklungen, vor allem auf EU-Ebene, zu beobachten. So zum Beispiel eine 2018 gegründete hochrangige ExpertInnengruppe der EU-Kommission für Künstliche Intelligenz (HLEG AI). Weiterhin wurde ebenfalls im Jahre 2018 eine Datenethikkommission (DEK), unter Vorsitz von Christiane Wendehorst und Christiane Woopen, als Beratungsgremium der deutschen Bundesregierung eingerichtet. Diese hatte den Auftrag, innerhalb eines Jahres einen ethischen und regulatorischen Rahmen für Daten und KI zu entwickeln. Der im Oktober 2019 von der DEK vorgelegte Bericht enthält bereits ethische Richtlinien und 75 konkrete Handlungsempfehlungen. Somit sei der erste Schritt in die Richtung einer funkti-onierenden Struktur bereits getan.

Abschließend kann zusammengefasst werden, dass innerhalb der Thematik der Haf-tung von Künstlicher Intelligenz ein Bedarf nach Handlung aufgrund von Aktualität festzustellen ist. Danach sei nach der Referentin das geltende Recht auf KI und digitale Ökosysteme ganz allgemein nur unzureichend vorbereitet, wenngleich durch KI auch kein völliges ‚Verantwortungsvakuum‘ zu befürchten sei. Sowohl auf ‚physischer‘ als auch auf ‚sozialer‘ Ebene müssen Entwicklungen von Möglichkeiten, aber auch dement-sprechende Risiken, frühzeitig erkannt werden. Nicht nur die Erkennung spezieller Risiken trete hierbei in den Vordergrund, sondern sei vor allem die Relevanz einer Entwicklung von neuen Haftungskonzepten, um Schäden so gering wie möglich halten zu können, zu unterstreichen. Jedoch seien nach Christiane Wendehorst auf empirischer Ebene in naher Zukunft Maßnahmen zu erwarten, welche den Spagat zwischen einem hohen Schutzniveau und einem innovationsfreundlichen Klima in Europa ermöglichen sollen.


Aktuelles

„Normative Ordnungen“, herausgegeben von Rainer Forst und Klaus Günther, erscheint am 17. April 2021 im Suhrkamp Verlag

Am 17. April 2021 erscheint der Sammelband „Normative Ordnungen“ im Suhrkamp Verlag. Herausgegeben von den Clustersprechern Prof. Rainer Forst und Prof. Klaus Günther, bietet das Werk einen weit gefassten interdispziplinären Überblick über die Ergebnisse eines erfolgreichen wissenschaftlichen Projekts. Mehr...

Das Postdoc-Programm des Forschungsverbunds „Normative Ordnungen“: Nachwuchsförderung zwischen 2017 und 2020

Die Förderung des wissenschaftlichen Nachwuchses ist seit je her ein integraler Bestandteil des Forschungsverbunds „Normative Ordnungen“. Das 2017 neu strukturierte, verbundseigene Postdoc-Programm bietet die besten Bedingungen zu forschen und hochqualifizierte junge Wissenschaftler*innen zu fördern. Zum Erfahrungsbericht: Hier...

„Symposium on Jürgen Habermas’ Auch eine Geschichte der Philosophie“ herausgegeben von Rainer Forst erschienen

Als jüngste Ausgabe der Zeitschrift "Constellations: An International Journal of Critical and Democratic Theory" ist kürzlich das „Symposium on Jürgen Habermas, Auch eine Geschichte der Philosophie“ herausgegeben von Prof. Rainer Forst erschienen. Mehr...

Nächste Termine

7. Juli 2021, 18 Uhr

Vortragsreihe "Politische Falschheiten: Diagnosen und Konzepte": Prof. Nicola Gess (Universität Basel): Halbwahrheiten. Zur Manipulation von Wirklichkeit. Mehr...

8. und 9. Juli 2021

Jahreskonferenz des Forschungsinstituts Gesellschaftlicher Zusammenhalt: Zusammenhalt in der Krise. Mehr...

-----------------------------------------

Neueste Medien

Solidarität_Welche Rolle spielen Emotionen, Regeln, Infrastrukturen?

Prof. Dr. Sighard Neckel (Universität Hamburg und Assoziiertes Mitglied des Forschungsverbunds „Normative Ordnungen“)
Moderation: Rebecca Caroline Schmidt (Geschäftsführerin des Forschungsverbundes "Normative Ordnungen")
DenkArt "Solidarität_Aber wie?"

Das vermessene Leben

Prof. Dr. Vera King (Professorin für Soziologie und psychoanalytische Sozialpsychologie an der Goethe-Universität und geschäftsführende Direktorin des Sigmund-Freud-Instituts Frankfurt, PI von ConTrust)
Ringvorlesung "Algorithms - Between Trust and Control"

Videoarchiv

Weitere Videoaufzeichnungen finden Sie hier...

Neueste Volltexte

Rainer Forst (2021):

Solidarity: concept, conceptions, and contexts. Normative Orders Working Paper 02/2021. Mehr...

Annette Imhausen (2021):

Sciences and normative orders: perspectives from the earliest sciences. Normative Orders Working Paper 01/2021. Mehr...