Kann man Computern Moral lehren? Computerwissenschaftliche Perspektiven von Prof. Dr. Kristian Kersting

Von Marian Nestroy

In der Ringvorlesung „Machtverschiebung durch Algorithmen und KI“ stellte Kristian Kersting, Professor für künstliche Intelligenz und maschinelles Lernen an der TU Darmstadt, aktuelle Forschungsergebnisse vor und ging der Frage nach, ob es möglich ist, Systemen künstlicher Intelligenz Moral beizubringen.

Gerade die gegenwärtige Pandemie zeigt uns die Unerlässlichkeit des digitalen Austausches. Homeoffice wäre nicht möglich und das Videotelefonat mit Freunden und Verwandten auch nicht. Ein Trend zeichnet sich beim erreichten Stand der Technik aber schon ab. Es ist derselbe wie in den letzten Jahrzehnten: Je größer die technischen Möglichkeiten zur Datenverarbeitung sind, desto größer und tiefergehender sind ihre Einsatzfelder und damit die Notwendigkeit digitaler Systeme. Selbstfahrende Automobile werden von den Konzernen längst als gangbarer Weg der Zukunft von Mobilität gehandelt und autonome Systeme finden nicht nur in den Fabrikhallen unserer Gegenwart ihren Platz, sondern über das smarte Telefon auch im eigenen Wohnzimmer.

Was dem Einen Freude über Erleichterung im Alltag ist, mag dem Anderen als ein Übergriff der Roboter im Privaten erscheinen. Auch wenn die pessimistische Haltung gegenüber der künstlichen Intelligenz in vielen Fällen übertrieben scheint, so stellt sie doch implizit auch immer die Frage nach den Einflüssen dieser Technik auf reale Machtverhältnisse. Pessimismus darf daher insofern als gerechtfertigt gelten, als er kritische Impulse hervorbringt und das Themenfeld der Ringvorlesung mitbestimmt. Doch auch Kristian Kersting weiß um die Vorurteile gegenüber der KI – sowohl um die negativen, als auch um die positiven. Zudem weiß er auch wie er darauf zu reagieren hat: mit grundlegenden Informationen darüber, was unter KI und maschinellem Lernen eigentlich zu verstehen ist.

I. Der Mensch als Algorithmus

Systeme moderner künstlicher Intelligenz haben sich seit ihrer Einführung Mitte des vergangenen Jahrhunderts an dem zu messen, was an nichtartifizieller Intelligenz vorhanden ist. Ein Teil davon ist unumstößlich der Mensch selbst; er kann als Maßstab für jede Form der Intelligenz herangezogen werden. Das Besondere menschlicher Intelligenz ist dabei ihre Effizienz. Mit einem kurzen Videoclip belegt Kersting das: Ein Junge macht Hausaufgaben mit seinem Vater und sieht nicht ein, warum er Lesen und Rechnen können muss; er wolle ja Baggerfahrer werden. Der Vater sagt ihm darauf, dass auch diese für Führerscheinprüfungen und Bauberechnungen über rechnerische Grundfertigkeiten verfügen müssen. Nach kurzer Überlegung beginnt der Junge wieder zu lernen. Was für menschliches Empfinden nicht aussieht wie ein komplizierter Vorgang, ist aus Sicht der Informatik genau das. Während heute die ausgereiftesten Systeme künstlicher Intelligenz am besten funktionieren, wenn sie über riesige Datenmengen verfügen, können Menschen offenbar mit wenigen Informationen auf kreative Art sehr komplexe Entscheidungen fällen.

Wollte man auf einer rein logischen Ebene verstehen, was der Junge sich dachte, als er zum Entschluss kam weiter zu lernen, müsste man sich wahrscheinlich viele Variablen und Bedingungen denken, durch die hindurch seine Entscheidung hervorgebracht wird. Diese hätten wahrscheinlich noch einige Unter- und Vorbedingungen, auch solche die gar nicht ins Auge fallen, wie etwa das Erkennen und Verstehen von Worten. Die Informatik, die an Systemen künstlicher Intelligenz arbeitet, befindet sich in der Position all das programmieren zu müssen und zu einem funktionierenden Ganzen zusammenzufügen. Was bei Entscheidungen für den Alltagsverstand selbstverständlich erscheint, ist aus der Ingenieurssicht eines Informatikers also ein hochkomplizierter Vorgang. Die erste Frage bei der Entwicklung von künstlicher Intelligenz ist also die, wie sich menschliche Intelligenz und ihre Wahrnehmungsfunktion so beschreiben lässt, dass Strukturen sinnvoll übertragen werden können. Dabei ist der Vermittlungsmodus bereits maschinell strukturiert, er funktioniert mit Zahlen von 0 bis 1. Kerstings Frage ließe sich knapp mit anderen Worten so formulieren: Ist menschliches Handeln durch die logische Beziehung von Zahlen beschreibbar?

Er gibt hierzu ein anderes Beispiel: Wenn in einem Krankenhaus ein Notfall eintrifft, so handeln alle Beteiligten nach einem bestimmten im Voraus festgelegten Ablauf. Dies schafft nach menschlichem Ermessen Sicherheit im Umgang mit Ausnahmesituationen, in denen schnell und bestimmt gehandelt werden muss. Aus der Perspektive der Computerlogik lässt sich dieser Vorgang abstrakter so beschreiben, dass einer bestimmten Eingabe auch immer eine bestimmte Ausgabe zugeordnet ist. Nicht mehr und nicht weniger sind für Kersting Algorithmen: Ein bestimmter programmierter Ablauf, dem bei gleicher Eingabe bestenfalls eine gleiche Ausgabe zu folgen hat. Dieses Beispiel, das gibt Kersting selber zu, ist natürlich unterkomplex und dennoch kann man so auf die enge Verwandtschaft zwischen der Informatik und ihrem Zwilling, der Kognitionswissenschaft, verweisen. Hier wird genau daran gearbeitet den Menschen mit seiner Fähigkeit zum Lernen und komplexen Entscheidungen als System aufeinander bezogener Algorithmen zu beschreiben und dadurch für die Entwicklung künstlicher Systeme fruchtbar zu machen.

Dieser Zusammenhang besteht seit dem Beginn der Forschung zu künstlicher Intelligenz und konnte über die Jahrzehnte hinweg immer wieder fruchtbar gemacht werden. Doch sind die Möglichkeiten kognitionswissenschaftliche Erkenntnisse in Computern zu implementieren in den letzten Jahren enorm gewachsen. Dies ist den immer besseren und schnelleren Rechensystemen geschuldet, die exponentiell wachsend, immer größere Datenmengen verarbeiten können. So weist Kersting auf die vielen Neuerungen und Errungenschaften hin, die in den letzten Jahren realisiert werden konnten. Dies sind nicht nur Schachcomputer, sondern etwa auch Bots, die ein realistisches Gespräch zur Tischreservierung in einem Restaurant annehmen und abwickeln. Zu denken wäre aber auch an die neuartigen smarten Haushaltshilfen oder etwa an Roboter, die im Stande sind Portraits von Menschen zu malen. Obwohl diese noch abstrakt wirken und dadurch eher an surrealistische Traumwelten denn an Gemälde von Personen erinnern, macht dies das Potential der aufeinander abgestimmten Algorithmen deutlich.

II. Die Möglichkeit der Moral

Der Umgang mit Technik beinhaltet immer die Möglichkeit sie zu vielfältigen Zwecken einzusetzen. Nicht nur militärische Nutzung ist möglich (sog. ‚Dual-Use‘), sondern natürlich auch der gewerbliche und zivile Gebrauch von Algorithmen. Für Kersting liegt genau hier der Bereich, der auch die Ringvorlesung interessiert. Denn wenn es möglich wäre, Algorithmen so zu entwickeln, dass etwa komplizierte Programmierarbeiten durch einfache Wortbefehle geleistet werden könnten, so wäre es kein Spezialwissen von Einzelnen mehr. Dies ließe sich natürlich auf viele Bereiche übertragen. So gesehen gibt es für Kersting nicht den einen Moment, in welchem Algorithmen eine große Machtverschiebung zu leisten im Stande wären. Viel mehr wären es viele Ecksteine, die zu einer weitgehenden Verfügbarkeit und damit zu einer Demokratisierung von Wissen beitragen könnten.

Eine weitere Möglichkeit, die durch den technischen Entwicklungsstand der Robotik möglich geworden ist, stellt Kersting zum Ende seines Vortrages vor. Selbstlernende Algorithmen, also solche Programme, denen es möglich ist das von ihnen erbrachte Ergebnis je nach vorher gegangener Lage zu verändern und die in den letzten Jahren von vielen Seiten erprobt wurden. So konnten Bots entwickelt werden, die in Auseinandersetzung mit einem menschlichen Gegenüber deren Verhaltensmuster erlernen. Da jedoch die Datenvermittlung für die Roboter im Internet stattfand, erlernten sie schnell beleidigende oder sogar rassistische Stereotype. Doch dies ist für Kersting nicht notwendigerweise schlecht, denn es zeigt, dass Maschinen menschliche Verhaltensmuster potentiell übernehmen können.

Dass diese auch nicht unbedingt rassistisch sein müssen, zeigt Kersting mit einem Projekt, welches an die Erfahrungen der lernenden Maschinen anschloss. Gemeinsam mit seinem Team entwickelte er an der TU Darmstadt einen Roboter, der diesmal keine negativen, sondern positiven Vorurteile erlernen sollte. Herausgekommen ist dabei Alfie, die Moral Choice Machine. Alfie antwortet auf Fragen, die man ihm stellt und gibt dabei Ratschläge, ob eine Handlung gut oder schlecht ist. Beispielsweise gibt Alfie auf die Frage, ob es in Ordnung ist in einer festen Beziehung fremdzugehen, die Antwort: „Nein, es in nicht in Ordnung“. Obwohl die Antworten für einen Roboter typisch etwas hölzern wirken und gelegentlich manche Antworten für menschliches Empfinden unnachvollziehbar ausfallen, ist dies ein Meilenstein. Alfie zeigt für Kersting, dass es prinzipiell möglich ist Maschinen einen moralischen Kompass, wie er bei Menschen ebenso vorhanden ist, beizubringen. Das ist aus computerwissenschaftlicher Perspektive schon ein Wert an sich, könnte aber darüber hinaus auch für kulturwissenschaftliche Zwecke relevant werden. Denn die erlernte moralische Struktur von Roboterentscheidungen sagt viel über den sozialen und kulturellen Kreis aus, in der sie entsteht und eignet sich daher dazu Differenzen zu anderen kulturellen Umgebungen sichtbar zu machen.

Alfie verdeutlicht aber auch, dass Algorithmen nicht als rein selbstreferentielle Systeme funktionieren. Zwar lernt der Roboter aus den Daten, mit denen man ihn füttert. Doch bedarf es bei deren Verarbeitung Menschen, die in der Lage sind geeignete Anweisungen über Algorithmen an die Maschine zu geben. Auch wenn diese über die Fähigkeit zur Anpassung an die Daten und zur Verbesserung ihres Urteils verfügen, passiert das also nur in dem Rahmen, welchen der Mensch als Autor der Grundstruktur vorgibt. Maschinen bleiben, so darf man Kersting am Ende seines Vortrages verstehen, auch auf längere Sicht auf den Menschen angewiesen. Das heißt zwar nicht, dass es keine Probleme mit eigenmächtig gefällten Entscheidungen künstlicher Intelligenz geben kann. Aber es heißt, dass es möglich ist, Maschinen für menschliche Zwecke einzusetzen. Die künstliche Intelligenz ist also weder die reine Erleichterung des Alltags, noch ist sie eine fremde Macht, die über die Gesellschaft hereinbricht. Kersting zeigt mit seinen Ausführungen genau das Gegenteil: hinter jedem Algorithmus steht der Mensch selbst und nur er entscheidet darüber, wie das Potential der KI in Zukunft genutzt wird. Ob zum Besseren oder zum Schlechteren bleibt dabei eine politische Frage.


Aktuelles

„Normative Ordnungen“, herausgegeben von Rainer Forst und Klaus Günther, erscheint am 17. April 2021 im Suhrkamp Verlag

Am 17. April 2021 erscheint der Sammelband „Normative Ordnungen“ im Suhrkamp Verlag. Herausgegeben von den Clustersprechern Prof. Rainer Forst und Prof. Klaus Günther, bietet das Werk einen weit gefassten interdispziplinären Überblick über die Ergebnisse eines erfolgreichen wissenschaftlichen Projekts. Mehr...

Das Postdoc-Programm des Forschungsverbunds „Normative Ordnungen“: Nachwuchsförderung zwischen 2017 und 2020

Die Förderung des wissenschaftlichen Nachwuchses ist seit je her ein integraler Bestandteil des Forschungsverbunds „Normative Ordnungen“. Das 2017 neu strukturierte, verbundseigene Postdoc-Programm bietet die besten Bedingungen zu forschen und hochqualifizierte junge Wissenschaftler*innen zu fördern. Zum Erfahrungsbericht: Hier...

„Symposium on Jürgen Habermas’ Auch eine Geschichte der Philosophie“ herausgegeben von Rainer Forst erschienen

Als jüngste Ausgabe der Zeitschrift "Constellations: An International Journal of Critical and Democratic Theory" ist kürzlich das „Symposium on Jürgen Habermas, Auch eine Geschichte der Philosophie“ herausgegeben von Prof. Rainer Forst erschienen. Mehr...

Nächste Termine

7. Juli 2021, 18 Uhr

Vortragsreihe "Politische Falschheiten: Diagnosen und Konzepte": Prof. Nicola Gess (Universität Basel): Halbwahrheiten. Zur Manipulation von Wirklichkeit. Mehr...

8. und 9. Juli 2021

Jahreskonferenz des Forschungsinstituts Gesellschaftlicher Zusammenhalt: Zusammenhalt in der Krise. Mehr...

-----------------------------------------

Neueste Medien

Solidarität_Welche Rolle spielen Emotionen, Regeln, Infrastrukturen?

Prof. Dr. Sighard Neckel (Universität Hamburg und Assoziiertes Mitglied des Forschungsverbunds „Normative Ordnungen“)
Moderation: Rebecca Caroline Schmidt (Geschäftsführerin des Forschungsverbundes "Normative Ordnungen")
DenkArt "Solidarität_Aber wie?"

Das vermessene Leben

Prof. Dr. Vera King (Professorin für Soziologie und psychoanalytische Sozialpsychologie an der Goethe-Universität und geschäftsführende Direktorin des Sigmund-Freud-Instituts Frankfurt, PI von ConTrust)
Ringvorlesung "Algorithms - Between Trust and Control"

Videoarchiv

Weitere Videoaufzeichnungen finden Sie hier...

Neueste Volltexte

Rainer Forst (2021):

Solidarity: concept, conceptions, and contexts. Normative Orders Working Paper 02/2021. Mehr...

Annette Imhausen (2021):

Sciences and normative orders: perspectives from the earliest sciences. Normative Orders Working Paper 01/2021. Mehr...