Moral für Maschinen: Wie programmiert man Gut und Böse?

Ungewohnter Anblick: Das selbstfahrende Auto von Google im öffentlichen Straßenverkehr. (Foto: Flickr User  bart; CC BY NC SA 2.0=

Ungewohnter Anblick: Das selbstfahrende Auto von Google im öffentlichen Straßenverkehr. (Foto: Flickr User bart; CC BY NC SA 2.0=

Experten sind optimistisch, dass Autos bald zuverlässig selbst fahren können. Doch sind sie auch den moralischen Entscheidungen gewachsen, die sie dabei unter Umständen treffen müssen? Autonome Maschinen, glauben Kritiker, könnten bald zu einer High-Tech-Katastrophe führen.

Die Lobby-Arbeit hat sich gelohnt: In mittlerweile drei Staaten darf Google in diesem Jahr seine selbstfahrenden Autos auf die Straße schicken. Die Hoffnung ist, dass diese Autos sicherer sind, besser und schneller reagieren als von Menschen gesteuerte Wagen – und so Menschenleben retten. Die Hoffnung ist berechtigt: Hunderttausende Kilometer haben die Autos unfallfrei zurückgelegt, mit nur minimalem Eingreifen der Menschen am Steuer.

Doch wie soll dieses Autopilot-Auto entscheiden, wenn beispielsweise ein Unfall unvermeidbar ist und es abzuwägen gilt, was Vorrang hat: Das Leben der Insassen oder das unbeteiligter Passanten? “Die möglichen Szenarien für automonome Systeme werden immer zahlreicher”, sagt Wendell Wallach, der sich als Experte in diesem Feld profiliert hat. “Zunehmend ist es für die Programmierer nicht mehr möglich, die Situationen vorauszusehen, in denen ethische Fragen auftauchen.”

Maschinen ohne eigene Moral

Wallach sucht am interdisziplinären Institut für Bio-Ethik der Yale-Universität nach Antworten für solche Fragen. Und er sagt, dass heute selbst die besten Maschinen und Algorithmen bloß “operative Moral” kennen; also bloß auf Situationen vorbereitet sind, die der Erschaffer der Maschine vorhergesehen und als entsprechende Reaktionen implementiert hat. Mit immer komplexeren Systemen ist das nicht mehr möglich. “Maschinen müssen ‘funktionale Moral’ lernen”, sagt Wallach. Das heißt, die Systeme müssten in einer unvorhergesehenen Situation Ethik-Fragen selbst beantworten können. Das selbstfahrende Auto muss entscheiden, ob es den Insassen in Gefahr bringt, oder unbeteiligte Passanten “opfert”.

In seinem Buch “Machine Morality” schildert Wallach mit Co-Autor Colin Allen eine ganze Reihe von Situationen, in denen Maschinen ethische Entscheidungen treffen. Müssen Algorithmen eine eigentlich nicht zulässige Kreditkarten-Zahlung freigeben, wenn diese im Notfall getätigt wird? Wie reagiert ein Pflegeroboter auf einen Patienten, der seine Medikamente nicht nehmen will? Und wie erkennt eine Maschine überhaupt, dass sie sich in einer ethisch schwierigen Situation befindet? “Wenn ein Kind zu dir kommt, und dich fragt, ‘was soll ich in dieser Situation tun?’ – da kümmerst du dich noch nicht einmal darum, ob das Kind die richtige Entscheidung trifft, sondern bist schon froh, dass es die richtige Frage stellt. Mit Robotern sind wir noch nicht so weit.”

Unvorhersehbare Effekte

In rasender Geschwindigkeit hat sich die Weltgesellschaft mit Algorithmen und Maschinen umgeben, die teils so komplex sind, dass auch ihre Erschaffer sie nicht mehr verstehen. Handelsalgorithmen an den Börsen sind dafür ein gutes Beispiel. Der Flashcrash von 2010 führte durch eine Vernetzung von Ereignissen zu riesigen Verlusten an den Märkten. Wallach beschreibt in der Einleitung zu seinem Buch ein Szenario, in dem eine Serie von Fehlern von unabhängig voneinander programmierten autonomen Maschinen eine Katastrophe auslöst, bei der Hunderttausende sterben; eine High-Tech-Katstrophe ausgelöst durch eine einzige spekulative Order eines automatisierten Börsencomputers.

Der Science-Fiction-Autor Isaac Asimov hat Regeln für diese Fragen parat. Doch die “Drei Regeln der Robotik” reichen nicht mehr. Im Falle des selbstfahrenden Autos, in der in jedem Falle Menschenleben in Gefahr sind, würde die Software wohl abstürzen, hätte sie nur Asimovs Regeln zur Verfügung. Und für Kriegsroboter sind sie komplett untauglich, sehen sie doch vor, menschliches Leben in jedem Fall zu schützen. Im Gespräch mit Hyperland sagt Wallach, das Interesse an dem Thema nehme weltweit zu. Doch Politik und Recht hinkten hinterher. Seine Forderung nach einem “Ethik-Algorithmus” mag wie Science-Fiction klingen. Aber das war im Fall der selbstfahrenden Autos ähnlich.

(Das ZDF ist für den Inhalt externer Internetseiten nicht verantwortlich)

Autor: Michaël Jarjour

Autorenbild

Michaël Jarjour ist freier Journalist in Brooklyn, New York. Er berichtet über Technologie, Start-ups, Medien und darüber, wenn sie auf Politik treffen. Folgen Sie ihm auf Facebook und Twitter. michaeljarjour.com.
Alle Beiträge von Michaël Jarjour anzeigen