Moral für Maschinen: Wie programmiert man Gut und Böse?

Ungewohnter Anblick: Das selbstfahrende Auto von Google im öffentlichen Straßenverkehr. (Foto: Flickr User  bart; CC BY NC SA 2.0=

Ungewohnter Anblick: Das selbstfahrende Auto von Google im öffentlichen Straßenverkehr. (Foto: Flickr User bart; CC BY NC SA 2.0=

Experten sind optimistisch, dass Autos bald zuverlässig selbst fahren können. Doch sind sie auch den moralischen Entscheidungen gewachsen, die sie dabei unter Umständen treffen müssen? Autonome Maschinen, glauben Kritiker, könnten bald zu einer High-Tech-Katastrophe führen.

Die Lobby-Arbeit hat sich gelohnt: In mittlerweile drei Staaten darf Google in diesem Jahr seine selbstfahrenden Autos auf die Straße schicken. Die Hoffnung ist, dass diese Autos sicherer sind, besser und schneller reagieren als von Menschen gesteuerte Wagen – und so Menschenleben retten. Die Hoffnung ist berechtigt: Hunderttausende Kilometer haben die Autos unfallfrei zurückgelegt, mit nur minimalem Eingreifen der Menschen am Steuer.

Doch wie soll dieses Autopilot-Auto entscheiden, wenn beispielsweise ein Unfall unvermeidbar ist und es abzuwägen gilt, was Vorrang hat: Das Leben der Insassen oder das unbeteiligter Passanten? “Die möglichen Szenarien für automonome Systeme werden immer zahlreicher”, sagt Wendell Wallach, der sich als Experte in diesem Feld profiliert hat. “Zunehmend ist es für die Programmierer nicht mehr möglich, die Situationen vorauszusehen, in denen ethische Fragen auftauchen.”

Maschinen ohne eigene Moral

Wallach sucht am interdisziplinären Institut für Bio-Ethik der Yale-Universität nach Antworten für solche Fragen. Und er sagt, dass heute selbst die besten Maschinen und Algorithmen bloß “operative Moral” kennen; also bloß auf Situationen vorbereitet sind, die der Erschaffer der Maschine vorhergesehen und als entsprechende Reaktionen implementiert hat. Mit immer komplexeren Systemen ist das nicht mehr möglich. “Maschinen müssen ‘funktionale Moral’ lernen”, sagt Wallach. Das heißt, die Systeme müssten in einer unvorhergesehenen Situation Ethik-Fragen selbst beantworten können. Das selbstfahrende Auto muss entscheiden, ob es den Insassen in Gefahr bringt, oder unbeteiligte Passanten “opfert”.

In seinem Buch “Machine Morality” schildert Wallach mit Co-Autor Colin Allen eine ganze Reihe von Situationen, in denen Maschinen ethische Entscheidungen treffen. Müssen Algorithmen eine eigentlich nicht zulässige Kreditkarten-Zahlung freigeben, wenn diese im Notfall getätigt wird? Wie reagiert ein Pflegeroboter auf einen Patienten, der seine Medikamente nicht nehmen will? Und wie erkennt eine Maschine überhaupt, dass sie sich in einer ethisch schwierigen Situation befindet? “Wenn ein Kind zu dir kommt, und dich fragt, ‘was soll ich in dieser Situation tun?’ – da kümmerst du dich noch nicht einmal darum, ob das Kind die richtige Entscheidung trifft, sondern bist schon froh, dass es die richtige Frage stellt. Mit Robotern sind wir noch nicht so weit.”

Unvorhersehbare Effekte

In rasender Geschwindigkeit hat sich die Weltgesellschaft mit Algorithmen und Maschinen umgeben, die teils so komplex sind, dass auch ihre Erschaffer sie nicht mehr verstehen. Handelsalgorithmen an den Börsen sind dafür ein gutes Beispiel. Der Flashcrash von 2010 führte durch eine Vernetzung von Ereignissen zu riesigen Verlusten an den Märkten. Wallach beschreibt in der Einleitung zu seinem Buch ein Szenario, in dem eine Serie von Fehlern von unabhängig voneinander programmierten autonomen Maschinen eine Katastrophe auslöst, bei der Hunderttausende sterben; eine High-Tech-Katstrophe ausgelöst durch eine einzige spekulative Order eines automatisierten Börsencomputers.

Der Science-Fiction-Autor Isaac Asimov hat Regeln für diese Fragen parat. Doch die “Drei Regeln der Robotik” reichen nicht mehr. Im Falle des selbstfahrenden Autos, in der in jedem Falle Menschenleben in Gefahr sind, würde die Software wohl abstürzen, hätte sie nur Asimovs Regeln zur Verfügung. Und für Kriegsroboter sind sie komplett untauglich, sehen sie doch vor, menschliches Leben in jedem Fall zu schützen. Im Gespräch mit Hyperland sagt Wallach, das Interesse an dem Thema nehme weltweit zu. Doch Politik und Recht hinkten hinterher. Seine Forderung nach einem “Ethik-Algorithmus” mag wie Science-Fiction klingen. Aber das war im Fall der selbstfahrenden Autos ähnlich.

(Das ZDF ist für den Inhalt externer Internetseiten nicht verantwortlich)

Autor: Michaël Jarjour

Autorenbild

Michaël Jarjour ist freier Journalist in Brooklyn, New York. Er berichtet über Technologie, Start-ups, Medien und darüber, wenn sie auf Politik treffen. Folgen Sie ihm auf Facebook und Twitter. michaeljarjour.com.
Alle Beiträge von Michaël Jarjour anzeigen

6 Kommentare

  • M.G.
    19.01.2013, 16:53 Uhr.

    Mir ist noch keine Technik begegnet,die Gut und Böse unterscheiden kann,sonst bräuchte ja die Menschheit sich nicht mehr mit den Gerechtigkeitssinn.

  • Thorsten
    19.01.2013, 23:30 Uhr.

    Ich denke, das Auto-Bespiel passt — wie so häufig! — nicht besonders gut zur Thematik. Denn in den wenigsten Fällen müssen Menschen im Straßenverkehr moralische Entscheidungen treffen. Droht ein Unfall, bleibt selten Zeit für “überlegte” Handlungen, der Mensch reagiert eher im Rahmen seiner Reflexe.

    Das Problem lässt sich besser an einem anderen Google-Algorithmus verdeutlichen: Der berühmt-berüchtigten Autovervollständigung (hm, ja, irgendwie auch ein Auto-Beispiel …). Unterlassungs- und Schadenersatzklagen von Prominenten, die sich mit schlüpfrigen Begriffen in Verbindung gebracht sahen, wies Google zurück. Das Argument: Das Vergehen wurde nicht von Google-Mitarbeitern begangen, sondern von Google-Computern. Und Computer kann man nicht für ihr Handeln zur Verantwortung ziehen, folglich weder verklagen noch belangen.

    Meiner Meinung nach ein Meilenstein in der Rechtsphilosophie: Zum ersten Mal hat ein Unternehmen erfolgreich nicht nur menschliche Arbeitskraft, sondern auch Verantwortung an eine Maschine “out-ge-sourced”.

  • mstemmle
    21.01.2013, 17:26 Uhr.

    Computer die Moral lernen sollen…

    Ein herber Schlag gegen Kinderschänder und Kriminelle allgemein wäre das; aber ist es nicht auch das Durchbrechen der Moralvorstellungen, die Kreativität und einige neue Lösungsansätze erst möglich machen?

    Vielleicht will der Patient die Medikamente eben deshalb nicht nehmen, weil für deren Herstellung zehntausende Kinder sterben mussten. Wer legt die Moral fest? Der Hersteller, ein unabhängiges Gremium, gar die westliche Welt?

    Ich glaube das sind alles viel zu viele unlösbare Fragen.

  • GAMEPROFF
    21.01.2013, 19:12 Uhr.

    Schönes Beispiel dafür, dass eben NICHT alles mit Computern voll gestopft werden muss.

  • Armin
    21.01.2013, 20:53 Uhr.

    Es hätte erklärt werden sollen, warum die Software, die nach Asimov handelt, abstürzt. Weil beide Optionen (Passant stirbt, Insasse stirbt) absolut gleich schlecht sind? (Diese Thematik wurde in https://en.wikipedia.org/wiki/Latent_Image_%28Star_Trek:_Voyager%29 behandelt.)

    Und dass die Robotergesetze für Kriegsroboter ungeeignet sind, ist volle Absicht. Warum wird hier unterstellt, das sei ein Designfehler?

    • Silvan
      22.01.2013, 23:45 Uhr.

      @ Armin: Es ist wohl gemeint, dass der Rechner keine zulässige Option findet. Und, äh, die Software irgendwie schlecht ist, sodass er dann abstürzt (dass er in einer Endlosschleife hängenbleibt, hätte ich ja noch nachvollziehen können).

      Als erstes sehe ich bei dem Thema erstmal das Problem, einen Computer zu befähigen, eine Problemsituation genau zu erkennen und genau definierte Vorgehensweisen zu ermitteln, sowie sich des moralischen Dilemmas “bewusst” zu werden.
      Einen Computer entscheiden zu lassen, welchem Menschen Schaden zugefügt wird, ist für mich einigermaßen unvorstellbar oder zumindest ein Problem, für das es keine akzeptable Lösung gibt. :/

Kommentare geschlossen

Dieser Beitrag kann nicht länger kommentiert werden.