T. Garnier/Unsplash

Das große KI-Dilemma

von Christian Zeiser

Ein Beispiel: Ein autonom fahrendes Auto gerät in eine Situation, in der eine Kollision unausweichlich ist. Nach links auszuweichen würde zu einem Zusammenstoß mit einem anderen Auto mit vier Insassen führen, geradeaus ist gerade ein Kind auf der Straße hingefallen. Die dritte Option ist, nach rechts auszuweichen, eine Leitplanke zu durchbrechen und in eine Schlucht zu stürzen. Ein menschlicher Fahrer würde gar nicht in der Lage sein, eine Entscheidung zu treffen, sondern einfach irgendwie reagieren, mehr aus Reflex als aus Vernunft. Ein autonom fahrendes Auto samt bordeigener künstlicher Intelligenz hingegen kann entscheiden – und muss es sogar. Jemand muss ihm also vorher Regeln programmieren, die es dann befolgt.

Glücklicherweise wird es nicht häufig zu solchen Situationen kommen. Mit fortschreitender technischer Entwicklung wird das Auto schon vorher von der zu erwartenden Situation wissen und bremsen. Auch können autonom fahrende Autos Gefahren viel schneller erkennen und Gegenmaßnahmen ergreifen, als es die Schrecksekunde eines menschlichen Fahrers erlauben würde. Obendrein ist die überwiegende Mehrzahl an Unfällen auf menschliche Fehler zurückzuführen, ein autonomes Auto dagegen fährt nicht betrunken, wird nicht müde und textet auch nicht am Steuer. Künstliche Intelligenz kann für mehr Sicherheit sorgen. Sie nicht zu nutzen, wäre verantwortungslos.

Regeln für den Extremfall

Doch ausweglose Situationen wie das plötzlich hinter einem parkenden Auto auf die Straße laufende Kind oder die plötzlich versagenden Bremsen wird es immer geben. Deshalb bleibt das Dilemma: Jede künstliche Intelligenz befolgt bestimmte Richtlinien, und diese muss man ihr vorgeben. Soll das Auto also in ausweglosen Situationen jüngere Menschen zu verschonen versuchen, auf Kosten älterer? Soll es sich selbst und seine Insassen opfern, wenn dadurch Unbeteiligte gerettet werden können? Fragern wie diese müssen bei der Programmierung der Auto-KI beantwortet werden und sie stellen nicht nur die Programmierer, sondern Gesetzgeber und ganze Gesellschaften vor ein Dilemma.

Wie tief dies ist, führt einem die „Moral Machine“ des Massachusetts Institute Of Technology vor Augen. Anhand von 13 Beispielsituationen werden wir dort aufgefordert, eben jene Frage zu beantworten: Wen soll das Auto in einer ausweglosen Situation bevorzugen, die Jüngeren gegenüber den Älteren, Frauen gegenüber Männern, Außenstehende gegenüber Fahrzeuginsassen? Zu dem unlösbaren ethischen Dilemma kommt ein juristisches: Nach der Verfassung der Bundesrepublik Deutschland ist die Würde des Menschen unantastbar. Dies bedeutet, dass wir das Leben von Menschen gar nicht gegeneinander aufwiegen dürfen. Wir dürfen noch nicht einmal festlegen, dass ein Auto, wenn es die Wahl hat, lieber den Tod einer kleinen Gruppe in Kauf nehmen soll, wenn dadurch eine größere Gruppe verschont bleibt.

Die Lösung: Nur begrenzt ethisch, aber menschlich

Was kann man also tun, damit eine künstliche Intelligenz, die ein Auto steuert, sich ethisch vertretbar verhält? Und vor allem: Wer soll die Entscheidung treffen, was solche Fahrzeuge in derartigen Situationen tun? Fragen wie diese kann man nicht den Herstellern überlassen, sie müssen von der Gesellschaft beantwortet werden. Dieses Ziel verfolgt unter anderem die oben genannte „Moral Machine“ des MIT. Aus menschlichen Entscheidungen, von überall auf der Welt gesammelt, soll so eine globale Maschinen-Ethik entstehen, an der sich künstliche Intelligenz orientieren kann. Ein Auto, mit den Erkenntnissen aus der „Moral Machine“ gefüttert, würde dann so vorgehen, wie es die Mehrheit der Menschen für richtig hält. Vorstellbar ist aber auch, dass einzelne Staaten festlegen, wie die Fahrzeuge sich in ihrem Land zu verhalten haben, welchem Leben sie den Vorzug gegenüber anderen Leben geben sollen. In Deutschland dürfte dies wegen unserer Verfassung kaum möglich sein, in anderen Ländern hingegen schon.

So stellt künstliche Intelligenz ganze Gesellschaften also vor neue Fragen. Sie zu beantworten wird schwierig werden. Sie nicht zu beantworten ist aber keine Option.

Artikel vom

von Christian Zeiser

Der selbstständige Journalist beschäftigt sich seit 15 Jahren mit smarter Technik.
Angefangen hat alles mit dem Thema "3 Megapixel: Digitalkameras werden erwachsen".
Heute verfolgt er interessiert die Entwicklung des Internet der Dinge.

Zurück