Das Fraunhofer-Institut rechnet damit, dass autonomes Fahren „bereits vor 2025 technische Reife erlangen wird“. Dann rechnen Algorithmen aus, ob das Fahrzeug beschleunigt, überholt oder bremst, ohne dass der Fahrer sich einmischt. Befürworter argumentieren, dass der Fahrgast dadurch Zeitersparnis hat. Er könnte während der Reise arbeiten oder ausspannen. Auch menschliches Versagen, das bei Unfällen immer ein gewichtiger Faktor ist, könnte durch die Technik weitgehend ausgeschaltet werden. Der Unsicherheitsfaktor Mensch „stört“ dann nicht mehr in dem System, der Verkehr würde dadurch sicherer, reibungsloser und zügiger laufen. Das mag stimmen.
Im Kern stellt sich aber auch die Frage, ob wir Computern letztlich Entscheidungen über Leben und Tod übertragen wollen. Etwa, wenn in Sekundenbruchteilen zu entscheiden ist, ob entweder eine Gruppe Senioren oder eine junge Mutter vom Fahrzeug erfasst werden, weil durch einen plötzlichen technischen Defekt ein Unfall unausweichlich ist. Entscheidet der Computer für weniger Opfer, also quantitativ? Oder zieht er auch die jeweils verbrauchte Lebenszeit in seine Kalkulation mit ein – entscheidet also qualitativ? Oder wählt er gar zufällig eine der möglichen Optionen? Wenn Verkehrsminister Alexander Dobrindt (CSU) eine Expertenkommission beruft, die Antworten auf diese ethischen Fragen in Grenzsituationen liefern soll, ist das ein Beweis, dass die Utopie bald Realität sein könnte. Das bereitet Unbehagen.
Es gibt keinen Ethik-Chip
Computer fällen Entscheidungen auf der Basis vorhandener Daten und daraus errechneter Erwartungswerte. Das taugt für die Steuerung der Heizung, des Lichts, dem Befüllen von Kühlschränken und für Börsenspekulationen. Menschen haben ihnen das mal beigebracht. Wer Entscheidungen auf Maschinen überträgt, nimmt dabei in Kauf, dass damit gleichzeitig Menschen aus der Verantwortung genommen werden. Dass sie nicht mehr gezwungen sind, verantwortungsvoll zu handeln.
Darin liegt ein Dilemma. Denn letztlich ist immer ein Mensch verantwortlich. Entweder der, der das Auto fährt, oder der, der den Computer programmiert hat, der nun das Auto für den Menschen steuert. Und wenn Computer Entscheidungen treffen über Leben und Tod eines Menschen, nehmen sie ihm die von Gott gegebene Würde. Der Mensch wird vom Rechner zur sozio-ökonomischen Rechengröße, zum Risiko, zum Kostenträger reduziert. Einen „Ethik-Chip“, der auf der Grundlage universeller Werte Entscheidungen abwägt und dafür die Verantwortung übernimmt, gibt es bislang nicht. Es wird ihn nicht geben. Es ist wichtig, dass der Mensch auch künftig selbst über sein Tun und Handeln bestimmt. Er kann dazu intelligente Maschinen programmieren. Aber die Verantwortung und finale Kontrolle muss der Mensch behalten. Es geht um nichts weniger als um seine Menschenwürde. (pro)
Von: nob