Ein selbstfahrendes Roboterauto der Firma Uber hat im März eine Fußgängerin angefahren und tödlich verletzt. Die Frau wollte eine mehrspurige Straße überqueren und hatte ihr Fahrrad geschoben. Im Unfallbericht der amerikanischen Verkehrssicherheitsbehörde heißt es, die Sensoren des Wagens hätten die Frau sechs Sekunden vor dem Zusammenstoß bemerkt. Allerdings habe die Software sie erst als unbekanntes Objekt eingestuft, dann dachte sie, die Person sei ein Fahrzeug, um es schließlich als Fahrrad einzuordnen.
In welche Richtung sich die Frau bewegte, konnte die Software nicht genau ausmachen. Das System wollte zwar eine Notbremsung veranlassen, diese Funktion sei aber abgeschaltet gewesen. Um unberechenbares Verhalten des Fahrzeugs zu vermeiden, sei sie nach Angaben der Behörde bei Uber-Autos nicht aktiv, wenn ein Computer das Steuer übernehme. Die Sicherheitsfahrerin am Steuer konnte das Auto ebenfalls nicht mehr rechtzeitig stoppen. Nun steht das Auto wegen fahrlässiger Tötung vor Gericht.
Nein, das tut es nicht. Und das ist das Problem.
Künstliche Intelligenz kann Fehleinschätzungen treffen
Damit sich ein Roboterwagen autonom im Straßenverkehr bewegen kann, muss er vieles lernen. Er muss sich orientieren, mit Sensoren Abstände, Geschwindigkeiten, Hindernisse wahrnehmen und entsprechend darauf reagieren. Um einen Menschen von einem Fahrrad zu unterscheiden, muss die Software des Autos zuvor viele Daten schlucken, Bilder und Bewegungsmuster von Menschen und Fahrrädern. Anhand dieser Daten kann sie im entscheidenden Moment berechnen, mit welcher Wahrscheinlichkeit ein vor dem Wagen auftauchendes Objekt dieses oder jenes ist. Fällt das Bewegungsmuster des unbekannten Objektes aus dem gelernten Raster, kann das die Software irritieren – sie weiß nicht, wie sie entscheiden soll, kommt möglicherweise zu einer Fehleinschätzung.
Denn Künstliche Intelligenz kann immer nur anhand bestimmter programmierter Regeln entscheiden. Sie ist nicht in der Lage, wirklich autonom, willentlich und reflektiert zu handeln, eine bestimmte Absicht zu verfolgen oder kreativ neue Lösungen in unbekannten Situationen zu finden. Deshalb können Geräte mit Künstlicher Intelligenz auch keine Verantwortung tragen. Niemand kann einen Roboter dafür zur Rechenschaft ziehen, wenn der einen Menschen verletzt oder tötet. Der Unfallwagen trägt keine Schuld, denn die ist an Verantwortung gebunden.
Verantwortung hat der Mensch
Noch sind autonome Fahrzeuge in der Testphase. Unfälle wie der jüngste – der nicht der erste ist – zeigen, dass hier noch einiger Entwicklungsbedarf besteht. Forscher und Entwickler sind davon überzeugt: Wenn die Technik ausgereift ist, wird es mit selbstfahrenden Autos weniger tödliche Unfälle im Straßenverkehr geben, als wenn Menschen die Fahrzeuge steuern. Denn die sind noch viel anfälliger für Fehler.
Allerdings wird die Frage der Verantwortung nicht gelöst werden. Die können nur Menschen übernehmen. Deshalb sollten autonome Fahrzeuge im normalen Straßenverkehr nicht völlig allein und ohne menschliche Kontrolle unterwegs sein. Denn im Zweifel muss jemand die Verantwortung übernehmen. Das können und dürfen Menschen nicht technischen Systemen übertragen. Uber hat im Übrigen seine Testfahrten mit autonomen Autos vorübergehend ausgesetzt.
Von: Jonathan Steinert