Halbautonome Waffen, vollautonome Waffen, automatisierte Waffen oder autoregulative Waffen? Schon bei den Begrifflichkeiten von Waffensystemen, die auf Künstlicher Intelligenz basieren, brachte ein Podium auf dem Katholikentag in Erfurt zum Thema „Technologie des Todes“ das Publikum ins Schwitzen. Die wohl wichtigsten Antworten: Nur der Mensch kann autonom sein. Denn Maschinen könnten nicht urteilen. Sie funktionieren ausschließlich auf Grundlage von Berechnungen. Deswegen sei „autoregulative Waffen“ der bessere Begriff. Und: Die Bundeswehr wolle solche Waffen nicht, wie Brigadegeneral Rainer Simon zu Beginn deutlich machte.
Nachdem die Begrifflichkeiten geklärt waren, wurde es an vielen Stellen nicht klarer. Die zentrale Frage der Debatte, an der auch Grünen-Politiker Omid Nouripour, Friedensethikerin Nicole Kunkel und Jurist Andreas Schüller teilnahmen, lautete: Wie geht man mit solchen Waffensystemen, die komplett autonom funktionieren, um? Die Schwierigkeit bei dieser Frage? Diese Systeme, erklärte Simon, gibt es noch gar nicht. Und auch Schüller pflichtete bei, dass solche Systeme möglicherweise erst 2040 verfügbar seien.
Einig waren sich die Diskutanten bei der Frage, welche Rolle der Mensch spielen soll: die entscheidende, im wahrsten Sinne des Wortes. Denn der Mensch müsse immer am Ende einer Entscheidung stehen. Nach Wunsch von Nouripour müssten zukünftige Systeme auch Interventionsmöglichkeiten implementiert haben. Wenngleich bei automatisierten KI-Systemen der Mensch keine Rolle spielt, warf Simon ein. Er verwies auf Abwehrsysteme wie den israelischen „Iron Dome“, das automatisiert feindliche Raketen erkennt und bekämpft. Das sei militärisch unabdingbar. Ansonsten sei kein ausreichender Schutz gewährleistet. In einem solchen Fall würde sich wiederum die Problematik von autoregulativen Waffen ändern. Denn ein autoregulativer Abschuss von Raketen oder Drohnen richte sich nicht gegen Menschenleben.
Wer haftet?
Und damit drehte sich die Diskussion um ein weiteres Problem: Wer haftet für Fehler, die KI-basierte Waffensysteme machen, beispielsweise wenn Unbeteiligte zu Schaden kommen? Auch hier: Unklarheit. Denn die KI könne nicht zur Rechenschaft gezogen werden. Es komme auf den einzelnen Fall an und es gelte zudem weiterhin das Völkerrecht. Nouripour erwähnte die Schwierigkeiten, die bereits bei US-Drohnenangriffen in der Vergangenheit aufgetreten sind. Diese seien teilweise von der CIA ausgeführt worden. Das habe eine Strafverfolgung wegen ziviler Opfer nicht möglich gemacht. Beim US-Militär hätte es immerhin eine Militärgerichtsbarkeit gegeben.
Allerdings machte das Podium deutlich, dass solche Fragen geklärt werden müssen – auch international. Ebenfalls müsse man sich weltweit auf Richtlinien zur Nutzung von KI bei Waffensystemen einigen. Wenngleich sich das Podium einig war, dass mit China oder Russland wohl kaum ein Konsens gefunden werden könne. Dennoch, auf den Willen komme es an.
Der 103. Deutsche Katholikentag findet vom 29. Mai bis zum 2. Juni in Erfurt statt. Träger ist das Zentralkomitee der deutschen Katholiken (ZdK), ein Zusammenschluss katholischer Laien in Deutschland. Gastgeber ist jeweils das örtliche Bistum.