Lukas Brand forscht im Fachbereich Informatik der Rheinland-Pfälzische Technische Universität in Kaiserslautern über die Schnittmenge von Theologie und Künstlicher Intelligenz. Zu diesem Thema schrieb er auch seine Doktorarbeit. Brand hat Katholische Theologie und Mathematik studiert und forscht zu Themen der Ethik und Anthropologie der Digitalisierung, insbesondere der Künstlichen Intelligenz und Robotik, zu Fragen der Theologie der Virtualität und zum Einsatz von Robotik und KI-Systemen in der religiösen Praxis.
PRO: Herr Brand, woran forschen Sie gerade?
Lukas Brand: Ich forsche an der Frage: Kann man davon sprechen, dass Sprachmodelle wie ChatGPT und Gemini irgendetwas verstehen? Wir geben diesen KI-Modellen sprachliche Aufträge, die auch offen formuliert sein können, wie etwa: „Erklär mir doch mal diesen oder jenen Sachverhalt, als wäre ich fünf Jahre alt.“ Die Antwort ist dem Niveau eines Fünfjährigen angemessen. Woher weiß das System, wie Fünfjährige die Welt sehen? Versteht das System Sprache?
Was bedürfte es denn, damit man davon ausgehen kann, dass das System mich versteht?
Das ist die entscheidende Frage. Wir wissen vom Menschen, dass er in der Welt ist und bestimmte Erfahrungen in der Wirklichkeit macht. Diese Erfahrungen hat das Sprachmodell nicht. Es modelliert lediglich unsere Sprache nach einer bestimmten Vorgabe, nämlich: Wie wahrscheinlich folgt in einem Satz einer Sprache ein Wort auf eine bestimmte Kette anderer Wörter? Das System lernt also nicht, wie man sich mit Sprache auf die Welt bezieht, sondern nur Wahrscheinlichkeiten für Sprache. Deswegen ist meine These: Die Systeme verstehen nicht im klassischen Sinne Aussagen über die Welt. Aber man kann natürlich einwenden, dass das vielleicht schon ausreicht, und Verstehen nichts anderes ist als Sprache zu verarbeiten und auf einen Input einen entsprechend sinnvollen Output zu geben.
Wenn dem so ist und eine KI „nur“ Wahrscheinlichkeiten berechnet, hat sie ja im Grunde kein Bewusstsein und damit auch keine bestimmte Absicht in ihrer Handlung, richtig?
Ja, das wäre die Schlussfolgerung. Dinge wie Bewusstsein sind komplexe Konzepte, bei denen wir uns nicht eindeutig und einheitlich darauf geeinigt haben, was das eigentlich genau ist. Wenn man Bewusstsein messen will, hat man klassischerweise immer auf Sprache geschaut, kurz: Jemand hat Bewusstsein, wenn er sprechen kann. Doch jetzt haben wir Systeme, die sprechen, bei denen wir aber davon ausgehen, dass sie nicht denken.
Im Zuge der neuen Fähigkeiten von KI treten auch viele Kritiker auf. Yuval Harari etwa hat in seinem neuen Buch vor dem Untergang der Menschheit durch KI gewarnt. Wie sehen Sie die Kritik, auch angesichts der Tatsache, dass KI ja eigentlich nicht wirklich etwas will?
Ich bin mit der Kritik von Harari nicht im Einzelnen vertraut, aber oft sind es ja eher Gefahren, die die Leute zeichnen. Da gibt es Weltuntergangspropheten, die sagen, wir müssten damit rechnen, dass die KI uns übervorteilt oder die Herrschaft an sich reißt. Da bin ich einigermaßen zuversichtlich, dass das nicht passiert. Die Maschine hat keine Intention, die Welt zu beherrschen. Außerdem haben Systeme wie ChatGPT keine physischen Komponenten, mit denen sie auf die Welt zugreifen könnten. Sie können nicht einmal einen Code schreiben und den implementieren, um einen Zugriff auf die Welt zu erlangen, also etwa um meinen Computer zu hacken und damit mit der Welt zu interagieren.
Da sind wir schon mitten drin in Ihrer Dissertation. Da spielt die Frage mit herein: Hat eine Maschine denn eine Würde, die beachtet werden sollte, wie bei einem Menschen?
Ja, diese Fragen stellen sich im Anschluss. Ich würde zum jetzigen Zeitpunkt sagen, dass sie keine Würde haben und wahrscheinlich auch in Zukunft nicht haben werden, weil sie immer entwickelt werden als das Mittel zum Zweck, man entwirft die Maschine zumindest im Normalfall nicht als Zweck an sich. Aber da gehen die Meinungen möglicherweise auseinander. Inwiefern kriegen wir denn Kinder um ihrer selbst willen? Und ist es nicht auch denkbar, dass jemand eine Maschine allein aus Liebe baut? Dann wird sie eben nicht gebaut, um einen Zweck zu erfüllen, sondern weil es eben inhärent gut wäre, eine vollkommen selbstbewusste Maschine zu bauen.
In der Science-Fiction-Serie „Star Trek“ hat der Androide Data mehrmals diese Menschenwürde zugesprochen bekommen.
Ich kenne die Szene, wo Data argumentiert, dass er leidensfähig ist und deswegen als Person anerkannt werden muss. Das ist in der Tat interessant: Sollte es tatsächlich passieren, dass wir Maschinen bauen, die leiden, dann hätte man einen guten Ansatzpunkt, um zu sagen, das Leid dieser Entität sollte uns berühren, und wir sollten dem entgegenwirken. Aber auch hier stellt sich für mich die Frage: Wie sollte das passieren? Wenn beispielsweise eine KI von Google sagt, sie habe Angst davor abgeschaltet zu werden (wie vor einigen Jahren passiert), steht die Frage im Raum: hat hier jemand wirklich Angst, oder folgt da die KI der „Next Token Prediction“, also der Vorhersage der wahrscheinlichsten Wörter?
Sie haben Mathematik studiert und forschen in der Informatik, sind aber von Haus aus Theologe. Wo treffen sich diese beiden Fachbereiche?
Einerseits sind es ethische Fragen, die sich stellen. Wenn wir Software-Anwendungen entwickeln, implementieren wir möglicherweise nicht nur Intentionen und Überzeugungen, sondern wir berühren damit auch Werte, die muss man berücksichtigen. In meiner Arbeit hat mich besonders interessiert, dass damit implizit auch zunehmend Aussagen über Menschen gemacht werden. Wenn man behauptet, mein Roboter ist menschlich, oder hat menschliche Eigenschaften, dann macht man implizit eine Aussage darüber, was denn ein Mensch sein kann. Das hat Berührung mit der Theologie, auch wenn das den Informatikern oder etwa einem Elon Musk möglicherweise nicht bewusst ist.
Welche Technologien werden im Bereich der religiösen Praxis bereits eingesetzt?
Erst kürzlich gab es in Luzern einen Jesus-Avatar, mit dem man über seinen Glauben sprechen konnte. Der Bibel-Server hat jetzt einen Bot, der dem Nutzer hilft, die Bibel zu lesen oder Bibelstellen zu verstehen, der nennt sich Nikodemus.AI. Außerdem gibt es einen Gebetsassistenten namens CelesTE, wo es darum geht, die eigene religiöse Praxis durch ein technisches Gerät zu strukturieren. Es gibt zudem den „iRosary”, einen Rosenkranz, bei dem das Bewegen der Perlen digitale Gebete auf dem Handy auslösen. Es ist sozusagen katholisches, smartes Armband.
Erstaunlicherweise sind Menschen ja zu einem großen Teil bereit, einer Maschine ein Vertrauen entgegenzubringen, um sich ernsthaft mit ihr zu unterhalten.
Das Phänomen hat man schon in den 60er Jahren beobachtet. Joseph Weizenbaum, ein berühmter Informatiker, hat damals ein Programm namens „ELIZA“ geschrieben, das ein psychotherapeutisches Gespräch simulieren sollte. Manche Menschen haben diesem Computerprogramm im Wissen, dass es ein Computerprogramm ist, Dinge anvertraut, die sie anderen Menschen nicht so ohne Weiteres anvertrauen wollten. Es gibt also eine Mensch-Maschine-Interaktion, die offensichtlich von einer bestimmten Erwartungshaltung der Maschine gegenüber geprägt ist. Das können wir ernst nehmen. Ich glaube, das wird sich auf den Einsatz von Systemen in der religiösen Praxis auswirken. Man denke zum Beispiel an die Beichte. Es ist durchaus denkbar, dass Leute das, was sie normalerweise einem Priester in der Beichte erzählen sollten, viel lieber einer KI erzählen würden. Wir sind uns aber katholischerseits einig, dass von einer Maschine keine Absolution erteilt werden kann. Trotzdem bin ich der Meinung, dass auch eine Maschine Menschen durchaus auf Gott ausrichten kann.
Gibt es denn schon ein Fach Theologie-Informatik oder Informatik-Theologie?
Nein. Es gibt Ethik der Informatik oder der künstlichen Intelligenz auf einer philosophischen Ebene. Und es gibt vereinzelt Theologen, die sich jetzt verstärkt mit der Digitalisierung beschäftigen. Die Digitalisierung und die KI sind Themen, welche die Theologie durchaus betreffen können. Einerseits methodisch: Wie können wir die Technologien als Werkzeuge nutzen, um wissenschaftlich Theologie zu betreiben? Andererseits stellen diese Themen die fundamentaltheologischen Grundlagenfragen: Was ist der Mensch? Was ist Würde? Wann fängt Glaube an? Wir überlegen, ob man nicht Studenten der Theologie darauf vorbereiten sollte, dass die Gesellschaft, in der sie sich als Christen in Zukunft bewegen, eine ist, die von diesen Systemen maßgeblich geprägt wird und durch die Menschen sich ihre Möglichkeit erschließen, und durch die Gottesbilder geprägt werden.
Ein solches Fach ist auch nicht für die nächste Zukunft geplant?
(lacht). Ich arbeite dran.
Herr Brand, vielen Dank für das Gespräch!