ChatGPT im Journalismus: Etwas Entscheidendes kann die Maschine nicht

Wird die KI schon bald menschliche Journalisten ablösen? Experten sind skeptisch, denn vor allem mit Fakten haben KI-Systeme es nicht so. Eine Informatik-Professorin fasst zusammen: „ChatGPT ist wie Autokorrektur auf Steroiden.“
Von Nicolai Franz

Wenn Medien über Künstliche Intelligenz (KI) berichten, dann beginnen sie mit großem Getöse: KI wird alles verändern, sie wird dem Menschen schon bald überlegen sein, womöglich wird sie unkontrollierbar, von Matrix- bis zu Skynet-Dystopien ist alles dabei.

Nicht erst seit ChatGPT berühmt wurde, machen sich auch Journalisten darüber Gedanken, wie sie KI-Systeme einsetzen können. Doch nicht nur Vorfreude auf neue technische Möglichkeiten dominieren, sondern auch die Angst davor, Journalisten könnten bald massenhaft arbeitslos werden, weil sie durch eine Software abgelöst werden.

Stimmt das? Wie weit ist die Technik vorangeschritten? Und welche Rolle spielt KI schon heute im Journalismus? Damit beschäftigte sich am Donnerstag die „Medien Triennale Südwest“ in Mainz.

Organisiert wird sie von den drei Landesmedienanstalten aus Rheinland-Pfalz, dem Saarland und Baden-Württemberg. Deren Aufgabe ist es, privaten TV- und Radiostationen auf die Finger zu schauen – zum Beispiel, ob sie den Medienstaatsvertrag einhalten. So war es auch nicht verwunderlich, dass nicht nur die scheinbar unendlichen Möglichkeiten der Technik eine Rolle spielten, sondern auch die Frage, welche Grenzen nötig sind, um sie einzuhegen.

Wer hat es geschrieben? Mensch oder KI?

Es wäre schon heute kaum ein Problem, ein KI-System mit dem Schreiben einfacher Artikel zu betrauen. Dennis Horn vom WDR Innovation Hub stellte Anwendungen vor, die sein Team für die Sportschau entwickelt hat, zum Beispiel den „Roboreporter“. Dieses Tool wurde zunächst mit in der Sportberichterstattungen typischen Formulierungen gefüttert. Der „Roboreporter“ zieht sich Spieldaten aus der Datenbank der DFL (Deutsche Fußball Liga) – zum Beispiel das Spielergebnis, Auswechslungen, Rote Karten usw. – und gibt sie in ein KI-System, das daraus einen Text generiert. Laut Horn funktionierte das bereits ziemlich gut.

Allerdings komme bisher noch keine KI-basierte Anwendung zum Einsatz in der Berichterstattung der Sportschau. Das liegt am Selbstverständnis des Innovation Hubs: Sein Auftrag ist es, neue Möglichkeiten auszuloten und Chancen aufzuzeigen – aber auch Risiken. Schnell wurde klar, dass die Verwendung von KI-Systemen viele ethische Fragen beinhaltet: Wie transparent muss der Einsatz von KI im Journalismus sein? Wann muss der Nutzer wissen, dass der konsumierte Inhalt zumindest in Teilen nicht von einem Menschen stammt?

Foto: PRO/Nicolai Franz
Dennis Horn vom WDR Innovation Hub

Horn erstellte mit seinem Team dazu einen Risikobericht zum Thema KI. Auch Nutzer wurden nach ihrer Meinung gefragt. Demnach befürworten diese den Einsatz von KI durchaus, wenn es um die reine Vermittlung von Fakten geht. Analysen, Meinungen und Einordnungen wollen sie aber weiterhin von einem Menschen lesen.

Bei vielen Referenten der Triennale wurde eines deutlich: Immer wenn es um Faktentreue geht, ist bei den großen Sprachmodellen wie ChatGPT äußerste Vorsicht geboten. Das liegt an der Konstruktion der Maschine selbst, wie die Informatikerin Katharina Zweig ausführte. „ChatGPT ist wie Autokorrektur auf Steroiden“, sagte sie auf ihrer Keynote.

Zwar habe ChatGPT 3.5 bereits 45 Terabyte an Textdaten und 750 Milliarden Paraphrasen verwendet. Das sei aber nicht zu verwechseln mit einer Wissensdatenbank. Das KI-System prüfe lediglich, welches Wort in welchem Kontext am wahrscheinlichsten ist. Eine Faktenprüfung gebe es also nicht. Das erkläre auch, warum große Sprachmodelle häufig Dinge oder Personen erfinden, die es gar nicht gibt. Von „AI hallucination“ spricht man dann.

„ChatGPT ist wie Autokorrektur auf Steroiden.“

Katharina Zweig

Zweig warnte vor allem dann vor dem Einsatz von ChatGPT, wenn es um Faktizität geht. Falls ja, müsse sie auf jeden Fall durch einen Menschen überprüft werden.

Frank Überall, Vorsitzender des Deutschen Journalistenverbandes (DJV), plädierte für Regeln für den Einsatz von KI: Transparenz, redaktionelle Prüfung durch Menschen und auch die Vergütung von Werken, mit der die KI gefüttert wurde, nannte er als besonders wichtig.

Zwar gibt es bereits Medienangebote, die zum großen Teil KI-generiert sind, wie zum Beispiel das Radio „BigGPT“. Was Valerie Weber, Programmgeschäftsführerin Audiotainment Südwest, darüber berichtete, klingt durchaus beeindruckend. Die Hosts, die Musikauswahl, auch die Interaktion mit den Zuhörern basiert auf KI-Systemen. Allerdings sei der menschliche Aufwand immer noch sehr hoch, sagte Weber.

Aktuell steckt die Technik, das wurde am Donnerstag in Mainz deutlich, noch in den Kinderschuhen. Als nützliche Tools fungiert KI schon längst im Hintergrund der redaktionellen Arbeit, zum Beispiel bei der automatischen Transkription von gesprochenen Inhalten, der Untertitelung von Videos oder auch bei der Moderation von Inhalten auf Social Media. Von einem KI-Redakteur, der eigenständig qualitativ hochwertigen Content erstellt, ist die Branche aber noch weit entfernt.

Im Zentrum steht dabei eine uralte Frage, die ChatGPT noch nicht beantworten kann: Was ist Wahrheit? „Es gibt kein Bewusstsein der Maschine dafür, was ein Fakt ist“, so Dennis Horn. Wenn man die KI durch maschinelles Lernen trainiert, müsse man markieren, was ein Fakt ist. Wie das gehen soll bei einer Unmenge von Daten? Horn fasste zusammen: „Ich sehe hier technologisch weiter Schwierigkeiten.“

Helfen Sie PRO mit einer Spende
Bei PRO sind alle Artikel frei zugänglich und kostenlos - und das soll auch so bleiben. PRO finanziert sich durch freiwillige Spenden. Unterstützen Sie jetzt PRO mit Ihrer Spende.

Ihre Nachricht an die Redaktion

Sie haben Fragen, Kritik, Lob oder Anregungen? Dann schreiben Sie gerne eine Nachricht direkt an die PRO-Redaktion.

PRO-App installieren
und nichts mehr verpassen

So geht's:

1.  Auf „Teilen“ tippen
2. „Zum Home-Bildschirm“ wählen