Künstliche Intelligenz (KI) kann schöpferische Arbeit vom Verfassen von Texten bis zum Erstellen von Bildern und Grafiken übernehmen und eignet sich daher für den Einsatz in der Medienbranche. Die Nachrichten- und Presseagentur Associated Press (AP) hat unlängst offengelegt, eine Lizenzvereinbarung mit dem Hersteller von ChatGPT, OpenAI, getroffen zu haben. Jetzt hat die Agentur ihre Standards zum Umgang mit und der Verwendung von KI im Agenturbetrieb öffentlich gemacht.
Genauigkeit, Fairness und Geschwindigkeit sind nach eigenen Bekunden die Leitwerte der weltweit größten Nachrichtenagentur. „Wir glauben, dass der achtsame Einsatz künstlicher Intelligenz diesen Werten dienen und im Laufe der Zeit unsere Arbeitsweise verbessern kann“, lautet es in der KI-Richtlinie der Nachrichtenagentur. Die zentrale Aufgabe der Journalisten bei AP, „das Sammeln, Bewerten und Ordnen von Fakten in Nachrichten, Videos, Fotos und Audiodateien für unsere Mitglieder und Kunden“, werde sich durch den Einsatz künstlicher Intelligenz nicht ändern. „Wir sehen KI in keiner Weise als Ersatz für Journalisten.“ Für die Richtigkeit und Fairness der weitergegebenen Informationen seien weiterhin die Journalisten bei AP verantwortlich.
„Vorsicht und Skepsis“
Gemäß den AP-Leitlinien für den KI-Einsatz sollen Mitarbeiter „mit Vorsicht mit ChatGPT experimentieren“ dürfen, jedoch KI „nicht zur Erstellung veröffentlichungsfähiger Inhalte“ verwenden. Die Journalisten werden angehalten, „jede Ausgabe eines generativen KI-Tools als ungeprüftes Quellmaterial“ zu behandeln. Gemäß bestehender Standards dürfen bei AP keine Elemente in Fotos, Videos oder Audiodaten verändert werden. Dies gelte nun ebenfalls für den Einsatz generativer KI.
Mitarbeiter der Agentur sind angehalten, „keine vertraulichen oder sensiblen Informationen in KI-Tools“ einzugeben. „Wir ermutigen Journalisten außerdem, die gebotene Vorsicht und Sorgfalt walten zu lassen, um sicherzustellen, dass Material, das aus anderen Quellen in AP eingeht, ebenfalls frei von KI-generierten Inhalten ist“, lautet es in der Leitlinie. Weil die Technik auch vorsätzlich zur Täuschung eingesetzt werden kann, „sollten Journalisten die gleiche Vorsicht und Skepsis an den Tag legen, die sie normalerweise an den Tag legen würden“ und daher die Quelle des Originalinhalts ermitteln sowie bei Bildern die Herkunft überprüfen. Sollten Journalisten Zweifel an der Authentizität von Material haben, sollen sie es nicht verwenden.
epd-Chefredakteur: „Einsatz von KI nicht statthaft“
Auch der Evangelische Pressedienst (epd) ruft die Mitarbeiter dazu auf, mit KI-Tools zu experimentieren. „Bei der Produktion journalistischer Inhalte kommt beim epd bislang systematisch keinerlei Künstliche Intelligenz zum Einsatz“, teilte epd-Chefredakteur Karsten Frerichs am Donnerstag auf Anfrage hin mit. Unzweifelhaft ergebe sich aus dem Leitbild des epd und allgemeinen journalistischen Standards: „Bei der unmittelbaren Produktion von Texten, Bildern und Videos ist der Einsatz von KI nicht statthaft.“ Bei der Recherche, der Optimierung von Texten oder der Themensuche sei der Einsatz von KI hingegen denkbar, soweit deren Ergebnisse von Menschen kontrolliert würden. Nach Angaben von Frerichs arbeitet der epd daran, entsprechende Standards zur Verwendung von KI festzuschreiben.
Die Deutsche Presse-Agentur (dpa) hat bereits vor einiger Zeit eigene KI-Guidelines veröffentlicht. Die Nachrichtenagentur steht nach eigenem Bekunden „dem verstärkten Einsatz von KI aufgeschlossen gegenüber“, setzt aber KI „nur unter menschlicher Aufsicht ein“ und will durch Verwendung „robuster und sicherer“ KI „Risiken für Fehler und Missbrauch minimieren“. Die Verfasser der KI-Richtlinie gehen davon aus, dass KI „nicht in Form von großen Tools in die Redaktionen Einzug“ halten wird, „sondern die Revolution in kleinen Paketen“ kommt. Daher sollen sich dpa-Mitarbeiter „offen und neugierig mit den Möglichkeiten von KI befassen“.