„KI bietet Chancen für den Journalismus“

Bei jeder Google-Suche und in den Sozialen Medien beeinflussen Künstliche Intelligenz (KI) und Algorithmen den Fluss der Informationen. Im Journalismus kommen diese Technologien zum Beispiel bei der Produktion von Texten zum Einsatz. Der Medienethiker Alexander Filipović erklärt, was die technischen Entwicklungen für die demokratische Meinungsbildung bedeuten.
Von PRO
Alexander Filipović gehört als sachverständiges Mitglied der Enquete-Kommission des Bundestages zu Künstlicher Intelligenz an

pro: Werden wir zukünftig Zeitungen aus der Feder eines Algorithmus lesen?

Alexander Filipović: Ein Teil der Wirtschaftsberichterstattung läuft bereits vollständig automatisiert; bei der Agentur Bloomberg zum Beispiel sind ein Drittel der Nachrichten und Texte von Programmen mit Künstlicher Intelligenz erstellt. Redaktionen nutzen das auch in der Berichterstattung über Wetter, Sport oder den Verkehr. Das sind Bereiche, wo strukturierte Daten vorliegen. Mit Hilfe von relativ einfachen Technologien werden dann Textbausteine auf der Basis von Daten kombiniert und angepasst. Das ist ethisch unproblematisch, da braucht man nicht viel zu regulieren. Spannend wird es da, wo die KI-Technologie noch mehr können wird: wo selbstlernende Maschinen Texte so analysieren, dass der Journalist zum Beispiel einen Beitrag beginnt und die Maschine dabei hilft, den Text zu Ende zu schreiben, indem sie Absätze vorformuliert. Diese Technologien gibt es heute noch nicht, sie sind aber in der Entwicklung. In der Enquete-Kommission wollen wir die Chancen betonen, die KI für den Journalismus hat, etwa bei der Datenanalyse, wo selbstlernende Maschinen Muster in den Daten erkennen, wie beispielsweise bei der Recherche „Hassmaschine“ des Bayerischen Rundfunks zu rechtsextremen Posts in Facebook-Gruppen. KI-Technologien sollen Journalisten dabei unterstützen, ihr Handwerkszeug besser und schneller zu erledigen.

Am Ende steht aber die Frage: Wer ist verantwortlich, wenn Fehler passieren?

KI-Systeme können keine Verantwortung übernehmen. Es muss immer Menschen geben, die kontrollieren, eine Endabnahme machen und dann auch verantwortlich sind. Wir arbeiten ja in anderen Bereichen schon mit Maschinen, die selbstständig funktionieren, etwa automatisierte Züge am Flughafen, wo kein Zugführer mehr drin sitzt. Aber wenn irgendetwas passiert, haftet am Ende ein Mensch.

Zeitungsverlage stehen wirtschaftlich teilweise stark unter Druck. Können sie durch den Einsatz solcher Systeme an Personal sparen?

Gerade wenn es um sehr zeitintensive, aber wichtige Dinge geht wie eben Verkehrsberichterstattung, spart man mit Automatisierung sicher eine ganze Menge. Auch Textübersetzungen oder die Themenrecherche über Social Media könnten automatisiert ablaufen – mit der Kontrolle durch Personen. Aber ich kann mir in der Lokalberichterstattung und in den sogenannten Qualitätsmedien nicht vorstellen, dass in Zukunft deutlich weniger Personen die Arbeit tun. Das Personal ist in manchen Häusern schon so reduziert, dass durch KI-Unterstützung nicht mehr viel Arbeitskraft eingespart würde.

In den Sozialen Medien produzieren die Nutzer Inhalte selbst. Algorithmen bestimmen schließlich, welche Informationen ich überhaupt sehe. Welche Auswirkungen hat das auf die demokratische Meinungsbildung?

Man kann nachweisen, dass die Kommunikation auf Social Media zu Polarisierungseffekten führt. Soziale Medien tragen in einem demokratischen System dazu bei, dass die politische Mitte schrumpft und dass die Menschen dazu neigen, sich eher an den Außenrändern des politischen Spektrums aufzuhalten.

Wo ist da der Zusammenhang?

Social Media verstärken immer das, was Aufmerksamkeit schaffen kann. Wohltemperierte, abgewogene Meinungen sind auch ein bisschen langweilig: Es gibt nicht entweder-oder, man berücksich­tigt verschiedene Argumente, sucht einen Kompromiss in der Mitte – das nehmen die Nutzer auf den Plattformen zwar auch wahr. Aber es führt nicht dazu, dass sie sich darüber echauffieren oder es beklatschen und so verstärken. Es verschwindet. Meinungen an den Rändern finden die Aufmerksamkeit, weil sie Menschen abschrecken oder begeistern. Enthusiasmus oder Ablehnung prägen unsere Kommunikationsform durch Social Media. Das hat polarisierende Effekte und damit Auswirkungen auf unsere Demokratie.

Politiker können über Soziale Medien an der Kontroll­instanz Journalismus vorbei kommunizieren. Es gibt Newsrooms in Ministerien oder Unternehmen. Verdrängen diese Medien den Journalismus mit seiner gesellschaftlichen Funktion?

Wenn Politiker Social Media und andere digitale Kommunikationskanäle nutzen und zum Volk sprechen, umgehen sie den Journalismus. Aber diese Botschaften können natürlich auch von Journalisten kommentiert werden. Klar, man muss erst einmal gegen die Macht guter strategischer Kommunikation ankommen. Deshalb wird Journalismus immer wichtiger, je besser die Kommunikationsabteilungen in Unternehmen und politischen Organisationen werden. Die Funktion des Journalismus – informieren, kontrollieren, Nachrichten ins Licht der Öffentlichkeit stellen, Menschen Orientierung geben, Dinge verständlich machen, bei der Meinungsbildung helfen – ist nach wie vor für unsere Demokratie ganz entscheidend.

Die Social-Media-Plattformen sind an keinen Pressekodex gebunden. In Deutschland fordert das Netzwerkdurchsetzungsgesetz, kurz: NetzDG, von den Unternehmen, hetzerische Beiträge zu löschen und auch Informationen an Behörden weiterzugeben. Wie sehen Sie dieses Vorgehen?

Der Sinn und Zweck des NetzDG ist gut. Das Internet ist kein rechtsfreier Raum, aber es gibt Schwierigkeiten bei der Durchsetzung von geltendem Recht wegen der neuen Technologien. Deswegen muss der Staat Verfahren finden, wie das gelingt.

Was halten Sie von Versuchen, wie Twitter sie macht, bestimmte Beiträge zu kennzeichnen: „Dieser Post enthält ungesicherte Informationen“?

Das finde ich eine gute und wichtige Sache – wenn die Kriterien dafür klar sind. Facebook hält sich noch zurück, so einzugreifen. Was verständlich ist, schließlich ist das eine Operation am offenen Herzen der Meinungsfreiheit.

Das ist die Frage: Was ist Meinungsfreiheit, was Hassrede? Das entscheiden auf den Plattformen keine Juristen.

Viele Menschen haben Angst, dass die Meinungsfreiheit unterdrückt wird. Zu Recht. In anderen, auch europäischen Ländern versuchen Autokraten, Mediensysteme zu verändern und zu beeinflussen. Daran sehen wir, dass sie Angst haben vor öffentlicher, pluraler Kommunikation. Deshalb ist Meinungsfreiheit eine entscheidende Gewähr für eine plurale Demokratie. Da dürfen Regulierungen nicht zu weit gehen, auch wenn sie mit guter Absicht erfolgen. Trotzdem dürfen auch keine Unwahrheiten und aggressiven Kommentare stehen bleiben. Die tragen ebenfalls nicht zu einem demokratischen Diskurs bei.

Sind Algorithmen besser geeignet, Hassrede und Hetze zu identifizieren als menschliche Entscheider, die vielleicht eigene Interessen verfolgen?

Menschen können bei ihren Entscheidungen von Vorurteilen beeinflusst sein; wenn man dann einen Algorithmus zuschaltet, der hilft, dass Menschen objektiv bleiben, ist das gut. Aber ein Algorithmus ist nicht an sich objektiv. Weil er immer in jemandes Interesse programmiert, beauftragt und eingesetzt wird. Entwickler arbeiten an Algorithmic Governance, also dem automatisierten Aufspüren von Hate Speech, Deepfakes (dazu gehören manipulierte Videos; Anm. d. Red.) oder Falschinformationen. Das ist ein guter Weg. Nur müssen wir aufpassen, dass wir keine totalitären algorithmischen Systeme bekommen, die die öffentliche Kommunikation auf der Basis irgendeiner Vorstellung von gut und richtig verändern.

Vielen Dank für das Gespräch!

pro: Werden wir zukünftig Zeitungen aus der Feder eines Algorithmus lesen?

Alexander Filipović: Ein Teil der Wirtschaftsberichterstattung läuft bereits vollständig automatisiert; bei der Agentur Bloomberg zum Beispiel sind ein Drittel der Nachrichten und Texte von Programmen mit Künstlicher Intelligenz erstellt. Redaktionen nutzen das auch in der Berichterstattung über Wetter, Sport oder den Verkehr. Das sind Bereiche, wo strukturierte Daten vorliegen. Mit Hilfe von relativ einfachen Technologien werden dann Textbausteine auf der Basis von Daten kombiniert und angepasst. Das ist ethisch unproblematisch, da braucht man nicht viel zu regulieren. Spannend wird es da, wo die KI-Technologie noch mehr können wird: wo selbstlernende Maschinen Texte so analysieren, dass der Journalist zum Beispiel einen Beitrag beginnt und die Maschine dabei hilft, den Text zu Ende zu schreiben, indem sie Absätze vorformuliert. Diese Technologien gibt es heute noch nicht, sie sind aber in der Entwicklung. In der Enquete-Kommission wollen wir die Chancen betonen, die KI für den Journalismus hat, etwa bei der Datenanalyse, wo selbstlernende Maschinen Muster in den Daten erkennen, wie beispielsweise bei der Recherche „Hassmaschine“ des Bayerischen Rundfunks zu rechtsextremen Posts in Facebook-Gruppen. KI-Technologien sollen Journalisten dabei unterstützen, ihr Handwerkszeug besser und schneller zu erledigen.

Am Ende steht aber die Frage: Wer ist verantwortlich, wenn Fehler passieren?

KI-Systeme können keine Verantwortung übernehmen. Es muss immer Menschen geben, die kontrollieren, eine Endabnahme machen und dann auch verantwortlich sind. Wir arbeiten ja in anderen Bereichen schon mit Maschinen, die selbstständig funktionieren, etwa automatisierte Züge am Flughafen, wo kein Zugführer mehr drin sitzt. Aber wenn irgendetwas passiert, haftet am Ende ein Mensch.

Zeitungsverlage stehen wirtschaftlich teilweise stark unter Druck. Können sie durch den Einsatz solcher Systeme an Personal sparen?

Gerade wenn es um sehr zeitintensive, aber wichtige Dinge geht wie eben Verkehrsberichterstattung, spart man mit Automatisierung sicher eine ganze Menge. Auch Textübersetzungen oder die Themenrecherche über Social Media könnten automatisiert ablaufen – mit der Kontrolle durch Personen. Aber ich kann mir in der Lokalberichterstattung und in den sogenannten Qualitätsmedien nicht vorstellen, dass in Zukunft deutlich weniger Personen die Arbeit tun. Das Personal ist in manchen Häusern schon so reduziert, dass durch KI-Unterstützung nicht mehr viel Arbeitskraft eingespart würde.

In den Sozialen Medien produzieren die Nutzer Inhalte selbst. Algorithmen bestimmen schließlich, welche Informationen ich überhaupt sehe. Welche Auswirkungen hat das auf die demokratische Meinungsbildung?

Man kann nachweisen, dass die Kommunikation auf Social Media zu Polarisierungseffekten führt. Soziale Medien tragen in einem demokratischen System dazu bei, dass die politische Mitte schrumpft und dass die Menschen dazu neigen, sich eher an den Außenrändern des politischen Spektrums aufzuhalten.

Wo ist da der Zusammenhang?

Social Media verstärken immer das, was Aufmerksamkeit schaffen kann. Wohltemperierte, abgewogene Meinungen sind auch ein bisschen langweilig: Es gibt nicht entweder-oder, man berücksich­tigt verschiedene Argumente, sucht einen Kompromiss in der Mitte – das nehmen die Nutzer auf den Plattformen zwar auch wahr. Aber es führt nicht dazu, dass sie sich darüber echauffieren oder es beklatschen und so verstärken. Es verschwindet. Meinungen an den Rändern finden die Aufmerksamkeit, weil sie Menschen abschrecken oder begeistern. Enthusiasmus oder Ablehnung prägen unsere Kommunikationsform durch Social Media. Das hat polarisierende Effekte und damit Auswirkungen auf unsere Demokratie.

Politiker können über Soziale Medien an der Kontroll­instanz Journalismus vorbei kommunizieren. Es gibt Newsrooms in Ministerien oder Unternehmen. Verdrängen diese Medien den Journalismus mit seiner gesellschaftlichen Funktion?

Wenn Politiker Social Media und andere digitale Kommunikationskanäle nutzen und zum Volk sprechen, umgehen sie den Journalismus. Aber diese Botschaften können natürlich auch von Journalisten kommentiert werden. Klar, man muss erst einmal gegen die Macht guter strategischer Kommunikation ankommen. Deshalb wird Journalismus immer wichtiger, je besser die Kommunikationsabteilungen in Unternehmen und politischen Organisationen werden. Die Funktion des Journalismus – informieren, kontrollieren, Nachrichten ins Licht der Öffentlichkeit stellen, Menschen Orientierung geben, Dinge verständlich machen, bei der Meinungsbildung helfen – ist nach wie vor für unsere Demokratie ganz entscheidend.

Die Social-Media-Plattformen sind an keinen Pressekodex gebunden. In Deutschland fordert das Netzwerkdurchsetzungsgesetz, kurz: NetzDG, von den Unternehmen, hetzerische Beiträge zu löschen und auch Informationen an Behörden weiterzugeben. Wie sehen Sie dieses Vorgehen?

Der Sinn und Zweck des NetzDG ist gut. Das Internet ist kein rechtsfreier Raum, aber es gibt Schwierigkeiten bei der Durchsetzung von geltendem Recht wegen der neuen Technologien. Deswegen muss der Staat Verfahren finden, wie das gelingt.

Was halten Sie von Versuchen, wie Twitter sie macht, bestimmte Beiträge zu kennzeichnen: „Dieser Post enthält ungesicherte Informationen“?

Das finde ich eine gute und wichtige Sache – wenn die Kriterien dafür klar sind. Facebook hält sich noch zurück, so einzugreifen. Was verständlich ist, schließlich ist das eine Operation am offenen Herzen der Meinungsfreiheit.

Das ist die Frage: Was ist Meinungsfreiheit, was Hassrede? Das entscheiden auf den Plattformen keine Juristen.

Viele Menschen haben Angst, dass die Meinungsfreiheit unterdrückt wird. Zu Recht. In anderen, auch europäischen Ländern versuchen Autokraten, Mediensysteme zu verändern und zu beeinflussen. Daran sehen wir, dass sie Angst haben vor öffentlicher, pluraler Kommunikation. Deshalb ist Meinungsfreiheit eine entscheidende Gewähr für eine plurale Demokratie. Da dürfen Regulierungen nicht zu weit gehen, auch wenn sie mit guter Absicht erfolgen. Trotzdem dürfen auch keine Unwahrheiten und aggressiven Kommentare stehen bleiben. Die tragen ebenfalls nicht zu einem demokratischen Diskurs bei.

Sind Algorithmen besser geeignet, Hassrede und Hetze zu identifizieren als menschliche Entscheider, die vielleicht eigene Interessen verfolgen?

Menschen können bei ihren Entscheidungen von Vorurteilen beeinflusst sein; wenn man dann einen Algorithmus zuschaltet, der hilft, dass Menschen objektiv bleiben, ist das gut. Aber ein Algorithmus ist nicht an sich objektiv. Weil er immer in jemandes Interesse programmiert, beauftragt und eingesetzt wird. Entwickler arbeiten an Algorithmic Governance, also dem automatisierten Aufspüren von Hate Speech, Deepfakes (dazu gehören manipulierte Videos; Anm. d. Red.) oder Falschinformationen. Das ist ein guter Weg. Nur müssen wir aufpassen, dass wir keine totalitären algorithmischen Systeme bekommen, die die öffentliche Kommunikation auf der Basis irgendeiner Vorstellung von gut und richtig verändern.

Vielen Dank für das Gespräch!

Die Fragen stellte Jonathan Steinert

Prof. Dr. Alexander Filipović, Jahrgang 1975, lehrt Medienethik an der Hochschule für Philosophie in München. Er ist Mitherausgeber von „Communicatio Socialis – Zeitschrift für Medienethik und Kommunikation in Kirche und Gesellschaft“ und einer der Leiter des „Zentrums für Ethik der Medien und der digitalen Gesellschaft“.

Dieses Interview ist in der Ausgabe 4/2020 des Christlichen Medienmagazins pro erschienen. Das Heft können Sie kostenlos online bestellen oder telefonisch unter 0 64 41/5 66 77 00.

Helfen Sie PRO mit einer Spende
Bei PRO sind alle Artikel frei zugänglich und kostenlos - und das soll auch so bleiben. PRO finanziert sich durch freiwillige Spenden. Unterstützen Sie jetzt PRO mit Ihrer Spende.

Ihre Nachricht an die Redaktion

Sie haben Fragen, Kritik, Lob oder Anregungen? Dann schreiben Sie gerne eine Nachricht direkt an die PRO-Redaktion.

PRO-App installieren
und nichts mehr verpassen

So geht's:

1.  Auf „Teilen“ tippen
2. „Zum Home-Bildschirm“ wählen