Navigation

15.08.2023 -

„Die Nutzungsmöglichkeiten von KI im Journalismus müssen einen klar definierten Rahmen bekommen.“ Interview mit Hendrik Zörner, Pressesprecher beim Deutschen Journalisten-Verband e.V.

Einleitung

Hendrik Zörner

Hendrik Zörner

© Werner Siess

In den Medien ist Künstliche Intelligenz (KI) als Werkzeug für die journalistische Arbeit schon längst angekommen. KI-Anwendungen helfen beim Umgang mit großen Datenmengen, analysieren das Leserverhalten, erstellen Kurztexte, erzeugen Bilder usw. Doch nicht zuletzt hat der Hype um KI-basierte Chatbots wie ChatGPT erneut die Frage aufgeworfen, wo die Grenzen beim Einsatz von KI-Anwendungen im Journalismus gezogen werden müssen. Wir haben dazu Hendrik Zörner gefragt. Er ist Pressesprecher beim Deutschen Journalisten-Verband e.V.

Herr Zörner, inwiefern beeinflussen KI-basierte Chatbots oder Bild-KIs die Arbeit von Journalistinnen und Journalisten?

Zörner: Offen gesagt: So ganz genau wissen wir das nicht, weil die Medienhäuser das kaum öffentlich machen. Es gibt aber einzelne Beispiele, die publik geworden sind. Der Burda-Verlag hat zum Beispiel eine Zeitschrift mit Kochrezepten herausgegeben, deren Texte und Bilder größtenteils von einer KI erstellt wurden. Bei BILD setzt man beim Layout auf eine KI-basierte Bildauswahl. Es gibt noch weitere Beispiele, die insgesamt schon deutlich machen, dass KI im Journalismus angekommen ist.

ChatGPT hat einen regelrechten Run erlebt. Inzwischen ist aber auch eine ziemliche Ernüchterung eingetreten. Die Texte lesen sich zwar gut, aber die Inhalte sind zuweilen blanker Unsinn. Auch Quellenangaben fehlen. Trotzdem: Für den einen oder die andere könnte die Verlockung groß sein, Artikel auf Kosten einer sorgfältigen Recherche zu erstellen.

Zörner: Die Gefahr ist groß. Niemand kann nachvollziehen, wie und von wo ChatGPT, Bing und andere Chatbots ihre Informationen zusammenziehen. Die Quellenlage ist völlig ungewiss und Journalistinnen und Journalisten, die sich bei der Recherche oder möglicherweise beim Schreiben von Artikeln auf diese Tools verlassen, gehen ein großes Risiko ein. Sie können weder gegenüber ihren Leserinnen und Lesern noch gegenüber ihren Redakteurinnen und Redakteuren nachweisen, woher sie ihre Informationen haben. Rein stilistisch ist das alles sehr schön und flüssig. Aber die Grundlage des Journalismus, nämlich Sorgfalt und ordentliche Recherche, ist dabei ganz klar nicht mehr gegeben.

Wie lässt sich dem vorbeugen? Müssen neue Maßstäbe der journalistischen Sorgfaltspflicht eingeführt werden?

Zörner: Nein, die sind festgeschrieben und Bestandteil der Journalistenausbildung. Die gehören zu den Basics des Pressekodex‘. Demnach müssen zum Beispiel Informationen in Wort, Bild und Grafik auf ihren Wahrheitsgehalt geprüft und wahrheitsgetreu wiedergegeben werden. Der Punkt ist eher, dass die Nutzungsmöglichkeiten von KI im Journalismus einen klar definierten Rahmen bekommen müssen. So muss zum Beispiel festgelegt werden, zu welchem Zweck KI in den Redaktionen eingesetzt werden darf und wo die roten Linien sind. Wenn ich zum Beispiel einen sauber recherchierten Artikel geschrieben habe und daraus Posts für diverse Social-Media-Kanäle erstellen möchte, kann ein KI-basierter ChatBot sicherlich hilfreich sein. Auch bei Kurzmeldungen, wie Wetter- oder Verkehrsnachrichten, bei denen es um die textliche Verarbeitung von Zahlen oder standardisierten Informationen geht. Die rote Linie sehe ich dagegen bei Berichten, Hintergrundartikeln oder auch Features, die auf einer gründlichen Recherche mit nachvollziehbaren Quellenangaben basieren müssen. Abgesehen davon ist gegenüber den Leserinnen und Lesern unbedingte Transparenz erforderlich. Das bedeutet, Texte oder Bilder, die mit Hilfe von KI erstellt wurden, sollten entsprechend gekennzeichnet sein.

Muss man nicht auch differenzieren nach Printmedien, Fernsehen, Film, Radio und Internet?

Zörner: Ja, die Mediengattung spielt auf jeden Fall eine Rolle, weil die Manipulationsmöglichkeiten im Bereich Bild und Film natürlich um einiges größer und vor allem in ihren Auswirkungen verheerender sind als im Bereich Text. Die Macht der Bilder ist sattsam bekannt. Die ist um einiges größer als die Macht des Wortes. Auch ein manipuliertes oder gefälschtes Bild setzt sich in den Köpfen fest. Deshalb kommt gerade im Bild- und Fernsehjournalismus dem Thema KI eine noch sehr viel größer Bedeutung zu.

Was schlagen Sie vor? Dass sich die einzelnen Medienunternehmen und auch der öffentliche Rundfunk klar positionieren?

Zörner: Diese Positionierung ist unbedingt erforderlich. Die muss auch durchgehalten werden. Wobei ich durchaus auch die Schwierigkeit sehe, wenn etwa ein Fernsehsender von einem Freien, der an einem Krisenherd der Welt unterwegs ist, Material zugespielt bekommt. Es ist dann Aufgabe der Redaktion, unter anderem die Echtheit des Materials zu überprüfen. Das ist schon jetzt nicht einfach und wird für viele Redaktionen durch KI-erzeugte Bilder oder Videos zu einer noch größeren Herausforderung.

Wir führen gerade ein mündliches Interview, das aufgezeichnet, abgeschrieben und anschließend überarbeitet wird, so dass ein lesbarer Text dabei herauskommt. Aus der Abschrift könnte aber auch ChatGPT ein gut lesbares Interview erstellen. Ist so etwas akzeptabel?

Zörner: Wenn die oder der verantwortliche Redakteurin oder Redakteur das Transkript des Wortinterviews vorliegen hat, das Ergebnis von ChatGPT danebenlegt und es überprüft, ist das durchaus vorstellbar. Ich frage mich in dem Fall allerdings, wie groß die Zeitersparnis in einem solchen Fall ist. Denn die Redakteurin bzw. der Redakteur muss erst einmal die komplette Abschrift des Interviews lesen. Dann muss sie Wort für Wort mit der Version des ChatBots verglichen werden. Das dauert.

Wird sich das Berufsbild von Journalistinnen und Journalisten ändern?

Zörner: Inwiefern sich das Berufsbild ändern wird, lässt sich im Augenblick schlecht vorhersagen. Dafür wären halbwegs realistische Prognosen notwendig, wie stark oder schwach sich KI-basierte Tools im Journalismus durchsetzen. Die Warnhinweise sind da. Sie werden vom Deutschen Journalisten Verband und auch von den Verlegerverbänden formuliert. Letztere werden wahrscheinlich bald mit einer eigenen Position nach draußen gehen. Dennoch wird die Meinung dazu vielschichtig bleiben. Kolleginnen und Kollegen, die eher technikaffin sind, sehen da vielleicht eher Chancen als die Risiken. Zum jetzigen Zeitpunkt kann man daher nicht sagen, welche Linie sich in nächster Zeit durchsetzen wird.

Was raten Sie jungen Journalistinnen und Journalisten? Wie sollen sie sich aufstellen?

Zörner: Ich rate ihnen, sich auf jeden Fall intensiv mit der ganzen Thematik zu beschäftigen. Aber sie müssen dabei immer vor Augen haben, was sie dürfen und was sie nicht dürfen. Sich bei der journalistischen Recherche, beim journalistischen Schreiben und ganz allgemein bei der journalistischen Arbeit überwiegend auf KI-basierte Anwendungen zu verlassen, ist in meinen Augen ein No-Go. Auch junge Journalistinnen und Journalisten müssen sich im Klaren darüber sein, dass sie eine große Verantwortung tragen.

Stichwort: Urheberrechte. Wenn für das Training der KI-Anwendungen journalistische Texte oder Bilder verwendet: Inwieweit stellt das eine Urheberrechtsverletzung aus Ihrer Sicht dar?

Zörner: Wenn journalistische Beiträge dazu benutzt werden, KI-Anwendungen zu trainieren, ohne dass die Urheberinnen und Urheber vorher um ihre Zustimmung gebeten wurden und eine finanzielle Vergütung erhalten haben, ist das ein klarer Verstoß gegen die Bestimmungen des Urheberrechts. Das sind Urheberrechtsverstöße, die müssen, wenn sie bekannt werden, auch geahndet werden. In den USA gibt es von Autorinnen und Autoren die ersten Klagen dazu.

Der Urheber selbst kann aber kaum nachweisen, dass seine Bilder oder Texte verwendet werden. Insofern können sich Unternehmen wie OpenAI doch entspannt zurücklehnen, oder?

Zörner: Na warten Sie mal ab. Wenn es in den USA die ersten Urteile gibt, die zulasten der Unternehmen gehen, reden wir ja nicht über ein paar hundert Dollar. Solche Fälle sind in den USA meistens sehr hoch dotiert. Ein KI-Unternehmen überlegt sich das dann dreimal, ob es weiterhin sein Geschäftsmodell mit quasi kriminellen Machenschaften betreibt oder ob es zu einem fairen Umgang mit den Urheberinnen und Urhebern kommen will.

In Deutschland ist dahingehend erst einmal nichts geplant, oder?

Zörner: Uns sind bisher in Deutschland keine Klagen bekannt. Aber wenn sich eines unserer Mitglieder an uns wenden würde, weil es vermutet, dass ein KI-Unternehmen Texte oder Bilder von ihm verwendet, würden wir der Urheberin oder dem Urheber Rechtsschutz gewähren und in der juristischen Auseinandersetzung unterstützen. Aber wir haben bisher einen solchen Fall noch nicht auf dem Tisch gehabt, weil einfach der Nachweis für den Einzelnen bisher kaum möglich ist.