Grafik, Schriftzug ChatGPT

PICTUREDESK.COM/ACTION PRESS/CHRISTIAN OHDE

Chat GPT und die Medien

Wenn der Avatar das Wetter ansagt

Computerprogramme lesen den Wetterbericht, schreiben Texte und generieren Bilder. Künstliche Intelligenz ist im Journalismus nichts Neues. Aber seit ChatGPT ist ein regelrechter Hype ausgebrochen. Medienhäuser sind gut beraten, sich schnell eine Strategie zuzulegen, um nicht überrumpelt zu werden, sagen Experten. Als Sparprogramm für Medien in finanziellen Nöten taugen die neuen Programme allerdings nicht.

Was ist die Ö1-Sendung #doublecheck? Unsere Frage wird im Chat auf der OpenAI-Website unterschiedlich beantwortet: Etwa: "#doublecheck wird jeden Sonntag um 12:00 mittags ausgestrahlt". Eine weitere Suche ergibt: "#doublecheck" wird jeden Donnerstag ausgestrahlt". So weit so falsch. Wir senden bekanntlich jeden ersten Freitag im Monat, um 19:05 Uhr.

Stinkesocken und Kinderkrankheiten

Alles nur Kinderkrankheiten? Die Maschine lernt schnell. Viele Medienhäuser versprechen sich Großes von künstlicher Intelligenz und neuerdings auch dem Chat, der unsere Fragen beantwortet. Die große deutsche Internetplattform "Ippen.Media" erstellt bereits automatisch Inhalte für viele deutsche Medien. In einem Webinar des Verlags Oberauer bringt Chefredakteur Markus Knall ein Beispiel fürs automatische Erstellen von Überschriften. Gestresste Chefredakteure lassen sich von einer KI fünf Vorschläge machen und wählen dann einen aus. Was die Programme auch können, ist: Texte erstellen, zusammenfassen, kürzen, transkribieren, Texte an ein Zeitungslayout anpassen, umtexten für Social Media oder Archive durchforsten.

Billiger "Fast Food Journalismus" für schnelle Clicks

Aber gerade "Ippen.Media" ist mit Fehlern aufgefallen. Das zeigt der in Deutschland bekannte Fall "Jule Stinkesocke". Dabei ging es um eine viel geklickte Geschichte über eine vermeintliche Betrügerin im Netz, allerdings wurde der Fall mit einem in den USA vermischt. Nicht die Schuld von KI, sagt Knall, sondern menschliches Versagen, weil die Redaktion den Fehler nicht entdeckt hat. "Ein ganz wichtiger Fall, der zeigt, wie es nicht passieren soll", sagt dazu die Medienjournalistin Ingrid Brodnig. Sie warnt vor "Fast-Food Journalismus", bei dem es nur darum gehe, schnell sehr viele billige Texte herauszuschießen.

Investigative Recherchen mit KI

Es gibt aber natürlich auch positive Aspekte. Künstliche Intelligenz bietet dem Journalismus schon seit einiger Zeit viele Chancen, wie Felix Simon erklärt. Simon forscht dazu am Reuters Institut an der Universität Oxford. Im investigativen Journalismus würde KI genutzt, um sehr große Datensätze zu filtern und dort interessante Geschichten herauszukristallisieren. "Panama Papers, Paradise Leaks - solche großen Investigationen sind meistens nur dank KI-Unterstützung möglich", sagt der Medienforscher.

Wenn der Avatar das Wetter ansagt

Auch ein Blick auf die großen Nachrichtenagenturen zeigt, wie weit verbreitet KI schon ist. "Die Associated Press in den USA produziert rund 40.000 Geschichten am Tag, die vollkommen automatisiert stattfinden. Da wird niemals in irgendeiner Form menschlich interveniert." Dabei handle es sich allerdings nur um kurze Unternehmensberichte oder Sportereignisse, die sich leicht erstellen ließen, weil sie auf strukturierten Daten basieren, sagt Felix Simon.

In der Schweiz etwa blieb wochenlang unentdeckt, dass die Moderatorin dieses Wetterberichts namens "Jade" des Senders "M Le Média" eine Maschine war.

Warnung vor dem Hype

Auch die Austria Presseagentur beschäftigt sich seit Jahren mit künstlicher Intelligenz. Sie wird als Hilfsmittel eingesetzt, etwa beim Auswerten von Daten. Zum Beispiel werden bei Wahlen automatisch Texte mit Ergebnissen erstellt. Solche Texte dienen auch als Vorschläge für die Redaktion, erklärt die stellvertretende Chefredakteurin Katharina Schell. Neu sei nun, dass Programme wie ChatGPT mit uns sprechen - und Fragen beantworten.

ChatGPT weiß gar nichts

Schell warnt vor dem Hype: "Wenn ich höre, dass auch Redakteure und Redakteurinnen sagen, sie verwenden ChatGPT als Google-Ersatz, dann läuft es mir wirklich kalt über den Rücken." Denn das Programm wisse nichts und Fakten seien ihm völlig egal. Die Datenbank errechne nur, welche Wörter-Kombinationen am wahrscheinlisten sind, sagt Schell.

Damit ist auch klar: "Eine KI vom Zuschnitt eines ChatGPT kann keine APA-Meldung schreiben, die den Qualitätskriterien einer APA-Meldung auch entspricht." ChatGPT habe außerdem einen Bias. Damit sind Voreingenommenheiten gemeint. Schell nennt ein Beispiel: Eine Suche nach Unternehmenschefs ergibt ein Ergebnis mit ausschließlich weißen Männern.

Das Geschäft mit der Täuschung

Vor Falschnachrichten warnt Ingrid Brodnig. Sie beschäftigt sich seit Jahren mit Desinformation. Wie schnell gefälschte Nachrichten täuschend echt werden können, zeigt sie mit einem eigenen Experiment, bei dem sie mit Hilfe von ChatGPT kurzerhand eine steirische Regionalzeitung erfunden hat. ChatGPT dachte sich in wenigen Minuten Namen für nicht-existierende Gemeinden aus und lieferte passende Texte. "Die haben sich wirklich wie Regional-Journalismus gelesen." Erfundene Nachrichten könnten außerdem mit echten Nachrichten kombiniert werden, was es noch schwerer mache, falsche Inhalte zu erkennen, warnt Brodnig.

"Flood the zone with shit"

Im Bereich der Bilder sei die Gefahr noch größer. Ein Dammbruch sei das falsche Bild des Papstes mit dem weißen Daunenmantel gewesen, das vor kurzem durchs Internet kursiert ist. "Da hat man erstmals wirklich weltweit gesehen, wie gut solche Software ist", sagt Brodnig. In Deutschland habe die die rechtsextreme AfD angsteinflößende Bilder von Migranten verbreitet, bei dem auch eine KI zum Einsatz gekommen sein könnte. Das verbreitet sich dann ganz nach dem Motto: "Flood the zone with shit" - so hat Donald Trump-Unterstützer Steve Bannon sein Erfolgsrezept für extrem rechte Medien beschrieben.

KI als Sparprogramm?

Die Chancen und Risiken sind also enorm. Die Versuchung für Medien groß. Lässt sich mit der immer besser werdenden künstlichen Intelligenz Personal sparen? "Ich glaube, strukturell wird KI die Probleme der Medienindustrie nicht lösen", sagt der Medienforscher Felix Simon. "Es wird dabei helfen, wenn es klug eingesetzt wird, einige Probleme anzugehen. Aber auch das ist natürlich am Ende des Tages nichts, wenn die Inhalte dahinter nicht gut sind, wenn das Vertrauen nicht da ist, wenn Menschen nicht bereit sind, für Journalismus in irgendeiner Form Geld auszugeben". Gute, relevante und komplexe Geschichten werden noch immer von Redakteuren und Redakteurinnen geschrieben.

Chancen für den öffentlich-rechtlichen Rundfunk

Auch für den öffentlich-rechtlichen Rundfunk ist KI eine Herausforderung. Im ORF ist das Thema noch wenig fortgeschritten, viel Erfahrung hat der Bayerische Rundfunk. Dort dafür zuständig ist Uli Köppen. Sie sieht besonders für Öffentlich-Rechtliche viele Chancen, zum Beispiel bei der Personalisierung von Nachrichten. Regionalisierung etwa, oder "eine Geschichte immer in der Version anzubieten und in dem Format, wie die Leute das gerne hätten, zum Beispiel morgens eher kurz, abends eher lang". Ja, einige Jobs werde die Automatisierung kosten, wie bei jeder Transformation, sagt Köppen, aber dafür entstehen andere, neue Jobs.

Wer KI selbst entwickelt, hat die Kontrolle

Köppen rät Medienhäusern, in die Entwicklung der Programme im eigenen Haus zu investieren. "Ich glaube, dass man einfach ansonsten in eine Abhängigkeit gerät. Man kauft Tools ein, von denen man nicht genau weiß, wie sie funktionieren, wo man auch nicht so transparent sein kann, wie man eigentlich möchte als Medienhaus, wenn man diese Expertise im Haus nicht hat oder auch nicht aufbaut." Im Bayerischen Rundfunk arbeite man interdisziplinär zwischen Journalist:innen, Programmierer:innen und Produktentwickler:innen. "Wir schreiben teilweise die Algorithmen selbst und teilweise passen wir sie auf unsere Zwecke an und ich würde immer dafür plädieren, da einfach maximal transparent damit umzugehen."

Medienhäuser brauchen schnell eine KI-Strategie

"Move fast and break things" - das war lange das interne Motto bei Facebook. So wie die sozialen Netzwerke, wird auch die künstliche Intelligenz den Journalismus verändern, nur viel schneller. Medienhäuser sollten aus ihren Fehlern lernen und diesmal schneller reagieren, appelliert Katharina Schnell von der APA, die auch Guidelines für Medien entwickelt hat. "Was es jetzt in den Redaktionen und in den Medienhäusern braucht, ist das Wissen, was diese Technologie kann, was sie für die eigene Arbeit bedeutet, wo sie sinnvoll eingesetzt werden kann, und was sie kostet."

Viele ungelöste Fragen

Aber viele Fragen sind noch ungelöst. Ab wann muss ich ausschildern, dass KI bei einer Geschichte im Einsatz war? Wie mache ich transparent, welche Quellen genutzt werden? Wer ist mit den Urheberrechten? Wenn die KI vom Journalismus lernt, indem sie Artikel oder Videos auswertet, wer verdient daran? Die Software-Entwickler werden freilich massiv profitieren, aber was bekommen die Medien dafür? Die EU, die nach gewohnt langem Tauziehen gerade dabei ist, Regularien für künstliche Intelligenz zu verabschieden, hinkt der Entwicklung hinterher, sagt Ingrid Brodnig.

KI wird die Zeitungen nicht retten

Künstliche Intelligenz ist also im besten Fall ein weiteres Werkzeug für Journalisten. Ein Sparprogramm ist es im schlechtesten Fall, sagt Brodnig: "Ich glaube nicht, dass die KI eine Waffe gegen das Zeitungssterben ist. Warum? Weil das, was Zeitungen wichtig und gesellschaftlich relevant macht, das kann die KI nicht ersetzen."

Übersicht