AP/SAKKMESTERKE/SCIENCE PHOTO LIBRARY
KI-Tools sind in den Redaktionen angekommen
Künstlicher Journalismus als Chance
Mit künstlicher Intelligenz erlebt die Arbeit von Journalistinnen und Journalisten die nächste große Transformation seit Social Media. Geklonte Stimmen lesen völlig automatisiert Texte vor und Sprachmodelle helfen dabei, Artikel in eine andere oder in leichte Sprache zu übersetzen. Rückt menschlicher Journalismus damit in den Hintergrund? Das Risiko ist da, sagen Medienexpertinnen und -experten. Aber er bekommt damit auch die Chance, sich zu profilieren.
9. Jänner 2025, 19:00
In seinen "Kopfnüssen" kommentiert Christian Nusser, der Chefredakteur des Digitalmediums "Newsflix" aus dem "Heute"-Verlag, fast täglich das österreichische Politikgeschehen. Und das auch als Podcast zum Nachhören. Er setzt sich aber nicht selbst jeden Tag vor das Mikro, um seine Texte einzusprechen. Nussers Stimme wird nämlich von einer Künstlichen Intelligenz geklont. Er selbst nennt das seinen "KI-Kumpel".
Geklonte Stimme, vollautomatisch
Hinter der Automatisierung steckt das von Stefan Lassnig und Michael Nikbakhsh gegründete Medienunternehmen DasKollektiv. Der neue KI-Prototyp der beiden ist "Radio Gustav", ein vollautomatisierter Podcast, der Pressemitteilungen der Landespolizeidirektion Wien vorliest. "Die Inhalte beruhen auf einem RSS Feed der Polizeidirektion Wien. Die werden von uns automatisiert ausgelesen und mit einer künstlichen Stimme vertont", erklärt Lassnig. Die künstliche Stimme ist dabei der Stimmklon einer natürlichen Stimme.
Die KI-Stimmen findet Lassnig beängstigend gut. Ganz ohne gesundheitliche Schwankungen seien sie teilweise sogar besser als das Original. Sind wir auf dem Weg, Audio einer KI zu überlassen, die sich nie räuspern oder schnäuzen muss? Es werde beides geben, meint der Unternehmer. Das Interesse an der Automatisierung mittels KI sei jedenfalls groß: "Wir reden mit vielen möglichen Kundinnen und Kunden, weil das eine ganze neue Möglichkeit schafft, einen zusätzlichen Medienkanal zu eröffnen, ohne wahnsinnig viel mehr Arbeit."
Generative KI in Redaktionen angekommen
KI kann im Journalismus aber nicht nur Stimmen klonen, um Texte zu vertonen. Sie hilft auch bereits dabei, Texte zu übersetzen – in eine andere oder in leichte Sprache. Solche neuen Inhalte werden von generativer KI erzeugt. "2024 war das Jahr, in dem die generative KI tatsächlich im journalistischen Arbeitsalltag angelangt ist", sagt Katharina Schell, die in der Austria Presse Agentur als stellvertretende Chefredakteurin die Bereiche Digitalisierung und Innovation verantwortet.
In der APA ist beispielsweise ein KI Lektor im Einsatz - kein Ersatz, sondern ein zusätzlicher Qualitätssicherungsschritt, sagt Schell. KI-Bilder sind hingegen strikt verboten und auch das Sprachmodell ChatGPT, aus Sicherheitsgründen. Man verwende ein eigenes Modell.
Transparenz-Regeln bei Texten fehlen
Schell hat sich gerade in einem Forschungs-Semester an der Universität Oxford mit einer transparenten Kennzeichnung von KI-Inhalten beschäftigt. Der vergangenen August in Kraft getretene AI-Act der Europäischen Union macht zwar deutliche Vorgaben. Aber während die im Bereich Bild und Video simpel zu verstehen sind, ist man im Textbereich weiterhin etwas ratlos. "Vereinfacht gesagt steht im EU AI Act, dass man einen Text nur kennzeichnen muss, wenn er komplett von einer KI generiert wurde und auch keiner mehr etwas korrigiert oder verändert hat", erklärt Schell.
Ab wann KI in einem Text gekennzeichnet wird, muss also noch jedes Medienunternehmen selbst entscheiden. Auch der Österreichische Presserat hat noch keine KI-Richtlinien veröffentlicht.
"Wir schieben Fehler nicht auf die KI"
Die Kennzeichnung war kürzlich auch Thema bei einer UNESCO-Diskussionsveranstaltung zur Rolle von KI im Journalismus in Wien. Beim Schweizer Rundfunk wird im Bild-, Video- und Audiobereich konsequent gekennzeichnet, erzählt dort Philip Meyer. Ausnahmen sind Fiktion und Satire. Im Textbereich sei man offener. "Wir möchten uns nie auf die Position stellen, irgendwo zu schreiben: Das ist mit KI produziert, könnte Fehler enthalten. Das ist nicht unsere Praxis. Wir machen Fehler, wie alle Menschen Fehler machen, aber wir versuchen sie möglichst zu vermeiden und wir schieben sie nicht auf die KI", stellt Meyer klar.
Falsche Lokalmedien als künstliche Spielwiese
Beim SRF stehe eben weiterhin der Mensch am Anfang und am Schluss jedes Inhalts. Der gegenteilige Trend: Medienprojekte, die den Menschen außen vor lassen. Auf solche ist die Videojournalistin Maria von Usslar in einer Recherche für das Branchen-Magazin Horizont gestoßen. "KI-generierte Online-Zeitungen überschwemmen den deutschsprachigen Raum. Sie sind teils völlig automatisiert – und wirken täuschend echt", schreibt sie darin.
In Deutschland heißen sie "Freiburger Bote" oder "Nordsee Reporter". In der Aufmachung lokal, sind die Inhalte extrem generisch – und voller Falschinformationen. Die KI-Handschrift war für Usslar deutlich daran zu erkennen, "dass Fehler passieren, die ein Mensch sofort hätte sehen können wie ein Foto, wo der Rücken vorne ist. Ich habe auch diesen KI-Tonfall wiederentdeckt. Ich rede fast täglich mit ChatGPT."
ChatGPT erklärt, warum es danebenliegt
Besonders auffällig ist auf diesen Seiten ein Falschzitat von Trump. Aus der Behauptung Trumps, nur Betrug könne seinen Sieg verhindern, macht die KI "Nur Betrug kann seine Niederlage verhindern". Usslar fragt direkt bei ChatGPT - das sie "Sybille" nennt - nach, wie so etwas passieren kann. Die Antwort des Chatbots: "Wenn die Information unvollständig, mehrdeutig oder unerwartet ist, kann ich danebenliegen. Zum Beispiel könnte ich ein wahrscheinliches Szenario zu stark gewichten oder eine Wendung nicht direkt mit einbeziehen, wenn sie gerade passiert. Es ist, als würde ich ein Puzzle legen, aber jemand hat das Bild auf der Box geändert, während ich noch Teile einfüge."
Und das Bild auf der Box hielt lange einen Sieg von Kamala Harris für möglich oder sogar wahrscheinlich. Dieses Beispiel zeigt, dass die KI bei historischen oder aktuellen Bezügen noch alles andere als verlässlich ist.
Wenig Hemmungen, KI-Müll zu produzieren
Trotzdem gibt es schon jetzt diese Testfelder, auf die Usslar gestoßen ist. Es geht dort nicht um Journalismus, sondern um digitale Werbeflächen, vermutet sie. Hinter vielen dieser deutschen Seiten steckt dieselbe Content-Farm, der Betreiber einer Suchmaschine für Freizeitaktivitäten.
Für Usslar sind solche Versuche noch keine Gefahr für den Journalismus. Aber sie zeigen, wie gering mancherorts die Hemmschwelle ist, als Journalismus verpackten KI-Müll zu publizieren. "Wenn Journalismus nicht richtig entlohnt wird und das Wissen und der Content, den wir schaffen, nicht wertgeschätzt wird, dann sehe ich schon eine Gefahr", sagt sie.
Gewerkschaft befürchtet Personalabbau
Die angemessene Entlohnung journalistischer Arbeit angesichts des KI-Zeitalters: Darum geht es auch der Journalistengewerkschaft. "Wir sorgen uns, dass jene, die diese Inhalte herbeischaffen, nämlich Journalistinnen und Journalisten, dann finanziell völlig durch die Finger schauen", sagt Vorsitzende Ute Groß. "KI wird nichts recherchieren. KI wird nicht eine Nacht lang vor dem Parlament ausharren, um Neuigkeiten zur Regierungsbildung zu erfahren."
In den laufenden Kollektivvertragsverhandlungen mit dem Verband Österreichischer Zeitungen spielt das deshalb genauso eine Rolle wie eine Kennzeichnungspflicht bei KI-Inhalten. Die Gewerkschaft befürchtet auch Kündigungswellen. "Das sind eher Andeutungen am Rande, wo es heißt, es komme dann die KI und dann werde man schon sehen, ob wir noch alle Mitarbeiterinnen und Mitarbeiter brauchen", erzählt Groß.
Die deutsche BILD-Zeitung hat sich jedenfalls schon im großen Stil von Mitarbeitenden getrennt, deren Fähigkeiten von einer KI ersetzt werden können, heißt es. Das Gegenargument: Die Technologie nehme nur Tätigkeiten ab, die ohnehin nicht zu den journalistischen Kernaufgaben gehören. Groß ist da skeptisch. Zu sehr würden viele Häuser auf das nächste Quartalsergebnis schauen.
"Journalismus von gestern" kommt zurück
Die Sorge der Gewerkschaft ist in etwa das, was Medienforscherin Alexandra Borchardt bei der UNESCO-Diskusison so beschreibt: "Die generative KI birgt große Risiken für die Sichtbarkeit des Journalismus. Die Gefahr ist wirklich, dass der Journalismus unsichtbar wird hinter dieser Suche, die einen mit scheinbar perfekt formulierten Inhalten konfrontiert."
Borchardt kommt zu dem Schluss, dass der Journalismus von morgen gerade deswegen wie der Journalismus von gestern werden könnte. "Es wird wieder viel wichtiger werden, mit echten Menschen an echten Orten zu reden. Weil man nicht unbedingt beurteilen können wird: Gibt es dieses Zitat denn? Oder ist das einfach durch eine KI ausgedacht?", skizziert Borchardt die Herausforderungen des Journalismus von morgen.
Medienmanager "beängstigend unambitioniert"
Mit dem KI-unterstützten Journalismus von morgen beschäftigt sich auch Patrick Swanson intensiv. Nachdem er zehn Jahre lang das ZIB Social Media Team geleitet hat, ging er 2023 nach Stanford. Mit seinem Start-Up "Verso" hilft er Medienunternehmen dabei, KI sinnvoll einzusetzen. Swanson stößt dabei immer wieder auch auf falsche Motivationen. "Viel mehr Sorge als Künstliche Intelligenz macht mir, wie Medienmanagerinnen und Medienmanager über diese Technologie sprechen. Ich finde es beängstigend unambitioniert zu sagen: Wie können wir es nutzen, dass wir drei Prozent Effizienzsteigerung erzielen?"
Künstliche Intelligenz sei vor allem eine Investition. Es gehe dabei nicht um Kosteneinsparungen. Die Fragen, um die es gehe, sind laut Swanson vielmehr: "Wie können wir unser Storytelling spannender machen? Wie können wir KI nutzen, damit die Nachrichten, die wir machen, personalisierter und relevanter sind für unser Zielpublikum?"
KI verändert die Erwartungen an Medien
Das sei allein deswegen notwendig, weil die viel größeren Veränderungen auf der Nutzer- und Nutzerinnenseite passieren., sagt Swanson: "Wir sind es gewohnt, dass uns ChatGPT eine personalisierte, maßgeschneiderte Antwort liefert. Und diese Erwartung werden Menschen an Medienunternehmen haben. Ich habe sie jetzt schon."
Swanson sitzt jetzt im Silicon Valley. Also dort, wo KI-Supermächte wie OpenAI und Google auch sind. Hierzulande ist man gegenüber der KI auch deswegen misstrauisch, weil man sich nicht weiter von diesen Tech-Giganten abhängig machen will. Er verstehe diese Angst, sagt Swanson. Datenschutz sei wichtig. Was er nicht verstehe, sei der passive Zugang, mit dem viele der neuen Technologie begegnen. In Europa bekomme er oft den Eindruck, dass Journalistinnen und Journalisten glauben, die Zukunft breche über sie herein. "Viele denken, die Zukunft ist etwas, das wir nicht steuern können, und fragen sich, wie man sich vor den Risiken schützen kann. In den USA denken die Menschen hingegen: Die Zukunft bricht nicht über uns herein. Die Zukunft, das sind wir."