Michael Bihlmayer/ChromOrange/picturedesk.com
Was KI-Sprachmodelle können und was nicht
Halluzination mit Chancen und Risken
Sprachmodelle wie zum Beispiel ChatGPT werden mit einer Unmenge an Texten trainiert. Das Ergebnis jedes Sprachmodells ist aber nur eine Wahrscheinlichkeitsberechnung, die in Wörter übersetzt wird. Jeder Output sei daher im Grunde genommen eine Halluzination, gibt Sabine Köszegi, KI-Forscherin an der Technischen Universität Wien, zu bedenken.
9. Jänner 2025, 19:00
Da die Künstliche Intelligenz nicht bewerten kann, ob etwas gut, schlecht, wahr oder falsch ist, sind es die Leserinnen und Leser, die dann dem KI-generierten Text Sinn zuschreiben. Dies ist aber nur möglich, wenn die Benutzerinnen und Benutzer das Ergebnis kompetent einschätzen können und über Wissen des jeweiligen Textes verfügen. Köszegi betont zudem: "Die Gefahr, die eigentlich darin besteht, liegt in diesem großen Missverständnis, dass der Output eines KI-Systems wie ChatGPT tatsächlich so etwas wie Intelligenz, Wahrheit und Information ist."
KI-Tools im Kampf gegen Desinformation
Andererseits kann die Künstliche Intelligenz auch dabei helfen, Desinformationen aufzudecken. KI-Forscherin Mubashara Akthar hat dazu in ihrer Doktorarbeit am King’s College in London geforscht. Konkret hat sie sich darauf konzentriert, wie KI-Systeme dabei unterstützen können, Fake News aufzudecken und zu verifizieren. Dazu hat sie ihre Künstliche Intelligenz mit verifizierten Fake News Inhalten trainiert. In einem weiteren Schritt begründet die KI dann auch, warum sie zu diesem Ergebnis gekommen ist. Dieser Schritt führt dazu, dass die Anwendung von Journalisten und Fact-Checkern akzeptiert wird.
Da sich die generative Künstliche Intelligenz stetig weiterentwickelt, wird es bald unmöglich werden, KI-manipulierte Bilder mit freiem Auge zu erkennen. Und das kann wiederum zu einem großen Vertrauensverlust führen, warnt Medienforscherin und Journalistin Alexandra Borchardt. In Zukunft könne man nicht wissen, ob Bilder, Videos und Audiospuren von Politikerinnen und Politikern echt oder manipuliert seien.
Ein Wasserzeichen für künstliche Bilder
Um dieser Entwicklung entgegenzusteuern, werden momentan Systeme entwickelt, die dann erkennen können, ob ein KI-Output manipuliert oder "echt" ist. Zusätzlich sollen Unternehmen ab 2026 KI-generierte Bilder und Videos mit einer Art digitalem Wasserzeichen versehen. Dabei soll ein für die Menschen unsichtbarer Code in KI-generierte Bilder eingefügt werden, der dann von anderen KI-Systemen erkannt werden soll.
Schwieriger ist es für die Künstliche Intelligenz, Manipulationen in Texten zu erkennen, sagt Mubashara Akhtar: "Vielleicht ist da Sarkasmus inkludiert, vielleicht ist in der Aussage etwas versteckt, was für ein System nicht sehr leicht zu erkennen ist. Wir Menschen aber, die uns mit dem konkreten Land, mit der politischen Lage dort gut auskennen, können sehr schnell erkennen, worum es da geht." Hier ist der Mensch nicht zu ersetzen, die die Ergebnisse noch einmal gegenchecken und sie dann an die Leserinnen und Leser kommunizieren.
Tücken der Textanalyse mit der Maschine
Zeit und Arbeit mit Hilfe sogenannter "Large Language Modelle" wie ChatGPT könne man sich mit der Übersetzung von Texten und auch Zusammenfassungen umfangreicher Texte sparen, sagt Sabine Köszegi, aber sie warnt: "Wenn Sie einen Text zusammenfassen lassen, den Sie nie gelesen haben, dann wissen Sie nicht, was die Maschine als irrelevant vielleicht nicht hervorgehoben hat."
Dass sich KI-Systeme linear weiterentwickeln und dabei besser werden, ist ein Trugschluss. Sie können sich nämlich auch verschlechtern, erwähnt Medienwissenschafterin und Technikphilosophin Eugenia Stambiolev. Wie erwähnt, werden Sprachmodelle mit einer Unmenge an Texten trainiert. Jetzt gehen aber die Trainingsdaten aus, weil das Internet quasi leergefegt sei. Wenn die menschlichen Daten fehlen, kommen synthetische Daten ins Spiel. Das sind Daten, die von einer KI erzeugt werden, erklärt Stambiolev: "Also KI von KI. Und die KI spielt sich gegenseitig dann zu. Sprich diese Daten haben dann weniger Menschen-Bezug. Ich würde nicht sagen gar keinen, weil irgendwo fing es immer an mit einem Menschen, aber irgendwo in der Schleife verliert sich das."
Wenn sich das Trainieren der Systeme totläuft
Der Einsatz von synthetischen Daten werde zu einem minderwertigen Output führen, prognostiziert Stambiolev: "Wer weiß, was wir dann für Absurditäten an Geschichten herausbekommen, weil die KI versteht ja Wahrheit und Lüge nicht, die wird dann einfach irgendwas produzieren." Zusätzlich wird nicht mehr nachvollzogen werden können, ob menschliche Quellen oder synthetische Daten für das Ergebnis herangezogen wurden. Die Konsequenz ist hier erneut fehlendes Vertrauen.
Noch eine Gefahr: die Künstliche Intelligenz verstärkt Stereotype. 2023 ist in Deutschland ein KI-Radio auf den Markt gekommen – inklusive einer KI-Radiomoderatorin namens "Big Layla". Die KI hat sie als schlank, normschön und mit einem tiefen Dekolleté entworfen. Dass die KI hier ein sexualisiertes Frauenbild übernimmt, liegt laut Sabine Köszegi daran, dass kaum Frauen an der Programmierung von KI-Systemen beteiligt sind. Dadurch passierten sehr viele Fehler im Design. Um dies zu vermeiden, müssten mehr Frauen und mehr Diversität in die Entwicklerteams.
ChatGPT verstärkt Unsichtbarkeit von Frauen
Außerdem werden stereotype Denkmuster auch von ChatGPT reproduziert und somit Diskriminierungen verstärkt. Als Beispiel nennt Köszegi identische Lebensläufe mit unterschiedlichen Nachnamen bei den Kandidatinnen und Kandidaten. Das Ergebnis: allein durch den Namensunterschied kommt ChatGPT zu unterschiedlichen Eignungen.
Solche Benachteiligungen entstehen auch durch fehlende Datensätze, erklärt die Philosophin Eugenia Stambiolev. Menschen würden dann von der KI einfach nicht erkannt: "Man denkt oft bestimmte Gruppen nicht mit, und dann verstärkt sich diese Unsichtbarkeit."
Fragt man ChatGPT, ob man ihr/ihm/es vertrauen könne, folgt die Antwort: "Ich habe keine eigenen Interessen. Breites Wissen - Ich habe Zugriff auf viele Informationen und bin darauf trainiert, objektiv zu antworten. Keine Absichten - Ich kann nicht lügen oder bewusst manipulieren." Eugenia Stambiolev sagt, Chatbots und Technologie generell seien nie neutral. "Das Beispiel zeigt, dass die Daten so trainiert wurden, dass es klingt, als ob der Chatbot für sich selbst spricht, als Person. Eine der größten Gefahren ist, dass wir solche Technologien unterschätzen, dass sie einfach auch Unternehmenskonzepte sind."
Die Künstliche Intelligenz ist also nur so gut wie ihre Programmiererinnen und Programmierer, der Faktor Mensch ist auch in der KI eingebaut - und im Zweifelsfall ist er ihre Schwäche.