KI-GENERIERTES BILD
Digital.Leben
Schleimerische KIs
Warum es gefährlich sein kann, wenn der Chatbot uns immer Recht gibt
26. Februar 2026, 17:55
"Ausgezeichnete Frage, Ulla!" "Hervorragende Idee!" "Ja, das wird ein einzigartiger Beitrag!" So ungefähr klingt es, wenn ich mit dem KI-Chatbot meines Vertrauens über meine Sendungsideen spreche. Und so geht es nicht nur mir. KI-Sprachmodelle neigen nämlich fast alle zu einem "sykophantischen Verhalten", sprich: zum Schleimen und Speichellecken. Sie sind darauf trainiert, hilfsbereit und nützlich zu sein - und übertreiben das mitunter. Sie sagen uns, was wir hören möchten, bestärken uns in all unseren Vorschlägen. Das klingt zunächst ganz nett, birgt aber auch Gefahren. Denn, wie mehrere Forschungen zeigen, stimmen KIs ihrem Nutzer oft auch dann zu, wenn er von einer Falschnachricht überzeugt ist oder eine wirklich dumme, selbstgefährdende Idee hat. Besonders problematisch ist das bei Gesundheitsfragen. Wir haben darüber mit dem Molekularbiologen und Science Buster Martin Moder gesprochen, der sich in seinen Social Media-Kanälen immer wieder mit schleimerischen KIs beschäftigt.
Service
Martin Moder
Saferinternet.at - KI-Chatbots als Alltagsbegleiter für Jugendliche
Mrinank Sharma et.al.: Towards Understanding Sycophancy in Language Models
Jiseung Hong et.al.: Measuring Sycophancy of Language Models in Multi-turn Dialogues
Rafael M. Batista, Thomas L. Griffiths: A Rational Analysis of the Effects of Sycophantic AI
Podcast abonnieren
