Collage

KI generiert

Diagonal

Künstliche Intelligenz als neue digitale Normalität?

Zwischen Zukunftsvision und problematischem Verhältnis zu Authentizität

Das Thema Künstliche Intelligenz ist spätestens im Herbst 2022 mit dem Launch von Chat GPT des US-Unternehmens OpenAI in der Mitte der Gesellschaft angekommen. Kaum ein Feuilleton, eine Talkshow, oder politische Debatte kommt an Artificial Intelligence, oder kurz AI, vorbei. Aber was verstehen wir eigentlich darunter?

Bei Künstlicher Intelligenz handle es sich um einen Sammelbegriff für verschiedene Technologien, so die Mathematikerin Paola Lopez. Diese Bezeichnung habe sich aber im Laufe der Zeit immer wieder verändert und geht auf eine Konferenz in den 1950ern in Dartmouth zurück. Was man aber derzeit meist unter Künstlicher Intelligenz, oder KI, zusammenfasst, sind entweder Prognose- oder Klassifizierungsmodelle. Diese werden auf der Basis von gigantischen Datenmengen erstellt und sind in der Lage, verschiedene Outputs zu erzeugen, wie Bild, Text oder Sound, so Lopez.

Um an die Masse an benötigten Daten zu kommen, ist das Internet die Grundlage für sogenannte Scrapes, also quasi das Abgrasen aller möglichen Informationen, die digital verfügbar sind. An diesem datenbasierten Korpus werden dann Modelle trainiert, bekommen menschliches Feedback auf deren Lernfortschritt und können dann auf Grundlage dessen Neues generieren. So werden solche KIs auch als generative AI Models bezeichnet, wie zum Beispiel das erwähnte ChatGPT, Googles Gemini, oder Stable Diffusion.

Magische KI

Diese KI-Werkzeuge entfalten auf den ersten Blick eine fast magische Wirkung, so die Mathematikerin, da sie aus nur ein paar Worten oder “Prompts wie “Zeig mir einen Hund, der auch gleichzeitig ein Croissant ist“, einen Inhalt erstellen können, der scheinbar aus dem Nichts kommt. Dieser Schein trügt jedoch, denn diese Modelle brauchen nicht nur eine Vielzahl an Daten (die meist urheberrechtlich geschützt sind und die Frage nach deren Verwendung die Gerichte befasst), Energie, Wasser, oder menschliche Arbeit, um damit ein Bild zwischen Hund und Croissant zu erzeugen. Auch die menschliche Arbeit in der Erstellung der KI hat es in sich, so Lopez, denn dabei werde nicht nur Feedback während des Trainingsprozesses gegeben, sondern auch toxische Inhalte aus den Trainingsdaten entfernt. Und wie man weiß, kann das Internet auch ganz schön fies sein.

KI - Was soll ich glauben?

Markus Beckedahl, Co-Gründer der Berliner Digital- und Gesellschaftskonferenz Re:Publica, sieht in KI eine Technologie, die unser Leben verändert. Dabei ist es aber zentral, diese Technologie aktiv zu gestalten, ihre Macht zu begrenzen und gemeinwohlorientierte Alternativen zu schaffen. Auch im Bereich der Gesellschaft ist das Thema KI nicht zu vernachlässigen und drängt die Frage nach „Können wir in einer KI-Welt noch Informationen vertrauen?“ auf. Markus Beckedahl betont die Dringlichkeit der Mechanismen und Infrastrukturen, die notwendig sind, um Vertrauen zu KI-generierten Inhalten zu schaffen, die uns ein ähnliches Maß an Sicherheit wie für Analoges gewährleisten können. Aber wie funktioniert das genau? Mit diesen Fragen, so Beckedahl, müssen wir uns beschäftigen, da es absehbar ist, dass wir Bildern, Videos und Tönen nicht mehr einfach so trauen können, wie wir es gelernt haben.

Alles authentisch?

Dabei spielt auch Authentizität eine wichtige Rolle, meint Susannah Montgomery, die auf der Re:Publica gemeinsam mit Andy Sanchez die Ausstellung “Fabricated“ zu KI, Desinformation, zielgerichteter Werbung, Faktenchecks und Wahlen kuratiert hat. Denn unsere Identitäten zwischen online und offline verschmelzen zunehmend, und das noch deutlicher bei jüngeren Generationen. In der Gen Z (also Menschen, die zwischen 1997 und 2012 geboren wurden) sind authentisch wirkende Marken und Produkte bedeutend, da diesen mehr Vertrauen geschenkt wird, so Susannah Montgomery. Ob etwas als authentisch wahrgenommen wird, variiert jedoch und ist von Subjektivität geprägt. Dabei geht das gemeinsame Realitätsempfinden durch die Digitalisierung und die für Engagement optimierten Algorithmen gerade in politischen Bereichen verloren, so Andy Sanchez. Dem soll “Fabricated“ auf spielerische Weise entgegenwirken und gemeinsam erlebte Realitätsmomente schaffen, die über Online-Werbung, Deepfakes oder Fehlinformationen informieren.

Deepfakes und Gender-Dynamik

Bei Deepfakes handelt es sich auch um eine Sammelbezeichnung, laut Paola Lopez, bei der bestimmte generative KI-Technologien etwas gezielt Unwahres abbilden (dabei handelt es sich oft um Ton-, Bild- oder Videomaterial). Bei diesem digitalen Phänomen sei, so Lopez, eine besonders schädliche Dynamik entlang der Gender-Kategorien zu finden, denn problematische Deepfakes bilden meist Frauen in sexualisierten Inhalten ab. Dabei werde ein Bild mit KI glattgebügelt und mittels KI-Technologien auf andere Szenen geklebt, mit überzeugend echt wirkenden Resultaten, denen eben eine starke geschlechtliche Rolle innewohnt. Echtes von Fakes zu unterscheiden sei aber gerade im digitalen Raum eine Herausforderung, die auf vorhergehenden Entwicklungen fußt, da wir uns zunehmend in digitalen Räumen bewegen und es gerade dort besonders schwierig ist, abzuschätzen, ob es sich um menschlich Erzeugtes oder um KI-generierte Inhalte handelt. Diese Problematik kann zu destabilisierender Verunsicherung in der Gesellschaft führen, so Lopez.

KI-generierte Desinformation

Eine andere Facette der Risiken im Kontext mit Künstlicher Intelligenz ist Desinformation. Bei dieser handelt es sich um absichtlich verbreitete Information, die einen Schaden verursacht, die entweder vollständig oder teilweise falsch ist. Verbreitet werde diese absichtlich zu Zwecken der Manipulation, um “Rezipientinnen in die Irre zu führen und einen eigenen Vorteil daraus zu ziehen, wie zum Beispiel finanzielle Aspekte zu fördern, aus ideologischer Motivation oder politischem Nutzen“, meint die Wissenschaftlerin Rita Gsenger des Weizenbaum-Instituts. Sie führt die Bauernproteste in Deutschland als anschauliches Beispiel von KI-generierten Inhalten und Desinformation an. Dabei sei KI vor allem in Zusammenhang mit der Erstellung von Plakaten und Veranstaltungswerbung für Proteste genutzt worden. Diese zeigten gehäuft heroische Darstellungen von Bauern, die sich auf die Wahrnehmung der Rezipientinnen auswirken und schier generierte Protestdarstellungen zeigten. Eine solche Dekontextualisierung wirke sich aber auch auf Menschen aus, so Gsenger.

Wasserzeichen und Kennzeichnung

Deshalb betont Rita Gsenger die Zentralität von Kennzeichnung von KI-generierten Inhalten und vergleicht diese mit Werbung, die der Kennzeichnungspflicht unterliegt, wie zum Beispiel bei Werbung in YouTube-Videos. Auch neue Regulierungen nehmen den Gedanken auf, KI-Inhalte auszuweisen. In Zusammenhang mit Desinformation hat die EU zum Beispiel vor den Europäischen Wahlen Richtlinien herausgegeben, wie große Online-Plattformen wie Instagram, TikTok oder X mit KI-generierten politischen Inhalten umgehen sollten und empfehlen Watermarking für KI-generierten Content. Bei Desinformation seien auch verbreitende Akteure wie Influencer wichtig, die viel eher an unternehmerische Strukturen erinnern als One-Man-Shows und ein großes Gewicht im Umlauf von KI-generierter Desinformation haben.

Aufgebauschte Erwartungen und gefährliche Empfehlungen

KI-Systemen wird also viel Wirkmächtigkeit zugeschrieben, die von industriegetriebenen Hypes befeuert werden, diese Vorstellungen über die quasi-allgegenwärtige Möglichkeit, KI einzusetzen, oder die Wahrscheinlichkeit unter dem Titel „P-Doom“ besprochen, dass Künstliche Intelligenz uns alle auslöschen wird. Dabei sind aber auch Stimmen der Kritiker, die ihrer Skepsis Gehör verschaffen wollen, Wasser auf den Mühlen der großen AI-Startups in Silicon Valley und anderen Locations in verglasten Büros und bemoosten Wänden mit Neon-Licht-Kunst beheimatet sind, denn auch die konstante Beschreibung der Risiken der Künstlichen Intelligenz befeuert den Hype durch die Hintertüre. Und wir machen der neuen Technologie mehr und mehr Platz in unserer Gesellschaft, dabei ist es aber nicht ganz so utopisch wie in manchen Science-Fiction-Erzählungen, in denen die KI uns alles abnimmt, meint Paola Lopez, sondern wir ändern unser Verhalten ab, damit KI-Systeme anhand dieser Vorlagen und Handlungsweisen uns nützlich sein können. Dabei seien die Limitationen der KI oft klar und augenscheinlich, meint die Mathematikerin, denn wenn einem Google-KIs erzählen, man solle jeden Tag einen Stein essen, da ein Stein der Gesundheit zuträglich sei, lässt diese generierte Empfehlung an einen fatalen Diät-Ratschlag im Stil von Marie Antoinette denken. Solche Beispiele zeigen dann auch auf, wie schwierig Prognosen über diese Technologie, ihre Genauigkeit, Einsatzmöglichkeiten und regulierende Interventionen sein können. Da bleibt nur noch zu sagen: „Sollen sie doch Steine essen.“

Text: Marie-Therese Sekwenz

Service

Sustainable Media Lab
re:publica
EU-Kommission - Digital Service Act
Weizenbaum Institut - Rita Gsenger
Uni Bremen - Paola Lopez
Der Standard - Neue Google-Suche kämpft mit Problemen
EU-Parlament - Harmonised Rules On Artificial Intelligence
EU-Kommission - Code of Practice on Disinformation
EU-Kommission - Digital Service Act