
ORF/ELISABETH SCHARANG
Science Arena
Warum die KI Frauen nicht sieht
These trifft auf Erfahrung. Warum sieht die KI Frauen* nicht? - KI-Systeme greifen auf die von uns generierten Daten zurück; sie halten uns in gewisser Weise einen digitalen Spiegel herrschender Verhältnisse vor, zum Beispiel wenn es um Ungleichbehandlung geht. Elisabeth Scharang diskutiert mit der Daten- und Sprachwissenschaftlerin Mira Reisinger und der Technikphilosophin und Medienwissenschaftlerin Eugenia Stamboliev über Künstliche Intelligenz, Demokratie und Gender-Bias.
3. März 2025, 16:05
"Es wird in Bezug auf KI oft von menschlichen Konzepten gesprochen. Wir reden davon, dass die KI lernt, versteht und Wissen generiert. Aber Maschinen sind nicht annähernd so komplex wie unser Hirn. Wir sprechen Maschinen also Fähigkeiten zu, die nicht der Realität entsprechen", beginnt Mira Reisinger den Diskurs über die Konsequenzen von KI auf unsere Gesellschaft.
Diese Projektion menschlicher Fähigkeiten auf Maschinen würde von großen Unternehmen ausgenutzt, anstatt dass diese sich mit der Frage beschäftigen: Wie kann wertebasiert in der Computerwissenschaft entwickelt werden zum Beispiel wenn es um Sexismus, Rassismus und den Ausschluss marginalisierter Gruppe geht? Für eine Antwort auf diese Frage muss man einen Blick auf die werfen, die an der Entwicklung von KI-Modellen arbeiten.
Wer füttert die KI mit Daten?
Die Technikphilosophin Eugenia Stamboliev beschäftigt sich mit der Frage, welches Demokratieverständnis Menschen brauchen bzw. haben sollten, die KI-Modelle generieren; Modelle, die letztlich in allen Bereichen unseres Lebens und unseres Alltags zum Einsatz kommen. "Wir brauchen ein großes Umdenken in diesem Bereich und eine interdisziplinäre Herangehensweise. Politikwissenschaft, Philosophie, Medienwissenschaft, Journalismus und Computerwissenschaft - alle diese Disziplinen sollten zusammenarbeiten, wenn es um die Entwicklung von KI-Modellen geht. Es macht einen großen Unterschied, ob in deinem Studium Demokratieverständnis ein ständig begleitendes Thema ist und du dir bewusst bist, dass deine Arbeit in soziale und politische Entscheidungen mit einfließt."
Um interdisziplinäre Erfahrungen im Bereich KI zu bündeln, haben sich Expert*innen aus verschiedenen Sparten in der internationalen Vereinigung "Women in AI" zusammengeschlossen. In der stark wachsenden und sehr aktiven Österreichgruppe, die als unabhängige NGO agiert, wird unter anderem über das Problem diskutiert, dass weiblich gelesene Menschen von KI-Systemen nicht gesehen werden. "KI generierte Bilder von Frauen schieben die echten Bilder von Frauen im Suchverlauf nach unten, was heißt das demokratisch: die hart erkämpfte Sichtbarkeit von Frauen und marginalisierten Gruppen, droht wieder verloren zu gehen," sagt Eugenia Stamboliev.
Wie kann man einer KI Gender-Bias nachweisen?
"Das lässt sich manchmal erst im Nachhinein feststellen", sagt Mira Reisinger. "Doch es gibt Unternehmen, die sind sich dessen bewusst, dass ihre Anwendungen Menschen ausgrenzen. Man könnte es Real-Life-Testing nennen, was gerade mit den großen generativen KI-Systemen stattfindet, die in der Hand von wenigen Unternehmen sind, weil nur wenige die Ressourcen für die Entwicklung und Instandhaltung haben. ChatGPT zum Beispiel hatte so schnell einen negativen Einfluss erzeugt, dass man sagen hätte können: Ok, das war ein Experiment und diesen freien Zugang zu ChatGPT, den stecken wir nochmal zurück." Reisinger, die für ein Start-up arbeitet, das Institutionen und Unternehmen berät und unterstützt, faire und verantwortungsvolle KI-Modelle zu entwickeln, stellt die Kritik aus der Branche in Frage, dass durch den EU-"AI Act" Innovation verhindert würde. "Was ist das für eine Innovation, die nicht auf Werte wie Transparenz und Fairness achtet?" Mira Reisinger kritisiert die schnelle Erzeugung von Inhalt durch KI und die daraus entstehende Miss- und Desinformation. "Außerdem erleben wir eine Verstärkung negativer Stereotypen durch KI."
In "These trifft auf Erfahrung" geben die beiden Wissenschaftlerinnen über konkrete Beispiele Einblick in die Praxis und in die aktuelle Forschung zum Thema Künstliche Intelligenz in Zusammenhang mit demokratiepolitischen Fragen und Gender-Bias.
Gäste:
Mira Reisinger, Daten- und Sprachwissenschaftlerin
Eugenia Stamboliev, Technologiephilosophin und Medienwissenschaftlerin
Service
Podcast abonnieren
Women in AI