Passanten

AP/MARK LENNIHAN

Wie Algorithmen fairer werden sollen

Eigentlich sollen sie helfen, die richtigen Entscheidungen zu treffen: welcher Kunde kriegt einen höheren Kreditrahmen, wer ist die fähigste Kandidatin für einen Job, welcher Straftäter hat ein hohes Rückfallrisiko. Doch mittlerweile gibt es jede Menge Fälle, in denen Algorithmen unabsichtlich diskriminierten.

Es geschieht, weil entsprechende Softwaresysteme nicht auf Bäumen wachsen, sondern von Menschen programmiert werden und aus Datensätzen lernen, die eine Vergangenheit abbilden, in der Frauen, AfroamerikanerInnen, Menschen mit Behinderung eben von Menschen diskriminiert wurden.

Weil Frauen in der Vergangenheit im Unternehmen weniger oft befördert wurden, lernt die Maschine etwa, dass männliche Jobanwärter besser in die Firma passen. „Machine bias“, so nennen Informatiker/innen diese oft durch problematische Daten oder Modelle generierten maschinellen Vorurteile.

Immer mehr Wissenschaftlerinnen und Aktivisten machen sich daran, voreingenommene Algorithmen aufzudecken und nach Möglichkeiten zu suchen, Software fairer und transparenter zu gestalten.

Das Problem ist viel länger bekannt ist, als man vermuten würde.

Ende der 1970er Jahre ärgerte sich Geoffrey Franglen darüber, wie viele Stunden er jedes Jahr in die Auswahl neuer Student/innen investieren musste. Franglen war Vizerektor in einem Universitätskrankenhaus in London. Eine seiner Aufgaben: Aus Tausenden Bewerbungsschreiben musste er die meistversprechendsten zukünftigen Studierende ermitteln. Nur ein Viertel der BewerberInnen schaffte es gewöhnlich in die zweite Runde. Um wertvolle Zeit zu sparen, schrieb er ein Computerprogramm, das seine Arbeit und die der anderen AssessorInnen nachahmen sollte.

Zusätzlich glaubte er, dass ein Algorithmus den Bewerbungsprozess auch fairer machen würde, weil persönliche Vorlieben außen vor blieben. Die ersten Tests überzeugten, die Maschine gelangte in knapp 90 Prozent der Fälle zu den gleichen Ergebnissen wie menschliche Entscheider. Der Algorithmus übernahm die Vorauswahl.

Im Dezember 1986 meldeten zwei Mitarbeiter die Software an die britische Commission for Racial Equality. Sie bemerkten, dass die ausgewählten BewerberInnen wenig divers waren. Eine Untersuchung ergab, dass der Algorithmus tatsächlich Studierende mit nicht englischen Namen und nicht englischem Geburtsort schlechter bewertete. Auch Frauen wurden Punkte abgezogen.

Was vor 40 Jahren noch per Hand programmiert wurde, passiert heute automatisch.

Laut Franglen spielten Herkunft und Geschlecht für das Resultat nur eine marginale Rolle. Tatsächlich waren aber pro Jahr 60 Bewerber/innen allein durch diese Kriterien aussortiert worden. Der Algorithmus diskriminierte, das war für die Commission for Racial Equality klar. Die Software wurde wieder abgeschafft. Damals hatte die Regeln, nach der die Maschine Bewerber/innen aussuchte, ein Mensch geschrieben. Heute sucht selbstlernende Software in Tausenden Datensätzen nach Mustern und leitet daraus Regeln ab.

Was Geoffrey Franglen vor 40 Jahren noch mühsam per Hand programmieren musste, passiert heute automatisch. Das macht solche Systeme noch um einiges komplizierter und intransparenter. Immer mehr Computerwissenschaftler/innen fordern TÜVs für Algorithmen. Systeme müssen ordentlich getestet und die Resultate der Tests öffentlich gemacht werden, um versteckte Diskriminierung zu entdecken. Aber wenn wir gut mit Maschinen zusammenarbeiten wollen, müssen auch wir uns ändern. Wir müssen lernen, Maschinen mehr zu misstrauen.

Gestaltung