Maschinen mit Vorurteilen

1. Wie IBM Algorithmen gerechter machen will
Gestaltung: Lukas Plank

2. WhatsApp schränkt Weiterleitung von Nachrichten ein

1. Künstliche Intelligenzen machen Fehler, und sie behandeln nicht alle Menschen gleich. Auch Fans einer maschinellen und durch-algorithmisierten Zukunft sehen das mittlerweile so. Aber wie soll man damit umgehen? Während manche Experten davor warnen, Künstliche Intelligenzen in sensiblen Bereichen einzusetzen, arbeitet man unter anderem bei IBM an Lösungen für das Problem. Vergangene Woche sprach Jennifer Sukis von IBM bei der Veranstaltung "Darwin und Marie" über ihre Gegenvorschläge. Lukas Plank hat sich erklären lassen, wie Sukis Künstlichen Intelligenzen Vorurteile abgewöhnen will.

2. WhatsApp-Nachrichten können nur mehr bis zu fünfmal weitergeleitet werden. Das hat eine Unternehmenssprecherin angekündigt. WhatsApp reagiert damit auf mehrere Fälle von Lynchjustiz in Indien; weitergeleitete Gerüchte und Falschnachrichten hatten dort einigen Menschen das Leben gekostet.

Moderation und Redaktion: Franz Zeller

Service

Jennifer Sukis: The origins of bias and how AI may be the answer to ending its reign


Kostenfreie Podcasts:
Digital.Leben - XML
Digital.Leben - iTunes

Sendereihe