KI: Wenn der Algorithmus Vorurteile hat April 15, 2022

from Spektrum-Podcast· ·

Künstliche Intelligenz ist nicht objektiv: Sie übernimmt die Vorurteile des Menschen. KI kann deshalb rassistisch, sexistisch oder anderweitig diskrimierend sein. Je nach Einsatzbereich wird das zum Problem. * * * [00:00] Intro und Begrüßung [04:07] Wo emotionale KI schon eingesetzt wird [06:44] KI ist nicht neutral [10:53] Zukünftige Einsatzgebiete und Probleme [14:08] Wie kann man KI besser machen? [16:01] Verabschiedung * * * >> Artikel zum Nachlesen:



Wut, Trauer, Freude: Schon heute kann künstliche Intelligenz (KI) Emotionen erkennen. Bislang kommt das vor allem in Werbung und Marketing zum Einsatz. So wird etwa mithilfe von Kameras untersucht, wie potenzielle Kundinnen und Kunden auf bestimmte Produkte im Supermarkt oder auf Messen reagieren. Auch in Bewerbungsgesprächen setzen einige Unternehmen bereits KI ein, um mithilfe der Algorithmen mehr über die Bewerberinnen und Bewerber zu erfahren.

Forschende arbeiten daran, diese Technologien noch zu verbessern und so weitere Anwendungsgebiete zu erschließen. In Zukunft könnten beispielsweise Strafverfolgung und Sicherheitsbehörden auf KI setzen, etwa bei Lügendetektoren oder an Grenzübergängen.

Rassistische KI

Dabei gibt es allerdings ein Problem: KI ist – anders als oft vermutet – nicht neutral und objektiv. Auch wenn die Algorithmen dazulernen, basieren sie nämlich auf den Ideen von Menschen und übernehmen so deren Vorurteile. Ein Beispiel ist die Theorie der Basisemotionen des Psychologen Paul Ekman, auf der die Datensätze der Algorithmen häufig basieren. Diese Theorie ist heute allerdings umstritten, weil sie kulturelle und individuelle Unterschiede nicht berücksichtigt.

Studien zeigen beispielsweise, dass KI rassistisch urteilt: So wurden in einer Untersuchung von US-Basketballern den schwarzen Spielern häufiger negative Emotionen unterstellt als ihren weißen Kollegen. Andere Beispiele zeigen einen sexistischen Bias der Algorithmen. Zum Beispiel wurden in Bewerbungsverfahren bei Amazon Frauen häufiger aussortiert als männliche Kandidaten. In einer Studie mit US-Kongressabgeordneten bewertete ein Computerprogramm Frauen als freundlicher und sympathischer.

Geht man davon aus, dass KI in Zukunft noch deutlich häufiger zum Einsatz kommen wird, gilt es daher, diese Vorurteile in den Datensätzen auszumerzen oder sich zumindest darüber im Klaren zu sein, dass auch der Computer diskriminierende Urteile fällen kann. Manon Bischoff von Spektrum der Wissenschaft erklärt im Gespräch mit detektor.fm-Moderator Marc Zimmer, wie das gelingen könnte und woran die Forschung derzeit arbeitet.