Live hören
Jetzt läuft: Stormvogel (live) von Jungle By Night

COSMO Tech - Rassismus: Diskriminierung per Algorithmus

COSMO Tech: Gesichtserkennungstechnologie

Netzsperren

COSMO Tech - Rassismus: Diskriminierung per Algorithmus

Von Dennis Horn und Jörg Schieb

Wir leben mit dem Vorurteil, unsere Computer wären objektiv. Dass da nichts wäre zwischen 0 und 1. Dass sich Computer nicht irren und immer objektiv entscheiden. Das ist falsch, denn Algorithmen diskriminieren - und sie treffen dabei auch immer wieder rassistische Entscheidungen.

Der Todesfall George Floyd hat weltweit Proteste gegen Polizeigewalt und Rassismus ausgelöst. Ein guter Anlass, um auch über Diskriminierung per Algorithmus zu sprechen. Denn dort, wo künstliche Intelligenz im Einsatz ist, reproduzieren Algorithmen immer wieder rassistische, frauenfeindliche oder anderen Formen der Diskriminierung.

[02:50] Linktipps zur Rassismusdebatte

Der technische Blick auf Rassismus ist nur ein kleiner Aspekt einer sehr viel größeren Debatte - auf die wir in COSMO Tech nicht eingehen. Deshalb möchten wir euch ein paar Empfehlungen geben, falls ihr mehr über die gesellschaftlichen und politischen Aspekte wissen möchtet.

COSMO Tech - Rassismus: Diskriminierung per Algorithmus

COSMO TECH 07.07.2020 01:00:13 Std. Verfügbar bis 06.07.2025 COSMO

Download

Jan Kawelke, Vassili Golod und Salwa Houmsi haben sich in mehreren Episoden von Machiavelli mit Rassismus beschäftigt. Sie sprechen in ihrer Episode zum Black History Month zum Beispiel mit der Grünen-Politikerin Aminata Touré, dem Rapper Megaloh und der Journalistin Alice Hasters über das Thema. Die Episode "Hast du Polizei?" beschäftigt sich ausführlich mit Polizeigewalt, Rassismus und Racial Profiling.

Außerdem gibt es bei COSMO ein ganzes Special zur Diskussion über Straßennamen. Eine ganze Reihe von Straßen und Plätzen in Deutschland tragen Namen, die zum Beispiel nach Personen benannt sind, die als Mittäter oder Mitschuldige im Nationalsozialismus oder im deutschen Kolonialismus gelten. Die bisherigen Beiträge findet ihr hier auf der Seite.

[06:16] Beispiele für diskriminierende Algorithmen

Es gibt unzählige Beispiele für diskriminierende Entscheidungen von Algorithmen - und sie haben oft damit zu tun, dass diese Algorithmen vorher mit Datensätzen trainiert wurden, in denen bereits Diskriminierung enthalten war. "Trash in, trash out", nennen KI-Forscher dieses Problem.

Die Informatikerin Joy Buolamwini hat erforscht, welche Auswirkungen das hat: Als schwarze Frau wird sie von Gesichtserkennungsoftware nicht erkannt. Buolamwini demonstriert das Problem auf ihrem TED-Talk - und stellt die wichtige Frage, wie sehr wir Algorithmen vertrauen sollten.

Wer entscheidet, ob wir einen Job bekommen oder nicht? Erfüllen wir die Voraussetzungen für bestimmte Versicherungen? Zahlen wir alle denselben Preis für dieselben Produkte? Diese Entscheidungen treffen heute oft Algorithmen - und die Gefahr der Diskriminierung ist groß.

+ Künstliche Intelligenz macht Barack Obama weiß [Twitter]

Dieses Element beinhaltet Daten von Twitter. Sie können die Einbettung auf unserer Datenschutzseite deaktivieren.

+ How I'm fighting bias in algorithms [TED]

[32:48] Lösungsansätze gegen diskriminierende Algorithmen

Lorena Jaume-Palasí ist Gründerin der Ethical Tech Society, einer gemeinnützigen Organisation, die die Ethik der Automatisierung erforschen möchte. Sie wurde 2017 von der spanischen Regierung in den Weisenrat zu Künstlicher Intelligenz und Datenpolitik berufen und war Sachverständige auch für das Europäische Parlament und die Europäische Kommission für künstliche Intelligenz und Ethik.

In COSMO TECH sprechen wir mit ihr über die Frage, wie Lösungen gegen Diskriminierungen per Algorithmen aussehen könnten, ob Algorithmen manche bisher unbekannte Diskriminierung nicht sogar erst offen zeigen und ob wir unsere Erwartungshaltung an Algorithmen nicht vielleicht überdenken sollten.

+ Lorena Jaume-Palasí bei Twitter

Kontakt

E-Mail: cosmotech@wdr.de

Die nächste Ausgabe von COSMO TECH erscheint am 18. August 2020.

Stand: 07.07.2020, 10:00