Algorithmen haben Vorurteile

Null Eins

Algorithmen haben Vorurteile

Bei großen Bewerbungsverfahren sortieren Programme automatisch Bewerber aus, die aus einem sozial schwachen Umfeld kommen. Gibt man bei Google "Frauen sollten" ein, kommt die Erweiterung "nicht studieren". Wenn Algorithmen unseren Alltag bestimmen.

Computer-Algorithmen bestimmen immer stärker unseren digitalen Alltag. Aber was ein Algorithmus ist und was er bewirken kann, das weiß so genau kaum jemand. Algorithmen sind Grundlage eines jeden Computerprogramms. Sie treffen Entscheidungen, um Probleme zu lösen, und zwar nach dem "Wenn-Dann-Prinzip". Tritt ein bestimmtes Problem auf, reagiert der Algorithmus nach einer festgelegten Regel. Ein Beispiel ist der Thermostat zu Hause. Die "Wenn-Bedingung" ist die eingestellte Temperatur. Wenn die Temperatur draußen unter die eingestellten 20 Grad fällt, dann springt von alleine die Heizung an und heizt. Soweit, so simpel.

Maschinen mit Handlungsmacht

Nun werden aber immer mehr selbstlernende Algorithmen eingesetzt. Sie verändern diese festgelegten Regeln anhand von "Erfahrungen", also Wahrscheinlichkeiten, und gesammelten Daten und handeln so autonom. Am Beispiel des Thermostats heißt das, er fängt  schon an zu heizen, bevor man den Regler hochstellt, einfach weil er weiß, dass man normalerweise zu einer bestimmten Uhrzeit nach Hause kommt.

Eigentlich praktisch, doch genau da lauern auch Gefahren, sagt Zeneyp Tufecy, die an der University of North Carolina zum Thema Ethik und Algorithmen forscht. "Diese Maschinen haben Handlungsmacht, sie handeln, als wären sie eine Art Lebewesen", so die Wissenschaftlerin. Das sei etwas komplett Neues in der Geschichte der Menschheit.

Wenn relevante Dinge in keiner Timeline auftauchen

Ein Großteil unseres Alltags wird schon jetzt von Algorithmen bestimmt. "Wenn wir uns in sozialen Netzwerken, bei Facebook bewegen, kriegen wir nicht alle Mitteilungen angezeigt, sondern nur die, die Facebook in einem Algorithmus auswählt, den wir selbst gar nicht einsehen können", erklärt der Internet-Experte Ben Wagner, der an der Europa-Universität Frankfurt/Oder lehrt. "Wenn wir etwas mit Google suchen, kommen bestimmte Dinge zu uns, wobei auch nicht ganz klar ist wie, und wir freuen uns, dass sie da sind."

Eingabe in einer Suchmaschine im Internet

Google-Suche: "Wir freuen uns, wenn Inhalte da sind - egal wie sie zu uns kommen"

Diese Selbstverständlichkeit, mit der wir akzeptieren, dass bestimmte Dinge an uns heran getragen werden, mit der wir akzeptieren, dass Informationen, die möglicherweise gefiltert sind, auf uns einströmen, wird von einigen Wissenschaftlern zunehmend kritisch gesehen.

Facebook hat einen "Wohlfühl-Algorithmus"

Facebook hat zum Beispiel einen "Wohlfühl-Algorithmus". Dieser guckt sich an, was wir mögen und erstellt so ein Neigungsprofil eines jeden Nutzers. Sobald für dieses Profil genug Informationen gesammelt worden sind, werden einem zum Beispiel nur noch Statusnachrichten von Freunden angezeigt, die einem tendenziell auch gefallen. Auf diese Weise will Facebook seine Nutzer möglichst lange auf seiner Seite binden.

Demonstrationen Ferguson

Die Tat in Ferguson: "Eine Geschichte, die überhaupt nicht Algorithmen-freundlich war"

Das hat allerdings die Kehrseite, dass relevante Dinge bei Facebook komplett ausgeblendet werden. Als 2014 der Afroamerikaner Michael Brown in Ferguson in den USA erschossen wurde, tauchten Meldungen zu dieser Tat in keiner Timeline auf. Der Internet- Ethikerin Zeynep Tufecy war das damals sofort aufgefallen. "Eine Geschichte, die überhaupt nicht Algorithmen-freundlich war: Ein afroamerikanischer Jugendlicher wird von der Polizei erschossen. Das ist eindeutig etwas, das man nicht liken kann und was auch nicht so leicht zu kommentieren ist", sagt sie. "Also hat der Facebook-Algorithmus alle Nachrichten dazu ausgeblendet." Dafür wurde etwas anderes diskutiert: Die Ice Bucket Challenge, die auf die Nervenkrankheit ALS aufmerksam machen sollte. Das Ausblenden  von Nachrichten bei Facebook ist umso mehr ein Problem, da das soziale Netzwerk gerade von jüngeren Menschen oft die einzige Quelle für Nachrichten und Information ist.

"Algorithmen sollen oft auch bewusst diskriminieren"

Beantragen wir einen Kredit, eine Ratenzahlung oder eine Versicherung, trifft oft nicht ein Mensch die Entscheidung, ob diese bewilligt wird, sondern ein Programm. "Es ist so, dass Algorithmen oft auch bewusst diskriminieren sollen. Sie sollen zum Beispiel bei einer Versicherung zwischen verschiedenen Kunden unterscheiden können", sagt Internet-Experte Ben Wagner. Diskriminierende Aspekte werden dabei vollkommen bewusst in den Algorithmus eingepflegt. Rechtlich gesehen darf ein Versicherungsunternehmen weder das Geschlecht noch die Hautfarbe oder den Herkunftsort in die Berechnung der Police mit einfließen lassen. Trifft nun aber ein Algorithmus die Entscheidung, wird das Ganze umgangen.

Dabei wird das Programm mit Statistiken gefüttert: Wer ist der lukrativste Kunde, ist er schwarz oder weiß, ist er männlich oder weiblich, woher kommt er? "Der Algorithmus entwickelt sich dann über einen Prozess, der 'Machine Learning' heißt", erklärt Wagner. "Er führt dazu, dass quasi automatisch aus den bestehenden Daten heraus entschieden wird und so eine Diskriminierung durch die Hintertür stattfinden kann."

Entscheidungen, die ein Mensch so niemals treffen dürfte

Das heißt, erklärt Wagner weiter: "Man hat einen selbstentwickelten Algorithmus, der die bestehenden Vorurteile, die bestehende Geschlechter-Diskriminierung und die bestehende rassistische Diskriminierung, die bereits in der Gesellschaft und in den Prozessen vorhanden sind, verstärkt – und zwar darüber, dass er die Daten, die bereits vorhanden sind, verarbeitet."

Das von Algorithmen gesteuerte Verfahren kann dazu führen, dass eine Versicherung, ein Kredit oder auch eine Ratenzahlung abgelehnt wird - und das nur, weil ein Kunde nach den Bewertungskriterien des Systems die falsche Hautfarbe, das falsche Geschlecht oder den falschen Wohnort hat. Diskriminierende Entscheidungen, die ein Mensch schon rein rechtlich so niemals treffen dürfte.

Autor des Hörfunk-Beitrags ist Fabian Schmitz

Stand: 12.07.2016, 11:42