Fieser Code
24.06.2019, 20:27 Uhr
Wenn Algorithmen Vorurteile ausspucken
Algorithmen und Künstliche Intelligenz sollen überlegte Entscheidungen treffen und menschliche Fehlleistungen möglichst vermeiden. Doch das geht, zum Ärger vieler, häufig schief. Schuld ist der Algorithmus - oder?
Algorithmen können Autos lenken, Verbrecher überführen, Bankgeschäfte prüfen - und manchmal ziemlich plump daher kommen. Die Geschichten dazu sind so zahlreich wie schmerzlich:
Ein Algorithmus, der Amazon bei der Bewerberauswahl unterstützen sollte, schlug vor allem Männer vor, die Google-Bilderkennung verwechselte schwarze Menschen mit Gorillas und forderte asiatisch Aussehende Menschen dazu auf, die Augen zu öffnen. Und bei Youtube wurden zum Grossbrand von Notre-Dame Videos des 9/11-Terroranschlags aus New York zugeordnet. Einfach ein schlechter Algorithmus?
Die Kritik an Algorithmen haben jüngst auch die Frauen- und Gleichstellungsministerinnen der Länder aufgegriffen. Sie stören sich besonders an der Auto-Vervollständigung bei Suchmaschinen. Wer in das Suchfeld der Microsoft-Suchmaschine Bund "Frauen können" tippt, bekommt an erster Stelle vorgeschlagen, den Satz mit "nicht Auto fahren" zu ergänzen. Die Bundesregierung soll nun prüfen, ob den Algorithmen "Diskriminierungsmechanismen" zugrunde liegen.
Der Mensch als Ursache
Diesen Ansatz findet Lorena Jaume-Palasí falsch. Sie ist Gründerin der Ethical Tech Society in Berlin, die sich mit der sozialen Dimension von Technologie beschäftigt. "Die Ursache von Diskriminierung sind immer Menschen", sagt Jaume-Palasí der Deutschen Presse-Agentur. "Anstelle des Regulierens der Ursachen, die Diskriminierung verursachen, fokussiert man sich auf die Technologie, die menschliches Diskriminierungsverhalten widerspiegelt."
Um Jaume-Palasís Kritik zu verstehen, muss man Algorithmen verstehen. Ein Algorithmus sind Anweisungen zur Lösung eines bestimmten Problems - wie ein Rezept. Er definiert, wie ein bestimmter Vorgang ausgeführt werden soll. Künstliche Intelligenz (KI) basiert auf Algorithmen. Dabei wird intelligentes Verhalten nachgebildet. Die Maschine soll informierte Entscheidungen treffen. Damit sie das kann, wird sie mit Datensätzen gefüttert. Die Technologie erkennt Zusammenhänge und kann fortan, basierend auf diesem Hintergrundwissen, zum Beispiel Entscheidungsempfehlungen geben.
Das liefert eine Erklärung für die voreingenommenen Ergebnisse, etwa bei der Suche nach geeignetem Personal: "In der Vergangenheit gab es in Unternehmen die Einstellungspraxis, dass vermehrt weisse Männer eingestellt wurden", sagt Susanne Dehmel vom Digital-Verband Bitkom.