Wie "Deep Learning" Künstliche Intelligenz sexistisch macht

LINZ. Ergebnisse von Suchmaschinen werden durch Menschen verzerrt.

Dass Entscheidungen von Künstlicher Intelligenz (KI) oft diskriminierend ausfallen, ist bekannt. Menschen mit Migrationshintergrund werden als weniger kreditwürdig eingestuft oder sie bekommen auf sozialen Plattformen schlechtere Jobs oder Wohnungen vorgeschlagen. Die Forscher Markus Schedl und Navid Rekab-Saz der Kepler-Uni zeigen nun, dass die Ergebnisse von Suchmaschinen, die Deep Learning-Algorithmen nutzen, besonders sexistisch verzerrt sind.

"Die Künstliche Intelligenz arbeitet mit Daten, die von Menschen eingespielt wurden und oft mit Vorurteilen belastet sind", sagt Navid Rekab-Saz vom Institut für Computational Perception. Bei der Frage nach dem Einkommen einer Pflegekraft, im Englischen der geschlechtsneutrale Begriff "nurse", warfen Suchmaschinen vor allem Antworten im Zusammenhang mit Frauen aus. Umgekehrt lieferte die Suche nach "CEO", den Geschäftsführer eines Unternehmens, überwiegend männliche Antworten. "Die Suche der KI verstärkt den Geschlechter-Effekt, der in den Daten bereits enthalten ist", so Rekab-Saz. Die Forscher sind sich sicher, dass solche Effekte auch in Bereichen wie Alter, Ethnie oder Religion vorkommen.