Auf ein Wort,

„Assistenzprogramme haben meist eine weibliche Stimme, Finanzberatungsprogramme häufiger eine männliche“

Prof. Dr. Nicola Marsden
Hochschule Heilbronn

Diskriminierung durch Künstliche Intelligenz verhindern und Geschlechtergerechtigkeit fördern – das fordert die UNESCO-Empfehlung zur Ethik der Künstlichen Intelligenz (KI). Die Sozioinformatikerin Prof. Dr. Nicola Marsden teilt im Interview ihre Perspektive auf die Risiken und Chancen von KI für Geschlechtergerechtigkeit.

Bei künstlicher Intelligenz geht es um das eigenständige „intelligente“ Lernen von Maschinen. Computer treffen Entscheidungen auf Grund der Analyse großer Datenmengen. Man könnte meinen, das führe zu faktenbasierten, neutralen Ergebnissen. Ist das so, Frau Prof. Dr. Marsden?

Prof. Dr. Nicola Marsden: Große Datenmengen sind kein Garant für vollständige Daten. Wir sehen, dass KI-Systeme keine neutralen Ergebnisse produzieren: Frauen werden auf Jobplattformen schlechter bewertet als Männer. Ihre Krankheiten werden mit KI-gestützter Diagnose weniger gut diagnostiziert. Die Übertragung ihrer Stimme über Videokonferenzsysteme lässt sie weniger kompetent erscheinen. Ihnen werden auf Karriereplattformen weniger technische Jobs angeboten. Dies hat reelle Konsequenzen für das Leben von Menschen. Es werden Ausschlüsse produziert und es werden Stereotype und Vorurteile, die ohnehin schon in unserer Gesellschaft vorhanden sind, noch weiter verstärkt.

Künstliche Intelligenz im Sinne des maschinellen Lernens bezeichnet den Versuch, bestimmte Entscheidungsstrukturen des Menschen nachzubilden. Kann KI daher nur so diskriminierungsfrei sein, wie die Menschen, die sie programmiert haben?

Marsden: Ja, definitiv. Dabei geht es zum einen um die Datengrundlage, zum anderen um den Entwicklungsprozess von KI-Anwendungen. Beides spielt zusammen und verstärkt sich gegenseitig: Einem homogenen Team fallen Datenlücken, fehlende Funktionalitäten oder falsche Ergebnisse weniger auf als einem diversen Team.

Aber Fairness stellt sich auch mit Diversität nicht automatisch ein: Es braucht ethische Rahmensetzungen, konkrete Prozesse und Transparenz. Gerade Transparenz ist schwierig, aber nötig: Wenn wir Lebensmittel kaufen, würden wir auch nicht akzeptieren, wenn auf der Packung steht: „Was drin ist, können nicht so genau sagen.“ Warum sollten wir das bei KI-Systemen tun?

Prof. Dr. Nicola Marsden

Die Professorin forscht zu Gender und IT an der Hochschule Heilbronn und ist stellvertretende Vorsitzende des Kompetenzzentrums Technik-Diversity-Chancengleichheit. Sie hat als Expertin bei der Deutschen UNESCO-Kommission an den Handlungsansätzen für die Politik mitgearbeitet, um die Vorgaben der UNESCO-Empfehlung zur Ethik der Künstlichen Intelligenz für mehr Geschlechtergerechtigkeit und gegen Diskriminierung in Deutschland konkret umzusetzen.

Ist es nicht ein unauflösbarer Konflikt, dass bei Künstlicher Intelligenz zwar Technologie von morgen zum Einsatz kommt, diese aber Daten von gestern auswertet?

Marsden: Ein Problem entsteht vor allem dann, wenn wir auf Basis der Daten von gestern existierende Ausschlusssysteme manifestieren und starre Kategoriesysteme beibehalten. Aber das muss nicht sein: KI-Systeme erweitern unsere Möglichkeit, aus den Daten von gestern zu lernen und bessere Entscheidungen zu treffen. Wir alle „können“ durch KI mehr. Darin liegen Chancen für die Gestaltung der Welt von morgen, aber auch Risiken, wenn wir die Datenbasis oder die Deutungshoheit nicht in der Hand haben. Deshalb ist Zugang, Teilhabe und Fairness so wichtig.

Jeder kennt Siri und Alexa. Wieso ist die Frauenquote bei Assistenzprogrammen so viel höher als in der IT-Branche bzw. der vorgeschalteten IT-Ausbildung? Welche Maßnahmen sollten aus Ihrer Sicht ergriffen werden, um die Wahrscheinlichkeit von Diskriminierung durch KI-Systeme so niedrig wie möglich zu halten? Bietet die UNESCO-KI-Ethik-Empfehlung diesbezüglich hilfreiche Ansatzpunkte?

Marsden: Virtuelle Assistenzsysteme wie beispielsweise Siri, Alexa und Cortana sind ein sehr offensichtliches Beispiel für die Ein- und Fortschreibung tradierter patriarchaler Geschlechterrollen in und durch KI. Assistenzprogramme versuchen, einen möglichst natürlichen Dialog zu führen. Aufgrund unserer gesellschaftlichen Prägungen erleben wir aber stereotypes Verhalten oft als besonders authentisch, und die Systeme werden an solche vergeschlechtlichten Vorstellungen angepasst. Assistenzprogramme haben meist eine weibliche Stimme, Finanzberatungsprogramme häufiger eine männliche: Die freundliche, unterstützende Assistentin oder der kompetente, vertrauenseinflößende Finanzberater erscheinen uns als stimmig – verstärken aber einmal mehr heteronormative Vorstellungen und in Folge auch sexistisches Verhalten.

Die KI-Ethik-Empfehlung der UNESCO adressiert die Punkte, auf die es ankommt, um gegen diskriminierende KI-Systeme vorzugehen. Die Konkretisierung der Deutschen UNESCO-Kommission zu den Bedingungen zur Implementierung in Deutschland zeigt auf, wo bei den auf EU-Ebene und national auf den Weg gebrachten Standards noch weiterer Handlungsbedarf liegt, um negative Effekt abzumildern oder KI sogar zu nutzen, um Geschlechterstereotype zu überwinden.

Das Interview wurde im Januar 2023 für das Jahrbuch der Deutschen UNESCO-Kommission (erschienen im Juni 2023) schriftlich geführt.

Publikation

UNESCO-Empfehlung zur Ethik Künstlicher Intelligenz. Bedingungen zur Implementierung in Deutschland.
Deutsche UNESCO-Kommission, 2022

Zurück zur Übersicht