Es gibt zahlreiche Beispiele dafür, dass KI-Systeme diskriminierende Ergebnisse erzeugen und bestehende Stereotype verstärken. Dies war in der Vergangenheit beispielsweise der Fall, als Unternehmen in männerdominierten Branchen neue Mitarbeitende mit Hilfe eines KI-Systems auswählten, das mit den Daten aus den Lebensläufen der bestehenden Beschäftigten trainiert worden war. Das KI-System bewertete auf dieser Grundlage die Zugehörigkeit zum männlichen Geschlecht als Erfolgsfaktor und wählte dementsprechend vor allem männliche Bewerber aus. Auf der anderen Seite können KI-Systeme durchaus auch zu Ergebnissen führen, bei denen Stereotype, beispielsweise in Bezug auf Hautfarbe, sexuelle Orientierung oder Geschlecht, nicht reproduziert oder sogar abgemildert oder überwunden werden.
UNESCO-Empfehlung zur Ethik der KI: Politische Handlungsaufträge gegen diskriminierende KI
Ob und wie der Einsatz von KI-Systemen zu Diskriminierung führt und insbesondere Geschlechtergerechtigkeit fördert oder behindert, hängt von zwei entscheidenden Faktoren ab. Erstens von der Ausgangs- und der Verarbeitungsqualität der genutzten Daten und dem daraus resultierenden Ergebnis des KI-Systems, das für Menschen transparent nachvollziehbar und effektiv kontrollierbar sein muss. Zweitens davon, ob diversitäts- und geschlechtersensitive Überlegungen gezielt in die Programmierung des Systems eingeflossen sind. Um dies zu erreichen, sollten Entwicklungsteams in KI-Unternehmen möglichst heterogen und divers zusammengesetzt sein und die beteiligten Personen über ein entsprechendes Bewusstsein verfügen. Vor diesem Hintergrund ist es wichtig, den derzeit geringen Anteil von Frauen in der Digitalbranche deutlich zu erhöhen und ethische Aspekte des KI-Einsatzes bereits in der Informatik- und KI-Ausbildung zu verankern.
Zitat Prof. Marsden
Interview mit Prof. Dr. Nicola Marsden
Die UNESCO-Empfehlung zur Ethik der Künstlichen Intelligenz greift beide Herausforderungen auf: Zum einen formuliert sie politische Handlungsaufträge für eine geschlechtersensible KI-Ausbildung und -Entwicklung. Zum anderen schlägt sie Mechanismen vor, die eine Diskriminierung durch KI-Systeme verhindern sollen, etwa durch stärker partizipativ ausgerichtete Standardisierungs- und Normierungsprozesse für KI-Anwendungen sowie transparente Formate des Datenaustauschs und -zugangs.
Unser Beitrag gegen diskriminierende KI-Systeme in Deutschland
Als Deutsche UNESCO-Kommission setzen wir uns dafür ein, die Rahmenbedingungen in Deutschland zu verbessern, um Diskriminierung durch KI-Systeme und in der KI-Branche zu verhindern. Dazu richten wir entsprechende Fachveranstaltungen aus und haben gemeinsam mit Expertinnen und Experten aus verschiedenen Sektoren Handlungsansätze für mehr Geschlechtergerechtigkeit und gegen DiskriminierungHerunterladen: (PDF, 109 KB) entwickelt, die sich an Entscheidungsträgerinnen und -träger aus Politik und öffentlicher Verwaltung richten. Vorgeschlagen werden dabei unter anderem ein Transparenzregister für KI-Systeme, die Stärkung von Betroffenenrechten sowie interdisziplinär und divers zusammengesetzte KI-Entwicklungsteams.
In der kompakten Broschüre zur UNESCO-Empfehlung zur Ethik der KI „Wegweiser für die Gestaltung unserer Zukunft“Herunterladen: (PDF, 226 KB) werden die wichtigsten in der Empfehlung vorgeschlagenen Maßnahmen zur Stärkung der Geschlechtergerechtigkeit und Verhinderung von Diskriminierung dargestellt. Neben anderen ethischen Herausforderungen durch KI beleuchtet unser Comicroman „Innerhalb der KI – Ein algorithmisches Abenteuer“Herunterladen: (PDF, 26 MB) insbesondere die Diskriminierungsrisiken, die mit dem Einsatz von KI einhergehen. Leserinnen und Leser folgen in diesem Comicroman vier Hauptprotagonisten in die algorithmische Galaxie «Plethor.A.I.» um mehr über die sozialen, technischen, ethischen und menschenrechtlichen Auswirkungen der KI zu erfahren.