Gastbeitrag von Matthias Spielkamp

Wie Algorithmen unseren Alltag bestimmen

Algorithmen begleiten uns seit Tausenden von Jahren. Durch die Digitalisierung haben sie aber eine neue Bedeutung gewonnen, denn nun sind sie überall. Damit haben sie einen massiven Einfluss auf uns, unsere Umwelt, Menschenrechte und Chancengleichheit.

Dieser Gastbeitrag ist im Jahrbuch der Deutschen UNESCO-Kommission 2021 erschienen.

Publikation

Jahrbuch der Deutschen UNESCO-Kommission 2021.
Deutsche UNESCO-Kommission, 2022

Algorithmen begleiten uns seit Tausenden von Jahren: Als Verhaltens- und Rechenregeln, Gebote und Gesetze. Wir alle haben in der Schule Algorithmen gelernt – meist, ohne sie so zu nennen –, etwa um Zahlen miteinander zu multiplizieren; und auch die Regeln, nach denen eine Behörde Anträge prüft, kann man als Algorithmen bezeichnen. Durch die Digitalisierung haben Algorithmen eine neue Bedeutung gewonnen, denn nun sind sie überall: Im Taschenrechner und der Registrierkasse, in der Waschmaschine und der Einspritzanlage des Autos. Sie sind in Software übersetzte Handlungsanleitungen, ohne die unsere computerisierte Welt nicht funktionieren würde.

Dass sie einen massiven Einfluss auf uns, unsere Umwelt, Menschenrechte und Chancengleichheit haben, zeigen uns der Dieselskandal, die Schufa und die Post. Wenn Volkswagen, Mercedes, Audi und andere Autohersteller ihre Algorithmen so manipulieren, dass sie Schadstoffgrenzen nur im Labor einhalten, erkranken in der Folge wahrscheinlich Tausende Menschen an Krebs. Wenn die Schufa ihre Algorithmen mit falschen Daten füttert, bekommen Menschen keinen Handy-Vertrag oder Kredit, weder Wohnung noch Internetzugang, mit zum Teil weitreichenden Folgen dafür, wie sie am gesellschaftlichen Leben teilhaben können. Und wenn eine Behörde, wie die britische Post, wegen eines Computerfehlers Hunderten Postangestellten Betrug unterstellt und mit Jahre dauernden Gerichtsverfahren drangsaliert, dann kann der Algorithmus Existenzen vernichten und Leben kosten: nicht weniger als vier Menschen haben sich im Verlauf des so genannten Post Office Scandal ihr Leben genommen, 736 verloren ihren Lebensunterhalt und ihr Ansehen und mussten sich teils Jahrzehnte lang gegen Anschuldigungen verteidigen, die sich am Ende als falsch herausstellten. Gegen die Post und Fujitsu, den Hersteller des Computersystems, wurden bis heute keine Strafen verhängt.

Bis vor kurzem schauten die meisten, die sich überhaupt für dieses Thema interessierten, in erster Linie in die USA und nach China. In die USA, weil dort privaten Firmen, aber auch der Verwaltung weniger Schranken gesetzt werden, wenn es darum geht, Computersysteme dazu einzusetzen, Menschen zu bewerten und auf diesen „Scores“ basierte Entscheidungen zu treffen – bei der Jobsuche, wenn Algorithmen Persönlichkeitsprofile von Bewerberinnen und Bewerbern erstellen, aber auch in Schulen, wo Punktesysteme darüber entscheiden, ob Lehrerinnen und Lehrer entlassen oder weiter beschäftigt werden. Nach China, weil der Staat dort bei der Überwachung offenbar keine Grenzen kennt und per Punktesystem attestieren möchte, welche seiner Bürgerinnen und Bürger „zuverlässig“ sind und welche nicht.

Nahezu unbemerkt blieb dabei lange, dass auch in Europa algorithmische Systeme eingesetzt werden, die direkte und weitreichenden Folgen für Betroffene haben. Mit den Recherchen für unsere Automating Society Reports haben wir weit mehr als 100 Beispiele dafür aufgezeigt.

Höchst problematisch ist, dass sich biometrische Erkennung und Überwachung auf dem gesamten Kontinent ausbreiten, und dass digitale Technologien von einem „digitalen Wohlfahrtsstaat“ zu oft verwendet werden, um „vorherzusagen, zu identifizieren, zu überwachen, zu erkennen, ins Visier zu nehmen und zu bestrafen“, wie es der UN-Sonderberichterstatter zu extremer Armut nannte.

Doch Behörden handeln oft genug auch mit guten Absichten: Sie möchten Prozesse vereinfachen, uns allen besseren Service bieten und effizienter arbeiten. Gerade in Deutschland haben wir wegen der Corona-Pandemie schmerzhaft erkennen müssen, dass wir ein digitales Entwicklungsland sind. Hier ist es der Mangel am Zugang zu digitalen Systemen, der Menschen Chancen nimmt und die Ungleichheit verstärkt – etwa dann, wenn Kinder aus Haushalten mit geringem Einkommen keine passenden Geräte haben oder Familien ohne gute Deutschkenntnisse nicht angemessen dabei unterstützt werden, Online-Plattformen zu nutzen.

Daher kann die Lösung selbstverständlich nicht sein, keine algorithmischen Systeme mehr zu entwickeln und einzusetzen. Sondern es geht darum, es so zu tun, dass wir als Individuen, aber auch unser Gemeinwesen davon profitieren. Um das zu erreichen, müssen viele Dinge zusammenspielen.

Menschen müssen die Gefahren und Probleme erkennen können. Dafür sorgen Medien mit ihrer Berichterstattung zum Thema. Und dazu tragen auch Organisationen wie die UNESCO bei, wenn sie Empfehlungen zum ethischen Umgang mit Systemen so genannter Künstlicher Intelligenz formulieren, mit denen sich die 193 Mitgliedsstaaten dazu bekennen, beim Einsatz der Systeme die Menschenwürde zu achten, Diversität und Teilhabe zu sichern und sich dafür einzusetzen, dass zur Verantwortung gezogen wird, wer gegen die Prinzipien verstößt. Derartige Empfehlungen und Prinzipien haben zwar keine Gesetzeskraft, aber signalisieren Unternehmen und staatlichen Akteuren, wie etwa Verwaltung und Polizei, in welchem Rahmen sich ihr Handeln bewegen darf, wenn es als ethisch akzeptabel angesehen werden soll.

Darüber hinaus muss ein gesetzlicher Rahmen geschaffen werden, der klare Vorgaben dazu macht, was erlaubt und was verboten ist. In vielen Regionen der Welt gibt es entsprechende Entwürfe; in Europa sind das die Künstliche-Intelligenz-Verordnung der Europäischen Union und die Diskussionen um eine mögliche Konvention des Europarats. Derzeit lassen sie noch zu viele Fragen offen, vor allem mit Blick darauf, wie die Regeln in der Praxis durchgesetzt werden können. Aber dass es sie gibt, zeigt deutlich, dass Regierungen erkannt haben, dass sie das Heft des Handelns nicht unkontrolliert denjenigen überlassen dürfen, die immer komplexere algorithmische Systeme mit weitreichenden Auswirkungen entwickeln und einsetzen.

Wenn wir es also ernst damit meinen, allen Menschen möglichst gleiche Chancen auf Teilhabe zu eröffnen, wird es unser aller Aufgabe sein, darauf zu achten, dass der Gesetzgeber diesen Job gut macht.

Matthias Spielkamp ist Mitgründer und Geschäftsführer von AlgorithmWatch. Er war Sachverständiger in Anhörungen des Europarats, des EU-Parlaments, des Bundestags und ist Mitglied der Global Partnership on Artificial Intelligence (GPAI). Matthias ist Vorstandsmitglied bei Reporter ohne Grenzen, Mitglied des Kuratoriums der Stiftung Warentest, im Beirat des Whistleblower Netzwerks und im Fachausschuss Kommunikation/Information der Deutschen UNESCO-Kommission.

weitere Artikel

Digitalisierung
Frau experimentiert am Smartphone Aleksandra Bolcek, CC BY-NC-ND 2.0

Wissensgesellschaften

Digitalisierung

Die Digitalisierung erfasst alle Bereiche des Lebens und bildet die Grundlage moderner Wissensgesellschaften im 21. Jahrhundert. Die Gestaltung der Digitalisierung zum Wohle der Menschheit ist Aufgabe der UNESCO.
weiterlesen
Wissensgesellschaften
Kunstinstallation "XXXX.XXX" von Addie Wagenknecht

Wissen

Wissensgesellschaften

Innovative Wissensgesellschaften erfordern ein freies, offenes, menschenrechtsbasiertes und vertrauenswürdiges Internet. Auch die Presse- und Meinungsfreiheit sowie unabhängige und pluralistische Medien sind zentral für den Austausch von Informationen und den Wissenserwerb.
weiterlesen