Es ist nicht das erste Mal, dass künstliche Intelligenz ins Fettnäpfchen tritt. Nach Googles Gorilla-Fail, der Menschen mit schwarzer Hautfarbe als Gorillas in der Bildersuche auflistete, trifft es nun Amazon mit seiner Pleite vom KI-unterstützten Einstellungsprozess, der Frauen sichtlich benachteiligte. Der Vorfall ist ein Ausdruck der Schräglage, die beim Einsatz von KI derzeit entstehen kann.
Durchschnittliche Lesezeit: ca. 2,5 Minuten
KI DISKRIMINIERT NICHT, ES IST DER IMMER DER MENSCH DAHINTER
Entscheidungen, die von Maschinen getroffen werden, entsprechen der kühlen Logik ihrer Schaltkreise und Algorithmen. Um wirklich diskriminierend zu handeln fehlt der Maschine das Bewusstsein. Werden den maschinellen Lern- und Entscheidungsprozessen Informationen zur Verarbeitung bereitgestellt, wird sie stets eine logische Schlussfolgerung daraus ziehen. Diese Logik wird jedoch nicht immer der menschlichen entsprechen.
EIN ZERRSPIEGEL UNSERER GESELLSCHAFT
KI sollte von sich aus unvoreingenommene Entscheidungen treffen. Dennoch kann der Einsatz von KI sehr wohl, ungewollt oder beabsichtigt, zur Diskriminierung führen. Ist das der Fall, deckt Machine Learning oft Schräglagen auf, die sich schon seit langem in der Gesellschaft verfestigt haben.
Vier Faktoren können dafür ausschlaggebend sein: die Trainingsdaten, die Algorithmen, das Team und das Zielvorhaben.
UNZUREICHENDE TRAININGSDATEN
Im Fall Amazon verhielt es sich so, dass die KI anhand von Bewerbungsdaten trainiert wurde, die überwiegend von Männern stammten. Der Machine-Learning-Prozess schloss daraus, dass Männer bei der Bewerbung zu bevorzugen seien. Daher bewertete das System Bewerbungsschreiben, die auf Frauen schliessen liessen schlechter, wie aus einem Reuters-Bericht hervorgeht. Ähnlich wird es dem Algorithmus der Google-Bildersuche ergangen sein, dem schlichtweg nicht ausreichend Datenmaterial zur Verfügung stand, um zuverlässig Primaten von Menschen mit dunkler Hautfarbe unterscheiden zu können.
Es muss also bereits beim Lernstoff auf eine gerechte Ausgewogenheit geachtet werden – was eine besondere Herausforderung darstellen kann.
UNZUREICHENDE ALGORITHMEN
Die Algorithmen selbst, die dem maschinellen Lernprozess vorausgehen, können – bewusst oder unbewusst – diskriminierend angelegt sein. Ein Algorithmen-Monitoring könnte hier ein Ansatzpunkt sein. Jedoch setzt das zum einen ein grosses Fachwissen des Prüfers voraus und zum anderen werden viele Firmen ihr geistiges Eigentum nicht freiwillig für eine externe Inspektion freigeben.
NICHT REPRÄSENTATIVE TEAMS
Das Entwicklerteam sollte besonders unterschiedlich zusammengestellt sein, um repräsentative Kriterien zu formulieren. Das Problem stellt sich hier leider bereits am Ansatzpunkt, denn der Bereich künstliche Intelligenz ist noch eine Männerdomäne, in der nicht einmal jede vierte Fachkraft eine Frau ist. Und wenn bei der Beurteilung von Bewerbungsunterlagen ähnliche Systeme wie die von Amazon eingesetzt werden, wird das auch so bleiben.
FALSCHE ZIELVORHABEN
Doch das Problem hält sich auch auf einer anderen Ebene hartnäckig. Wird das Konzept bereits von altmodischen Rollenverteilungen überschattet, verzerrt die intelligente Maschine das Ergebnis um ein Vielfaches. Sprachassistenten wie Siri, Cortana oder Alexa, die vom Namen her eher eine weibliche Identität suggerieren, verfestigen die althergebrachte und überholte Vorstellung von der Frau als Helferin und Assistentin, erst recht, da die virtuellen Helfer mit einer voreingestellten Frauenstimme sprechen. Es mag zwar sein, dass eine weibliche Stimme den meisten Menschen angenehmer vorkommt, doch warum sollte nicht jeder selbst vor dem ersten Einsatz seines digitalen Helferleins nach seinen persönlichen Vorlieben bezüglich Stimmlage gefragt werden?
KÜNSTLICHE INTELLIGENZ UND DIE MENSCHEN, DIE SIE ERSCHAFFEN, HABEN NOCH VIEL ZU LERNEN
Seifenspender, die nur die Hände von hellhäutigen Menschen erkennen und nicht die von Dunkelhäutigen, sind ein Ärgernis. Kollisionsvermeidungssysteme, die ebenso hellhäutige Menschen als Hindernis besser erkennen können als Dunkelhäutige, gemeingefährlich. Beide zeigen aber deutlich das Problem auf: die Auswahl der Informationen muss viel gewissenhafter und facettenreicher erfolgen, was nach einem radikalen Umdenken in den Köpfen aller beteiligten Entwickler verlangt.
Scheinen alle Voraussetzungen erfüllt, damit künstliche Intelligenz wertfreie Entscheidungen treffen kann, bleibt noch immer das Blackbox-Problem. Der logische Prozess, der hinter dem Ergebnis steht, das die Maschine ausspuckt, ist nicht durchschaubar. Letztlich kann nicht mehr klar nachvollzogen werden, was für Schlussfolgerungen gezogen wurden. Daher fordern auch KI-Forscher, dass, wann immer über das Schicksal von Menschen entschieden werden soll, keine Systeme zum Einsatz kommen, bei denen der Entscheidungsprozess nicht eindeutig nachzuverfolgen ist.