Künstliche Intelligenz (KI) ist nicht fehlerfrei – und das zeigt sich oft auf alarmierende Weise. Von Googles peinlichem «Gorilla-Fail», bei dem schwarze Menschen als Gorillas in der Bildersuche klassifiziert wurden, bis hin zu Amazons kontroversen Einstellungsprozessen, die Frauen benachteiligten, sind diese Vorfälle Anzeichen für systemische Ungleichheiten. Sie verdeutlichen die Herausforderungen, die entstehen, wenn komplexe Algorithmen und Blackbox-Entscheidungen über menschliche Angelegenheiten treffen.
Durchschnittliche Lesezeit: ca. 5 Minuten
KI diskriminiert nicht, der Mensch hinter der Blackbox tut es
Entscheidungen, die von Maschinen getroffen werden, basieren auf der kühlen Logik ihrer Algorithmen. Künstlicher Intelligenz fehlt das Bewusstsein, um absichtlich zu diskriminieren. Sie verarbeitet die Informationen, die ihr gegeben werden, und zieht daraus logische Schlüsse. Doch diese Logik spiegelt oft die Voreingenommenheiten und Vorurteile der Menschen wider, die die Daten bereitgestellt und die Algorithmen entwickelt haben. Wenn die maschinellen Lernprozesse mit voreingenommenen Daten gefüttert werden, führt dies zwangsläufig zu voreingenommenen Ergebnissen. Dies macht deutlich, dass die Verantwortung für diskriminierende Entscheidungen nicht bei der KI selbst liegt, sondern bei den Menschen, die sie programmieren und trainieren.
Ein Spiegel unserer Gesellschaft
Künstliche Intelligenz sollte in der Lage sein, unvoreingenommene Entscheidungen zu treffen. Dennoch kann ihr Einsatz unbeabsichtigt oder absichtlich zur Diskriminierung führen. Dies liegt daran, dass maschinelles Lernen oft die bestehenden Schieflagen und Vorurteile unserer Gesellschaft widerspiegelt. Vier entscheidende Faktoren können dabei eine Rolle spielen: die Qualität der Trainingsdaten, die Beschaffenheit der Algorithmen, die Diversität im Entwicklerteam und die definierten Zielvorgaben. Diese Faktoren bestimmen, ob KI-Systeme zu fairen und ausgewogenen Entscheidungen gelangen oder bestehende Ungleichheiten verstärken.
Unzureichende Trainingsdaten
Im Fall von Amazon wurde die KI anhand von Bewerbungsdaten trainiert, die überwiegend von Männern stammten. Der maschinelle Lernprozess schloss daraus, dass Männer bei Bewerbungen zu bevorzugen seien. Daher bewertete das System Bewerbungsschreiben, die auf Frauen schliessen liessen, schlechter, wie ein Reuters-Bericht zeigt. Ähnlich erging es dem Algorithmus der Google-Bildersuche, dem schlichtweg nicht ausreichend Datenmaterial zur Verfügung stand, um zuverlässig Primaten von Menschen mit dunkler Hautfarbe unterscheiden zu können.
Es muss also bereits beim Lernstoff auf eine gerechte Ausgewogenheit geachtet werden – was eine besondere Herausforderung darstellen kann. Die Trainingsdaten müssen vielfältig und repräsentativ sein, um sicherzustellen, dass das KI-System faire und ausgewogene Entscheidungen treffen können. Unternehmen sollten verstärkt darauf achten, ihre Datensätze zu diversifizieren und potenzielle Verzerrungen zu identifizieren und zu korrigieren, bevor sie in den Lernprozess einfliessen.
Unzureichende Algorithmen
Die Algorithmen selbst, die dem maschinellen Lernprozess zugrunde liegen, können bewusst oder unbewusst diskriminierende Muster enthalten. Diese Algorithmen sind oft komplex und intransparent, was es schwierig macht, Verzerrungen zu erkennen und zu beheben. Ein Algorithmen-Monitoring könnte hier ein Ansatzpunkt sein, um sicherzustellen, dass keine unfairen Muster entstehen. Dies erfordert jedoch ein grosses Fachwissen seitens der Prüfer und Transparenz seitens der Unternehmen, die oft zögern, ihr geistiges Eigentum für externe Inspektionen offenzulegen.
Ein Beispiel dafür sind Kreditbewertungsalgorithmen, die aufgrund historischer Daten bestimmte Bevölkerungsgruppen benachteiligen. Diese Verzerrungen müssen durch sorgfältige Überprüfung und Anpassung der Algorithmen beseitigt werden, um faire und gerechte Entscheidungen zu gewährleisten.
Nicht repräsentative Teams
Das Team der Entwicklerinnen und Entwickler sollte besonders vielfältig zusammengesetzt sein, um repräsentative Kriterien zu formulieren. Leider stellt dies bereits am Ausgangspunkt ein Problem dar, da der Bereich der künstlichen Intelligenz immer noch eine Männerdomäne ist, in der nicht einmal jede vierte Fachkraft eine Frau ist. Wenn dann auch noch bei der Beurteilung von Bewerbungsunterlagen ähnliche Systeme wie das von Amazon eingesetzt werden, wird dieser Zustand zementiert.
Vielfältige Teams bringen unterschiedliche Perspektiven ein, was die Wahrscheinlichkeit erhöht, dass potenzielle Verzerrungen und Diskriminierungen frühzeitig erkannt und behoben werden. Unternehmen sollten daher gezielt Maßnahmen ergreifen, um die Diversität in ihren Teams zu fördern. Dies könnte durch gezielte Rekrutierung, Schulungsprogramme und eine inklusive Unternehmenskultur erreicht werden.
Falsch geleitete Zielvorgaben
Ein weiteres hartnäckiges Problem liegt in den Zielvorgaben für KI-Systeme. Wenn diese Ziele von traditionellen Rollenverteilungen überschattet sind, wird das Ergebnis verzerrt. Sprachassistenten wie Siri, Cortana oder Alexa, die durch ihre Namen und voreingestellten weiblichen Stimmen eine weibliche Identität suggerieren, verfestigen die althergebrachte Vorstellung von Frauen als Helferinnen. Zwar mag eine weibliche Stimme vielen Menschen angenehmer erscheinen, doch es wäre sinnvoll, Nutzern die Wahl zu lassen und sie vor dem ersten Einsatz nach ihren Präferenzen zu fragen.
Die voreingestellte Geschlechterrolle von Sprachassistenten ist nur ein Beispiel dafür, wie tief verwurzelte gesellschaftliche Normen unbewusst in KI-Systeme eingebettet werden können. Es ist entscheidend, dass Entwickler und Entscheidungsträger bei der Definition von Zielvorgaben für KI-Systeme sensibel und bewusst vorgehen, um solche Verzerrungen zu vermeiden.
Künstliche Intelligenz und die Menschen, die sie erschaffen, haben noch viel zu lernen
Seifenspender, die nur die Hände von hellhäutigen Menschen erkennen und nicht die von Dunkelhäutigen, sind ein Ärgernis. Kollisionsvermeidungssysteme, die ebenso hellhäutige Menschen als Hindernis besser erkennen können als Dunkelhäutige, sind gemeingefährlich. Beide Beispiele verdeutlichen das zentrale Problem: Die Auswahl der Informationen muss viel gewissenhafter und facettenreicher erfolgen. Dies erfordert ein radikales Umdenken in den Köpfen aller beteiligten Entwickler.
Selbst wenn alle Voraussetzungen erfüllt scheinen, damit Künstliche Intelligenz wertfreie Entscheidungen treffen kann, bleibt noch immer das Blackbox-Problem. Der logische Prozess, der hinter dem Ergebnis steht, das die Maschine ausspuckt, ist oft nicht nachvollziehbar. Deshalb fordern KI-Forschende, dass keine Systeme zum Einsatz kommen sollen, bei denen der Entscheidungsprozess nicht eindeutig nachvollziehbar ist – insbesondere dann, wenn es um das Schicksal von Menschen geht.
Letztlich zeigt sich, dass Transparenz und Nachvollziehbarkeit in KI-Systemen unerlässlich sind, um faire und gerechte Entscheidungen zu gewährleisten. Dies ist nicht nur eine technische, sondern auch eine ethische Herausforderung, die uns alle betrifft.