Suche

Diskriminierende KI – das Problem mit der Blackbox

Künstliche Intelligenz (KI) ist nicht fehlerfrei – und das zeigt sich oft auf alarmierende Weise. Von Googles peinlichem «Gorilla-Fail», bei dem schwarze Menschen als Gorillas in der Bildersuche klassifiziert wurden, bis hin zu Amazons kontroversen Einstellungsprozessen, die Frauen benachteiligten, sind diese Vorfälle Anzeichen für systemische Ungleichheiten. Sie verdeutlichen die Herausforderungen, die entstehen, wenn komplexe Algorithmen und Blackbox-Entscheidungen über menschliche Angelegenheiten treffen.

Durchschnittliche Lesezeit: ca. 5 Minuten

KI diskriminiert nicht, der Mensch hinter der Blackbox tut es

Entscheidungen, die von Maschinen getroffen werden, basieren auf der kühlen Logik ihrer Algorithmen. Künstlicher Intelligenz fehlt das Bewusstsein, um absichtlich zu diskriminieren. Sie verarbeitet die Informationen, die ihr gegeben werden, und zieht daraus logische Schlüsse. Doch diese Logik spiegelt oft die Voreingenommenheiten und Vorurteile der Menschen wider, die die Daten bereitgestellt und die Algorithmen entwickelt haben. Wenn die maschinellen Lernprozesse mit voreingenommenen Daten gefüttert werden, führt dies zwangsläufig zu voreingenommenen Ergebnissen. Dies macht deutlich, dass die Verantwortung für diskriminierende Entscheidungen nicht bei der KI selbst liegt, sondern bei den Menschen, die sie programmieren und trainieren.

 

Collage aus Pappstücken, die zeigt, wie Künstliche Intelligenz in Blackbox-Systemen arbeitet, um die Komplexität und Undurchsichtigkeit der Entscheidungsprozesse zu verdeutlichen.
Abbildung 1 Die undurchsichtigen Prozesse in KI-Systemen können zu unerwarteten und problematischen Ergebnissen führen. Beispiele wie Googles Gorilla-Fail und Amazons benachteiligende Einstellungsalgorithmen verdeutlichen die Risiken der Blackbox-Entscheidungen. Quelle: Bing

Ein Spiegel unserer Gesellschaft

Künstliche Intelligenz sollte in der Lage sein, unvoreingenommene Entscheidungen zu treffen. Dennoch kann ihr Einsatz unbeabsichtigt oder absichtlich zur Diskriminierung führen. Dies liegt daran, dass maschinelles Lernen oft die bestehenden Schieflagen und Vorurteile unserer Gesellschaft widerspiegelt. Vier entscheidende Faktoren können dabei eine Rolle spielen: die Qualität der Trainingsdaten, die Beschaffenheit der Algorithmen, die Diversität im Entwicklerteam und die definierten Zielvorgaben. Diese Faktoren bestimmen, ob KI-Systeme zu fairen und ausgewogenen Entscheidungen gelangen oder bestehende Ungleichheiten verstärken.

Unzureichende Trainingsdaten

Im Fall von Amazon wurde die KI anhand von Bewerbungsdaten trainiert, die überwiegend von Männern stammten. Der maschinelle Lernprozess schloss daraus, dass Männer bei Bewerbungen zu bevorzugen seien. Daher bewertete das System Bewerbungsschreiben, die auf Frauen schliessen liessen, schlechter, wie ein Reuters-Bericht zeigt. Ähnlich erging es dem Algorithmus der Google-Bildersuche, dem schlichtweg nicht ausreichend Datenmaterial zur Verfügung stand, um zuverlässig Primaten von Menschen mit dunkler Hautfarbe unterscheiden zu können.

Es muss also bereits beim Lernstoff auf eine gerechte Ausgewogenheit geachtet werden – was eine besondere Herausforderung darstellen kann. Die Trainingsdaten müssen vielfältig und repräsentativ sein, um sicherzustellen, dass das KI-System faire und ausgewogene Entscheidungen treffen können. Unternehmen sollten verstärkt darauf achten, ihre Datensätze zu diversifizieren und potenzielle Verzerrungen zu identifizieren und zu korrigieren, bevor sie in den Lernprozess einfliessen.

Abbildung 2 Unausgewogene Trainingsdaten, wie im Fall von Amazons Bewerbungsprozess, führen zu diskriminierenden Ergebnissen. Eine gerechte Ausgewogenheit des Lernstoffs ist entscheidend, um faire Entscheidungen durch KI-Systeme zu gewährleisten. Quelle: Bing

Unzureichende Algorithmen

Die Algorithmen selbst, die dem maschinellen Lernprozess zugrunde liegen, können bewusst oder unbewusst diskriminierende Muster enthalten. Diese Algorithmen sind oft komplex und intransparent, was es schwierig macht, Verzerrungen zu erkennen und zu beheben. Ein Algorithmen-Monitoring könnte hier ein Ansatzpunkt sein, um sicherzustellen, dass keine unfairen Muster entstehen. Dies erfordert jedoch ein grosses Fachwissen seitens der Prüfer und Transparenz seitens der Unternehmen, die oft zögern, ihr geistiges Eigentum für externe Inspektionen offenzulegen.

Ein Beispiel dafür sind Kreditbewertungsalgorithmen, die aufgrund historischer Daten bestimmte Bevölkerungsgruppen benachteiligen. Diese Verzerrungen müssen durch sorgfältige Überprüfung und Anpassung der Algorithmen beseitigt werden, um faire und gerechte Entscheidungen zu gewährleisten.

Nicht repräsentative Teams

Das Team der Entwicklerinnen und Entwickler sollte besonders vielfältig zusammengesetzt sein, um repräsentative Kriterien zu formulieren. Leider stellt dies bereits am Ausgangspunkt ein Problem dar, da der Bereich der künstlichen Intelligenz immer noch eine Männerdomäne ist, in der nicht einmal jede vierte Fachkraft eine Frau ist. Wenn dann auch noch bei der Beurteilung von Bewerbungsunterlagen ähnliche Systeme wie das von Amazon eingesetzt werden, wird dieser Zustand zementiert.

Vielfältige Teams bringen unterschiedliche Perspektiven ein, was die Wahrscheinlichkeit erhöht, dass potenzielle Verzerrungen und Diskriminierungen frühzeitig erkannt und behoben werden. Unternehmen sollten daher gezielt Maßnahmen ergreifen, um die Diversität in ihren Teams zu fördern. Dies könnte durch gezielte Rekrutierung, Schulungsprogramme und eine inklusive Unternehmenskultur erreicht werden.

Falsch geleitete Zielvorgaben

Ein weiteres hartnäckiges Problem liegt in den Zielvorgaben für KI-Systeme. Wenn diese Ziele von traditionellen Rollenverteilungen überschattet sind, wird das Ergebnis verzerrt. Sprachassistenten wie Siri, Cortana oder Alexa, die durch ihre Namen und voreingestellten weiblichen Stimmen eine weibliche Identität suggerieren, verfestigen die althergebrachte Vorstellung von Frauen als Helferinnen. Zwar mag eine weibliche Stimme vielen Menschen angenehmer erscheinen, doch es wäre sinnvoll, Nutzern die Wahl zu lassen und sie vor dem ersten Einsatz nach ihren Präferenzen zu fragen.

Die voreingestellte Geschlechterrolle von Sprachassistenten ist nur ein Beispiel dafür, wie tief verwurzelte gesellschaftliche Normen unbewusst in KI-Systeme eingebettet werden können. Es ist entscheidend, dass Entwickler und Entscheidungsträger bei der Definition von Zielvorgaben für KI-Systeme sensibel und bewusst vorgehen, um solche Verzerrungen zu vermeiden.

Künstliche Intelligenz und die Menschen, die sie erschaffen, haben noch viel zu lernen

Seifenspender, die nur die Hände von hellhäutigen Menschen erkennen und nicht die von Dunkelhäutigen, sind ein Ärgernis. Kollisionsvermeidungssysteme, die ebenso hellhäutige Menschen als Hindernis besser erkennen können als Dunkelhäutige, sind gemeingefährlich. Beide Beispiele verdeutlichen das zentrale Problem: Die Auswahl der Informationen muss viel gewissenhafter und facettenreicher erfolgen. Dies erfordert ein radikales Umdenken in den Köpfen aller beteiligten Entwickler.

Selbst wenn alle Voraussetzungen erfüllt scheinen, damit Künstliche Intelligenz wertfreie Entscheidungen treffen kann, bleibt noch immer das Blackbox-Problem. Der logische Prozess, der hinter dem Ergebnis steht, das die Maschine ausspuckt, ist oft nicht nachvollziehbar. Deshalb fordern KI-Forschende, dass keine Systeme zum Einsatz kommen sollen, bei denen der Entscheidungsprozess nicht eindeutig nachvollziehbar ist – insbesondere dann, wenn es um das Schicksal von Menschen geht.

Letztlich zeigt sich, dass Transparenz und Nachvollziehbarkeit in KI-Systemen unerlässlich sind, um faire und gerechte Entscheidungen zu gewährleisten. Dies ist nicht nur eine technische, sondern auch eine ethische Herausforderung, die uns alle betrifft.

Ähnliche Beiträge

Diese 9 Excel-Hacks machen uns die Arbeit mit der Tabellenkalkulation leichter

Diese kleinen Änderungen beim Bedienen der Tabellenkalkulation haben eine grosse Wirkung auf unsere Produktivität....

Serie Bedrohungen im Internet, Teil 6: Betrügerische Supportanrufe

Der nachfolgende Teil unserer Serie beschäftigt sich mit der erfolgreichen Masche, sich über einen betrügerischen Telefonanruf Zugang zu deinem Computer, der ans Internet angeschlossen ist,...

WindowSwap – Ausblicke und Einblicke in den Alltag der Welt

Die Zeiten sind vorbei, in denen uns Lockdowns an unsere vier Wände banden. Doch WindowSwap, eine Idee von Sonali Ranjit und Vaishnav Balasubramaniam, die damals...

Ähnliche Beiträge

Tod im digitalen Zeitalter: Was passiert mit unseren Daten?

Im digitalen Zeitalter hinterlassen wir nicht nur materielle Spuren, sondern auch eine Vielzahl an digitalen Daten, die unser Erbe prägen. Neben Social-Media-Profilen, E-Mails und Abonnements...

Bildschirm teilen in Teams – und zwar richtig, damit alle etwas erkennen können

Das Problem ist bekannt. Oft ist es nötig, Bildschirminhalte während einer Teams-Besprechung zu teilen. Während dabei Kolleginnen und Kollegen im Büro mit grossen Monitoren keine...
TEAM GREENITS - Dominik Neuffer

Dominik Neufer
Leitung Kommunikation

Du hast Fragen oder Anregungen?

Ich stehe jeden ersten Freitag im Monat für unsere Blogsprechstunde telefonisch unter +41 31 529 10 19 zur Verfügung. Gerne kannst du mir auch eine E-Mail an blog@greenits.ch schreiben.

Ich freue mich auf einen regen Austausch und interessante Gespräche.

Werbehinweis (Link mit Sternchen*)

Achtung: Affiliate-Link. Wenn du das verlinkte Produkt kaufst, bekommen wir eine Provision. Für dich ändert sich nichts am Preis. Nur fürs Protokoll: Wir stellen hier nur Produkte vor, die sich für uns in der Praxis bewährt haben.

Newsletter abonnieren

…und einen CHF 250 Gutschein erhalten!

Erhalte regelmässige Updates zu IT-Themen, profitiere von exklusiven Rabatten, sei immer informiert über unsere neuesten Produkte und entdecke inspirierende IT-Inhalte, Tipps und Tricks. Als Dankeschön schenken wir dir einen Gutschein im Wert von CHF 250 für deine nächste Shop-Bestellung.

Jetzt anmelden und profitieren!