Suche

Diskriminierende KI – das Problem mit der Blackbox

Es ist nicht das erste Mal, dass künstliche Intelligenz ins Fettnäpfchen tritt. Nach Googles Gorilla-Fail, der Menschen mit schwarzer Hautfarbe als Gorillas in der Bildersuche auflistete, trifft es nun Amazon mit seiner Pleite vom KI-unterstützten Einstellungsprozess, der Frauen sichtlich benachteiligte. Der Vorfall ist ein Ausdruck der Schräglage, die beim Einsatz von KI derzeit entstehen kann.

Durchschnittliche Lesezeit: ca. 2,5 Minuten

KI DISKRIMINIERT NICHT, ES IST DER IMMER DER MENSCH DAHINTER

Entscheidungen, die von Maschinen getroffen werden, entsprechen der kühlen Logik ihrer Schaltkreise und Algorithmen. Um wirklich diskriminierend zu handeln fehlt der Maschine das Bewusstsein. Werden den maschinellen Lern- und Entscheidungsprozessen Informationen zur Verarbeitung bereitgestellt, wird sie stets eine logische Schlussfolgerung daraus ziehen. Diese Logik wird jedoch nicht immer der menschlichen entsprechen.

EIN ZERRSPIEGEL UNSERER GESELLSCHAFT

KI sollte von sich aus unvoreingenommene Entscheidungen treffen. Dennoch kann der Einsatz von KI sehr wohl, ungewollt oder beabsichtigt, zur Diskriminierung führen. Ist das der Fall, deckt Machine Learning oft Schräglagen auf, die sich schon seit langem in der Gesellschaft verfestigt haben.

Vier Faktoren können dafür ausschlaggebend sein: die Trainingsdaten, die Algorithmen, das Team und das Zielvorhaben.

UNZUREICHENDE TRAININGSDATEN

Im Fall Amazon verhielt es sich so, dass die KI anhand von Bewerbungsdaten trainiert wurde, die überwiegend von Männern stammten. Der Machine-Learning-Prozess schloss daraus, dass Männer bei der Bewerbung zu bevorzugen seien. Daher bewertete das System Bewerbungsschreiben, die auf Frauen schliessen liessen schlechter, wie aus einem Reuters-Bericht hervorgeht. Ähnlich wird es dem Algorithmus der Google-Bildersuche ergangen sein, dem schlichtweg nicht ausreichend Datenmaterial zur Verfügung stand, um zuverlässig Primaten von Menschen mit dunkler Hautfarbe unterscheiden zu können.

Es muss also bereits beim Lernstoff auf eine gerechte Ausgewogenheit geachtet werden – was eine besondere Herausforderung darstellen kann.

UNZUREICHENDE ALGORITHMEN

Die Algorithmen selbst, die dem maschinellen Lernprozess vorausgehen, können – bewusst oder unbewusst – diskriminierend angelegt sein. Ein Algorithmen-Monitoring könnte hier ein Ansatzpunkt sein. Jedoch setzt das zum einen ein grosses Fachwissen des Prüfers voraus und zum anderen werden viele Firmen ihr geistiges Eigentum nicht freiwillig für eine externe Inspektion freigeben.

NICHT REPRÄSENTATIVE TEAMS

Das Entwicklerteam sollte besonders unterschiedlich zusammengestellt sein, um repräsentative Kriterien zu formulieren. Das Problem stellt sich hier leider bereits am Ansatzpunkt, denn der Bereich künstliche Intelligenz ist noch eine Männerdomäne, in der nicht einmal jede vierte Fachkraft eine Frau ist. Und wenn bei der Beurteilung von Bewerbungsunterlagen ähnliche Systeme wie die von Amazon eingesetzt werden, wird das auch so bleiben.

FALSCHE ZIELVORHABEN

Doch das Problem hält sich auch auf einer anderen Ebene hartnäckig. Wird das Konzept bereits von altmodischen Rollenverteilungen überschattet, verzerrt die intelligente Maschine das Ergebnis um ein Vielfaches. Sprachassistenten wie Siri, Cortana oder Alexa, die vom Namen her eher eine weibliche Identität suggerieren, verfestigen die althergebrachte und überholte Vorstellung von der Frau als Helferin und Assistentin, erst recht, da die virtuellen Helfer mit einer voreingestellten Frauenstimme sprechen. Es mag zwar sein, dass eine weibliche Stimme den meisten Menschen angenehmer vorkommt, doch warum sollte nicht jeder selbst vor dem ersten Einsatz seines digitalen Helferleins nach seinen persönlichen Vorlieben bezüglich Stimmlage gefragt werden?

KÜNSTLICHE INTELLIGENZ UND DIE MENSCHEN, DIE SIE ERSCHAFFEN, HABEN NOCH VIEL ZU LERNEN

Seifenspender, die nur die Hände von hellhäutigen Menschen erkennen und nicht die von Dunkelhäutigen, sind ein Ärgernis. Kollisionsvermeidungssysteme, die ebenso hellhäutige Menschen als Hindernis besser erkennen können als Dunkelhäutige, gemeingefährlich. Beide zeigen aber deutlich das Problem auf: die Auswahl der Informationen muss viel gewissenhafter und facettenreicher erfolgen, was nach einem radikalen Umdenken in den Köpfen aller beteiligten Entwickler verlangt.

Scheinen alle Voraussetzungen erfüllt, damit künstliche Intelligenz wertfreie Entscheidungen treffen kann, bleibt noch immer das Blackbox-Problem. Der logische Prozess, der hinter dem Ergebnis steht, das die Maschine ausspuckt, ist nicht durchschaubar. Letztlich kann nicht mehr klar nachvollzogen werden, was für Schlussfolgerungen gezogen wurden. Daher fordern auch KI-Forscher, dass, wann immer über das Schicksal von Menschen entschieden werden soll, keine Systeme zum Einsatz kommen, bei denen der Entscheidungsprozess nicht eindeutig nachzuverfolgen ist.

Ähnliche Beiträge

Feinstaub-App für Velofahrer und Velofahrerinnen – Grüne IT an der Hochschule für Technik und Architektur Freiburg

Vor etwa neun Monaten, im November 2022, rückte eine Meldung aus der Universitätsstadt Fribourg in den Fokus unserer Aufmerksamkeit: eine Feinstaub-App, die speziell für Velorouten...

Kinder und Smartphones: Aus Langeweile wird Kreativität

Eine Entwicklung, die uns immer häufiger auffällt, ist der ständige Blick von Kindern auf ihre Smartphones. Die Versuchung ist verständlich: Solange die Kleinen vor dem...

Künstliche Intelligenz und Singularität – was uns nach Web 4.0 erwartet

Das Buzzword Web 2.0, das um die Jahrtausendwende verwendet wurde, war ein Trotzruf. Nach dem Platzen der Dotcom-Blase bedeutete es so viel wie «Totgesagte leben...

Ähnliche Beiträge

Pink Slime – fragwürdige Online-Inhalte und verborgene Gefahren

Pink Slime, auf Deutsch «rosa Schleim», ist ein Begriff, der sich auf einige industriell hergestellte Rindfleischprodukte bezieht, die mit Konservierungsmitteln haltbar gemacht werden. Promikoch Jamie Oliver...

Quishing – dieser neue Betrugsversuch umgeht deinen Spamfilter

Betrügerinnen und Betrüger sind stets auf der Suche nach neuen Tricks, um dich hereinzulegen. Die jüngste Masche in dieser endlosen Liste ist Quishing (ein neu...
TEAM GREENITS - Dominik Neuffer

Dominik Neufer
Leitung Kommunikation

Du hast Fragen oder Anregungen?

Ich stehe jeden ersten Freitag im Monat für unsere Blogsprechstunde telefonisch unter +41 31 529 10 19 zur Verfügung. Gerne kannst du mir auch eine E-Mail an blog@greenits.ch schreiben.

Ich freue mich auf einen regen Austausch und interessante Gespräche.

Werbehinweis (Link mit Sternchen*)

Achtung: Affiliate-Link. Wenn du das verlinkte Produkt kaufst, bekommen wir eine Provision. Für dich ändert sich nichts am Preis. Nur fürs Protokoll: Wir stellen hier nur Produkte vor, die sich für uns in der Praxis bewährt haben.

Newsletter abonnieren

…und einen CHF 250 Gutschein erhalten!

Erhalte regelmässige Updates zu IT-Themen, profitiere von exklusiven Rabatten, sei immer informiert über unsere neuesten Produkte und entdecke inspirierende IT-Inhalte, Tipps und Tricks. Als Dankeschön schenken wir dir einen Gutschein im Wert von CHF 250 für deine nächste Shop-Bestellung.

Jetzt anmelden und profitieren!