Suche

Diskriminierende KI – das Problem mit der Blackbox

Es ist nicht das erste Mal, dass künstliche Intelligenz ins Fettnäpfchen tritt. Nach Googles Gorilla-Fail, der Menschen mit schwarzer Hautfarbe als Gorillas in der Bildersuche auflistete, trifft es nun Amazon mit seiner Pleite vom KI-unterstützten Einstellungsprozess, der Frauen sichtlich benachteiligte. Der Vorfall ist ein Ausdruck der Schräglage, die beim Einsatz von KI derzeit entstehen kann.

Durchschnittliche Lesezeit: ca. 2,5 Minuten

KI DISKRIMINIERT NICHT, ES IST DER IMMER DER MENSCH DAHINTER

Entscheidungen, die von Maschinen getroffen werden, entsprechen der kühlen Logik ihrer Schaltkreise und Algorithmen. Um wirklich diskriminierend zu handeln fehlt der Maschine das Bewusstsein. Werden den maschinellen Lern- und Entscheidungsprozessen Informationen zur Verarbeitung bereitgestellt, wird sie stets eine logische Schlussfolgerung daraus ziehen. Diese Logik wird jedoch nicht immer der menschlichen entsprechen.

EIN ZERRSPIEGEL UNSERER GESELLSCHAFT

KI sollte von sich aus unvoreingenommene Entscheidungen treffen. Dennoch kann der Einsatz von KI sehr wohl, ungewollt oder beabsichtigt, zur Diskriminierung führen. Ist das der Fall, deckt Machine Learning oft Schräglagen auf, die sich schon seit langem in der Gesellschaft verfestigt haben.

Vier Faktoren können dafür ausschlaggebend sein: die Trainingsdaten, die Algorithmen, das Team und das Zielvorhaben.

UNZUREICHENDE TRAININGSDATEN

Im Fall Amazon verhielt es sich so, dass die KI anhand von Bewerbungsdaten trainiert wurde, die überwiegend von Männern stammten. Der Machine-Learning-Prozess schloss daraus, dass Männer bei der Bewerbung zu bevorzugen seien. Daher bewertete das System Bewerbungsschreiben, die auf Frauen schliessen liessen schlechter, wie aus einem Reuters-Bericht hervorgeht. Ähnlich wird es dem Algorithmus der Google-Bildersuche ergangen sein, dem schlichtweg nicht ausreichend Datenmaterial zur Verfügung stand, um zuverlässig Primaten von Menschen mit dunkler Hautfarbe unterscheiden zu können.

Es muss also bereits beim Lernstoff auf eine gerechte Ausgewogenheit geachtet werden – was eine besondere Herausforderung darstellen kann.

UNZUREICHENDE ALGORITHMEN

Die Algorithmen selbst, die dem maschinellen Lernprozess vorausgehen, können – bewusst oder unbewusst – diskriminierend angelegt sein. Ein Algorithmen-Monitoring könnte hier ein Ansatzpunkt sein. Jedoch setzt das zum einen ein grosses Fachwissen des Prüfers voraus und zum anderen werden viele Firmen ihr geistiges Eigentum nicht freiwillig für eine externe Inspektion freigeben.

NICHT REPRÄSENTATIVE TEAMS

Das Entwicklerteam sollte besonders unterschiedlich zusammengestellt sein, um repräsentative Kriterien zu formulieren. Das Problem stellt sich hier leider bereits am Ansatzpunkt, denn der Bereich künstliche Intelligenz ist noch eine Männerdomäne, in der nicht einmal jede vierte Fachkraft eine Frau ist. Und wenn bei der Beurteilung von Bewerbungsunterlagen ähnliche Systeme wie die von Amazon eingesetzt werden, wird das auch so bleiben.

FALSCHE ZIELVORHABEN

Doch das Problem hält sich auch auf einer anderen Ebene hartnäckig. Wird das Konzept bereits von altmodischen Rollenverteilungen überschattet, verzerrt die intelligente Maschine das Ergebnis um ein Vielfaches. Sprachassistenten wie Siri, Cortana oder Alexa, die vom Namen her eher eine weibliche Identität suggerieren, verfestigen die althergebrachte und überholte Vorstellung von der Frau als Helferin und Assistentin, erst recht, da die virtuellen Helfer mit einer voreingestellten Frauenstimme sprechen. Es mag zwar sein, dass eine weibliche Stimme den meisten Menschen angenehmer vorkommt, doch warum sollte nicht jeder selbst vor dem ersten Einsatz seines digitalen Helferleins nach seinen persönlichen Vorlieben bezüglich Stimmlage gefragt werden?

KÜNSTLICHE INTELLIGENZ UND DIE MENSCHEN, DIE SIE ERSCHAFFEN, HABEN NOCH VIEL ZU LERNEN

Seifenspender, die nur die Hände von hellhäutigen Menschen erkennen und nicht die von Dunkelhäutigen, sind ein Ärgernis. Kollisionsvermeidungssysteme, die ebenso hellhäutige Menschen als Hindernis besser erkennen können als Dunkelhäutige, gemeingefährlich. Beide zeigen aber deutlich das Problem auf: die Auswahl der Informationen muss viel gewissenhafter und facettenreicher erfolgen, was nach einem radikalen Umdenken in den Köpfen aller beteiligten Entwickler verlangt.

Scheinen alle Voraussetzungen erfüllt, damit künstliche Intelligenz wertfreie Entscheidungen treffen kann, bleibt noch immer das Blackbox-Problem. Der logische Prozess, der hinter dem Ergebnis steht, das die Maschine ausspuckt, ist nicht durchschaubar. Letztlich kann nicht mehr klar nachvollzogen werden, was für Schlussfolgerungen gezogen wurden. Daher fordern auch KI-Forscher, dass, wann immer über das Schicksal von Menschen entschieden werden soll, keine Systeme zum Einsatz kommen, bei denen der Entscheidungsprozess nicht eindeutig nachzuverfolgen ist.

Ähnliche Beiträge

Künstliche Intelligenz und Singularität – was uns nach Web 4.0 erwartet

Das Buzzword Web 2.0, das um die Jahrtausendwende verwendet wurde, war ein Trotzruf. Nach dem Platzen der Dotcom-Blase bedeutete es so viel wie «Totgesagte leben...

NFT-Betrug auf Instagram

Die folgende Masche des Betrugs mit Non-Fungible Token (NFT) ist neu. Daher ist die Vorgehensweise noch nicht hinreichend dokumentiert. Durch hartnäckiges Nachforschen bei Betroffenen ist...

So importierst du Daten aus E-Mails in Excel mit Power Automate

Daten aus E-Mails in Outlook haben wir bereits erfolgreich in Excel importiert (Wie Sie E-Mails von Outlook in Excel importieren, und warum das sinnvoll sein...

Ähnliche Beiträge

Quishing – dieser neue Betrugsversuch umgeht deinen Spamfilter

Betrügerinnen und Betrüger sind stets auf der Suche nach neuen Tricks, um dich hereinzulegen. Die jüngste Masche in dieser endlosen Liste ist Quishing (ein neu...

Smarte Zahnbürsten: Vom Reinigungsassistenten zum Sicherheitsrisiko – Wie vernetzte Zahnbürsten Hackern Tür und Tor öffnen

In einer Welt, in der selbst die alltäglichsten Gegenstände mit dem Internet verbunden sind, bahnt sich eine unerwartete Gefahr an: die dunkle Seite vernetzter Haushaltsgeräte....
TEAM GREENITS - Dominik Neuffer

Dominik Neufer
Leitung Kommunikation

Du hast Fragen oder Anregungen?

Ich stehe jeden ersten Freitag im Monat für unsere Blogsprechstunde telefonisch unter +41 31 529 10 19 zur Verfügung. Gerne kannst du mir auch eine E-Mail an blog@greenits.ch schreiben.

Ich freue mich auf einen regen Austausch und interessante Gespräche.

Werbehinweis (Link mit Sternchen*)

Achtung: Affiliate-Link. Wenn du das verlinkte Produkt kaufst, bekommen wir eine Provision. Für dich ändert sich nichts am Preis. Nur fürs Protokoll: Wir stellen hier nur Produkte vor, die sich für uns in der Praxis bewährt haben.

Newsletter abonnieren

Hier kannst du den Newsletter abonnieren.