Künstliche Intelligenz mit Vorurteilen

Wer glaubt, Maschinengehirne sind per se frei von Vorurteilen, der irrt. (Grafik: Pobytov/iStock)

Damit Computerprogramme menschliches Verhalten imitieren können, brauchen sie viele Daten - Informationen, von denen sie lernen können. Eine Studie offenbart nun: Künstliche Intelligenzen lernen dabei mitunter mehr als eigentlich beabsichtigt. Denn wenn sich die Programme anhand von Text-Datensätzen sprachliche Fähigkeiten aneignen, übernehmen sie auch die in dem Material enthaltenen Stereotypen. Sie zeigen dann die gleichen rassistischen Vorurteile oder Geschlechter-Klischees wie viele Menschen in unserer Gesellschaft.

Computersysteme, die menschliche Intelligenz nachahmen, beherrschen inzwischen erstaunliche Fähigkeiten: Die Maschinengehirne werten selbständig Sprache, Bilder und Texte aus oder schreiben sie sogar. Zudem haben sie gelernt, sich gegenseitig etwas beizubringen und kommen auch mit komplexen Aufgaben mühelos zurecht. Für Aufsehen sorgten jüngst etwa Siege von KI-Programmen gegen menschliche Gegenspieler bei Poker, Go und im Fragespiel Jeopardy. Damit Maschinen ähnliche Leistungen wie Menschen vollbringen können, müssen sie jedoch zunächst lernen. Informatiker füttern sie dafür mit riesigen Mengen an Daten. Diese sind die Basis, anhand derer die KI-Systeme Muster erkennen und schließlich anwenden, um intelligentes Verhalten zu simulieren. Chatbots oder Übersetzungsprogramme speisen die Experten zum Beispiel mit gesprochener und geschriebener Sprache und lassen sie Verbindungen zwischen Wörtern und Ausdrücken herstellen.

Rassistisches Programm

Algorithmen wie das Programm "GloVe" lernen dabei über sogenannte Worteinbettungen. Sie suchen nach dem gemeinsamen Vorkommen von Wörtern und bilden diese Beziehungen mit mathematischen Werten ab. Dadurch können sie semantische Ähnlichkeiten zum Beispiel zwischen "Politiker" und "Politikerin" verstehen und erkennen, dass die Beziehung zwischen diesen beiden Begriffen ähnlich ist wie die zwischen "Mann" und "Frau". Wissenschaftler um Aylin Caliskan von der Princeton University haben die auf diese Weise erworbenen Fähigkeiten von "GloVe" nun auf die Probe gestellt und herausgefunden: Das sprachliche Wissen des Programms ist gespickt mit kulturellen Stereotypen und Vorurteilen.

Für ihre Studie verwendeten die Forscher eine Methode, die in der Psychologie als Impliziter Assoziationstest bekannt ist. Dieser Test soll unbewusste, stereotype Erwartungen offenlegen. Probanden müssen dafür Paare mit Ausdrücken bilden, die für sie ähnlich erscheinen sowie Paare mit Begriffen, die für sie nicht zusammengehören. Dabei stellt sich dann zum Beispiel heraus, dass viele Menschen das Wort "Blume" mit dem Adjektiv "angenehm" assoziieren - "Insekt" jedoch eher als "unangenehm" empfinden. Caliskan und ihre Kollegen passten dieses Verfahren für ihre Untersuchung der Künstlichen Intelligenz an: Welche Assoziationen würde das Programm zwischen unterschiedlichen Begriffen bilden? Die Ergebnisse zeigten: Etliche Stereotypen und Vorurteile, die sich bei Menschen durch den Impliziten Assoziationstest regelmäßig offenbaren, hat "GloVe" ebenfalls verinnerlicht. So interpretierte das Programm zum Beispiel männliche, in afro-amerikanischen Kreisen übliche Vornamen als eher unangenehm und Namen, die unter Weißen üblich sind, eher als angenehm. Auch verknüpfte es weibliche Namen eher mit Kunst und männliche eher mit Mathematik.

Problematische Verzerrung

Für die Forscher ist damit klar: KI-Systeme übernehmen beim Lernen aus Datensätzen auch die darin explizit oder implizit enthaltenen Stereotypen. Experten erstaunt diese Erkenntnis nicht: "Das ist deshalb wenig überraschend, weil die Texte von Menschen geschrieben werden, die natürlich nicht vorurteilsfrei sind", kommentiert der Linguist Joachim Scharloth von der Technischen Universität Dresden. "Wenn KI-Systeme mit einseitigen Daten trainiert werden, ist es nicht verwunderlich, dass sie eine einseitige Sicht auf die Welt lernen. Im letzten Jahr gab es dazu schon die Beispiele des Microsoft Chatbots Tay, dem Internet-Trolle rassistische Sprache beibrachten, oder der App Google Photos, die glaubte, dunkelhäutige User seien Gorillas", ergänzt Christian Bauckhage vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme in Sankt Augustin.

Solche Maschinengehirne mit rassistischen und diskriminierenden Einstellungen könnten in Zukunft ein echtes Problem werden: nämlich dann, wenn die Programme Aufgaben in unserem täglichen Leben übernehmen - und zum Beispiel anhand von Sprachanalysen Vorentscheidungen darüber treffen, welche Bewerber zum Einstellungsgespräch eingeladen werden. Wissenschaftler diskutieren deshalb nun darüber, wie Verzerrungen aus Datensätzen künftig entfernt werden können. Gleichzeitig sehen manche die Übernahme von Vorurteilen durch KI-Systeme auch als Chance - weil die Programme uns damit gewissermaßen einen Spiegel vorhalten: "Dass maschinelles Lernen Stereotypen aufdecken kann, ist für das Verstehen von Gesellschaften auch ein Gewinn", meint Scharloth.

Reload-Capcha neu laden Text der identifiziert werden soll

Bitte geben Sie zusätzlich noch den Sicherheitscode ein!

Rubriken

 


Harte Nuss
Rätsel: Berühmte Entdecker gesucht

 

Der Buchtipp

Überflutete Höhlen, U-Boot-Wracks, Maya-Brunnen – der Archäologe Florian Huber berichtet über die bizarre Welt unter Wasser.

Zu allen Buchtipps


Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der Konradin Mediengruppe