Schrödingers Katze Schrödingers Katze

Der österreichische Wissenschaftsblog
42.000+ Fans

Eine schwarz gelockte Frau schaut seriös in die Kamera.
23. Juli 2020

Wie Deep Learning unsere Weltsicht verändert

Von Schrödingers Katze
Mobilität, Technik & Zeit
Stereotype und altmodische Weltansichten werden durch Deep Learning teilweise verstärkt.

Künstlich intelligente Programme (KIs) lernen mittels Deep Learning von selbst. Doch was, wenn die Daten, die sie dazu verwenden, fehlerhaft sind? Forscher*innen der Uni Linz haben gemessen, wie KIs Vorurteile verstärken.

Selbstlernende Maschinen können nicht selbstständig denken, also auch nicht bereits gelerntes hinterfragen.
Foto: Delia Giandeini / Unsplash.

Krankenpfleger oder -pflegerin?

Deep Learning ist ein Prozess, bei dem künstlich intelligente Programme von selbst anhand einer Menge an Daten lernen. Ein Beispiel dafür sind Suchmaschinen. Sie suchen anhand ihres bereits gelernten Wissens das bestmögliche Suchergebnis für den eingegebenen Begriff. Doch genau hier liegt ein mögliches Problem.

Die Forscher*innen an der Uni Linz haben herausgefunden, dass künstlich intelligente Suchmaschinen, die Deep Learning nutzen, auch Falschinformationen herausgeben können, die Vorurteile verstärken. Sucht man etwa nach der Definition des englischen Begriffs „nurse“ (der sowohl Krankenpflegerin als auch Krankenpfleger bedeuten kann), sagt die Maschine möglicherweise, dass es sich hier immer um eine Frau handelt, die Kranke pflegt.

Die Daten, die ein System zum Lernen verwendet, bestimmen dessen Output.
Foto: Lukas / Pexels.

Die Deep Learning Datenlage

Doch warum passiert so etwas? KIs sind nicht unendlich intelligent. Sie lernen anhand der Daten, die Menschen ihnen einflößen. Sind diese Daten fehlerhaft oder zweideutig, werden diese Fehler reproduziert. „Deep-Learning-Systeme lernen, indem sie eine riesige Datenmenge betrachten und abstrakte Darstellungen der Welt erstellen, die auf wiederkehrenden Mustern in den Daten beruhen“, erklärt Navid Rekabsaz, einer der Studienautor*innen der Uni Linz.

„Diese Systeme verwenden hauptsächlich aktuelle oder historische Daten. Solche Daten enthalten natürlich die bestehenden (oder historischen) Vorurteile“, so Rekabsaz. Sucht man also zum Beispiel nach dem Begriff „nurse“, dann reproduziert das Programm die Meinungen und Definitionen, die andere Menschen in die verwendeten Daten „geschrieben“ haben. Es hängt also immer von den eingegebenen Daten ab, was für „Informationen“ ein Programm ausspuckt.

Mehr Diversität unter Programmierer*innen kann auch zu einem geringeren Gender Bias in der KI, die sie produzieren, führen.
Foto: Kelly Sikkema / Unsplash.

Programmier-Teams müssen diverser werden

Liegt es also in der Verantwortung der Programmierer*innen, dass KIs so antworten, wie sie antworten? Der Studienautor Navid Rekabsaz mahnt, man müsse die Situation differenziert betrachten: „Deep Learning Ingenieur*innen sind wenig daran beteiligt, was das Modell lernt, da das System ja automatisch lernt“, so Rekabsaz. „Dennoch sind die Entwickler*innen für die Ergebnisse und das Verhalten des Systems verantwortlich. Sie haben die zu lernenden Daten ausgewählt, die die Ergebnisse beeinflussen. Wenn das endgültige System gesellschaftlichen Schaden verursacht, sollten die Urheber*innen verantwortlich sein und das Problem angehen.“

Immer wieder ist in der Debatte um die soziale Verantwortung von KIs die Rede davon, dass Programmier-Teams diverser werden müssten, um gegen die Reproduktion von Vorurteilen durch Deep Learning vorzugehen. „Eine diversere Umgebung fördert zwar den Diskurs, reicht jedoch per se nicht aus“, meint der Experte. „Wir müssen auch das technologische Tool – in diesem Fall Deep Learning – verstehen und das nötige Werkzeug haben, um mit den Problemen umgehen zu können.“

Univ. Ass. Dr. Navid Rekabsaz vom Institut für Computational Perception der Johannes-Kepler-Universität Linz.
Foto: Alexander Müller.

Klicken Sie auf den unteren Button, um den Inhalt von Facebook Like-Button zu laden.

Inhalt laden


Teile den Beitrag auf

Facebook
Twitter
Monatliche Updates in deiner Inbox!

Diese Artikel solltest du ebenfalls lesen

  • Eine Hand in Handschuhen, die auf ein Tablet zeigt, ist zu sehen. Auf dem Tablet sind Röntgenaufnahmen von Zähnen abgebildet.

    Künstliche Intelligenz in der Zahnmedizin

    Januar 19, 2023
  • Chemiker Christoph Rameshan im Labor.

    Treibhausgase recyceln

    November 22, 2022
  • Punktwolkentechnologie der Firma Innophore. Diese hilft, Proteinbereiche zu visualisieren.

    Virusvarianten vorhersagen

    November 15, 2022
« Wie willkommen sind Geflüchtete in Städten?
Klimawandel: Extremtemperaturen fordern Tiere heraus »

Aktiv werden

Katzenpost

PapierfliegerDu hast Vorschläge zu Themen, die wir behandeln sollen? Dann schick sie uns!

Mit der Verwendung des Kontaktformulars nimmst du unsere Datenschutzerklärung zur Kenntnis.

    Zum Absenden des Formulars muss Google reCAPTCHA geladen werden.
    Google reCAPTCHA Datenschutzerklärung

    Google reCAPTCHA laden

    Schrödingers Katze
    • › Impressum
    • › Datenschutz
    • › Über uns
    • › Kontakt