Nobody is perfect!

Verzerrungen und Streuungen bei der Informationsverarbeitung von KI-Systemen. © Kristian Kersting

Menschen und Maschinen haben viele Möglichkeiten, die Welt um sie herum »falsch« einzuordnen — sie können und müssen voneinander lernen.

Wie einst die Dampfmaschine und der Computer, wird die Künstliche Intelligenz (KI) die Art und Weise, wie wir leben und arbeiten, revolutionieren – vom kontaktlosen Bezahlen über personalisierte Empfehlungen auf Streaming-Plattformen bis zu persönlichen Assistenten für jeden und Robotern, die Lieferungen zustellen.

Ein großer Online-Händler entdeckte zu seinem Nachteil, dass ein von ihm entwickeltes KI-System in der Personalabteilung Bewerbungen von Frauen benachteiligte. Solche Diskriminierungen sind weder für die Unternehmen noch für die Gesellschaft akzeptabel.

Doch wie entstehen Vorurteile in KI-Systemen, und warum führen sie zu Ungerechtigkeiten? Sind es voreingenommene Programmierer, die solche Algorithmen erstellen, oder wird die KI absichtlich mit verzerrten Daten gefüttert?

Verzerrungen und Ungleichheiten sind in der realen Welt allgegenwärtig. Wenn KI-Systeme mit zufällig ausgewählten Texten aus dem Internet trainiert werden, erscheinen Männer häufiger im Zusammenhang mit dem Begriff »Wissenschaft« als Frauen.

Die Begriffe »Verzerrung« und »Streuung« spielen hier eine zentrale Rolle? Wenn Sie mit Ihren Freunden Dart spielen gehen, können sie beide beobachten. Begnadete Dartspielerinnen treffen stets die Mitte der Zielscheibe. Keine Verzerrung, keine Streuung. Weniger talentierte Spieler treffen die Dartscheibe überall um das Bullseye herum, aber selten das Bullseye: eine hohe Streuung. Ein Glas Wein zu viel verzerrt den »Blick« und die Würfe streuen sich um einen Punkt weg vom Bullseye.

Ein grundlegendes Prinzip der Informationsverarbeitung besagt, dass Verzerrungen und Streuungen nur begrenzt minimiert werden können und in einer Wechselbeziehung stehen: Reduziert man die Verzerrung, nimmt die Streuung zu, und umgekehrt. Dieses Gesetz gilt für alle informationsverarbeitenden Systeme, einschließlich des menschlichen Verstandes. Die Annahme, dass Menschen immer richtig liegen, ist selbst ein Irrtum.

»Irren ist menschlich«, wie es treffend heißt. Wir neigen oft dazu, in Klischees und Stereotypen zu denken. Ein Beispiel von der Boston University verdeutlicht dies: »Ein Mann und sein Sohn haben einen schweren Unfall und werden in die Notaufnahme gebracht. Der Arzt sieht den Jungen und sagt: ›Ich kann diesen Jungen nicht operieren, er ist mein Sohn!‹« – Wie ist das möglich? Weniger als ein Viertel der Befragten erkannte, dass der Arzt in diesem Fall die Mutter war.

Auch unsere unbewusste Gesichtserkennung ist nicht frei von Vorurteilen. Wenn man bis zum Alter von zwölf Jahren keine regelmäßigen sozialen Kontakte zu Menschen anderer Hautfarben hatte, wird man Schwierigkeiten haben, deren Gesichter zu unterscheiden. In ›Manche mögen’s heiß‹ sagte Osgood Fielding passend: »Nobody is perfect!« Dies trifft sowohl auf Menschen als auch auf Maschinen zu. Daher müssen wir sicherstellen, dass KI-Systeme so programmiert und trainiert werden, dass sie keine unerwünschten Ergebnisse produzieren.

Aber Vorsicht! Auch menschliche Urteile können auf ähnlichen Algorithmen beruhen, die uns nicht bewusst sind. Studien zeigen, dass Richter nach einer Pause oder einer Mahlzeit großzügiger urteilen – eine Verzerrung, die wir als Gesellschaft nicht wünschen.

Was können wir alle tun? Verzerrungen erkennen und daran arbeiten, sie zu verringern. KI-Systeme sind dabei eine Chance. Sie halten uns einen Spiegel vor und helfen uns, unsere eigenen Vorurteile zu erkennen und hoffentlich abzubauen. Dies ist ein wesentlicher Schritt, um eine gerechtere Welt zu schaffen.

Dieser Text beruht auf einem gemeinsamen Beitrag mit Constantin Rothkopf in der Zeitung ›Die Welt‹.

(Kristian Kersting)

Weiterführende Informationen

Personen

Zurück zur Übersicht

...nach Jahren

...nach Rubriken