Das Zukunftsmagazin von TÜV SÜD

„KI OHNE VORURTEILE WIRD ES NICHT GEBEN“

—— Vivienne Ming gehört weltweit zu den profiliertesten Expertinnen zu künstlicher Intelligenz (KI). Im Gespräch erklärt die US-amerikanische Techgründerin und Neurowissenschaftlerin, warum Algorithmen nicht objektiv sind und weshalb der Einsatz von KI schon heute in die Bürgerrechte eingreift.

TEXT ANNA GAUTO
FOTO DAMIEN MALONEY

Frau Ming, Algorithmen geben Handlungsempfehlungen auf Basis kühler mathematischer Berechnungen. Sind sie deswegen auch neutral?
———— Tatsächlich glauben das selbst viele Experten und Professoren. Als ob künstliche Intelligenz nur aus einfachen Gleichungen bestünde, die man mit einer Zahl füttert, um dann eine andere herauszubekommen. Ich frage mich manchmal, ob manche Leute wirklich so naiv sind oder nur so tun.
Warum sollten sie?
———— Um ihre KI leichter zu verkaufen. Gerade für Personalabteilungen wird KI gern als objektive Unterstützung bei der Auswahl neuer Mitarbeiter angepriesen. Aber es ist geradezu lächerlich anzunehmen, dass Algorithmen neutral sind.
Weshalb?
———— Es gibt eine Reihe von Beispielen, die das Gegenteil belegen. Nehmen wir die Gesichtserkennung. Vor 22 Jahren, als man anfing, die Technologie zu entwickeln, erkannte sie Gesichter von farbigen Personen nicht. Damals lautete die Erklärung, dass die Gesichter aus dem Internet, mit denen die Algorithmen trainiert wurden, zumeist weißen Menschen gehörten. Man werde den Fehler beheben. Das war zu jener Zeit nachvollziehbar, hat sich aber bis heute nicht geändert.
Warum nicht?
———— Weil diejenigen, die Algorithmen programmieren, sie – wenn auch unbewusst – mit rassistischen Informationen füttern.
Wie baut man versehentlich Algorithmen, die Minderheiten schlechter behandeln?
———— Ming Indem man jene Menschen vergisst oder ignoriert, die nicht wie die meisten Programmierer weiß und männlich sind. Und indem man annimmt, dass Mathematik und Wahrheit dasselbe sind. Natürlich bestehen Algorithmen, rein technisch gesehen, aus Gleichungen. Aber sie werden gefüttert mit Annahmen über die Welt – und die basieren nun einmal auf Vorurteilen von Menschen.
Zum Beispiel?
———— Für ein Bildungs-Start-up habe ich einmal ein kleines KI-System gebaut, das Flüchtlingskinder und ihre verschollenen Familien zusammenführen sollte. Um das System zu trainieren, habe ich wissenschaftliche Daten für die Gesichtserkennung verwendet und diese mit Gesichtern aus dem Internet angereichert, etwa von Facebook oder Twitter. Ich wollte erst einmal nur erreichen, dass mein neuronales Netzwerk versteht, was Gesichter sind. Dann hat es ein paar wirklich interessante Dinge gelernt.
Nämlich?
———— Die meisten lächelnden Gesichter gehörten Frauen. Also nahm das System an, dass Frauen immer lächeln. Taten Frauen das nicht, glaubte es, das Gesicht müsse männlich sein. Wir haben dem Netzwerk nichts über Geschlechterrollen beigebracht. Das hat es selbst gelernt.
Sie spielen auf ein Phänomen an, das die Wissenschaft „soziales Lächeln“ nennt: Viele Frauen lächeln, selbst wenn ihnen nicht danach ist, weil sie glauben, es sei erwünscht, freundlich zu sein.
———— Genau. Und der KI ist das nicht entgangen.
Auch bei Amazon war man ziemlich überrascht, als man bemerkte, zu welchen Schlüssen ein scheinbar neutraler Algorithmus gelangt war, der Personal auswählen sollte. Sie sollen Amazon vor dem Algorithmus gewarnt haben.
———— Ja. Amazon wollte mich als Chefwissenschaftlerin einstellen. Man sagte mir: „In sieben Jahren werden bei uns eine Million Leute arbeiten. Deine Aufgabe wird sein, ihr Leben besser zu machen.“ Eigentlich ein spannendes Jobangebot. Alles, was ich mit meinem Thinktank Socos Labs heute mache – verrückte, datengetriebene Wissenschaft –, hätte ich dort haben können.
Sie haben abgelehnt. Warum?
———— Eines meiner Projekte wäre gewesen, eine KI zu bauen, die die Personalauswahl diverser macht. Sie sollte die besten Softwareentwickler auf Basis historischer Amazon-Daten finden. Das heißt: Der Algorithmus sollte aus den Informationen, wer in seinen ersten Jahren bei Amazon eine Beförderung bekommen hatte, ableiten, welche Job-Kandidaten sich eignen würden.
Klingt erst einmal plausibel.
———— Nur auf den ersten Blick. Ich hatte bei einer anderen Firma schon einmal als Chefwissenschaftlerin eine KI fürs Recruiting gebaut und wusste, dass es mit dieser Methode nicht klappen würde. Ich habe das den Amazon-Leuten auch gesagt, doch sie wollten es trotzdem so machen.
Warum ging das schief?
———— Wie bei anderen Techkonzernen glaubte man auch bei Amazon, es brauche nur die klügsten Programmierer und genügend Daten, um einfach alles programmieren zu können. Diesen erstklassigen Computeringenieuren war aber nicht bewusst, dass ihr Datensatz keine objektiven Indikatoren für Leistung barg, sondern 20 Jahre subjektive Personalauswahl und Beförderungspraxis. Das System hat aus den Daten sehr akkurat herausgelesen, wen der Konzern überwiegend einstellte und förderte: Männer. Also hat es Frauen konsequent aussortiert.
Der Algorithmus wurde anschließend nicht mehr eingesetzt.
———— Ming Ja, denn er siebte Frauen sogar noch dann aus, nachdem das Unternehmen alle offensichtlichen Hinweise auf das Geschlecht aus den Daten getilgt hatte. Das System hatte bereits zu sehr verinnerlicht, was lange Zeit entscheidend für eine Karriere war – ein Mann zu sein. Es hat dann einen Weg gefunden, auch ohne Geschlechtsmarker herauszufinden, wann eine Bewerbung wahrscheinlich von einer Frau stammt, und diese aussortiert. Dasselbe hätte übrigens auch bei vielen anderen Techkonzernen passieren können.
Warum?
———— Wenn Studierende heute in maschinellem Lernen einen Abschluss machen, verbessern sie dabei in den meisten Fällen bestehende Systeme. Sie versuchen dann zum Beispiel, eine bestimmte Foto­erkennung ein kleines bisschen besser zu machen. Dafür bekommen sie das Programm, die Daten, die Problemstellung und selbst die Antworten. Auf Basis dieser Arbeit sollen sie dann später auf einmal vorurteilsfreie KI programmieren. Kein Wunder, dass das nicht klappt.
Die Computeringenieure kochen nach Rezept und scheitern genau deswegen?
———— Natürlich. Sie mussten ja nie selbst einen Datensatz zusammenstellen oder eine eigene Fragestellung entwickeln. Sie haben nur gelernt, Systeme noch akkurater und leistungsfähiger zu machen. In den 20 Jahren, in denen ich an wirklich verzwickten Problemen gearbeitet habe, bekam ich nicht ein einziges Mal den Datensatz und noch weniger die passende Frage dazu. Beides musste ich selbst herausfinden. Viele Softwareentwickler, die zu den großen Techfirmen gehen, folgen aber brav der Aufgabenstellung: Was ist der bestmögliche Algorithmus auf Basis meiner Daten? Sie hinterfragen nicht, ob der Datensatz geeignet ist, ob die Annahmen darin Vorurteile reproduzieren oder wo sich diese verbergen könnten. Sie bauen herausragende Werkzeuge. Und zwar auch dann, wenn es gar keine Werkzeuge, sondern Häuser bräuchte. Sie haben nicht gelernt, echte Lösungen zu entwickeln.

„Es ist lächerlich anzunehmen, dass Algorithmen neutral sind.“

Vivienne Ming
Und wie baut man einen Algorithmus, der nicht diskriminiert?
———— Mein Rat ist, keine historischen Daten zu verwenden und stattdessen wissenschaftliche Erkenntnisse einzubeziehen. In der Psychologie, der Soziologie oder der Ökonomie ist seit 100 Jahren bekannt, was entscheidend ist, damit jemand gut in seinem Job sein wird. Dieses Wissen einfach zu ignorieren, ist verrückt.
Sie haben selbst KI fürs Recruiting gebaut, wie sind Sie vorgegangen?
———— Wir haben kleine KI-Systeme programmiert, die wissenschaftliche Experimente simuliert haben. Wir wissen aus der Psychologie, dass etwa Resilienz eine Kerneigenschaft für Qualität im Job ist, also ob man sich von Misserfolgen entmutigen lässt oder nicht. Unsere KI hat dann nach solchen Resilienzindikatoren gesucht oder sie in Form eines psychologischen Fragebogens auf einer Website abgefragt. Wir wissen vieles über die Welt. Wenn wir maschinelles Lernen damit anreichern, können wir einiges erreichen.
KI scheint uns Menschen den Spiegel vorzuhalten. Darin sehen wir unsere eigenen Vorurteile. Ließe sich künstliche Intelligenz nicht auch ganz gezielt einsetzen, um gerade unbewusste Vorbehalte sichtbar zu machen?
———— Absolut. Die Systeme, die wir bauen, spiegeln am Ende immer nur uns selbst wider. Eine Sprach-KI, die mit amerikanischer Literatur trainiert wurde, hat nach dem Training etwa Positives mit Männern verknüpft und alles Negative mit Frauen und farbigen Personen. Die Medien machten daraus: „KI ist rassistisch“. Aber KI ist nicht rassistisch, wir sind es. KI ist nur eine Reflexion von uns.
Gibt es überhaupt neutrale Algorithmen?
———— Ich glaube nicht. Aber es gibt bedeutende Unterschiede. Wichtig ist zum Beispiel, wie komplex die Gleichungen sind. In modernen Fahrzeugmotoren kann maschinelles Lernen helfen, Energie effizienter zu nutzen. In solchen einfachen geschlossenen Systemen spielen Vorurteile kaum eine Rolle. Aber wenn kognitive Systeme Entscheidungen mit vielen unsicheren Variablen treffen müssen, wird es schwierig: Wie schnell fahre ich vor der Kurve? Was ist mein nächster Schachzug? Wen halte ich für kriminell – und wie verhindere ich Diskriminierung bei der Stellenbesetzung? Da gibt es so viele Möglichkeiten, dass dort immer Vorbehalte wirken werden. Es gibt keine vorurteilsfreien Menschen, daher wird es auch keine vorurteilsfreie KI geben.
Sollte man KI also aus besonders sensiblen Bereichen verbannen?
———— Es ist zumindest etwas, worüber man nachdenken muss. San Francisco hat die Fehler der ­Gesichtserkennung zum Anlass genommen, die Technologie in öffentlichen Einrichtungen zu verbieten. Andererseits habe auch ich solche KI schon ein­gesetzt, um autistischen Kindern zu helfen, ­Gesichtsausdrücke zu verstehen. Oder um Flüchtlingskinder zu ihren Familien zu bringen. Verbote betreffen immer auch KI, die Menschen hilft
oder sogar Leben rettet. Dennoch halte ich Gesichts­erkennung etwa in der Polizeiarbeit für hochproblematisch.
Der Einsatz von KI scheint ständiges Abwägen zu erfordern.
———— Und das ist wichtig, weil KI immer tiefer in unsere Leben hineinwirkt. KI beeinflusst nicht nur, wer welche Jobs bekommt. Sie entscheidet über Darlehen, die Art von Nachrichten, die wir sehen, soziale Verbindungen, wen die Polizei überprüft und viele weitere Facetten unseres Lebens. Wir fragen uns, ob KI diskriminiert, und das tut sie. Doch das Problem liegt viel tiefer.
Nämlich wo?
———— KI untergräbt Bürgerrechte. Nicht indem sie unverbesserlich diskriminiert, sondern weil sie gewaltige Macht hin zu einer kleinen Gruppe von Menschen verschiebt, der die KI letztlich dient.
Es gibt Richtlinien für den Einsatz von KI. Was schlagen Sie noch vor, um eine Übermacht der großen Datensammler zu verhindern?
———— KI muss als Bürgerrecht verankert werden, um eine Wiederherstellung der Machtbalance zwischen Bürgern und Techunternehmen zu erreichen. Jedes Individuum muss Zugang zu KI haben, die dessen Wohl zum Ziel hat, wie bei einem Anwalt oder Arzt. Es braucht auch Zugang zur KI-Infrastruktur und den Algorithmen. Denn woher wollen Sie sonst wissen, ob nicht ein verstecktes System für eine unterbliebene Beförderung verantwortlich ist? In den USA hat sich das Modell der „öffentlichen Option“ für KI herausgebildet, eine Art freiwillige Allianz zwischen Staat und Bürger. Dazu gibt es einige Ideen, etwa öffentliche Mittel für maschinelles Lernen oder eine Art Treuhandfunktion für private Daten. All das heißt nicht, dass ich schlecht über Jeff Bezos oder Larry Page denke. Aber weil sich die Interessen einiger Milliardäre kaum mit denen der Nutzer decken, sollten wir ein Recht auf eine KI haben, die unserem Wohl verpflichtet ist.

WEITERE ARTIKEL