Mutale Nkonde, eine US-amerikanische KI-Forscherin, im Interview über Rassismus in der Tech-Welt, was Mathe damit zu tun hat und was Nutzer dagegen tun können.
EMOTION: Mutale Nkonde, warum forschen Sie zu Rassismus in neuen Technologien?
Mutale Nkonde: Letztes Jahr war ich auf einer Konferenz der Harvard Kennedy School zum Thema "Public Interest Technology". Die besten Technologie-Experten der USA waren anwesend. Wir haben über Privatsphäre, Überwachung, Menschen- und Persönlichkeitsrechte gesprochen. Aber nicht über Rassismus, obwohl er definitiv in neuen Technologien existiert. Das hat mich erschreckt. Selbst in diesem elitären Rahmen finden wir nicht die richtigen Worte, um dieses Thema anzusprechen. Dass ich nur eine von zwei Schwarzen war, hat mich eingeschüchtert. Ich weiß ja auch, wie sensibel das Thema ist. Also habe ich begonnen, zu Rassismus in neuen Technologien zu forschen, um mich mit empirischen Daten und Fakten verteidigen zu können, wenn Leute Dinge sagen wie: "Das ist Technologie, Rassismus existiert da nicht." Ich kann das Gegenteil beweisen.
Können Sie ein Beispiel geben?
Ja, die Gesichtserkennung. Das ist weltweit relevant. Diese Software, die dazu eingesetzt wird, ist nicht in der Lage, dunkle Hautfarben richtig zu erkennen. Weil sie vor allem mit weißen Gesichtern programmiert worden ist. Wenn Einwanderungsbehörden in den USA auf Gesichtserkennungs-Technologien setzen, werden Familien mit hoher Wahrscheinlichkeit abgeschoben. Diese Technologien sind zu ungenau.
Wichtig ist aber zum Beispiel auch, zu wissen, dass Rassismus und Sexismus oft miteinander einhergehen.
Dieser Artikel stammt aus dem Heft 09/2019.
Neugierig auf unsere weiteren Themen? Hier geht es zur aktuellen Ausgabe.
Inwiefern?
Ein Beispiel sind Deepfakes – audiovisuelle Manipulationen, bei denen das Gesicht von jemandem auf den Körper von jemand anderem gesetzt wird und die Stimme mithilfe von Künstlicher Intelligenz-Technologie rekonstruiert wird. Ursprünglich wurden solche Videos verwendet, um pornografischen Content zu produzieren. Schwarze Frauen waren zuerst betroffen. Aber mittlerweile gibt es auch Deepfakes von den Schauspielerinnen Scarlett Johansson und Natalie Portman, die das Problem überhaupt erst in die Öffentlichkeit gebracht haben. Diese Videos schaden vor allem Frauen, weil sie uns als Objekte darstellen. Aber so funktionieren Technologien, die diskriminierend sind: Sie richten sich gegen jene, die "schwach" sind, oder arm. Und das sind häufig People of Colour. Schwarze Frauen.
Wo kommt Rassismus noch vor?
Die Liste ist lang. Es gibt einen Zusammenhang mit Werbealgorithmen – die Art und Weise, wie sie funktionieren. Zum Beispiel auf Social-Media-Plattformen wie Facebook. Oder auch auf Youtube – man kennt das ja, dass einem Videos vorgeschlagen werden, die auf den Keywords von den Videos basieren, die man vorher angeguckt hat. Das gilt auch für Suchmaschinen. Manchmal werden diese Keywords von "White Supremacists" (Vertreter einer rassistischen Ideologie, die die Vorherrschaft der Weißen propagiert) gekauft und für ihre rassistischen Ideologien verwendet. In den USA hat zum Beispiel Stromfront (rechtsextreme Website) die Domain für eine Website über Martin Luther King gekauft.
Ein wichtiges Buch über Rassismus: Reni Eddo-Lodge "Warum ich nicht länger mit Weißen über Hautfarbe spreche"
Gibt es auch Beispiele, in denen Rassismus subtil auftritt?
Willst du als Bank einen Algorithmus entwickeln, um deine Zielgruppe zu bestimmen – etwa um zu entscheiden, an wen du Kredite vergibst –, möchtest du ja wissen, wer in der Lage ist, die Darlehen zurückzuzahlen. Und dazu wird in den USA das Postleitzahlen-System genutzt. Dieses System gibt Prognosen über die Menschen, die dort leben: ihre Herkunft, wie viel Geld sie verdienen, Bildungslevel, Gesundheitsstatus und Kriminalitätsrate. Das System entstand vor dem Hintergrund des Programms "Rebuild the USA", das zum Wiederaufbau der Wirtschaft nach dem zweiten Weltkrieg erschaffen wurde. Alle Gebiete, die nicht gefördert werden sollten, wurden mit einer roten Linie eingekreist – sogenanntes "Redlining". In diesen Nachbarschaften lebten überwiegend Schwarze und Latinos. Und heute, 2019, existieren diese Muster immer noch.
Auf Facebook wird es auch genutzt: Wenn man zum Beispiel sein Haus vermarkten will, kann man Postleitzahlen auswählen, um zu bestimmen, wer das Haus überhaupt angezeigt bekommt. Und so kann man Schwarze Menschen systematisch ausschließen.
Was denken denn Tech-Experten darüber?
In der Forschung haben wir 20 Technologie-Experten aus dem Silicon Valley interviewt. Unter anderem ging es in unserem Fragebogen darum, wie sie über Rassismus denken und über Technologie. Die häufigste Ansicht über Technologie: "Mathematik ist unvoreingenommen." Allerdings ist uns aufgefallen, dass dieselben Leute bei Rassismus nicht unvoreingenommen waren, da sie häufig betont haben, farbenblind zu sein oder dass sie überhaupt nicht über Rassismus nachdenken – sie würden einfach ihren Job machen und Produkte designen. Farbenblind bedeutet allerdings, nicht anzuerkennen, dass Schwarze Menschen in der Gesellschaft strukturell benachteiligt werden.
Wenn Leute also sagen: "Algorithmen und Codes sind nur Mathematik und Mathe kann nicht diskriminierend sein," – was antworten Sie ihnen?
Bei Algorithmen beschäftigen wir uns nicht mit Mathe. Wir beschäftigen uns mit statistischen Modellen und diese Statistiken können nun mal verwendet werden, wie auch immer sie ausgelegt werden sollen. Hinter Algorithmen oder künstlichen Intelligenzen stehen Menschen, die sie programmiert haben. Ich war gerade erst für einen Vortrag in Toronto und habe dort mit ein paar Informatikern aus den Niederlanden gesprochen. Sie haben gesagt, Frauen könnten keine CEOs sein – wenn du CEO googlest, würden nur Männer angezeigt. Aber Frauen sind auch CEO! Dazu meinten sie: "Ist die Anzahl zu gering, werfen wir sie einfach aus dem Datensatz." Finden sie, dass das neue Produkt zu wenige People of Colour oder zu wenige Frauen, zu wenige Menschen mit Behinderung, zu wenige queere Menschen betrifft – dann werden sie aus dem Datensatz geschmissen. Mein Argument ist also: Algorithmen sind nicht unparteiisch, sondern ein politisches Produkt und bis nicht jede einzelne Person mitgezählt wird, wird dieses mathematische Modell immer ungenau sein.
Welche Rolle spielt der soziale, gesellschaftliche Kontext?
Wir haben weltweit das Problem, dass die Leute, die diese Technologien entwickeln, Rassismus nicht kritisch hinterfragen, sich nicht mit Women Studies oder auch Disability Studies auskennen. Man kann das Chaos der Menschheit nicht in eine ordentliche Form pressen. Dazu musst du abstrahieren, Leute loswerden. Und das ist der Grund, warum so viele Technologien mit Weißen Männern im Hinterkopf designed wurden. Sie werden also für einen Stereotyp designed.
Letztens habe ich von einer Frau gelesen, die sich mit natürlicher Sprachverarbeitung beschäftigt und in der KI-Forschung tätig ist. Sie hat herausgefunden, dass viele der Sprachtechnologien, die wir nutzen, wie zum Beispiel Alexa, nur an Männern getestet wurden – weil sie in ihren Teams nicht genug Frauen hatten, es halt keine Frauenstimmen gab.
Was bedeutet das?
Dass diese Sprachtechnologien auf Frauenstimmen nicht so gut reagieren.
Mutale Nkonde ist Fellow des Data and Society Research Institute in New York City und forscht zu den Themen Rassismus, Technologie und Politik. Als KI-Expertin hat sie zuletzt für die demokratische Abgeordnete Yvette Clarke im US-Kongress gearbeitet und unter anderem am Algorithmic Accountability Act zur Überprüfung von maschinellen Lernsystemen wie der Gesichtserkennungssoftware. Außerdem hat sie den Kongress im Umgang mit Deepfakes beraten.
Um die Lage zu verbessern, haben Sie während Ihrer Forschung die Methode "Racial Literacy" mitentwickelt. Welche Idee steckt dahinter?
Mit Racial Literacy wollen wir erreichen, dass es einfacher wird mit Rassismus umzugehen, indem wir eine gemeinsame Sprache dafür finden. Es ist eine Fähigkeit, die erst erworben und dann geübt werden muss. Wenn wir in die Interaktion gehen – Weiße mit Schwarzen Menschen reden, Schwarze mit Weißen Menschen, fühlen sich beide Seiten meistens gestresst. Dieses Stresslevel kann man reduzieren.
Wie kann man das Stresslevel reduzieren?
In drei Schritten: Als erstes muss man rassistische Dynamiken verstehen. Damals in Harvard, als ich den Entschluss gefasst habe, zu Rassismus in Technologien zu forschen, war ich nur eine von zwei Schwarzen Menschen bei der Konferenz – ich habe mich machtlos gefühlt. Weiße Männer werden als glaubwürdiger wahrgenommen. Das zu wissen, hilft Teams sich in der Technologie-Welt besser aufzustellen. Wenn du jemanden im Team hast, der oder die zum Beispiel versteht, dass das Postleitzahlen-System in den USA auf strukturellen Rassismus gegründet ist, ist das vielleicht ein Argument, um einen alternativen Ansatz zu finden.
Der zweite Schritt ist Emotionale Intelligenz: wirklich anzuerkennen, dass diese Interaktion angespannt sein könnte. Vielleicht muss ich mehr Fragen stellen, oder auch einige Übungen machen, um zu erkennen, wann eine Situation angespannt ist und wie man diese löst.
Und der dritte Schritt ist die Aktion. Wir müssen offen über Rassismus sprechen – wenn wir Rassismus wahrnehmen, oder nicht genau einordnen können, ob wir uns selbst diskriminierend verhalten. Im Report haben wir herausgefunden, dass die meisten Unternehmen im Silicon Valley nicht über Rassismus reden, weil es zu unangenehm ist. Aber wenn sie das Thema vermeiden, können sie Rassismus in Technologien auch nicht erkennen und dagegen angehen.
Kann ich als Nutzerin etwas gegen Rassismus in neuen Technologien tun?
Ja, man kann auf das eigene Nutzerverhalten achten und gezielt Unternehmen unterstützen, deren Produkte nicht auf Datenspeicherung ausgelegt sind. Ich mag zum Beispiel Mozilla, die Suchmaschine von Firefox. Sie sind eher Daten-Minimalisten und speichern diese nur für 13 Monate. Oder die Suchmaschine "Duck Duck Go", die ebenfalls nicht an deinen Daten interessiert sind.
Dann denke ist, ist es wichtig, ein politisches Umfeld zu schaffen, das für diese Themen sensibilisiert ist. Ich war an der Einführung des Algorithmic Accountability Act für das US-Repräsentantenhaus beteiligt. In diesem Gesetz wird zum Beispiel gefordert, dass die Regierung Algorithmen überprüft, die für die Öffentlichkeit freigegeben werden, um sicherzustellen, dass sie nicht rassistisch sind.
Und wie ich gerade schon gesagt habe, ist es wichtig, offen über Rassismus zu reden. Ich bin gerade dabei ein Projekt in den USA zu launchen, das sich "AI for the Culture" nennt, also Künstliche Intelligenz für die Kultur. Solange wir nicht über Rassismus reden und genau definieren, werden Vorurteile immer rassistische Auswirkungen haben.