Wann ist die Technik schlauer als die Menschheit? Wie rassistisch sind Algorithmen? Und leben wir alle in einem Big Brother? Wir haben Tech-Expertin Kenza Ait Si Abbou gefragt
EMOTION: Kenza, warum haben viele Menschen solche Angst vor Technik?
Kenza Ait Si Abbou: Wir haben oft Angst vor Dingen, die wir nicht gut kennen, vor Neuem. Nicht die Nutzung der Technik, sondern das, was dahinter steht, ist für viele neu. Na gut, die Nutzung manchmal auch – meine Mutter hat Angst, die Kaffeemaschine zu bedienen. Aber diese Angst vor Neuem haben viele, vermutlich mehr Frauen als Männer.
Das ist mit anderen gesellschaftspolitischen Dingen vergleichbar, oder?
Ganz genau! Wenn man zum Beispiel nie Berührungspunkte mit Immigration hatte, ist es leicht, zu denken, das sind nur böse Menschen und die nehmen mir meine Arbeit weg. So ähnlich ist es mit den Robotern. Marie Curie sagte bereits vor einem Jahrhundert: "Nichts im Leben ist zu fürchten, es ist nur zu verstehen."
Wird diese Berührungsangst durch die Medien noch verstärkt?
Viele Informationen über Programmierung und K.I. entnehmen wir der Berichterstattung durch die Medien – und die ist düster, schwarz, und da steht dann so ein menschenähnlicher Roboter. Dann kommt noch Hollywood mit seinen Science-Fiction-Filmen und viele haben gleich den Terminator im Kopf.
Dabei haben wir im Alltag schon so viel intelligente Technik! Warum denken wir trotzdem in Zukunftsvisionen?
Das hängt auch damit zusammen, dass Menschen bei Robotern meist an physische Roboter denken, an Hardware. Dabei sind die meisten K.I.-Anwendungen Software-basiert und die sieht man meist nicht. Es gibt natürlich auch Roboter mit K.I., aber der Roboter an sich ist nur die Hülle.
Das Thema Robotik und Künstliche Intelligenz interessiert euch? Dann hört mal rein bei "Kasia trifft...":
Wo in unserem Alltag ist überall schon K.I. zu finden?
Im Handy natürlich, Apps, Anwendungen wie Siri oder Alexa, Armbanduhren. Autos und Navigationssysteme in den öffentlichen Verkehrsmitteln haben viele intelligente Module. Fahrrad- und Carsharing-Module, die Logistik, wenn wir bei einem Lieferdienst eine Pizza bestellen. Es gibt intelligente Geräte im Gesundheitswesen, precision farming in der Agrarwirtschaft... Eigentlich fällt es schwer, irgendeinen Lebensbereich zu finden, in dem es das noch gar nicht gibt. Selbst in kreative Bereichen, in denen der Mensch denkt, er sei unersetzlich, wie zum Beispiel das Schreiben von Texten, Filmen oder Musik. Sportberichterstattung und Börsennews werden automatisiert erstellt. Redaktionen, die es sich leisten können, lassen Texte von einer K.I. vorschreiben und erst dann werden sie von Menschen editiert.
Das heißt, meinen Job hier könnte jetzt theoretisch auch eine K.I. machen?
Grundsätzlich könnte jeder Job von einer K.I. gemacht werden – zumindest teilweise. Komplette Jobs können nur ersetzt werden, wenn sie repetitiv sind, wie zum Beispiel am Fließband in der Automobilindustrie. Ein Interview zu führen lässt sich schwer automatisieren – zumindest mit dem jetzigen Stand der Technologie. Es gibt mittlerweile Chat Bots, die Emotionen lesen können. An deiner Stimme können sie erkennen, ob du glücklich, traurig oder nervös bist – und das viel besser als ein Mensch, das ist der Wahnsinn. Trotzdem bringst du aber deine persönlichen Interessen mit ins Interview, du schaust, wie ich reagiere. Das ist ein menschliches Zusammenspiel, das noch ein bisschen zu sophisticated ist für die Technik. Aber Texte schreiben kann sie definitiv, ja. Das kann aber auch ein Vorteil sein. Stell dir vor, wir hätten hier jetzt eine Maschine, die alles protokolliert. Dann müsstest du nachher nicht so viel tippen. Wir haben im Büro eine K.I. entwickelt, die in Meetings Protokolle schreibt – sehr praktisch.
Vieles davon ist uns nicht so bewusst, weil wir nicht richtig hinschauen. Dazu wirfst du in deinem Buch eine interessante Frage auf: Warum bleiben wir nicht neugierig, wenn wir erwachsen sind?
Weil wir jahrelang getrimmt werden, das nicht mehr zu sein. Wir sehen die Welt nicht mehr durch Kinderaugen, weil wir nur noch getrieben sind. In der Schule, in der Wirtschaft… Wenn Kinder im Mathematikunterricht eine Frage zum Sport stellen, dann sagt der Mathematiklehrer: Das ist eine Sportfrage, die stellst du dem Sportlehrer später. Wir werden in Kästen gezwungen und uns wird beigebracht, stillzusitzen und nur die Fragen zu stellen, die in diesen Rahmen passen. Irgendwann merken wir: Unsere Neugier wird nicht als etwas Positives angesehen, sondern als Rebellion.
Wir werden jahrelang getrimmt, nicht mehr neugierig zu sein.
Kenza Ait Si AbbouTweet
Konntest du dir deine kindliche Neugier denn erhalten?
Ich glaube ja. Aber es ist schon so, dass es, wenn ich eine Frage gestellt habe, die mich interessiert hat, oft hieß: Nein, jetzt nicht. Wir merken ja bei unseren eigenen Kindern, dass wir uns oftmals nicht die Zeit nehmen, eine kleine Frage zu beantworten, sondern abwimmeln. Das ist so schade.
Glaubst du, zukünftige Generationen gehen mit einem anderen Blick an intelligente Technik heran, weil sie bereits damit aufwachsen?
Auf jeden Fall, sie gehen selbstbewusster damit um. Zumindest mit den Geräten – sie wissen ja noch nicht, was dahinter steckt. Mein Sohn ist jetzt fünf und der weiß schon, dass das iPad alles weiß. Wenn ich eine seiner Fragen nicht beantworten kann, sagt er: "Ja, dann frag doch mal Siri." Er hat schon verstanden, dass das Wissen von dort kommt. Deshalb bin ich gespannt zu sehen, wie er mit frontalem Schulunterricht umgehen wird. Wenn die Lehrkraft ihn etwas fragt, wird er vielleicht auch sagen: "Gucken Sie doch mal auf dem iPad". Und auch auf den Umgang mit den sozialen Medien bin ich gespannt, noch sind meine Kinder ja klein.
Social Media ist ein wichtiges Stichwort. Was, denkst du, muss sich verbessern, damit wir vernünftiger damit umgehen?
Das ist ein ziemlich komplexes Thema. Der allererste Schritt ist das Bewusstsein. Dann kommt die Bildung. Erst wenn wir mehr Aufklärung über Medien und Technik schaffen, können wir damit verantwortungsbewusst umgehen. Wenn ich weiß, wie der Algorithmus funktioniert, was meine Reaktionen bedeuten, dann denke ich zweimal nach, bevor ich den Like Button drücke oder eine Nachricht teile. Ist das echt, ist das fake, was ist die Quelle? Und das kann man erst tun, wenn man weiß, was Fake News bedeuten. Was für Gefahren und Konsequenzen sie haben können. Wir haben ja bei den US-Wahlen gesehen, wie gefährlich diese Polarisierung der Gesellschaft ist. Wir alle sind dafür verantwortlich, was im Netz geschieht.
Siehst du den Umgang junger Menschen mit Social Media kritisch?
Dass die Teenager von heute Medien wie TikTok nutzen, ist einerseits total selbstverständlich, andererseits wissen sie vielleicht gar nicht, welche Problematiken und Konsequenzen das haben kann. Thema Privatsphäre, Datenschutz, Hatespeech, Mobbing... Aus meiner Sicht hängt das auch damit zusammen, dass wir das Medienwissen aus den Schulen herausnehmen und das Digitale und das Analoge komplett trennen. Das ist überhaupt nicht mehr zeitgemäß. Wir erziehen unsere Kinder in der analogen Welt mit bestimmten Werten und dann verbieten wir in den Schulen die Geräte. Zu Hause haben die Kinder oft Screentime. Natürlich sollten sie da nicht zu viel dranhängen, aber ich glaube, diese Trennung führt dazu, dass die Kinder denken, dass das, was sie in der analogen Welt lernen, auch dort bleibt, wenn sie online gehen. Wir sagen ihnen, sie dürfen andere Kinder auf dem Spielplatz nicht schubsen, aber wir sagen ihnen viel zu selten, dass sie auch im Netz keine anderen Kinder schubsen dürfen. Viele haben vielleicht das Gefühl, es sei ein rechtsfreier Raum, wo dich niemand beobachtet und du machen darfst, was du willst.
Streaming-Tipp zum Thema: die Doku "Das Dilemma mit den sozialen Medien" auf Netflix
Du hast eben schon den Begriff Algorithmus erwähnt. Kannst du ihn in einfachen Worten erklären?
Ein Algorithmus ist eine Schritt-für-Schritt-Anleitung – wie ein Kochrezept. Eine Reihenfolge von Handlungsanweisungen, die eine Maschine dann umsetzen muss. Das können einfache aber auch sehr komplexe Sachverhalte sein.
Wir hören oft die Begriffe rassistische oder sexistische Algorithmen. Gibt es die?
Nein, es sind die Menschen, die dahinterstehen und die Algorithmen füttern, die rassistisch oder sexistisch sind.
Die Lösung ist...
… Diversity! Diversity bringt Perspektive. Und je mehr Perspektiven wir in der Entwicklung der Algorithmen haben, desto vielfältiger sind die Lösungen natürlich. Die Entwicklungsziele sind sehr, sehr homogen, die IT-Branche allgemein ist sehr weiße-Männer-lastig und der Bereich der K.I. sogar noch mehr. Die Diversität des Teams ist also der eine Aspekt, wir müssen aber auch dafür sorgen, dass die Daten, mit denen wir die Maschinen trainieren, diverser werden.
Kannst du dafür ein Beispiel nennen?
Das Beispiel Gesichtserkennung ist sehr anschaulich, deshalb verwende ich es oft. Wenn du eine Maschine nur mit Fotos von weißen Menschen trainierst, dann wird sie nur weiße Menschen unterscheiden lernen. Sie wird Schwarze Menschen nicht erkennen oder auseinanderhalten können. Wenn wir Diversität im Team haben, ist die Wahrscheinlichkeit höher, dass auch an das Diversifizieren der Datenbasis gedacht wird, als wenn das Team komplett homogen ist. Wenn die Lösung fertig ist, testet man sie immer an sich selbst. Und wenn du weiß bist und es funktioniert, denkst du: Super, die Arbeit ist erledigt. Aber wenn du eine Person of Color bist, funktioniert es vielleicht gar nicht so gut. Das gilt für die Spracherkennung genauso wie für die Gesichtserkennung. Da ist es zum Beispiel schon häufig vorgekommen, dass Frauenstimmen nicht so gut erkannt wurden wie Männerstimmen.
Es ist so schwierig, diese alten Systeme zu verändern. Wir reden hier über eine Macht, die Männer schon seit Jahren haben. Und jetzt zu fordern, dass sie etwas ändern – da lachen sich ja alle kaputt.
Kenza Ait Si AbbouTweet
Es ist so plausibel. Warum tun sich viele Unternehmen noch so schwer damit?
Solche Lösungen werden von Tech-Unternehmen gebaut und die Tech-Industrie leidet an Homogenität. Solange wir die Teams, auf allen Ebenen, nicht diverser bekommen, werden wir solche Diskriminierungen haben.
Noch eine Frage zu Social Media und dem Algorithmus: Sobald man irgendetwas googelt, bekommt man ja auf den unterschiedlichsten Kanälen und Geräten Werbung dafür. Lesen die mich, sehen die mich, hören die mich?
Ja, wir leben alle in einem Big Brother. (Lacht.) Du weißt ja, immer wenn du eine Website besuchst, schreibt diese Website die Cookies mit. Die werden auf deinem lokalen Rechner gespeichert und darin findet sich dein komplettes Verhalten. Wann hast du dich eingeloggt, wie lange hast du jede Seite besucht, welche Produkte hast du gekauft oder nicht gekauft. Diese Informationen werden gespeichert, damit die Seite dir beim nächsten Mal zeigen kann, was für dich relevant ist. Cookies sind gebaut, um das Surfen und die Orientierung im Netz für uns einfacher zu gestalten. Jetzt passiert es aber, dass einige Seiten diese Cookies untereinander tauschen.
Wie das denn?
Du hast Seite A offen, auf der die Informationen gespeichert sind, und dann öffnest du Seite B und stimmst den AGBs zu – wir stimmen AGBs ja oft zu, ohne sie überhaupt zu lesen, und viele Unternehmen erlauben dort den Datentausch, obwohl er laut Datenschutzgrundverordnung verboten wäre. In den AGBs heißt es: Okay, wenn du auf unserer Website surfen möchtest, musst du zulassen, dass wir die Cookies speichern, und deine Informationen an Dritte weitergeben. In den Einstellungen stehen die Informationen über alle Cookies. Das mussten Websites jetzt einführen, das ist transparent. Da stehen sogar die Firmen, an die die Informationen weitergeleitet werden und das ist teilweise eine lange Liste. Spannend, sich das mal anzuschauen.
Und das funktioniert auf verschiedenen Geräten?
Ja, dein Privathandy, dein Diensthandy, dein Laptop sind alles verschiedene Geräte, aber bestimmt hast du mit deinem Diensthandy mal deinen Facebook-Account geöffnet oder auf dem privaten Gerät deine Dienstmails gecheckt. Dann lernt das Gerät: Das ist dieselbe Person. Deshalb bekommst du die Werbung überall angezeigt.
Können wir das irgendwie umgehen?
Bei den Cookie-Richtlinien gab es ja vor kurzem eine Verschärfung. Websites müssen jetzt ganz klar auflisten, welche Cookies wir wirklich nutzen müssen, also die minimalen Cookies, die für die Funktionsweise einer Seite notwendig sind. Wie zum Beispiel wenn du etwas in den Warenkorb legst und er wissen muss, dass du es bist. Andere, nicht notwendige Cookies sind meistens deaktiviert und müssen manuell aktiviert werden. Mittlerweile darf man sie eben aussortieren. Aber wenn du das gemacht hast, steht groß in Grün "Alle Cookies akzeptieren" und ganz klein in Grau darunter "Personalisierte Einstellungen speichern". Das heißt, du machst dir die Mühe und sortierst die Sachen aus, die du nicht möchtest, aber beim Bestätigen ist der erste Button, der dir angezeigt wird, der große grüne, und wenn du aus Versehen draufklickst, hast du wieder alle Cookies aktiviert.
Eine Kollegin hat mir eine Frage mitgegeben, die ich unbedingt noch loswerden möchte: Wann ist die Technik denn nun endlich schlauer als wir? Denn das kann sich ja kein Mensch mehr mit ansehen...
Was viele Dinge angeht, ist die Technik schon intelligenter! Aber ganz so einfach ist es nicht, weil der Begriff Intelligenz keine eindeutige Definition hat. Wir sagen, es gibt viele Intelligenzen: emotionale, rationale, kognitive, sportliche, kreative… Muster erkennen in großen Tabellen können Maschinen natürlich schon viel besser. Wenn wir das als intelligent definieren, dann ist eine Maschine intelligenter.
Und bei emotionaler Intelligenz?
Da ist der Mensch generell noch weit voraus. Aber: Es gibt bestimmte Bereiche, in denen Maschinen Emotionen besser identifizieren können als ein Mensch. Bei der Stimmungsanalyse (Sentiment Analysis) zum Beispiel können Maschinen Texte analysieren und daraus die Stimmung der Autorin identifizieren. Oder eine auf Emotionen trainierte Spracherkennungssoftware kann die Emotionen in der Stimme sehr gut erkennen. Deine Stimmbänder bewegen sich in Frequenzen und eine Maschine kann Frequenzen viel besser hören als wir. Es gibt Menschen, Schauspieler*innen zum Beispiel, die Emotionen vortäuschen oder gut lügen können. Das erkennst du als normaler Mensch nicht, eine Maschine aber schon. Sie kann dann aber oft nur eine Sache, ist nicht das Gesamtpaket. Ein Mensch kann diese Komplexität viel besser verarbeiten. Wir sprechen deshalb bei unserer heutigen K.I. von schwacher K.I. Starke KI, die es in Filmen gibt, die die Komplexität eines Menschen verstehen kann und bis zu einem gewissen Maße ein Selbstbewusstsein hat, die urteilen kann, die weiß, dass sie existiert und Teil unseres Kosmos ist – die gibt es so noch nicht, das ist Science Fiction.
Du sagst "noch" – wie lange dauert es, bis wir so etwas haben?
Keine Ahnung. Das kann auch niemand so genau sagen. Es gibt Expert*innen, die sagen, es dauert 50 Jahre. Die Verrückten aus der Wirtschaft, Elon Musk und Co, sagen, in zehn bis spätestens 20 Jahren ist es soweit. Viele – gerade Neurowissenschaftler*innen – sagen aber auch, das wird es nie geben. Sie sagen, K.I. basiert darauf, dass wir unser Gehirn simulieren. Die aufwändigen Anwendungen – das deep learning – basieren auf künstlichen neuronalen Netzen und die wiederum basieren auf unserem Gehirn. Laut Neurowissenschaft haben wir Menschen aber erst zehn Prozent unseres Gehirns verstanden, das heißt, wir sind noch längst nicht zu 100 Prozent in der Lage, dieses Wissen an eine Maschine weiterzugeben. Natürlich wissen wir, wie die elektrischen Impulse von einem Neuron zum nächsten gehen, aber warum sie gerade zu diesem Neuron gehen und nicht zu den anderen, und welche Neuronenreihenfolge zum Beispiel bedeutet, dass wir Liebe oder Hass verspüren – das mit den Gefühlen – das haben wir noch nicht verstanden. Elon Musk arbeitet auch gerade daran, das Gehirn zu uploaden. Andere sagen, das wird nie passieren. Und irgendetwas dazwischen wird es sein.
Weiterlesen