Prof. Dr. Zweig über Chancen und Risiken künstlicher Intelligenz

Die aktuelle Folge des Denkangebot Podcast setzt sich mit dem Thema „Diskriminierung durch Technik“ auseinander. Im Rahmen der Recherche habe ich mit Prof. Dr. Katharina Zweig gesprochen. Sie lehrt an der TU Kaiserslautern, leitet dort das Algorithmic Accountability Lab und ist eine der führenden Expertinnen in Deutschland, wenn es um die Bewertung der Risiken und Chancen des Einsatzes von künstlicher Intelligenz geht. Es folgt eine gekürzte Fassung des Gesprächs, das ich mit ihr geführt habe.

Du hast ein Buch geschrieben mit dem Titel „Algorithmen haben kein Taktgefühl“. Warum hast Du diesen Titel gewählt?

Zweig: Algorithmen haben kein Taktgefühl, weil es sehr schwierig ist, ihnen beizubringen, in welchem Kontext welche Regel gilt. Ich erzähle da immer ganz gerne eine Anekdote: Meine Tochter kam, als sie klein war, auf die Idee, dass sie den Großeltern zu Weihnachten von ihrem Taschengeld etwas spendieren könnte – weil Geld ja eine feine Sache ist. Damit kann man sich schließlich verschiedene Sachen kaufen. Es hat ziemlich lange gedauert, ihr zu erklären, warum Kinder älteren Menschen kein Geld schenken. Irgendwann hat sie das auch akzeptiert. Dann waren wir aber in der Fußgängerzone in Kaiserslautern und da saß ein Bettler. Ich habe ihr zwei Euro in die Hand gedrückt und gesagt: „Hier, das kannst Du ihm geben“. Na ja, dann war die Diskussion natürlich groß, warum jetzt in diesem Kontext sie als Kind dann doch einem älteren Menschen Geld geben kann. Und genau dieses Feingefühl, um zwischen verschiedenen Situationen umzuschalten und zu verstehen, dass Regeln je nach Kontext unterschiedlich sind, das ist nicht so einfach. Darum geht es im Buch – den Titel hat aber mein Buchverlag vorgeschlagen. Und ich fand ihn sehr passend!

Bei Diskussionen rund um künstliche Intelligenz werden gerne Begriffe wie „Algorithmen“, „neuronale Netze“ und „Deep Learning“ wild durcheinandergeworfen. Was ist damit jeweils gemeint?

Zweig: Ein Algorithmus ist eine sehr detaillierte Handlungsanweisung, die garantiert zu einer Lösung für ein bestimmtes Problem führt. Ein gutes Beispiel dafür ist ein Algorithmus, der uns den kürzesten Weg von Hamburg nach München berechnet. Das allgemeine Problem heißt: Bring mich von A nach B. Wir als Informatiker:innen implementieren also nicht die genaue Route von Hamburg nach München, sondern diese Handlungsanweisung kann für zwei beliebige Orte jeweils die richtige Lösung berechnen. Das ist ein Algorithmus.

Ein neuronales Netz ist eine Speicherstruktur für Regeln. Das sind eigentlich nur sehr viele mathematische Formeln, die in einer bestimmten Struktur zueinanderstehen und drumherum gibt es einen Algorithmus, der, basierend auf Daten, dieses neuronale Netz mit Entscheidungsregeln füttert. Das funktioniert ungefähr so: Wir geben dem Algorithmus um das neuronale Netz ein Bild zu lesen. Ein Bild besteht aus Farbinformationen und Farben und das kann ich als Zahlen darstellen. Im Endeffekt gibt man dem Verfahren also eine lange Reihe von Zahlen. Zusätzlich bekommt das Verfahren eine Information, wie: Das ist ein Pferd. Mithilfe dieser Zahlen und der Information „Das ist ein Pferd“ versucht das Verfahren jetzt herauszubekommen, woran das Pferd erkannt werden kann. Es könnte sein, dass das Verfahren feststellt: Bei einem Pferd gibt es immer Pixel, die relativ dunkel sind und die ungefähr eine Dreiecksform haben. Das sind dann die Ohren. Und wenn es zwei solcher Dreiecke gibt und irgendwo einen Schwanz und einen Bauch und vier Beine, dann könnte es sich um ein Pferd handeln. Aber vielleicht berechnet das Verfahren auch, dass es sich um ein anderes Tier handeln könnte. Das neuronale Netz ist also nur der Speicher für die Entscheidungsregeln, welches Tier auf dem Bild zu sehen ist.

Deep Learning ist wiederum ein Verfahren, mit einer sehr komplexen neuronalen Netzwerkspeicher-Struktur, die aus vielen hintereinander geschalteten Schichten besteht. Deswegen spricht man von einem „tiefen Netzwerk“ und von „tiefem Lernen“.

Man hat das Gefühl, dass es momentan geradezu einen Hype um künstliche Intelligenz gibt. Was sind heutzutage realistische Anwendungsbereiche für KI und was ist eher Zukunftsmusik? Wie sieht es etwa mit selbstfahrenden Autos aus?

Zweig: Bei selbstfahrenden Autos haben wir bisher nur Level zwei Autos. Das sind Autos, die in bestimmten Situationen ohne Fahrer auskommen können, z.B. beim Einparken oder beim selbstständig die Spur halten – vielleicht auch mal Überholen. Aber wirklich selbstfahrende Autos haben wir natürlich noch nicht. Dafür benötigt man sehr viele KI-Anwendungen. Auf der einen Seite wäre da die Bilderkennung: Das Auto muss mit Hilfe seiner Sensoren verstehen, wie Gegenstände im Raum angeordnet sind, damit es nicht zu Kollisionen kommt. Ebenso benötigt man eine Vorhersage: Wenn ein Fahrrad auf der Gegenspur detektiert wird, müsste das Auto verstehen, ob das jemand ist, der vielleicht gerade links abbiegen will und damit die eigene Spur kreuzt. Es müssen also sehr viele KI-Systeme gemeinsam am Werk sein, um wirklich zu erreichen, dass ein Auto vollständig autonom fährt.
Es sind aber schon ziemlich viele sehr einfache KI-Systeme im Einsatz. Etwa, wenn wir eine Suchmaschine nutzen oder wenn wir uns auf Social Media bewegen und dabei eine Werbung gezeigt bekommen. Das alles sind von Algorithmen ausgesuchte Produkte oder Informationen.
Was auch bereits sehr gut funktioniert, ist die Spracherkennung. Spracherkennung heißt dabei nicht unbedingt, dass verstanden wird, was gesagt wird, sondern dass die Wörter erkannt werden können. Das ist der erste Schritt, wenn wir mit einer Maschine reden wollen. Bei den Sprachassistenten sieht man auch, dass teilweise dann auch verstanden wird, was gemeint war. Wir können davon ausgehen, dass sich dies über die nächsten Jahre noch weiter verbessern wird. Ich rechne damit, dass wir langfristig Maus und Tastatur weglassen und Geräte direkt ansprechen werden können – bis zu einer Unterhaltung wird es aber noch dauern.

Stichwort mit KIs unterhalten… Da gab es ja dieses berühmte Experiment von Microsoft und seinem Chatbot Tay, der anhand eines Datensatzes trainiert wurde und dann sehr schnell dazu übergegangen ist, sich rassistisch und sexistisch zu äußern. Auch YouTube stand in der Kritik, weil die KI Zuschauern über die Video-Vorschläge immer radikalere Inhalte ausgespielt haben soll. Wie stehst Du zu solchen Problemen? Glaubst Du, dass man so etwas in Zukunft verhindern kann?

Zweig: Meiner Meinung nach sind dies zwei sehr unterschiedliche Probleme. Beim Chatbot Tay haben sich Personen aus einem Troll-Forum (4chan) verabredet, um diesen mit sexistischen Äußerungen zu bombardieren. Ich habe zwei Kinder und je nachdem was wir denen beibringen, kriegen wir das natürlich auch zurück. Das ist die Schwierigkeit bei lernenden Systemen. Dieser Chatbot sollte ursprünglich lernen, worüber sich Personen unterhalten, welche Schlagwörter sie verwenden und dann Texte aus dem Internet suchen, die dieselben Schlagwörter verwenden. Das Resultat war also nicht erstaunlich. An der Stelle hätte ich mir auch ein bisschen mehr Coolness gewünscht. Man hätte sagen können: Wir wollten unserem Chatbot beibringen, dass er sich in eine Kommunikation mit denselben Schlagwörtern einklinkt und wenn die Internet-Community da draußen feindselig ist, wird er selber eben auch feindselig sein. Liebe Internet-Community, erzieht ihn doch bitte so, wie wir uns im Internet unterhalten wollen.

Die Beobachtung bei YouTube ist hingegen einer Optimierungsfunktion geschuldet. Lernende Systeme brauchen eine Art Richtschnur, ein Leitbild, anhand dessen sie erkennen können, was eine gute Entscheidung und was eine schlechte Entscheidung war. Die Richtschnur beim YouTube-Algorithmus war, dass man eine Milliarde gesehene Videostunden pro Tag erreichen wollte. Und das ist natürlich enorm. Dann hat der Algorithmus festgestellt, dass es Inhalte gibt, die uns länger am Bildschirm kleben lassen. Leider ist es der menschlichen Psychologie geschuldet, dass dies sehr oft genau die Inhalte sind, die eigentlich schauderhaft, verschwörungstheoretisch oder aggressiv sind. Das heißt, dieser Effekt, dass solche Inhalte nach oben gespült werden, kommt eigentlich dadurch zustande, dass es einen bestimmten psychologischen Effekt gibt und eine Optimierungsfunktion, die dies nicht mit einberechnet hat. Das ist der Grund, warum wir hier in Kaiserslautern einen Studiengang entwickelt haben, der sich Sozioinformatik nennt. Wir geben unseren Studierenden diese Sicht auf soziotechnische Systeme von vornherein mit – und zusätzlich noch wirtschaftliche, rechtliche und ethische Aspekte. Ich glaube, dass man tatsächlich Personen braucht, die beides zusammen denken können, damit da nicht derart gesellschaftsschädigende Nebeneffekte herauskommen.

Würdest Du sagen, dass viele Unternehmen da mittlerweile sensibler sind und beispielsweise Soziologen oder Psychologen einstellen, die quasi als Frühwarnsystem in Teams fungieren und etwa Hinweise geben, wie: „Bau das bitte so oder doch ganz anders“? Oder ist das eher Zukunftsmusik?

Zweig: Wir sehen, dass unserer Sozioinformatikerinnen und Sozioinformatiker sehr begehrt sind und dass es viele Firmen gibt, die sagen: „Leute mit einer solchen Expertise brauchen wir.“ Ich habe auf jeden Fall den Eindruck, dass das in den 1990ern und 2000ern vernachlässigt wurde. Man hatte das Gefühl, man könne jetzt mit genügend Daten und cleveren Verfahren menschliches Verhalten direkt auslesen und darauf reagieren. Ich denke aber auch, dass es eine ganz spannende Zeit für Sozial- und Geisteswissenschaftler ist – oder wenigstens sein könnte. Denn die jahrhundertelange Beschäftigung mit dem, was den Menschen ausmacht, wie Menschen sich organisieren, wie sie Gesellschaft bilden, das könnte man jetzt in einer ganz neuen Form digital umsetzen. Und dabei herausfinden, ob man nicht doch neue, bessere Gesellschaftsformen zusammen mit einer cleveren digitalen Kommunikationsstruktur aufbauen könnte. Ich glaube, dass wir da noch wirklich nicht am Ende sind und man sich genau jetzt fragen müsste, wie man Demokratie nochmal ganz neu denken könnte mit den neuen digitalen Systemen, die wir haben. Aber das heißt nicht, dass wir Politikerinnen und Politiker ersetzen können. Da kann ich nur sagen: Das ist Unsinn. Denn gerade beim politischen Handeln gibt es viel zu wenig Erfahrungswerte und Datenpunkte, die genügend gleich sind, um daraus lernen zu können. Denn die Welt ist ständig im Wandel. Und ein Kontextwandel ist eine Situation, bei der eine KI nicht genügend Informationen aus den vorhandenen Daten ziehen kann, um sinnvoll zu handeln. Politiker:innen werden wir so schnell nicht durch KI ersetzen können.

Siehst Du ein Problem, dass es für den Datenschutz schwieriger wird, wenn immer häufiger argumentiert wird: „Wir brauchen jetzt mehr Daten, um die Gesellschaft besser zu machen“?

Zweig: Ganz oft gibt es gar keine fundierte Basis für die Idee, dass man mit Daten dieses oder jenes Verhalten vorhersagen oder verbessern könnte. Ich habe mir Systeme angeschaut, die zum Beispiel behaupten, sie könnten aufgrund von fünf bis sieben Informationen über eine Person vorhersagen, ob diese Person in eine Schießerei verwickelt sein wird – entweder als Opfer oder als Täter. Ich wüsste aber keine einzige psychologische oder soziologische Theorie, die aufgrund so weniger Datenpunkte so etwas zuverlässig vorhersagen kann. Die zweite abstruse Idee ist die, dass man aus dem Gesicht ablesen könne, welche Emotionen eine Person hat. Das ist oftmals ein Modul von Bewerbungsvideo-Analysen. Natürlich gibt es Situationen, in denen unsere Emotionen so unverfälscht sind, dass wir sie im Gesicht tragen. Und dann kann das vielleicht auch eine Maschine erkennen. Aber gerade in sehr formellen Situationen, wie etwa bei einem Bewerbungsvideo, haben wir unser Gesicht unter Kontrolle. Psychologinnen und Psychologen haben sich einmal zusammengesetzt und versucht die Literatur zusammenzutragen, ob es überhaupt einen starken Zusammenhang gibt, zwischen unserer Mimik und den Emotionen, die wir fühlen. Und da gibt es eben aus psychologischer Sicht keinen verlässlichen Zusammenhang. Dann kann auch die Maschine nichts herauslesen.
Wir Menschen sind aber leider ziemlich schlecht darin, falsche Ergebnisse von Algorithmen zu identifizieren. Wir neigen dazu, uns eine Geschichte auszudenken, mit der das noch irgendwie erklärt werden kann. So lange die Ergebnisse nicht krass von dem abweichen, was wir erwarten, werden wir damit weiterlaufen. Und daher wird KI derzeit auch in Situationen genutzt, in denen sie nicht funktionieren kann, weil es gar keine ausreichende theoretische Basis für den Zusammenhang gibt, der da beobachtet werden soll.

Siehst Du die Gefahr, dass unter bestimmten Umständen problematische gesellschaftliche Verhältnisse, wie z.b. Diskrimierung bestimmter Gruppen, von der analogen Ebene auf die digitale Ebene übertragen werden?

Zweig: Hierzu gibt es ein interessantes Buch von Janelle Shane: „You look like a thing and I love you – How artificial intelligence works and why it’s making the world a weirder place“. In diesem Buch zeigt die Autorin die Gefahr auf, wenn KIs eine Abkürzung nehmen. Es gab da einen Datensatz mit Bildern von Pferden, die alle von demselben Fotografen waren. Und dieser hat auf jedem Bild sein Logo. Die „Abkürzung“ wäre dann, nicht nach dem Pferd zu suchen, sondern nach diesem Logo. Das ist eben viel einfacher. Und das ist genau das Problem bei künstlicher Intelligenz: Dass nach Eigenschaften gesucht wird, die das Ergebnis schnell und ziemlich gut vorhersagen können. Und wenn es eben in der Vergangenheit so war, dass es bestimmte Muster bei einer Einstellungsentscheidung im Job gab, z.B. dass man Minderheiten ignoriert oder sich auf Männer fixiert hat, und diese Entscheidungsregeln aus der Vergangenheit direkt weiterverwendet werden, dann kann es dazu kommen, dass Diskriminierung sogar noch schlimmer wird. Das ist aber kein Naturgesetz. Man kann sie dann auch dafür verwenden, bestehende Diskriminierungen zu erkennen und Entscheidungen zu ihrer Ausbalancierung zu treffen.

Würdest Du sagen, es bräuchte eine gesetzliche Regulierung für den Einsatz von KI und wenn ja, wie soll diese aussehen?

Zweig: Es gibt KI-Systeme, die in Feldern arbeiten, wo sehr klar ist, was eine gute Entscheidung ist – beispielsweise in der Produktion. Dort kann man sehr einfach sagen: Das hier ist eine kaputte Schraube, bitte puste die vom Band, und das ist eine heile Schraube, bitte lass sie auf dem Band liegen. Da sollten Ansätze der künstlichen Intelligenz wirklich frei, kreativ und innovativ ausprobiert werden können. Denn das ist ein wichtiger Faktor für unseren Wirtschaftsstandort. Gleichzeitig gibt es eben diese anderen Felder, wo gar nicht ganz klar ist, ob die künstliche Intelligenz das was sie soll leisten kann, ob genügend Daten da sind, ob die Daten gut genug sind, ob sie vollständig genug sind… Hier gibt es wiederum zwei Kategorien. Das eine sind staatliche KI-Systeme. Die würde ich sehr eng überwachen wollen, denn dort gibt es eine große Machtasymmetrie zwischen uns als Bürgerinnen und Bürgern und dem Staat. Aber auch da muss man wieder unterscheiden: Wenn jetzt eine Behörde einen Chatbot einsetzt, ist das auch ein künstlich intelligentes System – dass aber sicherlich keine große Kontrolle braucht. Wenn es aber darum geht, an Grenzen zu entscheiden, ob eine Person wirklich aus dem Land kommt, von dem sie angibt zu sein, dann ist das Grundrecht auf Asyl unter Umständen beeinträchtigt – und deshalb muss man da dann schon genauer hinschauen.

Bildrechte: Prof. Dr. Katharina Zweig

Du bist Mitglied der Enquete-Komission des Deutschen Bundestags zum Thema künstliche Intelligenz. Glaubst Du, dass man sich dort auf ein Vorgehen für die Zukunft einigen kann – oder gehen die Vorstellungen zu sehr auseinander?

Zweig: Es geht darum, dass künstliche Intelligenz nach den Maßstäben eingesetzt und entwickelt werden soll, die wir hier in Europa haben. Und dazu brauchen wir auch eine europäische Anstrengung. Ich sehe in der DSGVO solche Ansätze, aber ich würde gerne stärker diskutieren, ob wir nicht selbst entscheiden können, wie diese Daten verwendet werden können. Etwa im Sinne von bestimmten Lernmethoden, die wir in Europa unterstützen, dem sogenannten dezentralen Lernen. Es ist nämlich eine geschichtliche Kuriosität, dass im Moment Daten zentral gesammelt werden und dann beliebige KI-Systeme drauf losgelassen werden, um etwas aus diesen Daten zu lernen. Genauso gut hätte man eine andere Technologie verwenden können, die dezentral lernt. Was heißt das? Das muss man sich ein bisschen wie einen Wandergesellen vorstellen, der zu verschiedenen Meistern kommt und jeder Meister entscheidet für sich, was er diesem Gesellen beibringt. Das jetzige Modell lautet: Lasset alle Meister zu mir kommen und ich werde sie für immer gefangen halten und von ihnen lernen, was ich will. Ich hätte stattdessen lieber ein Wandergesellen-Modell. So etwas könnte man im europäischen Markt meiner Meinung nach auch durchsetzen: Künstliche Intelligenz muss nämlich in vielen Fällen von den Personen lernen, für die ein Produkt erzeugt werden soll. Es nützt also nichts, wenn uns jemand in Europa Werbung verkaufen will, die anhand asiatischer oder amerikanischer Datensätze ausgewählt wurde. Dies bedeutet, dass wir als Markt attraktiv sind und auch diktieren können, wie mit unseren Daten umgegangen wird.

Hier stellt sich natürlich die Frage der Unterscheidung zwischen personenbezogenen Daten und nicht-personenbezogenen Daten… Und dann ist da noch die Frage, ob das, was heute anonymisiert wurde, in Zukunft nicht doch einer Person zugeordnet werden kann…

Zweig: Ich mag besonders gerne unsere Uni-Umfragen, die „vollkommen anonym“ sind. Da werde ich als erstes gefragt, zu welchem Fachbereich ich gehöre, welcher Berufsgruppe ich angehöre und dann noch, wie alt ich bin. Es gibt bei uns genau zwei Professorinnen in der Informatik. Das ist dann auch nicht mehr anonym. Anonymisierung ist tatsächlich eine schwierige Geschichte, aber auch dafür gibt es technologische Lösungen. Beim „dezentralen Lernen“ gibt es Methoden, bei denen darauf geachtet wird, dass man nicht im Nachhinein aus dem Gelernten etwas über die Personen herausbekommen kann, von denen man gelernt hat. Sagen wir mal, wir beide schmeißen unsere Daten zusammen und dann kommen noch 98 andere dazu. Insgesamt sind wir also 100 Personen, die z.B. auf einer Webseite nach Produkten gesucht haben. Aus diesen Daten kann man ableiten, wann Personen auf ein Produkt klicken, welche Werbung sie spannend finden, usw.. Dann kommt dieser Wandergeselle zu uns und lernt von allen gleichzeitig. Er nimmt aber nur die gelernten Muster und Entscheidungsregeln mit, und keine sonstigen Daten. Es gibt Methoden, die sicherstellen, dass man aus dem Neu-Dazugelernten nichts über uns 100 ableiten kann – schon gar nicht über uns als Individuum. Meine Datensätze für dieses eine Verhalten sind an einem Ort gespeichert, und die anderen sind an einem anderen Ort gespeichert. Die Maschinen können nur vorbeikommen und davon lernen, wenn ich ihnen das erlaube, wenn es dafür einen Vertrag gibt. Die Daten können nicht ohne mein Wissen zusammengeführt werden. Das halte ich wirklich für einen riesigen Vorteil. Es ist ein bisschen schade, dass dieser technologische Ast in der Forschung nicht so präsent ist, aber ich denke, das können wir rückgängig machen. Wir sollten uns jetzt in der Europäischen Union daran machen, diese Verfahren weiter zu verfolgen und dann auch die dafür nötige Infrastruktur auszubilden. Dann haben wir wirklich einen europäischen Weg dafür, wie wir wollen, dass mit unseren Daten umgegangen wird.

Vielen Dank für das Gespräch!


Dir hat dieser Beitrag gefallen? Das freut mich sehr! Dieser Blog finanziert sich ausschließlich über Leser-Spenden. Meine Kaffeekasse ist entweder über paypal.me/kattascha oder das Konto mit der IBAN-Nummer DE84100500001066335547 (Inhaber Katharina Nocun) erreichbar. Oder bei Steady. Natürlich freue ich mich auch, wenn Ihr mein neues Buch „Fake Facts“ bestellt :-)

Ein Kommentar

  1. Ein überaus
    interessantes Interview!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

Bitte zeig mir, dass du ein Mensch bist! * Time limit is exhausted. Please reload CAPTCHA.