Werden Mensch und Maschine miteinander glücklich

?Künstliche Intelligenz

13

Prof. Dr. Katharina Zweig

Die KI-Expertin Katharina Zweig über die Frage, welche Entscheidungen Algorithmen in Zukunft für uns treffen sollen und wann uns künstliche Intelligenz endlich „richtig“ versteht.

Frau Zweig, es gibt zur Zeit viele Diskussionen um den Begriff künstliche Intelligenz. Wenn ich das richtig sehe, hat künstliche Intelligenz recht wenig mit menschlicher Intelligenz gemein. Was bedeutet denn künstliche Intelligenz – und was nicht?

Katharina Zweig:Der Begriff ist in der Tat irreführend, auch wenn es ihn schon sehr lange gibt. Wissenschaftler haben sich den Begriff in den 1950er Jahren ausgedacht: Sie wollten finanzielle Unterstützung von der Regierung für eine Konferenz und haben sich erhofft, dass ein solcher Name spannend klingt und ihnen die erhoffte finanzielle Förderung bringt. Unter den Begriff KI fallen eigentlich alle Dinge, die eine Software tun kann und die vom Menschen Intelligenz erfordern würde, wenn er sie tun würde. Das fängt also beispielsweise schon beim Taschenrechner an.

Ein Taschenrechner zählt bereits als KI?

Das kommt uns heute nicht besonders vor, aber würden wir einen Taschenrechner auf eine Zeitreise ins Mittelalter nehmen, wären die Leute schon erstaunt, dass ein Gerät so etwas kann. Ob jemand etwas als „künstliche Intelligenz” empfindet, hängt also auch davon ab, woran man sich schon gewöhnt hat.

Wie nahe ist denn heutige KI an menschlicher Intelligenz?

Heute bezeichnen wir vor allem das maschinelle Lernen als künstliche Intelligenz. Computer finden Muster in Daten und treffen auf dieser Grundlage eine Entscheidung: Diese Daten können beispielsweise sehr viele englische Texte und deren deutsche Übersetzung sein. Daraus lernen diese Systeme, einen ihnen noch unbekannten Text vom Englischen ins Deutsche zu übersetzen. Da sie allerdings den Inhalt und seinen Kontext nicht verstehen, funktionieren sie grundlegend anders als menschliche Intelligenz.

Ist das der Grund, weshalb Maschinen immer wieder fehlerhaft entscheiden?

Es ist zumindest ein Grund für die Begrenztheit dieser Systeme. Sie finden Muster in den Daten, Zusammenhänge also, ohne zu wissen, was diese Muster bedeuten. Wenn ein solches KI-System in einem neuen Kontext versucht, eine Entscheidung zu treffen, kann das schiefgehen. Das ist vor allem dann gefährlich, wenn es sich um Entscheidungen über Menschen handelt.

Haben Sie ein Beispiel?

Wir haben kürzlich ein System aus den USA untersucht, das Richtern helfen sollte zu entscheiden, welche Häftlinge frühzeitig aus der Haft entlassen werden und welche ihre Strafe bis zum Ende absitzen sollten. Dafür muss das Risiko für die Rückfälligkeit eingeschätzt werden. Die Journalistenvereinigung ProPublica fand heraus, dass das System offenbar rassistische Entscheidungen traf. Denn es wurden fälschlicherweise deutlich mehr Afroamerikaner in die Gruppe der Hochrisikotäter einsortiert und deutlich mehr weiße Amerikaner in die Gruppe mit einer geringen Rückfallwahrscheinlichkeit. Das ist nicht fair.

         Es gibt DIE KI einfach nicht.                  Es gibt DIE KI einfach nicht.                  Es gibt DIE KI einfach nicht.                  Es gibt DIE KI einfach nicht.         

Wie konnte es dazu kommen?

Ein großes Problem ist, dass bereits die Daten, von denen das System lernte, nicht objektiv sind. Sie basieren auf einer historisch gewachsenen Datenlage, in der unterschiedliche kriminelle Taten unterschiedlich stark verfolgt werden, Bildungschancen unterschiedlich verteilt sind, Straftaten bestimmter Teilgruppen systematisch andere Strafen nach sich ziehen. Daher sind die Muster, die in den Daten gefunden werden, für verschiedene Bevölkerungsgruppen unterschiedlich. Ein anderes Problem liegt in der grundsätzlichen Herangehensweise: Den Häftlingen wurden dafür Fragen gestellt, beispielsweise auch die Frage, ob ihre Eltern in der Vergangenheit straffällig geworden waren. Wollen wir zulassen, dass solche Informationen über unsere Freiheit entscheiden, die wir nicht beeinflussen können und für die wir nicht verantwortlich sind, also beispielsweise die Taten unserer Eltern?

Das stimmt, das ist nicht fair. Aber wenn es um die Rückfallgefahr geht: Ist das vielleicht tatsächlich relevant? Würden menschliche Richter diese Frage nicht vielleicht auch stellen?

Ich denke, es kommt darauf an, was entschieden wird. In Deutschland werden Umstände, die eine Angeklagte oder ein Angeklagter nicht zu verantworten hat, beispielsweise eine schwierige Kindheit, eher zu ihren oder seinen Gunsten ausgelegt. Glücklicherweise gibt es solche Systeme in Deutschland auch nicht. Hier entscheidet immer die individuelle Analyse, während künstliche Intelligenz Gruppen von Menschen vergleicht, die einander ähnlich sind: Herr Müller benimmt sich ähnlich wie A, B und C – und wenn A und B rückfällig werden, wird Herrn Müller die Rückfälligkeitsrate seiner Gruppe als sein Risiko angerechnet.

Das System hat die Daten also rassistisch verzerrt?

Ganz so einfach ist es nicht: Die Firma, die das System entwickelt hat, hatte auf ein anderes Fairnessmodell optimiert. Wenn Personen in der gleichen Risikogruppe sind (es gab Gruppen von 1 bis 10), dann sollten innerhalb dieser Kategorie wichtige Teilgruppen die gleiche Rückfälligkeitsrate haben. In den USA wird dabei besonders auf den Vergleich zwischen Weißen, Afroamerikanern und Lateinamerikanern geachtet. Und dieses ebenfalls wichtige Fairnesskriterium hat die maschinelle Vorhersage erreicht. Tatsächlich konnte nun ein Kollege zeigen, dass die von ProPublica untersuchten und die von der Firma verwendeten Fairnessmaßstäbe nicht vereinbar sind – egal ob Mensch oder Maschine die Entscheidung treffen.

Das heißt, die Gesellschaft müsste erst eine Entscheidung treffen, was Fairness für uns genau bedeutet, um dieses Modell dann in solche Systeme zu implementieren?

Ja, und das ist ein Problem. Wir müssten uns für ein Gerechtigkeitsmodell entscheiden, das dann so lange gilt, wie das Programm genutzt wird. Doch in einer Demokratie werden von verschiedenen Parteien unterschiedliche Gerechtigkeitsmodelle favorisiert – daher werden solche Entscheidungen von jeder Regierung neu ausgehandelt. Ein Beispiel ist das Kindergeld: Alle bekommen momentan den gleichen Betrag. Aber man könnte auch argumentieren, dass jene mehr bekommen sollten, die weniger Einkommen haben. So ist es beispielsweise bei der Sozialhilfe. Historisch bedingt gibt es also verschiedene Fairnessmodelle bei der Verteilung von Geld, die nicht vereinbar sind: Welches sollen wir jeweils einem KI-System zugrunde legen?

Sollten also stets Menschen Entscheidungen treffen, weil sie flexibler sind?

Daran forschen wir gerade in einem großen interdisziplinären Projekt mit zwei Rechtswissenschaftlern, einem Psychologen, einem Politikwissenschaftler und mir aus der Informatik, finanziert von der Volkswagenstiftung. Die zentralen Fragen, mit denen wir uns beschäftigen: Wie trifft KI Entscheidungen im Unterschied zum Menschen? Woran erkennt man eine gute und faire Entscheidung?

Hatten die Juristen eine andere Einschätzung dazu als Sie aus der Informatik beispielsweise?

Ja, und das hat mir vieles klargemacht: Die Entscheidung einer KI aus Sicht der Statistik und der Informatik ist dann gut, wenn sie mit den Entscheidungen der jeweiligen Experten übereinstimmt und sie vorhersagen kann. Wir Informatiker sind darauf angewiesen, diese Prozesse in Zahlen zu übersetzen, die sich vergleichen lassen. Wie eine KI eine Entscheidung trifft, ist dabei egal. Und das ist der Unterschied zu menschlichen Richtern: Sie machen die Güte einer Entscheidung daran fest, wie gut sie begründet ist.

         Eine starke KI muss eine Maxime haben, anhand derer sie entscheidet, ob sie etwas gut gemacht hat. Wir Menschen sind schlecht darin, so etwas gut hinzukriegen.                  Eine starke KI muss eine Maxime haben, anhand derer sie entscheidet, ob sie etwas gut gemacht hat. Wir Menschen sind schlecht darin, so etwas gut hinzukriegen.                  Eine starke KI muss eine Maxime haben, anhand derer sie entscheidet, ob sie etwas gut gemacht hat. Wir Menschen sind schlecht darin, so etwas gut hinzukriegen.                  Eine starke KI muss eine Maxime haben, anhand derer sie entscheidet, ob sie etwas gut gemacht hat. Wir Menschen sind schlecht darin, so etwas gut hinzukriegen.         

Menschen verraten auch nicht immer den Grund für ihren Entschluss – oft kennen sie ihn nicht einmal. Rassistische Vorurteile sind häufig unbewusst und deshalb so gefährlich. Ist das nicht genau das, wobei uns die Maschinen helfen können: objektiv zu entscheiden?

Das war in der Tat anfangs die Hoffnung. Die American Civil Liberty Union hat sich ursprünglich dafür ausgesprochen, Algorithmen bei Rechtsentscheidungen einzusetzen, sie ist aber 2018 umgeschwenkt. Ich kenne die Begründung nicht, aber es kann gut sein, dass die Debatte um das scheinbar rassistische Empfehlungssystem für US-Richter einer der Gründe dafür war. Vor Gericht geht es um sehr viel. Ich denke, es ist schwierig, dass wir uns auf ein einziges Gerechtigkeitsmodell festlegen, wenn Menschen offensichtlich unterschiedliche Ideen dazu haben. Im Maschinencode ist aber immer nur eine Sichtweise verankert.

Kann uns KI auf diese Weise nicht wenigstens helfen, einen versteckten gesellschaftlichen Rassismus oder Sexismus zu erkennen?

Ja, das ist kürzlich beispielsweise in Österreich geschehen: Da hat das dortige Arbeitsamt eine Software eingesetzt, um zu entscheiden, welche Personen Unterstützung erhalten sollen, um wieder in den Arbeitsmarkt zu kommen. Die Unterstützung soll sich dabei auf jene konzentrieren, die weder sehr gute noch sehr schlechte Chancen auf dem Arbeitsmarkt haben. Es zeigte sich, dass beispielsweise Frauen über 50, die ihre Eltern pflegen, deutlich benachteiligt wurden. Es war das Muster bisheriger Entscheidungen von Menschen, das der Algorithmus gefunden hat: Diese Frauen haben einfach schlechte Chancen, eine Beschäftigung zu finden. Der Leiter des Arbeitsmarkt-Services geht aber davon aus, dass diese Personen eher in der Kategorie derer landen, die besonders viel unterstützt werden sollen – das muss die Zeit nun erweisen. Damit würde also mit Hilfe der KI dann eine bestehende Diskriminierung ausbalanciert werden. Auf der anderen Seite landen in der letzten Kategorie mit den ganz schlechten Chancen überdurchschnittlich viele Männer. Das ist das Problem mit begrenzten Ressourcen: Wenn man versucht, einer Gruppe zu helfen, geht es auf Kosten einer anderen Gruppe. In einem solchen Fall muss die Gesellschaft entscheiden, wie begrenzte Ressourcen verteilt werden, nicht eine KI.

Was soll die KI der Zukunft für uns entscheiden?

Wenn es um Entscheidungen geht, bei denen Menschen weder direkt noch indirekt betroffen sind. Dann ist die Gerechtigkeit weniger in Gefahr, ebenso die Privatsphäre, der Datenschutz – es gibt viel weniger rechtliche und ethische Probleme. Ich habe neulich einen Mann getroffen, der mit einer schweren spastischen Lähmung im Rollstuhl sitzt, und der meinte: Abends würde ich meinem Rollstuhl manchmal gerne sagen: Ich bin müde, fahre mich nach Hause. Autonom fahrende Rollstühle – das wäre doch mal eine spannende Vision.

KI beruht immer auf einer großen Menge an Daten. Lässt sich die Entwicklung und Anwendung von KI überhaupt mit dem Schutz der Privatsphäre vereinbaren?

Uns in Europa ist Datenschutz wichtig. Deshalb denke ich, wir sollten hier einen europäischen Weg gehen und es nicht länger US-amerikanischen oder chinesischen Unternehmen überlassen, unsere Daten zu sammeln. Es gibt einige aktuelle Forschung zur Frage, wie Maschinen aus Daten lernen können, die dabei nicht zentral gespeichert werden, sondern lokal auf einem Gerät bleiben. Das führt unter Umständen zu leichten Verlusten bei der Qualität der entdeckten Muster in den Daten, aber privatsphärenschonende KI sollte uns wichtig sein, und es ist ein vielversprechendes Forschungsfeld.

         Heute bezeichnen wir vor allem das maschinelle Lernen als künstliche Intelligenz. Computer finden Muster in Daten und treffen auf dieser Grundlage eine Entscheidung.                  Heute bezeichnen wir vor allem das maschinelle Lernen als künstliche Intelligenz. Computer finden Muster in Daten und treffen auf dieser Grundlage eine Entscheidung.                  Heute bezeichnen wir vor allem das maschinelle Lernen als künstliche Intelligenz. Computer finden Muster in Daten und treffen auf dieser Grundlage eine Entscheidung.                  Heute bezeichnen wir vor allem das maschinelle Lernen als künstliche Intelligenz. Computer finden Muster in Daten und treffen auf dieser Grundlage eine Entscheidung.         

Wird uns KI je richtig verstehen und damit in die Nähe menschlicher Intelligenz kommen?

Zumindest wenn man materialistisch denkt, bestehen wir Menschen nur aus Materie, und es müsste prinzipiell möglich sein, uns mit all unseren Funktionen nachzubauen. Noch weiß man nicht genug über unsere menschliche Intelligenz, und mit aktuellen Methoden ist es sicherlich nicht möglich. Aber ausschließen kann ich es nicht.

Wäre eine solche sogenannte starke KI aus Ihrer Sicht interessant?

Ich kann davon nur abraten. Eine starke KI muss eine Maxime haben, anhand derer sie entscheidet, ob sie etwas gut gemacht hat. „Du sollst keinen Menschen verletzen“, könnte eine solche Maxime sein, aber diese wäre viel zu wenig detailliert. Die Maxime müsste für jede Situation die Richtschnur sein, anhand derer die KI sich weiterentwickelt. Aber wir Menschen sind schlecht darin, so etwas gut hinzukriegen. Dazu gibt es in meinem Buch eine Anekdote ...

Erzählen Sie!

Ein Kollege wollte seinem Staubsauger-Roboter beibringen, dass er auf Strecken, auf denen keine Kollision mit Möbelstücken droht, schneller fährt. Dafür rüstete er ihn mit einem künstlichen neuronalen Netz aus mit der Vorgabe: Wenn du an Möbel stößt, ist das schlecht – mach weniger solcher Aktionen. Wenn du schnell fährst, ohne anzustoßen, ist das gut: Mach mehr davon. Der Roboter fuhr dann in großer Geschwindigkeit – allerdings rückwärts und gegen alle Möbel. Der Kollege hatte vergessen, dass der Roboter hinten keinen Sensor hat, der ihm die Zusammenstöße meldet. Das System bekam also das Feedback: Da ist kein Zusammenstoß. Wenn wir Menschen etwas optimieren, übersehen wir häufig solche Nebenwirkungen.

Wie ist Ihr Fazit?

Es gibt „Die KI” einfach nicht – ob und wie wir sie einsetzen sollten, hängt von den genauen Bedingungen ab: ob sie beispielsweise über Menschen entscheidet oder ob Diskriminierung dadurch verstärkt oder vermindert wird. Und damit haben wir auch in der Hand, ob sie uns unterstützt oder schadet.

Interview:Eva Wolfangel

Katharina Zweig

ist Professorin für Theoretische Informatik an der TU Kaiserslautern, wo sie das Algorithm Accountability Lab leitet und den neuen Studiengang Sozioinformatik konzipiert hat, der sich mit den Auswirkungen der Informatik auf die Gesellschaft beschäftigt. Zweig ist außerdem Mitglied der Enquete-Kommission Künstliche Intelligenz des Deutschen Bundestages. Außerdem berät sie die Kirchen, Ministerien und Parteien in Fragen der Ethik von Algorithmen. Ihr Buch „Ein Algorithmus hat kein Taktgefühl: Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können“ ist im Oktober 2019 im Heyne-Verlag erschienen.

Diesen Beitrag teilen

Alle Fragen anzeigen
Magazinbestellung