Ich war's nicht – der Computer war's: Ein Rückblick auf das zweite Weizenbaum-Forum
Die zweite Ausgabe des Weizenbaum-Forums bot mit Vorträgen von Prof. Dr. Herbert Zech, Rainer Rehak und Kirsten Bock eine Einführung in die technischen, juristischen und ethischen Fragen rund um die Risiken von KI.
Künstliche Intelligenz stellt die Gesellschaft vor neue Herausforderungen. Die komplexe Frage der Haftung von Schäden, die beim Einsatz von künstlicher Intelligenz entstehen, wurde beim zweiten Weizenbaum-Forum am 10. November 2020 aus technischer, rechtlicher und ethischer Perspektive beleuchtet. Moderiert wurde das Online-Event von Marcus Richter.
„Die Maschine selbst ist kein Akteur“
Eine technische Einführung in die Debatte gab Rainer Rehak, Doktorand am Weizenbaum-Institut, der die Grundproblematik von „intelligenten“ autonomen Systemen aufzeigte. Ein solches System basiert technisch gesehen auf mathematisch-statistischen Verfahren und erkennt Muster in Daten. Der eigentliche Algorithmus ist dabei sehr einfach und stabil, aber beim „Anlernen“ ändert sich eine hochkomplexe „Konfigurationsdatei“. Daher können die Entwickler:innen später nicht mehr einsehen, wie genau ein System zu einer Entscheidung bzw. einem Ergebnis gekommen ist. „Eine solche Blackbox kann es aber auch bei Nicht-KI-Systemen geben", gab er zu bedenken. Zudem kritisierte er die Begriffe, mit denen wir über KI reden, denn letztlich haben „Maschinenintelligenz“ oder „Maschinelles Lernen“ sehr wenig mit menschlichem Lernen oder menschlicher Intelligenz zu tun. „Die Maschine selbst ist kein Akteur. Sie ist nur ein sehr komplexes Werkzeug“, so Rehak.
Haftungsregelungen als rechtspolitische Zwecke
Wie müsste sich unsere Rechtsprechung an eine Zukunft anpassen, in der diese komplexen Werkzeuge wichtige Rollen im Verkehr, der Medizin und in anderen Alltagsbereichen spielen könnten? Herbert Zech, Direktor des Weizenbaum-Instituts und Professor für bürgerliches Recht, Technik- und IT-Recht, befürwortet bei hochriskanter KI eine verschuldensunabhängige Gefährdungshaftung der Hersteller und begründete dies mit den entsprechenden Steuerungswirkungen. Hersteller müssten in diesem Falle selbst abwägen, ob sich die Pflichtenübernahme lohne, da sie in jedem Fall das Risiko der Schadensentstehung tragen würden. „Damit wird diese Abwägungsentscheidung, welchen Pflichtenstandard man für den Einsatz einer neuen Technologie haben möchte, auf die Anwender delegiert“, sagte er. So könne der Anreiz gesetzt werden, Techniken sicherer zu entwickeln.
KI ist keine Naturgewalt
Auch wenn KI-Anwendungen durch rechtliche Anreize zukünftig immer sicherer werden könnten, stellen sich schon jetzt ethische Grundsatzfragen. Wie wollen wir leben? Oder besser: Wollen wir mit KI leben? Ist KI mit der demokratischen Grundordnung vereinbar? Kerstin Bock, Rechtsphilosophin und Datenschutzjuristin im aufsichtsbehördlichen Bereich, gab in ihrem Vortrag eine Einschätzung. So verwies sie auf drei Bedingungen, die dem europäischen Konsens nach eine vertrauenswürdige KI zu erfüllen habe. Diese solle rechtmäßig, ethisch und robust sein. Auch wenn die europäische DSGVO vor allem im Bereich der personenbezogenen Daten bereits viele Antworten gäbe, bleibe Regelungsbedarf in den gewinnorientierten wirtschaftlichen Spaten. „KI ist mit einem Gestaltungsauftrag und Fragen, die wir in der Gesellschaft diskutieren müssen, verbunden“, sagte Bock. Letztlich müsse die Entscheidung, wie wir morgen leben wollen, schon heute von jungen Leuten getroffen werden.
Die Vorträge boten reichlich Gesprächsstoff unter den Teilnehmenden, so dass im Anschluss noch ein reger Austausch zwischen den drei Expert:innen und dem Publikum stattfand.