de / en
A brightly coloured illustration which can be viewed in any direction. It has many elements to it working together: men in suits around a table, someone in a data centre, big hands controlling the scenes and holding a phone, people in a production line. Motifs such as network diagrams and melting emojis are placed throughout the busy vignettes.

Der Hype um Künstliche Intelligenz: „Kontrollverlust und Verantwortungsdiffusion“

Die Begeisterung um den Chatbot ChatGPT löste eine weltweite Aufregung über Künstliche Intelligenz aus. Rainer Rehak hat die Zukunftsfantasien und Angstvorstellungen in diesen Debatten näher untersucht. Er erzählt im Interview, warum Warnungen manchmal nichts als Werbung sind und wie wir stattdessen reale Gefahren und Machtfragen im Blick behalten.

 

Wir haben über ein Jahr des KI-Hypes hinter uns, in dem überall über Künstliche Intelligenz diskutiert wurde. Was ist die Geschichte hinter dem Begriff, wo kommt er her und in welchem Kontext ist er entstanden?

Der Wunsch, menschenähnliche Maschinen zu bauen, ist natürlich schon sehr alt. Aber der konkrete Begriff der „Künstlichen Intelligenz“ ist in den 1950er Jahren entstanden, als Wissenschaftler um John McCarthy und Marvin Minsky auf einer Konferenz ein neues Forschungsprogramm vorstellen wollten, auch um Gelder einzuwerben. Die Idee war, mit Expert:innen verschiedenster Disziplinen zu diskutieren, wie man Aufgaben, die üblicherweise von Menschen erledigt werden, durch Computer- und Rechenmaschinen auszuführen.

Dieses Forschungsgebiet kam eigentlich aus der Automatentheorie, einem Teilbereich der Informatik, aber der Name ist eben nicht so interessant. Deshalb kamen sie auf die Idee, das Ganze „Künstliche Intelligenz“ zu nennen, weil es eben ein Ansatz ist, mit Maschinen – also künstlichen Entitäten – menschliche Intelligenz nachzuahmen bzw. zu simulieren.
 

Wie hat sich der Begriff und die Debatte um KI bis heute weiterentwickelt?

Wilde Zukunftsvorstellungen, Wunschversprechen und Fantasien gab es von Anfang an. Und jedes Mal, wenn es einen neuen technischen Durchbruch gab, gingen auch die Versprechen auf die nächste Ebene. Das Ziel, die menschliche Intelligenz auf andere Art nachzubauen und Vorstellungen, dass „Die KI“ agieren oder Verantwortung übernehmen wird, ziehen sich durch die gesamte Zeit. Das sind auf oberflächlicher Ebene die gleichen Narrative wie vor 50 Jahren. Natürlich haben sich mit der Entwicklung dessen, was möglich ist – und das ist ja auch sehr beeindruckend – die Details der Diskussion mit entwickelt.

Es gab auch immer wieder Zeiten, in denen nicht so viel über KI gesprochen wurde, aber in den Hochphasen haben dann neue philosophische Perspektiven und gesellschaftliche Fragen Eingang in die KI-Diskussion gefunden. Da kann man schon sagen, dass die Debatte vorangekommen ist, differenzierter wurde und sich vor allem diversifiziert hat, weil jetzt viel mehr Player in den Diskurs involviert sind. 

So wie es von Anfang an schon darum ging, für ein Forschungsprogramm Mittel einzuwerben, ist auch heute dieses Motiv, Fördergelder zu bekommen, wieder im Spiel, wenn irgendwo KI draufsteht – in der Wissenschaft und auch darüber hinaus. Mittlerweile sind riesige Wirtschaftszweige daraus entstanden und die reden jetzt natürlich alle mit. KI war, glaube ich, noch nie so in den Medien präsent, nicht nur in SciFi-Filmen, sondern auch in Feuilletons, in Apotheken-Zeitschriften, in Innovationsforen oder in Davos. Das ist tatsächlich eine neue Qualität.
 

Du hast den aktuellen Diskurs analysiert und sprichst von einer Zeitgeist-KI. Was zeichnet diese aus?

Beim Phänomen, was ich Zeitgeist-KI nenne, sind die Grenzen, was überhaupt mit KI gemeint ist, sehr unscharf – mal absichtlich, mal nicht.

Im konkreteren, technischen KI-Diskurs spricht man von Software-Systemen, die durch einen Durchlauf verschiedener Trainingszyklen oder Konfigurationszyklen besser werden in dem, was sie tun sollen. So lautet zum Beispiel eine klassische KI-Definition von Tom Mitchell. Und das kann man technisch abbilden, etwa mit Künstlichen Neuronalen Netzen, aber auch mit Stützvektormethoden oder mit genetischen Algorithmen, da gibt es verschiedene Ansätze.

Oftmals ist in der Diskussion mit KI aber eigentlich Automatisierung allgemein gemeint. Die ist aber auch mit ganz anderen Mitteln und Maßnahmen möglich, mit traditionellen informatischen Methoden, also mit klassischen Algorithmen. Aber im gesellschaftlichen Diskurs segelt alles, was mit Computern zu tun hat, ob Digitalisierung, Algorithmen oder Software, aktuell irgendwie unter der Flagge „KI“.

Dieses Phänomen, Automatisierung moderner zu benennen, gab es auch vorher schon, da hieß es dann Big Data oder Blockchain. Diese technisch gedachten Zukunftswünsche haben sich immer unter bestimmten Begriffen versammelt und jetzt gerade ist es eben Künstliche Intelligenz. 

Damit einher geht auch der Glaube, dass die Maschine – mag das nun KI sein oder nicht – objektiv ist, immer richtige Ergebnisse erzeugt und automatisch das Optimum berechnet. Das beruht auf der Annahme, dass es erstens objektive Daten gibt und zweitens, dass es auch eine richtige Art gibt, diese Daten zu verarbeiten. Das Gegenteil ist aber der Fall, denn technische Systeme arbeiten immer auf Basis von Modellen, die von Akteuren für einen bestimmten Zweck geschaffen werden.

Ein gutes Beispiel dafür ist die sogenannte vorrausschauende Polizeiarbeit. Um Polizeiarbeit effektiver zu machen, soll berechnet werden, wo die meiste Kriminalität stattfinden wird. Und da ist natürlich die Frage, was zählt als Kriminalität und wie werden die verschiedenen Kriminalitätsformen gewichtet? Wenn ich nach dem Schadenswert gehen würde, dann wäre natürlich immer die schlimmste Kriminalität im Geschäftsviertel, weil da Millionensummen veruntreut werden, also wird die Schadenssumme weniger gewichtet, aber das kommt ja nicht aus den Daten, sondern vom Zweck.

Das gleiche gilt für die Verkehrsoptimierung. Die KI kann mir ja nicht sagen, ob optimal hieße: pro Stunde möglichst viele Fußgängerinnen oder möglichst viele Autos? Das ist eine vorher zu treffende Entscheidung.

Man könnte also sagen, dass der Wunsch hinter diesem Narrativ einer „optimalen KI“ ist, solche inhaltlichen Diskussionen zu umgehen, die eigentlich gesellschaftlich notwendig sind, um an die Stelle von komplizierter Aushandlung eine Technik zu setzen, die das dann alles machen soll. Aber das funktioniert ja schon prinzipiell nicht.
 

Gleichzeitig gibt es aber auch das Narrativ der Bedrohung durch KI, die die Welt zerstören könnte. Wie geht das zusammen?

Daran sind zwei Aspekte relevant. Das eine ist die Idee von universellen KI-Systemen, was auch als Artificial General Intelligence (AGI) oder auch starke KI bekannt ist. Das meint fiktive Systeme, die eigenständig lernfähig sind und abstrakt denken und vielleicht Kreativität, Motivation, Bewusstsein und auch Emotionen besitzen können. Und in manchen Vorstellungen haben diese Maschinen übermenschliche Fähigkeiten oder sind magische Wesen. Sie spielen häufig eine zentrale Rolle in Science-Fiction Filmen wie etwa die Figuren HAL9000, C3PO, Samantha, Terminator oder auch der Maschinenmensch in Metropolis.

Es ist aber genau das, Science-Fiction, denn es gibt bislang weder eine funktionierende AGI noch belastbare Anhaltspunkte, dass ein solches System mit aktuellen Computerarchitekturen überhaupt entwickelt werden kann. Die Forschungsergebnisse blieben bislang stets ernüchternd. Alle aktuell existierenden KI-Systeme fallen in die Kategorie domänenspezifischer Künstlicher Intelligenz oder schwache KI. Die sind für bestimmte Abläufe optimiert und auch nur in diesem Rahmen überhaupt zu gebrauchen.

Doch mit den immer beeindruckender werdenden Ergebnissen – wie bei ChatGPT – bekommt dieses Narrativ der „universellen KI“ immer mehr Treibstoff, auch wenn wir faktisch gesehen einer intelligenten, zerstörerisch-bösen KI gar nicht näher kommen.

Der zweite Aspekt ist, dass man mit diesem Versprechen der mächtigen KI unfassbar viel Geld verdienen kann. Sowohl Nationalstaaten wie auch Privatfirmen kalkulieren hier mit Milliarden, weil  hier riesige Marktmöglichkeiten vermutet werden. Ob sich das alles realisiert, ist eine ganz andere Frage, aber an der Stelle stehen wir gerade.

Solche Warnungen wie „Achtung, wir müssen aufpassen, dass die KI nicht außer Rand und Band gerät und ihre Macht gegen die Menschen einsetzt“, wirken auf den ersten Blick sehr kritisch, füttern aber auch implizit diese ganzen Vorstellungen von übermenschlichen Fähigkeiten. Indem ich also davor warne, wie mächtig meine Produkte sind, kann ich super Werbung dafür machen. So kann ich gleichzeitig die Rolle des Warners oder Mahners übernehmen, und dabei die Diskussion auf ein Feld verlagern, die die aktuellen Probleme und Gefahren von KI nicht mehr im Blick hat, weil wir uns über die Zukunft Gedanken machen.
 

Welche aktuellen Gefahren sind das denn?

Die Gefahren, die wir bei jeglicher Art von Automatisierung haben, werden durch KI nochmal verschärft und neue kommen dazu.

Wir haben es einerseits mit einer Art scheinbaren Verantwortungsdiffusion zu tun, bei der Akteure, die die Systeme einsetzen, nicht richtig verstehen, wie sie funktionieren. Was sie aber nicht zu stören scheint. Bei negativen Auswirkungen kommen sie schnell ins Schulterzucken, ob bei Diskriminierung in Bewerbungsverfahren oder Urheberrechtsverletzungen gegen Künstler:innen oder Autor:innen. Die Reaktion ist schnell „Die Technik ist so kompliziert, das liegt ja nicht in unserer Macht.“ Aber sie sind es ja, die die Systeme für ihre Zwecke einsetzen, also müssten sie auch voll verantwortlich sein, egal ob sie das System selbst verstehen oder nicht.

Wenn man sich dann genauer anschaut, wie die aktuellen großen KI-Modelle wie ChatGPT funktionieren, dann basieren die auf einer sehr komplexen Lieferkette, der sogenannten „AI Supply Chain“. Daten aus globalen Quellen werden weltweit zusammengesammelt, sortiert und händisch nachbearbeitet – üblicherweise im globalen Süden von von Datenarbeiter:innen unter schlechten Arbeitsbedingungen – und laufen dann in so einem Riesenmodell zusammen. Die Modelle up-to-date zu halten, die Rechenkapazität und die Schnittstellen anzubieten, das können keine kleinen Organisationen oder Einzelpersonen dezentral machen, sondern – ähnlich wie bei Atomkraft – nur richtig große Akteure, bei denen wir dann die Services kaufen. Und das bedeutet letztendlich immer eine demokratisch fragwürdige globale Machtkonzentration. Hinzu kommt dann noch der immense Energieverbrauch dieser Systeme, die nötigen materiellen Ressourcen wie seltene Erden und Konfliktmineralien und der entstehende Elektronikmüll.

Diese komplexe Lieferkette wird jedoch von sehr ansprechenden Web-Interfaces verschleiert.

Ein weiteres Problem, das insbesondere bei KI auftritt, ist, dass diese Systeme darauf trainiert sind, die Antworten plausibel erscheinen zu lassen und nicht, dass sie wahr oder richtig sind. Das gilt wie schon vielfach ausgeführt für KI-erzeugte Texte, aber auch für Programmier-Hilfe-KIs. Darunter sind Programme wie Copilot zum Beispiel, die Programmierer:innen beim Software schreiben unterstützen. Und die erzeugen Code, der auf den ersten Blick gut aussieht und der ausführbar ist, aber wo nicht ganz klar ist, ob der wirklich das tut, was er tun soll. Das bedeutet also, dass Leute, die diese Werkzeuge nutzen und sich aber noch nicht so gut mit Programmieren auskennen, Fehler machen, die viel später erst auffallen. In einschlägigen Hilfe-Foren sind KI-Antworten daher schnell verboten worden, weil sie so oft falsch waren.

Schlussendlich haben wir noch viele unklare Aspekte von KI, z. B. wie wir die Veränderungen der Arbeitswelt gestalten werden, wie KI für personalisierte Überwachung eingesetzt werden kann oder auch wie stark sich Desinformation, Betrug und Spam durch KI verändern, von den militärischen Anwendungen noch ganz abgesehen.


Welches Narrativ brauchen wir stattdessen und wer steht hier vielleicht in besonderer Verantwortung?

Also ich glaube, es müssen sich durch die Bank weg alle gesellschaftlichen Akteure mit dieser Technologie besser beschäftigen. Ich mache meine Arbeit ordentlich, das erwarte ich auch von Journalist:innen, die darüber schreiben. Ich erwarte von Politiker:innen, dass sie ihre Referent:innen und deren Expertise nutzen, um Entscheidungen zu treffen. Auch wenn das natürlich ein Spannungsfeld ist, bezieht sich das dann genauso auf Wissenschaftler:innen, die Grenzen ihrer eigenen Forschung sichtbarer zu machen.

Das Narrativ, was wir an allen Stellen brauchen, ist, dass KI ein Werkzeug ist – zwar ein sehr komplexes – aber ein Werkzeug, was in bestimmten Einsatzzwecken funktioniert und in anderen nicht. Es kann auf bestimmte Arten ausgestaltet werden: es hat Vorzüge und Nachteile, es kann bestimmte Sachen besser oder schlechter. Das heißt, wenn ich alleine schon von "general purpose AI“ spreche, ist das irreführend, denn diese Systeme sind nicht für alle möglichen Nutzungsarten gemacht.

Der zweite wichtige Aspekt am Werkzeugcharakter von KI ist, dass man im Kopf behält, dass diejenigen, die handeln, eben Menschen, Organisationen oder Staaten sind – nicht die Technologie selbst. Die Auswirkungen von KI hängen also weniger von ihren oft unveränderlich angenommenen Eigenschaften ab, sondern davon, wie wir sie konkret gestalten, nutzen und einhegen.

In diesem Rahmen kann man dann nützliche und differenzierte Diskussionen führen und das hilft auch gegen Kontrollverlust und Verantwortungsdiffusion. Dann stellen wir uns nämlich Fragen wie: Wer benutzt denn die Systeme? Was sind denn die Bedingungen der Herstellung? Wer profitiert konkret, wer nicht? Welche Rechtsinstrumente können wir bereits anwenden? Und es bestärkt eher darin, diese Technik demokratisch zu verhandeln, zu gestalten und selbstbewusst zu regulieren, anstatt die Hände hochzunehmen und zu sagen, dass es doch der Markt regeln soll.


Vielen Dank für das Gespräch!

Rainer Rehak ist Wissenschaftlicher Mitarbeiter in den Forschungsgruppen „Technik, Macht und Herrschaft“ und „Digitalisierung, Nachhaltigkeit und Teilhabe“. Er forscht u.a. zu den Themen Datenschutz, IT-Sicherheit, staatliches Hacking, Informatik und Ethik, Technikfiktionen, Nachhaltigkeit, sowie die Implikationen und Grenzen von Automatisierung durch KI-Systeme. Sein Essay Zwischen Macht und Mythos. Eine kritische Einordnung aktueller KI-Narrative ist kürzlich bei Soziopolis erschienen.

Das Interview führte Leonie Dorn

Die Reihe künstlich&intelligent? setzt sich in Interviews und Beiträgen mit den neusten Anwendungen von generativen Sprachmodellen und Bildgeneratoren auseinander. Forschende am Weizenbaum-Institut gehen dabei auf die gesellschaftlichen Auswirkungen der Tools ein und begegnen den viel diskutierten Erwartungen und Ängsten mit aktuellen Studien und Forschungsergebnissen. Dabei wird auch der Begriff „Künstliche Intelligenz“ hinterfragt und im Geiste Joseph Weizenbaums die Allwissenheit und Macht dieser Systeme dekonstruiert. Der KI-Pionier und Kritiker, der einen der ersten Chatbots entwickelte, ist Namensgeber unseres Instituts.