de / en
The black and white image shows a high shot of the tops of a city scene. At eye level are the tops of the tall buildings on either side of the street, in the middle of the image, it tunnels down to the road below. The street is fairly empty, but cascading down from the sky are pixels which look like a QR code pattern – almost like these represent the clouds.

„KI-Innovation beruht auf Commons, nicht Big Tech“

Weizenbaum-Forscher Sebastian Koth erklärt im Interview, dass in Zeiten von KI-Nationalismus, Tech-Oligarchien und geopolitischem Wettrennen wahre Innovation in dezentralen gemeinwohlorientierten KI-Infrastrukturen liegt. Die Wissenschaft macht es bereits vor.

Das heißgelaufene Wettrennen um die globale Vorherrschaft bei Künstlicher Intelligenz bricht nicht ab. Gleichzeitig kippt in den USA unter Trump und Musk der KI-Nationalismus ins Autoritäre. Wir sprachen mit Weizenbaum Wissenschaftler Sebastian Koth über die Gefahren, die sich dahinter verbergen und die Probleme, die eine privatwirtschaftliche Organisation der Technologie mit sich bringt. Er plädiert dafür, aus den Fehlentwicklungen in den USA zu lernen und statt auf geopolitische Wettrennen auf internationale Zusammenarbeit zu setzen. Nur öffentliche, gemeinwohlorientierte KI-Infrastrukturen - dezentral und offen - seien wahre Innovationstreiber. Dafür bietet die Wissenschaft wichtige Grundlagen, und schon einige Erfolgsmodelle.

 

Wir befinden uns aktuell im globalen Wettkampf um die Technologieführerschaft bei der Künstlichen Intelligenz. Große KI-Unternehmen investieren Milliarden in die Entwicklung neuer Modelle und leistungsstarker Infrastrukturen. Du zweifelst allerdings daran, dass das zu tatsächlichen Innovationen führt, die auch bei den Menschen ankommen. Wieso?

Sebastian Koth: Der heutige Stand der KI-Technologie ist das Resultat jahrzehntelanger Kooperation zwischen Wissenschaftlern an öffentlichen Einrichtungen. Die Daten, mit denen man die großen KI-Modelle trainiert, sind zum allergrößten Teil öffentlich zugängliche Daten, die von unzähligen Menschen kollektiv hergestellt wurden. Innovation in KI-Technologie beruht also auf Commons, d.h. auf der öffentlichen und kooperativen Teilung von Ressourcen.

Dazu kommt, dass es sich bei KI-Technologie um eine wesentlich dezentrale Technologie handelt. Ich weiß, das entspricht überhaupt nicht der Erzählung der großen Konzerne und Startup-Legionen, deren übertriebene Marktbewertung von dieser Erzählung abhängt und mit Ereignissen wie dem „DeepSeek-Schock“ korrigiert werden. Ich denke jedoch, dass die Innovationskraft von KI-Technologie nur freigesetzt wird, wenn sie spezifisch auf ihre jeweilige Anwendung ausgerichtet und lokal verwaltet wird. Je enger ein KI-Modell also in einen Kontext eingepflegt ist, desto leistungsfähiger und innovativer ist es. Das können Privatunternehmen jedoch nur leisten, wenn sie sich spezialisieren; etwas, das die großen KI-Unternehmen aber nicht wollen und nicht können. Sie verbleiben in ihrer Geschäftspraxis und -ideologie der Skalierung.

Außerdem muss man davon ausgehen, dass die zentralisierte privatwirtschaftliche Organisation der Technologie für einen Großteil der Probleme verantwortlich ist, die heute von der Technologie ausgeht. Die ausbeuterischen Arbeitsverhältnisse in weiten Teilen der KI-Produktionskette wie bspw. bei der Datensammlung, -bereinigung, -annotation und -validierung oder beim Abbau und der Raffinierung KI relevanter Rohstoffe; der immense Energieverbrauch großer zentralisierter KI-Systeme; oder die vielen systematischen Fehler, die in KI-Modellen eingebaut sind und von ihnen reproduziert werden. Ich bin der Meinung, dass viele dieser Probleme gar nicht erst entstehen würden, wenn die Technologie anders organisiert ist. Wir müssen also intensiver darüber nachdenken, wie wir sie auf lokale Kontexte und Gemeinwohl ausrichten. Es braucht dezentrale Innovationsökosysteme, die öffentlichen Nutzen zum Ziel haben, und zwar spezifisch in jedem gesellschaftlichen Bereich, in dem KI-Technologie langfristig sinnvoll Anwendung finden kann. Es gilt jetzt, diese Innovationsökosysteme zu entdecken. Um hierbei die richtige Richtung einzuschlagen, sollten wir über öffentliche KI-Infrastrukturen sprechen.
 

Dabei gibt es doch viele Konzepte und Regulierungsvorschläge wie „responsible AI“ oder „democratic AI,“ um diese Probleme anzugehen?

SK: Alle diese Vorschläge sind für sich genommen gut, richtig und wichtig. Ich schließe mich ihnen inhaltlich voll und ganz an. Doch solche Policy-Begriffe altern unheimlich schnell und werden nicht selten zu ausdruckslosen, sich selbst fremden Statthaltern der Bedeutung, die sie einmal hatten, ohne wirklich etwas zu Lebzeiten erreicht zu haben. Sie werden leider oftmals zu einer Art Ware, die mächtige private Technologieunternehmen für ihr ethisches Standing nachfragen und von Forschungseinrichtungen, Beratungs-Unternehmen und NGOs angeboten werden. Außerdem zielen solche Begriffe oftmals nicht dorthin, wo es wirklich weh tut; sie stellen nicht die Macht infrage, die vitales Interesse an der problematischen Organisationsform von KI-Technologie hat. Wir müssen uns also intensiv mit der konkreten Politik der materiellen Gestaltung von KI-Technologie auseinandersetzen. Ich persönlich finde den Vorschlag am besten, sich um öffentliche KI-Infrastrukturen zu bemühen.
 

Wie sollten diese öffentlichen KI-Infrastrukturen genau aussehen?

SK: Wenn wir etwas gestalten wollen, das wirklich funktioniert, keine großen Schäden anrichtet und im Interesse der Mehrheit der Menschen ist, ist Demut eine wichtige Grundvoraussetzung. Diese Technologie ist etwas Neues, wir müssen noch herausfinden, wie man mit ihr umgeht und sie organisiert. Zudem ist sie sehr delikat und bedarf besonderer Pflege, die nicht von Organisationen geleistet werden kann, die relativ kurzfristige Planungshorizonte haben, von ökonomischem Erfolg abhängen und permanent Rechenschaftspflicht von sich abwenden.

Um sich der Gestaltung von öffentlichen KI-Infrastrukturen zu nähern, sollte man im Auge behalten, dass sie zugänglich, rechenschaftspflichtig und dauerhaft sein müssen. Ich schließe mich hier der Formulierung des Public AI Networks an. KI-Ressourcen und -dienste sollten kostengünstig oder kostenlos sein und auch ohne spezielle technische Kenntnisse genutzt werden können. Bei der Entwicklung und Bereitstellung dieser Ressourcen und Dienste müssen Standards und transparente Evaluationsverfahren sicherstellen, dass das öffentliche Interesse im Vordergrund steht. Zudem müssen Entwicklung und Bereitstellung auf Langfristigkeit und Nachhaltigkeit angelegt sein. Es braucht also Infrastrukturen, die den öffentlichen und kollektiven Charakter sicherstellen, den die Entwicklung von KI-Technologie ja schon immer hatte, der aber aktuell akut Gefahr läuft, verloren zu gehen.

Die versprochenen Produktivitätsgewinne werden sich erst einstellen, wenn wir diesen öffentlichen und kollektiven Charakter der Technologie anerkennen und durch konkrete Infrastrukturen ermöglichen.
 

Einige Länder wie Schweden, Singapur und auch die EU haben bereits nationale KI-Programme gestartet. Du kritisierst dies aber als KI-Nationalismus, was meinst du damit?

SK: Es ist immer gut, sich zu organisieren, insbesondere auf nationaler Ebene, wo Ressourcen umfangreich mobilisiert, unterschiedlichste Maßnahmen koordiniert und die notwendigen Rechtsrahmen geschaffen werden können. Ich kann es nachvollziehen, wenn Länder und Regionen KI-Technologie für sich nutzen möchten, um z.B. ihr kulturelles Erbe zu schützen und weiterzuentwickeln, ihre Gesundheits- und Bildungssysteme zu steuern oder die Produktivität ihrer Industrien und Gewerbe zu verbessern.

Ich bekomme allerdings auch Bauchschmerzen, wenn ich darüber nachdenke, wie KI-Technologie und nationales Interesse fatalerweise ins Verhältnis treten könnten. Auch wenn sie oft mit Slogans verbunden sind wie „KI für alle“, sind diese nationalen KI-Programme zunächst einmal darauf ausgerichtet, die nationale Wirtschaft zu stärken, was zu einem beschleunigten protektionistischen Wettlauf zwischen Ländern und geopolitischen Blöcken führen kann. Es geht dann nur noch darum im globalen Wettbewerb um Talente und Unternehmen nicht ins Hintertreffen zu geraten, den Zugang zu kritischen Komponenten der KI-Lieferkette zu kontrollieren und für sich zu nutzen. Das gefährdet letztendlich die internationale Zusammenarbeit und Koordination, die notwendig ist, um alle am technologischen Fortschritt zu beteiligen und die potentiellen Risiken der Technologie zu begrenzen.

Eine andere Tendenz, die KI-Nationalismus nehmen kann und die man nicht unterschätzen sollte, ist die Verwendung von KI-Technologie zur Durchsetzung autoritärer Staatsmacht. Das sehen wir gerade sehr deutlich in den USA. Dem dort stattfindenden Staatsstreich der MAGA-Bewegung und Neo-Konservativen haben sich noch die Tech-Maximalisten hinzugesellt. Ein zentrales Vorhaben dieser Gruppierung ist es nicht nur, die Regulierung von Technologie-Unternehmen auf ein Minimum zu reduzieren, sondern möglichst viele Bereiche der Administration mithilfe von Technologie umzugestalten. Z.B sucht das Department for Government Efficiency von Elon Musk Zugang zu allen nationalen Behörden mit dem Ziel, sie effektiver zu machen, sehr wahrscheinlich durch KI-basierte Automatisierung. Worst Case hierbei: Mit dem Zusammenführen zuvor voneinander unabhängiger behördlicher Systeme und Datensätze in einer einzigen Instanz – in einem “Staats-KI-Modell” wenn man so will – ist ein System denkbar, in welchem die bisherigen Kontrollstrukturen zwischen und innerhalb der Behörden aufgehoben sind. Sogar die ethische Einbettung von KI-Systemen – also in KI-Modelle eingebaute diskriminierende Muster zu finden und zu korrigieren – steht unter der Regierung Trump im Fadenkreuz und soll möglichst verhindert werden. KI-kritische Wissenschaftler wie Dan McQuillan betonen seit Jahren: Wir müssen damit rechnen, dass KI-Technologie existierende Tendenzen von Rassismus, Austerität und Autoritarismus verstärkt.

Diese Entwicklungen fordern uns heraus. Wir müssen Alternativen aufbauen. Öffentliche KI-Infrastrukturen, die dauerhaft zugänglich und rechenschaftspflichtig sind, sind eine zentrale Richtgröße, um darüber nachzudenken, wie diese Alternativen aussehen.
 

Du bist der Meinung, wir sollten uns dabei an der Kultur und Organisationsform der Wissenschaft orientieren. Wieso?

SK: Es ist wichtig zu verstehen, dass so etwas wie öffentliche KI-Infrastrukturen nicht einfach ein Amt, eine Behörde, ein staatlich beauftragtes und kontrolliertes Unternehmen oder dergleichen ist, das dann die ganze Arbeit von KI-Entwicklung und -Bereitstellung erledigt. So einfach ist das leider nicht. Diese KI-Infrastrukturen muss man sich, wie gesagt, dezentral und kontextspezifisch vorstellen. Wissenschaft ist da nur ein Bereich. Andere Bereiche wie Gesundheitsversorgung oder verarbeitende Industrie müssen ihre eigenen spezifischen KI-Infrastrukturen finden. Bei diesem Findungsprozess kann man sich aber gut an der Wissenschaft orientieren, wo bereits intensiv an öffentlichen KI-Infrastrukturen gearbeitet wird, die zu nachhaltigen Innovationen führen.

Erstens fordert die Wissenschaft ihre eigenen KI-Ressourcen ein und arbeitet aktiv daran, diese gemäß ihrer kulturellen Grundsätze der Offenheit und Kooperation zu organisieren. Dies betrifft vor allem Rechenressourcen, Datensätze und KI-Modelle. In Deutschland bahnen sich Kooperationen zwischen Hochschulen, Forschungsorganisationen und sogar behördlichen Einrichtungen mit leistungsfähigen Rechenzentren an, um Bedarfe auszutauschen und die Bereitstellung spezifischer Dienste wie das Trainieren oder Hosten von KI-Modellen besser zu gewährleisten. Das leistungsstarke, gut dokumentierte und offen zugängliche BLOOM-KI-Modell ist ein anderes großartiges Beispiel für öffentliche KI-Infrastruktur.

Zweitens wird in der Wissenschaft großer Wert auf eine umfassende Aufklärung über die praktische Anwendung von KI-Technologie gelegt. In Studium, Lehre, Forschung und auch der Verwaltung von wissenschaftlichen Organisationen wie Hochschulen werden gemeinsam viele verschiedene Bildungsressourcen erarbeitet und zur Verfügung gestellt. Das Erlernen einer verantwortungsvollen Verwendung von KI-Technologie schließt dabei insbesondere ein, Resultate kritisch zu bewerten und sich Risiken bewusst zu werden. 

Eine dritte Tendenz besteht darin, dass Wissenschaftsorganisationen kooperieren und gemeinsam daran arbeiten, ihren Mitgliedern einen bedarfsgerechten, niedrigschwelligen, datenschutzkonformen und qualitativ hochwertigen Zugang zu kommerziellen als auch selbstgebauten KI-Systemen zu ermöglichen. Hierbei ist wichtig zu verstehen, dass an Hochschulen wie überall in der Gesellschaft Fähigkeiten, Kompetenzen und finanzielle Mittel ungleich verteilt sind. Solche Infrastrukturen mildern diese Ungleichheiten und ermöglichen Zugang zu fortschrittlichen KI-Tools unabhängig von technischem Fachwissen und verfügbaren Ressourcen, was zu mehr Bildungsgerechtigkeit und Chancengleichheit führt.

Zuletzt möchte ich betonen, dass diese Entwicklungen keine Selbstverständlichkeit sind. Es ist eine bewusste Entscheidung der wissenschaftlichen Einrichtungen und der regionalen Wissenschaftssysteme, ihre Autonomie zu behaupten und KI-Technologie nach den eigenen Vorstellungen zu gestalten. Tatsächlich kann es auch ganz anders kommen. In den Vereinigten Staaten und im Vereinigten Königreich schließen Hochschulen momentan umfangreiche Verträge mit großen KI-Unternehmen wie OpenAI ab. Ich halte diese “buy-Option” für extrem bedenklich. Ich bin der Meinung, dass das auf eine neuartige Abhängigkeit hinausläuft, in der die Hochschulen zu Zwischenhändlern werden, die die Bildungsprodukte der KI-Anbieter verkaufen und als legitime Instanzen Qualifikationen zertifizieren. Dies ist nicht nur problematisch, weil das sehr wahrscheinlich zu mehr Ungleichheit, Kulturverlust und schlechter Bildung und Wissenschaft führt, sondern weil sich die großen KI-Unternehmen mit dem globalen Trumpismus ebenfalls zu fraglichen Akteuren entwickeln.

Vielen Dank für das Gespräch!

 

Das Interview wurde gekürzt und redigiert. Hier geht es zum Interview in voller Länge.

Hier geht es Koths wissenschaftlichen Beitrag auf englisch: elephantinthelab.org

Sebastian Koth ist Doktorand am Weizenbaum-Institut. Er hat Physik, Philosophie und Soziologie in Leipzig und Berlin studiert. Als Wissenschaftlicher Mitarbeiter untersucht er die Wechselwirkung zwischen digitalen Infrastrukturen und wissenschaftlicher Praxis.

Das Interview führte Leonie Dorn

----

Die Reihe künstlich&intelligent? setzt sich in Interviews und Beiträgen mit den neusten Anwendungen von generativen Sprachmodellen und Bildgeneratoren auseinander. Forschende am Weizenbaum-Institut gehen dabei auf die gesellschaftlichen Auswirkungen der Tools ein und begegnen den viel diskutierten Erwartungen und Ängsten mit aktuellen Studien und Forschungsergebnissen. Dabei wird auch der Begriff „Künstliche Intelligenz“ hinterfragt und im Geiste Joseph Weizenbaums die Allwissenheit und Macht dieser Systeme dekonstruiert. Der KI-Pionier und Kritiker, der einen der ersten Chatbots entwickelte, ist Namensgeber unseres Instituts.