de / en

Forschungsagenda

Forschungsgruppe 18

Die Forschungsgruppe „Quantifizierung und gesellschaftliche Regulierung“ untersucht, ob – und wenn ja, wie – sich Regulierung durch den Einsatz zeitgenössischer automatisierter Informations- und Entscheidungssysteme verändert. Mit „ubiquitous computing“, Big Data und Künstlicher Intelligenz gehen neue Praktiken der Quantifizierung und Bewertung einher, deren Rolle in Regulierungsprozessen ebenso wie ihre demokratischen Implikationen weiterer Untersuchung bedürfen. Um diese Forschungslücke zu schließen, verknüpft die Forschungsgruppe sozialwissenschaftliche und informatische Perspektiven miteinander.

Regulierung bezeichnet das absichtsvolle Lenken des Verhaltens von Individuen und Organisationen zur Erreichung definierter Ziele (Black) und ist ein wesentliches Merkmal moderner Gesellschaften. Diese können mit Blick auf die von ihnen jeweils eingesetzten Regulierungsinstrumente charakterisiert werden. In den vergangenen Jahrzehnten haben Forscher:innen auf die historischen Zusammenhänge zwischen moderner Staatlichkeit und dem modernen Kapitalismus einerseits und den Praktiken der Quantifizierung andererseits hingewiesen. Beispielsweise hat die sozialwissenschaftliche Forschung die Entwicklung der Statistik als Instrument der Staatskunst (Hacking) oder die Bedeutung der Buchführung für moderne Formen der Governance (Miller) rekonstruiert.

Angesichts der grundlegenden technologischen Entwicklungen der letzten beiden Jahrzehnte stellt sich jedoch die Frage, ob unser Wissen über den Zusammenhang von Quantifizierung und Regulierung noch Gültigkeit beanspruchen kann, oder ob neue Technologien auch neue Spielregeln mit sich bringen. Unterscheidet sich „Regieren durch Big Data“ wesentlich vom „Regieren durch Zahlen“? Heute durchdringen digitale Technologien alle Ebenen moderner Gesellschaften: Individuelle Entscheidungen über die eigene Lebensführung werden zunehmend von Online-Umgebungen und digitalen Geräten angeleitet, während Organisationen algorithmische Verfahren und KI einsetzen, um ihre Arbeitsprozesse zu optimieren. Dies gilt für Firmen ebenso wie für politische und staatliche Akteure, darunter Parteien, Verwaltungen und Gerichte. Moderne Computertechnologie scheint Regulierung umfassender, maßgeschneiderter und effektiver zu machen. Solche Annahmen müssen jedoch einer empirischen Überprüfung standhalten. Der technologische Wandel ist keine Naturgewalt; er wird von gerade denjenigen sozialen Kontexten geprägt, die er ordnen soll. Nur empirische Untersuchungen können zeigen, wie automatisierte Informations- und Entscheidungssysteme in bestimmten institutionellen Kontexten wirken und wie sie Organisationsstrukturen, Machtverhältnisse sowie professionsspezifische Normen und Identitäten beeinflussen und ihrerseits von ihnen beeinflusst werden.

Um die Neuartigkeit dieser Regulierungsmodi zu beurteilen, analysieren wir konkrete Fälle des Einsatzes von Quantifizierungspraktiken in der Regulierung – sowohl durch staatliche als auch durch nicht-staatliche Akteure – mit einem besonderen Fokus auf Big Data und Künstliche Intelligenz. Im Bereich des Staates untersuchen wir Fälle aus der Exekutive, der Legislative und der Judikative. Der Ansatz ist dabei ein komparativer: Erforscht werden ähnliche Technologien in unterschiedlichen Anwendungsfällen, der Einsatz (teil-)automatisierter Informations- und Entscheidungssysteme in verschiedenen Politikfeldern sowie ähnliche Anwendungsfälle in unterschiedlichen Ländern. Zu den konkreten Beispielen solcher Anwendungsfälle gehören Big Data und KI in der polizeilichen Arbeit (z.B. predictive policing), in der Sozialpolitik (z.B. child abuse prediction), in der Rechtsprechung (z.B. predictive sentencing), in der Policy-Gestaltung (z.B. agile policy making, sentiment analysis, Computersimulationen) und im Wahlkampf (z.B. political micro-targeting). Darüber hinaus untersuchen wir, wie datenbasierte Regulierung in verschiedenen gesellschaftlichen Bereichen Anwendung findet, etwa dem Arbeitsmanagement, Kreditmärkten und digitalem Self-Tracking.

Die Forschungsgruppe analysiert diese Fälle entlang dreier Dimensionen:

  • der Hervorbringung von Informationen durch Computertechnologien,
  • der Verwendung von Computertechnologien in der Festlegung von Zielen, Adressaten und Werkzeugen der Regulierung und
  • der Rolle von Computertechnologien in der Verhaltensbeeinflussung.

Computertechnologien generieren Informationen, die als Ressource für Regulierung dienen können. In welchem Ausmaß produzieren Social Media, Smartphones, Sensoren und andere Beobachtungsinstrumente qualitativ und/oder quantitativ neuartige Daten über Populationen und soziale Beziehungen? Wo können wir neue Arten des Lesens und Modellierens von Daten beobachten, etwa in der Form von Predictive Analytics und Machine Learning, und wo nicht? Welche Wissensformen werden als Evidenz für Politikgestaltung akzeptiert und welche Konflikte entstehen um die Frage der legitimen Anwendbarkeit dieser Evidenz? Führen Big Data Analytics, „Demos Scraping“, Sentiment Analysis und Computersimulationen zu neuen politischen Epistemologien?

Weiterhin analysieren wir die Rolle computerisierter Informationsverarbeitung für die Festlegung der Ziele, Adressaten und Werkzeuge von Regulierung. Wie werden Prozesse der Wertung und Bewertung durch digitale Technologien transformiert? Nach welchen Kriterien arbeiten automatisierte Entscheidungssysteme und wer definiert diese? Im Prinzip ermöglichen Informations- und Kommunikationstechnologien neuartige Formen der partizipativen Normsetzung; werden sie auch realisiert? Wird die öffentliche Deliberation von Normen zunehmend durch automatische Standardsetzung ersetzt? Und wie ändert sich der Charakter von Regulierung, wenn sowohl die verfolgten Ziele als auch die verwendeten Mittel automatisch an sich wandelnde Kontexte angepasst werden können?

Schließlich untersucht die Gruppe die Rolle von Big Data und KI als Instrumente der Verhaltensbeeinflussung in regulatorischen Prozessen. Welche neuen Formen der Interaktion, Kontrolle und Selbstkontrolle ermöglichen Technologien wie Wearables oder Cyber-Physical Systems? Welche intendierten und nicht-intendierten Effekte haben verschiedene technologische Architekturen auf menschliches Verhalten? Wie wirken sich diese neuen regulatorischen Instrumente auf Individuen aus? Greifen automatisierte Systeme durch den Gebrauch responsiver Technologien Strategien der reflexiven Governance auf?

Neben der analytischen Beschreibung strebt das Projekt auch eine normative Bewertung der gegenwärtigen Verwendungsweisen automatisierter Informations- und Entscheidungssysteme an und entwickelt mögliche Alternativen. Zu diesem Zweck greift die Forschungsgruppe auf Demokratietheorien und jüngere Entwicklungen im Bereich Algorithmic Accountability und Explainable AI zurück. Ziel ist es, verschiedene normative Dimensionen und Kriterien zu beleuchten, die bei der Verwendung von Big Data und KI für Regulierung in Betracht gezogen werden müssen. Mögliche Dimensionen sind hier Legitimität, Fairness, Accountability, Exaktheit, Effizienz und IT-Sicherheit. Auf dieser Basis wird das Projekt alternative Visionen und Versionen Big-Data- und KI-basierter Regulierung entwickeln.

Die Forschungsgruppe besteht aus Forscher:innen aus der Politikwissenschaft, der Soziologie und der Informatik. Sie positioniert sich in den Forschungsfeldern der Governance- und Regulierungsforschung, der Policy-Forschung, der Soziologien der Klassifizierung, Quantifizierung und Bewertung, der Science and Technology Studies, der Kritischen Informatik und der Critical Algorithm Studies. Weitere Informationen zu Fallstudien und Veröffentlichungen finden sich auf den Einzelwebseiten des Teams. Wir freuen uns über kollaborative Projekte mit Wissenschaftler:innen, die an verwandten Themen forschen und ein Interesse an Fallstudien zu automatisierten Informations- und Entscheidungssystemen in verschiedenen Ländern und Regionen aus einer komparativen Perspektive haben.