de / en

Verantwortung – Vertrauen – Governance

Der Forschungsbereich stellte Verantwortung, Vertrauen und Governance in den Vordergrund seiner Bestrebungen, die Auswirkungen der Digitalisierung zu erforschen und den technischen Wandel positiv zu gestalten.

Digitalisierung befördert nachhaltige Innovation in Gesellschaft und Wirtschaft. Big Data, KI und insbesondere maschinelles Lernen sind heutzutage omnipräsent, und die Konvergenz dieser neuen Technologien führt zu immer komplexeren digitalen Ökosystemen. Immer noch werden dabei Daten ohne Kenntnis der Nutzer:innen erfasst und auf nicht transparente Weise verarbeitet. Als Folge daraus werden wissenschaftliche und gesellschaftliche Diskurse immer mehr von Besorgnis hinsichtlich Wahrung der Privatsphäre, informationeller Selbstbestimmung, Nicht-Missbräuchlichkeit und Gerechtigkeit geprägt, einhergehend mit neuen, komplexen Missbrauchsmöglichkeiten. Dies wird weiterhin zunehmend von einer Vertrauenskrise begleitet, die Fragen nach der Verantwortung und Haftung sowie angemessenen Governance-Mechanismen aufwirft.

Forschungsgruppen

Verantwortung und das Internet der Dinge

Der Anspruch der Forschungsgruppe war es, das Thema „Verantwortung und das Internet der Dinge“ umfassend zu kartieren und neue Beiträge zu ungeklärten Fragen rund um die „ubiquitäre Verantwortung“ zu leisten. Die Verantwortung der technisch Handelnden ist seit der Antike ein wiederkehrendes Thema in der Wissenschaft und der Politik. Mit wachsenden Gestaltungsoptionen erweitert sich nun auch der Umfang der Verantwortung. Im Rahmen unserer Forschung betrachteten wir den Begriff sowohl aus ethisch-moralischer und juristischer Sicht als auch im Hinblick auf technische Umsetzbarkeit.

Verlagerung in der Normsetzung

Ziel der Forschungsgruppe war es, disziplinär wie interdisziplinär das normative Fundament der vernetzten Gesellschaft sowie gegenwärtige Verlagerungsprozesse zu analysieren, strukturieren und einzuordnen.

Vertrauen in verteilten Umgebungen

Automatisierte Datenverwaltung und -verarbeitung werden in der Öffentlichkeit häufig mit Intransparenz und einem Kontrollverlust der Menschen verbunden. Gleichzeitig erfreuen sich dezentrale Systeme wie Bitcoin einer beispiellosen Beliebtheit. Solche Systeme sind sowohl in Bezug auf ihre Funktionsweise als auch auf die in ihnen gespeicherten Daten transparent. Dadurch versprechen sie die Abschaffung von Intermediären und Vertrauensankern und somit die Förderung von Bottom-Up-Ansätzen.

Quantifizierung und gesellschaftliche Regulierung

Die Forschungsgruppe untersuchte, ob – und wenn ja, wie – sich Regulierung durch den Einsatz zeitgenössischer automatisierter Informations- und Entscheidungssysteme verändert. Mit „ubiquitous computing“, Big Data und Künstlicher Intelligenz (KI) gehen neue Praktiken der Quantifizierung und Bewertung einher, deren Rolle in Regulierungsprozessen ebenso wie ihre demokratischen Implikationen weiterer Untersuchung bedürfen. Um diese Forschungslücke zu schließen, verknüpfte die Forschungsgruppe sozialwissenschaftliche und informatische Perspektiven miteinander.

Digitalisierung und vernetzte Sicherheit

Die Forschungsgruppe befasste sich mit der funktionalen Sicherheit und IT-Sicherheit entlang der Digitalisierung und der damit einhergehenden Vernetzung bisher getrennter Infrastruktursysteme. Sowohl technologische Lösungen als auch das Verständnis der Handlungs- und Denkmuster von Akteuren standen dabei im Vordergrund.

Kritikalität KI-basierter Systeme

Systeme künstlicher Intelligenz werden zunehmend auf menschliche Aktivitäten abgestimmt. Gefüttert von Daten, die wir Menschen erzeugen, arbeiten sie immer enger mit uns in Echtzeit zusammen. Dabei wird zunehmend offensichtlich: Die Suche nach künstlicher Intelligenz ist auch eine Suche nach menschlichen Werten. Wie Wissen in Technologien eingebunden und aus diesen gewonnen werden kann, war dabei ein bedeutsamer Teil unserer Forschung.