Verantwortung – Vertrauen – Governance

Der Forschungsbereich untersucht, welche Verantwortungen aus der Digitalisierung resultieren bzw. bestehen sollten, wie das nötige gesellschaftliche Vertrauen bei der Digitalisierung gefördert werden kann sowie mit welchen Governance-Strukturen die Herausforderungen der Digitalisierung bewältigt werden können.

Digitalisierung befördert nachhaltige Innovation in Gesellschaft und Wirtschaft. Big Data, KI und insbesondere maschinelles Lernen sind heutzutage omnipräsent, und die Konvergenz dieser neuen Technologien führt zu immer komplexeren digitalen Ökosystemen. Immer noch werden dabei Daten ohne Kenntnis der Nutzer*innen erfasst und auf nicht transparente Weise verarbeitet. Als Folge daraus werden wissenschaftliche und gesellschaftliche Diskurse immer mehr von Besorgnis hinsichtlich Wahrung der Privatsphäre, informationeller Selbstbestimmung, Nicht-Missbräuchlichkeit und Gerechtigkeit geprägt, einhergehend mit neuen, komplexen Missbrauchsmöglichkeiten. Dies wird weiterhin zunehmend von einer Vertrauenskrise begleitet, die Fragen nach der Verantwortung und Haftung sowie angemessenen Governance-Mechanismen aufwirft.

Der Forschungsbereich stellt daher Verantwortung, Vertrauen und Governance in den Vordergrund seiner Bestrebungen, die Auswirkungen der Digitalisierung zu erforschen und den technischen Wandel positiv zu gestalten.

Forschungsgruppen

Verantwortung und das Internet der Dinge

Verantwortung und das Internet der Dinge

Der Anspruch der Forschungsgruppe ist es, das Feld „Verantwortung und das Internet der Dinge“ umfassend zu kartieren und neue Beiträge zu ungeklärten Fragen rund um die „Ubiquitäre Verantwortung“ zu leisten. Die Verantwortung der technisch Handelnden ist seit der Antike ein wiederkehrendes Thema in der Wissenschaft und der Politik. Mit wachsenden Gestaltungsoptionen erweitert sich nun auch der Umfang der Verantwortung. Im Rahmen unserer Forschung betrachten wir den Begriff sowohl aus ethisch-moralischer und juristischer Sicht als auch im Hinblick auf technische Umsetzbarkeit.

Zur Forschungsgruppe
Verlagerung in der Normsetzung

Verlagerung in der Normsetzung

Ziel der Forschungsgruppe ist es, disziplinär wie interdisziplinär das normative Fundament der vernetzten Gesellschaft sowie gegenwärtige Verlagerungsprozesse zu analysieren, strukturieren und einzuordnen.

Zur Forschungsgruppe
Vertrauen in verteilten Umgebungen

Vertrauen in verteilten Umgebungen

Automatisierte Datenverwaltung und -verarbeitung wird in der Öffentlichkeit häufig mit Intransparenz und einem Kontrollverlust der Menschen verbunden. Gleichzeitig erfreuen sich dezentrale Systeme wie Bitcoin einer beispiellosen Beliebtheit. Solche Systeme sind sowohl in Bezug auf ihre Funktionsweise als auch auf die in ihnen gespeicherten Daten transparent. Dadurch versprechen sie die Abschaffung von Intermediären und Vertrauensankern und somit die Förderung von Bottom-Up-Ansätzen.

Zur Forschungsgruppe
Quantifizierung und gesellschaftliche Regulierung

Quantifizierung und gesellschaftliche Regulierung

Die Forschungsgruppe untersucht, ob – und wenn ja, wie – sich Regulierung durch den Einsatz zeitgenössischer automatisierter Informations- und Entscheidungssysteme verändert. Mit „ubiquitous computing“, Big Data und Künstlicher Intelligenz (KI) gehen neue Praktiken der Quantifizierung und Bewertung einher, deren Rolle in Regulierungsprozessen ebenso wie ihre demokratischen Implikationen weiterer Untersuchung bedürfen. Um diese Forschungslücke zu schließen, verknüpft die Forschungsgruppe sozialwissenschaftliche und informatische Perspektiven miteinander.

Zur Forschungsgruppe
Digitalisierung und vernetzte Sicherheit

Digitalisierung und vernetzte Sicherheit

Die Forschungsgruppe untersucht Sicherheitskonzepte und -lösungen und ihre Auswirkung auf Privatsphäre und Zivilgesellschaft. Sie erforscht die Resilienz und die Praktikabilität von Technologie und analysiert die Handlungs- und Denkmuster der Akteure. Dabei werden neue Zugänge zu Wissen über Sicherheit und Privatsphäre geschaffen und erforscht.

Zur Forschungsgruppe
Kritikalität KI-basierter Systeme

Kritikalität KI-basierter Systeme

Systeme künstlicher Intelligenz werden zunehmend auf menschliche Aktivitäten abgestimmt. Gefüttert von Daten, die wir Menschen erzeugen, arbeiten sie immer enger mit uns in Echtzeit zusammen. Dabei wird zunehmend offensichtlich: Die Suche nach künstlicher Intelligenz ist auch eine Suche nach menschlichen Werten. Wie Wissen in Technologien eingebunden und aus diesen gewonnen werden kann, ist dabei ein bedeutsamer Teil unserer Forschung.

Zur Forschungsgruppe