Omnipräsent und „always on“ – Sensoren als Überwachungsinstrumente

Smartphones und Smartwatches, unsere täglichen mobilen Begleiter, stecken voller Sensoren, die viel über uns verraten können – viel mehr, als die meisten Nutzer:innen ahnen. Was das genau für Daten sind, die durch Sensoren erfasst werden, und welche Informationen sich daraus ableiten lassen, erforscht Autor Jacob Leon Kröger, Doktorand der Forschungsgruppe „Verantwortung und das Internet der Dinge“.

Nicht nur beim Surfen im Internet wird ausgiebig erfasst, wie wir uns verhalten und welche Aktionen wir auslösen. Datenerfassung und Überwachung dehnen sich durch verschiedene Arten von internetfähigen Sensoren immer tiefer auch in die physische Welt aus. Spätestens seit der Omnipräsenz von Smartphones sind wir ständig von Sensoren umgeben, egal wo wir sind – auf der Arbeit, unterwegs oder in unseren eigenen vier Wänden. Viele dieser Sensoren sind „always on“, also immer in Betrieb. Viele sind praktisch unsichtbar und den meisten Menschen nicht einmal namentlich bekannt. Beruflich wie privat erlebe ich in Gesprächen, dass die meisten Smartphonebesitzer:innen weniger als die Hälfte der Sensoren benennen können, die sich in ihren Geräten befinden. Die zunehmende Vernetzung im aufkommenden Internet der Dinge wird die Anzahl der Sensoren in unserem Alltag noch um ein Vielfaches erhöhen. Zahlreiche Sensoren, die in unsere Geräte sowie in öffentliche und private Räume eingebettet sind, übermitteln ihre Messdaten an staatliche Einrichtungen oder Unternehmen. Dazu gehören Geräte wie Tablets, Smartphones, Laptops, Fitnesstracker, Smart Speaker und VR-Brillen.

Die neuen technischen Möglichkeiten, die sich aus der zunehmenden Vernetzung ergeben, können dazu beitragen, unsere Gesellschaft sicherer, produktiver, gesünder und ökologisch nachhaltiger zu machen. Gleichzeitig tut sich aber auch die Frage auf: Was können all diese Sensordaten – möglicherweise ohne unser Wissen und gegen unseren Willen – über uns verraten?

Es existiert bereits eine große Menge interessanter experimenteller Studien aus Feldern wie Psychologie, Medizin und Mensch-Maschine-Interaktion, die diese Frage auf der Mikroebene beantworten. Darunter sind beispielsweise Studien, in denen der Tagesablauf von Individuen über Bewegungssensoren in ihren Smartphones überwacht wird oder Persönlichkeitseigenschaften aus inhaltlich belanglosen Sprachaufnahmen abgeleitet werden. Diese Studien zeigen, dass sich selbst aus vermeintlich unbedenklichen Sensordaten hochsensible persönliche Informationen ableiten lassen können. Allerdings wurde das vorhandene Wissen aus diesen Studien bisher kaum auf einer Metaebene strukturiert und zusammengefasst, insbesondere nicht unter dem Gesichtspunkt der Privatheit.

Eben diese Lücke versuche ich gemeinsam mit Kolleg:innen verschiedener anderer Forschungsinstitute und Universitäten zu schließen. Neben der Forschungsliteratur zu experimentellen Studien beziehen wir auch Patentunterlagen und Beschreibungen kommerzieller Produkte mit ein und tragen zusammen, welche persönlichen Informationen sich mithilfe moderner Analysemethoden zum Beispiel aus Eyetracking-Daten, Sprachaufnahmen, aus den Daten intelligenter Stromzähler oder Beschleunigungssensoren ableiten lassen.

Die gesellschaftliche Relevanz dieser Forschung wird besonders deutlich, wenn man sich vor Augen führt, mit welch rasanter Geschwindigkeit neue Technologietrends wie Eyetracking oder Sprachsteuerung derzeit vorangetrieben werden. In Sprachaufnahmen können beispielsweise – abgesehen vom Inhalt des Gesagten – die Stimme und Ausdrucksweise der sprechenden Person Informationen über biometrische Identität, körperliche Merkmale, geografische Herkunft, Emotionen, Alkoholkonsum, Alter, Geschlecht sowie körperliche und psychische Gesundheit verraten. 

Solche Informationen lassen sich nicht nur aus Akzent, Soziolekt, Wortwahl, Sprachtempo und -rhythmus einer sprechenden Person, sondern auch aus akustischen Eigenschaften des Gesagten, wie Frequenzspektrum und Lautstärke der Stimme, Betonung, Nasalität, Heiserkeit und aus nonverbalen Geräuschen wie Atmen, Weinen, Niesen oder Husten ableiten. Verschiedenste Methoden der Signalverarbeitung können angewandt werden, um hunderte oder sogar tausende von verwertbaren Sprachparametern aus nur einer kurzen Audioaufnahme zu extrahieren.

Ähnlich breit ist auch die Palette von Informationen, die sich aus Daten von Beschleunigungssensoren ableiten lässt. In den Medien sind Beschleunigungssensoren wenig präsent, dabei handelt es sich bei ihnen um den meistverwendeten Sensortyp in mobilen Geräten. Da die Daten dieser Sensoren oft fälschlicherweise als völlig unsensibel eingestuft werden, können diverse Parteien, so zum Beispiel mobile Apps oder Webseitenbetreiber, häufig ohne das Wissen und die Zustimmung von Nutzer:innen auf sie zugreifen. Es existieren jedoch in der wissenschaftlichen Literatur viele Evidenzen dafür, dass sich aus Daten von Beschleunigungssensoren auf Aktivitäten und Tagesablauf, Emotionen, Gesundheitszustand, Autofahrstil, Konsum von Zigaretten und alkoholischen Getränken sowie auf die Identität von Nutzer:innen schließen lässt. Zudem haben Studien gezeigt, dass mithilfe solcher Sensordaten per Touchscreen eingegebene Passwörter rekonstruiert und Nutzer:innen gegen ihren Willen lokalisiert werden können, auch wenn GPS deaktiviert ist. Leider bieten existierende technische und rechtliche Schutzmaßnahmen keinen zuverlässigen Schutz vor dem unerwünschten Ableiten sensibler persönlicher Informationen aus Sensordaten.

Aktuell laufen mehrere Studien, in denen ich untersuche, welche Gefühle, Bedenken und welchen Wissensstand Nutzer:innen bezüglich Sensoren und den vielfältigen Möglichkeiten der Auswertung ihrer Daten haben, und welche regulatorischen Implikationen und politischen Handlungsempfehlungen sich aus den bisher gesammelten Erkenntnissen ergeben. Zudem arbeite ich in Kollaboration mit Forscher:innen der Goethe-Universität Frankfurt und dem japanischen Telekommunikationsunternehmen KDDI an einer Methode zur quantitativen Bewertung der Privacy-Sensibilität von Sensoren.

Mit Forschern der Universitäten Hamburg und Bamberg habe ich eine vierjährige Undercover-Studie durchgeführt, in der wir untersucht haben, inwiefern mobile Apps ihren datenschutzrechtlichen Auskunftspflichten nachkommen. Obwohl in diese Zeit auch die Einführung der europäischen Datenschutz-Grundverordnung, eines der weltweit weitreichendsten Datenschutzgesetze, fällt, mussten wir feststellen, dass die Datenschutz-Compliance der meisten untersuchten App-Anbieter ebenso inakzeptabel geblieben ist wie sie zu Beginn unserer Studie in 2015 war. Überraschenderweise ist die Compliance gegen Ende unserer Studie sogar schlechter geworden, obwohl seit Inkrafttreten des neuen Gesetzes empfindliche Strafen drohen. Wer Auskunft über die durch Apps erhobenen und gespeicherten Daten haben will, läuft mit seiner Anfrage häufig ins Leere, bekommt unbrauchbare Informationen oder tote Links zugesandt oder stößt auf anderweitige Kommunikationsprobleme. Auch die gesetzlichen Sicherheitsanforderungen wurden oft missachtet, beispielsweise wurde meist nicht einmal die Identität der antragstellenden Person überprüft und teilweise Daten unverschlüsselt per E-Mail übermittelt.

Unsere Studie haben wir auf der ARES 2020 Konferenz präsentiert und sie wurde dort mit dem Best Paper Award ausgezeichnet. Erfreulicherweise stieß sie auch in den Medien auf großes Interesse.

Um den gesetzlich vorgeschriebenen Schutz persönlicher Daten und die Transparenz ihrer Verarbeitung effektiv durchzusetzen, fehlt es den Datenschutzbehörden ganz offensichtlich an Ressourcen. Bedenklich stimmt darüber hinaus, dass für viele mittels Sensoren erhobene Daten gar nicht bekannt ist, wie sich daraus mithilfe von modernsten Analysemethoden sensible Informationen ableiten lassen. Sie fallen oft als vermeintlich harmlose Daten aus jeglicher Regulierung heraus und werden auch technisch nicht ausreichend geschützt, obwohl sich mit ihnen eine Fülle von hochsensiblen Informationen gewinnen lassen. Methoden zur Bewertung der Privacy von Sensordaten werden deshalb dringend gebraucht, ebenso wie die kritische Überprüfung einiger realitätsferner Grundannahmen und möglicher Schlupflöcher in unseren Datenschutzgesetzen.

Back to previous page