Skip to main content

“Hidden Internet”: Smart technologies and the Internet of Things pose new challenges to privacy protection

Popular everyday appliances – like televisions – are increasingly connected to the internet and engage in the collection of personal data. The resulting data on user behavior, the transmission and processing of this data and the increasing complexity of smart technologies pose new challenges to privacy protection and informational self-determination. In the White Paper “Hidden Internet“, experts from the research network “Forum Privacy and self-determined life in the digital world“ outline the problematic aspects of smart technologies for privacy and how these issues might be addressed. The White Paper focuses on three applications – smart TVs, smart cars and wearable devices like smart watches.

Smart TVs or smart bracelets that are connected to other devices, services and manufacturers via the Internet of Things increasingly belong to the everyday life of society. Users welcome the internet-based services and functions of these smart appliances – but are often not aware of the extent to which their data are being collected, and processed. These problems are enhanced by the increasing complexity of smart technologies; it is almost impossible for users to follow whether and how personal data can be protected against unauthorized access or disclosure.

In the light of these changing framework conditions for privacy and data protection, the research network “Forum Privacy“ describes the risks that may result from using smart TVs, smart cars and wearables in its White Paper “The hidden Internet“. For instance, smart TVs already gather use and behavioral data when people are just watching television and even enable personal identification by photo, audio and video recording. This means that large segments of the population can be monitored. All this applies in a similar way to smart cars that record vehicle-related, driver behavior and environmental data and can transmit these to vehicle manufacturers or other transport users. Alongside information about driving style, location or route, the personal characteristics and habits of the drivers can be derived by linking this information with other data. This is also the case for so-called wearables – devices like smart fitness bracelets or smart watches that are worn in contact with the skin. The health data wearables gather allows detailed insights into the private lives of users.

Peter Zoche, who coordinates the research activities of the Forum Privacy Project at Fraunhofer ISI, cites some of the main problems and design potentials for manufacturers, users and policymakers: “The demand for informational self-determination is faced with non-transparent data trading and concealed data collection. On top of this, it is often hard to change the default settings of smart devices. And if users want to take action themselves to ensure greater data protection, they are confronted by a flood of information and complex terms and conditions“. According to Zoche, networked devices and applications should have privacy-enhancing settings (privacy by default), take users’ information requirements into account and have visual or acoustic signals that alert users to possible data transfers.

Furthermore, in future, political and legal regulations should ensure that smart technologies are more in line with the principles of data protection. Appropriate conditions for guaranteeing privacy in the digital age could be created using sanctions, as well as by enforcing EU data protection legislation. Alongside state institutions and initiatives, however, industry must also contribute by making data protection a core design element when introducing new smart devices and applications (privacy by design). Last, but not least, users themselves will need to handle their personal data and the associated risks with greater awareness.


 

In the Forum Privacy Project, which is funded by the German Federal Ministry of Education and Research (BMBF), national and international experts from different disciplines address the issues surrounding privacy protection over a period of three years. The project is coordinated by Fraunhofer ISI, and the partners are Fraunhofer SIT, the University of Hohenheim, the University of Kassel, the Eberhard Karls University of Tübingen, the Unabhängige Landeszentrum für Datenschutz Schleswig-Holstein and the Ludwig-Maximilian University of Munich. The research results of the Forum Privacy Project are intended not only as input to scientific debate, but also to be of use in educating normal citizens regarding privacy protection.

„Verstecktes Internet“: Smarte Technologien und Internet der Dinge stellen Schutz der Privatheit vor neue Herausforderungen

Beliebte Alltagsgeräte wie Fernseher sind immer häufiger mit dem Internet verbunden oder verfügen über internetbasierte Zusatzdienste. Die dabei entstehenden Daten über das Nutzerverhalten, ihre Weitergabe und Verarbeitung sowie die zunehmende Komplexität „smarter“ Technologien stellen den Schutz der Privatheit und die informationelle Selbstbestimmung vor neue Herausforderungen. Im White Paper „Verstecktes Internet“ skizzieren die Expertinnen und Experten des Forschungsverbunds „Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt“ die aus Sicht des Privatheitsschutzes problematischen Aspekte smarter Technologien und zeigen mögliche Gestaltungspotenziale auf. Das White Paper konzentriert sich dabei auf die drei Anwendungsbereiche Smart TV, intelligente Autos sowie neue Endgeräte wie Smart Watches, die direkt am Körper getragen werden.

Vernetzte Smart TVs oder intelligente Armbänder, die über das „Internet der Dinge“ mit anderen Geräten, Dienstleistern und Herstellern verbunden sind, durchdringen zusehends den Alltag vieler Menschen. Die Nutzer schätzen besonders die netzbasierten Dienste und Funktionen dieser „smarten“ Geräte – ihnen ist jedoch häufig nicht bewusst, in welchem Umfang Nutzerdaten erhoben und zu welchen Zwecken sie weitergeleitet werden. Diese Probleme verschärfen sich mit der zunehmenden Komplexität smarter Technologien und es ist für die Nutzer kaum mehr nachzuvollziehen, ob und wie sich personenbezogene Daten vor ungewollten Zugriffen und Weitergaben schützen lassen.

Vor dem Hintergrund dieser veränderten Rahmenbedingungen für den Privatheits- und Datenschutz beschreibt der Forschungsverbund „Forum Privatheit“ im White Paper „Verstecktes Internet“ die Risiken, die bei der Nutzung von „Smart TVs“, „Smart Cars“ und „Wearables“ entstehen können: So erheben etwa Smart TVs schon beim gewöhnlichen Fernsehen Nutzungs- und Verhaltensdaten und ermöglichen über Foto-, Audio- und Videoaufnahmen sogar eine persönliche Identifikation. Dadurch lassen sich nicht nur Einzelpersonen sondern auch große Teile der Bevölkerung überwachen. All dies trifft in ähnlicher Weise auf vernetzte Autos bzw. „Smart Cars“ zu, die fahrzeugbezogene Daten, das Verhalten des Fahrers sowie Umgebungsdaten erfassen und diese an Fahrzeughersteller oder andere Verkehrsteilnehmer weiterleiten können. Neben Informationen über Fahrstil, Aufenthaltsort oder Fahrstrecke ließen sich durch die Verknüpfung mit anderen Daten zudem persönliche Merkmale und Gewohnheiten der Nutzer ableiten. Dies ist auch bei sogenannten „Wearables“ der Fall, also Geräten wie intelligenten Fitnessarmbändern oder Smart Watches, die Nutzer direkt am Körper tragen. Durch die Erhebung von Gesundheitsdaten werden zum Beispiel tiefe Einblicke in die privaten Lebensumstände der Nutzer erfasst.

Peter Zoche, der am Fraunhofer ISI die Forschungsaktivitäten des Forum Privatheit koordiniert, nennt an Hersteller, Nutzer und die Politik gerichtet einige zentrale Problembereiche und Gestaltungspotenziale: „Der Forderung nach informationeller Selbstbestimmung stehen ein intransparenter Datenhandel und versteckt erfolgende Datenerhebungen gegenüber. Hinzu kommt, sich die Grundeinstellung smarter Geräte oft nur bedingt verändern lässt. Und wenn Nutzer aktiv werden möchten, um selbst für mehr Datenschutz zu sorgen, sehen sie sich mit einer Informationsflut und komplexen Geschäftsbedingungen konfrontiert.“ Laut Zoche sollten vernetzte Geräte und Anwendungen in Zukunft über datenschutzfreundliche Grundkonfigurationen (Privacy by Default) verfügen und Nutzer durch visuelle oder akustische Hinweise auf mögliche Datentransfers hingewiesen und ihre Informationsbedarfe hierbei berücksichtigt werden.

Des Weiteren sollten in Zukunft auch Möglichkeiten der politisch-rechtlichen Regulierung dafür sorgen, dass smarte Technologien stärker in Einklang mit den Prinzipien des Datenschutzes stehen. Sanktionsmöglichkeiten könnten genauso wie die Durchsetzung einer EU-weiten Datenschutz-Grundverordnung geeignete Voraussetzungen zur Gewährleistung von Privatheit im digitalen Zeitalter schaffen. Neben staatlichen Institutionen und Initiativen müssen jedoch auch wirtschaftliche Akteure dazu beitragen, dass Datenschutz zu einem Kernelement bei der Einführung neuer smarter Geräte und Anwendungen wird (Privacy by Design). Nicht zuletzt sind auch die Nutzer gefragt, künftig noch bewusster mit ihren persönlichen Daten sowie den damit verbundenen Risiken umzugehen.

Das White Paper kann hier heruntergeladen werden.

 

In the press: Protection of neuro data

Hallinan, D.; Schütz, P.; Friedewald, M.; Hert, P. d. (2015): Wer kann sie erraten? In: Süddeutsche Zeitung vom 31.Januar/1.Februar 2015, S. 17.

http://www.sueddeutsche.de/digital/schutz-fuer-neurodaten-grundrecht-gegen-das-gedankenlesen-1.2328391

Gedankenfreiheit ist das Herzstück einer demokratischen Ordnung. In Zeiten der massenhaften Überwachung physischer und virtueller Räume ist der menschliche Geist die letzte Bastion absoluter Freiheit und Privatheit. So könnte man meinen – doch auch diese Bastion scheint zu bröckeln. Denn es werden mehr und mehr Neurodaten gesammelt, also Daten zu den Abläufen im Gehirn.

 

 

Just published: “Open consent, biobanking and data protection law”

Hallinan, D.; Friedewald, M. (2015): Open Consent, Biobanking and Data Protection Law Can Open Consent be ‘Informed’ under the Forthcoming Data Protection Regulation? In: Life Sciences, Society and Policy 11, Nr. 1. http://www.lsspjournal.com/content/pdf/s40504-014-0020-9.pdf

This article focuses on whether a certain form of consent used by biobanks – open consent – is compatible with the Proposed Data Protection Regulation. In an open consent procedure, the biobank requests consent once from the data subject for all future research uses of genetic material and data. However, as biobanks process personal data, they must comply with data protection law. Data protection law is currently undergoing reform. The Proposed Data Protection Regulation is the culmination of this reform and, if voted into law, will constitute a new legal framework for biobanking. The Regulation puts strict conditions on consent – in particular relating to information which must be given to the data subject. It seems clear that open consent cannot meet these requirements. 4 categories of information cannot be provided with adequate specificity: purpose, recipient, possible third country transfers, data collected. However, whilst open consent cannot meet the formal requirements laid out by the Regulation, this is not to say that these requirements are substantially undebateable. Two arguments could be put forward suggesting the applicable consent requirements should be rethought. First, from policy documents regarding the drafting process, it seems that the informational requirements in the Regulation are so strict in order to protect the data subject from risks inherent in the use of the consent mechanism in a certain context – exemplified by the online context. There are substantial differences between this context and the biobanking context. Arguably, a consent transaction in the biobanking does not present the same type of risk to the data subject. If the risks are different, then perhaps there are also grounds for a reconsideration of consent requirements? Second, an argument can be made that the legislator drafted the Regulation based on certain assumptions as to the nature of ‘data’. The authors argue that these assumptions are difficult to apply to genetic data and accordingly a different approach to consent might be preferable. Such an approach might be more open consent friendly.

 

 

Selbstdatenschutz kann staatliche Schutzpflichten nicht ersetzen

Am 28. Januar ist Europäischer Datenschutztag. Aus diesem Anlass findet vom 21. bis zum 23. Januar 2015 in Brüssel die Computers, Privacy and Data Protection Conference statt. Das Fraunhofer-Institut für System- und Innovationsforschung ISI, das in vielen Projekten zu Fragen des Datenschutzes forscht, beteiligt sich an dieser Veranstaltung: Dr. Michael Friedewald, Projektleiter am Fraunhofer ISI, wird im Rahmen eines Panels über Selbstdatenschutz diskutieren. Zu diesem Thema hat der vom Fraunhofer ISI im Auftrag des Bundesministeriums für Bildung und Forschung (BMBF) koordinierte Forschungsverbund “Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt” ein White Paper veröffentlicht.

In dieser Publikation werden die gesellschaftlichen, rechtlichen und technischen Rahmenbedingungen des Selbstdatenschutzes analysiert sowie Schutzmaßnahmen aufgezeigt, unter anderem die Verschlüsselung von Daten, E-Mails und Kurznachrichten, die Nutzung von Anti-Tracking-Maßnahmen und Anonymisierungstools sowie die Verwendung gängiger Verschlüsselungsprotokolle.

Obwohl bereits 1983 im sogenannten Volkszählungsurteil die staatliche Schutz- und Förderpflicht der informationellen Selbstbestimmung formuliert wurde, dominiert bis heute die Vorstellung, dass es vor allem in der persönlichen Verantwortung des mündigen Bürgers liege, für den Schutz seiner persönlichen Daten und seiner Privatsphäre zu sorgen. Dazu gibt es bereits seit Jahren Verfahren und technische Werkzeuge, mit denen einzelne Aspekte des Selbstdatenschutzes wie Verschlüsselung oder Anonymisierung realisiert werden können. Diese werden allerdings von den Bürgerinnen und Bürgern bis heute wenig verwendet.

Die Gründe hierfür sind vielfältig: Auf den digitalen Märkten gibt es heute einen erheblichen Unterschied zwischen den Kenntnissen und Fähigkeiten der Bürgerinnen und Bürger auf der einen und denen der Geheimdienste und Unternehmen auf der anderen Seite. Dies führt dazu, dass Datensammlungen und Überwachung für die meisten Bürgerinnen und Bürger in der Regel kaum erkennbar sind und auch deshalb systematisch unterschätzt werden. Deren Vorstellung, sie hätten “doch nichts zu verbergen” und ihr Vertrauen in die Sicherheitsversprechungen leisten dieser Entwicklung weiteren Vorschub. Schließlich setzt ein umfassender Selbstschutz zu viele spezielle Kenntnisse voraus, die die meisten Computernutzerinnen und -nutzer nicht haben.

Angesichts der fortschreitenden Digitalisierung und dem Wirken der Geheimdienste müssen Bürgerinnen und Bürger umfassend über Möglichkeiten und Grenzen des Selbstschutzes informiert und die Nutzbarkeit und Leistungsfähigkeit der Werkzeuge verbessert werden.

Doch die Autoren des White Papers machen auch deutlich, dass die Verlagerung staatlicher Schutzpflichten auf das Individuum der gesellschaftlichen Bedeutung des Grundrechts auf informationelle Selbstbestimmung nicht gerecht werden kann. Informationelle Privatheit ist keine Frage individueller Vorlieben, sondern wichtig für ein freiheitlich-demokratisches Gemeinwesen. Deshalb muss der Staat wieder stärker seinem in der deutschen Verfassung verankerten Auftrag, die Bevölkerung vor unverhältnismäßiger Überwachung zu schützen, nachkommen.

Möglichkeiten dazu werden auf der Computers, Privacy and Data Protection Conference (CPDP) erörtert, die vom 21. bis zum 23. Januar 2015 zum achten Mal in Brüssel stattfindet. Diese vom Fraunhofer ISI mit veranstaltete Konferenz ist die größte europäische Veranstaltung, bei der Vertreterinnen und Vertreter aus Politik, Wirtschaft, Wissenschaft und Gesellschaft zusammenkommen, um sich auszutauschen und aktuelle Herausforderungen in den Bereichen Informationstechnologie, Privatheit, Datenschutz und Recht zu diskutieren. Dr. Michael Friedewald wird dort am 23. Januar 2015 das Thema “Selbstdatenschutz” im Rahmen eines Panels zur Diskussion stellen, das vom “Forum Privatheit” organisiert wird.

Verfahren zur Bewertung von Datenschutzfolgen bei Überwachungssystemen

Bei neuen Überwachungsmöglichkeiten müssen jedes Mal die Sicherheitsinteressen gegen die Freiheitsrechte abgewogen werden. Im EU-Projekt SAPIENT hat ein Konsortium unter der Leitung des Fraunhofer-Instituts für System- und Innovationsforschung ISI ein Verfahren entwickelt, mit dem sich die Folgen von Überwachung für den Schutz personenbezogener Daten und anderer Grundrechte abschätzen lassen. Dieses Verfahren, das in einem Handbuch dokumentiert ist, kann Unternehmen und öffentlichen Stellen bei der Entscheidung helfen, ob eine neue Technologie oder Dienstleistung genutzt werden sollte.

Eine Vorabbewertung von Datenschutzfragen wird beim Einsatz von Überwachungstechnologien und -dienstleistungen bald gesetzlich verpflichtend sein: Die Europäische Union beispielsweise listet im Entwurf für die künftige europäische Datenschutzgrundverordnung mehrere Prinzipien auf, die bei der generellen Verarbeitung personenbezogener Daten beachtet werden müssen. Dazu gehören der begrenzte Einsatz von Überwachungsinstrumenten, die zeitlich beschränkte Speicherung der Daten sowie eine allgemeine Berücksichtigung von Bürgerrechten.

Um die möglichen Risiken für den Einzelnen ebenso wie für die ganze Gesellschaft zu eruieren, braucht es eine fundierte Prüfung, welche Auswirkungen eine neue Technologie oder Dienstleistung haben kann. Im Rahmen des EU-Projekts SAPIENT (Supporting fundamentAl rights, PrIvacy and Ethics in surveillaNce Technologies) hat ein Konsortium unter der Leitung des Fraunhofer-Instituts für System- und Innovationsforschung ISI ein Handbuch zur Abschätzung der Auswirkungen von Überwachung (Surveillance Impact Assessment) entwickelt.

Oft ist in der Literatur und in Forschungsprojekten nur von einer Abschätzung der Auswirkungen für die Privatsphäre (Privacy Impact Assessment) die Rede, doch Projektleiter Dr. Michael Friedewald vom Fraunhofer ISI betont: “Überwachungssysteme haben nicht nur Auswirkungen auf die Privatsphäre. Es können auch andere Grundrechte betroffen sein, beispielsweise das Recht auf freie Meinungsäußerung oder die Versammlungsfreiheit. Ebenso besteht die Gefahr, dass sensible Informationen zu Herkunft, Religion, politischer Einstellung, Gesundheit und Sexualität zusammengeführt und genutzt werden. Der im Rahmen von SAPIENT entwickelte Fragenkatalog deckt gesellschaftliche, wirtschaftliche, politische, rechtliche und ethische Aspekte ab.”

Zu den Fragen, die sich politische Entscheidungsträger, technische Entwickler und andere gesellschaftliche Akteure möglichst schon vor, spätestens aber während der Entwicklung des Produkts stellen sollten, gehören: Wird das neue Überwachungssystem wirklich gebraucht? Ist der Nutzen erklärbar? Für welchen Auftraggeber wird es entwickelt? Auf wen ist es gerichtet, wer ist davon betroffen? Überwiegen die Vor- oder die Nachteile? Ist es rechtlich in Ordnung? Ist es ethisch vertretbar? Welche Ressourcen werden gebraucht?

Anhand der Antworten auf diese und viele andere Fragen lassen sich der Einfluss und die Risiken der geplanten Technologien und Dienstleistungen einschätzen. Die identifizierten Risiken können hinsichtlich Konsequenzen und Wahrscheinlichkeit analysiert und priorisiert werden. Dann muss versucht werden, die wahrscheinlichsten und gravierendsten Risiken zu reduzieren beziehungsweise Lösungen dafür zu finden. Letztlich zielt der Fragenkatalog darauf ab, bei der Entscheidung zu helfen, ob das neue Produkt eingesetzt werden sollte – oder eben nicht. Die frühestmögliche Auseinandersetzung mit den Folgen ist wichtig, da so noch Einfluss auf die Produkt- oder Serviceentwicklung genommen werden kann.

Michael Friedewald weist in diesem Zusammenhang auf das Konzept von “Privacy by design” hin, das von der künftigen europäischen Datenschutzverordnung vorgeschrieben wird: “Es ist entscheidend für die Wahrung von Grundrechten, sich frühzeitig Fragen zur Privatsphäre und zum Datenschutz zu stellen. Nur so können mögliche Risiken erkannt und entsprechende Lösungen bereits im Entwicklungsprozess gefunden werden, statt sie im Nachhinein zu implementieren. Ein gutes Beispiel für den Privacy-by-design-Ansatz ist die automatische Datenlöschung nach einer bestimmten Zeit.”

Aus dem Fragenkatalog ist ein Handbuch für Politiker, Entwickler und andere wichtige Akteure entstanden, wie und wann auf intelligente Überwachung zurückgegriffen werden sollte und wie sie sich in Einklang mit der Achtung von Privatsphäre bringen lässt. Das Handbuch präsentiert eine ausführliche Version für eine umfassende Analyse komplexer Systeme und eine Kurzversion, die eine rasche erste Bewertung erlaubt.

Das Handbuch mit dem Bewertungsverfahren und dem Fragenkatalog kann unterwww.sapientproject.eu/SIA_Manual.pdf heruntergeladen werden.

Weitere Informationen zum Projekt SAPIENT gibt es unter www.sapientproject.eu.

Privacy and Trust in the Ubiquitous Information Society

The overall objective of the study was to provide information helping to develop and assess policy options on EU level in order to address existing or emerging challenges to effective data protection, privacy and trust resulting from the development towards the ubiquitous information society. The study provides information on the following aspects:

  • Overview and analysis of existing research and publications on possible effects of more ambient ICT use on privacy and trust,
  • Identification of challenges for privacy and data protection and for trust and confidence,
  • Description and assessment of possible responses,
  • Options for a policy response on EU level,

The study provides input for the development of a set of EU level measures responding to the challenges raised with respect to privacy and trust in the ubiquitous information society, based on an assessment of all available instruments: social dialogue, fostering technical development, international cooperation and ensuring a regulatory framework enabling citizens, businesses and public entities to achieve the maximum of the potential benefits.

Status

Completed project (01/2008 – 12/2008)

Client

European Commission, DG Information Society and Media, Unit B1

Partners

  • Trilateral Research and Consulting London, UK
  • Eidgenössische Technische Hochschule Zürich, CH
  • Vrije Universiteit Brussel, Research group on Law Science Technology & Society, BE

Publications

Official Deliverables

Friedewald, Michael, David Wright, Serge Gutwirth, Paul De Hert, Marc Langheinrich, Antje Dietrich, Andreas Salzmann, Anna Moscibroda, Gloria González Fuster, Katja Devries, Wim Schreurs, and Niels Van Dijk, “Privacy and Trust in the Ubiquitous Information Society: An annotated bibliography re privacy, trust and the Ubiquitous Information Society”, Inception Report (Deliverable 1) Fraunhofer ISI, Karlsruhe, 2008.

Friedewald, Michael, David Wright, Serge Gutwirth, Paul De Hert, Marc Langheinrich, Timo Leimbach, Gloria González Fuster, and Ion Iulia, “Privacy and Trust in the Ubiquitous Information Society: Analysis of the impact of convergent and pervasive ICT on privacy and data protection and needs and options for development of the legal framework”, Final Report for the European Commission Fraunhofer ISI, Karlsruhe, 2009. https://bookshop.europa.eu/en/privacy-and-trust-in-the-ubiquitous-information-society-pbKK0414601/

Articles

Wright, David, Serge Gutwirth, Michael Friedewald, Paul De Hert, Marc Langheinrich, and Anna Moscibroda, “Privacy, Trust and Policy-Making: Challenges and Responses”, Computer Law & Security Report, Vol. 25, No. 2, 2009, pp. 69-83.