Skip to main content

Arbeitspapier zu DatenmÀrkten erschienen

Das Forum Privatheit hat ein Arbeitspapier zur Struktur und Funktionsweise von und Wertschöpfung in DatenmÀrkten vorgelegt:

BrĂŒndl, S.; Matt, C.; Hess, T. (2015). Wertschöpfung in DatenmĂ€rkten: Eine explorative Untersuchung am Beispiel des deutschen Marktes fĂŒr persönliche Daten. Forschungsbericht. (Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt). Karlsruhe: Fraunhofer ISI.

New article: Civilizing drones: Military discourses going civil

Braun, Sven, Michael Friedewald, and Govert Valkenburg, “Civilizing drones: Military discourses going civil“, Science & Technology Studies, Vol. 28, No. 2, 2015, pp. 73-87.

This article presents an account of how a technology being transferred from one area of deployment to another entails that specific discourses travel along. In particular, we show that the development of Unmanned Aircraft Systems (UAS, often referred to as drones) is importantly determined by its military progeny, as the civilian context inherits specific discourses from the military context. Contemporary ideas of privacy and security in drone use can be largely traced back to this original context. We show that concepts and their relative importance primarily depend on the discourses that travel together with the technologies on which the concepts aim to act. There is no technological reason for privacy and security to be implemented the way they are, nor can their implementation be explained merely from socio-political or moral discourses. Instead, material and discursive mechanisms successfully enact and reproduce the dominant military viewpoint.

“Hidden Internet”: Smart technologies and the Internet of Things pose new challenges to privacy protection

Popular everyday appliances – like televisions – are increasingly connected to the internet and engage in the collection of personal data. The resulting data on user behavior, the transmission and processing of this data and the increasing complexity of smart technologies pose new challenges to privacy protection and informational self-determination. In the White Paper “Hidden Internet“, experts from the research network “Forum Privacy and self-determined life in the digital world“ outline the problematic aspects of smart technologies for privacy and how these issues might be addressed. The White Paper focuses on three applications – smart TVs, smart cars and wearable devices like smart watches.

Smart TVs or smart bracelets that are connected to other devices, services and manufacturers via the Internet of Things increasingly belong to the everyday life of society. Users welcome the internet-based services and functions of these smart appliances – but are often not aware of the extent to which their data are being collected, and processed. These problems are enhanced by the increasing complexity of smart technologies; it is almost impossible for users to follow whether and how personal data can be protected against unauthorized access or disclosure.

In the light of these changing framework conditions for privacy and data protection, the research network “Forum Privacy“ describes the risks that may result from using smart TVs, smart cars and wearables in its White Paper “The hidden Internet“. For instance, smart TVs already gather use and behavioral data when people are just watching television and even enable personal identification by photo, audio and video recording. This means that large segments of the population can be monitored. All this applies in a similar way to smart cars that record vehicle-related, driver behavior and environmental data and can transmit these to vehicle manufacturers or other transport users. Alongside information about driving style, location or route, the personal characteristics and habits of the drivers can be derived by linking this information with other data. This is also the case for so-called wearables – devices like smart fitness bracelets or smart watches that are worn in contact with the skin. The health data wearables gather allows detailed insights into the private lives of users.

Peter Zoche, who coordinates the research activities of the Forum Privacy Project at Fraunhofer ISI, cites some of the main problems and design potentials for manufacturers, users and policymakers: “The demand for informational self-determination is faced with non-transparent data trading and concealed data collection. On top of this, it is often hard to change the default settings of smart devices. And if users want to take action themselves to ensure greater data protection, they are confronted by a flood of information and complex terms and conditions“. According to Zoche, networked devices and applications should have privacy-enhancing settings (privacy by default), take users’ information requirements into account and have visual or acoustic signals that alert users to possible data transfers.

Furthermore, in future, political and legal regulations should ensure that smart technologies are more in line with the principles of data protection. Appropriate conditions for guaranteeing privacy in the digital age could be created using sanctions, as well as by enforcing EU data protection legislation. Alongside state institutions and initiatives, however, industry must also contribute by making data protection a core design element when introducing new smart devices and applications (privacy by design). Last, but not least, users themselves will need to handle their personal data and the associated risks with greater awareness.


 

In the Forum Privacy Project, which is funded by the German Federal Ministry of Education and Research (BMBF), national and international experts from different disciplines address the issues surrounding privacy protection over a period of three years. The project is coordinated by Fraunhofer ISI, and the partners are Fraunhofer SIT, the University of Hohenheim, the University of Kassel, the Eberhard Karls University of TĂŒbingen, the UnabhĂ€ngige Landeszentrum fĂŒr Datenschutz Schleswig-Holstein and the Ludwig-Maximilian University of Munich. The research results of the Forum Privacy Project are intended not only as input to scientific debate, but also to be of use in educating normal citizens regarding privacy protection.

Just published: Privacy and Security Perceptions of European Citizens: A Test of the Trade-off Model

Friedewald, Michael, Marc van Lieshout, Sven Rung, Merel Ooms, and Jelmer Ypma, “Privacy and Security Perceptions of European Citizens: A Test of the Trade-off Model“, in Jan Camenisch, Simone Fischer-HĂŒbner, and Marit Hansen (eds.), Privacy and Identity Management for the Future Internet in the Age of Globalisation: 9th IFIP WG 9.2, 9.5, 9.6/11.7, 11.4, 11.6/SIG 9.2.2 International Summer School, Patras, Greece, September 7-12, 2014, Revised Selected Papers, Springer, Heidelberg, Berlin, 2015, pp. 39-53. DOI: 10.1007/978-3-319-18621-4_4

This paper considers the relationship between privacy and security and, in particular, the traditional ”trade-off” paradigm that argues that citizens might be willing to sacrifice some privacy for more security. Academics have long argued against the trade-off paradigm, but these arguments have often fallen on deaf ears. Based on data gathered in a pan-European survey we show that both privacy and security are important to European citizens and that there is no significant correlation between people’s valuation of privacy and security.

„Verstecktes Internet“: Smarte Technologien und Internet der Dinge stellen Schutz der Privatheit vor neue Herausforderungen

Beliebte AlltagsgerĂ€te wie Fernseher sind immer hĂ€ufiger mit dem Internet verbunden oder verfĂŒgen ĂŒber internetbasierte Zusatzdienste. Die dabei entstehenden Daten ĂŒber das Nutzerverhalten, ihre Weitergabe und Verarbeitung sowie die zunehmende KomplexitĂ€t „smarter“ Technologien stellen den Schutz der Privatheit und die informationelle Selbstbestimmung vor neue Herausforderungen. Im White Paper „Verstecktes Internet“ skizzieren die Expertinnen und Experten des Forschungsverbunds „Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt“ die aus Sicht des Privatheitsschutzes problematischen Aspekte smarter Technologien und zeigen mögliche Gestaltungspotenziale auf. Das White Paper konzentriert sich dabei auf die drei Anwendungsbereiche Smart TV, intelligente Autos sowie neue EndgerĂ€te wie Smart Watches, die direkt am Körper getragen werden.

Vernetzte Smart TVs oder intelligente ArmbĂ€nder, die ĂŒber das „Internet der Dinge“ mit anderen GerĂ€ten, Dienstleistern und Herstellern verbunden sind, durchdringen zusehends den Alltag vieler Menschen. Die Nutzer schĂ€tzen besonders die netzbasierten Dienste und Funktionen dieser „smarten“ GerĂ€te – ihnen ist jedoch hĂ€ufig nicht bewusst, in welchem Umfang Nutzerdaten erhoben und zu welchen Zwecken sie weitergeleitet werden. Diese Probleme verschĂ€rfen sich mit der zunehmenden KomplexitĂ€t smarter Technologien und es ist fĂŒr die Nutzer kaum mehr nachzuvollziehen, ob und wie sich personenbezogene Daten vor ungewollten Zugriffen und Weitergaben schĂŒtzen lassen.

Vor dem Hintergrund dieser verĂ€nderten Rahmenbedingungen fĂŒr den Privatheits- und Datenschutz beschreibt der Forschungsverbund „Forum Privatheit“ im White Paper „Verstecktes Internet“ die Risiken, die bei der Nutzung von „Smart TVs“, „Smart Cars“ und „Wearables“ entstehen können: So erheben etwa Smart TVs schon beim gewöhnlichen Fernsehen Nutzungs- und Verhaltensdaten und ermöglichen ĂŒber Foto-, Audio- und Videoaufnahmen sogar eine persönliche Identifikation. Dadurch lassen sich nicht nur Einzelpersonen sondern auch große Teile der Bevölkerung ĂŒberwachen. All dies trifft in Ă€hnlicher Weise auf vernetzte Autos bzw. „Smart Cars“ zu, die fahrzeugbezogene Daten, das Verhalten des Fahrers sowie Umgebungsdaten erfassen und diese an Fahrzeughersteller oder andere Verkehrsteilnehmer weiterleiten können. Neben Informationen ĂŒber Fahrstil, Aufenthaltsort oder Fahrstrecke ließen sich durch die VerknĂŒpfung mit anderen Daten zudem persönliche Merkmale und Gewohnheiten der Nutzer ableiten. Dies ist auch bei sogenannten „Wearables“ der Fall, also GerĂ€ten wie intelligenten FitnessarmbĂ€ndern oder Smart Watches, die Nutzer direkt am Körper tragen. Durch die Erhebung von Gesundheitsdaten werden zum Beispiel tiefe Einblicke in die privaten LebensumstĂ€nde der Nutzer erfasst.

Peter Zoche, der am Fraunhofer ISI die ForschungsaktivitĂ€ten des Forum Privatheit koordiniert, nennt an Hersteller, Nutzer und die Politik gerichtet einige zentrale Problembereiche und Gestaltungspotenziale: „Der Forderung nach informationeller Selbstbestimmung stehen ein intransparenter Datenhandel und versteckt erfolgende Datenerhebungen gegenĂŒber. Hinzu kommt, sich die Grundeinstellung smarter GerĂ€te oft nur bedingt verĂ€ndern lĂ€sst. Und wenn Nutzer aktiv werden möchten, um selbst fĂŒr mehr Datenschutz zu sorgen, sehen sie sich mit einer Informationsflut und komplexen GeschĂ€ftsbedingungen konfrontiert.“ Laut Zoche sollten vernetzte GerĂ€te und Anwendungen in Zukunft ĂŒber datenschutzfreundliche Grundkonfigurationen (Privacy by Default) verfĂŒgen und Nutzer durch visuelle oder akustische Hinweise auf mögliche Datentransfers hingewiesen und ihre Informationsbedarfe hierbei berĂŒcksichtigt werden.

Des Weiteren sollten in Zukunft auch Möglichkeiten der politisch-rechtlichen Regulierung dafĂŒr sorgen, dass smarte Technologien stĂ€rker in Einklang mit den Prinzipien des Datenschutzes stehen. Sanktionsmöglichkeiten könnten genauso wie die Durchsetzung einer EU-weiten Datenschutz-Grundverordnung geeignete Voraussetzungen zur GewĂ€hrleistung von Privatheit im digitalen Zeitalter schaffen. Neben staatlichen Institutionen und Initiativen mĂŒssen jedoch auch wirtschaftliche Akteure dazu beitragen, dass Datenschutz zu einem Kernelement bei der EinfĂŒhrung neuer smarter GerĂ€te und Anwendungen wird (Privacy by Design). Nicht zuletzt sind auch die Nutzer gefragt, kĂŒnftig noch bewusster mit ihren persönlichen Daten sowie den damit verbundenen Risiken umzugehen.

Das White Paper kann hier heruntergeladen werden.

 

Policy Paper zum Thema “Das versteckte Internet” mit Empfehlungen an Wirtschaft und Politik online

Die Erweiterung von herkömmlichen Fernsehern, Autos und Brillen um internetbasierte Zusatzfunktionen, etwa die Kommunikation des Fernsehers mit Internetdiensten, fĂŒgt sich dermaßen unsichtbar in die Benutzung ein, dass den Nutzern kaum noch ersichtlich ist, wie viele Daten wo, wann und zu welchem Zweck erhoben, genutzt und wem diese persönlichen Informationen zugĂ€nglich gemacht werden. Hier Ă€ußert sich zunĂ€chst ein eklatanter Mangel an Transparenz, den das Forum Privatheit mit dem White Paper „Das versteckte Internet“ adressiert.

Vor dem Hintergrund der Ausweitung internetbasierter Technologien macht das Forum Privatheit im Policy Paper „Verstecktes Internet“ eine Reihe von VerbesserungsvorschlĂ€gen, die sich an Entscheider aus Wirtschaft und Politik richten und den bestehenden Datenschutz stĂ€rken sollen.

Die empfohlenen Handlungsoptionen umfassen eine transparente Integration internetbasierter Zusatzfunktionen in bislang nicht vernetzte GerĂ€te genauso wie eine datenschutzfreundliche GerĂ€tekonfiguration (Privacy by Default) oder eine Kennzeichnung und Zertifizierung nach Prinzipien des Datenschutzes. Auch Möglichkeiten der Aus-, Weiterbildung und AufklĂ€rung zur Sensibilisierung von Datenschutzfragen sowie der politisch-rechtlichen Regulierung sollten genutzt werden, um bislang oft ĂŒberflĂŒssige Eingriffe in Nutzerrechte sowie eklatante Transparenz-MĂ€ngel stark einzuschrĂ€nken.

Durch die Umsetzung der Handlungsoptionen ließen sich personenbezogene Daten in Zukunft zweckgebundener erheben und fĂŒr die Nutzerinnen und Nutzer wĂ€re ihre weitere Verwendung zudem nachvollziehbarer.

 

In the press: Protection of neuro data

Hallinan, D.; SchĂŒtz, P.; Friedewald, M.; Hert, P. d. (2015): Wer kann sie erraten? In: SĂŒddeutsche Zeitung vom 31.Januar/1.Februar 2015, S. 17.

http://www.sueddeutsche.de/digital/schutz-fuer-neurodaten-grundrecht-gegen-das-gedankenlesen-1.2328391

Gedankenfreiheit ist das HerzstĂŒck einer demokratischen Ordnung. In Zeiten der massenhaften Überwachung physischer und virtueller RĂ€ume ist der menschliche Geist die letzte Bastion absoluter Freiheit und Privatheit. So könnte man meinen – doch auch diese Bastion scheint zu bröckeln. Denn es werden mehr und mehr Neurodaten gesammelt, also Daten zu den AblĂ€ufen im Gehirn.

 

 

Just published: “Open consent, biobanking and data protection law”

Hallinan, D.; Friedewald, M. (2015): Open Consent, Biobanking and Data Protection Law Can Open Consent be ‘Informed’ under the Forthcoming Data Protection Regulation? In: Life Sciences, Society and Policy 11, Nr. 1. http://www.lsspjournal.com/content/pdf/s40504-014-0020-9.pdf

This article focuses on whether a certain form of consent used by biobanks – open consent – is compatible with the Proposed Data Protection Regulation. In an open consent procedure, the biobank requests consent once from the data subject for all future research uses of genetic material and data. However, as biobanks process personal data, they must comply with data protection law. Data protection law is currently undergoing reform. The Proposed Data Protection Regulation is the culmination of this reform and, if voted into law, will constitute a new legal framework for biobanking. The Regulation puts strict conditions on consent – in particular relating to information which must be given to the data subject. It seems clear that open consent cannot meet these requirements. 4 categories of information cannot be provided with adequate specificity: purpose, recipient, possible third country transfers, data collected. However, whilst open consent cannot meet the formal requirements laid out by the Regulation, this is not to say that these requirements are substantially undebateable. Two arguments could be put forward suggesting the applicable consent requirements should be rethought. First, from policy documents regarding the drafting process, it seems that the informational requirements in the Regulation are so strict in order to protect the data subject from risks inherent in the use of the consent mechanism in a certain context – exemplified by the online context. There are substantial differences between this context and the biobanking context. Arguably, a consent transaction in the biobanking does not present the same type of risk to the data subject. If the risks are different, then perhaps there are also grounds for a reconsideration of consent requirements? Second, an argument can be made that the legislator drafted the Regulation based on certain assumptions as to the nature of ‘data’. The authors argue that these assumptions are difficult to apply to genetic data and accordingly a different approach to consent might be preferable. Such an approach might be more open consent friendly.