Skip to main content

Policy Paper zur EU-Datenschutz-Grundverordnung: Datenschutz bleibt weitgehend Aufgabe der Mitgliedsstaaten

Am 4. Mai 2016 wurde die neue Europäische Datenschutz-Grundverordnung verkündet, die den Datenschutz in der EU stärken soll. Das vom Fraunhofer-Institut für System- und Innovationsforschung ISI koordinierte Forum Privatheit veröffentlicht zu diesem Anlass ein neues Policy Paper, das sich mit der Ausgestaltung der Grundverordnung befasst. Darin geben die Autoren eine Einschätzung ab, ob die zentralen Ziele einer Harmonisierung und Modernisierung des europäischen Datenschutzrechts sowie eine Wettbewerbsangleichung erreicht werden.

Mit der Europäischen Datenschutz-Grundverordnung ist bei Datenschützern, Aufsichtsbehörden und Bürgerinnen und Bürgern gleichermaßen die Hoffnung nach einer Stärkung des Datenschutzes in der EU verbunden. Insbesondere drei große Ziele sind an die Grundverordnung geknüpft: Diese soll zum einen zu einer Harmonisierung bzw. zu einheitlich geltenden Datenschutzregeln in Europa führen. Darüber hinaus soll mit ihr das Datenschutzrecht modernisiert und an neue technologische Entwicklungen angepasst werden. Ein drittes Ziel besteht in einer Wettbewerbsangleichung, also einer Stärkung des EU-Binnenmarkts durch vereinheitliche Datenschutz-Regelungen.

Im neuen Policy Paper „Die neue Datenschutz-Grundverordnung – Ist das Datenschutzrecht nun für heutige Herausforderungen gerüstet?“ nehmen die Wissenschaftlerinnen und Wissenschaftler des Forum Privatheit zur Grundverordnung Stellung. In Bezug auf eine Vereinheitlichung der Datenschutz-Regelungen in Europa benennt Prof. Dr. Alexander Roßnagel, Mitautor des Policy Papers und Leiter des Fachgebiets Öffentliches Recht an der Universität Kassel, zwei hierfür hinderliche Aspekte: „Die Datenschutz-Grundverordnung beinhaltet 70 Öffnungsklauseln, die bei der Zulässigkeit der Datenverarbeitung – insbesondere im gesamten öffentlichen Bereich –, den Betroffenenrechten, Erlaubnistatbeständen, dem Beschäftigungsdatenschutz oder der Meinungs- und Informationsfreiheit Regelungen an die EU-Mitgliedsstaaten überträgt. Hinzu kommt, dass diese Regelungen sehr abstrakt bleiben und von den Mitgliedsstaaten auf Basis ihrer eigenen Rechtstradition ausgelegt werden.“ Eine Harmonisierung des Datenschutzrechts wird so laut Roßnagel verhindert und stattdessen Rechtsunsicherheit geschaffen.

Ziel einer Wettbewerbsangleichung in Europa wird verfehlt

Ein zweites zentrales Ziel der Verordnung besteht in einer Stärkung des europäischen Binnenmarktes durch vereinheitliche Datenschutz-Regelungen. Das Policy Paper gelangt zu dem Schluss, dass auch dieses Vorhaben nicht erfüllt wird. Der Grund dafür liegt ebenfalls an möglichen unterschiedlichen Interpretationen der abstrakten Datenschutz-Regelungen durch die Mitgliedsstaaten. Allerdings kann ein Datenschutz-Ausschuss auf europäischer Ebene hier künftig eine bestimmte Auslegung der Grundverordnung festlegen – für Gerichte sind diese Beschlüsse aber nicht verbindlich, sondern sie stellen lediglich Empfehlungen dar.

Das dritte Ziel einer Modernisierung des Datenschutzrechts wird von der Grundverordnung teilweise erreicht. Einen zentralen Fortschritt sehen die Autoren des Policy Papers im „Marktortprinzip“: Demnach soll nicht mehr der Ort der Datenverarbeitung für die Anwendung des Datenschutzrechts entscheidend sein, sondern die Frage, ob Daten von sich in der EU aufhaltenden Personen verarbeitet werden. Außerdem sieht die Verordnung empfindliche Sanktionen bei Nichtbeachtung des Datenschutzes vor, die bis zu vier Prozent des globalen Jahresumsatzes von Unternehmen ausmachen können. Dr. Michael Friedewald, der das Forum Privatheit am Fraunhofer ISI koordiniert und ebenfalls am Policy Paper mitgewirkt hat, weist auf weitere Verbesserungen hin: „Zum Beispiel bieten Datenschutz-Folgenabschätzungen künftig die Möglichkeit, die vorwiegend durch datenverarbeitende Technologien entstehenden Risiken für den Datenschutz abzuschätzen und diese gering zu halten.“

Risikoneutralität ist ein Defizit der neuen Grundverordnung

Neben diesen positiven Aspekten weist das Policy Paper auch auf Schwachstellen hin, die einer Modernisierung des Datenschutzrechts im Wege stehen. So dürfen personenbezogene Daten weiterhin über Umwege erhoben werden. Zudem reicht in Zukunft ein berechtigtes Interesse eines Dritten – etwa eines Unternehmens – aus, um persönliche Daten zu verarbeiten. Das größte Manko der Verordnung ist aber ihre Risikoneutralität: Sie enthält keine einzige spezifische Regelung zu den großen Herausforderungen moderner Informationstechniken wie Big Data, Ubiquitous Computing, Cloud Computing oder vielen anderen Grundrechtrisiken. Auch beinhaltet die Grundverordnung Transparenzpflichten, diese sind jedoch durch Grundrechte, Geschäftsgeheimnisse oder Urheberrechte weitgehend eingeschränkt.

Angesichts der vielen Schwachstellen der Datenschutz-Grundverordnung fällt das Fazit im Policy Paper eindeutig aus: Eine Harmonisierung und Wettbewerbsangleichung des EU-Datenschutzrechts wird gar nicht, eine Modernisierung nur teilweise erreicht. Die Datenschutz-Regelungen der Mitgliedsstaaten haben zudem weiter Bestand. Insgesamt wurden damit viele Chancen zur Stärkung des Datenschutzes in der EU verpasst. Dennoch gibt es wie im Falle des „Marktortprinzips“ auch Fortschritte. Bevor die Grundverordnung in den kommenden zwei Jahren allerdings in Kraft treten kann, sind die Mitgliedstaaten, Aufsichtsbehörden, Verbände, der Europäische Datenschutz-Ausschuss sowie der europäische Gesetzgeber gefragt, so schnell wie möglich ergänzende rechtssichere und risikoadäquate Regelungen zu treffen.


Im vom BMBF geförderten Forum Privatheit setzen sich nationale und internationale Experten interdisziplinär mit Fragestellungen zum Schutz der Privatheit auseinander. Das Projekt wird vom Fraunhofer ISI koordiniert, Partner sind das Fraunhofer SIT, die Universität Hohenheim, die Universität Kassel, die Eberhard Karls Universität Tübingen, das Unabhängige Landeszentrum für Datenschutz Schleswig-Holstein sowie die Ludwig-Maximilians-Universität München. Die Forschungsergebnisse des Forums Privatheit fließen dabei nicht nur in den wissenschaftlichen Diskurs ein, sondern sollen auch Bürgerinnen und Bürger über Fragen des Privatheitsschutzes informieren.

„Verstecktes Internet“: Smarte Technologien und Internet der Dinge stellen Schutz der Privatheit vor neue Herausforderungen

Beliebte Alltagsgeräte wie Fernseher sind immer häufiger mit dem Internet verbunden oder verfügen über internetbasierte Zusatzdienste. Die dabei entstehenden Daten über das Nutzerverhalten, ihre Weitergabe und Verarbeitung sowie die zunehmende Komplexität „smarter“ Technologien stellen den Schutz der Privatheit und die informationelle Selbstbestimmung vor neue Herausforderungen. Im White Paper „Verstecktes Internet“ skizzieren die Expertinnen und Experten des Forschungsverbunds „Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt“ die aus Sicht des Privatheitsschutzes problematischen Aspekte smarter Technologien und zeigen mögliche Gestaltungspotenziale auf. Das White Paper konzentriert sich dabei auf die drei Anwendungsbereiche Smart TV, intelligente Autos sowie neue Endgeräte wie Smart Watches, die direkt am Körper getragen werden.

Vernetzte Smart TVs oder intelligente Armbänder, die über das „Internet der Dinge“ mit anderen Geräten, Dienstleistern und Herstellern verbunden sind, durchdringen zusehends den Alltag vieler Menschen. Die Nutzer schätzen besonders die netzbasierten Dienste und Funktionen dieser „smarten“ Geräte – ihnen ist jedoch häufig nicht bewusst, in welchem Umfang Nutzerdaten erhoben und zu welchen Zwecken sie weitergeleitet werden. Diese Probleme verschärfen sich mit der zunehmenden Komplexität smarter Technologien und es ist für die Nutzer kaum mehr nachzuvollziehen, ob und wie sich personenbezogene Daten vor ungewollten Zugriffen und Weitergaben schützen lassen.

Vor dem Hintergrund dieser veränderten Rahmenbedingungen für den Privatheits- und Datenschutz beschreibt der Forschungsverbund „Forum Privatheit“ im White Paper „Verstecktes Internet“ die Risiken, die bei der Nutzung von „Smart TVs“, „Smart Cars“ und „Wearables“ entstehen können: So erheben etwa Smart TVs schon beim gewöhnlichen Fernsehen Nutzungs- und Verhaltensdaten und ermöglichen über Foto-, Audio- und Videoaufnahmen sogar eine persönliche Identifikation. Dadurch lassen sich nicht nur Einzelpersonen sondern auch große Teile der Bevölkerung überwachen. All dies trifft in ähnlicher Weise auf vernetzte Autos bzw. „Smart Cars“ zu, die fahrzeugbezogene Daten, das Verhalten des Fahrers sowie Umgebungsdaten erfassen und diese an Fahrzeughersteller oder andere Verkehrsteilnehmer weiterleiten können. Neben Informationen über Fahrstil, Aufenthaltsort oder Fahrstrecke ließen sich durch die Verknüpfung mit anderen Daten zudem persönliche Merkmale und Gewohnheiten der Nutzer ableiten. Dies ist auch bei sogenannten „Wearables“ der Fall, also Geräten wie intelligenten Fitnessarmbändern oder Smart Watches, die Nutzer direkt am Körper tragen. Durch die Erhebung von Gesundheitsdaten werden zum Beispiel tiefe Einblicke in die privaten Lebensumstände der Nutzer erfasst.

Peter Zoche, der am Fraunhofer ISI die Forschungsaktivitäten des Forum Privatheit koordiniert, nennt an Hersteller, Nutzer und die Politik gerichtet einige zentrale Problembereiche und Gestaltungspotenziale: „Der Forderung nach informationeller Selbstbestimmung stehen ein intransparenter Datenhandel und versteckt erfolgende Datenerhebungen gegenüber. Hinzu kommt, sich die Grundeinstellung smarter Geräte oft nur bedingt verändern lässt. Und wenn Nutzer aktiv werden möchten, um selbst für mehr Datenschutz zu sorgen, sehen sie sich mit einer Informationsflut und komplexen Geschäftsbedingungen konfrontiert.“ Laut Zoche sollten vernetzte Geräte und Anwendungen in Zukunft über datenschutzfreundliche Grundkonfigurationen (Privacy by Default) verfügen und Nutzer durch visuelle oder akustische Hinweise auf mögliche Datentransfers hingewiesen und ihre Informationsbedarfe hierbei berücksichtigt werden.

Des Weiteren sollten in Zukunft auch Möglichkeiten der politisch-rechtlichen Regulierung dafür sorgen, dass smarte Technologien stärker in Einklang mit den Prinzipien des Datenschutzes stehen. Sanktionsmöglichkeiten könnten genauso wie die Durchsetzung einer EU-weiten Datenschutz-Grundverordnung geeignete Voraussetzungen zur Gewährleistung von Privatheit im digitalen Zeitalter schaffen. Neben staatlichen Institutionen und Initiativen müssen jedoch auch wirtschaftliche Akteure dazu beitragen, dass Datenschutz zu einem Kernelement bei der Einführung neuer smarter Geräte und Anwendungen wird (Privacy by Design). Nicht zuletzt sind auch die Nutzer gefragt, künftig noch bewusster mit ihren persönlichen Daten sowie den damit verbundenen Risiken umzugehen.

Das White Paper kann hier heruntergeladen werden.

 

In the press: Protection of neuro data

Hallinan, D.; Schütz, P.; Friedewald, M.; Hert, P. d. (2015): Wer kann sie erraten? In: Süddeutsche Zeitung vom 31.Januar/1.Februar 2015, S. 17.

http://www.sueddeutsche.de/digital/schutz-fuer-neurodaten-grundrecht-gegen-das-gedankenlesen-1.2328391

Gedankenfreiheit ist das Herzstück einer demokratischen Ordnung. In Zeiten der massenhaften Überwachung physischer und virtueller Räume ist der menschliche Geist die letzte Bastion absoluter Freiheit und Privatheit. So könnte man meinen – doch auch diese Bastion scheint zu bröckeln. Denn es werden mehr und mehr Neurodaten gesammelt, also Daten zu den Abläufen im Gehirn.

 

 

Just published: „Open consent, biobanking and data protection law“

Hallinan, D.; Friedewald, M. (2015): Open Consent, Biobanking and Data Protection Law Can Open Consent be ‚Informed‘ under the Forthcoming Data Protection Regulation? In: Life Sciences, Society and Policy 11, Nr. 1. http://www.lsspjournal.com/content/pdf/s40504-014-0020-9.pdf

This article focuses on whether a certain form of consent used by biobanks – open consent – is compatible with the Proposed Data Protection Regulation. In an open consent procedure, the biobank requests consent once from the data subject for all future research uses of genetic material and data. However, as biobanks process personal data, they must comply with data protection law. Data protection law is currently undergoing reform. The Proposed Data Protection Regulation is the culmination of this reform and, if voted into law, will constitute a new legal framework for biobanking. The Regulation puts strict conditions on consent – in particular relating to information which must be given to the data subject. It seems clear that open consent cannot meet these requirements. 4 categories of information cannot be provided with adequate specificity: purpose, recipient, possible third country transfers, data collected. However, whilst open consent cannot meet the formal requirements laid out by the Regulation, this is not to say that these requirements are substantially undebateable. Two arguments could be put forward suggesting the applicable consent requirements should be rethought. First, from policy documents regarding the drafting process, it seems that the informational requirements in the Regulation are so strict in order to protect the data subject from risks inherent in the use of the consent mechanism in a certain context – exemplified by the online context. There are substantial differences between this context and the biobanking context. Arguably, a consent transaction in the biobanking does not present the same type of risk to the data subject. If the risks are different, then perhaps there are also grounds for a reconsideration of consent requirements? Second, an argument can be made that the legislator drafted the Regulation based on certain assumptions as to the nature of ‘data’. The authors argue that these assumptions are difficult to apply to genetic data and accordingly a different approach to consent might be preferable. Such an approach might be more open consent friendly.

 

 

Verfahren zur Bewertung von Datenschutzfolgen bei Überwachungssystemen

Bei neuen Überwachungsmöglichkeiten müssen jedes Mal die Sicherheitsinteressen gegen die Freiheitsrechte abgewogen werden. Im EU-Projekt SAPIENT hat ein Konsortium unter der Leitung des Fraunhofer-Instituts für System- und Innovationsforschung ISI ein Verfahren entwickelt, mit dem sich die Folgen von Überwachung für den Schutz personenbezogener Daten und anderer Grundrechte abschätzen lassen. Dieses Verfahren, das in einem Handbuch dokumentiert ist, kann Unternehmen und öffentlichen Stellen bei der Entscheidung helfen, ob eine neue Technologie oder Dienstleistung genutzt werden sollte.

Eine Vorabbewertung von Datenschutzfragen wird beim Einsatz von Überwachungstechnologien und -dienstleistungen bald gesetzlich verpflichtend sein: Die Europäische Union beispielsweise listet im Entwurf für die künftige europäische Datenschutzgrundverordnung mehrere Prinzipien auf, die bei der generellen Verarbeitung personenbezogener Daten beachtet werden müssen. Dazu gehören der begrenzte Einsatz von Überwachungsinstrumenten, die zeitlich beschränkte Speicherung der Daten sowie eine allgemeine Berücksichtigung von Bürgerrechten.

Um die möglichen Risiken für den Einzelnen ebenso wie für die ganze Gesellschaft zu eruieren, braucht es eine fundierte Prüfung, welche Auswirkungen eine neue Technologie oder Dienstleistung haben kann. Im Rahmen des EU-Projekts SAPIENT (Supporting fundamentAl rights, PrIvacy and Ethics in surveillaNce Technologies) hat ein Konsortium unter der Leitung des Fraunhofer-Instituts für System- und Innovationsforschung ISI ein Handbuch zur Abschätzung der Auswirkungen von Überwachung (Surveillance Impact Assessment) entwickelt.

Oft ist in der Literatur und in Forschungsprojekten nur von einer Abschätzung der Auswirkungen für die Privatsphäre (Privacy Impact Assessment) die Rede, doch Projektleiter Dr. Michael Friedewald vom Fraunhofer ISI betont: „Überwachungssysteme haben nicht nur Auswirkungen auf die Privatsphäre. Es können auch andere Grundrechte betroffen sein, beispielsweise das Recht auf freie Meinungsäußerung oder die Versammlungsfreiheit. Ebenso besteht die Gefahr, dass sensible Informationen zu Herkunft, Religion, politischer Einstellung, Gesundheit und Sexualität zusammengeführt und genutzt werden. Der im Rahmen von SAPIENT entwickelte Fragenkatalog deckt gesellschaftliche, wirtschaftliche, politische, rechtliche und ethische Aspekte ab.“

Zu den Fragen, die sich politische Entscheidungsträger, technische Entwickler und andere gesellschaftliche Akteure möglichst schon vor, spätestens aber während der Entwicklung des Produkts stellen sollten, gehören: Wird das neue Überwachungssystem wirklich gebraucht? Ist der Nutzen erklärbar? Für welchen Auftraggeber wird es entwickelt? Auf wen ist es gerichtet, wer ist davon betroffen? Überwiegen die Vor- oder die Nachteile? Ist es rechtlich in Ordnung? Ist es ethisch vertretbar? Welche Ressourcen werden gebraucht?

Anhand der Antworten auf diese und viele andere Fragen lassen sich der Einfluss und die Risiken der geplanten Technologien und Dienstleistungen einschätzen. Die identifizierten Risiken können hinsichtlich Konsequenzen und Wahrscheinlichkeit analysiert und priorisiert werden. Dann muss versucht werden, die wahrscheinlichsten und gravierendsten Risiken zu reduzieren beziehungsweise Lösungen dafür zu finden. Letztlich zielt der Fragenkatalog darauf ab, bei der Entscheidung zu helfen, ob das neue Produkt eingesetzt werden sollte – oder eben nicht. Die frühestmögliche Auseinandersetzung mit den Folgen ist wichtig, da so noch Einfluss auf die Produkt- oder Serviceentwicklung genommen werden kann.

Michael Friedewald weist in diesem Zusammenhang auf das Konzept von „Privacy by design“ hin, das von der künftigen europäischen Datenschutzverordnung vorgeschrieben wird: „Es ist entscheidend für die Wahrung von Grundrechten, sich frühzeitig Fragen zur Privatsphäre und zum Datenschutz zu stellen. Nur so können mögliche Risiken erkannt und entsprechende Lösungen bereits im Entwicklungsprozess gefunden werden, statt sie im Nachhinein zu implementieren. Ein gutes Beispiel für den Privacy-by-design-Ansatz ist die automatische Datenlöschung nach einer bestimmten Zeit.“

Aus dem Fragenkatalog ist ein Handbuch für Politiker, Entwickler und andere wichtige Akteure entstanden, wie und wann auf intelligente Überwachung zurückgegriffen werden sollte und wie sie sich in Einklang mit der Achtung von Privatsphäre bringen lässt. Das Handbuch präsentiert eine ausführliche Version für eine umfassende Analyse komplexer Systeme und eine Kurzversion, die eine rasche erste Bewertung erlaubt.

Das Handbuch mit dem Bewertungsverfahren und dem Fragenkatalog kann unterwww.sapientproject.eu/SIA_Manual.pdf heruntergeladen werden.

Weitere Informationen zum Projekt SAPIENT gibt es unter www.sapientproject.eu.