Skip to main content

“Zur Verbesserung des Datenschutzes müssen viele Akteure zusammenarbeiten und besser ausgestattet werden“

Forum-Privatheit-Sprecher Alexander Roßnagel diskutierte mit Expertinnen und Experten aus Wissenschaft und Praxis über die notwendigen Voraussetzungen einer wirksamen Datenschutz-Grundverordnung.


Die im Mai vergangenen Jahres in Kraft getretene Datenschutz-Grundverordnung (DSGVO) enthält innovative Instrumente, die es im deutschen Datenschutzrecht bislang nicht gab. Die Erwartungen an diese Instrumente sind laut Forum-Privatheit-Sprecher Prof. Dr. Alexander Roßnagel sehr hoch: „Sie sollen zu einem gerechteren, passgenaueren und praktikableren Datenschutz führen.“ Der Rechtswissenschaftler der Universität Kassel hatte daher zum alljährlichen CAST-Workshop „Recht und IT-Sicherheit“ eingeladen, um mit Expertinnen und Experten aus Forschung und Praxis zu klären, inwiefern diese Erwartungen bisher erfüllt wurden – und welche Voraussetzungen möglicherweise noch geschaffen werden müssen, damit die Datenschutz-Grundverordnung in Deutschland wirksam umgesetzt werden kann. Besonders diskutiert wurden diese Innovationen der DSGVO:

Die DSGVO ermöglicht Verbänden, an ihre Branche angepasste Verhaltensregeln für die Datenverarbeitung festzulegen.

„Solche verbindlichen Verhaltensregeln könnten durchaus zu einem effektiveren Datenschutz und zu mehr Rechtssicherheit führen“, meinte dazu Dr. Joachim Rieß, Konzerndatenschutzbeauftragter der Daimler AG. „Allerdings sollten auch bei einer Verbänderegulierung die Wettbewerbsbedingungen beachtet werden.“

Datenschutzverantwortliche haben die Möglichkeit, die DSGVO-Konformität ihrer Datenverarbeitungsvorgänge zertifizieren zu lassen und die Zertifikate als Wettbewerbsvorteil zu nutzen.

Dies wäre unter anderem für Cloud Computing eine große Unterstützung. Henry Krasemann, im ULD (Unabhängiges Landeszentrum für Datenschutz) in Schleswig-Holstein für Zertifizierungen zuständig, verwies jedoch darauf, dass sich dafür erst die entsprechenden Mechanismen bilden müssten. Es seien noch viele Abstimmungen zwischen Aufsichtsbehörden, Akkreditierungsstellen, Datenschutzausschuss und Europäischer Kommission notwendig. „Hier stehen wir immer noch am Anfang“, sagte Krasemann. 

Wer riskante Verarbeitungen durchführt, muss eine Datenschutzfolgenabschätzung durchführen, damit er die Risiken für betroffene Personen reduzieren kann.

„Nur wer die Risiken seiner Datenverarbeitung genau kennt, kann diese im Sinne des ‚Privacy by Design‘ frühzeitig vermeiden“, so Dr. Michael Friedewald vom Fraunhofer Institut für System- und Innovationsforschung ISI und Koordinator des „Forum Privatheit“. Zuvor seien zahlreiche praktische Aspekte zu berücksichtigen: von der Wahl der richtigen Bewertungskriterien bis hin zur Einbeziehung der Betroffenen in den Bewertungsprozess.

Betroffene Personen erhalten durch die DSGVO zusätzliche Beschwerde- und Klagemöglichkeiten und können sich nun auch von Verbänden vertreten lassen.

„Dies erhöht die Durchsetzungskraft der Interessen für mehr Datenschutz“, betonte Heiko Dünkel vom Verbraucherzentrale Bundesverband e.V. „Dieser Punkt ist nicht zu unterschätzen: Denn die Datenschutzerklärung bei Facebook versteht man nach zehnmaligem Lesen auch als Jurist nicht.“ 

Schließlich haben Aufsichtsbehörden jetzt die Möglichkeit, drakonische Sanktionen für Datenschutzverstöße zu verhängen und damit dem Datenschutzrecht Respekt zu verschaffen.

„Die DSGVO ist – entgegen Gerüchten – kein zahnloser Papiertiger, ganz im Gegenteil: Wir haben mit dem Instrument der Sanktionen und hohen Bußgeldstrafen ein scharfes Schwert, das wir bei schweren Verstößen auch nutzen werden“, erklärte Christina Rost, beim Hessischen Beauftragten für Datenschutz und Informationsfreiheit für Sanktionen zuständig.

Das Fazit der Diskussion fasste Rechtsexperte Roßnagel so zusammen: „Die Datenschutz-Grundverordnung hat zwar innovative Instrumente angekündigt, diese aber unzureichend geregelt. Um wirksam zu werden, ist die DSGVO auf die Zusammenarbeit vieler Akteure angewiesen. Dies erfordert viele weitere rechtliche und organisatorische Maßnahmen, entsprechende Ausstattungen und Ressourcen bei Behörden und Unternehmen. Diese Voraussetzungen sind noch lange nicht überall gegeben.“


Im Forum Privatheit setzen sich Expertinnen und Experten aus sieben wissenschaftlichen Institutionen interdisziplinär, kritisch und unabhängig mit Fragestellungen zum Schutz der Privatheit auseinander. Das Projekt wird vom Fraunhofer ISI koordiniert. Weitere Partner sind das Fraunhofer SIT, die Universität Duisburg-Essen, das Wissenschaftliche Zentrum für Informationstechnik-Gestaltung (ITeG) der Universität Kassel, die Eberhard Karls Universität Tübingen, die Ludwig-Maximilians-Universität München sowie das Unabhängige Landes­zentrum für Datenschutz Schleswig-Holstein. Das BMBF fördert das Forum Privatheit, um den öffentlichen Diskurs zu den Themen Privatheit und Datenschutz anzuregen.

Sprecher „Forum Privatheit“: 
Prof. Dr. Alexander Roßnagel
Universität Kassel
Projektgruppe verfassungsverträgliche Technikgestaltung (provet) am Wissenschaftlichen Zentrum für Informationstechnik-Gestaltung (ITeG)
Tel: 0561/804-3130 oder 2874
E-Mail: a.rossnagel@uni-kassel.de

Projektkoordination „Forum Privatheit“:
Dr. Michael Friedewald
Fraunhofer-Institut für System- und Innovationsforschung ISI
Competence Center Neue Technologien
Tel.: 0721 6809-146
E-Mail: Michael.Friedewald@isi.fraunhofer.de 

Presse und Kommunikation „Forum Privatheit“:
Barbara Ferrarese, M.A.
Fraunhofer-Institut für System- und Innovationsforschung ISI
Tel.: 0721 6809-678
E-Mail: presse@forum-privatheit.de

https://www.forum-privatheit.de/forum-privatheit-de/index.php
Twitter: @ForumPrivatheit

Neues Projekt SPARTA stärkt europäische Kompetenzen im Bereich Cybersicherheit

Im gerade gestarteten EU-Projekt SPARTA haben sich Institutionen aus 14 EU-Ländern zusammengeschlossen, um gemeinsam Strategien, Technologien und Kompetenzen für die Cybersicherheit zu erforschen. Das Projekt soll zum Aufbau eines weltweit führenden Kompetenzzentrums für Cybersicherheit mit Sitz in der EU beitragen und Europa in diesem Bereich unabhängiger machen.

Die steigende Zahl der Cyberattacken der letzten Jahre führt vor Augen, wie wichtig Cybersicherheit aus ökonomischer und gesellschaftlicher Sicht geworden ist. Nicht zuletzt wegen der fortschreitenden Digitalisierung von Wirtschaft, Industrie und Gesellschaft ist es unerlässlich, die digitale Sicherheit durch den Ausbau entsprechender Sicherheitskapazitäten in Europa zu stärken. Diese Herausforderung erfordert eine europäische Kompetenzbündelung mit Blick auf gemeinsame Forschungs- und Innovationsziele, zu der das Projekt SPARTA beitragen und dadurch die strategische Autonomie der EU bei der IT-Sicherheit stärken will.

Das vom europäischen Forschungsprogramm H2020 geförderte Projekt wird sehr konkrete Fragestellungen insbesondere in den vier Bereichen Gesundheit (1), Energie, Finanzen und Verkehr (2), Informations-, Kommunikationstechnologien und Industrie (3) sowie E-Government und öffentliche Verwaltung (4) bearbeiten. Eine im Projekt entwickelte Roadmap soll dabei einen ehrgeizigen Fahrplan für Forschung und Innovationen im Bereich Cybersicherheit entwickeln und maßgeblich zum Aufbau eines global führenden Kompetenznetzwerks mit Sitz in der EU beitragen. Darüber hinaus werden im Projekt digitale Anwendungen und Plattformen entwickelt, die höchste Sicherheitsansprüche erfüllen und auch für Trainings genutzt werden sollen.

Dr. Michael Friedewald vom Fraunhofer ISI koordiniert im Projekt die Aktivitäten zum Thema »Responsible innovation: ethical, legal and societal aspects« und erläutert die Forschungsziele wie folgt: »Wir achten darauf, dass die im Projekt verfolgten Sicherheitslösungen aus ethischer und sozialer Sicht stets einwandfrei sowie mit dem geltenden Datenschutz-Recht vereinbar sind. So werden wir uns zum Beispiel der Frage widmen, wie Unternehmen Nutzerdaten erheben und auswerten können und dabei das Recht auf den Schutz personenbezogener Daten gewahrt bleibt.«

Das SPARTA-Konsortium unter der Leitung der CEA (The French Alternative Energies and Atomic Energy Commission) besteht aus 44 Institutionen aus 14 EU-Mitgliedstaaten, die sich an der Schnittstelle zwischen wissenschaftlicher Forschung, technologischer Entwicklung und Gesellschaftswissenschaften im Bereich der Cybersicherheit bewegen. Gemeinsam wollen sie die Forschung, Innovationen und Trainings zur europäischen Cybersicherheit neu denken – von den wissenschaftlichen Grundlagen bis hin zu industriellen Anwendungen.


Das Fraunhofer-Institut für System- und Innovationsforschung ISI analysiert Entstehung und Auswirkungen von Innovationen. Wir erforschen die kurz- und langfristigen Entwicklungen von Innovationsprozessen und die gesellschaftlichen Auswirkungen neuer Technologien und Dienstleistungen. Auf dieser Grundlage stellen wir unseren Auftraggebern aus Wirtschaft, Politik und Wissenschaft Handlungsempfehlungen und Perspektiven für wichtige Entscheidungen zur Verfügung. Unsere Expertise liegt in der fundierten wissenschaftlichen Kompetenz sowie einem interdisziplinären und systemischen Forschungsansatz.

Presseinformation: Automatisierte Kfz-Kennzeichenkontrollen nur in engen Grenzen verfassungsmäßig

BVerfG stärkt Grundrechtsschutz und stellt Rechtssicherheit her

Das Bundesverfassungsgericht hat am 5.Februar 2019 mitgeteilt, dass das Bayerische Polizeiaufgabengesetz insoweit verfassungswidrig ist, als es ohne weitere Einschränkung der Polizei erlaubt, das Kennzeichen aller vorbeifahrenden Kraftfahrzeuge verdeckt von einem Kennzeichenlesesystem automatisiert zu erfassen, kurzzeitig gemeinsam mit Angaben zu Ort, Datum, Uhrzeit und Fahrtrichtung zu speichern und mit Kennzeichen aus dem Fahndungsbestand abzugleichen. Expertinnen und Experten des Forschungsverbunds „Forum Privatheit“ haben das Urteil analysiert und nehmen Stellung zu den Auswirkungen.


Obwohl das BVerfG bereits 2008 festgestellt hatte, dass das Überwachungsinstrument des Kfz-Kennzeichen-Scanning nur zum Schutz wichtiger Rechtsgüter und bei einem konkreten Anlass an beschränkten Orten und begrenzten Zeiten eingesetzt werden darf, haben die Bundesländer Bayern, Baden-Württemberg und Hessen diese Kontrollen ohne diese Einschränkungen in den Katalog der normalen polizeilichen Handlungsinstrumente aufgenommen und davon ausführlich Gebrauch gemacht.

Dagegen klagte ein Bürger mit Wohnsitz in Bayern und in Österreich, der befürchtete, auf den Reisen zwischen den beiden Wohnsitzen immer wieder überwacht zu werden und aufgrund der hohen Falscherkennungsrate der Kennzeichenlesesysteme als zur Fahndung Ausgeschriebener erfasst zu werden und Nachteile zu erleiden. Das Verwaltungsgericht München, der Verwaltungsgerichtshof Bayern und das Bundesverwaltungsgericht hatten die Klage abgewiesen, u.a. weil die bloße Erfassung des Kennzeichens keinen Grundrechteingriff darstelle. Das BVerfG hat diese Urteile in seinem Beschluss vom 18. Dezember 2018 aufgehoben und die entsprechede Regelung im Bayerischen Polizeiaufgabengesetz für teilweise verfassungswidrig erklärt.

Bundesverfassungsgericht stärkt Grundrecht auf informationelle Selbstbestimmung  

„Der Beschluss des BVerfG stellt mit großer Klarheit fest, dass der Einsatz des Überwachungsinstruments der automatisierten Kennzeichenkontrollen auf bestimmte Anlässe und zur Abwehr einer konkreten Gefahr für Rechtsgüter von erheblichem Gewicht beschränkt ist und stärkt damit das Grundrecht auf informationelle Selbstbestimmung und Datenschutz nachdrücklich“, konstatiert Prof. Dr. Alexander Roßnagel, Sprecher des Forschungsverbunds „Forum Privatheit“ und Professor für Umwelt- und Technikrecht an der Universität Kassel. „Die breite Überwachung des Straßenverkehrs durch automatisierte Kennzeichenkontrollen ist unzulässig“.

Das Gericht stellt eindeutig fest, dass bereits die Erfassung der Kennzeichen in das Grundrecht auf informationelle Selbstbestimmung eingreift, unabhängig davon, ob ein Treffer festgestellt werden kann. Das sah das BVerfG in seiner Entscheidung zum Kfz-Kennzeichen-Scanning vom 8. März 2008 noch anders. Damals entschied es, dass die bloße Erfassung und unmittelbare Löschung der Daten, sobald festgestellt worden ist, dass im Abgleich mit einer Fahndungsdatei kein Treffer vorliegt, keinen Grundrechtseingriff darstellt. Diese Feststellung haben sich viele Regelungen im Recht der Polizei und der Nachrichtendienste zunutze gemacht. Jetzt rückte das BVerfG von dieser Feststellung ab und sieht bereits in der Erhebung von Daten einen unerlaubten Grundrechtseingriff. Erfasst ein Überwachungssystem Menschen, so ist es nicht erst hinsichtlich der damit verbundenen Folgen, sondern bereits durch die Erfassung freiheitsbeeinträchtigend. „Zur Freiheitlichkeit des Gemeinwesens gehört es, dass sich die Bürgerinnen und Bürger grundsätzlich fortbewegen können, ohne dabei beliebig staatlich registriert zu werden, hinsichtlich ihrer Rechtschaffenheit Rechenschaft ablegen zu müssen und dem Gefühl eines ständigen Überwachtwerdens ausgesetzt zu sein“ – so das BVerfG.

Zulässig sind solche Kontrollen nur unter zwei Voraussetzungen. Zum einen muss dafür ein objektiv bestimmter und begrenzter Anlass bestehen. „Die Durchführung von Kontrollen zu beliebiger Zeit und an beliebigem Ort ins Blaue hinein ist mit dem Rechtsstaatsprinzip grundsätzlich unvereinbar“, so das BVerfG. Zum anderen müssen sie dem Schutz von wichtigen Rechtsgütern oder  öffentlichen Interessen dienen. Hierzu zählen z.B. Leib, Leben und Freiheit der Person und der Bestand und die Sicherheit des Bundes und der Länder. Da das Bayerische Polizeiaufgabengesetz beide Voraussetzungen nicht beachtet, hat das BVerfG die zu weitgehenden Regelungen für verfassungswidrig erklärt.

Auswirkung auch auf die Überwachung von Diesel-Fahrverboten  

Diese Bewertung gilt nicht nur für das Bayerische Polizeiaufgabengesetz, sondern auch für vergleichbare Regelungen in Baden-Württemberg und Hessen. Die Feststellung, dass ein Grundrechtseingriff bereits durch die bloße Erfassung von Überwachungsdaten besteht, hat Auswirkungen für viele polizeiliche und nachrichtendienstliche Überwachungsmethoden, weil diese bisher davon ausgingen, dass ein Grundrechtseingriff erst mit der Speicherung als Treffer beginnt. Diese Erkenntnis zwingt ebenfalls zur Anpassung vieler Erlaubnisse zur Überwachung. „Damit stellt Deutschland – im Gegensatz zu anderen europäischen Ländern – den Datenschutz über den noch unklaren Nutzen einer sehr umfassenden Kennzeichenerkennung”, lobt Forum-Privatheit-Experte Dr. Michael Friedewald vom Fraunhofer ISI.

So hat das Urteil des BVerfG auch Auswirkungen auf die Absicht, Fahrverbote für ältere Diesel-Fahrzeuge durch automatisierte Kennzeichenerfassung und Abgleich mit dem Bundeskraftfahrzeugregister durchzusetzen. „Solche automatisierten Kennzeichenkontrollen finden zwar nur an der Einfahrt zu Umweltzonen oder für Dieselfahrzeuge gesperrte Straßen statt, dienen aber nicht der Abwehr einer Gefahr für Rechtsgüter wie Leib, Leben und Freiheit der Person und den Bestand und die Sicherheit des Bundes und der Länder, sondern der Verhinderung oder Verfolgung von Ordnungswidrigkeiten – sind also in keiner Weise verhältnismäßig“ – resümiert Roßnagel.   

Im vom BMBF geförderten Forum Privatheit setzen sich Expertinnen und Experten aus sieben wissenschaft­lichen Institutionen interdisziplinär, kritisch und unabhängig mit Fragestellungen zum Schutz der Privatheit auseinander. Das Projekt wird vom Fraunhofer ISI koordiniert. Weitere Partner sind das Fraunhofer SIT, die Universität Duisburg-Essen, das Wissenschaftliche Zentrum für Informationstechnik-Gestaltung (ITeG) der Universität Kassel, die Eberhard Karls Universität Tübingen, die Ludwig-Maximilians-Universität München sowie das Unabhängige Landes­zentrum für Datenschutz Schleswig-Holstein. Das BMBF fördert das Forum Privatheit, um den öffentlichen Diskurs zu den Themen Privatheit und Datenschutz anzuregen.


Sprecher „Forum Privatheit“: 
Prof. Dr. Alexander Roßnagel
Universität Kassel
Projektgruppe verfassungsverträgliche Technikgestaltung (provet) am Wissenschaftlichen Zentrum für Informationstechnik-Gestaltung (ITeG)
Tel: 0561/804-3130 oder 2874
E-Mail: a.rossnagel@uni-kassel.de

Projektkoordination „Forum Privatheit“:
Dr. Michael Friedewald
Fraunhofer-Institut für System- und Innovationsforschung ISI
Competence Center Neue Technologien
Tel.: 0721 6809-146
E-Mail: Michael.Friedewald@isi.fraunhofer.de 

Presse und Kommunikation „Forum Privatheit“:
Barbara Ferrarese, M.A.
Fraunhofer-Institut für System- und Innovationsforschung ISI
Tel.: 0721 6809-678
E-Mail: presse@forum-privatheit.de

https://www.forum-privatheit.de/forum-privatheit-de/index.php
Twitter: @ForumPrivatheit

Press Release: Political micro-targeting needs regulation to avoid harm for democracy

The German research consortium Forum Privacy invited experts and interested citizens to discuss the highly topical question of whether and to what extent political micro-targeting damages democratic processes – and how regulatory authorities should respond.


Advertising surrounds us daily, whether in newspapers, on television, on posters or in social networks. But what if advertising on the Internet is used to spread political propaganda? And what if the advertisements are tailored to the individual addressees without them noticing? These questions were discussed by researchers and practitioners on 30 January at the CPDP in Brussels. The Forum Privacy member Dr Nicholas Martin noted that “the use of such micro-targeted ads for political purposes online had been pioneered in the USA and seems to be spreading to continental Europe, but only gradually and unevenly.” Regulators would still have a chance to get ahead of the curve. The political scientist, who works at the Fraunhofer Institute for Systems and Innovation Research ISI, added: “Micro-targeting is about conveying personalized political messages to voters that correspond to their individual interests, convictions, socio-economic circumstances and even their psychological profile.”

„Political micro-targeting has an impact on democratic processes in the EU“ 

Katerina Pouliou, legal officer at the European Data Protection Supervisor (EDPS), stressed in particular the implications and consequences for the European Union: „It is true that micro-targeting for political purposes is an old and extensive practice in the US, however there is progressively more evidence that similar practices have been brought to the EU as well. The EDPS opinion on online manipulation and personal data shed some light on the topic, and so have done a number of national DPAs by developing rules or guidelines on  data processing for political purposes. The intensified discussions in the EU, both on EU Institutions and national level, during the last years, constitute a clear indication that online political micro-targeting practices already have an impact on EU citizens’ civic engagement in decision-making and on public involvement in democratic processes”.

“Clear risks to the democratic process” – „Social Networks offer an ideal breeding ground for micro-targeting“ 

The scientific community and the regulatory authority agreed that micro-targeting and the increase in micro-targeting pose clear risks to the democratic process. “It is therefore incumbent upon regulators to step in,” argued Martin. The use of social bots as part of micro-targeting strategies, often referred to as computational propaganda, was also discussed. “Social-psychological studies such as those of the famous communications scientist Elisabeth Noelle-Neumann showed as early as 1974 that people tend to accept majority opinion because they are afraid of isolation and fear negative consequences if they join the supposed minority,” said Forum Privacy member Dr Elias Kyewski, media psychologist at the University of Duisburg-Essen. In his opinion, the interactivity in social networks and the presentation of user-generated comments „offer an ideal breeding ground for the use of micro-targeting“.

<Forum Privacy> is an interdisciplinary German research consortium funded by the Federal Ministry of Education and Research to address the increasingly urgent questions of privacy and data protection. It provides a platform for exchange between academics, policy-makers, technologists and citizens. 

Dr. Michael Friedewald 
Fraunhofer-Institute for Systems and Innovation Research (ISI), Karlsruhe
Project Coordinator of Forum Privacy

Dr. Elias Kyewski
University of Duisburg-Essen, Department of Social Psychology: Media and Communication
Member of Forum Privacy

Dr. Nicholas Martin
Fraunhofer-Institute for Systems and Innovation Research (ISI), Karlsruhe
Member of Forum Privacy

Presse und Kommunikation „Forum Privatheit“:
Press Officer Forum Privacy
Member of Forum Privacy
E-Mail: barbara.ferrarese@forum-privatheit.de

https://www.forum-privatheit.de/forum-privatheit-de/index.php
Twitter: @ForumPrivatheit

„Wer bei Digitalisierungsfragen nicht über Ethik redet, verliert die Orientierung“

Presseinformation Forum Privatheit

16.10.2018


Auf einer Podiumsdiskussion des Forschungsverbunds „Forum Privatheit“ diskutierten ExpertInnen und BürgerInnen in München darüber, was notwendig ist, um der Digitalisierung eine Richtung zu geben, die auch die Interessen der DatennutzerInnen angemessen berücksichtigt.

Als Informatikerin steht „Forum Privatheit“-Mitglied Marit Hansen den Chancen der Digitalisierung aufgeschlossen gegenüber. Als Landesdatenschutzbeauftragte von Schleswig-Holstein weiß sie jedoch auch um die Schattenseiten und plädiert für eine umsichtige Datennutzung, die die Privatsphäre der Verbraucherinnen und Verbraucher wahrt. Sie jedenfalls will keine Digitalisierung um jeden Preis. „Wir halten das Wie für sehr entscheidend. Datenschutzfreundliche Techniklösungen aus der Forschung bieten hier interessante Ansätze und müssen nun in die Praxis kommen.”

Politik heißt, das Gute zu fördern und das Schlechte zu behindern

In eine ähnliche Richtung argumentiert auch Prof. Dr. Wolf-Dieter Lukas, Leiter der Abteilung „Forschung für Digitalisierung und Innovationen“ im BMBF: „Es geht nicht nur darum, mit Hilfe von Digitalisierung das Neue in die Welt zu bringen. Es geht darum, mit den Möglichkeiten, die die Digitalisierung bietet, die Lebensumstände der Menschen zu verbessern. Dabei geht es nicht nur um Geschwindigkeit, auf die Richtung kommt es an. Wer nur über Ethik redet, kommt nicht voran. Aber wer gar nicht über Ethik redet, verliert die Orientierung.“ Für Unternehmensberater Wolf Ingomar Faecks, der Konzerne bei digitalen Transformationsprozessen begleitet, agiert Deutschland bei der Digitalisierung bislang nicht schnell genug: „Andere Länder und Unternehmen beschleunigen, während wir rückwärtsgewandte Aufklärung betreiben. Unsere Koketterie mit digitalem Unwissen hat uns nicht weitergebracht.“ Dem hält der niederländische Wissenschaftler und Netz-Aktivist Prof. Dr. Geert Lovink entgegen, dass wir nicht mehr nur in Richtung Anwendung denken sollten, sondern auch in Richtung Verbraucherschutz. Die Forschungslandschaft müsse umdenken, ebenso Brüssel. Von Deutschland erhofft er sich – wie zu Zeiten der Entwicklung der europäischen Datenschutzgrundverordnung – eine Vorreiterrolle.

Datenschutz sollte Verkaufsargument sein

Chancen für Verbraucherinnen und Verbraucher sieht auch der Soziologe und Verbraucherschutzexperte Prof. Dr. Jörn Lamla. „Die Herausforderung besteht aber darin, die Chancen zu priorisieren. Zurzeit gibt es leider nur eine Perspektive: profitable ökonomische Wertschöpfung. Doch das ist nur einer von mehreren Wertgesichtspunkten, um die es in der Datenökonomie geht.“ Grundsätzlich gebe es „schwache und starke Interessen“. „Wir müssen uns fragen, ob die Institutionen, die die Verbraucherinteressen schützen, wie etwa TÜV, Kartellämter, Datenschutzbehörden oder auch Verbraucherschutzverbände, für die aktuellen und zukünftigen Aufgaben noch richtig aufgestellt sind – oder ob Verbraucherpolitik nicht stärker in die Technikgestaltung selbst einbezogen werden muss.“ Die Anwesenheit des Wirtschaftsvertreters Faecks nutzt er für einen entsprechenden Wunsch: „Unterstützen Sie die Entwicklung eines Geschäftsmodells, das aufgrund der offensiven Einbeziehung von Daten- und Verbraucherschutz ein attraktives Gegenmodell zum vorherrschenden oder chinesischen Modell darstellt – und lassen Sie uns dieses gemeinsam zum Exportschlager machen!“


Im Forum Privatheit setzen sich Expertinnen und Experten aus sieben wissenschaftlichen Institutionen interdisziplinär, kritisch und unabhängig mit Fragestellungen zum Schutz der Privatheit auseinander. Das Projekt wird vom Fraunhofer ISI koordiniert. Weitere Partner sind das Fraunhofer SIT, die Universität Duisburg-Essen, das Wissenschaftliche Zentrum für Informationstechnik-Gestaltung (ITeG) der Universität Kassel, die Eberhard Karls Universität Tübingen, die Ludwig-Maximilians-Universität München sowie das Unabhängige Landes­zentrum für Datenschutz Schleswig-Holstein. Das BMBF fördert das Forum Privatheit, um den öffentlichen Diskurs zu den Themen Privatheit und Datenschutz anzuregen.

 

Organisation der Jahreskonferenz „Die Zukunft der Datenökonomie“:

Prof. Dr. Jörn Lamla
Fachgebiet Soziologische Theorie
Universität Kassel
+49 (0) 561 / 804-2185
lamla@uni-kassel.de

Prof. Dr. Thomas Hess
Institut für Wirtschaftsinformatik und Neue Medien
Ludwig-Maximilians-Universität München
+49 (0) 89 / 2180-6391
thess@bwl.lmu.de

Projektkoordination „Forum Privatheit“:
Dr. Michael Friedewald
Fraunhofer-Institut für System- und Innovationsforschung ISI
Competence Center Neue Technologien
+49 (0) 721 / 6809-146
Michael.Friedewald@isi.fraunhofer.de

Presse und Kommunikation „Forum Privatheit“:
Barbara Ferrarese, M.A.
Fraunhofer-Institut für System- und Innovationsforschung ISI
+49 (0) 0721 / 6809-678
barbara.ferrarese@forum-privatheit.de

„Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt“
https://www.forum-privatheit.de/forum-privatheit-de/index.php
Twitter: @ForumPrivatheit

 

Die Chancen der Digitalisierung sind immens, bedürfen jedoch aktiver politischer und gesellschaftlicher Gestaltung

Presseinformation Forum Privatheit

11. Oktober 2018


In der Debatte um die Zukunft der Datenökonomie diskutiert der Forschungsverbund „Forum Privatheit“ Lösungsansätze für eine Balance zwischen Gemeinwohl, wirtschaftlichen Interessen und Verbraucherschutz.

Smartphones, Apps und soziale Netzwerke sind heutzutage weder aus der Arbeitswelt noch aus dem Privatleben wegzudenken. Wie aber sehen die wirtschaftlich-technischen Strukturen dahinter aus? Wie wird dort Geld verdient, welche Verfahren werden eingesetzt – und wie wirkt sich all dies auf die Gesellschaft aus? Diesen Fragen geht der Forschungsverbund „Forum Privatheit“ am 11. und 12. Oktober 2018 auf seiner Jahreskonferenz „Die Zukunft der Datenökonomie: Gestaltungsperspektiven zwischen Geschäftsmodell, Kollektivgut und Verbraucherschutz“ nach.

Das Potenzial der Digitalisierung muss allen zugutekommen

Daraus leitet Prof. Dr. Jörn Lamla, Soziologe an der Universität Kassel, eine erste Forderung ab: „Wir müssen eine neue Balance zwischen Gemeinwohlsicherung, ökonomischen Verwertungsmöglichkeiten und dem Schutz der Verbraucherinnen und Verbraucher finden.“ Prof. Dr. Thomas Hess, Wirtschaftsinformatiker an der Ludwig-Maximilians-Universität München, der gemeinsam mit Lamla die Konferenz organisiert, ergänzt: „Die Innovationschancen der Digitalisierung sind immens. Es hilft uns aber nichts, wenn Deutschland bei digitalen Innovationen keine Rolle spielt, weder wirtschaftlich noch gesellschaftlich. Zudem müssen wir aufpassen, dass die Chancen nicht nur einigen Wenigen zugutekommen, sonst werden wir das Potenzial der Digitalisierung verspielen.“

Verhaltenssteuerung setzt Demokratie unter Druck

Die Harvard-Ökonomin Prof. Dr. Shoshana Zuboff sieht die Menschheit sogar an einem historischen Scheideweg: „Das Problem liegt weder in den digitalen Technologien als solchen noch in irgendeinem bestimmten Einzel-Unternehmen. Es liegt vielmehr in einer neuartigen Logik der Kapital-Akkumulation, die ich als Überwachungskapitalismus bezeichne. Konzerne gewinnen aus menschlichen Erfahrungen Verhaltensdaten, um daraus Vorhersage- und Steuerungspotenziale zu produzieren und zu verkaufen.“ Die Entstehung dieses Verhaltenssteuerungsmarktes habe weitreichende Konsequenzen: „Neue soziale Ungleichheiten und unbekannte ökonomische Herrschaftsformen entstehen. Etablierte Grundlagen der Demokratie, wie etwa Autonomie und Privatheit, geraten unter Druck.“

Der Zentralisierung mit einem Bündnis alternativer Netze begegnen 

Eine Möglichkeit der Abhilfe sieht der Medien-Aktivist Prof. Dr. Geert Lovink vom Institute for Network Cultures in Amsterdam in alternativen Wertschöpfungs- und Einkommensmodellen im Internet: „Im Moment profitieren von der ganzen Content-Produktion der Internet-Nutzerinnen und -Nutzer in erster Linie jene Plattformen, denen es gelingt, sich als zentrale Instanz zu positionieren, und nicht die gesamte Zivilgesellschaft. Um dem Trend zur Zentralisierung entgegenzutreten, brauchen wir das, was ich als ‚federated networks‘ bezeichne: ein Bündnis alternativer Netze.“

Damit solche Alternativen auch realisiert werden können, bedarf es sensibilisierter Technikentwickler, die tatsächlich in der Lage sind, datenschutzfreundliche Systeme zu entwickeln. Doch diese stoßen laut der Wirtschaftsinformatikerin Prof. Dr. Sarah Spiekermann-Hoff oft auf Schwierigkeiten in ihren eigenen Unternehmen und Organisationen. So hielten zwar Software-Ingenieure Datenschutz und Privacy für sehr wichtig, würden aber durch die Rahmenbedingungen der Datenökonomie in der Umsetzung einer Privatheits- und datenschutzfreundlichen Technologie häufig gebremst.

Datenschutz sollte als Chance für die Datenökonomie begriffen werden

Dass die Zukunft der Datenökonomie demnach einer aktiven politischen und zivilgesellschaftlichen Gestaltung bedarf, die diese Rahmenbedingungen verändert und sich nicht nur auf eine lediglich korrigierende Beobachterposition zurückzieht, ist eine zentrale Erkenntnis der Konferenz. „Wenn wir das Potenzial der Digitalisierung heben wollen, müssen wir uns verstärkt darum Gedanken machen, wie Selbstbestimmung zukünftig gedacht werden muss. Nicht nur die individuelle, sondern auch die kollektive Selbstbestimmung sind Voraussetzung für den langfristigen Erhalt der Demokratie. Dazu brauchen wir jedoch auch transnationale gesellschaftliche Debatten, um uns über zivilisatorische Standards weltweit zu verständigen“, so Lamla. Für Hess gibt es bereits gute ökonomische Gestaltungsansätze, etwa im Steuer- oder Wettbewerbsrecht, aber auch im Datenschutzrecht. Er ist sicher: „Wer interessante digitale Angebote erfolgreich am Markt positioniert, der kann auch seine Vorstellungen von Schutz und Verwendung personenbezogener Daten in die Welt bringen. Letztlich ist es wichtig, Datenschutz als Chance für die Datenökonomie zu begreifen.“


Im Forum Privatheit setzen sich Expertinnen und Experten aus sieben wissenschaftlichen Institutionen interdisziplinär, kritisch und unabhängig mit Fragestellungen zum Schutz der Privatheit auseinander. Das Projekt wird vom Fraunhofer ISI koordiniert. Weitere Partner sind das Fraunhofer SIT, die Universität Duisburg-Essen, das Wissenschaftliche Zentrum für Informationstechnik-Gestaltung (ITeG) der Universität Kassel, die Eberhard Karls Universität Tübingen, die Ludwig-Maximilians-Universität München sowie das Unabhängige Landes­zentrum für Datenschutz Schleswig-Holstein. Das BMBF fördert das Forum Privatheit, um den öffentlichen Diskurs zu den Themen Privatheit und Datenschutz anzuregen.

 

Organisation der Jahreskonferenz „Die Zukunft der Datenökonomie“:

Prof. Dr. Jörn Lamla
Fachgebiet Soziologische Theorie
Universität Kassel
+49 (0) 561 / 804-2185
lamla@uni-kassel.de

Prof. Dr. Thomas Hess
Institut für Wirtschaftsinformatik und Neue Medien
Ludwig-Maximilians-Universität München
+49 (0) 89 / 2180-6391
thess@bwl.lmu.de

Projektkoordination „Forum Privatheit“:
Dr. Michael Friedewald
Fraunhofer-Institut für System- und Innovationsforschung ISI
Competence Center Neue Technologien
+49 (0) 721 / 6809-146
Michael.Friedewald@isi.fraunhofer.de 

Presse und Kommunikation „Forum Privatheit“:

Barbara Ferrarese, M.A.
Fraunhofer-Institut für System- und Innovationsforschung ISI
+49 (0) 0721 / 6809-678
barbara.ferrarese@forum-privatheit.de

„Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt“

https://www.forum-privatheit.de/forum-privatheit-de/index.php
Twitter: @ForumPrivatheit

 

New Publication: Surveillance and Democracy in Europe

Ball, Kirstie, Sebastian Dahm, Michael Friedewald, Antonella Galetta, Kerstin Goos, Richard Jones, Erik Lastic, Clive Norris, Charles Raab, and Keith Spiller, “Search and indignify: Automatic Number Plate Recognition in Europe”, in Kirstie Ball, and William Webster (eds.), Surveillance and Democracy in Europe (Routledge Studies in Surveillance), Routledge, London and New York, 2018, pp. 51-68.

ANPR is a surveillance practice in which digital CCTV cameras capture images of vehicle registration plates. These images are then matched to government vehicle licensing and other databases which contain information pertaining to the ownership of the vehicle, whether it is insured or whether it has been marked as suspicious in any police investigation. ANPR is also used to administer car parking and road toll charges. Users of ANPR are thus not only public bodies such as the police, city and regional municipalities and national government agencies, but also private companies who compare images from the cameras with their own customer databases. Fixed or mobile cameras can be used as part of an ANPR system and it can be deployed in an overt or covert way, depending on the legal regulation under which it is deployed. In our chapter we explore how ANPR is used in the UK, Slovakia, Germany and Belgium.

Datenschutz-Mitverantwortung für Organisationen, die Facebook einbinden

Presseinformation Forum Privatheit

2. Juli 2018


Rechtsexperten des Forschungsverbunds „Forum Privatheit“ beleuchten die langfristigen Auswirkungen des EuGH-Urteils zu Facebook-Fanpages: Neben sozialen Netzwerken gehören auch Suchmaschinen, Messenger- und Kurznachrichten-Dienste auf den Prüfstand.

 Der Europäische Gerichtshof (EuGH) hatte am 5.6.2018 sein Urteil im Rechtsstreit zwischen dem Unabhängigen Landeszentrum für Datenschutz Schleswig-Holstein (ULD) und der Wirtschaftsakademie Schleswig-Holstein GmbH verkündet. Gegenstand des Rechtsstreits war eine Anordnung des ULD an die Wirtschaftsakademie, ihre Facebook-Fanpage zu deaktivieren, weil Facebook personenbezogene Daten von Besuchern dieser Fanpage unzulässig erhoben und zu Besucherstatistiken verarbeitet hat.

Fraglich war, ob neben Facebook auch die Wirtschaftsakademie als Betreiber der Fanpage als Verantwortlicher für die Datenverarbeitung im Sinne des Datenschutzrechts zu werten ist. Dies bejahte das Gericht. Die Inanspruchnahme von Facebook als Plattform zur Bereitstellung der Fanpage befreit den Betreiber nicht von datenschutzrechtlichen Pflichten. Ob ein Zugang des Fanpage-Betreibers zu den gesammelten personenbezogenen Daten des sozialen Netzwerks besteht, ist dabei unerheblich.

Auswirkungen des Urteils

„Das Urteil des EuGH hat große Auswirkungen auf Unternehmen, Behörden und sonstige Organisationen, die Facebook-Angebote für ihre Zwecke nutzen. Sie werden damit mitverantwortlich, für alle damit in Zusammenhang stehenden -Datenverarbeitungspraktiken von Facebook. Da sie diese nicht beeinflussen können, aber für sie verantwortlich sind, können sie Facebook nicht mehr ohne Risiko nutzen“, konstatiert Prof. Dr. Alexander Roßnagel, Sprecher des „Forum Privatheit“ und Rechtswissenschaftler der Universität Kassel.

Der EuGH vertritt in seinem Urteil eine weite Auslegung des Begriffs des datenschutzrechtlich Verantwortlichen. Dessen Verantwortung soll einen größtmöglichen Schutz Betroffener bei der Verarbeitung ihrer personenbezogenen Daten gewährleisten. Daher ist für die Datenverarbeitung nicht nur das soziale Netzwerk, sondern auch die Organisation verantwortlich, die Facebook für ihre Zwecke nutzt (wie in dem entschiedenen Fall für eine Fanpage). Dies gilt in besonderem Maße, wenn Dritte, die selbst nicht Mitglieder bei Facebook sind, veranlasst werden, Facebook zu nutzen. Die Organisation  und Facebook sind beide gemeinsam verantwortlich, da sie jeweils über die Zwecke und Mittel der Verarbeitung personenbezogener Daten der Betroffenen entscheiden. Der Betreiber der Fanpage kann sich gegenüber den Betroffenen nicht auf den Standpunkt zurückziehen, selbst lediglich Nutzer der von Facebook angebotenen Dienstleistung zu sein.

Eine Organisation, die Facebook-Angebote für ihre Zwecke nutzt, treffen damit alle Pflichten, die ein datenschutzrechtlich Verantwortlicher zu erfüllen hat. Nach der Datenschutz-Grundverordnung müssen gemeinsam Verantwortliche in transparenter Form vertraglich festlegen, welche Funktionen sie jeweils übernehmen und wie sie ihre Datenschutzpflichten erfüllen. Insbesondere können auch der Organisation gegenüber Betroffenenrechte geltend gemacht werden. „Damit wird die Stellung der betroffenen Nutzenden verbessert. Außerdem hat der EuGH mit dem Urteil unmissverständlich klargestellt, dass es auch in diesen Fällen keine Lücke in der Verantwortlichkeit für die Verarbeitung personenbezogener Daten gibt“, so Marit Hansen, Landesbeauftragte für Datenschutz Schleswig-Holstein.

Diese gemeinsame Verantwortlichkeit wirkt sich auch auf die Haftung aus. So haftet nach der Datenschutz-Grundverordnung jeder an einer Datenverarbeitung beteiligte Verantwortliche für den Schaden, der durch eine rechtswidrige Verarbeitung verursacht wurde. Eine Haftungsbefreiung ist nur möglich, wenn aktiv nachgewiesen wird, dass eine Verantwortlichkeit für den Umstand, der den Schaden zur Folge hatte, in keinerlei Hinsicht gegeben ist. Damit besteht eine Verschuldensvermutung bezogen auf alle gemeinsam Verantwortlichen – die Beweislast liegt bei ihnen.

Anordnungen einer Datenschutzaufsichtsbehörde können sich dabei sowohl gegen die Organisation, die Facebook für ihre Zwecke nutzt, als auch gegen den Betreiber des sozialen Netzwerks richten. Das gilt letztlich auch für die unter Umständen drastischen Sanktionen, die Aufsichtsbehörden nach der Datenschutz-Grundverordnung verhängen können.

Schlussfolgerungen für die Praxis

„Die Klarstellung durch den EuGH ist im Sinn eines effektiven Datenschutzes zu begrüßen. Wer Angebote sozialer Netzwerke in seine Organisationskommunikation einbindet, trägt in jedem Fall die Mitverantwortung für jede durch ihn veranlasste Datenverarbeitung. Wer kein Risiko eingehen will, muss sich entweder sicher sein, dass das soziale Netzwerk mit diesen Datenverarbeitungspraktiken keine Verstöße gegen die Datenschutz-Grundverordnung begeht oder diese Angebote meiden“, resümiert Roßnagel. „Ebenso wie soziale Netzwerke gehören auch Angebote wie Suchmaschinen, Messenger- und Kurznachrichten-Dienste auf den Prüfstand.“


Im Forum Privatheit setzen sich Expertinnen und Experten aus sieben wissenschaftlichen Institutionen interdisziplinär, kritisch und unabhängig mit Fragestellungen zum Schutz der Privatheit auseinander. Das Projekt wird vom Fraunhofer ISI koordiniert. Weitere Partner sind das Fraunhofer SIT, die Universität Duisburg-Essen, das Wissenschaftliche Zentrum für Informationstechnik-Gestaltung (ITeG) der Universität Kassel, die Eberhard Karls Universität Tübingen, die Ludwig-Maximilians-Universität München sowie das Unabhängige Landes­zentrum für Datenschutz Schleswig-Holstein. Das BMBF fördert das Forum Privatheit, um den öffentlichen Diskurs zu den Themen Privatheit und Datenschutz anzuregen.

 

Sprecher „Forum Privatheit“:

Prof. Dr. Alexander Roßnagel
Universität Kassel
Projektgruppe verfassungsverträgliche Technikgestaltung (provet) am
Wissenschaftlichen Zentrum für Informationstechnik-Gestaltung (ITeG)
Tel: 0561/804-3130 oder 2874
E-Mail: a.rossnagel@uni-kassel.de

Projektkoordination „Forum Privatheit“:
Dr. Michael Friedewald
Fraunhofer-Institut für System- und Innovationsforschung ISI
Competence Center Neue Technologien
Tel.: 0721 6809-146
E-Mail: Michael.Friedewald@isi.fraunhofer.de

Presse und Kommunikation „Forum Privatheit“:
Barbara Ferrarese, M.A.
Fraunhofer-Institut für System- und Innovationsforschung ISI
Tel.: 0721 6809-678
E-Mail: presse@forum-privatheit.de

Forum „Privatheit und selbstbestimmtes Leben in der digitalen Welt“
https://www.forum-privatheit.de/forum-privatheit-de/index.php
Twitter: @ForumPrivatheit

Soeben erschienen: Data Protection Impact Assessments

Abstract. This workshop introduced participants to the process of Data Protection Impact Assessment. This new tool of the GDPR is highly relevant for any processing of personal data, as it helps to structure the process, be aware of data protection issues and the relevant legislation and implement proper safe- guards to protect data subjects. For processing operations posing a high risk for data subjects, a DPIA is mandatory from May 2018. The interactive workshop provided a framework for DPIA and guidance on specific questions such as when a high risk is likely to occur or how specific risks can be evaluated, which was assessed by participants in an interactive session with two different scenarios.

Bieker, Felix, Nicholas Martin, Michael Friedewald, and Marit Hansen, “Data Protection Impact Assessment: A Hands-On Tour of the GDPR’s Most Practical Tool”, in Marit Hansen, Eleni Kosta, Igor Nai-Fovino, and Simone Fischer-Hübner (eds.), Privacy and Identity Management. The Smart Revolution. 12th IFIP WG 9.2, 9.5, 9.6/11.7, 11.6/SIG 9.2.2 International Summer School, Ispra, Italy, September 4-8, 2017, Revised Selected Papers, Springer, Cham, 2018, pp. 207-220. https://doi.org/10.1007/978-3-319-92925-5_13

 

Neue Tracking-Verfahren greifen immer mehr Daten ab, ohne dass die Nutzer es merken

Die Verfolgung von Nutzeraktivitäten im Netz, das so genannte Tracking, ist ein bekanntes Datenschutzproblem. Mittlerweile aber gibt es eine Vielzahl neuer Tracking-Methoden, die unbemerkt tief in die Privatsphäre der Nutzenden eingreifen. Wirksame Möglichkeiten sich zu schützen, gibt es kaum. Der Forschungsverbund „Forum Privatheit“ analysiert in seinem neuen White Paper Tracking diese neuen Tracking-Verfahren und beleuchtet die wirtschaftlichen, rechtlichen und gesellschaftlichen Folgen.


Klassische Browsercookies kennen die meisten. Sie werden von Webseitenbetreibern eingesetzt, um Nutzerverhalten aufzuzeichnen. Gegen diese Tracking-Methoden steht eine Vielzahl von Blockern zur Verfügung. „Doch solche Cookies sind nur noch eine Tracking-Methode unter vielen“, meint Dr. Thilo Hagendorff, Wissenschaftler an der Universität Tübingen und Medienethiker im „Forum Privatheit“. „Mittlerweile gibt es weitaus invasivere und intransparentere Verfahren wie etwa das biometrische Tracking, das die Wischbewegungen bei der Smartphone-Nutzung analysiert oder das Tracking mit Ultraschallsignalen, die das menschliche Gehör nicht wahrnehmen kann. Gegen diese gibt es bisher fast keine wirksamen technischen Schutzmechanismen.“

Die meisten User kennen die neuen Tracking-Verfahren gar nicht

„Die rechtlichen Grundlagen des Trackings werden mit dem Geltungsbeginn der Datenschutz-Grundverordnung und der geplanten ePrivacy-Verordnung grundlegend geändert, da die Verarbeitung personenbezogener Daten künftig wesentlich strenger reguliert wird“, prophezeit Prof. Dr. Alexander Roßnagel, Sprecher des „Forum Privatheit“ und Rechtswissenschaftler an der Universität Kassel. Insbesondere die rechtliche Zulässigkeit des Ultraschall-Trackings wird im neuen White Paper des Forschungsverbunds „Forum Privatheit“ untersucht. Benjamin Bremert, Jurist am Unabhängigen Landeszentrum für Datenschutz Schleswig-Holstein, erläutert: „Die Möglichkeiten des Ultraschall-Trackings sind durch die rechtlichen Anforderungen künftig deutlich eingeschränkt, was das Verfahren aus rechtlicher Perspektive unattraktiv macht – jedoch leider keine Garantie dafür ist, dass es nicht doch eingesetzt wird.“ Eine eigens für das White Paper durchgeführte empirische Studie ergab, dass die Nutzer über diese neuen Tracking-Verfahren auffällig wenig wissen. „Die meisten der untersuchten Verfahren waren dem Großteil der Befragten unbekannt. Wurden die Verfahren erläutert, beurteilte eine Mehrheit der Teilnehmenden die Verfahren als nicht nützlich, als bedenklich und als besorgniserregend“, fasst Medienpsychologin Prof. Dr. Nicole Krämer die Ergebnisse zusammen.

Es braucht einen öffentlichen Diskurs, welche Tracking-Formen legitim sind – und welche nicht

Vor allem die Intransparenz der angewandten Tracking-Verfahren, die hohe Eingriffstiefe in die Privatheit und die Tatsache, dass den Nutzenden keine einfach zugänglichen sowie geeigneten Optionen zur Vermeidung von Tracking zur Verfügung stehen, werden von den Forschenden kritisiert. „Zwar wäre es zu einfach, das Tracking als etwas per se Negatives zu betrachten“, meint der Soziologe und Verbraucherforscher Prof. Dr. Jörn Lamla von der Universität Kassel. „Aber es müsste doch erst einmal eine öffentliche Auseinandersetzung über legitime und illegitime Tracking-Formen geben. Stattdessen wird zumeist in weitgehend intransparenter Weise erstmal alles umgesetzt, was sich technisch realisieren lässt. Die Verbrauchersicht spielt oft erst dann eine Rolle, wenn irgendeine Trackingmethode trotz der Intransparenz erkennbar wird und auf breite Ablehnung stößt – dann wird schnell zurückgerudert. Angemessener wäre es, zu einer grundsätzlichen Verständigung darüber zu kommen, welche Tracking-Methoden als legitim gelten sollen.“

Wettrüsten zwischen Webseitenbetreibern und Tracking-Blockern

Um sich gegen die älteren Methoden des Trackings zu schützen, stehen Internetnutzenden zahlreiche technische Hilfsmittel zur Verfügung, sogenannte Ad- und Tracking-Blocker. Diese Tools werden meist ohne Zusammenarbeit mit Browser- bzw. Betriebssystem-Entwicklern konzipiert und als Browser-Erweiterungen umgesetzt. „Tatsächlich führt die fehlende Mitwirkung der Hersteller populärer Browser und Betriebssysteme bei der Gestaltung möglicher Anti-Tracking-Mechanismen zu suboptimalen Lösungen und somit auch zu einem permanenten Wettrüsten zwischen Trackern bzw. Webseitenbetreibern und Tracking-Blockern“, so Hervais Simo, Privatheitsforscher am Fraunhofer SIT und Mitglied im „Forum Privatheit“. Effektivere und nachhaltigere Gegenmaßnahmen müssten tief im Browser bzw. Betriebssystem verankert und nach den Prinzipien des Privacy-by-Design und Privacy-by-Default – also Datenschutz durch Technikgestaltung und datenschutzfreundliche Voreinstellungen – realisiert werden. „Der Schutz vor Tracking in mobilen Apps und dem Internet der Dinge sind bislang nur wenig untersucht worden.“ Forscher des Fraunhofer SIT arbeiten derzeit am Tool MetaMiner, welches das Tracking durch mobile Apps für die User sichtbar und kontrollierbar machen soll.


Im Forum Privatheit setzen sich Expertinnen und Experten aus sieben wissenschaftlichen Institutionen interdisziplinär, kritisch und unabhängig mit Fragestellungen zum Schutz der Privatheit auseinander. Das Projekt wird vom Fraunhofer ISI koordiniert. Weitere Partner sind das Fraunhofer SIT, die Universität Duisburg-Essen, das Wissenschaftliche Zentrum für Informationstechnik-Gestaltung (ITeG) der Universität Kassel, die Eberhard Karls Universität Tübingen, die Ludwig-Maximilians-Universität München sowie das Unabhängige Landeszentrum für Datenschutz Schleswig-Holstein. Das BMBF fördert das Forum Privatheit, um den öffentlichen Diskurs zu den Themen Privatheit und Datenschutz anzuregen.

 

Sprecher „Forum Privatheit“:
Prof. Dr. Alexander Roßnagel
Universität Kassel
Projektgruppe verfassungsverträgliche Technikgestaltung (provet)
Wissenschaftliches Zentrum für Informationstechnik-Gestaltung (ITeG)
Tel: 0561/804-3130 oder 2874
E-Mail: a.rossnagel@uni-kassel.de

Projektkoordination „Forum Privatheit“:
Dr. Michael Friedewald
Fraunhofer-Institut für System- und Innovationsforschung ISI
Competence Center Neue Technologien
Tel.: 0721 6809-146
E-Mail: Michael.Friedewald@isi.fraunhofer.de

Presse und Kommunikation „Forum Privatheit“:
Barbara Ferrarese, M.A.
Fraunhofer-Institut für System- und Innovationsforschung ISI
Tel.: 0721 6809-678
E-Mail: presse@forum-privatheit.de

„Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt“
https://www.forum-privatheit.de/forum-privatheit-de/index.php
Twitter: @ForumPrivatheit