Skip to main content

“Zur Verbesserung des Datenschutzes müssen viele Akteure zusammenarbeiten und besser ausgestattet werden“

Forum-Privatheit-Sprecher Alexander Roßnagel diskutierte mit Expertinnen und Experten aus Wissenschaft und Praxis über die notwendigen Voraussetzungen einer wirksamen Datenschutz-Grundverordnung.


Die im Mai vergangenen Jahres in Kraft getretene Datenschutz-Grundverordnung (DSGVO) enthält innovative Instrumente, die es im deutschen Datenschutzrecht bislang nicht gab. Die Erwartungen an diese Instrumente sind laut Forum-Privatheit-Sprecher Prof. Dr. Alexander Roßnagel sehr hoch: „Sie sollen zu einem gerechteren, passgenaueren und praktikableren Datenschutz führen.“ Der Rechtswissenschaftler der Universität Kassel hatte daher zum alljährlichen CAST-Workshop „Recht und IT-Sicherheit“ eingeladen, um mit Expertinnen und Experten aus Forschung und Praxis zu klären, inwiefern diese Erwartungen bisher erfüllt wurden – und welche Voraussetzungen möglicherweise noch geschaffen werden müssen, damit die Datenschutz-Grundverordnung in Deutschland wirksam umgesetzt werden kann. Besonders diskutiert wurden diese Innovationen der DSGVO:

Die DSGVO ermöglicht Verbänden, an ihre Branche angepasste Verhaltensregeln für die Datenverarbeitung festzulegen.

„Solche verbindlichen Verhaltensregeln könnten durchaus zu einem effektiveren Datenschutz und zu mehr Rechtssicherheit führen“, meinte dazu Dr. Joachim Rieß, Konzerndatenschutzbeauftragter der Daimler AG. „Allerdings sollten auch bei einer Verbänderegulierung die Wettbewerbsbedingungen beachtet werden.“

Datenschutzverantwortliche haben die Möglichkeit, die DSGVO-Konformität ihrer Datenverarbeitungsvorgänge zertifizieren zu lassen und die Zertifikate als Wettbewerbsvorteil zu nutzen.

Dies wäre unter anderem für Cloud Computing eine große Unterstützung. Henry Krasemann, im ULD (Unabhängiges Landeszentrum für Datenschutz) in Schleswig-Holstein für Zertifizierungen zuständig, verwies jedoch darauf, dass sich dafür erst die entsprechenden Mechanismen bilden müssten. Es seien noch viele Abstimmungen zwischen Aufsichtsbehörden, Akkreditierungsstellen, Datenschutzausschuss und Europäischer Kommission notwendig. „Hier stehen wir immer noch am Anfang“, sagte Krasemann. 

Wer riskante Verarbeitungen durchführt, muss eine Datenschutzfolgenabschätzung durchführen, damit er die Risiken für betroffene Personen reduzieren kann.

„Nur wer die Risiken seiner Datenverarbeitung genau kennt, kann diese im Sinne des ‚Privacy by Design‘ frühzeitig vermeiden“, so Dr. Michael Friedewald vom Fraunhofer Institut für System- und Innovationsforschung ISI und Koordinator des „Forum Privatheit“. Zuvor seien zahlreiche praktische Aspekte zu berücksichtigen: von der Wahl der richtigen Bewertungskriterien bis hin zur Einbeziehung der Betroffenen in den Bewertungsprozess.

Betroffene Personen erhalten durch die DSGVO zusätzliche Beschwerde- und Klagemöglichkeiten und können sich nun auch von Verbänden vertreten lassen.

„Dies erhöht die Durchsetzungskraft der Interessen für mehr Datenschutz“, betonte Heiko Dünkel vom Verbraucherzentrale Bundesverband e.V. „Dieser Punkt ist nicht zu unterschätzen: Denn die Datenschutzerklärung bei Facebook versteht man nach zehnmaligem Lesen auch als Jurist nicht.“ 

Schließlich haben Aufsichtsbehörden jetzt die Möglichkeit, drakonische Sanktionen für Datenschutzverstöße zu verhängen und damit dem Datenschutzrecht Respekt zu verschaffen.

„Die DSGVO ist – entgegen Gerüchten – kein zahnloser Papiertiger, ganz im Gegenteil: Wir haben mit dem Instrument der Sanktionen und hohen Bußgeldstrafen ein scharfes Schwert, das wir bei schweren Verstößen auch nutzen werden“, erklärte Christina Rost, beim Hessischen Beauftragten für Datenschutz und Informationsfreiheit für Sanktionen zuständig.

Das Fazit der Diskussion fasste Rechtsexperte Roßnagel so zusammen: „Die Datenschutz-Grundverordnung hat zwar innovative Instrumente angekündigt, diese aber unzureichend geregelt. Um wirksam zu werden, ist die DSGVO auf die Zusammenarbeit vieler Akteure angewiesen. Dies erfordert viele weitere rechtliche und organisatorische Maßnahmen, entsprechende Ausstattungen und Ressourcen bei Behörden und Unternehmen. Diese Voraussetzungen sind noch lange nicht überall gegeben.“


Im Forum Privatheit setzen sich Expertinnen und Experten aus sieben wissenschaftlichen Institutionen interdisziplinär, kritisch und unabhängig mit Fragestellungen zum Schutz der Privatheit auseinander. Das Projekt wird vom Fraunhofer ISI koordiniert. Weitere Partner sind das Fraunhofer SIT, die Universität Duisburg-Essen, das Wissenschaftliche Zentrum für Informationstechnik-Gestaltung (ITeG) der Universität Kassel, die Eberhard Karls Universität Tübingen, die Ludwig-Maximilians-Universität München sowie das Unabhängige Landes­zentrum für Datenschutz Schleswig-Holstein. Das BMBF fördert das Forum Privatheit, um den öffentlichen Diskurs zu den Themen Privatheit und Datenschutz anzuregen.

Sprecher „Forum Privatheit“: 
Prof. Dr. Alexander Roßnagel
Universität Kassel
Projektgruppe verfassungsverträgliche Technikgestaltung (provet) am Wissenschaftlichen Zentrum für Informationstechnik-Gestaltung (ITeG)
Tel: 0561/804-3130 oder 2874
E-Mail: a.rossnagel@uni-kassel.de

Projektkoordination „Forum Privatheit“:
Dr. Michael Friedewald
Fraunhofer-Institut für System- und Innovationsforschung ISI
Competence Center Neue Technologien
Tel.: 0721 6809-146
E-Mail: Michael.Friedewald@isi.fraunhofer.de 

Presse und Kommunikation „Forum Privatheit“:
Barbara Ferrarese, M.A.
Fraunhofer-Institut für System- und Innovationsforschung ISI
Tel.: 0721 6809-678
E-Mail: presse@forum-privatheit.de

https://www.forum-privatheit.de/forum-privatheit-de/index.php
Twitter: @ForumPrivatheit

Presseinformation: Automatisierte Kfz-Kennzeichenkontrollen nur in engen Grenzen verfassungsmäßig

BVerfG stärkt Grundrechtsschutz und stellt Rechtssicherheit her

Das Bundesverfassungsgericht hat am 5.Februar 2019 mitgeteilt, dass das Bayerische Polizeiaufgabengesetz insoweit verfassungswidrig ist, als es ohne weitere Einschränkung der Polizei erlaubt, das Kennzeichen aller vorbeifahrenden Kraftfahrzeuge verdeckt von einem Kennzeichenlesesystem automatisiert zu erfassen, kurzzeitig gemeinsam mit Angaben zu Ort, Datum, Uhrzeit und Fahrtrichtung zu speichern und mit Kennzeichen aus dem Fahndungsbestand abzugleichen. Expertinnen und Experten des Forschungsverbunds „Forum Privatheit“ haben das Urteil analysiert und nehmen Stellung zu den Auswirkungen.


Obwohl das BVerfG bereits 2008 festgestellt hatte, dass das Überwachungsinstrument des Kfz-Kennzeichen-Scanning nur zum Schutz wichtiger Rechtsgüter und bei einem konkreten Anlass an beschränkten Orten und begrenzten Zeiten eingesetzt werden darf, haben die Bundesländer Bayern, Baden-Württemberg und Hessen diese Kontrollen ohne diese Einschränkungen in den Katalog der normalen polizeilichen Handlungsinstrumente aufgenommen und davon ausführlich Gebrauch gemacht.

Dagegen klagte ein Bürger mit Wohnsitz in Bayern und in Österreich, der befürchtete, auf den Reisen zwischen den beiden Wohnsitzen immer wieder überwacht zu werden und aufgrund der hohen Falscherkennungsrate der Kennzeichenlesesysteme als zur Fahndung Ausgeschriebener erfasst zu werden und Nachteile zu erleiden. Das Verwaltungsgericht München, der Verwaltungsgerichtshof Bayern und das Bundesverwaltungsgericht hatten die Klage abgewiesen, u.a. weil die bloße Erfassung des Kennzeichens keinen Grundrechteingriff darstelle. Das BVerfG hat diese Urteile in seinem Beschluss vom 18. Dezember 2018 aufgehoben und die entsprechede Regelung im Bayerischen Polizeiaufgabengesetz für teilweise verfassungswidrig erklärt.

Bundesverfassungsgericht stärkt Grundrecht auf informationelle Selbstbestimmung  

„Der Beschluss des BVerfG stellt mit großer Klarheit fest, dass der Einsatz des Überwachungsinstruments der automatisierten Kennzeichenkontrollen auf bestimmte Anlässe und zur Abwehr einer konkreten Gefahr für Rechtsgüter von erheblichem Gewicht beschränkt ist und stärkt damit das Grundrecht auf informationelle Selbstbestimmung und Datenschutz nachdrücklich“, konstatiert Prof. Dr. Alexander Roßnagel, Sprecher des Forschungsverbunds „Forum Privatheit“ und Professor für Umwelt- und Technikrecht an der Universität Kassel. „Die breite Überwachung des Straßenverkehrs durch automatisierte Kennzeichenkontrollen ist unzulässig“.

Das Gericht stellt eindeutig fest, dass bereits die Erfassung der Kennzeichen in das Grundrecht auf informationelle Selbstbestimmung eingreift, unabhängig davon, ob ein Treffer festgestellt werden kann. Das sah das BVerfG in seiner Entscheidung zum Kfz-Kennzeichen-Scanning vom 8. März 2008 noch anders. Damals entschied es, dass die bloße Erfassung und unmittelbare Löschung der Daten, sobald festgestellt worden ist, dass im Abgleich mit einer Fahndungsdatei kein Treffer vorliegt, keinen Grundrechtseingriff darstellt. Diese Feststellung haben sich viele Regelungen im Recht der Polizei und der Nachrichtendienste zunutze gemacht. Jetzt rückte das BVerfG von dieser Feststellung ab und sieht bereits in der Erhebung von Daten einen unerlaubten Grundrechtseingriff. Erfasst ein Überwachungssystem Menschen, so ist es nicht erst hinsichtlich der damit verbundenen Folgen, sondern bereits durch die Erfassung freiheitsbeeinträchtigend. „Zur Freiheitlichkeit des Gemeinwesens gehört es, dass sich die Bürgerinnen und Bürger grundsätzlich fortbewegen können, ohne dabei beliebig staatlich registriert zu werden, hinsichtlich ihrer Rechtschaffenheit Rechenschaft ablegen zu müssen und dem Gefühl eines ständigen Überwachtwerdens ausgesetzt zu sein“ – so das BVerfG.

Zulässig sind solche Kontrollen nur unter zwei Voraussetzungen. Zum einen muss dafür ein objektiv bestimmter und begrenzter Anlass bestehen. „Die Durchführung von Kontrollen zu beliebiger Zeit und an beliebigem Ort ins Blaue hinein ist mit dem Rechtsstaatsprinzip grundsätzlich unvereinbar“, so das BVerfG. Zum anderen müssen sie dem Schutz von wichtigen Rechtsgütern oder  öffentlichen Interessen dienen. Hierzu zählen z.B. Leib, Leben und Freiheit der Person und der Bestand und die Sicherheit des Bundes und der Länder. Da das Bayerische Polizeiaufgabengesetz beide Voraussetzungen nicht beachtet, hat das BVerfG die zu weitgehenden Regelungen für verfassungswidrig erklärt.

Auswirkung auch auf die Überwachung von Diesel-Fahrverboten  

Diese Bewertung gilt nicht nur für das Bayerische Polizeiaufgabengesetz, sondern auch für vergleichbare Regelungen in Baden-Württemberg und Hessen. Die Feststellung, dass ein Grundrechtseingriff bereits durch die bloße Erfassung von Überwachungsdaten besteht, hat Auswirkungen für viele polizeiliche und nachrichtendienstliche Überwachungsmethoden, weil diese bisher davon ausgingen, dass ein Grundrechtseingriff erst mit der Speicherung als Treffer beginnt. Diese Erkenntnis zwingt ebenfalls zur Anpassung vieler Erlaubnisse zur Überwachung. „Damit stellt Deutschland – im Gegensatz zu anderen europäischen Ländern – den Datenschutz über den noch unklaren Nutzen einer sehr umfassenden Kennzeichenerkennung”, lobt Forum-Privatheit-Experte Dr. Michael Friedewald vom Fraunhofer ISI.

So hat das Urteil des BVerfG auch Auswirkungen auf die Absicht, Fahrverbote für ältere Diesel-Fahrzeuge durch automatisierte Kennzeichenerfassung und Abgleich mit dem Bundeskraftfahrzeugregister durchzusetzen. „Solche automatisierten Kennzeichenkontrollen finden zwar nur an der Einfahrt zu Umweltzonen oder für Dieselfahrzeuge gesperrte Straßen statt, dienen aber nicht der Abwehr einer Gefahr für Rechtsgüter wie Leib, Leben und Freiheit der Person und den Bestand und die Sicherheit des Bundes und der Länder, sondern der Verhinderung oder Verfolgung von Ordnungswidrigkeiten – sind also in keiner Weise verhältnismäßig“ – resümiert Roßnagel.   

Im vom BMBF geförderten Forum Privatheit setzen sich Expertinnen und Experten aus sieben wissenschaft­lichen Institutionen interdisziplinär, kritisch und unabhängig mit Fragestellungen zum Schutz der Privatheit auseinander. Das Projekt wird vom Fraunhofer ISI koordiniert. Weitere Partner sind das Fraunhofer SIT, die Universität Duisburg-Essen, das Wissenschaftliche Zentrum für Informationstechnik-Gestaltung (ITeG) der Universität Kassel, die Eberhard Karls Universität Tübingen, die Ludwig-Maximilians-Universität München sowie das Unabhängige Landes­zentrum für Datenschutz Schleswig-Holstein. Das BMBF fördert das Forum Privatheit, um den öffentlichen Diskurs zu den Themen Privatheit und Datenschutz anzuregen.


Sprecher „Forum Privatheit“: 
Prof. Dr. Alexander Roßnagel
Universität Kassel
Projektgruppe verfassungsverträgliche Technikgestaltung (provet) am Wissenschaftlichen Zentrum für Informationstechnik-Gestaltung (ITeG)
Tel: 0561/804-3130 oder 2874
E-Mail: a.rossnagel@uni-kassel.de

Projektkoordination „Forum Privatheit“:
Dr. Michael Friedewald
Fraunhofer-Institut für System- und Innovationsforschung ISI
Competence Center Neue Technologien
Tel.: 0721 6809-146
E-Mail: Michael.Friedewald@isi.fraunhofer.de 

Presse und Kommunikation „Forum Privatheit“:
Barbara Ferrarese, M.A.
Fraunhofer-Institut für System- und Innovationsforschung ISI
Tel.: 0721 6809-678
E-Mail: presse@forum-privatheit.de

https://www.forum-privatheit.de/forum-privatheit-de/index.php
Twitter: @ForumPrivatheit

„Wer bei Digitalisierungsfragen nicht über Ethik redet, verliert die Orientierung“

Presseinformation Forum Privatheit

16.10.2018


Auf einer Podiumsdiskussion des Forschungsverbunds „Forum Privatheit“ diskutierten ExpertInnen und BürgerInnen in München darüber, was notwendig ist, um der Digitalisierung eine Richtung zu geben, die auch die Interessen der DatennutzerInnen angemessen berücksichtigt.

Als Informatikerin steht „Forum Privatheit“-Mitglied Marit Hansen den Chancen der Digitalisierung aufgeschlossen gegenüber. Als Landesdatenschutzbeauftragte von Schleswig-Holstein weiß sie jedoch auch um die Schattenseiten und plädiert für eine umsichtige Datennutzung, die die Privatsphäre der Verbraucherinnen und Verbraucher wahrt. Sie jedenfalls will keine Digitalisierung um jeden Preis. „Wir halten das Wie für sehr entscheidend. Datenschutzfreundliche Techniklösungen aus der Forschung bieten hier interessante Ansätze und müssen nun in die Praxis kommen.”

Politik heißt, das Gute zu fördern und das Schlechte zu behindern

In eine ähnliche Richtung argumentiert auch Prof. Dr. Wolf-Dieter Lukas, Leiter der Abteilung „Forschung für Digitalisierung und Innovationen“ im BMBF: „Es geht nicht nur darum, mit Hilfe von Digitalisierung das Neue in die Welt zu bringen. Es geht darum, mit den Möglichkeiten, die die Digitalisierung bietet, die Lebensumstände der Menschen zu verbessern. Dabei geht es nicht nur um Geschwindigkeit, auf die Richtung kommt es an. Wer nur über Ethik redet, kommt nicht voran. Aber wer gar nicht über Ethik redet, verliert die Orientierung.“ Für Unternehmensberater Wolf Ingomar Faecks, der Konzerne bei digitalen Transformationsprozessen begleitet, agiert Deutschland bei der Digitalisierung bislang nicht schnell genug: „Andere Länder und Unternehmen beschleunigen, während wir rückwärtsgewandte Aufklärung betreiben. Unsere Koketterie mit digitalem Unwissen hat uns nicht weitergebracht.“ Dem hält der niederländische Wissenschaftler und Netz-Aktivist Prof. Dr. Geert Lovink entgegen, dass wir nicht mehr nur in Richtung Anwendung denken sollten, sondern auch in Richtung Verbraucherschutz. Die Forschungslandschaft müsse umdenken, ebenso Brüssel. Von Deutschland erhofft er sich – wie zu Zeiten der Entwicklung der europäischen Datenschutzgrundverordnung – eine Vorreiterrolle.

Datenschutz sollte Verkaufsargument sein

Chancen für Verbraucherinnen und Verbraucher sieht auch der Soziologe und Verbraucherschutzexperte Prof. Dr. Jörn Lamla. „Die Herausforderung besteht aber darin, die Chancen zu priorisieren. Zurzeit gibt es leider nur eine Perspektive: profitable ökonomische Wertschöpfung. Doch das ist nur einer von mehreren Wertgesichtspunkten, um die es in der Datenökonomie geht.“ Grundsätzlich gebe es „schwache und starke Interessen“. „Wir müssen uns fragen, ob die Institutionen, die die Verbraucherinteressen schützen, wie etwa TÜV, Kartellämter, Datenschutzbehörden oder auch Verbraucherschutzverbände, für die aktuellen und zukünftigen Aufgaben noch richtig aufgestellt sind – oder ob Verbraucherpolitik nicht stärker in die Technikgestaltung selbst einbezogen werden muss.“ Die Anwesenheit des Wirtschaftsvertreters Faecks nutzt er für einen entsprechenden Wunsch: „Unterstützen Sie die Entwicklung eines Geschäftsmodells, das aufgrund der offensiven Einbeziehung von Daten- und Verbraucherschutz ein attraktives Gegenmodell zum vorherrschenden oder chinesischen Modell darstellt – und lassen Sie uns dieses gemeinsam zum Exportschlager machen!“


Im Forum Privatheit setzen sich Expertinnen und Experten aus sieben wissenschaftlichen Institutionen interdisziplinär, kritisch und unabhängig mit Fragestellungen zum Schutz der Privatheit auseinander. Das Projekt wird vom Fraunhofer ISI koordiniert. Weitere Partner sind das Fraunhofer SIT, die Universität Duisburg-Essen, das Wissenschaftliche Zentrum für Informationstechnik-Gestaltung (ITeG) der Universität Kassel, die Eberhard Karls Universität Tübingen, die Ludwig-Maximilians-Universität München sowie das Unabhängige Landes­zentrum für Datenschutz Schleswig-Holstein. Das BMBF fördert das Forum Privatheit, um den öffentlichen Diskurs zu den Themen Privatheit und Datenschutz anzuregen.

 

Organisation der Jahreskonferenz „Die Zukunft der Datenökonomie“:

Prof. Dr. Jörn Lamla
Fachgebiet Soziologische Theorie
Universität Kassel
+49 (0) 561 / 804-2185
lamla@uni-kassel.de

Prof. Dr. Thomas Hess
Institut für Wirtschaftsinformatik und Neue Medien
Ludwig-Maximilians-Universität München
+49 (0) 89 / 2180-6391
thess@bwl.lmu.de

Projektkoordination „Forum Privatheit“:
Dr. Michael Friedewald
Fraunhofer-Institut für System- und Innovationsforschung ISI
Competence Center Neue Technologien
+49 (0) 721 / 6809-146
Michael.Friedewald@isi.fraunhofer.de

Presse und Kommunikation „Forum Privatheit“:
Barbara Ferrarese, M.A.
Fraunhofer-Institut für System- und Innovationsforschung ISI
+49 (0) 0721 / 6809-678
barbara.ferrarese@forum-privatheit.de

„Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt“
https://www.forum-privatheit.de/forum-privatheit-de/index.php
Twitter: @ForumPrivatheit

 

Datenschutz-Grundverordnung: Innovative Regelungen, aber keine neue Ära des Datenschutzes

Expertengremium nimmt Stellung zum Geltungsbeginn der Datenschutz-Grundverordnung

Das wissenschaftliche Expertengremium „Forum Privatheit“ analysiert seit Jahren die Entstehung, die Inhalte und die Umsetzung der EU-Datenschutz-Grundverordnung. Zu deren Geltungsbeginn am 25. Mai 2018 fassen die Forscher ihre Erkenntnisse zusammen.


„Der wichtigste Effekt der Datenschutz-Grundverordnung (DSGVO) ist die enorme Aufmerksamkeit, die der Datenschutz derzeit genießt. Jeder Datenverarbeiter, vor allem wenn er den Datenschutz bisher ignoriert hat, nimmt ihn plötzlich zur Kenntnis und fragt entsetzt, was ihn betrifft und was er tun muss“, so „Forum Privatheit“-Sprecher Prof. Dr. Alexander Roßnagel, Rechtswissenschaftler der Universität Kassel. „Dieser DSGVO-Hype ist ein ideales Betätigungsfeld für alle kompetenten und inkompetenten Berater. Auf ihren Rat hin fordern viele große und kleine Datenverarbeiter von ihren Kunden, Mitgliedern und Geschäftspartnern Einwilligungserklärungen – auch wo dies völlig überflüssig und kontraproduktiv ist.“

Diese Aufregung hängt mit dem zusammen, was wirklich neu in der DSGVO ist. „Erstmals erhalten die Aufsichtsbehörden wirksame Aufsichts- und Sanktionsbefugnisse“, erklärt die Datenschutzbeauftragte von Schleswig-Holstein Marit Hansen, Mitglied im „Forum Privatheit“. „Sie können den Datenverarbeitern Anweisungen erteilen, wie sie datenschutzgerecht vorzugehen haben. Dies kann bis zu einem Verbot der Datenverarbeitung gehen. Bei einem Verstoß gegen Datenschutzvorgaben können sie Sanktionen verhängen, die je nach Schwere des Verstoßes bis zu 20 Millionen Euro oder bis zu 4 % des konzernweiten Vorjahresumsatzes reichen können.“

Für den Datenschutz bringt die DSGVO einige innovative Regelungen. Dies begrüßt der Wirtschaftsinformatiker Prof. Dr. Thomas Hess, Ludwig-Maximilians-Universität München und Mitglied im „Forum Privatheit“: „Hierzu gehört die Ausweitung des räumlichen Anwendungsbereichs. Neben EU-Firmen, gilt dieser von nun an auch für alle Datenverarbeiter weltweit, wenn sie – vereinfacht gesagt – personenbezogene Daten von Personen verarbeiten, die sich in der Union aufhalten. Damit wird Wettbewerbsgleichheit vor allem unter den Digitalkonzernen hergestellt, die ihre Dienste auf dem europäischen Markt anbieten.“ Neu sind auch einige Pflichten der Datenverarbeiter wie zur datenschutzgerechten Systemgestaltung und zu datenschutzfreundlichen Voreinstellungen, zur Datenschutz-Folgen­abschätzung sowie zu zusätzlichen Dokumentationen. Diese Pflichten gelten allerdings nur unter einigen Vorbehalten.

Die DSGVO stärkt auch die Rechte der betroffenen Person. „Es bleibt zwar überwiegend bei den bekannten Rechten – doch sind diese nun klarer ausgestaltet. Neu ist das Recht, in Plattformen selbst eingestellte Daten in andere Plattformen übertragen zu können. Neu ist auch das Recht auf Beschwerde bei den Aufsichtsbehörden und die Möglichkeit, die Betroffenenrechte durch einen Verband vertreten zu lassen“, so Prof. Dr. Jörn Lamla, Soziologe an der Universität Kassel und Mitglied im „Forum Privatheit“. „Dagegen ist am viel gepriesenen Recht auf Vergessen im Wesentlichen nur die Überschrift neu.“

Ansonsten enthält die DSGVO nicht viel Neues. Sie führt viele Regelungen der bisherigen Europäischen Datenschutzrichtlinie von 1995 fort. Da das deutsche Datenschutzrecht im Wesentlichen der Richtlinie entsprach, sind viele Regelungen der DSGVO mit den bisherigen Datenschutzrege­lungen vergleichbar. „Wer sich bisher datenschutzkonform verhielt und diese Praxis beibehält, ist gut aufgestellt“, so eine Kernbotschaft der Datenschutzbeauftragten Marit Hansen. „Allerdings wird eingebauter Datenschutz nicht von alleine Realität, wie die Vergangenheit gezeigt hat – wir alle müssen nun Hersteller und Dienstleister zur datenschutzfreundlichen Gestaltung ihrer Angebote drängen.“

Die DSGVO gilt als Verordnung unmittelbar. Sie bewirkt damit, dass sich in der gesamten Union und dem europäischen Wirtschaftsraum alle gleichermaßen an denselben Rechtstext halten müssen. Allerdings sind viele Regelungen so abstrakt, dass sie vielfach nach der jeweiligen Datenschutzkultur ausgelegt werden. Dadurch wird der Text in den einzelnen Mitgliedstaaten und eventuell sogar in verschiedenen Gerichtsbezirken jeweils unterschiedlich interpretiert werden. Bis dies in allen Details durch hochkomplexe Prozesse zur Vereinheitlichung der Datenschutzaufsicht und durch Urteile des EuGH geklärt ist, werden die abstrakten Vorschriften noch Jahre und Jahrzehnte für Rechtsunsicherheit sorgen.

Die DSGVO geht deutschem Recht vor, soweit dieses der Verordnung widerspricht. Allerdings enthält die DSGVO 70 Öffnungsklauseln, nach denen die Mitgliedstaaten eigenes und damit unterschiedliches Recht setzen oder beibehalten dürfen. „Aufgrund dieser Öffnungsklauseln gibt es klare Defizite bei der Vereinheitlichung des Datenschutzrechts in der Union “, erläutert Roßnagel. „Deutschland jedenfalls hat die Öffnungsklauseln bisher dafür benutzt, um das deutsche Datenschutzrecht in vollem Umfang beizubehalten. Änderungen hat es nur vorgenommen, um die Datenverarbeitung zu erleichtern und die Rechte der betroffenen Person gegenüber der DSGVO einzuschränken. Diese Ko-Regulierung des Datenschutzrechts durch die Europäische Union und die Mitgliedstaaten macht das Datenschutzrecht unübersichtlich und kompliziert. Im Ergebnis regelt die DSGVO tatsächlich nur den Bereich der privaten Wirtschaft, während der öffentliche Bereich weiterhin durch das deutsche Datenschutzrecht geprägt wird.“

„Unterentwickelt ist die DSGVO, soweit es um den Grundrechtsschutz gegenüber den neuen und zukünftigen Herausforderungen der technischen Entwicklung – wie etwa Big Data, künstliche Intelligenz, selbstlernende Systeme, Cloud Computing, Suchmaschinen, Netzwerkplattformen, Kontexterfassung, Internet der Dinge – geht. Sie hat keine der absehbaren Herausforderungen risikoadäquat geregelt. Dieses Manko muss baldmöglichst beseitigt werden“, so Dr. Michael Friedewald, Wissenschaftler am Fraunhofer-Institut für System- und Innovationsforschung ISI und „Forum Privatheit“-Koordinator.


Im Forum Privatheit setzen sich Expertinnen und Experten aus sieben wissenschaftlichen Institutionen interdisziplinär, kritisch und unabhängig mit Fragestellungen zum Schutz der Privatheit auseinander. Das Projekt wird vom Fraunhofer ISI koordiniert. Weitere Partner sind das Fraunhofer SIT, die Universität Duisburg-Essen, das Wissenschaftliche Zentrum für Informationstechnik-Gestaltung (ITeG) der Universität Kassel, die Eberhard Karls Universität Tübingen, die Ludwig-Maximilians-Universität München sowie das Unabhängige Landes­zentrum für Datenschutz Schleswig-Holstein. Das BMBF fördert das Forum Privatheit, um den öffentlichen Diskurs zu den Themen Privatheit und Datenschutz anzuregen. 

Sprecher „Forum Privatheit“:
Prof. Dr. Alexander Roßnagel
Universität Kassel
Projektgruppe verfassungsverträgliche Technikgestaltung (provet)
Wissenschaftliches Zentrum für Informationstechnik-Gestaltung (ITeG)
Tel: 0561/804-3130 oder 2874
E-Mail: a.rossnagel@uni-kassel.de

Projektkoordination „Forum Privatheit“:
Dr. Michael Friedewald
Fraunhofer-Institut für System- und Innovationsforschung ISI
Competence Center Neue Technologien
Tel.: 0721 6809-146
E-Mail: Michael.Friedewald@isi.fraunhofer.de 

Presse und Kommunikation „Forum Privatheit“:
Barbara Ferrarese, M.A.
Fraunhofer-Institut für System- und Innovationsforschung ISI
Tel.: 0721 6809-678
E-Mail: presse@forum-privatheit.de

Forum „Privatheit und selbstbestimmtes Leben in der digitalen Welt“
https://www.forum-privatheit.de/forum-privatheit-de/index.php
Twitter: @ForumPrivatheit

Datenschutz-Folgenabschätzungen für die betriebliche und behördliche Praxis

Im Projekt  “Datenschutz-Folgenabschätzungen für die betriebliche und behördliche Praxis” (DSFA) wird ein Konzept zur Durchführung einer Datenschutz-Folgenabschätzung (DSFA) validiert. Die neue europäische Datenschutz-Grundverordnung (DS-GVO), die ab Mai 2018 angewendet wird, sieht für bestimmte Anwendungen die Durchführung einer DSFA obligatorisch vor. Aufgabe einer DSFA muss es sein, Kriterien des Grundrechtsschutzes zu definieren, die Folgen von Datenverarbeitungspraktiken möglichst umfassend zu erfassen sowie objektiv und nachvollziehbar mit Blick auf die verschiedenen Rollen und damit verbundenen Interessen so zu bewerten, dass typischen Angriffen durch Organisationen und durch Externe mit adäquaten Gegenmaßnahmen begegnet werden kann.  Eine DSFA darf nicht nur eine „lästige Pflicht“ für eine Organisationen darstellen, die sie durchführt, sondern ist ein wichtiges Element für einen innovativen Ansatz der Systementwicklung, das so genannte „Privacy by Design“ (PbD). Institutionen, die zuverlässig, rechtzeitig und umfassend mögliche Datenschutzrisiken erkennen, sind in der Lage, solche nicht-funktionalen Anforderungen frühzeitig in den Systementwurf zu berücksichtigen.

Die hierbei angestrebte Innovation betrifft die Entwicklung eines Rahmens für Datenschutzfolgen-Abschätzungen: Dies umfasst einen Prozess zu deren Durchführung, eine Methodik zum Einbezug aller relevanten Akteure, Kriterien zur zuverlässigen Messung und Bewertung von Datenschutzfolgen sowie Möglichkeiten, diese Elemente in einem Softwaretool zu integrieren.

Wie eine DSFA durchzuführen ist, ist in der DS-GVO nur rudimentär beschrieben. Ziel des Vorhabens ist es, das von den Antragstellern entwickelte Verfahren für eine DSFA zu validieren und praxistauglich zu machen. Es soll für unterschiedliche Anwendungen geeignet sein, von Akteuren aus der Wirtschaft wie der öffentlichen Verwaltung genutzt werden können, von Institutionen unterschiedlicher Größe gleichermaßen praktikabel sein und die Anforderungen des PbD erfüllen. Gegenstand des Projektes soll es sein, die verschiedenen Elemente des DSFA-Konzepts mit realen Anwendungen und in Kooperation mit Akteuren aus Wirtschaft und öffentlicher Verwaltung zu testen und auf Basis der Ergebnisse ggf. Modifikationen vorzunehmen.

Validierungsziele sind der Nachweis, dass mit das validierte DSFA-Konzept die Anforderungen sowohl des Gesetzgebers als auch der Aufsichtsbehörden erfüllt (Effektivität) und von den nutzenden  Unternehmen und Behörden als nützlich und praktikabel bewertet wird (Effizienz).

Für ein innovatives und zuverlässiges DSFA-Konzept existieren unterschiedliche Verwertungs- und Anwendungswege:  Da künftig jedes Unternehmen und jede öffentliche Einrichtung, die personenbezogene Daten verarbeiten, ggf. eine DSFA durchführen muss, gibt es eine hohe potenzielle Nachfrage nach Dienstleistung (vor allem Durchführung von DSFAen und Schulungen zum Einsatz der DSFA-Methodik) und nach unterstützenden Software-Werkzeugen.

Status

Laufendes Projekt (09/2017-08/2019)

Partner:

  • Fraunhofer ISI (Verbundkoordinator);
  • Fachhochschule Kiel
  • FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur
  • ULD (Unterauftragnehmer)
  • Datenschutz Nord (Unterauftragnehmer)
  • Ostfalia Fachhochschule

Neuerscheinung

Privatheit und selbstbestimmtes Leben in der digitalen Welt

Interdisziplinäre Perspektiven auf aktuelle Herausforderungen des Datenschutzes

Herausgeber: Friedewald, Michael

Springer Vieweg 2018,ISBN978-3-658-21383-1m DOI: 10.1007/978-3-658-21384-8, 315 Seiten

Privatheit ist eine wichtige Grundlage für ein selbstbestimmtes Leben. In einer immer stärker vernetzten digitalen Welt ist sie von vielen Seiten bedroht. Die Beiträge des Buches untersuchen aktuelle Herausforderungen für Privatheit und Datenschutz aus multidisziplinärer Perspektive. Thematisiert wird dabei u.a., welche Rolle Privatheit in der Gesellschaft einnimmt, wie Bürger diese heute verstehen und wie sie mit den zunehmenden Angriffen darauf umgehen. Darüber hinaus befassen sich die Beiträge mit der europäischen Datenschutzpolitik und neuen Regelungsformen für einen wirksameren Datenschutz.

„Wir dürfen das Wohl und Wehe der Demokratie nicht einzelnen Internet-Unternehmen überlassen“

23.03.2018

Als Reaktion auf den jüngsten Datenskandal um Facebook und Cambridge Analytica fordert das „Forum Privatheit“ effektiveren Verbraucherschutz, wirkungsvollere Regulierung und bessere Aufklärung.

Wie kürzlich bekannt wurde, hat die Datenanalysefirma Cambridge Analytica 50 Millionen Facebook-Profile illegal ausgespäht. Cambridge Analytica war für einen Großteil des Wahlkampfs des US-amerikanischen Präsidenten Donald Trump verantwortlich. „Die illegitime Auswertung von 50 Millionen Facebook-Profilen durch Cambridge Analytica und die dadurch möglich gewordenen Verzerrungseffekte im amerikanischen Präsidentschaftswahlkampf zeigen, wie groß mittlerweile die Beeinflussungspotentiale sind, die die Internet-Giganten und die mit ihnen verbundene Datenindustrie aufgebaut haben“, so Dr. Carsten Ochs, Soziologe an der Universität Kassel und Mitglied des Forschungsverbunds „Forum Privatheit“.

Dabei ist bisher nicht klar, inwieweit die Ausspähung der Profile tatsächlich den Wahlkampf beeinflusst hat. „Es existieren allerdings Studien, die nahelegen, dass das Mikrotargeting, welches durch die Datenanalysen möglich wird, erfolgreich und in massenhaftem Ausmaß zur Beeinflussung und Verhaltenssteuerung eingesetzt werden kann“, so „Forum Privatheit“-Mitglied Dr. Thilo Hagendorff vom Internationalen Zentrum für Ethik in den Wissenschaften in Tübingen. „Der Nachweis eines kausalen Einflusses der Manipulationsversuche Cambridge Analyticas auf die Präsidentschaftswahlen dürfte aber kaum möglich sein, und die von dem Datenanalysten zugrunde gelegten psychologischen Persönlichkeitsmodelle sind – soweit überhaupt bekannt – nicht für ihre hohe Vorhersagekraft bekannt“, ergänzt Prof. Dr. Nicole Krämer, Medienpsychologin an der Universität Duisburg-Essen, ebenfalls Mitglied im Forschungsverbund „Forum Privatheit“.  Dennoch gebe der Einblick in unser Alltagsleben den Plattform-Betreibern eine äußerst große gesellschaftliche Machtfülle an die Hand.

„Für regulatorische und Verbraucherschutz-Organe ist bislang kaum nachvollziehbar, wie diese datenbasierte Machtfülle genutzt wird“, so der Soziologe Ochs. Dass noch nicht einmal bekannt sei, wie groß der Einfluss von Facebook, Cambridge Analytica, aber auch von vielen anderen Internet-Firmen auf einen so fundamentalen demokratischen Vorgang wie eine Wahl exakt gewesen sei, zeige überdeutlich den massiven Gestaltungsbedarf in diesem Bereich an: Das Beeinflussungspotenzial der Internet-Unternehmen ist möglicherweise immens, doch hätten sie keinerlei demokratische Legitimation, und handelten immer wieder in einer Weise, die mit demokratischen Grundprinzipien schwerlich in Übereinstimmung zu bringen sei. So werde das Vertrauen der Verbraucherinnen und Verbraucher zerstört und nachhaltiges Wirtschaften verhindert.

Eine ganz neue Form des Verbraucherschutzes ist gefordert

Die Regulierung der Unternehmen war bislang auch deshalb schwierig, weil diese global agieren, die politischen und rechtlichen Institutionen und Behörden aber in nationalem Rahmen tätig sind. Für „Forum Privatheit“ ist klar, dass es hier um eine neuartige Regelung von Verantwortung gehen muss. Zum einen dürfe auf keinen Fall der Datenschutz im Entwurf der E-Privacy-Verordnung geschwächt werden, der wenigstens einige Grenzen des Tracking und der Datensammelei im Internet aufstellt. Zum anderen werde durch solche Fälle deutlich, dass der Verbraucherschutz im Internet dringend auf neue Grundlagen gestellt werden muss. Dabei könne es nicht nur um einzelne Verbraucherinnen und Verbraucher gehen, sondern um neue, kollektiv verbindliche Spielregeln, und die Rolle von Institutionen, die die Einhaltung dieser Regeln auch überwachen und durchsetzen, und das nicht nur auf nationaler Ebene. „Wie soll sich der einzelne Verbraucher gegenüber der Übermacht der Konzerne zur Wehr setzen, insbesondere wenn zwei Unternehmen verdeckt zusammenarbeiten?

Wenn eine illegitime Wahlbeeinflussung dadurch auch nur in den Bereich des heute oder zukünftig Denkbaren rückt, dann ist schon das ein Problem der demokratischen Gesellschaft insgesamt, denn es zerstört nachhaltig Vertrauen – völlig unabhängig davon, ob eine Einzelperson bestimmte soziale Medien individuell nutzt, oder nicht. Wenn wir die Verantwortung den Einzelnen zuschieben, werden wir der Größenordnung des Problems nicht gerecht“, so Ochs.   Einerseits sei zu lange auf die einzelnen Nutzerinnen und Nutzer geschaut worden, während nun immer deutlicher werde, dass die Probleme auf regulatorischer, politischer und institutioneller Ebene anzupacken seien. Andererseits zeige der Vorgang aber auch den großen Bedarf an besserer Aufklärung der Bürgerinnen und Bürger an: „Es ist und bleibt eine zentrale Aufgabe, die Bevölkerung über das Missbrauchspotenzial von massenhaft verfügbaren Daten – und seien sie so unscheinbar wie ein Like auf Facebook – zu informieren“, ergänzt Krämer.

Plattformen sind keine neutrale Infrastruktur

Die Mitglieder des Forschungsverbunds „Forum Privatheit“ legen Wert darauf, dass der Facebook-Datenskandal nicht das Problem eines einzelnen Anbieters oder Landes ist, sondern die sozialen Medien und das Internet insgesamt betrifft. „Das Wissen, dass diese Unternehmen generieren, birgt Steuerungspotentiale und damit gesellschaftliche und politische Macht. Wir müssen diese Machtfülle regulieren, so wie viele Länder ja auch über die Machtfülle von einzelnen Medienunternehmen wachen“, so Forumssprecher Prof. Dr. Alexander Roßnagel.

Die Forum-Privatheit-Mitglieder sind sich einig: Das Wohl und Wehe der Demokratie darf nicht der Internet-Industrie und Institutionen überlassen werden, die die geschaffene Infrastruktur digitaler sozialer Netzwerke für illegitime Beeinflussung missbrauchen. „Allen, die politische Verantwortung tragen, muss klar sein: Wenn sie die Manipulationsmöglichkeiten der Internet-Industrie weiterhin unreguliert anwachsen lassen, droht der Existenzgrundlage der Demokratien früher oder später selbst Gefahr“, fügt Prof. Dr. Thomas Hess, Wirtschaftsinformatiker der LMU München, hinzu. Dabei gelte es zu beachten, dass nicht nur Unternehmen wie Cambridge Analytica problematische Praktiken der Datenverarbeitung pflegten, sondern auch Social-Media-Plattformen oder Anbieter von Suchmaschinen selbst in die Verantwortung genommen werden müssen. „Facebook, YouTube oder Twitter können sich nicht mehr auf den Standpunkt zurückziehen, lediglich neutrale Infrastrukturen anzubieten ohne dafür verantwortlich zu sein, für welche Zwecke sie genutzt werden“, stellt der Verbraucherforscher und Soziologe Prof. Dr. Jörn Lamla vom Forum Privatheit fest: „Sie müssten vielmehr selbst ein nachhaltiges Interesse daran haben, dass die ihnen überlassenen Daten unter demokratischer Kontrolle bleiben – sonst ist das Vertrauen und damit die Basis ihres Geschäfts weg.“

Forum Privatheit lädt ein zur Dialogveranstaltung: „Was kommt nach Cambridge Analytica? Notwendige Regulierungen für den Verbraucherschutz“am 25. April 2018, 13:00 – 14:30 Uhr in der Vertretung des Landes Baden-Württemberg bei der Europäischen Union, Rue Belliard 60-62, 1040 Brüssel, u.a. mit Frau Prof. Dr. Nicole Krämer, Universität Duisburg-Essen sowie Prof. Dr. Jörn Lamla und Dr. Carsten Ochs, Universität Kassel


In dem vom BMBF geförderten Forum Privatheit setzen sich Expertinnen und Experten aus sieben wissenschaft­lichen Institutionen interdisziplinär mit Fragestellungen zum Schutz der Privatheit auseinander. Das Projekt wird vom Fraunhofer ISI koordiniert. Weitere Partner sind das Fraunhofer SIT, die Universität Duisburg-Essen, das Wissenschaftliche Zentrum für Informationstechnik-Gestaltung (ITeG) der Universität Kassel, die Eberhard Karls Universität Tübingen, die Ludwig-Maximilians-Universität München sowie das Unabhängige Landes­zentrum für Datenschutz Schleswig-Holstein.

Sprecher „Forum Privatheit“: 

Prof. Dr. Alexander Roßnagel
Universität Kassel
Projektgruppe verfassungsverträgliche Technikgestaltung (provet)
Forschungszentrum für interdisziplinäre Technik-Gestaltung (ITeG)
Tel: 0561/804-6544 oder 2874
E-Mail: a.rossnagel@uni-kassel.de

Projektkoordination „Forum Privatheit“:
Dr. Michael Friedewald
Fraunhofer-Institut für System- und Innovationsforschung ISI
Competence Center Neue Technologien
Tel.: 0721 6809-146
E-Mail: Michael.Friedewald@isi.fraunhofer.de

Presse und Kommunikation „Forum Privatheit“:
Barbara Ferrarese, M.A.
Fraunhofer-Institut für System- und Innovationsforschung ISI
Tel.: 0721 6809-678
E-Mail: presse@forum-privatheit.de

„Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt“
https://www.forum-privatheit.de/forum-privatheit-de/index.php
Twitter: @ForumPrivatheit

Im Omnibus in die neue Datenschutzwelt – Was folgt auf die Datenschutz-Grundverordnung?

Presseinformation Forum Privatheit
16. März 2018

Eine von CAST-Forum und Forum Privatheit organisierte Tagung am 15.3.2018 in Darmstadt mit Vertretern aus Politik, Wirtschaft, Wissenschaft und Aufsichtsbehörden zeigt auf, wohin sich der Datenschutz entwickeln wird, wenn ab 25. Mai 2018 die europäische Datenschutz-Grundverordnung gilt.

„Das künftige Datenschutzrecht wird nicht nur von der Datenschutz-Grundverordnung, sondern durch eine Ko-Regulierung der europäischen und deutschen Gesetzgeber geprägt“ sagt Prof. Dr. Alexander Roßnagel, Jurist an der Universität Kassel und Sprecher des Expertengremiums „Forum Privatheit“. „Die Mitgliedstaaten nutzen die 70 Öffnungsklauseln der DSGVO, um die bisherigen nationalen Datenschutzregelungen beizubehalten und nur sprachlich der DSGVO anzupassen.“ Das derzeit im Bund vorbereitete „Omnibus-Gesetz“, das vermutlich diesen Sommer in den Gesetzgebungsprozess eingebracht wird, sieht in über 140 Gesetzen mit Datenschutzregelungen meist nur formale Anpassungen an den Sprachgebrauch der DSGVO vor. Keines dieser Gesetze wird aber durch die DSGVO überflüssig oder gestrichen. Vielmehr bleiben alle bestehenden nationalen Gesetze erhalten, ohne Innovationsimpulse der DSGVO – wie z.B. Privacy-by-Design und Privacy-by-Default – zu konkretisieren. Zu einem ähnlichen Ergebnis kam auch der Landesbeauftragte für Datenschutz und Informationsfreiheit in Rheinland-Pfalz, Prof. Dr. Dieter Kugelmann, der von den Anpassungsbemühungen auf Länderebene berichtete. Auch dort werden sehr viele Gesetze angepasst, ohne dass ein einziges entfiele. Sein Fazit: Es wird weniger modernisiert, es bleibt eher bei einer Beibehaltung des Alten. Bernd Adams von T-Systems begrüßt grundsätzlich die Zielsetzung der Vereinheitlichung des Datenschutzes. Die Ausgestaltung bereite ihm allerdings Bauchschmerzen. „Haben wir ein EU-weit einheitliches Datenschutzrecht – oder haben wir 27 verschiedenen nationale Auslegungen?

Sein und Sollen

Prof. Dr. Johannes Caspar, der Hamburgische Beauftragte für Datenschutz und Informations­freiheit, sieht „kaum einen Bereich, in dem Sein und Sollen so weit auseinanderliegen wie bei im Datenschutz.“ Daher sieht er die wirkliche Innovation in der DSGVO in den Regelungen zum Vollzug. Erstmals würde die Vollzugsbehörden mit wirksamen Vollzugs- und Sanktionsinstrumenten ausgestattet. So haben die Aufsichtsbehörden nun auch die Möglichkeit, Bußgelder zu verhängen, die weh tun. Lagen sie noch beim BDSG bei max. 300.000 Euro, können nun bis zu 20.000.000 Mio. Euro verhängt werden – oder 4 % des jährlichen Umsatzes eines Unternehmens. „Früher war ein Verstoß gegen Datenschutzauflagen ein Kavaliersdelikt. Das ist künftig anders.“

Die DSGVO bringe für die Aufsichtsbehörden viele neue Aufgaben. Diese entspreche allerdings nicht ihrer personellen Ausstattung. In einem Gutachten zum notwendigen Personalbedarf der Aufsichtsbehörden habe Prof. Roßnagel festgestellt, dass aufgrund dieser neuen Aufgaben im Durchschnitt jede Landesdatenschutzbehörde um 20 Stellen aufgestockt werden müsste. Dies sei in den Ländern allerdings nicht erfolgt. „Die Aufsichtsbehörden sind eigentlich die Garanten des Rechtsvollzugs – werden aber damit allein gelassen.“

Für wichtig hielt Caspar auch die Regelungen, nach denen die Aufsichtsbehörden unionsweit koordiniert würden. Dabei kommt dem Europäischen Datenschutz-Ausschuss eine besondere Rolle zu. Mit ihm sei „Datenschutz keine Sache mehr des einzelnen Behördenleiters, der tapfer allein in die Sonne reitet.“ Die Themen könnten nur auf europäischer Ebene einheitlich entschieden und in der gesamten Union umgesetzt werden. Datenschutz sei nicht nur ein Garant für die Datenschutzrechte der Betroffenen in Europa, sondern auch für einen fairen Wettbewerb von Unternehmen im EU-Binnenmarkt. „Wir brauchen einen fairen Wettbewerb – und den bekommen wir nur über den europäischen Datenschutz-Ausschuss. Denn: Nichts ist so europäisch wie der Datenschutz.

Innovation und Datenschutz sind kein Gegensatz mehr

Einen hoffnungsvollen Ausblick gibt Dr. Michael Friedewald, Projektkoordinator des „Forum Privatheit“ vom Fraunhofer-Institut für System- und Innovationsforschung (ISI): „Wir befinden uns vor einer Zeitenwende. Hier kann der Datenschutz vom Umweltschutz lernen. Es hat hier auch eine Weile gedauert, bis sich gezeigt hat, dass Regulierungen in diesem Bereich nicht nur für die Gesellschaft nützlich sind, sondern, dass sie auch zu Innovationen und wirtschaftlicher Profitabilität führen.“

E-Privacy-Verordnung

Wie so etwas aussehen kann, zeigt die künftige E-Privacy-Verordnung. Sie regelt den Datenschutz für die elektronische Kommunikation nicht abstrakt und technikneutral wie die DSGVO, sondern bereichs- und risikobezogen. Auch wendet sie sich an die richtigen Adressaten, nämlich auch an Hersteller von IT und nicht nur an ihre Anwender. Die E-Privacy-Verordnung sollte ursprünglich mit der DSGVO am 25.5.2018 Geltung erlangen. Rolf Bender, Vertreter des Bundesministeriums für Wirtschaft und Energie, rechnet jedoch damit, dass die E-Privacy-Verordnung „nicht vor Ende 2018“ verabschiedet wird. Ihr Kernanliegen ist der Schutz der Vertraulichkeit der Kommunikation. Doch auch hier gibt es noch viele offene Fragen. Unklar ist zum Beispiel: Wann gilt die DSGVO und wann die E-Privacy-Verordnung? Als Innovations­hemmnis für Unternehmen sollte sich aber für Bender keine ihrer Regelungen erweisen. „Wir wollen ein hohes Datenschutzniveau – aber wir wollen auch, dass innovative Geschäftsmodelle nicht kaputt gemacht werden.“


Im vom BMBF geförderten Forum Privatheit setzen sich Expertinnen und Experten aus sieben wissenschaft­lichen Institutionen interdisziplinär mit Fragestellungen zum Schutz der Privatheit auseinander. Das Projekt wird vom Fraunhofer ISI koordiniert. Weitere Partner sind das Fraunhofer SIT, die Universität Duisburg-Essen, das Wissenschaftliche Zentrum für Informationstechnik-Gestaltung (ITeG) der Universität Kassel, die Eberhard Karls Universität Tübingen, die Ludwig-Maximilians-Universität München sowie das Unabhängige Landes­zentrum für Datenschutz Schleswig-Holstein.

 

Sprecher „Forum Privatheit“:
Prof. Dr. Alexander Roßnagel
Universität Kassel
Projektgruppe verfassungsverträgliche Technikgestaltung (provet) am
Wissenschaftlichen Zentrum für Informationstechnik-Gestaltung (ITeG)
Tel: 0561/804-3130 oder 2874
E-Mail: a.rossnagel@uni-kassel.de

Projektkoordination „Forum Privatheit“:
Dr. Michael Friedewald
Fraunhofer-Institut für System- und Innovationsforschung ISI
Competence Center Neue Technologien
Tel.: 0721 6809-146
E-Mail: Michael.Friedewald@isi.fraunhofer.de

Presse und Kommunikation „Forum Privatheit“:
Barbara Ferrarese, M.A.
Fraunhofer-Institut für System- und Innovationsforschung ISI
Tel.: 0721 6809-678
E-Mail: presse@forum-privatheit.de

Forum „Privatheit und selbstbestimmtes Leben in der digitalen Welt“
https://www.forum-privatheit.de/forum-privatheit-de/index.php
Twitter: @ForumPrivatheit

Forum Privatheit: Innovationsförderung setzt wirksamen Datenschutz voraus

Expertengremium analysiert Koalitionsvertrag und benennt Maßnahmen zur Ausgestaltung der Ziele

Das wissenschaftliche Expertengremium „Forum Privatheit“ hat die Aussagen des Koalitionsvertrags zur geplanten Gestaltung der Digitalisierung untersucht und seine Analyse in einem Policy Paper zusammengefasst: Datenschutz stärken, Innovationen ermöglichen – Wie man den Koalitionsvertrag ausgestalten sollte. Es erläutert, welche Maßnahmen nun folgen müssen, um die Ziele Innovationsförderung und Datenschutz zu verbinden.

Der Koalitionsvertrag zwischen CDU, CSU und SPD verspricht einen „neuen Aufbruch für Europa“, eine „neue Dynamik für Deutschland“ und einen „neuen Zusammenhalt für unser Land“. Dazu wollen die Koalitionäre umfangreiche Modernisierungen anstoßen. Als politische Grundlage der Großen Koalition ist der Koalitionsvertrag jedoch ein Kompromiss, der nur das konkret benennt, worauf sich die Koalitionäre inhaltlich einigen konnten. Vieles wird nur angedeutet, bleibt im Ungefähren und Abstrakten. Daher hat der Expertenkreis „Forum Privatheit“ untersucht, welche Maßnahmen ergriffen werden sollten, um die im Koalitionsvertrag genannten Ziele Innovationsförderung und Datenschutz inhaltlich auszugestalten.

Spielraum der Datenschutz-Grundverordnung für mehr Anwenderschutz nutzen

Die Koalition will laut Vertrag Innovationen und neue Dienste „ermöglichen und gleichzeitig den hohen und weltweit angesehenen Datenschutzstandard Europas und Deutschlands halten“. Hierzu will sie die 2020 anstehende Evaluierung der Datenschutz-Grundverordnung durch die EU-Kommission intensiv begleiten und dabei alle Regelungen auf ihre „Zukunftsfähigkeit und Effektivität“ hin überprüfen. „Dies ist auch dringend notwendig, weil es der Datenschutz-Grundverordnung gerade an Zukunftsfähigkeit und Effektivität mangelt“, so „Forum Privatheit“-Sprecher Prof. Dr. Alexander Roßnagel, Rechtswissenschaftler der Universität Kassel. „Zukunftsfähigkeit fehlt ihr insofern, als sie keine der absehbaren Herausforderungen – wie etwa Big Data, künstliche Intelligenz, selbstlernende Systeme, Suchmaschinen, Netzwerkplattformen, Kontexterfassung, Internet der Dinge – risikoadäquat regelt. Will sie zukunftsfähig sein, muss sie gerade die enormen Risiken, die von der Digitalisierung aller Lebensbereiche ausgehen, spezifisch regeln. Nur wenn sie gegenüber diesen Risiken Rechtssicherheit bietet, kann sie auch effektiv sein.“ Daher sollte die Bundesregierung auf risikogerechte Regelungen im europäischen Datenschutzrecht drängen und selbst im Rahmen der deutschen Regelungskompetenzen solche erlassen. Für den Schutz von Kommunikationsdaten im Rahmen der laufenden Verhandlungen zur Reform der ePrivacy-Gesetzgebung sollte die Bundesregierung die risikospezifischen und nutzerfreundlichen Vorschläge der EU-Kommission und des EU-Parlaments im Rat unterstützen.

Nutzervertrauen basiert auf wirksamen Datenschutzmaßnahmen

Das notwendige Nutzervertrauen für Innovationen setzt Datenschutz voraus: Durch Systemgestaltung und Voreinstellungen, bessere Möglichkeiten, den Datenfluss zu kontrollieren, die Möglichkeit, eigene Daten auf andere Anbieter zu übertragen und den Schutz der Vertraulichkeit durch Verschlüsselung. „Diese Rechte sind auch gegenüber wirtschaftlich mächtigen Anbietern durchzusetzen“, so Roßnagel. „Datenportabilität und Interoperabilität von digitalen Plattformen sowie die Modernisierung des Wettbewerbsrechts können auch helfen, die Wettbewerbsfähigkeit deutscher und europäischer Plattformunternehmen zu stärken. Auch in diesem Zusammenhang sind Datenschutz und Nutzerrechte wettbewerbs- und innovationsfördernde Mittel.“

Risikoadäquater Datenschutz für Beschäftigte

Die Koalition erkennt, dass die Digitalisierung zahlreiche Vorteile für Unternehmen und Beschäftigte bietet, zugleich aber auch Überwachungsgefahren birgt. Um die Persönlichkeitsrechte der Beschäftigten sicherzustellen, sollte die Bundesregierung risikoadäquate Datenschutzregelungen für das Beschäftigungsverhältnis treffen. Hierzu gehören u. a. Regelungen, die heimliche Kontrollen ebenso explizit ausschließen wie eine Dauerüberwachung und die Erstellung umfassender Bewegungsprofile. Bei der Nutzung mobiler Geräte sollten so viele Daten wie möglich unter Kontrolle der Beschäftigten bleiben.

Rechtsrahmen für Smart Cars, Smart Health und Smart Cities

Der Koalitionsvertrag sieht einen Rechtsrahmen für autonomes Fahren (Smart Cars) vor, der Datenschutz und Datensicherheit ebenso gewährleistet wie ein Höchstmaß an Verkehrs- und Datensicherheit. Dieser Rechtsrahmen muss auch gewährleisten, dass die Betroffenen immer situationsadäquat darüber informiert sind, welche Daten überhaupt von wem verarbeitet werden. Ihnen sollen einfache Möglichkeiten zur Verfügung stehen, solchen Datenverarbeitungen zuzustimmen oder nicht. Dabei darf eine Nicht-Zustimmung nicht zu gravierenden Nachteilen führen. „Wie bei Smart Cars müssen im Rahmen von Smart Health und Smart Cities spezifische, risikoadäquate Regelungen für den Technikeinsatz vorgesehen werden“, so Dr. Michael Friedewald, Wissenschaftler am Fraunhofer-Institut für System- und Innovationsforschung ISI und Forum-Privatheit-Koordinator. „Die Entscheidungsfreiheit der Betroffenen zu wahren ist der richtige Ansatz.“ Einer risikospezifischen Regelung, die vor Missbrauch schützt, bedürfen aber ebenso die vielen Gesundheitsdaten, die im Rahmen von freiwilligen Messverfahren für Körperfunktionen erhoben, (oft ins außereuropäische Ausland) übertragen und verarbeitet werden. Auch die Regelungen, die zur Energie- und Verkehrssteuerung in Smart Cities zum Einsatz kommen, müssen sicherstellen, dass dadurch keine neuen und vertieften Risiken für die Privatheit und Selbstbestimmung der Betroffenen, insbesondere durch Verhaltens- und Bewegungsprofile, entstehen. „Besondere Aufmerksamkeit sollte auf die datenschutzgerechte Systemgestaltung durch angemessene Datenverarbeitungsarchitekturen und durch Maßnahmen zur Datensparsamkeit gelegt werden“, fordert Friedewald.

Die Vermessung des Menschen muss geregelt werden

Zu begrüßen ist, dass der Koalitionsvertrag den Diskriminierungsverboten der „analogen Welt“ auch in der digitalen Welt zu Gültigkeit verhelfen will. Dies darf aber nicht auf den Verbraucherschutz allein beschränkt bleiben. Vielmehr wird für die Verwendung von Algorithmen, Künstlicher Intelligenz und Big Data sowie für die Vermessung und Katalogisierung des Menschen in allen Gesellschafts- und Wirtschaftsbereichen zu regeln sein, welche Bemessungskriterien und -verfahren zulässig und welche, wegen der Gefahr von Diskriminierung, unzulässig sind.

Daten-Ethikkommission muss auch Fragen zur Machtkonzentration stellen

Mögliche Abhilfe sieht der Koalitionsvertrag in einer Daten-Ethikkommission. Diese soll „innerhalb eines Jahres einen Entwicklungsrahmen für Datenpolitik, den Umgang mit Algorithmen, künstlicher Intelligenz und digitalen Innovationen“ vorschlagen. Eine interdisziplinär besetzte, sachverständige und nicht nur Umsetzungsinteressen verpflichtete Kommission, könnte einen Anstoß bieten für eine breite gesellschaftliche Debatte über eine verfassungs- und wertekonforme Gestaltung der Digitalisierung. Allerdings ist zu berücksichtigen, dass die Frage nach dem adäquaten Umgang mit Algorithmen und Künstlicher Intelligenz untrennbar mit Fragen nach der Konzentration technologischer und wirtschaftlicher Macht durch wenige Digitalkonzerne verbunden ist. Auch das sollte gesellschaftlich diskutiert werden.

Das Forum-Privatheit-Policy Paper zum Koalitionsvertrag „Datenschutz stärken, Innovationen ermöglichen – Wie man den Koalitionsvertrag ausgestalten sollte bietet eine Analyse des Koalitionsvertrags in Bezug auf Digitalisierung und Datenschutz sowie Empfehlungen, welche konkreten Maßnahmen nötig sind, um die im Koalitionsvertrag noch abstrakt formulierten Ziele zu erreichen.


Im vom BMBF geförderten Forum Privatheit setzen sich Expertinnen und Experten aus sieben wissenschaftlichen Institutionen interdisziplinär mit Fragestellungen zum Schutz der Privatheit auseinander. Das Projekt wird vom Fraunhofer ISI koordiniert. Weitere Partner sind das Fraunhofer SIT, die Universität Duisburg-Essen, das Wissenschaftliche Zentrum für Informationstechnik-Gestaltung (ITeG) der Universität Kassel, die Eberhard Karls Universität Tübingen, die Ludwig-Maximilians-Universität München sowie das Unabhängige Landeszentrum für Datenschutz Schleswig-Holstein.

Sprecher „Forum Privatheit“:
Prof. Dr. Alexander Roßnagel
Universität Kassel
Projektgruppe verfassungsverträgliche Technikgestaltung (provet)
Forschungszentrum für interdisziplinäre Technik-Gestaltung (ITeG)
Tel: 0561/804-3130 oder 2874
E-Mail: a.rossnagel@uni-kassel.de

Projektkoordination „Forum Privatheit“:
Dr. Michael Friedewald
Fraunhofer-Institut für System- und Innovationsforschung ISI
Competence Center Neue Technologien
Tel.: 0721 6809-146
E-Mail: Michael.Friedewald@isi.fraunhofer.de

Presse und Kommunikation „Forum Privatheit“:
Barbara Ferrarese, M.A.
Fraunhofer-Institut für System- und Innovationsforschung ISI
Tel.: 0721 6809-678
E-Mail: presse@forum-privatheit.de

Forum „Privatheit und selbstbestimmtes Leben in der digitalen Welt“
https://www.forum-privatheit.de/forum-privatheit-de/index.php
Twitter: @ForumPrivatheit

 

Save the date: Tagung Zukunft der Datenökonomie

Interdisziplinäre Konferenz

Zukunft der Datenökonomie

Gestaltungsperspektiven zwischen Geschäftsmodell, Kollektivgut und Verbraucherschutz (Oktober 2018)

Die Digitalisierung erfasst immer mehr Lebensbereiche. Daraus resultieren zahlreiche neue Wertschöpfungsprozesse und Tauschverhältnisse. Die entwickelten Geschäftsmodelle und daraus entstehenden Verbraucherverhältnisse wirken sich massiv auf Privatheit und Selbstbestimmung aus. Doch welche Folgen ergeben sich hieraus in politischer, regulatorischer, ökonomischer und zivilgesellschaftlicher Hinsicht? Wie funktionieren die digitalen Wertschöpfungslogiken ökonomisch, technisch-sozial und psychologisch? Welche Wertvorstellungen, Konzepte und Praktiken der Aneignung und des Privateigentums spielen dabei eine Rolle? Könnte sich mit technischen oder politischen Mitteln Transparenz für die Entstehung und Verteilung des Wertes „Daten mit Personenbezug“ herstellen lassen? Der vom Bundesministerium für Bildung und Forschung (BMBF) geförderte interdisziplinäre Forschungsverbund „Forum Privatheit“ lädt dazu ein, diese und weitere Fragen im Rahmen einer zweitägigen Konferenz gemeinsam zu diskutieren.

Datum: 11./12.10.2018

Ort: Bayerische Akademie der Wissenschaften, München

Eingeladene Vorträge von

  • Sarah Spiekermann (WU Wien)
  • Geert Lovink (Univ. Amsterdam) und
  • Shoshana Zuboff (Harvard Business School, tbc)