Skip to main content

Arbeitspapier zu Datenmärkten erschienen

Das Forum Privatheit hat ein Arbeitspapier zur Struktur und Funktionsweise von und Wertschöpfung in Datenmärkten vorgelegt:

Bründl, S.; Matt, C.; Hess, T. (2015). Wertschöpfung in Datenmärkten: Eine explorative Untersuchung am Beispiel des deutschen Marktes für persönliche Daten. Forschungsbericht. (Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt). Karlsruhe: Fraunhofer ISI.

New article: Civilizing drones: Military discourses going civil

Braun, Sven, Michael Friedewald, and Govert Valkenburg, “Civilizing drones: Military discourses going civil“, Science & Technology Studies, Vol. 28, No. 2, 2015, pp. 73-87.

This article presents an account of how a technology being transferred from one area of deployment to another entails that specific discourses travel along. In particular, we show that the development of Unmanned Aircraft Systems (UAS, often referred to as drones) is importantly determined by its military progeny, as the civilian context inherits specific discourses from the military context. Contemporary ideas of privacy and security in drone use can be largely traced back to this original context. We show that concepts and their relative importance primarily depend on the discourses that travel together with the technologies on which the concepts aim to act. There is no technological reason for privacy and security to be implemented the way they are, nor can their implementation be explained merely from socio-political or moral discourses. Instead, material and discursive mechanisms successfully enact and reproduce the dominant military viewpoint.

“Hidden Internet”: Smart technologies and the Internet of Things pose new challenges to privacy protection

Popular everyday appliances – like televisions – are increasingly connected to the internet and engage in the collection of personal data. The resulting data on user behavior, the transmission and processing of this data and the increasing complexity of smart technologies pose new challenges to privacy protection and informational self-determination. In the White Paper “Hidden Internet“, experts from the research network “Forum Privacy and self-determined life in the digital world“ outline the problematic aspects of smart technologies for privacy and how these issues might be addressed. The White Paper focuses on three applications – smart TVs, smart cars and wearable devices like smart watches.

Smart TVs or smart bracelets that are connected to other devices, services and manufacturers via the Internet of Things increasingly belong to the everyday life of society. Users welcome the internet-based services and functions of these smart appliances – but are often not aware of the extent to which their data are being collected, and processed. These problems are enhanced by the increasing complexity of smart technologies; it is almost impossible for users to follow whether and how personal data can be protected against unauthorized access or disclosure.

In the light of these changing framework conditions for privacy and data protection, the research network “Forum Privacy“ describes the risks that may result from using smart TVs, smart cars and wearables in its White Paper “The hidden Internet“. For instance, smart TVs already gather use and behavioral data when people are just watching television and even enable personal identification by photo, audio and video recording. This means that large segments of the population can be monitored. All this applies in a similar way to smart cars that record vehicle-related, driver behavior and environmental data and can transmit these to vehicle manufacturers or other transport users. Alongside information about driving style, location or route, the personal characteristics and habits of the drivers can be derived by linking this information with other data. This is also the case for so-called wearables – devices like smart fitness bracelets or smart watches that are worn in contact with the skin. The health data wearables gather allows detailed insights into the private lives of users.

Peter Zoche, who coordinates the research activities of the Forum Privacy Project at Fraunhofer ISI, cites some of the main problems and design potentials for manufacturers, users and policymakers: “The demand for informational self-determination is faced with non-transparent data trading and concealed data collection. On top of this, it is often hard to change the default settings of smart devices. And if users want to take action themselves to ensure greater data protection, they are confronted by a flood of information and complex terms and conditions“. According to Zoche, networked devices and applications should have privacy-enhancing settings (privacy by default), take users’ information requirements into account and have visual or acoustic signals that alert users to possible data transfers.

Furthermore, in future, political and legal regulations should ensure that smart technologies are more in line with the principles of data protection. Appropriate conditions for guaranteeing privacy in the digital age could be created using sanctions, as well as by enforcing EU data protection legislation. Alongside state institutions and initiatives, however, industry must also contribute by making data protection a core design element when introducing new smart devices and applications (privacy by design). Last, but not least, users themselves will need to handle their personal data and the associated risks with greater awareness.


 

In the Forum Privacy Project, which is funded by the German Federal Ministry of Education and Research (BMBF), national and international experts from different disciplines address the issues surrounding privacy protection over a period of three years. The project is coordinated by Fraunhofer ISI, and the partners are Fraunhofer SIT, the University of Hohenheim, the University of Kassel, the Eberhard Karls University of Tübingen, the Unabhängige Landeszentrum für Datenschutz Schleswig-Holstein and the Ludwig-Maximilian University of Munich. The research results of the Forum Privacy Project are intended not only as input to scientific debate, but also to be of use in educating normal citizens regarding privacy protection.

Just published: Privacy and Security Perceptions of European Citizens: A Test of the Trade-off Model

Friedewald, Michael, Marc van Lieshout, Sven Rung, Merel Ooms, and Jelmer Ypma, “Privacy and Security Perceptions of European Citizens: A Test of the Trade-off Model“, in Jan Camenisch, Simone Fischer-Hübner, and Marit Hansen (eds.), Privacy and Identity Management for the Future Internet in the Age of Globalisation: 9th IFIP WG 9.2, 9.5, 9.6/11.7, 11.4, 11.6/SIG 9.2.2 International Summer School, Patras, Greece, September 7-12, 2014, Revised Selected Papers, Springer, Heidelberg, Berlin, 2015, pp. 39-53. DOI: 10.1007/978-3-319-18621-4_4

This paper considers the relationship between privacy and security and, in particular, the traditional ”trade-off” paradigm that argues that citizens might be willing to sacrifice some privacy for more security. Academics have long argued against the trade-off paradigm, but these arguments have often fallen on deaf ears. Based on data gathered in a pan-European survey we show that both privacy and security are important to European citizens and that there is no significant correlation between people’s valuation of privacy and security.

„Verstecktes Internet“: Smarte Technologien und Internet der Dinge stellen Schutz der Privatheit vor neue Herausforderungen

Beliebte Alltagsgeräte wie Fernseher sind immer häufiger mit dem Internet verbunden oder verfügen über internetbasierte Zusatzdienste. Die dabei entstehenden Daten über das Nutzerverhalten, ihre Weitergabe und Verarbeitung sowie die zunehmende Komplexität „smarter“ Technologien stellen den Schutz der Privatheit und die informationelle Selbstbestimmung vor neue Herausforderungen. Im White Paper „Verstecktes Internet“ skizzieren die Expertinnen und Experten des Forschungsverbunds „Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt“ die aus Sicht des Privatheitsschutzes problematischen Aspekte smarter Technologien und zeigen mögliche Gestaltungspotenziale auf. Das White Paper konzentriert sich dabei auf die drei Anwendungsbereiche Smart TV, intelligente Autos sowie neue Endgeräte wie Smart Watches, die direkt am Körper getragen werden.

Vernetzte Smart TVs oder intelligente Armbänder, die über das „Internet der Dinge“ mit anderen Geräten, Dienstleistern und Herstellern verbunden sind, durchdringen zusehends den Alltag vieler Menschen. Die Nutzer schätzen besonders die netzbasierten Dienste und Funktionen dieser „smarten“ Geräte – ihnen ist jedoch häufig nicht bewusst, in welchem Umfang Nutzerdaten erhoben und zu welchen Zwecken sie weitergeleitet werden. Diese Probleme verschärfen sich mit der zunehmenden Komplexität smarter Technologien und es ist für die Nutzer kaum mehr nachzuvollziehen, ob und wie sich personenbezogene Daten vor ungewollten Zugriffen und Weitergaben schützen lassen.

Vor dem Hintergrund dieser veränderten Rahmenbedingungen für den Privatheits- und Datenschutz beschreibt der Forschungsverbund „Forum Privatheit“ im White Paper „Verstecktes Internet“ die Risiken, die bei der Nutzung von „Smart TVs“, „Smart Cars“ und „Wearables“ entstehen können: So erheben etwa Smart TVs schon beim gewöhnlichen Fernsehen Nutzungs- und Verhaltensdaten und ermöglichen über Foto-, Audio- und Videoaufnahmen sogar eine persönliche Identifikation. Dadurch lassen sich nicht nur Einzelpersonen sondern auch große Teile der Bevölkerung überwachen. All dies trifft in ähnlicher Weise auf vernetzte Autos bzw. „Smart Cars“ zu, die fahrzeugbezogene Daten, das Verhalten des Fahrers sowie Umgebungsdaten erfassen und diese an Fahrzeughersteller oder andere Verkehrsteilnehmer weiterleiten können. Neben Informationen über Fahrstil, Aufenthaltsort oder Fahrstrecke ließen sich durch die Verknüpfung mit anderen Daten zudem persönliche Merkmale und Gewohnheiten der Nutzer ableiten. Dies ist auch bei sogenannten „Wearables“ der Fall, also Geräten wie intelligenten Fitnessarmbändern oder Smart Watches, die Nutzer direkt am Körper tragen. Durch die Erhebung von Gesundheitsdaten werden zum Beispiel tiefe Einblicke in die privaten Lebensumstände der Nutzer erfasst.

Peter Zoche, der am Fraunhofer ISI die Forschungsaktivitäten des Forum Privatheit koordiniert, nennt an Hersteller, Nutzer und die Politik gerichtet einige zentrale Problembereiche und Gestaltungspotenziale: „Der Forderung nach informationeller Selbstbestimmung stehen ein intransparenter Datenhandel und versteckt erfolgende Datenerhebungen gegenüber. Hinzu kommt, sich die Grundeinstellung smarter Geräte oft nur bedingt verändern lässt. Und wenn Nutzer aktiv werden möchten, um selbst für mehr Datenschutz zu sorgen, sehen sie sich mit einer Informationsflut und komplexen Geschäftsbedingungen konfrontiert.“ Laut Zoche sollten vernetzte Geräte und Anwendungen in Zukunft über datenschutzfreundliche Grundkonfigurationen (Privacy by Default) verfügen und Nutzer durch visuelle oder akustische Hinweise auf mögliche Datentransfers hingewiesen und ihre Informationsbedarfe hierbei berücksichtigt werden.

Des Weiteren sollten in Zukunft auch Möglichkeiten der politisch-rechtlichen Regulierung dafür sorgen, dass smarte Technologien stärker in Einklang mit den Prinzipien des Datenschutzes stehen. Sanktionsmöglichkeiten könnten genauso wie die Durchsetzung einer EU-weiten Datenschutz-Grundverordnung geeignete Voraussetzungen zur Gewährleistung von Privatheit im digitalen Zeitalter schaffen. Neben staatlichen Institutionen und Initiativen müssen jedoch auch wirtschaftliche Akteure dazu beitragen, dass Datenschutz zu einem Kernelement bei der Einführung neuer smarter Geräte und Anwendungen wird (Privacy by Design). Nicht zuletzt sind auch die Nutzer gefragt, künftig noch bewusster mit ihren persönlichen Daten sowie den damit verbundenen Risiken umzugehen.

Das White Paper kann hier heruntergeladen werden.

 

Policy Paper zum Thema “Das versteckte Internet” mit Empfehlungen an Wirtschaft und Politik online

Die Erweiterung von herkömmlichen Fernsehern, Autos und Brillen um internetbasierte Zusatzfunktionen, etwa die Kommunikation des Fernsehers mit Internetdiensten, fügt sich dermaßen unsichtbar in die Benutzung ein, dass den Nutzern kaum noch ersichtlich ist, wie viele Daten wo, wann und zu welchem Zweck erhoben, genutzt und wem diese persönlichen Informationen zugänglich gemacht werden. Hier äußert sich zunächst ein eklatanter Mangel an Transparenz, den das Forum Privatheit mit dem White Paper „Das versteckte Internet“ adressiert.

Vor dem Hintergrund der Ausweitung internetbasierter Technologien macht das Forum Privatheit im Policy Paper „Verstecktes Internet“ eine Reihe von Verbesserungsvorschlägen, die sich an Entscheider aus Wirtschaft und Politik richten und den bestehenden Datenschutz stärken sollen.

Die empfohlenen Handlungsoptionen umfassen eine transparente Integration internetbasierter Zusatzfunktionen in bislang nicht vernetzte Geräte genauso wie eine datenschutzfreundliche Gerätekonfiguration (Privacy by Default) oder eine Kennzeichnung und Zertifizierung nach Prinzipien des Datenschutzes. Auch Möglichkeiten der Aus-, Weiterbildung und Aufklärung zur Sensibilisierung von Datenschutzfragen sowie der politisch-rechtlichen Regulierung sollten genutzt werden, um bislang oft überflüssige Eingriffe in Nutzerrechte sowie eklatante Transparenz-Mängel stark einzuschränken.

Durch die Umsetzung der Handlungsoptionen ließen sich personenbezogene Daten in Zukunft zweckgebundener erheben und für die Nutzerinnen und Nutzer wäre ihre weitere Verwendung zudem nachvollziehbarer.

 

In the press: Protection of neuro data

Hallinan, D.; Schütz, P.; Friedewald, M.; Hert, P. d. (2015): Wer kann sie erraten? In: Süddeutsche Zeitung vom 31.Januar/1.Februar 2015, S. 17.

http://www.sueddeutsche.de/digital/schutz-fuer-neurodaten-grundrecht-gegen-das-gedankenlesen-1.2328391

Gedankenfreiheit ist das Herzstück einer demokratischen Ordnung. In Zeiten der massenhaften Überwachung physischer und virtueller Räume ist der menschliche Geist die letzte Bastion absoluter Freiheit und Privatheit. So könnte man meinen – doch auch diese Bastion scheint zu bröckeln. Denn es werden mehr und mehr Neurodaten gesammelt, also Daten zu den Abläufen im Gehirn.

 

 

Just published: “Open consent, biobanking and data protection law”

Hallinan, D.; Friedewald, M. (2015): Open Consent, Biobanking and Data Protection Law Can Open Consent be ‘Informed’ under the Forthcoming Data Protection Regulation? In: Life Sciences, Society and Policy 11, Nr. 1. http://www.lsspjournal.com/content/pdf/s40504-014-0020-9.pdf

This article focuses on whether a certain form of consent used by biobanks – open consent – is compatible with the Proposed Data Protection Regulation. In an open consent procedure, the biobank requests consent once from the data subject for all future research uses of genetic material and data. However, as biobanks process personal data, they must comply with data protection law. Data protection law is currently undergoing reform. The Proposed Data Protection Regulation is the culmination of this reform and, if voted into law, will constitute a new legal framework for biobanking. The Regulation puts strict conditions on consent – in particular relating to information which must be given to the data subject. It seems clear that open consent cannot meet these requirements. 4 categories of information cannot be provided with adequate specificity: purpose, recipient, possible third country transfers, data collected. However, whilst open consent cannot meet the formal requirements laid out by the Regulation, this is not to say that these requirements are substantially undebateable. Two arguments could be put forward suggesting the applicable consent requirements should be rethought. First, from policy documents regarding the drafting process, it seems that the informational requirements in the Regulation are so strict in order to protect the data subject from risks inherent in the use of the consent mechanism in a certain context – exemplified by the online context. There are substantial differences between this context and the biobanking context. Arguably, a consent transaction in the biobanking does not present the same type of risk to the data subject. If the risks are different, then perhaps there are also grounds for a reconsideration of consent requirements? Second, an argument can be made that the legislator drafted the Regulation based on certain assumptions as to the nature of ‘data’. The authors argue that these assumptions are difficult to apply to genetic data and accordingly a different approach to consent might be preferable. Such an approach might be more open consent friendly.

 

 

Selbstdatenschutz kann staatliche Schutzpflichten nicht ersetzen

Am 28. Januar ist Europäischer Datenschutztag. Aus diesem Anlass findet vom 21. bis zum 23. Januar 2015 in Brüssel die Computers, Privacy and Data Protection Conference statt. Das Fraunhofer-Institut für System- und Innovationsforschung ISI, das in vielen Projekten zu Fragen des Datenschutzes forscht, beteiligt sich an dieser Veranstaltung: Dr. Michael Friedewald, Projektleiter am Fraunhofer ISI, wird im Rahmen eines Panels über Selbstdatenschutz diskutieren. Zu diesem Thema hat der vom Fraunhofer ISI im Auftrag des Bundesministeriums für Bildung und Forschung (BMBF) koordinierte Forschungsverbund “Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt” ein White Paper veröffentlicht.

In dieser Publikation werden die gesellschaftlichen, rechtlichen und technischen Rahmenbedingungen des Selbstdatenschutzes analysiert sowie Schutzmaßnahmen aufgezeigt, unter anderem die Verschlüsselung von Daten, E-Mails und Kurznachrichten, die Nutzung von Anti-Tracking-Maßnahmen und Anonymisierungstools sowie die Verwendung gängiger Verschlüsselungsprotokolle.

Obwohl bereits 1983 im sogenannten Volkszählungsurteil die staatliche Schutz- und Förderpflicht der informationellen Selbstbestimmung formuliert wurde, dominiert bis heute die Vorstellung, dass es vor allem in der persönlichen Verantwortung des mündigen Bürgers liege, für den Schutz seiner persönlichen Daten und seiner Privatsphäre zu sorgen. Dazu gibt es bereits seit Jahren Verfahren und technische Werkzeuge, mit denen einzelne Aspekte des Selbstdatenschutzes wie Verschlüsselung oder Anonymisierung realisiert werden können. Diese werden allerdings von den Bürgerinnen und Bürgern bis heute wenig verwendet.

Die Gründe hierfür sind vielfältig: Auf den digitalen Märkten gibt es heute einen erheblichen Unterschied zwischen den Kenntnissen und Fähigkeiten der Bürgerinnen und Bürger auf der einen und denen der Geheimdienste und Unternehmen auf der anderen Seite. Dies führt dazu, dass Datensammlungen und Überwachung für die meisten Bürgerinnen und Bürger in der Regel kaum erkennbar sind und auch deshalb systematisch unterschätzt werden. Deren Vorstellung, sie hätten “doch nichts zu verbergen” und ihr Vertrauen in die Sicherheitsversprechungen leisten dieser Entwicklung weiteren Vorschub. Schließlich setzt ein umfassender Selbstschutz zu viele spezielle Kenntnisse voraus, die die meisten Computernutzerinnen und -nutzer nicht haben.

Angesichts der fortschreitenden Digitalisierung und dem Wirken der Geheimdienste müssen Bürgerinnen und Bürger umfassend über Möglichkeiten und Grenzen des Selbstschutzes informiert und die Nutzbarkeit und Leistungsfähigkeit der Werkzeuge verbessert werden.

Doch die Autoren des White Papers machen auch deutlich, dass die Verlagerung staatlicher Schutzpflichten auf das Individuum der gesellschaftlichen Bedeutung des Grundrechts auf informationelle Selbstbestimmung nicht gerecht werden kann. Informationelle Privatheit ist keine Frage individueller Vorlieben, sondern wichtig für ein freiheitlich-demokratisches Gemeinwesen. Deshalb muss der Staat wieder stärker seinem in der deutschen Verfassung verankerten Auftrag, die Bevölkerung vor unverhältnismäßiger Überwachung zu schützen, nachkommen.

Möglichkeiten dazu werden auf der Computers, Privacy and Data Protection Conference (CPDP) erörtert, die vom 21. bis zum 23. Januar 2015 zum achten Mal in Brüssel stattfindet. Diese vom Fraunhofer ISI mit veranstaltete Konferenz ist die größte europäische Veranstaltung, bei der Vertreterinnen und Vertreter aus Politik, Wirtschaft, Wissenschaft und Gesellschaft zusammenkommen, um sich auszutauschen und aktuelle Herausforderungen in den Bereichen Informationstechnologie, Privatheit, Datenschutz und Recht zu diskutieren. Dr. Michael Friedewald wird dort am 23. Januar 2015 das Thema “Selbstdatenschutz” im Rahmen eines Panels zur Diskussion stellen, das vom “Forum Privatheit” organisiert wird.

Verfahren zur Bewertung von Datenschutzfolgen bei Überwachungssystemen

Bei neuen Überwachungsmöglichkeiten müssen jedes Mal die Sicherheitsinteressen gegen die Freiheitsrechte abgewogen werden. Im EU-Projekt SAPIENT hat ein Konsortium unter der Leitung des Fraunhofer-Instituts für System- und Innovationsforschung ISI ein Verfahren entwickelt, mit dem sich die Folgen von Überwachung für den Schutz personenbezogener Daten und anderer Grundrechte abschätzen lassen. Dieses Verfahren, das in einem Handbuch dokumentiert ist, kann Unternehmen und öffentlichen Stellen bei der Entscheidung helfen, ob eine neue Technologie oder Dienstleistung genutzt werden sollte.

Eine Vorabbewertung von Datenschutzfragen wird beim Einsatz von Überwachungstechnologien und -dienstleistungen bald gesetzlich verpflichtend sein: Die Europäische Union beispielsweise listet im Entwurf für die künftige europäische Datenschutzgrundverordnung mehrere Prinzipien auf, die bei der generellen Verarbeitung personenbezogener Daten beachtet werden müssen. Dazu gehören der begrenzte Einsatz von Überwachungsinstrumenten, die zeitlich beschränkte Speicherung der Daten sowie eine allgemeine Berücksichtigung von Bürgerrechten.

Um die möglichen Risiken für den Einzelnen ebenso wie für die ganze Gesellschaft zu eruieren, braucht es eine fundierte Prüfung, welche Auswirkungen eine neue Technologie oder Dienstleistung haben kann. Im Rahmen des EU-Projekts SAPIENT (Supporting fundamentAl rights, PrIvacy and Ethics in surveillaNce Technologies) hat ein Konsortium unter der Leitung des Fraunhofer-Instituts für System- und Innovationsforschung ISI ein Handbuch zur Abschätzung der Auswirkungen von Überwachung (Surveillance Impact Assessment) entwickelt.

Oft ist in der Literatur und in Forschungsprojekten nur von einer Abschätzung der Auswirkungen für die Privatsphäre (Privacy Impact Assessment) die Rede, doch Projektleiter Dr. Michael Friedewald vom Fraunhofer ISI betont: “Überwachungssysteme haben nicht nur Auswirkungen auf die Privatsphäre. Es können auch andere Grundrechte betroffen sein, beispielsweise das Recht auf freie Meinungsäußerung oder die Versammlungsfreiheit. Ebenso besteht die Gefahr, dass sensible Informationen zu Herkunft, Religion, politischer Einstellung, Gesundheit und Sexualität zusammengeführt und genutzt werden. Der im Rahmen von SAPIENT entwickelte Fragenkatalog deckt gesellschaftliche, wirtschaftliche, politische, rechtliche und ethische Aspekte ab.”

Zu den Fragen, die sich politische Entscheidungsträger, technische Entwickler und andere gesellschaftliche Akteure möglichst schon vor, spätestens aber während der Entwicklung des Produkts stellen sollten, gehören: Wird das neue Überwachungssystem wirklich gebraucht? Ist der Nutzen erklärbar? Für welchen Auftraggeber wird es entwickelt? Auf wen ist es gerichtet, wer ist davon betroffen? Überwiegen die Vor- oder die Nachteile? Ist es rechtlich in Ordnung? Ist es ethisch vertretbar? Welche Ressourcen werden gebraucht?

Anhand der Antworten auf diese und viele andere Fragen lassen sich der Einfluss und die Risiken der geplanten Technologien und Dienstleistungen einschätzen. Die identifizierten Risiken können hinsichtlich Konsequenzen und Wahrscheinlichkeit analysiert und priorisiert werden. Dann muss versucht werden, die wahrscheinlichsten und gravierendsten Risiken zu reduzieren beziehungsweise Lösungen dafür zu finden. Letztlich zielt der Fragenkatalog darauf ab, bei der Entscheidung zu helfen, ob das neue Produkt eingesetzt werden sollte – oder eben nicht. Die frühestmögliche Auseinandersetzung mit den Folgen ist wichtig, da so noch Einfluss auf die Produkt- oder Serviceentwicklung genommen werden kann.

Michael Friedewald weist in diesem Zusammenhang auf das Konzept von “Privacy by design” hin, das von der künftigen europäischen Datenschutzverordnung vorgeschrieben wird: “Es ist entscheidend für die Wahrung von Grundrechten, sich frühzeitig Fragen zur Privatsphäre und zum Datenschutz zu stellen. Nur so können mögliche Risiken erkannt und entsprechende Lösungen bereits im Entwicklungsprozess gefunden werden, statt sie im Nachhinein zu implementieren. Ein gutes Beispiel für den Privacy-by-design-Ansatz ist die automatische Datenlöschung nach einer bestimmten Zeit.”

Aus dem Fragenkatalog ist ein Handbuch für Politiker, Entwickler und andere wichtige Akteure entstanden, wie und wann auf intelligente Überwachung zurückgegriffen werden sollte und wie sie sich in Einklang mit der Achtung von Privatsphäre bringen lässt. Das Handbuch präsentiert eine ausführliche Version für eine umfassende Analyse komplexer Systeme und eine Kurzversion, die eine rasche erste Bewertung erlaubt.

Das Handbuch mit dem Bewertungsverfahren und dem Fragenkatalog kann unterwww.sapientproject.eu/SIA_Manual.pdf heruntergeladen werden.

Weitere Informationen zum Projekt SAPIENT gibt es unter www.sapientproject.eu.

This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny Diese Website speichert einige User-Agent-Daten. Diese Daten werden verwendet, um eine persönlichere Erfahrung zu ermöglichen und um Ihren Aufenthaltsort auf unserer Website in Übereinstimmung mit der EU Datenschutz-Grundverordnung zu verfolgen. Wenn Sie sich dazu entschließen, das Tracking zu deaktivieren, wird in Ihrem Browser ein Cookie eingerichtet, das diese Auswahl ein Jahr lang speichert. Ich stimme zu, Stimme nicht zu
1193