Datenpolitik jenseits von Datenschutz
Wenn wir digitale Dienste nutzen, begleiten uns Überraschung und Schrecken. Einerseits schätzen wir die sich täglich erweiternden Möglichkeiten, die sie uns bieten; andererseits erschrecken uns die Dinge, die Anbieter mit den dabei gesammelten Nutzerdaten treiben. Wer Nutzungsbedingungen zustimmt und in die Verarbeitung seiner Daten einwilligt, ist für gewöhnlich im Unwissen darüber, wie viel das von ihm eingetauschte Gut – seine Daten – tatsächlich wert ist.
Oft erschließt sich der Wert unserer Daten erst zu einem späteren Zeitpunkt und möglicherweise erst im Zusammenhang mit anderen Daten. Das liegt daran, dass Innovationen auf der Basis von Daten wie alle Entdeckungsverfahren offen sind. Die Politik muss daher grundsätzlich bereit sein, Innovationstätigkeiten und Gewinnaussichten zu beschränken, sollte sie zu dem Schluss kommen, dass die Praktiken, die datengetriebenen Geschäftsmodellen zugrunde liegen, demokratische Grundwerte aushöhlen und Persönlichkeitsrechte verletzen.
Genau das aber scheint derzeit regelmäßig der Fall zu sein. Es besteht unserer Ansicht nach wenig Aussicht, dass sich das mit dem Inkrafttreten der europäischen Datenschutz-Grundverordnung grundlegend ändern wird. Bei Datenpolitik geht es auch nicht allein um Privatsphäre, sondern ebenso um soziale und wirtschaftliche Gerechtigkeit. Digitale Profile mit hunderten Datenpunkten mögen bessere Dienstleistungen ermöglichen, sie können aber auch Entscheidungen über den Zugang zu wesentlichen Ressourcen wie Gesundheitsleistungen, Bildungsangeboten oder finanziellen Mitteln beeinflussen.
Das Dilemma des Datenzeitalters
Momentan fehlen uns Instrumente, um positive Effekte mit potenziellen Schäden adäquat auszutarieren. Das Dilemma dabei: Wenn wir keine Modelle finden, die es ermöglichen, Daten zu gesellschaftlich akzeptierten Zwecken zu nutzen, ohne dass Bürger ihrer Grundrechte beraubt werden, werden uns auch die damit verbundenen Chancen zur Förderung des Gemeinwohls entgehen. Das mantraartige Bekenntnis zu den Prinzipien des traditionellen Datenschutzes bei gleichzeitiger Artikulation des Willens, die positiven Möglichkeiten des Sammelns und Auswertens von Daten abseits der formalen Restriktionen des Datenschutzes nutzen zu wollen, bringt uns hier nicht weiter.
Bevor wir uns kritisch mit den Mechanismen des Datenschutzes auseinandersetzen, möchten wir grundsätzlich betonen, dass wir den deutschen und europäischen Ansatz eines starken Schutzes von Persönlichkeits-, Bürger- und Verbraucherrechten ausdrücklich begrüßen. Unsere Kritik ist als konstruktives Weiterdenken dieser Prinzipien dort zu verstehen, wo bestehende Regelungen offensichtlich an Grenzen stoßen.
Grundprinzipien des Datenschutzes
Beim Datenschutz steht einerseits der Schutz der Freiheit der Bürger vor Überwachung und andererseits das Recht auf die persönliche Kontrolle von privaten Informationen im Zentrum. Datenschutzgesetze sind insofern abgeleitet vom Selbstbestimmungsrecht und dem Schutz der Menschenwürde, die auch das Fundament der Europäischen Grundrechte-Charta bilden. Mit dem Volkszählungsurteil von 1983 hat das Bundesverfassungsgericht verschiedene, aufeinander bezogene Grundprinzipien aufgestellt, die zunächst im deutschen, später in den Datenschutzgesetzen anderer europäischer Länder umgesetzt wurden:
- Verbot mit Erlaubnisvorbehalt
Nach diesem Prinzip ist die Verarbeitung personenbezogener Daten grundsätzlich untersagt, es sei denn, es liegt ein Erlaubnistatbestand vor: Erstens, wenn ein Gesetz die Verarbeitung erlaubt, zweitens, wenn der Betroffene in die Datenverarbeitung einwilligt.
- Direkterhebung
Nach dem Prinzip der Direkterhebung dürfen Daten nur beim Betroffenen selbst erhoben werden und der Betroffene muss Kenntnis über die Erhebung der Daten haben – zumindest, sofern keine Rechtsvorschrift vorliegt, die eine Abweichung gestattet.
- Zweckbindung
Der Zweck der Verarbeitung muss bereits vor der Verarbeitung klar definiert sein. Wenn eine Einwilligung durch den Verbraucher erteilt wird, so gilt diese nur für den darin ausbuchstabierten Zweck.
- Erforderlichkeit
Daten dürfen nur gespeichert werden, wenn es für die Erreichung des Zwecks erforderlich ist. Wenn der Zweck der Datenerhebung erfüllt wurde, müssen die Daten gelöscht werden, sofern keine Aufbewahrungspflichten bestehen.
- Datensparsamkeit und Datenminimierung
Zweckbindung und Erforderlichkeit dienen überdies der Sicherstellung des Prinzips der Datensparsamkeit und Datenminimierung. Generell gilt also, dass so wenig personenbezogene Daten wie möglich erhoben, verarbeitet und genutzt werden sollen. Auch die Technik kann dieses Prinzip begünstigen.
- Transparenz
Der Betroffene soll zu jeder Zeit wissen, wer welche Daten über ihn speichert. Diese Informations- und Benachrichtigungspflicht gilt sowohl wenn der Betroffene der Datenverarbeitung zugestimmt hat als auch wenn sie gesetzlich zulässig ist.
- Kontrolle und Sanktion
Auf staatlicher Seite überprüfen die Datenschutzaufsichtsbehörden die Einhaltung der Regularien durch die staatlichen Stellen. Auf betrieblicher Seite sind Beauftragte für die Datenschutz-Compliance zuständig. Durch Transparenz-Rechte können auch die Betroffenen selber zur Kontrolle beitragen. Die Aufsichtsbehörden sind zudem berechtigt, die Einhaltung der Bestimmungen in den Unternehmen zu prüfen und Verstöße zu ahnden.
Datenschutzgrundverordnung schreibt Prinzipien fort
Im Mai 2018 wird die Datenschutz-Grundverordnung (DSGVO) in allen europäischen Mitgliedsstaaten in Kraft treten. Sie wird durch die E-Privacy-Richtlinie ergänzt, die zurzeit überarbeitet wird und ebenfalls im Mai 2018 in Kraft treten soll. So soll erstmals europaweit ein ähnlicher Datenschutzstandard gelten und das Datenschutzniveau angehoben werden.
Inhaltlich schreibt die DSGVO die genannten Prinzipien des Datenschutzes fort, wobei sie einige durch gezielte Maßnahmen verstärkt. Darüber hinaus führt die Verordnung einige wesentliche Neuerungen ein. Eine der wohl gravierendsten Änderungen der DSGVO sind die deutlich erhöhten Strafen bei Gesetzesverstößen, die bei bis zu vier Prozent des Jahresumsatzes eines Unternehmens liegen können.
Die zentralen Prinzipien des Datenschutzes und damit auch der DSGVO wurden jedoch zu einer Zeit definiert, als es zwar bereits erste Ansätze der digitalisierten Datenverarbeitung gab, der Stand der Technik aber nicht mit dem heutigen Datenverkehr vergleichbar war. Wir sind der Meinung, dass dieser regulative Rahmen Bürger- und Freiheitsrechte nicht ausreichend zu schützen vermag. Zusammenfassend zeichnen sich mindestens die folgenden zentralen Problemfelder ab.
1. Personenbezogene Daten lassen sich immer schwerer von anderen Daten unterscheiden
Die DSGVO basiert wie andere Datenschutzgesetze auf der Prämisse, zwischen personenbezogenen und nicht-personenbezogenen Daten zu unterscheiden. Nur personenbezogene Daten fallen unter den Anwendungsbereich der Rechtsvorschriften des Datenschutzes. Dazu gehören alle Daten, die sich eindeutig einer bestimmten Person zuordnen lassen, durch die eine Zuordnung erfolgen kann oder Daten, durch die sich ein Personenbezug herstellen lässt, wie etwa Kfz-Kennzeichen. Auch pseudonymisierte Daten, bei denen zum Beispiel der Name durch eine Nummer ersetzt wird, gelten nach der DSGVO als personenbezogene Daten.
Anders verhält es sich mit anonymisierten Daten. Durch Anonymisierung werden Daten in einem Maße verändert, dass diese nicht mehr einer Person zuzuordnen sind. Die Anonymisierung gilt daher auch in der DSGVO als wichtige Lösungsstrategie um Daten zu nutzen, ohne Grundrechte zu kompromittieren. Nicht umsonst werden Befürworter einer verstärkten Datennutzung nicht müde zu bekräftigen, dass ihre Geschäftsmodelle auf anonymisierten Daten beruhen. Die Politik springt bisweilen allzu bereitwillig auf diesen Zug auf.
In der Praxis zeigt sich jedoch, dass eine statische Einteilung in anonyme und nicht-anonyme Daten an der Realität der technologischen Möglichkeiten vorbeigeht. So häufen sich Fälle, in denen anonym geglaubte Daten re-identifiziert werden konnten. Forscher haben unter anderem gezeigt, wie Individuen in anonymisierten Netflix-Nutzerdaten, Mobilfunkdaten oder Kreditkartendaten re-identifiziert werden können, der Personenbezug also wiederhergestellt wird.
Der technische Fortschritt führt dazu, dass es nach heutigem Stand schier unmöglich ist, eine dauerhafte Anonymisierung zu garantieren. Immer mehr Datenpunkte sind öffentlich zugänglich und bieten in der Kombination mit nicht-öffentlichen Daten eine Angriffsfläche für De-Anonymisierungstechniken. Als in New York etwa Taxi-Daten auf der Open-Data-Plattform der Stadt frei zugänglich gemacht wurden, zeigten Programmierer, wie sie mit Hilfe von Ortsangaben in den öffentlich verfügbaren Twitter- und Instagram-Daten die Taxifahrten von Prominenten in den Datensätzen nachverfolgen konnten.
Damit soll nicht gesagt werden, dass man sich vom Verfahren der Anonymisierung verabschieden sollte. Sie ist eine wichtige Sicherheitsmaßnahme, um das Missbrauchspotenzial von Daten zu minimieren. Doch eine statische Einteilung in personenbezogene und nicht-personenbezogene Daten ist angesichts des aktuellen Kenntnisstands nicht mehr sachgemäß.
2. Die informierte Einwilligung wird zum Kontrollverlust für Verbraucher
Das Prinzip der Einwilligung verfolgt das Ziel, Verbrauchern Kontrolle über die Nutzung ihrer Daten zu geben. Doch tatsächlich belegen zahlreiche Studien, dass kaum ein Verbraucher die AGB tatsächlich liest. Aus rechtlicher Sicht gestattet der Verbraucher hier also regelmäßig Eingriffe in seine Grundrechte, ohne wirklich über das, was im Hintergrund passiert, informiert zu sein.
Überdies gibt es für den Verbraucher keinerlei Verhandlungsmöglichkeiten. Er kann nur zustimmen oder muss auf den Dienst verzichten. Zudem wird er mit Einwilligungserklärungen regelrecht überflutet, was seine Überforderung erhöht. Zu Recht wird daher von einer fehlenden Souveränität der Nutzer und vom Kontrollverlust in Bezug auf persönliche Daten gesprochen.
Die DSGVO hält jedoch am Prinzip der Einwilligung fest und räumt ihr Vorrang gegenüber anderen gesetzlichen Lösungen ein. Verbraucher- und Datenschützer feiern dies als Erfolg im Kampf gegen das bisherige Wegklicken der Grundrechte. Allerdings stellt sich hier eher grundsätzlicher Zweifel ein, ob das letztlich angestrebte Ziel – der Schutz der Grund- und Freiheitsrechte – tatsächlich durch dieses Prinzip erreicht werden kann. Selbst wenn volle Transparenz über die Nutzung der Daten herrschen würde, würde dies aus verhaltensökonomischen Gründen kaum ausreichen, um den Verbraucher davon zu überzeugen, sich nun intensiv mit etwas zu befassen, was früher am Rande stattfand.
Darüber hinaus suggeriert das Prinzip der Einwilligung Freiwilligkeit. Doch mag es in der Theorie möglich sein, sich bestimmten Online-Diensten zu entziehen, so kommt dies in der Praxis oftmals einer Verweigerung der modernen Welt als solcher gleich. Hinzu kommt, dass der Verbraucher sich durch die Verbreitung des Internets der Dinge in immer mehr Szenarien wiederfinden wird, in denen es schlicht keine Entscheidungsautonomie mehr gibt. Etwa dann, wenn er das vernetzte Nahverkehrs-System nutzen will oder die für den automatisierten Straßenverkehr essenziellen Daten der Geschwindigkeitssensoren teilen muss.
Schon heute sind die Folgen von Datenspeicherungen, -verarbeitungen und -kombinierungen so komplex geworden, dass es für den Einzelnen im Grunde unmöglich ist, sie adäquat einzuschätzen. Für den Verbraucher ist schwer nachvollziehbar, warum die Nutzung eines Dienstes in einem Kontext (etwa der Scan eines Dokuments mittels App) Konsequenzen in einem ganz anderen Bereich (etwa dem Kreditscoring) haben könnte.
Angesichts der hohen Strafen, die in der DSGVO bei Gesetzesbruch vorgesehen sind, ist es fraglich, ob sich Unternehmen auf die Wirksamkeit der Einwilligung verlassen wollen. Experten vermuten eher, dass viele Unternehmen versuchen werden, die Daten auf Basis anderer gesetzlicher Erlaubnisse zu verarbeiten, etwa dem „berechtigten Interesse“. Wie weit es interpretiert werden darf – ob etwa Werbezwecke oder die Weiterentwicklung des Geschäftsmodells dazu zählen – ist bislang unklar. Daten- und Verbraucherschützer werden aufgrund ihrer chronischen Unterausstattung nicht die besten Karten dabei haben, diese Fragen zu klären.
3. Der Datenhandel und seine Akteure sind unüberschaubar geworden
Hinzu kommt, dass das Netzwerk an Akteuren, die Daten sammeln, verarbeiten und verkaufen, derart komplex und verflochten geworden ist, dass aktuell weder der Verbraucher noch der Gesetzgeber genau weiß, wer was mit den Daten macht.
Der Verbraucher interagiert zum Beispiel mit Google, Facebook oder mit seinem Mobilfunkanbieter, hinzu kommen zahlreiche weitere App- und Service-Hersteller. Dabei ahnt der Nutzer in vielen Fällen zwar, dass die Anbieter mit seinen Daten Geld verdienen, doch tatsächlich sind diese nur die Spitzen einer Eisberglandschaft. Zahlreiche Unternehmen, die Daten sammeln, veredeln, verschneiden und veräußern, agieren im Hintergrund. Vor allem Datenhändler, deren Haupttätigkeit das Sammeln, Verknüpfen und Verkaufen von Daten ist, haben wenig Interesse, als solche öffentlich in Erscheinung zu treten. Der bekannteste Datenhändler, die Firma Acxiom, gibt beispielsweise an, inzwischen recht umfassende Daten von rund 44 Millionen Deutschen zu haben.
In der Regel argumentieren Datenhändler, sie würden ausschließlich mit anonymisierten Daten agieren. De facto geht es um Pseudonymisierung, wenn zum Beispiel Kunden durch sogenanntes Hashing über verschiedene Geräte hinweg wiedererkannt werden sollen. Aufgrund der fehlenden Transparenz im Markt bleibt oft im Verborgenen, ob die Daten, mit denen die Händler agieren, unter das Datenschutzrecht fallen müssten oder nicht.
4. Das Recht allein hilft nicht immer
Darüber hinaus häufen sich Fälle, in denen aus juristischer Sicht zwar kein Datenschutzproblem vorliegt, in denen der Verbraucher den Umgang mit Daten aber dennoch als Eingriff empfindet. Erst vor kurzem stellte sich etwa heraus, dass in Deutschland die Supermarktkette Real und die Deutsche Post Gesichtserkennungssoftware in ihren Filialen einsetzen, um so auf Basis von Alter und Geschlecht zielgerichtete Werbung auf analogen Werbeflächen zu schalten.
Zwar wurde dies vom zuständigen Datenschützer mit der Begründung, dass es sich nicht um personenbezogene Daten handele, abgesegnet. Die Kunden sind nach einer Umfrage des Bundesverbands der Verbraucherzentralen damit dennoch nicht einverstanden. Das zeigt, dass eine rein juristische Betrachtungsweise womöglich nicht ausreicht, um das Datenzeitalter angemessen zu gestalten.
5. Individuelle Entscheidungen zeitigen kollektive Effekte
Der Umgang mit personenbezogenen oder personenbeziehbaren Daten entfaltet kollektive Wirkungen, auch wenn das individualisierte Prinzip der Einwilligung etwas anderes suggeriert. In der Realität kann die Einwilligung eines Einzelnen Konsequenzen für Personen haben, die in keinerlei Zusammenhang mit der einwilligenden Person stehen.
So können Datenanalysen auf Basis weniger Datensätze von Zustimmenden vorgenommen werden, dann aber für ganze Bevölkerungsgruppen generalisiert werden. Potenzielle Schäden können für andere Individuen, für ganze Gruppen oder Mitglieder einer Profil-Kategorie eintreten. Trotzdem orientieren sich Datenschutzkonzepte durch den Fokus auf Instrumente wie die Einwilligung immer noch vornehmlich an den Folgen für Individuen und deren Schutz.
Hier zeigt sich erneut die Problematik einer Unterscheidung zwischen personenbezogenen und nicht-personenbezogenen Daten und dem darauf basierenden Prinzip der Einwilligung. Denn ihre Wirkung ist stark eingeschränkt, wenn automatisierte Entscheidungen letztlich auch Personen betreffen, die der Nutzung ihrer Daten nicht zugestimmt haben. Algorithmische Entscheidungen erfolgen nicht auf der Grundlage der Daten eines einzelnen Individuums, über das eine Entscheidung getroffen wird – zum Beispiel welcher Werbebanner Person X beim Surfen angezeigt wird. Die Entscheidung mag zwar eine begrenzte Anzahl Daten über diese Person benötigen, sie basiert aber auf einer Fülle von Daten anderer Personen oder Quellen.
Die österreichischen Forscher Wolfie Christl und Sarah Spiekermann nennen eine Vielzahl von Beispielen, in denen Benachteiligungen weltweit im Online-Marketing und -Handel auftreten. Etwa indem ein Algorithmus entscheidet, einem Kunden ein Produkt zu einem höheren Preis anzubieten oder sogenannten „verletzlichen, verzweifelten Gruppen“ Werbung für riskante Kreditangebote anzuzeigen. Gerade in der Summe und in der sich wechselseitig verstärkenden Wirkung können die Auswirkungen signifikant sein und Ungleichheiten verstärken.
Wenn Menschen zunehmend auf solche Art eingeteilt und in Rangfolge gebracht werden, wenn jeder kontinuierlich auf Basis seines ökonomischen Potenzials sortiert und adressiert wird, geht es nicht allein um den Schutz der Privatsphäre und personenbezogene Daten. Gefährdet sind einerseits wichtige Grundprinzipien von Demokratien wie Würde und Gleichheit, andererseits können unter Umständen bereits Benachteiligte in den Möglichkeiten sozialer Teilhabe sowie dem Recht auf Selbstbestimmung und Autonomie beschnitten werden.
Die Datenschutzgrundverordnung hat durchaus versucht, diese neuen Entwicklungen zu adressieren. Insbesondere Artikel 22 ist an dieser Stelle zu nennen, der den Einzelnen vor rein automatisierten Entscheidungen schützen soll, etwa beim Scoring. Etliche Wissenschaftler haben allerdings auf Mängel in diesem Artikel hingewiesen. Diese könnten letztlich dazu führen, dass das Gesetz für den Verbraucher wirkungslos bleibt. So gibt es in vielen Fällen durchaus menschliche Zwischeninstanzen. Diese Fälle sind vom Gesetz nicht betroffen. Auch die Auskunftsrechte sind laut Expertenmeinung nicht wirksam genug, um die Rechte von Verbrauchern ausreichend zu schützen.
Perspektiven über den Datenschutz hinaus
Im Zuge der Anpassung des Bundesdatenschutzgesetzes (BDSG) an die DSGVO sind immer wieder Szenarien über Deutschlands Abstieg am Weltmarkt gezeichnet worden, sollte man als mehr oder weniger einziges Land die Datenschutzprinzipien weiterhin streng auslegen und umsetzen. Teilweise ist der Erfolg dieser Argumentationslinie an den Änderungen des BDSG sogar zu erkennen.
Auch bei anderen Technologiethemen werden immer wieder Chancen gegen Gefahren ausgespielt. Diese Herangehensweise suggeriert vor dem Hintergrund der Alltagsrationalität – alles hat zwei Seiten –, dass es sich hierbei um Nullsummenspiele handelt. Wir setzen dieser Annahme unsere Überzeugung gegenüber, dass wir Chancen, die uns die Auswertung digitaler Daten bieten, nutzen können, ohne uns gleichzeitig möglichen negativen Folgen ausliefern zu müssen.
Wir müssen dabei über den traditionellen Datenschutzansatz hinaus denken. Einerseits müssen wir uns von der Vorstellung verabschieden, dass Probleme nur dort entstehen können, wo personenbezogene oder -beziehbare Daten im Spiel sind. Andererseits werden wir weiterhin damit rechnen müssen, dass Individuen arglos mit persönlichen Informationen und mit den Informationen anderer umgehen werden, und dass Unternehmen sowohl davon als auch von den Schlupflöchern im Datenschutzrecht Gebrauch machen werden, um ihren Profit zu maximieren.
Daten nach Anwendungsbereichen unterscheiden
Praktiken der Datenerschließung und -verarbeitung unterscheiden sich in den verschiedenen Anwendungsbereichen zum Teil erheblich. Lösungen für alle Bereiche gleichermaßen sind daher sehr wahrscheinlich ungeeignet, den traditionellen Datenschutzansatz für die Zukunft sinnvoll zu erweitern. Mobilitätsdaten sind anderer Natur als Steuerdaten oder Gesundheitsdaten, sie werden anders erfasst, verarbeitet und erlauben jeweils andere Schlüsse. Sobald wir jenseits des Datenschutzes, der seiner Natur nach ein Generalinstrument ist, über Datensteuerung nachdenken, tun wir daher gut daran, das bereichsspezifisch und fallbezogen zu tun.
Beispielsweise kann sinnvoll danach gefragt werden, welches Datensteuerungsregime – abgesehen vom Datenschutz, den wir nicht über Bord werfen wollen – etabliert werden sollte, um öffentlichen Nahverkehr auf Bestellung flächendeckend einzuführen oder autonomes Fahren zu ermöglichen. Dieselben Überlegungen werden mutmaßlich aber wenig dabei helfen zu entscheiden, was wir in Zukunft mit der persönlichen Patientenakte anfangen oder was wir bei gezielter Werbung im Online-Marketing zulassen wollen.
Datenkontrolle durch Technik
Letztlich müssen wir uns in all diesen Bereichen die Frage stellen, welche Daten in welchem Umfang zwischen welchen Akteuren und Systemen geteilt werden müssen, damit wir erwünschte Ziele erreichen und unerwünschte Effekte vermeiden. Es geht dabei um eine zeitgemäße Datenverbreitungskontrolle, um Datenzugangskontrolle und um Datennutzungskontrolle.
Es liegt auf der Hand, dass technischen Lösungen hier eine entscheidende Rolle zukommt. Diskutiert werden dazu Ansätze wie etwa „Personal Information Management Services“ (PIMS). Solche Dienste basieren darauf, dass Nutzer ihre Daten selbst zusammenhalten und auch technisch über deren Verwendung bestimmen. Verwandte Ansätze sind Personal Data Stores (PDS) und Vendor Relationship Management (VRM).
Diese Modelle sollen zwei Fliegen mit einer Klappe zu schlagen, indem sie dem Verbraucher wieder mehr Kontrolle geben und so Vertrauen schaffen, aber personenbezogene Daten auch für gewerbliche Zwecke nutzbar machen. Die am Massachusetts Institute of Technology entstandenen Projekte „Enigma“ und „openPDS“ sind einschlägige Beispiele, das finnische MyData-Projekt ein weiteres. Kernidee ist, das Individuum ins Zentrum des Datenmanagements zu stellen. Damit wird der Verbraucher zum zentralen Verbindungs- und Kontrollpunkt der eigenen Daten.
Die Bewegung befindet sich noch in den Kinderschuhen. PIMS sehen sich einer Reihe von Herausforderungen gegenüber, um am Markt bestehen zu können. So müssen sie zwei Kundengruppen gleichzeitig erreichen und befriedigen: Datenanbieter und Datennutzer. Es ist noch weithin unklar, wie PIMS-Anbieter Geld verdienen können, ohne das Vertrauen der Nutzer zu gefährden. Trotz dieser und anderer ungeklärter Fragen sind PIMS gesellschaftlich sehr interessant, weil sie auf einer technischen Ebene Alternativen zu den aktuellen zentralisierten Modellen erproben.
Data Governance
Darüber hinaus müssen wir uns auf gesellschaftliche Grundprinzipien im Umgang mit Daten und datenverarbeitenden Systemen verständigen. Zusätzlich braucht es praktische Datensteuerungsansätze, wie sie etwa größere und mittlere Unternehmen bereits unter dem Stichwort „Data Governance“ implementieren, um die Datenflüsse in- und außerhalb ihrer Grenzen zu organisieren. In Europa weit fortgeschritten ist Österreich. Dort wurde im Rahmen eines Open-Government-Programms ein schon recht reifes Data-Governance-Modell für Institutionen der öffentlichen Hand entwickelt.
Teil einer jeden effektiven Datensteuerung müssen avancierte technische Maßnahmen sein. Deutschland sollte daher mehr in Technologien investieren, die den Datenschutz verbessern (Privacy Enhancing Technologies, PET). Erst als letztes Mittel wäre eventuell staatliche Regulierung in Betracht zu ziehen, sollte sich in einigen Jahren herausgestellt haben, dass die Datenschutzgrundverordnung und die begleitenden Privacy-by-Design-Lösungen noch nicht die erhoffte Wende zum Guten in der Datengesellschaft gebracht haben.
Wir leben in einer Zeit, in der sich Autofahrer allein durch Auswertung, wann sie wo und wie aufs Bremspedal drücken, mit großer Sicherheit eindeutig identifizieren lassen. Vor dem Hintergrund solcher Potenziale haben wir keine andere Wahl, als bestimmte Datennutzungs- und Auswertungsmöglichkeiten gesellschaftlich oder auch gesetzlich zu ächten. Jedoch werden starke technische Maßnahmen und institutionelle, bereichsspezifische und gesellschaftliche Datenmanagement-Ansätze unerlässlich sein, wenn wir gesellschaftlich nützliche Datennutzungen fördern und schädliche unterbinden wollen.
Der Beitrag basiert auf einem Impulspapier, das die Autoren für die Stiftung Neue Verantwortung verfasst haben. Lizenz des Papiers und dieser Fassung: CC BY-SA.
Was sagen Sie dazu?