„Recht auf Vergessen“: Technik und Recht müssen zusammenarbeiten
Der Europäische Gerichtshof (EuGH) hat in letzter Zeit zwei vielbeachtete Entscheidungen zum Thema Datenschutz gefällt. Seine Entscheidung zur Vorratsdatenspeicherung, die auch einige Schwächen der Entscheidung des deutschen Bundesverfassungsgerichts zur gleichen Frage korrigiert, hat in der Zivilgesellschaft allgemeinen Jubel ausgelöst. Zur jüngeren Entscheidung, die unter der Überschrift „Recht auf Vergessen“ diskutiert wird, gibt es allerdings von vielen Seiten kritische, bisweilen auch polemische Stimmen.
Der Sachverhalt und das damit zusammenhängende Urteil lassen sich schnell skizzieren: Ein Spanier (genaugenommen: die spanische Datenschutzbehörde) war gegen Google vorgegangen, weil eine Suchanfrage nach seinem Namen einen Link auf einen Zeitungsartikel zum Ergebnis hatte, in dem es um eine 16 Jahre zurückliegende Pfändung gegen den Kläger ging.
Nach den Vorgaben europäischen Datenschutzrechts ist eine Verarbeitung personenbezogener Daten unter anderem dann zulässig, wenn das berechtigte Interesse der datenverarbeitenden Stelle gegenüber dem Interesse des Betroffenen überwiegt. Das Gericht hat diese Abwägung vorgenommen und ist zu dem Ergebnis gekommen, dass in dem vorliegenden Fall das Interesse des Betroffenen überwiegt, sich nicht mit einem lange erledigten Fehltritt konfrontiert zu sehen. Das Interesse von Google, diesen Datensatz anzuzeigen, muss dagegen zurücktreten. So weit, so schlüssig.
Eine Suchmaschinenanfrage ist keine Archivrecherche
Ein Kernpunkt der Kritik an dem Urteil ist, dass das Gericht das Suchergebnis als rechtswidrig bewertet, aber nicht die Veröffentlichung des ursprünglichen Artikels. Abstrahiert man das Urteil, könnte das heißen, dass eine rechtmäßige Veröffentlichung über eine Suchanfrage nach einem Namen unter Umständen nicht auffindbar sein soll. Kann das richtig sein?
Ja, denn eine Suchmaschinenanfrage ist nicht dasselbe wie eine Archivrecherche. Bei der Google-Anfrage werden nahezu sämtliche Inhalte, die im Internet offen verfügbar sind, im Zusammenhang mit einem Namen zusammengeführt. Es entsteht ein umfassendes Dossier, mitunter sogar ein weitreichendes Profil einer Person. Mit einer Archivrecherche ist das nicht möglich. Hier kann allenfalls der vergleichsweise kleine, im Archiv verfügbare Bestand zusammengeführt werden. Es bedarf zudem meist einer ungefähren Vorstellung davon, was man sucht. Quantitatives schlägt hier in Qualitatives um. Es handelt sich also nicht um denselben Lebenssachverhalt, entsprechend bedarf es auch einer anderen Regelung.
Die grundlegende Frage ist: Sollte man mit publizierter Information immer alles machen dürfen? Ein solcher Grundsatz ist einfach und daher verlockend, trifft aber nicht auf alle Fälle zu. So werden die meisten Menschen wohl zustimmen, dass private und staatliche Überwachungsmechanismen, die alle möglichen Quellen abgrasen, um mittels Korrelationsanalysen Listen von Menschen herzustellen, die wahrscheinlich insolvent, schwul oder narzistisch gestört sind, nicht wünschenswert sind. Diese Möglichkeiten bietet das Netz aber derzeit.
Nach allem, was wir hören, existieren solche Programme und Algorithmen und werden genutzt. Das Recht muss das aber durchaus nicht billigen. Es widerspricht übrigens auch dem datenschutzrechtlichen Prinzip der Zweckbindung, das seit Jahrzehnten anerkannt ist. Entsprechend sind eben diese Anwendungen nicht oder nur eingeschränkt zulässig – man könnte das als prozessorientierten Datenschutz bezeichnen.
Rechenmaschinen können nicht gut abwägen
Was hier im Einzelnen zulässig sein soll und was nicht, ist leider schwierig abzugrenzen. Das Urteil schreibt eine Abwägung vor. Hier kommt ein zusätzliches Problem ins Spiel: Maschinen können nicht gut abwägen, sie können nur rechnen. Wollen wir uns aber mit Rechenmaschinen das Leben erleichtern, brauchen wir berechenbare Sachverhalte. Die Entscheidung, ob etwas verarbeitet werden darf, muss automatisch gefällt werden können. Recht und Technik müssen hier zusammenspielen.
Eine mögliche Lösung wäre dabei beispielsweise ein neues Element in der HTML-Auszeichnungssprache, mit der Webseiten beschrieben werden. Das kann verhindern, dass Namen und ähnliche Angaben von den Suchmaschinen gespeichert werden. Die Verpflichtung, ein solches „Noindex-Tag“ zu verwenden, müsste dann jene Publizierenden treffen, die auf Auffindbarkeit in Suchmaschinen setzen. Hier ist die Aufgabe auch aus vielerlei Gründen besser verortet.
Hiergegen kann man – zu Recht – einwenden, dass das Recht nicht verhindert, dass Anbieter trotzdem solche Informationen verarbeiten. Das Recht würde dann zu „Schlangenöl“ – einem Wundermittel, das aber keine Funktion hat – verkommen. Es entstünden Gatekeeper und Akteure, die sich nicht an das Recht gebunden fühlen, die Informationen mit erhöhter Exklusivität auswerten können. Das ist auch ein Problem für die Demokratie.
Daher muss das, was als richtig (und als rechtmäßig) anerkannt wurde, auch in Technologie übersetzt werden. Hierfür brauchen wir perspektivisch neue technische Ansätze, nämlich ein durchsetzungsstarkes Privacy by design.
Private Rechtsdurchsetzung stärken
Ein weiterer Kritikpunkt ist, dass eine effektive Rechtsdurchsetzung nur denjenigen zugute kommt, die sich eine solche leisten können. Dem könnte man entgegenhalten: Die private Rechtsdurchsetzung ist im Datenschutzrecht eher zu schwach ausgeprägt. Es grenzt an eine Absurdität, dass urheberrechtlich geschützte Wirtschaftsinteressen effektiver durchgesetzt werden können, als das im Datenschutzrecht verbürgte Persönlichkeitsrecht.
Es ist einer der Konstruktionsfehler des derzeitigen Datenschutzrechtes, dass im Wesentlichen die Datenschutzbehörden dafür sorgen müssen, dass Datenschutzrechte durchgesetzt werden. Sie müssen zwangsläufig daran scheitern, einfach weil es derart viele Datenverarbeiter gibt. Was dringend erforderlich wäre, ist ein pauschaliertes Mindestschmerzensgeld bei Datenschutzverstößen, kombiniert mit einem Verbandsklagerecht. Dann wäre dem Problem des viel beschworenen „Umsetzungsdefizits“ schnell beizukommen. Die Unternehmen sähen sich dann deutlich veränderten Risikoabwägungen gegenüber, würden sich dagegen versichern wollen und auf Druck der Versicherer ihre Verarbeitungsprozesse anders entwickeln.
Ein Beispiel sind Journalisten, die regelmäßig abwägen müssen, ob sie Personen, die in ihren Recherchen aufgetaucht sind, namentlich erwähnen. Hierfür gibt es über Jahre entwickelte Grundsätze. Diese Aufgabe kann gesellschaftlich nur durch abstrakte Vorgaben gelöst werden, die Einzelfallabwägung kann und sollte nicht durch staatliche Einrichtungen durchgeführt werden. Eine staatliche Aufsichtsbehörde mit der Aufgabe der Abwägung öffentlicher Informationsinteressen für jeden Einzelfall wäre nicht nur unpraktisch und geradezu mönströs, sie wäre auch kaum mit den Vorgaben aus Artikel 5 des Grundgesetztes, etwa der Presse- und Meinungsfreiheit, zu vereinbaren.
Kritisieren kann man das Urteil jedoch insoweit, als das Gericht für die Abwägung wenige konkrete Kriterien nennt, wann ein Suchmaschinenbetreiber einen Eintrag löschen muss und wann nicht. So bleibt ein nicht unerheblicher Auslegungsspielraum. Das Gericht hat eine Linie vorgegeben, die Suchmaschinenbetreibern nahelegt, im Zweifel zu löschen. Gegen Gelöschtes wird vermutlich selten geklagt. Es ist daher nicht zu erwarten, dass viele Gerichte in die Verlegenheit kommen, sich mit einer differenzierteren Auslegung zu befassen. Diese Konkretisierung müsste der Gesetzgeber nachliefern, auch dadurch, dass er den Löschungspflichten Indizierungspflichten gegenüberstellt. Eine solche rechtliche Vorgabe zu einer Suchmaschinenneutralität zu formulieren, ist eine wichtige, aber auch schwierige Aufgabe.
Markteintrittshürden können sinnvoll sein
In der Tat sorgt eine stärkere Verrechtlichung wohl stets auch für Markteintrittshürden. Für ein kleines Startup wird der Aufbau einer Rechtsabteilung in der Regel nicht oberste Priorität haben. Allerdings ist es unwahrscheinlich, dass die Entscheidung viele aufstrebende, junge Wettbewerber für Google vom Markt gefegt hat. Die Markteintrittshürden für Suchmaschinen sind aus vielerlei Gründen bereits jetzt erheblich. Monopolen muss man anders begegnen – ein Vorbild könnte man sich im Kartell- oder im Medienaufsichtsrechts suchen.
Für Suchmaschinen, die sich auf Personensuchen spezialisieren wollen, mag es nun nahezu unmöglich geworden sein, sich zu etablieren. Aber auch jenseits der vom Gericht festgestellten Rechtslage ist es gesellschaftlich vielleicht wünschenswert, dass für solche Angebote ein paar Hürden existieren.
Was sagen Sie dazu?