Unser digitales Korsett

Dass Menschen sich an neue Technik anpassen müssen, ist ein alter Hut. Alle technischen Geräte geben ein gewisses Verhaltensspektrum vor, auch Autos, Fahrscheinautomaten oder Stereoanlagen begrenzen ihre Nutzer in den möglichen Verhaltensweisen.
Neu ist das Ausmaß, in dem Digitaltechnik sämtliche Lebensbereiche durchdringt und diese formt: Vom Klingeln der Wecker-App über die Online-Lektüre der „Morgenzeitung“, Suchanfragen im Internet und wichtige Teile des Soziallebens (WhatsApp, Facebook, Instagram, Tinder und so weiter), bis hin zu Haushalt (Smart Home) und Mobilität (vernetzte Autos und Kurzmietmodelle für Fahrzeuge).
Dadurch entstehen Routinen, die zunächst dieselbe Berechtigung haben wie jene der analogen Welt, zumal sie dieselben Zwecke erfüllen (insbesondere das Minimieren von Transaktionskosten und Entscheidungskonflikten).
Doch Digitale Technologien lassen sich mit entfernten Servern vernetzen und untereinander synchronisieren. Durch kompatible Geräte und Dienste mit komplementären Funktionen erweitern die Nutzer*innen ihr technisches und organisatorisches Umfeld, passen ihre Routinen entsprechend an oder entwickeln neue Gewohnheiten.
Take it or leave it – Warum nicht auf Technik verzichten?
Nun kommt mitunter der Einwand, dass man ja auf Annehmlichkeiten, wie programmierte Erinnerungen oder Online-Foren, durchaus verzichten und ein technikfernes Leben führen könnte.
Diese „take it or leave it“-Logik liegt auch der „Man hat immer eine Wahl“-Philosophie des Popcorn-Kinos zugrunde. Doch wenn eine der beiden Optionen kaum tragbare Nachteile mit sich bringt, ist es zynisch, sie als echte Wahlmöglichkeit hinzustellen.
So verhält es sich auch bei dem Vorschlag, ohne Smartphone, Social-Media-Nutzung und smarte Dienste am gesellschaftlichen Leben teilzunehmen. Je normaler und normativer digitale Lösungen werden, desto problematischer wirkt und wird die analoge Alternative. „Man“ hat dann eben keine echte Wahl.
Gehorsam gegenüber dem Anbieter
Viele alltägliche Dienste entfalten eine faktische Macht über Nutzer*innen, etwa durch sogenannte „Lock-in-Effekte“ (gemeint sind insbesondere hohe Kosten für den Wechsel zu anderen Diensten und die Bindung an ein Netzwerk von Menschen). Aber auch eine beherrschende Marktstellung oder technische Finessen geben manchen Anbietern eine Machtposition, die auf Seiten der Nutzer*innen zu einer Art Zwangsgehorsam führt.
Herrschaft durch Walled Gardens
Denn gerade bei den großen Anbietern liegt die Herrschaft über Datenspeicher, Schnittstellen und sonstige Hardware längst in einer Hand. Die digitalen Geräte der Nutzer*innen sind nur noch die Infrastruktur für das eigentliche Produkt: für Software und Dienstleistungen, die dauerhaft auf den Servern der Anbieter liegen. Der Anteil offline verwendbarer Geräte im Hausstand schrumpft beständig.

Über den Autor: Prof. Dr. Maximilian Becker lehrt an der Leibniz Universität Hannover, Institut für Rechtsinformatik (IRI), Lehrstuhl für Datenschutzrecht und IT-Recht. Foto: Robert Ionescu
Die digitale Welt der Premiumanbieter hat dabei goldene aber enge Gassen. Für eine milde Form der Nutzerbeherrschung passt noch die Erkenntnis „function follows form“. Um dem Ideal vordergründiger Einfachheit zu entsprechen, fehlen Knöpfe, Schaltflächen, Menüpunkte, deren Funktion dann mit workarounds nachempfunden werden muss.
Die Grenze zur systematischen Einschränkung von Transparenz und digitaler Souveränität ist aber fließend. Für geschlossene Hard- und Softwaresysteme gibt es schon länger den Begriff der Walled Gardens: Es ist auf bedenkliche Weise normal geworden, dass Hardware durch Software gezielt veraltet wird.
Es sollen nur bestimmte Apps installiert werden? Dann schließt man einfach andere Apps vom systemeigenen Store aus. Der Anbieter will, dass seine Updates gehorsam installiert werden? Dann macht er es eben unmöglich, die tägliche Pop-up-Erinnerung zu deaktivieren. Nutzer*innen sollen auf kabelloses Equipment umsteigen? Dann schafft man eben die physischen Schnittstellen ab.
Sammlung von Verhaltensdaten
In der Datenwirtschaft nutzen Anbieter diese Unterlegenheit von Durchschnittsnutzern wie selbstverständlich zur Sammlung von Verhaltensdaten aus digital durchdrungenen Lebensbereichen, also aus so ziemlich allen.
Ein zentrales Beispiel ist die Datenerhebung zur Finanzierung „kostenloser“ Internetdienste. Abgesehen davon, dass es an einem wirksamen Vertrag meist fehlt, haben Nutzer*innen keine Möglichkeit, sich absprachewidrig zu verhalten: Die Daten werden bei der Internetnutzung sofort unbemerkt von Trackern einkassiert, mit teils kuriosen Auslegungen von Paragraf 15 (3) des Telemediengesetzes (wonach es zwar erlaubt ist, für bestimmte Zwecke pseudonymisierte Nutzerprofile zu erstellen, sofern der Nutzer dem nicht widerspricht, doch diese Regelung gilt durch ein EuGH-Urteil vom März 2019 und in Fachkreisen als womöglich europarechtswidrig und daher umstritten.)
Ein Großteil der Betroffenen weiß durchaus um die Datenschutzproblematik zahlreicher Social Media-Dienste, beispielsweise des Android-Betriebssystems, des Googles Play Stores oder des Chrome-Browsers. Da die Nutzung dieser Angebote aber für Viele naheliegt, teilweise sogar kaum vermeidbar ist, etwa aus Kostengründen, nehmen sie Datenschutzbedenken wohl oder übel hin.
Eine oft übersehene Spielart dieser Datensammelleidenschaft ist die unnötig datenintensive Ausgestaltung einfachster Services.
Ein Beispiel ist die Angabe eines alternativen Abgabeortes für Pakete beim Zustellservice UPS: „Werden Sie ein UPS My Choice Mitglied, akzeptieren Sie die UPS Technologievereinbarung (98 Seiten), die Dienstleistungsbedingungen für UPS My Choice (4 Seiten), sowie die englischsprachige Datenschutzvereinbarung (12 Seiten).“
So sichert sich das Unternehmen dauerhaft die Erhebung und Verarbeitung zahlreicher unnötiger Personendaten. Nach dem Grundsatz der Datenminimierung (Artikel 5 (1) c) der Datenschutz-Grundverordnung, DSGVO) läge es näher, das Paket ohne Clubmitgliedschaft an den Nachbarkiosk umleiten zu können.
Nutzersteuerung
Dank solcher und ähnlicher digitaler Korsetts haben es Anbieter sogar in gewissem Umfang in der Hand, Nutzer zu steuern. Shoshana Zuboff (Autorin von „The Age of Surveillance Capitalism“) beschreibt das Spiel „Pokemon Go“ als die erste gezielte real-life Steuerung von Millionen von Nutzern, die sie als „Instrumentarianism“ bezeichnet.
Denn wie bekommt man 200 Teenager in einen Baumarkt? Indem man dort ein Pokemon platziert. Bei dieser Gelegenheit kann der Anbieter des Spiels – die Google-Ausgründung Niantic, Inc. – auch direkt vermessen, welche Person in welcher Gruppe mit welchem Verkehrsmittel anreist. (Das Nachfolgespiel mit augmented reality hat Niantic übrigens 2019 auf den Markt gebracht: „Harry Potter: Wizards Unite“.)
Dem entspricht das Idealbild des modernen Nutzers: „Offen“ für neue Technologien, anpassungswillig, wenn nicht gar ein early adopter zu sein, wird moralisch prämiert. Menschen werden maschinell zu passgenauen Verbraucher*innen erzogen.
Sie folgen den Vorgaben von Self-Checkout-Stationen bei REWE und Bestellstelen bei McDonald‘s. Sie führen degenerierte Gespräche mit Telefonrobotern, „Smart Assistants“ und kommunizieren per Online-Formular mit Dropdown-Listen. So ziemlich alle Verbraucher*innen sind zudem als Datenquellen in den Wertschöpfungsprozess der Datenwirtschaft integriert.
Begehrlichkeiten des Gesetzgebers
Wird das Leben aber ohnehin von Technik durchdrungen, liegt es nahe, diese Kontrollmöglichkeiten auch staatlich zu nutzen: Genauso wie Hersteller ihre Nutzer*innen lenken können, kommen auch beim Gesetzgeber Begehrlichkeiten auf, die neuen Möglichkeiten der Digitalisierung zur Verhaltensanpassung zu nutzen.
Es genügen kleine gesetzliche Ergänzungen, um technisch zu erzwingen, dass Nutzer rechtliche Regeln auch befolgen. Genau dies geschah bei den berüchtigten „Upload-Filtern“, die aus Artikel 17 der EU-Urheberrechtsrichtlinie (EU-DSM-RL) folgen.
Entrüstung gegen Filtertechnologien
In juristische Kategorien übertragen hat die Entrüstung gegen Filtertechnologien zwei Schwerpunkte:
Zum einen führen sie zu einem Richtungswechsel: Mussten bisher die Rechteinhaber im Anschluss an Rechtsverletzungen die Verletzer*innen zur Rechenschaft ziehen, ist nun die Rechtsverletzung von vornherein unmöglich.
Die Angriffslast und somit auch das Prozessrisiko haben sich gedreht: Nutzer*innen, deren Uploads verweigert werden, müssen mit Zeit- und Kostenaufwand gegen Youtube und andere Plattformen vorgehen, die mit Filtern (Urheber)-Rechte schützen (müssen).
Kaum jemand verklagt aber auf eigene Kosten Youtube, um sein Video hochladen zu können. Man lässt es dann einfach sein und verhält sich „compliant“.
Zum anderen können Filter ausdrücklich erlaubte Nutzungen nicht zuverlässig erkennen. Zugunsten der freien Meinungsäußerung gehören dazu, laut Erwägungsgrund 70 der Richtlinie, Uploads „zu Zwecken des Zitierens, der Kritik, Rezension, Karikatur, Parodie oder Pastiche“. Für diese Kategorien gilt es jedoch, die Aussage hinter dem Offensichtlichen zu erkennen.
Ausgerechnet in diesen semantischen, das heißt die Bedeutungsebene betreffenden Fragen sind Maschinen bislang sehr schlecht: War der Witz ein Witz? War er sexistisch oder auf den zweiten Blick vielleicht das genaue Gegenteil? War das Böhmermann-Gedicht eine zulässige Meinungsäußerung oder überwiegend Schmähkritik?
Beschränkung faktischer Handlungsfreiheit
Zudem gibt es in vielen Fällen keinen juristischen Konsens und Gerichte müssen entscheiden. Computer könnten dabei zwar helfen indem sie relevante Rechtsprechung heraussuchen, Literatur durchkämmen und so weiter.
Doch welche Grenzfälle das Recht gerade noch als zulässig versteht und welche nicht, ist aus prinzipiellen Gründen eine menschliche und gesellschaftliche Entscheidung. Auch eine (bislang nicht existente) „starke“ künstliche Intelligenz wäre ausgerechnet in der inhaltlichen Bewertung von Content andauernd auf detaillierte normative Vorgaben angewiesen.
Um diese herbeizuführen, war es bislang am Rechteinhaber, wegen etwaiger Verletzungen vor Gericht zu ziehen. Solange Plattformen jedoch nur für Verletzungen von Urheberrechten und verwandten Schutzrechten, nicht aber für Fehlentscheidungen haften, besteht der Anreiz „im Zweifel für die Löschung“.
Zusammengefasst liegen die Bedenken gegen Uploadfilter also in der Beschränkung faktischer Handlungsfreiheit durch ungeeignete Technik, gegen deren automatisierte Entscheidungen die wirtschaftlich meist schwächere Partei vorzugehen hätte. Damit liegt das Problem auf einer Linie mit der eingangs angesprochenen technischen Verhaltensformung in diversen Lebensbereichen.
Industrialisiertes Recht ist kein Recht
Die Vorstellung vollautomatisierten Rechts ist für manche verlockend, aber mit großer Vorsicht zu genießen. Ihr liegt ein gefährlicher Glaube an ein geschlossenes System, an Perfektion, an die Planbarkeit von Rechtsfragen zugrunde. Gesetze sind aber keine Algorithmen und sie lassen sich auch nur sehr bedingt in solche übersetzen.
Viele Regeln sind zum Beispiel politische Kompromisse oder vom Gesetzgeber bewusst vage gehalten und der Ausfüllung durch die Praxis anheimgestellt. So ist etwa das allgemeine Persönlichkeitsrecht mit seinen unzähligen Fallgruppen gesetzlich nicht ausdrücklich geregelt, sondern eine in ständiger Weiterentwicklung begriffene Schöpfung der Rechtsprechung.
Kraftfahrzeug-Leasingverträge, die das Auto stilllegen, wenn die Raten nicht bezahlt werden, sind nur auf den ersten Blick fair, denn sie lassen keinen Raum für eine abweichende Entwicklung des Geschehens.
Verträge sind aber Versprechen und wie bei allen menschlichen Versprechen können sich die Dinge anders entwickeln als geplant. Vor allem gehört es zur Idee des Versprechens, dass es gebrochen werden kann. Sonst gäbe es nichts zu versprechen.
Anschließend findet ein dynamischer Prozess der Rechtsdurchsetzung statt, an dessen Ende (!) der Versprechende mit begrenzten Mitteln gezwungen werden kann, doch noch wie versprochen zu handeln.
„Uncontract“ – die Vernichtung des Vertrags
Technische Rechtsdurchsetzung hat hiermit nichts zu tun. Sie ist ein Instrument der Anbieter, um die vom Gesetzgeber gesehene und eingeplante Unsicherheit der Vertragsdurchsetzung zu unterlaufen. Zuboff spricht daher von einer Vernichtung des Vertrags, vom „uncontract“.
Dabei erfüllen Freiheitsräume, in denen rechtswidrig gehandelt werden kann, für die Rechtsordnung wichtige Funktionen. Insbesondere entstehen neue Gesetze nicht im luftleeren Raum, sondern sind häufig das Resultat aus praktischen Handlungskonflikten. Dafür müssen die Handlungen aber möglich bleiben.
Gerade das digitale IP- und Medienrecht sind als Rechtsgebiete auch Graubereiche, um die es Konflikte zwischen Rechteinhabern, Nutzern und Plattformen gibt. Solche rechtlichen Grenzfälle dürfen nicht durch Maschinen ausgelotet werden. Das Internetrecht der 2020er Jahre lässt sich nicht am Reißbrett planen.
Selbstverschuldete Unmündigkeit
Die Verstrickung in immer tiefere technische Abhängigkeit ist nicht etwa Teil eines harten Überlebenskampfes. Kostspielige Luxusmarginalien wie die Bedienung der Heizung per Sprachsteuerung, berührungsempfindliche Bildschirme (Touch-Interfaces) allüberall oder Smartphones mit Gesichtserkennung (Face-ID) sind Optimierungen im Promillebereich, von deren Notwendigkeit Verbraucher erst mühsam überzeugt werden mussten.
Daher bergen Experimente mit anders gearteten Lösungen, die zum Beispiel autonomer, kompatibler, datensparsamer und transparenter sind, für Nutzer keine nennenswerten Gefahren. Zudem sind digitale Produktdesigns außerordentlich variabel, es wäre in vielen Bereichen ein Leichtes, sie zu ändern.
Zusammengefasst funktioniert der Kreislauf selbstverschuldeter digitaler Unmündigkeit in etwa folgendermaßen:
- 1) Durchwirken des Lebens mit Technik: Alle Lebensbereiche (von Intimleben bis Beruf) werden von digitalen Hilfen durchwirkt.
- 2) Faktische Alternativlosigkeit: Diese Technisierung wird – gemessen am jeweiligen Grundbedürfnis – schwer verzichtbar. Wer zum Beispiel auf Partys eingeladen sein will, sollte WhatsApp und Facebook nutzen.
- 3) Gehorsam gegenüber dem Hersteller: Hersteller nutzen die errungene Macht aus, etwa durch technisch überflüssige Datenerhebung oder beliebige Updates. Vor allem aber formen sie Verhalten und Routinen bis hin zur gezielten Verhaltenssteuerung.
- 4) Technische Rechtsdurchsetzung: Das technisch durchwirkte Leben wird zum Steigbügel staatlicher Rechtsdurchsetzung. Digitales Handeln erhält ein Korsett, zugleich werden immer mehr Handlungen digitalisiert.
Schlussfolgerungen
Diese Ausführungen zielen ausdrücklich nicht auf Technikverzicht ab, sondern auf Technikregulierung. Auf die klassische Marktlösung über Angebot und Nachfrage darf aufgrund der den Digitalmärkten eigenen Dynamik gerade nicht vertraut werden. Das „take it or leave it“-Argument verfängt nicht.
Ganz praktisch läuft dies auf einen Appell an Verbraucher hinaus, die technische Herrschaft über das eigene Leben und die Übersetzung analoger Freiheiten in die digitale Welt zu verlangen. Ein paar Beispiele:
- KI-Entscheidungen müssen nachvollziehbar und anfechtbar sein (beispielsweise in Bewerbungsverfahren)
- Produkte müssen so autonom funktionieren wie möglich (anstelle dauerhafter Rückbindung unter Sammlung von Verhaltensdaten)
- Produkte sollten offen, modular und reparierbar sein
- Kundenverhalten sollte nicht durch Maschinen effizienzoptimiert werden.
Es wird täglich wichtiger, sich zu erinnern, dass Technik ein willenloses Werkzeug ist, das Menschen dienen soll – und nicht umgekehrt.
Was sagen Sie dazu?