Digital Services Act (DSA): Wie das Gesetz über digitale Dienste das Internet besser machen will

Foto: Jim Killock CC BY-SA 2.0
Wie können große digitale Plattformen demokratisch kontrolliert werden? Welche Standards sollen im Netz gelten? Und wie lassen sie sich durchsetzen? Wer sich diesen Aufgaben stellt, muss die großen Fragen unserer Zeit beantworten.
Das europäische Gesetz über digitale Dienste („Digital Services Act“ oder kurz „DSA“) will nicht weniger als das Internet regulieren. Es ist ein regulatorisches Riesenprojekt. Im April 2022 einigten sich die zuständigen Institutionen und Mitgliedstaaten der EU auf ein Paket von Gesetzen.
Im Fokus stehen dabei die digitalen Plattformen („Digitale Dienste“) und die digitalen Märkte (letztere sind Gegenstand eines eigenen Gesetzes, des „Gesetzes über digitale Märkte“). Der DSA soll „das Internet zu einem sichereren Raum für Menschen in Europa“ machen, heißt es in der Pressemitteilung des Rates der Europäischen Union. Ein fertiger Gesetzentwurf wurde noch nicht veröffentlicht. Bisher gibt es nur einen Vorschlag der Europäischen Kommission aus dem Jahr 2020.
Trotzdem schlägt der DSA jetzt schon hohe Wellen. Denn es wäre weltweit das erste Gesetz, das den digitalen Raum umfassend gesetzlich regeln will. Manche sprechen in diesem Zusammenhang sogar von einem „Plattformgrundgesetz“.
Worum geht es beim DSA?
Der DSA folgt dem Prinzip „What is illegal offline should be illegal online” (zu Deutsch: „Alles, was offline verboten ist, muss auch online verboten sein”). So will der DSA dafür sorgen, dass Hassrede schneller aus dem Netz entfernt, Desinformation bekämpft und personalisierte Werbung eingeschränkt wird.
Der zuständige Binnenmarktkommissar der EU Thierry Breton verglich den DSA mit einem „new Sherrif in Town“ und twitterte ein passendes Western-Video:
It’s time to put some order in the digital “Wild West”.
A new sheriff is in town — and it goes by the name #DSA. pic.twitter.com/7YByqyTdX1
— Thierry Breton (@ThierryBreton) January 19, 2022
Der DSA gehört zu einem größeren Paket an Reformen, die die Marktmacht der großen Digitalkonzerne wie Meta (früher Facebook), TikTok oder Google eindämmen sollen. Dafür sollen die Anbieter der Plattformen stärker in die Verantwortung genommen werden: Die EU erlegt ihnen zahlreiche rechtliche Pflichten mit strengen Anforderungen auf.
Denn die Konzerne verdienen kräftig an ihren Nutzer*innen. Ihre Plattformen sind vor allem Werbeplattformen: Sie werten das Verhalten der Nutzer*innen aus und verkaufen personenbezogene Werbung auf Basis von algorithmischen Berechnungen. Deshalb entstehen für die Nutzer*innen auch keine Nutzungsgebühren in Form von Geld – sie zahlen stattdessen mit ihren Daten.
Mehr Verantwortung, mehr Transparenz
Zu den Zielen des künftigen Gesetzes gehört es, die Verbreitung illegaler Inhalte im digitalen Raum zu verhindern und die Grundrechte der Nutzenden zu schützen. Erreicht werden sollen diese Ziele mit Transparenzanforderungen, die die Tech-Konzerne erfüllen müssen. Sie sollen erklären, wie auf ihren Plattformen algorithmische Entscheidungen getroffen werden und welche Effekte diese Entscheidungen auf die Nutzenden und die Gesellschaft haben.
Wie genau die Konzerne das offenlegen müssen, ist noch unklar. Die Nonprofit-Organisation AlgorithmWatch fordert, dass Plattformdaten „für Forschung im öffentlichen Interesse und unabhängige Audits“ zugänglich sein sollen. Die Organisation beschäftigt sich mit Prozessen algorithmischer Entscheidungsfindung, die eine gesellschaftliche Relevanz haben. Bislang kann sie nur die Ergebnisse der Algorithmen auswerten. Dabei kann zu einem gewissen Grad nur spekuliert werden, wie dieser wirklich funktioniert. Ein Zugriff auf die Algorithmus-Daten kann dagegen helfen, ein umfassendes Bild von der Wirkweise zu erlangen.
Maßnahmen gegen Hass, Hetze und illegale Inhalte
Die alltägliche und politische Kommunikation hat sich in den letzten Jahren stärker in soziale Netzwerke verschoben: Im Januar 2021 lag die Anzahl der monatlich aktiven Nutzer*innen von sozialen Netzwerken weltweit bei rund 4,2 Milliarden; ganze 2,9 Milliarden monatlich aktive Nutzer*innen fielen dabei auf Facebook (laut des eigenen Berichts für das erste Quartal 2021). Auch die Verbreitung von sogenannter Hasskriminalität und anderen strafbaren Inhalten online nimmt zu. Diese Entwicklung kann auch ein Gesetz so schnell nicht aufhalten. Der DSA soll aber klarer regeln, wie die Plattformen mit Hasskriminalität, wie etwa Aufrufen zur Gewalt oder Volksverhetzung, umgehen müssen.
Die bisherigen Vorschläge gehen dahin, dass Plattformen Inhalte schneller und effektiver löschen sowie Nutzenden einfache Möglichkeiten bieten sollen, Inhalte zu melden. Gleichzeitig sollen dadurch aber zulässige Inhalte nicht blockiert werden. Upload-Filter für die Erkennung illegaler Inhalte müssen dabei aber nicht zum Einsatz kommen. Das geht zumindest aus dem ersten Vorschlag der Europäischen Kommission aus dem Jahr 2020 hervor (siehe dort Artikel 7). Explizit verboten werden sie aber offensichtlich auch nicht. Das bietet Zündstoff. Die Uploadfilter sorgten bei der europäischen Urheberrechtsreform für die größten Debatten und Proteste. Kritiker*innen sehen durch sie die Meinungsfreiheit bedroht. Der Europäische Gerichtshof hatte zuletzt Zweifel an der Reform und speziell an der Verwendung von Uploadfiltern ausgeräumt – gleichzeitig aber strenge Vorgaben für deren Einsatz gemacht.
Die Vorschläge sind teils schon bekannt: Das deutsche Netzwerkdurchsetzungsgesetz (kurz: NetzDG) zur Bekämpfung von Straftaten und Hassrede im Internet beinhaltet bereits einige der Pflichten, die sich künftig aus dem DSA ergeben werden. Dort gibt es etwa Transparenzpflichten der Anbieter. Auch müssen sie illegale Inhalte schnell löschen. Das NetzDG wurde zuletzt 2022 verschärft, indem Anbieter sozialer Netzwerke potenziell strafrechtlich relevante Inhalte direkt an das Bundeskriminalamt (BKA) melden sollen. Eine wirkliche Schlagkraft hat das Gesetz aber nie bekommen. Mit dem DSA dürften viele der deutschen Regelungen ersetzt werden.
Ein großes Problem schon beim NetzDG war die Frage, wie entschieden wird, was „illegale Inhalte“ sind. Rechtsverbindlich können das nur Gerichte klären – doch das dauert. Bis dahin müssen die Plattformen belastbare Entscheidungen treffen. Der DSA sieht zumindest vor, dass sie diese Entscheidungen begründen müssen.
Cookie-Banner und Werbetracking ade?
Auch ein weiteres Problem, nämlich das von Werbetracking und Cookie-Bannern soll der DSA angehen. Surfen im Internet ohne Werbebanner, „Das könnte Sie auch interessieren“-Vorschläge, Sponsored Posts und das Wegklicken von Cookie Bannern ist kaum mehr vorstellbar. Plattformen erstellen dafür umfangreiche Persönlichkeitsprofile ihrer Nutzer*innen, die Unternehmen dann verwenden können, um personalisierte Werbung anzuzeigen. Der erste Vorschlag aus 2020 sah vor, dass das nicht mehr uneingeschränkt erlaubt sein soll: So soll zielgerichtete Werbung, für die die Daten von Minderjährigen ausgewertet werden, verboten sein. Auch dürfen besonders sensible Daten, wie etwa über die sexuelle Orientierung einer Person oder Gesundheitsdaten, nicht mehr als Grundlage für Werbung genutzt werden.
Cookie-Banner, die in der Regel dazu dienen, eine Einwilligung der Nutzenden für Werbetracking einzuholen, sollen zudem transparenter und klarer werden. Nutzende sollen es einfacher haben, Cookies oder andere Tracking-Werkzeuge abzulehnen.
Spannend wird, wie streng die entsprechenden Regelungen am Ende wirklich ausfallen. Den Plattformen sind sie ein Dorn im Auge – sie tangieren ihr Geschäftsmodell nachhaltig. Einfach verschwinden werden sie nicht.
Durchsetzung mit hohen Geldbußen
Wie gut ein Gesetz wirkt, hängt maßgeblich davon ab, wie konsequent es sich durchsetzen lässt. Auch dazu hat die EU sich Gedanken gemacht. Der DSA sieht vor, dass es sowohl auf nationaler als auch auf europäischer Ebene Überwachungsbehörden gibt. Diese sollen befugt sein, Sanktionen zu verhängen, etwa Geldstrafen.
Wie hoch diese Geldstrafen ausfallen werden, ist noch nicht geklärt. Gerade bei den größten Konzernen werden aber nur Bußgelder in Millionenhöhe einen Effekt erzielen können. Im Falle dieser Big Player ist außerdem geplant, dass die Europäische Kommission als direkte Aufsichtsbehörde fungieren soll und in den schwerwiegendsten Fällen Geldbußen von bis zu 6 Prozent des weltweiten Umsatzes eines Diensteanbieters verhängen kann.
Wie geht es weiter?
Manch einer mag das teilweise schon bekannt vorkommen. Das deutsche Netzwerkdurchsetzungsgesetz (kurz: NetzDG) zur Bekämpfung von Straftaten und Hassrede im Internet beinhaltet bereits einige der Pflichten, die sich künftig aus dem DSA ergeben werden. Auch im NetzDG gibt es etwa Transparenzpflichten der Anbieter. Auch müssen sie illegale Inhalte schnell löschen. Das NetzDG wurde zuletzt 2022 verschärft, indem Anbieter sozialer Netzwerke potenziell strafrechtlich relevante Inhalte direkt an das Bundeskriminalamt (BKA) melden sollen. Eine wirkliche Schlagkraft hat das Gesetz aber nie bekommen. Mit dem DSA dürften viele der deutschen Regelungen ohnehin ersetzt werden.
Der finale Text des Gesetzes ist noch nicht da. Wie revolutionär er wird, zeigt sich erst nach Veröffentlichung. Fest steht aber, dass es sich um eine Verordnung handeln wird, die – anders als eine Richtlinie – nach Inkrafttreten unmittelbar in allen Mitgliedsstaaten Anwendung findet. Bis die Regelungen dann aber tatsächlich gelten, wird es nochmal dauern: Das Gesetz sieht auch nach Inkrafttreten eine Übergangsfrist vor.
Ob der DSA dann das Internet wirklich besser macht, bleibt abzuwarten. Auch, wie die künftigen Regelungen durchgesetzt und ausgelegt werden. Der gesetzgeberische Wille ist aber da – ein erster Schritt in die richtige Richtung ist gemacht.
iRights.info informiert und erklärt rund um das Thema „Urheberrecht und Kreativität in der digitalen Welt“.
Wir sind auch in den Sozialen Medien zu finden: Folgen Sie uns auf Twitter, Facebook oder Telegram!
Was sagen Sie dazu?