Hassrede und Katzenbilder: Wie können im globalen Netz nationale Gesetze respektiert werden?
Der Zugang zum Internet ist die Voraussetzung, um online aktiv zu sein, zu kommunizieren oder einzukaufen. Zugang allein reicht aber nicht: Erst sogenannte Internet-Intermediäre (oder Internet-Inhalt-Vermittler) wie Google, Facebook oder Amazon ermöglichen es, das Internet zu nutzen, um über Social Media zu kommunizieren, auf Musik, Filme und Texte zuzugreifen oder überhaupt erst via Suchmaschine passende Online-Angebote ausfindig zu machen. Intermediäre verbinden Nutzer mit dem Internet, sie helfen bei der Datenverarbeitung, sie hosten und indexieren Inhalte, sie ermöglichen die Suche, sammeln Informationen, vermitteln Angebote Dritter und ermöglichen Käufe und Zahlungen.
Intermediäre tangieren in vielerlei Hinsicht Belange von gesellschaftlichem Interesse. Datenschutz und Persönlichkeitsrechte, das Recht auf freie Meinungsäußerung, die Meinungsvielfalt im öffentlichen Diskurs sowie der Schutz von Urheberrechten werden direkt oder indirekt durch das Handeln von Intermediären oder durch Vereinbarungen zwischen Intermediären und Internutzern tangiert. Oft kommt es dabei zu Konflikten zwischen unvereinbaren Zielen, die immer wieder auch in Rechtsstreitigkeiten zum Ausdruck kommen.
Neben diesen Zielkonflikten sind konkrete Fragen der Regulierung und Governance von Intermediären auch aus anderen Gründen von allgemeinem Interesse. Ein häufig wiederkehrendes Thema ist die Frage, inwiefern Einschränkungen des Rechts auf freie Meinungsäußerung erlaubt oder sogar geboten sind – beispielsweise, wenn es um Inhalte mit völkerrechtlich verbotenen Darstellungen geht. Diesbezügliche rechtliche Auseinandersetzungen sind zumeist auch von gesellschaftspolitischem Interesse.
Eine andere Frage ist eher von perspektivischem Interesse: Wo genau ist die Grenze zwischen Medienunternehmen (die prinzipiell für Inhalte verantwortlich sind) und Intermediären (die nur begrenzt für Inhalte,die von Nutzern generiert oder eingestellt werden, verantwortlich sind) zu ziehen? Ab wann gilt ein Intermediär als Akteur, der eine medienähnliche Dienstleistung erbringt? Viele der großen Internetunternehmen produzieren eigene Inhalte und vermitteln gleichzeitig Inhalte. Wie kann zwischen ihren verschiedenen Funktionen unterschieden werden?
Und schließlich: Wie soll man damit umgehen, wenn allgemeine Geschäftsbedingungen und Community Guidelines von Intermediären nationales und regionales Recht unterlaufen? Wie können in Bezug auf Internet-Inhalte, die international verfügbar sind, nationale Gesetze respektiert werden – ohne dass der Geltungsbereich dieser Gesetze dabei automatisch eine nahezu globale Ausdehnung erfährt?
Rechte und Freiheiten sichern: Der Staat ist in der Pflicht
Staaten sind dazu verpflichtet, die Rechte und Freiheiten ihrer Bürger auch gegen Intermediäre durchzusetzen. Dies erschöpft sich nicht in der Anregung von Selbstkontrollmechanismen. Auf der anderen Seite sind staatlichem Handeln durch völkerrechtliche und andere Vereinbarungen aber auch Grenzen gesetzt, was Eingriffe in den Verfügungsbereich von Internet-Intermediären und somit in die Meinungsfreiheit betrifft. Die Sperrung von Online-Angeboten durch staatliche Instanzen ist nur begrenzt zulässig.
Die Diskussion um die rechtlichen Verpflichtungen von Intermediären hat eine lange Geschichte. Den UN Guiding Principles on Business and Human Rights folgend haben Intermediäre eigenständige Pflichten, Menschenrechte zu respektieren, eine „corporate responsibility to protect“, die unabhängig von der staatlichen Pflicht ist, Menschenrechte zu sichern. Unternehmen kommen diesen Pflichten etwa durch Transparenzberichte, verstärkter Kontrolle von Subunternehmen entlang der Lieferkette und Human Rights Impact Assessments nach.
Es bestehen auch einige Initiativen von Technologieunternehmen, wie die Global Network Initiative, in denen sie sich zu selbst entwickelten Prinzipien bekennen (die allerdings menschenrechtlich grundiert sind) und im Rahmen eines Accountability, Policy and Learning Framework ihre Performance verbessern wollen. Doch dies geht vielen Staaten und Nutzern nicht weit genug.
Auf globaler Ebene sind Intermediäre äußerst mächtige Player geworden. Die Nutzerzahlen vieler sozialer Netzwerke machen sie (auch wenn der Vergleich mit Einwohnerzahlen hinkt) zu größeren Entitäten als viele Staaten. Gleichzeitig stehen Unternehmen unter einem doppelten Druck: Nutzer wollen sich sicher und unterhalten fühlen, und Staaten wollen, dass ihre Rechtssysteme anerkannt und eingehalten werden.
Schon dies setzt Intermediäre dem Problem aus, für (fast) jeden Staat eigene Angebote schalten zu müssen. Google kämpft seit 2016 mit der französischen Datenschutzbehörde CNIL und den Ansprüchen französischer Richter, das Recht auf Vergessen global umzusetzen (was einem Oktroi einer französischen Entscheidung auf die Suchfunktionalität weltweit gleichkäme). Facebook wird verklagt, weil es nach Upload eines impressionistischen Bildes eines weiblichen Unterleibs den Account eines französischen Users gesperrt hatte („French Court rules Against Facebook in Gustave Courbet Lawsuit“).
EGMR-Entscheide liefern Kriterien für die Löschung von Inhalten
Die Wahrung von Datenschutz und Persönlichkeitsrechten, der Respekt von völkerrechtlichen Vereinbarungen (etwa dem Verbot von gewaltverherrlichender Hassrede oder sexueller Ausbeutung von Minderjährigen) sowie der Schutz der Urheberrechts erfordern es, dass Intermediäre dazu verpflichtet werden, unter bestimmten Umständen Internet-Inhalte zu löschen.
In einigen Fällen – wie bei der Verletzung des Urheberrechtes – geschieht dies nach Aufforderung durch Betroffene („notice and takedown“). In anderen Fällen ist von Intermediären aber auch Eigeninitiative gefragt, um der Verbreitung illegaler Inhalte entgegenzusteuern. Hier obliegt es den Intermediären selbst, zwischen Rechten abzuwägen. Das Dilemma: Löschen sie zu viel, wird ihnen vorgeworfen, auf unrechtmäßige Weise die Meinungsfreiheit im Netz zu beschneiden. Nutzer wandern ab. Löschen sie zu wenig, beschuldigt man sie beispielsweise zu wenig gegen Hassrede zu unternehmen. Eine Orientierung in dieser Situation bieten vergangene Entscheidungen des Europäischen Gerichtshofs für Menschenrechte (EGMR).
Zunächst ist festzuhalten, dass der EGMR grundsätzlich der Meinungsäußerungsfreiheit einen sehr hohen Stellenwert einräumt und selbst Meinungen schützt, die verletzen, schockieren oder verstören können („offend, shock or disturb“). In den Fällen Yildirim v.Turkey (Aktenzeichen 3111/10) und Cengiz and Others v. Turkey hat der EGMR festgehalten: Ein Staat, der ohne legitimen Grund den Zugang zu Intermediären verunmöglicht, verletzt die Rechte und Freiheiten, die in der Europäischen Menschenrechtskonvention garantiert werden.
Hinsichtlich des Rechts auf Meinungsäußerungsfreiheit gibt es mehr oder weniger klare Grenzen. Diese betreffen zum einen die Wahrung der Privatsphäre. Denn wie das Menschenrechtshochkommissariat in seinem Bericht „The Right to Privacy in the Digital Age“ betont, ist das Recht auf Privatleben und der Datenschutz gerade im Internet von besonderer Bedeutung. Details dazu wurden in den Urteilen des Europäischen Gerichtshofs Schrems v. Data Protection Commissioner ausgearbeitet („Schrems I“ und „Schrems II“; siehe auch „Human rights guidelines for Internet service providers“).
Auf der anderen Seite stößt die Meinungsäußerungsfreiheit bei völkerrechtlich verbotenen Äußerungen und Darstellungen an klare Grenzen. Darunter fallen Aufforderungen zum Genozid, Terrorismus, qualifizierte Diskriminierung in Form von gewaltverherrlichender Hassrede und sexuelle Ausbeutung von Minderjährigen. Hier sind Intermediäre in der Pflicht, von sich aus mit der Löschung entsprechender Inhalte aktiv zu werden.
Wer muss haften – unter welchen Umständen?
Eine Frage ist es, anhand welcher Kriterien legale von illegalen Inhalten unterschieden werden sollen. Eine andere Frage ist, wer im konkreten Fall eine Lösung vornehmen oder vielleicht sogar Schadensersatz leisten muss und wann ein Akteur für illegale Inhalte rechtlich verantwortlich ist. Hierzu zählt auch die Frage, unter welchen Umständen Intermediäre eigenständig aktiv werden, oder ob sie nur auf Löschungsaufforderungen reagieren müssen.
Grundsätzlich bietet Artikel 14 der E-Commerce-Richtlinie einen starken Schutz für Dienste der Informationsgesellschaft, über deren Plattformen Nutzer Inhalte öffentlich zugänglich machen. Mitgliedsstaaten können einen Anbieter nur für Inhalte verantwortlich machen, die dieser der im Nutzerauftrag gespeichert hat, wenn er „tatsächlich Kenntnis von der rechtswidrigen Tätigkeit oder Information [hat] und, in Bezug auf Schadenersatzansprüche, […] er sich […] Tatsachen oder Umstände[n] bewusst [ist], aus denen die rechtswidrige Tätigkeit oder Information offensichtlich ist“.
Eine allgemeine „Recherchepflicht“ oder Vorabzensur wäre aber (Artikel 15 Absatz 1 der E-Commerce-Richtlinie und mehreren Urteilen des Europäischen Gerichtshofs zufolge) europarechtswidrig. In Delfi v. Estonia entschied die Große Kammer, dass mit Blick auf die Rechte und Interessen anderer und auf die Gesellschaft als Ganze den Vertragsstaaten erlaubt sei, unter bestimmten Bedingungen Intermediäre (hier: ein Internet-Newsportal) in die Haftung zu nehmen.
Zu diesen Bedingungen zähle, dass es sich um ein kommerzielles Newsportal handle; dass das Unternehmen Kommentare, die „klar an sich schon rechtswidrige“ Hassrede darstellten und zu Gewalt aufriefen, nicht unverzüglich (das heißt bis zu sechs Wochen nach deren Veröffentlichung) nach deren Veröffentlichung entfernt habe; dass das Portal den Autoren erlaubt habe, anonym zu bleiben; und dass der Schadenersatz nur gering sei (320 Euro). Von einer Pflicht zur „Privatzensur“ distanzierte sich der EGMR. Aber dennoch hatten Straßburgs Intermediäre die Rolle, zu bewerten, ob ein Posting nur beleidigend ist (dann kann auf eine „notice“ gewartet werden) oder „an sich“ schon rechtswidrig ist (dann ist dieses gleich zu löschen).
In MTE and Index.hu ZRT v. Hungary (2016) bestätigte der EGMR seinen Ansatz und betonte, dass Notice-and-takedown-Verfahren weiterhin legitim seien, solange die Kommentare nicht an sich klar rechtswidrig seien. In Rolf Anders Daniel Pihl v. Sweden (2017) bekräftigte Straßburg einmal mehr, dass die Art der Äußerung; der Kontext; die Größe und kommerzielle Natur der Plattform; ihre Verfahren zur Entfernung inkriminierter Kommentare; die Geschwindigkeit der Reaktion; die Möglichkeit der direkten Haftung des eigentlichen Autors und die (finanziellen) Folgen der nationalen Entscheidung für die Plattform relevant für die Entscheidung der Frage seien, ob ein Menschenrecht verletzt worden sei.
Politische und gesellschaftliche Fragen
Die Weiterentwicklung des rechtlichen Rahmens für Intermediäre vor dem Hintergrund neuer technologischer Entwicklungen, innovativer Geschäftsmodelle und durch Gerichtsentscheide erfolgter Klarstellungen und Interpretationen geltender Gesetze ist eine wichtige politische Aufgabe. Generell treffen hier Recht und allgemeine Geschäftsbedingungen konfliktreich aufeinander. Perspektivisch wird die Politik die Frage stellen müssen, wie lange erfolgreiche soziale Netzwerke noch rein ‚private Räume‘ bleiben und ab wann sie als (zumindest) quasi-öffentliche Räume gesehen werden müssen.
Ein Kriterium für die Definition dieser Grenze kann man aus der Entscheidung des Europäischen Gerichtshofs für Menschenrechte (EGMR) im Fall Appleby and Others v. United Kingdom ableiten. In diesem Fall hatten politische Aktivisten dagegen geklagt, dass der Betreiber einer Shopping Mall es ihnen verwehrte, Flugblätter mit Unterschriftenlisten im Eingangsbereich und in der Wandelhalle der Mall zu verteilen. Die Richter wehrten die Ansprüche der Aktivisten ab. Die Begründung: Die Aktivisten hätten für ihr Anliegen auch in den Geschäftsstraßen der Altstadt werben oder über lokale Medien kommunizieren können.
Umgekehrt folgt aus dieser Urteilsbegründung: Wenn ein für das Gemeinwesen wichtiger Diskurs außerhalb von privat konstituierten Räumen tatsächlich nicht mehr erfolgreich stattfinden kann, können staatliche Eingriffe in den Verfügungsbereich von privaten Akteuren (sei es eine Shopping Mall oder eine von einem Internet-Intermediär betriebene Kommunikationsplattform) durchaus legitim sein. Im vorliegenden Fall hätte der staatliche Eingriff darin bestanden, dass dem Mall-Betreiber auferlegt worden wäre, das Verteilen von Flugblättern zu gestatten.
Ähnlich argumentierten die Richter des deutschen Bundesverfassungsgerichts in der „Fraport-Entscheidung”. Hier ging es um die Frage, inwiefern Meinungskundgebungen und Demonstrationen auf dem Gelände des Flughafens Frankfurt von der Betreibergesellschaft verboten werden können. Ein zentraler Begriff in der Urteilsbegründung ist der des „öffentlichen Forums”, welches dadurch charakterisiert ist, „dass auf ihm eine Vielzahl von verschiedenen Tätigkeiten und Anliegen verfolgt werden kann und hierdurch ein vielseitiges und offenes Kommunikationsgeecht entsteht”. Aus einem solchen öffentlichen Forum, so die Karlsruher Richter, könne die „politische Auseinandersetzung in Form von kollektiven Meinungskundgaben durch Versammlungen nicht herausgehalten werden”.
Eine weiteres, eher praktisches Thema für die Politik ist der sich nicht immer unproblematisch gestaltende Rechtsvollzug. Bei gemeldeten, nach dem Recht mancher Staaten strafbaren Äußerungen (etwa Leugnung des Holocausts) sind Intermediäre zu oft nicht in der Lage (oder willens), effektiv Löschungen vorzunehmen. Zwar haben sich wichtige soziale Netzwerke in einer Task Force 2015 darauf geeinigt, binnen 24 Stunden nach deutschem Recht strafbare Inhalte zu löschen („Together against Hate Speech“). Jedoch werden einem Bericht von jugendschutz.net zufolge bei Twitter nur ein Prozent und bei Facebook nur 39 Prozent der inkriminierten Inhalte rechtzeitig gelöscht (bei Youtube hingegen 90 Prozent).
Überraschend ist dies insofern, als Intermediäre bei der Bekämpfung von Urheberrechtsverletzungen unter Beweis stellen, dass das Löschen illegaler Inhalte vergleichsweise problemlos möglich ist. So bieten einige Intermediäre Copyright-Inhabern bevorzugten Zugang zu Plattformen, um geschützte Inhalte zu identifizieren. Löschanforderungen, die Copyright-Verletzungen betreffen, kommen Intermediäre regelmäßig viel schneller nach als ge aggter Hassrede. Hier ist (auch) politische Initiative gefragt.
Ein weiteres Problemfeld: Einzelne Intermediäre, wie etwa Google oder Facebook, nehmen eine sehr zentrale Position ein, was die Verfügbarmachung von Inhalten betrifft. Dies könnte die Sicherung von Meinungsvielfalt und die Begrenzung von Meinungsmacht infrage stellen. Auch die Art und Weise, wie Intermediäre bestimmte Inhalte priorisieren, ist davon betroffen, beispielsweise die durch Algorithmen gesteuerte und individualisierte Steuerung von Medieninhalten.
Oftmals werden in diesem Kontext Forderungen nach Transparenz von algorithmenbasierten Entscheidungen erhoben sowie nach Schutz vor Diskriminierung durch Algorithmen. Ein ebenfalls in diesem Kontext diskutiertes Phänomen ist die sogenannte „Filter Bubble“: Medienkritiker befürchten, dass der Konsum von zunehmend personalisierten Nachrichten und Inhalten dazu führt, dass eine allgemeine und übergreifende Medienöffentlichkeit signifikant an Bedeutung verlieren und die demokratische Gesellschaft dadurch Schaden erleiden könnte.
Einher mit der Sorge um Konzentration von Meinungsmacht geht die Forderung nach Datenportabilität. Datenportabilität ist ein Gegengewicht zu dem in Netzwerk-Ökonomien zu beobachtenden Trend des Lock-in: Kunden und Nutzer insbesondere von Social-Media-Plattformen ist es oft nahezu unmöglich, zu einem anderen Anbieter zu wechseln, weil einerseits ein Großteil der Kommunikationsbeziehungen exklusiv an den bestehenden Anbieter gebunden ist, andererseits auch vom Nutzer selbst oftmals über viele Jahre hinweg erzeugte Inhalte bei dem bestehenden Anbieter liegen.
Datenportabilität würde es Nutzern ermöglichen, ihre selbst generierten Informationen von einer Plattform auf eine andere umzuziehen. Die Möglichkeit eines solchen Umzuges wiederum würde der Meinungsmacht von Intermediären Grenzen setzen: Nutzer, die mit den Geschäftsbedingungen eines Intermediärs nicht mehr einverstanden sind, könnten einfach den Anbieter wechseln. Die Portabilität von Inhalten zwischen konkurrierenden Intermediären und die Kontrolle von Nutzern über seine gespeicherten Daten sind zentrale Fragen der nächsten Jahre.
Die EU hat sich bislang lediglich der Portabilität von Onlinedienstleistungen (wie Filmen und E-Books) zwischen Mitgliedsstaaten angenommen. Ein Recht auf Portabilität von eigenen Daten existiert (noch) nicht. Es zu konturieren wäre auch nicht einfach, da der Versuch einen Eingriff in die unternehmerische Freiheit der Intermediäre darstellen würde.Weitere Schwierigkeiten hängen mit der Natur von sozialen Medien zusammen. Bei (aufeinander folgenden) Kommentaren in einem Diskussionsforum zum Beispiel würde der Transfer eines aus dem Kontext gerissenen einzelnen Kommentars wenig zielführend sein. Auch würden kleinere Anbieter durch Anforderungen an Datenportabilität, die mit hohem technischem Aufwand einhergehen, im Wettbewerb deutlich benachteiligt werden.
Agenten der Veränderung
International haben sowohl die UNESCO („Fostering Freedom Online“) als auch die OECD („The Economic and Social Role of Internet Intermediaries“) wegweisende Berichte zu Intermediären und deren Bedeutung für die Entwicklung des Internets beziehungsweise für die Online-Freiheit in Auftrag gegeben. Auf EU-Ebene ist die derzeit in der Diskussion befindliche EU-Richtlinie über die Bereitstellung digitaler Inhalte zu erwähnen, die den Vertrieb digitaler Medien durch Intermediäre wie etwa Apple oder Amazon betrifft.
Sehr intensiv in die Diskussion um Intermediäre eingebracht hat sich auch der Europarat, der bis Ende 2017 eine Empfehlung des Ministerkomitees zu Internet-Intermediären veröffentlichen wird. In dieser werden Staaten daran erinnert, die Rechte ihrer Bürger online zu schützen. Mit dem Netzwerkdurchsetzungsgesetz versucht beispielsweise der deutsche Gesetzgeber, die Verbreitung von strafbaren Falschaussagen oder Hassrede in sozialen Netzwerken zu unterbinden.
Die EU-Kommission hat im Herbst 2015 im Zusammenhang mit dem Aufkommen der partizipativen Wirtschaft eine offene Konsultation für Onlineplattformen initiiert. Erbeten wurden Meinungen zur Rolle der Plattformen in der partizipativen Wirtschaft und in Bezug auf Rechte und Haftungsfragen, vorhandene Anbieter, Innovationspotenziale und Wahlmöglichkeiten der Verbraucher. Die Konsultation wurde im Zuge der Strategie für den digitalen Binnenmarkt gestartet. Das Ergebnis dieser Konsultation, an der sich alle Stakeholder-Gruppen beteiligten, soll als Grundlage für weitere Arbeiten an einem europäischen Konzept für die partizipative Wirtschaft dienen und ießt unter anderem in die Konkretisierung der EU-Richtlinie über bestimmte vertragsrechtliche Aspekte der Bereitstellung digitaler Inhalte.
Transnationale Unternehmen sind sich zunehmend ihrer besonderen Stellung bewusst. In Initiativen wie der Global Network Initiative bekennen sie sich zu zentralen Rechten und Werten, die auch ihr Verhalten als Intermediäre beeinflussen sollten. Zivilgesellschaftliche Organisationen und die Wissenschaft haben versucht, zumindest im Bereich der Intermediärshaftung menschenrechtssensible Leitlinien vorzuschlagen: die Manila Principles. Ein Nebenaspekt: Die Tatsache, dass die Manila Principles durch das internationale Diskussionsforum RightsCon entwickelt wurden, macht zugleich deutlich, inwiefern informelle Foren durchaus wahrnehmbaren (auch normativen) Einfluss haben können. Zu diesen gehört auch die Dynamic Coalition on Platform Responsibility (CD PR) des Internet Governance Forums.
Dieser Beitrag entstammt der soeben veröffentlichten Publikation „Digitalpolitik – eine Einführung“, herausgegeben von Lorena Jaume-Palasí, Julia Pohle und Matthias Spielkamp. Der Text steht unter der Creative-Commons-Lizenz Namensnennung (CC BY 3.0)
1 Kommentar
1 Wolfgang Ksoll am 9. Mai, 2017 um 18:50
Man könnte es auch härter formulieren: wenn wir uns nicht endlich dazu aufraffen, globale Medien auch global zu regulieren (bei der UN), dann werden wir wie beim Datenschutz sehen, dass der Rechtsstaat erodiert: national können Behörden machen was sie wollen (BKA-Trojaner, BND-Beihilfe zur Spionage fremder Mächte am De-CIX, BfV unterlässt straflos Spionageabwehr), die EU-DSGVO wird durch nationale Gesetze hintertrieben, Konstrukte wie das Konzernprivileg werden gar nicht erwähnt und bei Faceboo+WhatsApp wird so getan, als wenn es beim BDSG bleiben würde, und die Amerikaner geben den Verkauf von personenbezogenen Daten frei, was Verträgen zwischen EU und USA den Boden entzieht.
Man verhält sich so irrational als würden nationale oder regionale (EU) Atomwaffensperrverträge für die atomare Sicherheit ausreichend sein.
Noch ein paar Jahre Untätigkeit bei der globalen Regulierung globaler Medien und die Politik wird nicht mehr ernst genommen oder radikalisiert sich weiter bei den rechten Populisten.
Was sagen Sie dazu?