Per Christiansen über die Grenzen der Meinungsfreiheit: „Auf den Kontext kommt es an“

Eduardo Woo, via Flickr unter CC-BY-SA-2.0
Große Teile der Kommunikation finden heute in Sozialen Medien statt: Im Januar 2021 lag die Anzahl der monatlich aktiven Nutzer*innen von sozialen Netzwerken weltweit bei rund 4,2 Milliarden. Dabei lag Facebook laut seinem Bericht für das erste Quartal 2021 mit rund 2,9 Milliarden monatlich aktiven Nutzer*innen auf dem ersten Platz, 423 Millionen davon fielen allein auf Europa. Zum Facebook-Unternehmen gehören auch die Netzwerke WhatsApp und Instagram, die die Zahl der monatlichen Nutzer*innen zudem erheblich steigern.
Soziale Netzwerke sind heute weit mehr als digitale Gemeinschaften, die dem Beziehungsaufbau dienen. Sie werden von Privatpersonen, aber auch Regierungsorganisationen, Unternehmen, Politiker*innen, Journalist*innen und vielen weiteren zur Verbreitung von Inhalten und gleichzeitig als Informations- und Nachrichtenquelle genutzt.
Digitale Plattformen tragen maßgeblich zur Meinungsbildung bei – und verdienen kräftig daran
Für die Konzerne hinter den Plattformen wie Facebook oder Alphabet Inc., zu dem Google gehört, sind sie vor allem Werbeplattformen: Sie werten das Verhalten ihrer Nutzer*innen aus und verkaufen personenbezogene Werbung auf Basis von algorithmischen Berechnungen. Deshalb entstehen für die Nutzer*innen auch keine Nutzungsgebühren in Form von Geld – sie zahlen stattdessen mit ihren Daten.
Den Konzernen hinter den digitalen Plattformen kommt damit eine besondere Monopolstellung zu: Durch die hohe Anzahl der Nutzer*innen spielen sie in der politischen Diskussion und gesellschaftlichen Meinungsbildung eine wichtige Rolle. Der ehemalige US-Präsident etwa hatte bis zur Sperrung seines privaten Accounts das Netzwerk Twitter maßgeblich für die öffentliche Kommunikation genutzt. Er hatte darüber auch die nachweislich falsche Äußerung verbreitet, die amerikanische Präsidentschaftswahl 2021 sei zu seinem Nachteil gefälscht worden.
Regelmäßig stehen die Plattformen in die Kritik, etwa wegen des Umgangs mit dem Datenschutz der Nutzer*innen oder der Verbreitung von Falschnachrichten und Hassbotschaften. Viele Nutzer*innen fragen sich, wie Hetze und Hass verhindert werden können und gleichzeitig die Meinungsfreiheit bewahrt werden kann.
Der Unterschied zwischen Meinungsfreiheit und (falscher) Tatsachenbehauptung
Die Meinungsfreiheit, die als Grundrecht in der Verfassung in Artikel 5 Grundgesetz verankert ist, hat in einer Demokratie besondere Bedeutung. Sie soll verhindern, dass der Staat die öffentliche Meinung und Informationsbeschaffung kontrolliert – jede*r soll die Möglichkeit haben, sich eine eigene Meinung zu bilden und sie zu äußern. Debatten, Diskussionen und Meinungsaustausch sind ein wesentlicher Teil der Meinungsfreiheit.
Die Freiheit der Meinungsäußerung findet sich nicht nur im deutschen Grundgesetz, sie ist auch auf europäischer und internationaler Ebene normiert, zum Beispiel in Artikel 11 der EU-Grundrechte Charta.
Die Meinungsfreiheit schützt – wie ihr Name schon sagt – Meinungen. Ein Merkmal von Meinungen ist: Sie sind grundsätzlich subjektiv. Anders als Tatsachen können sie nicht objektiv richtig oder falsch sein.
Auch Tatsachenbehauptungen können als Meinung geschützt werden – aber nur, wenn sie der Wahrheit entsprechen. Im Gegensatz zu einem Werturteil, also einer wertenden Aussage, die sich auf einen Sachverhalt bezieht und diesen einordnet, ist die Tatsachenbehauptung eine Äußerung, die dem Beweis zugänglich ist: Die Temperatur an einem bestimmten Tag zu einer bestimmten Uhrzeit an einem bestimmten Ort ist zum Beispiel eine Tatsache, die bewiesen werden kann. „Das Wetter ist heute schlecht“, ist dagegen ein Werturteil, denn es beschreibt die subjektive Empfindung gegenüber einer Tatsache.
Lügen und „Fake News“, also bewusst getroffene unwahre Tatsachenbehauptungen, genießen damit keinen grundgesetzlichen Schutz. Sie können unter bestimmten Voraussetzungen sogar strafbar sein, wie etwa die Leugnung des Holocausts als Volksverhetzung.
Die Meinungsfreiheit geht sehr weit
Geschützt wird nicht nur die Meinung an sich, sondern auch der Prozess der Meinungsbildung und -äußerung. Auch wenn der Meinungsfreiheit eine große Bedeutung zukommt, hat sie Grenzen, die das Grundgesetz selbst vorgibt: Nach Artikel 5 Absatz 2 findet sie „ihre Schranken in den Vorschriften der allgemeinen Gesetze, den gesetzlichen Bestimmungen zum Schutze der Jugend und in dem Recht der persönlichen Ehre.“
Verletzt eine Meinung also etwa die persönliche Ehre eines anderen Menschen, kann sie unzulässig sein – und darf nicht geäußert werden. Juristisch werden solche unzulässigen Meinungsäußerungen als „Schmähkritik“ bezeichnet.
Per Christiansen, Hochschullehrer für Wirtschaftsrecht an der FOM Hochschule in Hamburg und Partner der Rechtsanwaltskanzlei iRights.Law in Berlin, ordnet die Situation so ein:
„Entgegen der Vorurteile mancher Menschen haben wir in Deutschland eine sehr weitgehende Meinungsfreiheit. Das bedeutet, dass man insbesondere nicht immer höflich sein muss. Man kann unhöflich sein und seine Aussagen ‚mit Schmackes‘ treffen. Das ist zulässig und besonders im politischen Kontext akzeptiert, weil die Meinungsfreiheit so wichtig für die Demokratie ist.“
In welchen Fällen es rechtlich erlaubt ist, problematische Inhalte öffentlich zu zeigen – und wann man eher davon Abstand nehmen sollte, beantwortet Christiansen in seinem Vortrag bei der Konferenz „Zugang gestalten!“. Die Veranstaltung stand 2021 unter dem Motto „Schwieriges Erbe“ (iRights.info berichte ausführlich).

„Zugang gestalten!“ 2021: Umfangreiche Dokumentation freigeschaltet
Nach dem rein digitalen Format im letzten Jahr fand „Zugang gestalten!“ Anfang November wieder vorwiegend als Präsenztagung statt. Interessierte können nun die knapp 30 Vorträge und Diskussionsrunden online anschauen. » mehr
Meinungsfreiheit und Persönlichkeitsrecht
Christiansen stellt klar: „Aber die Grenze ist spätestens dort, wo man den Diskurs verlässt und nur noch verletzen will.“ Stehen das Fertigmachen und die Diffamierung einer Person im Vordergrund und nicht (mehr) die Auseinandersetzung zu einem bestimmten Thema, soll eine Person also herabgesetzt werden, ist die Grenze zur Schmähkritik erreicht. Dann kann eine strafbare Beleidigung vorliegen.
Dabei muss das Grundrecht auf Meinungsfreiheit mit dem Persönlichkeitsrecht, das jede Person genießt, ins Verhältnis gebracht werden: Aus dem Schutz der Menschenwürde und dem Recht auf freie Entfaltung der Persönlichkeit (Artikel 1 und 2 Grundgesetz) folgt auch das Recht, sich vor Beschimpfungen oder Herabwürdigungen zu schützen. Dieses Recht gilt nicht nur im Verhältnis von Bürger*innen zum Staat, sondern auch zwischen den Bürger*innen untereinander, zum Beispiel in Sozialen Medien.
Doch die Abgrenzung ist oft schwierig und die vielen gerichtlichen Urteile dazu sind nicht immer eindeutig und konsequent. Das zeigt beispielsweise der Fall um Renate Künast: Die Grünen-Politikerin hatte 2019 gegen Beschimpfungen wie „Drecks Fotze“ und „Schlampe“, die sie auf Facebook erhalten hatte, geklagt. Künast wollte erreichen, dass Facebook die personenbezogenen Daten des Kommentators herausgeben darf, um zivilrechtliche Schritte gegen ihn einleiten zu können.
Das Landgericht Berlin hatte jedoch alle Äußerungen zunächst als „zulässige Meinungsäußerungen“ im politischen Kontext eingestuft und die Klage abgewiesen. Nachdem die Politikerin Beschwerde gegen das Urteil eingelegt hatte, änderte das Gericht seine ursprüngliche Entscheidung ab und erachtete zumindest die Herausgabe einzelner Nutzerdaten für zulässig. „Häufig befinden wir uns rechtlich in einem Graubereich“ bestätigt auch Christiansen.
Wo die Grenzen der Meinungsfreiheit liegen: „Es kommt auf den Kontext an“, so Christiansen
Wie bei so vielen anderen (rechtlichen) Fragen, ist der Zusammenhang entscheidend: „Wenn man sich als Nutzerin oder Nutzer die Frage stellt, darf ich sowas zeigen, dann ist der Kontext relevant. Es kann sein, dass etwas Legales ausnahmsweise im Kontext nicht gezeigt werden kann und etwas Illegales ausnahmsweise im Kontext doch gezeigt werden darf“, so Christiansen.
So kann das Zeigen eines Hakenkreuzes im Kontext eines Twitter-Threads über wissenschaftliche Erkenntnisse zum Nationalsozialismus zulässig, als Symbol ohne Kontextualisierung aber als „Verwenden von Kennzeichen verfassungswidriger und terroristischer Organisationen“ strafbar nach § 86a des Strafgesetzbuches (StGB) sein.
Die Normen des Strafrechts sind dabei so etwas wie die äußerste Grenze der Meinungsfreiheit: Erfüllt eine Aussage einen Straftatbestand, kann sie nicht von der Meinungsfreiheit gedeckt sein. Als mögliche Straftatbestände kommen neben der Beleidigung (§ 185 StGB) und der Volksverhetzung (§ 130 StGB) auch Delikte wie Nötigung (§ 240 StGB), Bedrohung (§ 241 StGB) oder Nachstellung (auch „Stalking“ genannt, § 238 StGB) in Betracht.
Doch kann eine Aussage selbst dann die Grenzen der Meinungsfreiheit erreichen, wenn sie nicht einen Straftatbestand erfüllt. Will man sich gegen Beschimpfungen in einem Sozialen Netzwerk wehren, kann man auch vor den Zivilgerichten dagegen vorgehen und beispielsweise Schadensersatz- und Schmerzensgeldansprüche geltend machen.
„Hatespeech“ und die Grenzen der Meinungsfreiheit
Nicht jede Aussage, die umgangssprachlich als „Hatespeech“ (zu Deutsch „Hassrede“) bezeichnet wird, ist auch strafbar. Der Begriff ist gesetzlich nicht geregelt. Die gemeinnützige Organisation „HateAid“, die Betroffenen digitaler Gewalt kostenlose Beratung und Prozesskostenfinanzierung anbietet, definiert Hatespeech als „Oberbegriff für verbal oder schriftlich geäußerte, gruppenbezogene Menschenfeindlichkeit“. Viele Personen, die Hass und Hetze online verbreiten, bewegten sich aber ganz bewusst an der Grenze des Strafbaren, sodass ihnen mit Mitteln des Strafrechts nicht immer beizukommen sei, so HateAid auf der eigenen Webseite.
Dass auch Aussagen, die nicht einen Straftatbestand erfüllen, gefährlich für die Meinungsäußerungsfreiheit sein können, zeigt eine durch Campact bundesweit durchgeführte Studie aus dem Jahr 2019 mit dem Titel „#Hass im Netz“. Für die Studie wurden über 7.300 Menschen in repräsentativer Zusammensetzung befragt. Etwa dreiviertel der befragten Internetnutzer*innen waren der Ansicht, dass Hassbotschaften die Vielfalt im Internet gefährdeten, weil sie Menschen einschüchterten und verdrängten. Etwa die Hälfte der Befragten Internetnutzer*innen gab an, sich wegen Hatespeech im Internet seltener zu ihrer politischen Meinung zu bekennen und sich seltener an Diskussionen im Netz zu beteiligen, auch wenn sie nicht persönlich durch Hatespeech betroffen waren, sondern diese nur beobachtet hatten.
Organisationen wie HateAid kritisieren die Plattformbetreiber schon lange dafür, nicht genug gegen Hatespeech zu unternehmen. Per Christiansen sieht das Problem aber nicht nur bei den Plattformen:
„Der Hass im Netz nimmt ganz spürbar zu. Ich denke aber nicht, dass die Plattformen nichts tun. Man kann diskutieren, ob sie genug tun, aber es gibt bei der Bekämpfung von Hass im Netz viele Ansätze und der Fokus sollte nicht allein auf den Plattformen liegen.“
Wichtig sei es, so Christiansen, alle Akteur*innen einzubeziehen und in die Verantwortung zu nehmen: „Wenn man sich auf das Strafrecht konzentriert, benötigt man auch die dahinterstehenden Ressourcen bei den Strafverfolgungsbehörden. Wichtig finde ich auch zivilgesellschaftliches Engagement, wie etwa von HateAid – davon sollte es viel mehr geben.“
Zudem sei der rechtliche Rahmen nicht von den Plattformen gesetzt, so Christiansen. „Das Medienrecht erlaubt große Spielräume in der Beurteilung von Inhalten. Das können auch die Plattformen nicht beheben.“ Hier müsse der Gesetzgeber in die Pflicht genommen werden.
Community Guidelines, Content-Moderation und das NetzDG
Ein wichtiger Aspekt der Bekämpfung von Hassbotschaften sei zudem die Content-Moderation auf den Plattformen. Die Plattformen filtern, löschen oder sperren Inhalte, die gegen ihre Nutzungsbedingungen verstoßen.
Diese Nutzungsbedingungen enthalten Verhaltensrichtlinien, sogenannte Community Guidelines. Facebook etwa will laut seiner „Gemeinschaftsstandards“ Hassrede nicht zulassen. Und Twitter gibt in seinen Regeln vor, dass Nutzer*innen „einer Person oder einer Personengruppe keine Gewalt androhen“ dürfen.
„Sich allein auf das Strafrecht zu berufen, ist ein lückenhafter Ansatz“, so Christiansen. Seine Begründung: „Viele Hassreden erreichen vielleicht nicht immer die strafrechtlich relevante Grenze oder werden mangels Strafantrags nicht verfolgt, beschädigen aber trotzdem den öffentlichen Diskurs.“ Deshalb hält Christiansen die Content Moderation für einen wichtigen Teil der Bekämpfung von Hatespeech.
„Ohne Content-Moderatoren wäre das Netz ein Ort, den man sich gar nicht vorstellen kann. Die wichtige Rolle der Content-Moderatorinnen und Moderatoren sollte nicht unterschätzt werden. Die machen einen unglaublich wichtigen Job und verdienen Anerkennung und Wertschätzung.“
Allerdings sind die Verhaltensregelungen der Netzwerke keine zwingenden rechtlichen Normen und es steht im Ermessen der Plattformen, ob sie gegen Inhalte, die gegen ihre Richtlinien verstoßen, auch wirklich vorgehen wollen. Häufig wird kritisiert, dass den Plattformen dadurch zu viel Macht zukommt, da sie quasi darüber entscheiden, was veröffentlicht werden kann und was nicht – und das ohne demokratische Legitimation. „Auch das ist eine Frage der Regulierung dieser Plattformen und ihrer Community Guidelines“, so Christiansen.
Erste Regulierungsschritte hat der Gesetzgeber 2017 mit dem Netzwerkdurchsetzungsgesetz (NetzDG) ergriffen und dieses in mehreren Schritten verschärft. Das Gesetz verpflichtet gewinnorientierte soziale Netzwerke bestimmter Größe, strafrechtlich relevante Inhalte zu entfernen. Seit 2020 zählen Betreiber sozialer Medien auch zu den Adressaten des Medienstaatsvertrags und unterliegen damit bestimmten Transparenzpflichten.
Christiansen: Nutzer*innen sollten auf Plattformen „Meldefunktionen nutzen“
Die Meinungsfreiheit ist eines der wichtigsten Güter in einer Demokratie. Doch sie gilt nicht grenzenlos. Verschiedene Gesetze und die Rechte Einzelner schränken sie ein, um einen friedlichen und offenen Diskurs zu ermöglichen. Der Staat und die Gesellschaft haben die Aufgabe, all das in einen Einklang zu bringen. Dabei müssen sie auch die besondere Kommunikationsform in Sozialen Netzwerken beachten – denn auch Hatespeech kann eine Gefahr für die Meinungsfreiheit sein.
Die Plattformen werden zunehmend in die Pflicht genommen. Eine wirksame Plattform-Regulierung ist wichtig, um die Entscheidung über die Grenzen der Meinungsfreiheit nicht auf die Netzwerke abzuwälzen, sondern dem demokratisch gewählten Gesetzgeber zu überlassen.
Damit die Plattformen auf Hatespeech in Postings überhaupt reagieren können, müssen sie von diesen Aussagen Kenntnis erlangen. Filter, welche die Inhalte auf den Plattformen automatisch nach strafbaren Inhalten durchforsten, seien rechtlich und praktisch problematisch, so Christiansen:
„Schon technisch stoßen selbst KI-Systeme schnell an ihre Grenzen, Aussagen in ihrem konkreten Kontext richtig zu bewerten. Daher sind die Plattformen darauf angewiesen, dass ihnen strafbare und schädliche Inhalte von Nutzer*innen gemeldet werden“.
Hierzu verfügen alle Plattformen über Meldefunktionen. Eingehende Meldungen werden von den Content-Moderation-Teams der Plattformen begutachtet und die gemeldeten Inhalte bei Verstößen gelöscht.
Bei der Bekämpfung von Hatespeech kann eigentlich jeder mitmachen, findet Per Christiansen. Er richtet einen Appell auch an die Nutzer*innen: „Jedenfalls schwere Fälle von Hatespeech sollte niemand einfach stehen lassen und das Netz den Hatern überlassen, sondern hierfür die Meldefunktionen der Plattformen nutzen.“
Was sagen Sie dazu?