Plattformregulierung – auch die sozialen Netzwerke werden immer mehr in die Pflicht genommen

Hassrede und bewusste Fehlinformation sind ein weit verbreitetes Problem in den sozialen Netzwerken, auch für Kommunikationsprofis. Die geplanten Regulierungen von Bundesregierungen und EU sollen dem Schutz der Meinungsfreiheit dienen und die freie und sachliche Debatte fördern – und wollen auch die Anbieter von Messengerdiensten wie Telegram stärker in die Verantwortung nehmen.

Typ:
Artikel
Rubrik:
Betrieb & Organisation
Themen:
Social Media Recht Anwendungsentwicklung
Plattformregulierung – auch die sozialen Netzwerke werden immer mehr in die Pflicht genommen

Im Herbst 2020 kündigte der Schlagersänger Michael Wendler an, dass er jetzt zu Telegram geht, da man nur dort zensurfrei seine Meinung äußern könne. Das geht dem Schlagerstar zufolge bei Facebook und Instagram nicht. Natürlich hat der Wendler wie wir alle das Recht, seine Meinung frei zu äußern, aber die Meinungsfreiheit hat nun mal auch Grenzen und die beginnen dort, wo gegen deutsches Recht oder die jeweiligen Community-Richtlinien verstoßen wird.

Insbesondere sind die Plattformen hier an das Netzdurchdringungsgesetz (NetzDG) gebunden. So sind soziale Netzwerke dazu verpflichtet, rechtswidrige Inhalte im Sinne des NetzDG nach Kenntnis und Prüfung zu entfernen oder den Zugang zu ihnen zu sperren. Die Liste an rechtswidrigen Inhalten ist lang: darunterfallen u. a. Volksverhetzung, Gewaltdarstellung, Beleidigung oder auch die öffentliche Aufforderung zu Straftaten. So musste Donald Trump, der in einer Rede zum Sturm auf das Kapitol aufforderte, feststellen, dass auch US-Präsidenten sich an geltendes Recht halten müssen. Zu Recht haben Facebook und Twitter seinen Account gesperrt – längst überfällig, ist in Medien wie der FAZ, der Augsburger Allgemeine oder dem Münchner Merkur zu lesen.

Hassrede im Netz

Auch wenn Donald Trump gern als prominentes Beispiel herangezogen wird, wenn es um Hassrede und bewusste Fehlinformation im Netz geht, ist es doch ein weit verbreitetes Problem in den sozialen Netzwerken. Die Kommunikation im Netz ist oft rauer und durchaus schneller beleidigend, als es bei einer Unterhaltung von Angesicht zu Angesicht der Fall wäre. Die Anonymität des Netzes macht es möglich und so sind die Beleidigungen im Netz oft schneller getippt als gesagt. Natürlich sollen Gesetze wie das NetzDG die Nutzer genau davor schützen, doch im Social-Media-Alltag werden Diskussionen oft sehr schnell sehr unsachlich.

Eine Studie der Forschungsgruppe g/d/p im Auftrag von Elisa Hoven, Professorin an der Universität Leipzig, führte im Juni 2020 eine Umfrage mit mehr als 1.000 Internetnutzern und Internetnutzerinnen in Deutschland durch. Hoven leitet das durch das Bundesministerium der Justiz und für Verbraucherschutz geförderte Forschungsprojekt „Der strafrechtliche Umgang mit Hate Speech im Internet“. Die Studie zeigte, dass 18 Prozent der Befragten selbst schon mal von Hate Speech betroffen waren. Je jünger die Befragten, desto höher der Anteil der Betroffenen. 79 Prozent der Befragten nehmen zudem eine Zunahme der Aggressivität in den Online-Kommentaren wahr. 42 Prozent der Befragten gaben an, aus diesem Grund eigene Beiträge vorsichtiger zu formulieren oder ganz aufs Posten zu verzichten. Dabei sind jüngere Menschen vorsichtiger in ihrem Agieren als Ältere.

Das richtige Maß an Regulierung

Das Netzdurchdringungsgesetz ist nicht unproblematisch: Zwar hilft es dabei, Hassrede einzudämmen, auf der anderen Seite sehen Kritiker die freie Meinungsäußerung in Gefahr. Wie kann das sein, wenn das Gesetz sich nur gegen Inhalte richtet, die ganz klar rechtswidrig sind? Das Problem liegt im Gesetz selbst, das mit strengen Fristen und hohen Strafandrohungen gegenüber den Plattformen dazu führt, dass auch Inhalte, die nicht gegen geltendes Recht verstoßen, durchaus geblockt werden. Dieses sogenannte „Overblocking“ veranlasst den ein oder anderen Nutzer dazu, bewusst unliebsame Inhalte, die vielleicht nicht der eigenen Meinung entsprechen, der Plattform zu melden, auch wenn es keine rechtliche Veranlassung dafür gibt.

Zudem setzen die Plattformbetreiber technische Algorithmen auf der Suche nach Hasskommentaren und Falschmeldungen ein, die bei ihren Entscheidungen auch nicht frei von Fehlern sind. Fakt ist, dass die Meldungen nicht alle auf Richtigkeit überprüft werden (können), so dass es auch zur Löschung von unproblematischen Inhalten kommen kann. Hier sind die Meinungs- und Pressefreiheit in Gefahr und das hat auch die Bundesregierung erkannt, die eine Novellierung des Gesetzes vorsieht. Zudem wurde erst Ende Januar das Gesetz gegen Hasskriminalität nachgebessert. Das Gesetz machte im Oktober letzten Jahres Schlagzeilen, als Bundespräsident Frank Walter Steinmeier es nicht unterschreiben wollte. Grund: Das Bundesverfassungsgericht hatte die Identifizierung der Hetzer durch die Sicherheitsbehörden beanstandet. Mit der Nachbesserung gelten nun nicht nur höhere Hürden für den staatlichen Zugriff auf persönliche Daten von Handy- und Internetnutzern, sondern auch neue Regeln für den Umgang mit Hass- und Hetzkommentaren. Nun müssen die Plattformen strafbare Hass-Posts nicht mehr nur löschen, sondern sie bei der Polizei melden, was eine Strafverfolgung nach sich ziehen kann. Aber auch auf EU-Ebene ist Bewegung in der Debatte zu erkennen. Der Digital Service Act soll Hassrede eindämmen und die freie Meinungsäußerung schützen.

Digital Service Act

Was in Deutschland und in anderen Ländern auf nationaler Ebene bereits umgesetzt wird, soll nun für alle EU-Mitglieder einheitlich festgelegt werden. Beim Digital Service Act handelt es sich um einen Legislativvorschlag der Europäischen Kommission, der dem Europäischen Parlament und dem Europäischen Rat am 15. Dezember 2020 vorgelegt wurde. Er ist eine Modernisierung der im Jahr 2000 verabschiedeten E-Commerce-Richtlinie und soll eine sicherere und transparentere Online-Umgebung für Nutzer gewährleisten. Wie schon das NetzDG werden die großen Internet-Konzerne in die Pflicht genommen, illegale Inhalte zu löschen oder Sperrungen vorzunehmen. Um der Overblocking-Problematik entgegen zu wirken, ist ein Widerspruchsrecht für Inhaltslöschungen oder Accountsperrungen vorgesehen. Wer regelmäßig Inhalte als illegal meldet, obwohl sie es nicht sind, kann zudem vom Meldesystem ausgeschlossen werden. Ziel des Digital Service Acts ist Christine Lambrecht, Bundesministerin der Justiz und für Verbraucherschutz, zufolge, dass sich „… Plattformen klare, unmissverständliche Kommunikationsregeln geben und diese objektiv und verhältnismäßig anwenden – anders als die heutigen, oft intransparent angewandten ,Communitystandards‘“. Denn, wie sie weiter in einem Gastbeitrag bei Zeit Online schreibt : „Nicht Unternehmensregeln, sondern demokratisch beschlossene Gesetze müssen die Grenzen zwischen Meinungsfreiheit und strafbarer Hetze bestimmen.“

Fazit

Die geplanten Regulierungen sollen dem Schutz der Meinungsfreiheit dienen und die freie und sachliche Debatte fördern. Das kommt auch den Kommunikationsprofis zugute, die sich zunehmend mit dem Thema Hate Speech konfrontiert sehen. Auch Messenger wie Telegram, der die Privat- und Gruppenchats als Privatsache der Nutzer einstuft, sollten sich auf andere Zeiten einstellen. Die Bundesregierung will mit einer vom Bundeskabinett beschlossenen Novelle des Telekommunikationsgesetzes (TKG) die Anbieter von Messengerdiensten künftig rechtlich zur Verantwortung ziehen. Es bleibt spannend!