Soziale Medienplattformen werden Inhalte entfernen oder algorithmisch herabstufen oder Konten wegen grenzwertiger Äußerungen sperren oder blockieren (shadowban). Wie offen kann die Kommunikation sein, wenn sie fast die normativen Grenzen überschreitet? Und wer darf diese Grenzen festlegen? Dieser Text soll ein paar Einblicke in Borderline Speech geben und aufzeigen, warum das Konzept dahinter höchst problematisch ist.
Definition und Verwendung
Bei der Debatte über “grenzwertige” Inhalte auf Social-Media-Plattformen geht es um eine Kategorisierung von Äußerungen, die nicht unter die Schranken der Meinungsfreiheit fallen, aber in der öffentlichen Debatte als unangemessen angesehen werden. Im Allgemeinen bedeutet Borderline “sich in einer Zwischenposition oder einem Zwischenzustand befinden: nicht vollständig als eine Sache oder ihr Gegenteil klassifizierbar sein”.1 Es deutet darauf hin, dass es einer Sache sehr nahe ist, während es noch Teil einer anderen ist und wahrscheinlich nicht ohne beides beschrieben werden kann. Während diese Kombination in vielen gesellschaftlichen Situationen vertraut erscheinen mag, ist der allgemeine Grundsatz, dass eine Handlung nicht “vollständig kategorisiert” werden kann, in der Rechtsprechung recht ungewöhnlich. Unter bestimmten gesetzlichen Bestimmungen kann eine Handlung verboten oder sogar strafbar sein. Das Gesetz legt die Grenzen der Legalität fest, auch für die Rede.
Ein passender Vergleich ist vielleicht die Unschuldsvermutung: Der Angeklagte ist unschuldig, bis seine Schuld bewiesen ist, aber er könnte von der Gesellschaft bereits als schuldig angesehen werden, weil er ein Verdächtiger ist.
Wenn es um Meinungsfreiheit geht, können nicht nur Gesetze eine sprachbeschränkende Wirkung haben: Soziale Normen und andere private Regeln legen fest, was nicht gesagt werden darf (Noelle-Neumann, 1991, S. 91). Das Problem schädlicher Online-Inhalte und der Kampf um deren Eindämmung könnte daher rühren, dass soziale Normen, die in der analogen Welt auch dann Wirkung zeigen, wenn sie nicht ausgesprochen werden, in der digitalen Sphäre nicht in gleicher Weise zum Tragen kommen. Bei grenzwertigen Äußerungen sehen wir uns mit zwei Problemen konfrontiert: (1) Wo ist diese Art von Äußerung in einem rechtlichen Rahmen zu verorten? (2) Wie restriktiv dürfen andere Normen als Gesetze für die Meinungsfreiheit sein? Laut dem Europäischen Gerichtshof für Menschenrechte gilt die Meinungsfreiheit:
Die Definition von grenzwertiger Rede zeigt, wie schmal der Grat zwischen dem Schutz einer deliberativen Öffentlichkeit, auch wenn die öffentliche Debatte unbequem ist, einerseits und dem Schutz einer “zivilisierten” öffentlichen Debatte andererseits ist.
Grenzwertige Inhalte in einem rechtlichen Rahmen
Wenn ein Inhalt als grenzwertig, aber immer noch legal angesehen wird, welchen Schutz verdient er dann? Das Recht auf freie Meinungsäußerung ist ein Menschenrecht, das für Demokratien unerlässlich ist und durch nationale Verfassungen und internationale Verträge geschützt wird. Im Allgemeinen ist alles, was in den Geltungsbereich fällt, geschützt, solange es nicht für illegal erklärt wird, und was als “legale” Rede gilt, hängt vom Schutzbereich ab. In Europa erlauben die meisten Verfassungen dem Gesetzgeber, der Rede Grenzen zu setzen, zum Beispiel durch das Strafrecht. Ungeachtet der hohen Standards und strengen Anforderungen durch den Verfassungsvorbehalt 2 können sie eingreifen. In den USA ist der Schutzbereich der Redefreiheit sehr weit gefasst und der Gesetzgeber darf die Rede nicht regulieren, da der erste Verfassungszusatz die Bürger*innen vor der Zwangsgewalt des Staates schützt.
Soziale Normen können bei der Schaffung von Gesetzen, einschließlich strafrechtlicher Bestimmungen, die die Meinungsfreiheit einschränken, eine Rolle spielen, weil sie natürlich über kodifizierte Rechtsnormen hinausgehen. Letztlich spiegeln Rechtsnormen nur den Handlungsbedarf des Gesetzgebers und den gesellschaftlichen Kontext wider. Es gibt noch andere Regeln, die den öffentlichen Diskurs beeinflussen, wie z. B. soziale Normen, d. h. Verhaltensnormen, die nicht standardisiert sind, aber zu einer Reaktion der anderen Mitglieder der Gesellschaft führen, weil sie sich auf eine gemeinsame Vorstellung von unerwünschter oder sogar schädlicher Rede einigen, auch wenn sie nicht gesetzlich verboten ist.
Daher manifestieren sie sich auch in privaten Rechtsbeziehungen, denn dort können soziale Normen konkretisiert werden, d.h. sie verlassen den Bereich des Impliziten. Private Parteien können zur Vereinheitlichung sozialer Normen beitragen, indem sie diese als verbindliche Regeln in Vertragsbeziehungen festlegen. Auf diese Weise können sie strengere Regeln als bestimmte Gesetze vereinbaren, z. B. Vertraulichkeitsklauseln in Arbeitsverträgen. Wenn solche privaten Regeln einer Partei zu streng sind, kann die andere Vertragspartei die sprachbeschränkende Klausel vor Gericht bringen und die Gerichte können sie für unverhältnismäßig oder aus anderen Gründen für nichtig erklären.
Zusammenfassend lässt sich sagen, dass die Kommunikation allen drei Arten von Beschränkungen unterliegen kann, aber wenn die Beschränkung gesetzlich verankert ist, gibt es einen demokratischen Konsens und eine Legitimation dafür. Wenn es sich um eine soziale Norm handelt, ist der gesellschaftliche Konsens wahrscheinlich fragwürdig, aber zumindest gibt es keine Sanktionen bei Verstößen. Wenn soziale Medienplattformen festlegen, was auf ihren Plattformen gesagt werden darf und was nicht, gibt es weder einen demokratischen Prozess noch einen gemeinsamen gesellschaftlichen Konsens (was in einem globalen Nutzernetzwerk wahrscheinlich unmöglich ist). Verstöße gegen die Gemeinschaftsstandards haben jedoch Auswirkungen auf die Nutzer*innen.
Die private Ordnung der Social Media-Plattform
Die Moderation von Inhalten basiert meist auf Gemeinschaftsstandards, d. h. auf privaten Regeln, die von Social Media-Plattformen aufgestellt und durchgesetzt werden (als private Ordnung bezeichnet). Die private Ordnung geht mit privaten Sanktionen einher: Unerwünschte Inhalte werden von der Plattform verbannt, indem sie entfernt oder für bestimmte Regionen blockiert werden. Bei “rückfälligen” Nutzer*innen können die Konten gesperrt, blockiert oder die Inhalte algorithmisch herabgestuft werden oder in den Schatten gestellt werden. Aber wo liegen die Grenzen dieser privaten Sanktionen? Die Moderation von Inhalten ist ein undurchsichtiger Prozess (Insights, 2020; Laub, 2019). Auch wenn die Transparenzbemühungen in den letzten zwei bis drei Jahren aufgrund des öffentlichen Drucks zugenommen haben, ist nur wenig darüber bekannt, wie und welche Inhalte entfernt werden.
Hassrede zum Beispiel ist in vielen Rechtsordnungen kein gesetzlicher Begriff, wird aber umfassend zur Entfernung von Inhalten verwendet (Kaye, 2018, S. 10). Die Verbindung zwischen sprachbeschränkenden Bestimmungen im Strafrecht (z. B. Verleumdung, Aufstachelung zur Gewalt) und dem breiten Anwendungsbereich von Kategorien wie Hassrede ist nicht zu erkennen. Und noch unschärfer wird es, wenn Inhalte als grenzwertig eingestuft werden, weil sie einer solchen undefinierten Kategorie nur nahe kommen. Dennoch halten Plattformen an der Praxis fest, Inhalte zu entfernen, wenn sie als grenzwertig eingestuft werden können, d. h. etwas näher an Kategorien unerwünschter Inhalte liegen (Zuckerberg, 2018; Alexander, 2019; Constine, 2018a, 2019b; Sands, 2019).
Warum nennt man es eine Vorhölle der freien Meinungsäusserung?
Borderline-Sprache befindet sich in der rechtlichen Schwebe, weil sie weder legal noch illegal ist, sie ist nicht einmal eindeutig unerwünscht (nach den Standards der Gemeinschaft) – sie ist einfach zu nah an unerwünschten Inhalten, um vollständig zulässig zu sein. Daher ist “grenzwertig” eine Kategorie, die von Social Media-Plattformen verwendet wird, um Inhalte zu entfernen, obwohl sie nicht offensichtlich gegen Gesetze oder Gemeinschaftsstandards verstoßen. YouTube zum Beispiel definiert sie als “Inhalte, die nahe daran sind, gegen unsere Community-Richtlinien zu verstoßen, aber die Grenze nicht ganz überschreiten”, und die Entfernung dieser Art von Beiträgen ist eine Priorität (YouTube, 2019). Diese Praxis ist aus vielen Gründen höchst bedenklich.
Er ist von Natur aus undefinierbar und erlaubt es nicht, potenziell hilfreiche Kategorien zur Klassifizierung dieser Art von Rede zu bilden. Die Äußerung von grenzwertigen Äußerungen selbst ist nicht rechtswidrig, aber die Tatsache, dass sie einer bestimmten Kategorie nahe kommen könnte, begünstigt ihre Entfernung. Diese Art von Ansatz könnte zu einer übermäßigen Entfernung von Inhalten führen, gefolgt von abschreckenden Effekten, wenn Nutzer*innen einfach nicht mehr absehen können, ob ihre Äußerungen als unangemessen behandelt werden. Aus Sicht der Nutzer*innen ist es bereits schwierig, die Gemeinschaftsstandards zu verstehen, wenn sie zu vage sind und zudem auf sozialen Normen aus einem anderen kulturellen und rechtlichen Kontext beruhen.
Zugegeben, die Herausforderung durch schädliche Inhalte ist ein ernstes Problem. Wir sehen, dass schädliche Inhalte eine echte Bedrohung für Gemeinschaften innerhalb und außerhalb von Social-Media-Plattformen und im weiteren Sinne auch für die Demokratie darstellen können (Sunstein, 2017). Diese schädlichen Auswirkungen können noch gravierender sein, wenn schädliche Inhalte algorithmisch verbreitet und verstärkt werden. Damit stehen wir vor dem klassischen Dilemma der Meinungsfreiheit: Wie offen kann die Kommunikation sein, wenn sie auf Kosten anderer geht? Wenn der Einfluss schädlicher Online-Inhalte in irgendeiner Weise mit realen Gefahren wie dem Völkermord in Myanmar (Mozur, 2018), der Ausbreitung der Covid-19-Pandemie (Meade, 2020) oder anderen Ereignissen wie rassistischen oder antisemitischen Tragödien (Newton, 2020) zusammenhängt, müssen wir diese Tatsache bei der Abwägung zwischen der Meinungsfreiheit und anderen Grundrechten berücksichtigen.
Das Verbot von Nacktheit als Beispiel für einen Grenzwertigen Inhalt
Es ist sinnvoller, bei einigen Kategorien übervorsichtig zu sein als bei anderen. Zum Beispiel verbieten die meisten Plattformen Nacktheit, vor allem Facebook und die verwandte Plattform Instagram. Jede Art von Nacktheit zu verbieten, ohne die Art des Bildes und den Kontext zu berücksichtigen, ist für viele Nutzer*innen, die sich ausdrücken wollen, eine unverhältnismäßige Einschränkung. Um mehr darüber zu erfahren, wie diese Politik in der Praxis umgesetzt wird, habe ich eine kleine Reihe von halbstrukturierten Interviews mit Instagram-Nutzer*innen geführt, die alle von der Entfernung von Inhalten durch die Plattform betroffen waren. Obwohl es sich nicht um eine repräsentative Studie handelt, können ihre Ansichten hier Aufschluss geben.
Alle Bilder, die von Instagram entfernt wurden, zeigten einen weiblichen Körper und die meisten von ihnen zeigten entweder nackte Haut oder Brüste. Auf vier Bildern konnten die Betrachter eine Brustwarze sehen. Die Befragten bestätigten später die abschreckende Wirkung der Entfernung von Inhalten: Sie waren vorsichtiger, nachdem ihre Inhalte von Instagram entfernt worden waren, z. B. verwischten sie potenziell “problematische” Körperteile in Bildern, bearbeiteten Bilder immer so, dass man die Brustwarzen nicht sehen konnte, und posteten weniger Nacktbilder. Außerdem fühlten sie sich von der Plattform ungerecht behandelt. Einer sagte: “Die Bilder zeigen nicht nur Nacktheit, sie haben einen künstlerischen Ansatz, meist sehen sie gar nicht so aus, als würden sie Nacktheit zeigen”.
Und das alles, ohne gegen ein Gesetz zu verstoßen.
Am Schnittpunkt von Recht und Kommunikation
Die Durchsetzung der Regeln für die öffentliche Kommunikation in der digitalen Sphäre wirft viele Fragen auf, wenn es darum geht, die Regeln für die zulässige Rede festzulegen. Einige beziehen sich auf die Art der Gegenmaßnahmen gegen schädliche Inhalte. Auf der Ebene der einzelnen Nutzer*innen besteht der europäische Ansatz darin, das Recht auf freie Meinungsäußerung mit anderen Grundrechten abzuwägen. Bei grenzwertigen Inhalten könnte dies bedeuten, dass die Plattformen ihre Sanktionen gegen grenzwertige Äußerungen abmildern.
Kann die Plattform bei privaten Sanktionen gegen den Nutzer oder die Nutzerin vorgehen oder muss sie die Durchsetzung auf den bloßen Inhalt beschränken? Wie bereits erwähnt, sind die gekennzeichneten Inhalte weder rechtswidrig noch verstoßen sie offensichtlich gegen die Gemeinschaftsstandards. Plattformen sollten daher bei Inhalten, die nicht rechtswidrig sind, die Standards für ein ordnungsgemäßes Verfahren einhalten und obligatorische Erklärungen abgeben, wenn sie grenzwertige Inhalte entfernen oder algorithmisch herabstufen.
Dieser Artikel wurde erstmals in der Internet Policy Review am 15. Oktober 2020 veröffentlicht.
Im Original-Blogpost findest du die vollständige Liste der Referenzen.
Amélie Heldt ist juristische Nachwuchswissenschaftlerin und Doktorandin am Leibniz-Institut für Medienforschung.
About #uncensoredme
We’d like to invite our community to share cases of biased & unfair censorship on social media. The existing guidelines are intransparent and oftentimes discriminate against certain groups of people. The vague and random enforcement of these rules pushes many contents into spaces that are anything but safe.
By participating in this campaign, you become part of a movement towards a destigmatized way of dealing with nudity & sexuality.
Use #uncensoredme to participate or to learn more about the campaign.