Die republikanische Mehrheit im Justizausschuss des US-Repräsentantenhauses hat soeben einen umfangreichen Bericht veröffentlicht.Zwischenbericht des Personals(3. Februar) präsentierte der Bericht dokumentarische Beweise für weitreichende digitale Zensur durch Online-Plattformen unter Aufsicht der Europäischen Kommission. Der Bericht trägt den Titel „Die Bedrohung durch ausländische Zensur, Teil II: Europas jahrzehntelanger Kampf gegen die Zensur des globalen Internets…“Dies ist eine ernüchternde Lektüre und bestätigt die schlimmsten Befürchtungen der Kritiker des Digital Services Act (DSA). Es ist wichtig zu betonen, dass das durch den DSA ermöglichte Zensurregime nicht nur für Europäer, sondern auch für … Anlass zur Sorge geben sollte. Nicht-EuropäerDa die Einführung regionsspezifischer Moderationsregime mit technischen Herausforderungen und wirtschaftlichen Kosten verbunden ist, besteht ihre praktische Wirkung darin, die Meinungsfreiheit weltweit und nicht nur in Europa einzuschränken.
Die DSA ebnete den Weg für willkürliche Zensur.
In dieses BlogIch warnte bereits am 5. September 2023, kurz nachdem das Gesetz über digitale Dienste (Digital Services Act, DSA) auf „sehr große Online-Plattformen“ (VLOPs) angewendet worden war, dass „die Folge des Gesetzes darin bestünde, einen nahezu unwiderstehlichen Druck auf Social-Media-Plattformen auszuüben, im Kampf gegen Desinformation so vorzugehen, dass es den Prüfern der Kommission genügt und sie somit hohe Geldstrafen vermeiden.“ Und genau das ist laut diesem Bericht eingetreten.
Wir müssen den Zwischenbericht des Justizausschusses des Repräsentantenhauses nicht lesen, um zu verstehen, dass die Formulierung des Gesetz über digitale Dienste Das Gesetz räumt der Europäischen Kommission weitreichende Ermessensbefugnisse bei der Überwachung der Inhaltsmoderationsrichtlinien von Plattformen ein. Denn es verpflichtet Online-Plattformen zu strengen Sorgfaltspflichten, um vage definierte „systemische Risiken“ zu „mindern“, darunter Risiken im Zusammenhang mit „Desinformation“ sowie Auswirkungen auf den „öffentlichen Diskurs“ und Wahlprozesse.
Das Gesetz selbst lässt erheblichen Interpretationsspielraum hinsichtlich der Bewertung „systemischer Risiken“ durch die Europäische Kommission und ihre Prüfer, beispielsweise im Hinblick auf Desinformation, Bedrohungen des öffentlichen Diskurses und Hassrede, sowie der Beurteilung der Angemessenheit der Risikominderungsmaßnahmen von Dienstanbietern. Diese Unklarheit räumt den Vollzugsbehörden einen weiten Ermessensspielraum bei der Auslegung des Gesetzes ein. Die Kommission verfügt gemäß dem DSA über Untersuchungs- und Durchsetzungsbefugnisse, darunter die Möglichkeit, bei Nichteinhaltung Bußgelder von bis zu 6 % des weltweiten Jahresumsatzes einer Plattform zu verhängen.
Der 160-seitige Bericht belegt überzeugend, dass der Digital Services Act den Höhepunkt einer jahrzehntelangen Kampagne darstellt, die der Europäischen Kommission immer mehr Macht über die Inhaltsmoderationsrichtlinien von Online-Plattformen verleihen soll. Die zahlreichen Wendungen dieser Kampagne, zu der auch frühere, von EU-Institutionen koordinierte „freiwillige“ Verhaltenskodizes gehören, werden im Bericht detailliert beschrieben. berichten.
Ich schlage vor, mich hier ausschließlich auf die im Bericht dargestellten negativen Folgen des Digital Services Act zu konzentrieren, nämlich die Zensurmaßnahmen, die im Rahmen seiner Aufsichtsmechanismen durchgeführt wurden. Der Bericht fokussiert sich überwiegend auf die Interaktionen zwischen der EU-Kommission und TikTok, und sofern die beigefügten Dokumente als authentisch gelten, gewährt er einen beunruhigenden Einblick in ein tief verwurzeltes Zensurregime, das für den Durchschnittsbürger völlig undurchsichtig ist. Dies ist nur die Spitze des Eisbergs. Es ist unmöglich vorherzusagen, was noch alles ans Licht kommen könnte, wenn ein Ermittler Zugang zu ähnlichen Beweisen auf anderen Plattformen wie Meta, YouTube und LinkedIn erhielte.
Wie die DSA-Aufsicht in der Praxis funktioniert
Die im Bericht beschriebenen Kontrollmechanismen der EU-Beamten hinsichtlich der Moderationsrichtlinien von Plattformen weisen ein gemeinsames Muster auf: Die Europäische Kommission selbst oder die gemäß dem Digital Services Act (DSA) benannten nationalen Regulierungsbehörden (in den einzelnen Mitgliedstaaten als „Koordinatoren für digitale Dienste“ bezeichnet) erkundigen sich schriftlich oder persönlich bei den Plattformen nach ihren Maßnahmen zur Risikominderung in Bezug auf ein bestimmtes Thema (z. B. Impfstoffe, Desinformation im Wahlkampf, Hassrede oder den Krieg in der Ukraine) und fordern Dokumentationen über die ergriffenen oder geplanten Schritte an. Die Plattformen reichen daraufhin Berichte ein, in denen sie ihre Bemühungen zur Einhaltung der Vorschriften und ihre Pläne zur Verbesserung ihrer Risikominderungsstrategien darlegen. Anschließend kann die Kommission Feedback geben oder zusätzliche Maßnahmen fordern. Der Bericht des Justizausschusses des Repräsentantenhauses legt plausiblen Anlass zu der Annahme, dass viele dieser Kontakte Druck auf die Plattformen ausüben, ihre Moderationsbemühungen auszuweiten, um potenziellen Sanktionen zu entgehen.
Wahlrichtlinien 2024
Doch in diesem Bericht geht es nicht nur um eine allgemeine Ausweitung des Moderationsumfangs, sondern auch um einseitige Einflussnahme auf die politische und ideologische Ausrichtung der Moderationsregeln. Schließlich führt die Kommission eine Art „Scorecard“ für die Moderationspolitik der großen Technologiekonzerne und stützt sich dabei unter anderem auf ihre eigene Riege von „…“.vertrauenswürdige FlaggerDiese Organisationen rekrutieren sich häufig aus linken NGOs und sind selbst weder ideologisch noch politisch neutral. Daher überrascht es nicht, dass das Ergebnis eines solchen Prozesses die Einschränkung von Inhalten ist, die die progressiv-linke/technokratische Politik und die ideologischen Verpflichtungen der EU-Kommission scharf kritisieren.
Ein typisches Beispiel ist das Wahlrichtlinien Die Europäische Kommission veröffentlichte im April 2024, kurz vor den Europawahlen, eine Erklärung, in der sie Plattformen dringend aufforderte, ihre Risikominderungsmaßnahmen zu aktualisieren, die Verbreitung von Desinformation (einschließlich geschlechtsspezifischer Desinformation) einzudämmen, mit Faktencheckern zusammenzuarbeiten und Maßnahmen zur Stärkung der Widerstandsfähigkeit gegen Desinformationsnarrative zu entwickeln. Die Kommission lud Apple, Google, LinkedIn, Meta, Microsoft, Pinterest, Snapchat, Wikimedia, X und YouTube zu einem Runden Tisch zur Wahlvorbereitung ein und erinnerte sie daran, dass sie die Einhaltung der Wahlverpflichtungen gemäß dem Digital Social Act (DSA) aktiv überwacht und gegebenenfalls Durchsetzungsmaßnahmen im Zusammenhang mit den Wahlen ergreifen wird.
Die Wahlrichtlinien Sie waren weder Teil des Digital Services Act (DSA) noch rechtsverbindlich. Vielmehr wurden sie öffentlich als Leitlinien und Empfehlungen und nicht als rechtlich bindende Verpflichtungen dargestellt. Der Zwischenbericht des Justizausschusses des Repräsentantenhauses behauptet jedoch, dass Prabhat Agarwal, ein im Bericht genannter hochrangiger Beamter, der mit der Durchsetzung des DSA befasst ist, die Leitlinien „hinter verschlossenen Türen“ bei einem Meta-Rundtischgespräch zu den DSA-Wahlrichtlinien am 1. März 2024 als „Mindestanforderung“ für die Einhaltung des DSA bezeichnete. Er erklärte, Plattformen müssten bei Abweichungen von den Leitlinien „gleichwertige oder bessere alternative Maßnahmen“ ergreifen. So seltsam diese Aussage auch klingen mag, sie steht im Einklang mit dem DSA-Konzept einer „Sorgfaltspflicht“ großer digitaler Plattformen, angemessene Maßnahmen zur Risikominderung zu ergreifen. Wenn die Durchsetzungsbehörde einer vagen Verpflichtung einen narrensicheren Weg zu deren Erfüllung anbietet – selbst wenn dieser als „Leitlinie“ präsentiert wird –, wird die „Leitlinie“ zu einem attraktiven Mittel, um Sanktionen zu vermeiden.
Nachweis der Plattformkonformität: Der Fall TikTok
Haben die Plattformen die Leitlinien der Kommission für die Wahlen 2024 eingehalten? Aus internen Plattformkommunikationen und dem Austausch zwischen Plattformen und EU-Beamten, die im Bericht wiedergegeben oder zusammengefasst wurden, geht hervor, dass zumindest … einige Die Plattformen passten daraufhin ihre Richtlinien an. Insbesondere heißt es im Bericht des Ausschusses, dass TikTok die Europäische Kommission darüber informiert habe, dass es im Vorfeld der EU-Wahlen 2024 über 45,000 Inhalte, die als „Falschinformationen“ eingestuft wurden, entfernt oder eingeschränkt habe. Darunter befanden sich auch politische Äußerungen zu Themen wie Migration, Klimawandel, Sicherheit und Verteidigung sowie LGBTQ-Rechte.
Eine im Bericht zitierte Zusammenfassung der aktualisierten TikTok-Community-Richtlinien vom 20. März 2024 erwähnt „Aktualisierungen“ der TikTok-Community-Richtlinien, die „hauptsächlich mit der Einhaltung des Digital Services Act zusammenhängen“. Diese beinhalten Richtlinien gegen „marginalisierende Äußerungen und Verhaltensweisen“, „Fehlinformationen, die das Vertrauen in die Integrität des demokratischen Prozesses untergraben“ und „die falsche Darstellung von maßgeblichen Informationen, wie z. B. wissenschaftlichen Daten“. Laut TikTok selbst bestand der Hauptgrund für diese Änderungen in der Einhaltung des DSA. Es handelt sich nicht um Richtlinienänderungen, die auf unabhängigen Kriterien beruhen.
Wenn man die neuen TikTok-Richtlinien, die 2024 zur Sicherstellung der DSA-Konformität eingeführt wurden, genauer betrachtet, wird schnell klar, dass sie im Grunde alles bedeuten können, was man sich wünscht. wollen Was bedeutet das? Beispielsweise ist der politische Diskurs naturgemäß konfliktgeladen, sodass fast jede feindselige Bemerkung als „Marginalisierung von Rede und Verhalten“ wahrgenommen werden könnte. Ebenso verhält es sich, wenn jemand in gutem Glauben die „Integrität des demokratischen Prozesses“ kritisiert: Untergräbt er damit das Vertrauen in diesen? Und was ist mit der „Fehlinterpretation“ von „autoritativen Informationen“? Die Wissenschaft kann nur funktionieren, wenn sogenannte „autoritative“ wissenschaftliche Aussagen nicht künstlich vor scharfer Kritik geschützt werden.
Subtiler, aber realer Regulierungsdruck
Es ist wahr, dass die spezifische Konturen des Zensurregimes von TikTok waren nicht direkt auferlegt von der Europäischen Kommission. Die Kommission ordnet im Allgemeinen nicht die Entfernung einzelner Beiträge an. Die Maßnahmen wurden jedoch eindeutig unter dem Druck der DSA-Regulierungsbestimmungen und ihrer Durchsetzungsbehörden formuliert. TikTok musste bei der Entwicklung von Maßnahmen zur „Risikominderung“ im Hinblick auf die Einhaltung der DSA-Bestimmungen die Ansichten der Regulierungsbehörden zu vage definierten Risiken wie „Hassrede“, „Desinformation“ und Schädigung des „öffentlichen Diskurses“ gewissermaßen antizipieren.
Man könnte sich nun fragen: Wenn diese Risikokategorien so vage definiert sind, wie kann TikTok dann seine Richtlinien so anpassen, dass sie den EU-Regulierungsbehörden genügen? Die Antwort ist einfach. Wenn es um Hunderte Millionen Dollar geht (Sanktionen von bis zu 6 % des weltweiten Jahresumsatzes einer Plattform), macht es sich ein kluges und gut finanziertes Unternehmen zur Aufgabe, „zwischen den Zeilen zu lesen“ und die politischen und ideologischen Neigungen der EU-Regulierungsbehörden zu analysieren. Sie könnten fundierte Vermutungen darüber anstellen, welche Art von Zensur der Kommission zusagt.
Die Kommission hat sich beispielsweise stets auf die Seite der Impfstoffindustrie und offizieller Gesundheitsorganisationen wie der WHO gestellt. Sie vertritt eine weitgehend links-progressive Position in Fragen der Gleichstellung der Geschlechter, der Hassrede und des Umweltschutzes. Ebenso offensichtlich ist ihr Interesse an der Unterdrückung prorussischer Kriegspropaganda. Selbst wenn die DSA keine vollständige Liste der von der Zensur betroffenen Argumente enthält, machen die bisherigen Gesetzesinitiativen und Stellungnahmen der Kommission deutlich, welche Aspekte sie als „systemische Risiken“ betrachtet. Diese Einschätzungen werden zweifellos in den regelmäßigen öffentlichen und privaten Treffen mit EU-Beamten, zu denen Plattformverantwortliche vorgeladen werden, weiter verfeinert.
Meldung „problematischer“ slowakischer TikTok-Konten
Sollte der Bericht des Repräsentantenhauses zutreffen, scheinen EU-Beamte nicht davor zurückzuschrecken, direkt einzugreifen und Plattformen aufzufordern, bestimmte Konten oder Kontengruppen, die als „problematisch“ gelten, zu überprüfen. Laut Bericht übermittelte die Kommission TikTok im September 2023, vier Tage vor der slowakischen Parlamentswahl, eine Tabelle mit Listen „problematischer slowakischer TikTok-Konten“ zur Überprüfung. Die Tabelle soll mindestens 63 Konten mit Followerzahlen zwischen 1,000 und 120,000 enthalten haben. Dem Bericht des Justizausschusses des Repräsentantenhauses zufolge…
Im Nachwahlbericht von TikTok wurde vermerkt, dass 19 dieser Konten direkt auf Anfrage der Kommission gesperrt wurden – fünf davon wegen „Verbreitung von Hass“. Sechzehn von der Europäischen Kommission beanstandete Konten wiesen „keine oder nur sehr wenige Verstöße“ auf, darunter auch „satirische Konten mit politischem Schwerpunkt“. Weitere Konten wurden auf die Beobachtungsliste von TikTok gesetzt.
Pattsituation zwischen EU-Kommission und X
Ein Social-Media-Riese hat sich den Regulierungsambitionen der EU-Kommission eklatant widersetzt. Im Mai 2023 trat X aus dem „freiwilligen“ Verhaltenskodex gegen Desinformation aus, der dem DSA vorausging, und setzt offenbar nicht die von der Kommission im Rahmen des DSA geforderten Moderationsmaßnahmen um. Daher steht X nun im Visier der Kommission. Sie verhängte eine empfindliche Geldbuße von 120 Millionen Euro wegen Nichteinhaltung des Gesetzes – allerdings kurioserweise aufgrund von scheinbar eher seltenen Verstößen wie der Missachtung des alten Blauen-Haken-Systems von Twitter oder der Speicherung von Informationen von öffentlichem Interesse im falschen Format. Dies ist die erste Geldbuße, die im Rahmen des DSA verhängt wurde.
Der Bericht scheint die schädlichen Auswirkungen der DSA auf die freie Meinungsäußerung zu bestätigen.
Ich habe diesen Bericht erst oberflächlich betrachtet. Doch hoffentlich ist das Muster bereits deutlich genug: Sollte der Bericht zutreffen – und sollten die darin zitierten Kommunikationen ordnungsgemäß verifiziert worden sein –, dann deutet dies darauf hin, dass die DSA einer privilegierten Gruppe von Beamten die Befugnis einräumt, mithilfe komplexer Kontrollmechanismen, deren Logik für den Durchschnittsbürger undurchschaubar ist, zu entscheiden, welche Informationen und Argumente für die Öffentlichkeit geeignet sind und welche niemals die Ohren der Bürger erreichen dürfen.
Wir brauchten diesen Bericht eigentlich nicht, um zu erkennen, dass die „progressiven“ politischen Eliten der Europäischen Union ganz offen eine komplexe und vielschichtige Zensurmaschinerie errichten. Das geht bereits deutlich genug aus dem Text des Berichts hervor. Gesetz über digitale Dienste Bislang war unser Wissen über dieses System jedoch recht juristisch geprägt und basierte eher auf den logischen Konsequenzen des Wortlauts des DSA und den von ihm geschaffenen Kontrollmechanismen als auf konkreten Beweisen für seine Anwendung.
Dieser Bericht liefert möglicherweise brisante Dokumente, die belegen, wie EU-Beamte offenbar mithilfe des DSA Druck auf große Technologiekonzerne ausgeübt haben, um die politische Meinungsfreiheit der Europäer massiv einzuschränken – andernfalls drohten ihnen erhebliche Wirtschaftssanktionen. Aufgrund der technischen und finanziellen Herausforderungen einer Fragmentierung der Plattformregeln wurden diese Einschränkungen in der Praxis zudem häufig auch außerhalb Europas angewendet.
Nachdem diese Anschuldigungen und die dazugehörigen Beweise nun öffentlich sind, ist die EU-Kommission uns allen gegenüber verpflichtet, sich zu erklären. Bislang hat der Sprecher der EU für digitale Angelegenheiten, Thomas Reigner, lediglich gesagt: „Zu den jüngsten Zensurvorwürfen: Reiner Unsinn. Völlig unbegründet.“ Will Reigner etwa andeuten, dass ein Justizausschuss des US-Repräsentantenhauses E-Mails und Gesprächsprotokolle zwischen EU-Beamten und Managern digitaler Plattformen frei erfunden hat?
Ich erwarte mit großem Interesse eine ernsthaftere Antwort der Europäischen Kommission.
Wiederveröffentlicht von der Autorin Substack
-
David Thunder ist Forscher und Dozent am Institut für Kultur und Gesellschaft der Universität Navarra in Pamplona, Spanien, und Empfänger des renommierten Ramón y Cajal-Forschungsstipendiums (2017–2021, verlängert bis 2023), das von der spanischen Regierung zur Unterstützung vergeben wird herausragende Forschungsaktivitäten. Vor seiner Berufung an die University of Navarra hatte er verschiedene Forschungs- und Lehrpositionen in den Vereinigten Staaten inne, unter anderem als Gastdozent an der Bucknell and Villanova University und als Postdoctoral Research Fellow im James Madison Program der Princeton University. Dr. Thunder erwarb seinen BA und MA in Philosophie am University College Dublin und seinen Ph.D. in Politikwissenschaft an der University of Notre Dame.
Alle Beiträge