Wenn Alice Weidel schreibt, informiert sie nicht – sie infiziert. Ihre jüngste Behauptung, „alles, was du künftig über einen Messenger an Freunde oder deinen Partner sendest, will die EU mitlesen“, ist kein Missverständnis. Es ist eine gezielte Falschinformation, entworfen mit Absicht. In einem einzigen Satz gelingt es der AfD-Fraktionsvorsitzenden, eine Kinderschutzinitiative in eine Geschichte von Überwachung und Unterdrückung zu verwandeln. Es ging dabei nie um Wahrheit. Es ging um Kontrolle. Das europäische Vorhaben, auf das sie sich bezieht – umgangssprachlich „Chat Control“ genannt –, erlaubt der EU keineswegs, private Nachrichten mitzulesen. Ziel ist, bekannten Missbrauchsdatenverkehr im Internet zu erkennen und zu löschen – mit verschlüsselten Erkennungssystemen, die digitale Fingerabdrücke bereits existierender Missbrauchsbilder abgleichen. Es richtet sich gegen Täter, nicht gegen Eltern oder Partner. Weidel weiß das. Und doch erzählt sie das Gegenteil – eine Geschichte, in der Ermittler zu Spionen werden, Brüssel zum Feind und der Staat zum Gegner des Volkes. Es ist das älteste Muster der Demagogie: die Wirklichkeit so lange umkehren, bis Schutz wie Verfolgung aussieht. Ihre Botschaft ist einfach – und zerstörerisch. Indem sie Regulierung als Tyrannei umdeutet, verwandelt sie legitime Institutionen in angebliche Unterdrücker. Die EU wird zum Monster, die Presse zum Komplizen, und sie selbst – die Überbringerin der Lüge – zur vermeintlichen Verteidigerin der Freiheit. Es ist ein Skript, erprobt in rechtspopulistischen Bewegungen von Europa bis Amerika: digitale Ängste ausnutzen, komplexe Politik auf archaische Furcht reduzieren, und Missverständnisse zur Waffe machen. Doch was diese gezielte Verzerrung besonders gefährlich macht, ist ihr menschlicher Preis. Weidels Rhetorik untergräbt jene Systeme, die Ermittlern helfen, Netzwerke sexuellen Missbrauchs aufzudecken. Jede Lüge, die Vertrauen in diese Strukturen zerstört, schützt indirekt Täter. Aus Überwachung zu machen, wo keine ist, ist nicht nur unehrlich – es ist verantwortungslos.

Die deutsche Justiz beginnt, die Grenzen zwischen Meinung und Hetze schärfer zu ziehen. Das Landgericht München I urteilte am 12. April 2023 (Az. 5 KLs 123 Js 8674/21), dass pauschale Angriffe auf „die Regierung“ oder „die Presse“ als Volksverhetzung gewertet werden können, wenn sie gezielt Feindbilder schaffen und Bürger gegeneinander aufbringen. Weidels Sprache folgt genau diesem Muster und konstruiert ein moralisches Schlachtfeld, wo es in Wahrheit nur Verwaltung und Recht gibt – sie ersetzt demokratische Spannung durch absichtliche Feindseligkeit. Eine rechtliche Überprüfung ergab, der Tatbestand ist erfüllt. Ihre Worte sind also keine Debatte mehr. Sie sind Destabilisierung, Straftaten. Jeder Beitrag verwandelt Vertrauen in Misstrauen, Realität in Paranoia. Es ist kein Austausch von Ideen – es ist die schleichende Korrosion des öffentlichen Raums. Weidel hat – vielleicht besser als ihre Gegner – verstanden, dass Desinformation sich mächtig anfühlt. Sie gibt Menschen das Gefühl, etwas zu erkennen, was andere nicht sehen. Sie verwandelt Verwirrung in Identität. Und sie macht aus Isolation Zugehörigkeit. In der Kommunikationswelt der extremen Rechten sind Lügen keine Zufälle – sie sind Architektur. Ihre Beschwörung des „gläsernen Bürgers“ – der Vorstellung einer Bevölkerung unter permanenter Überwachung – wirkt, weil sie ein tieferes Unbehagen bedient: die Angst, im System der Macht unsichtbar zu werden. Doch diese Angst ist fehlgeleitet. Die Einzigen, die sich wirklich verstecken, sind jene, die Kinder im digitalen Schatten ausbeuten. Gegen sie richtet sich das Gesetz.
Wie „Chat Control“ funktioniert – kurz & korrekt
Ablauf in 5 Schritten
Ziel ist der Schutz von Minderjährigen vor digitaler Ausbeutung. Private Chats werden nicht „mitgelesen“.
-
1
Bekannte MusterPlattformen nutzen Hash-Datenbanken mit digitalen Fingerabdrücken bereits bekannter CSAM-Inhalte. CSAM = Child Sexual Abuse Material
-
2
Client- oder Serverseitiger AbgleichDateien werden automatisiert gegen diese Hashes geprüft – ohne Inhalt „zu lesen“. Kein Volltext-Mitlesen
-
3
Treffer → FlagBei Übereinstimmung wird ein Flag erzeugt. Verdachtsmeldungen laufen an geschulte Trust-&-Safety-Teams. Minimierung von False Positives
-
4
Meldung an Stelle XNach Prüfung geht ein Bericht an die zuständige Meldestelle bzw. Ermittlungsbehörden. Rechtlicher Rahmen (EU)
-
5
MaßnahmenInhalte werden entfernt, Accounts gesperrt, Ermittlungen gestartet, Opfer identifiziert. Opferschutz zuerst