Hass im digitalen Raum – und wie das Projekt deras_on dagegenarbeitet
von Sofia Hernández, Tila de Almeida Mendonça und Daniel Speer
Der Beitrag beleuchtet, wie das Modellprojekt deras_on antisemitischen und verschwörungsideologischen Kommentaren auf Social Media pädagogisch begegnet – direkt dort, wo Radikalisierung sichtbar wird: in den Kommentarspalten. Anhand konkreter Beispiele zeigt er, wie digitale Interventionen gestaltet und wissenschaftlich ausgewertet werden.
Das Internet dient als alltägliches Werkzeug für den Austausch und die Verbreitung von Informationen, Kommunikation, politische Meinungsbildung und soziale Interaktion. Für junge Menschen ist der Umgang mit digitalen Medien längst selbstverständlich geworden. Die Grenzen zwischen Online- und Offline-Welt verschwimmen zunehmend und die partizipative digitale Kultur prägt das Verhalten stetig (Keilhauer & Würfel, 2009). Laut dem Statistischen Bundesamt (2020) sind 89 % der 16- bis 24-Jährigen in Deutschland regelmäßig online aktiv. 91 % der Kinder und Jugendlichen in Deutschland verwenden Instant-Messenger wie WhatsApp oder Threema, gefolgt von Plattformen wie YouTube und TikTok (Statista, 2024b). Diese Zahlen zeigen: Die digitale Welt ist nicht nur ein Kommunikationsraum, sondern ein prägender Teil ihrer sozialen Realität. Doch was bedeutet das für gesellschaftlichen Zusammenhalt, politische Teilhabe und den Umgang mit Hass, Rechtsextremismus, Antisemitismus und einer ansteigenden Polarisierung in den Kommentarspalten[1]? Wie funktioniert Interaktion und pädagogische Arbeit in diesem Setting?
Die Langzeitstudie Judenhass im Netz zeigt eindeutig, dass Antisemitismus im digitalen Raum drastisch zugenommen hat. Der Zehn-Jahres-Vergleich lässt erkennen, dass sich antisemitische Inhalte nahezu vervierfacht haben: Während 2007 in Kommentarbereichen lediglich 7,1 % der Beiträge als antisemitisch eingestuft wurden, stieg der Anteil 2017 auf 30,2 %. Auch die Radikalität antisemitischer Aussagen hat messbar zugenommen. Die Studie dokumentiert eine Zunahme von Vernichtungswünschen, vulgären Ausdrücken und NS-Vokabular. Die bekannten Motive des Antisemitismus treten auch online auf und die Gründe sowie Anlässe, die zur Reproduktion antisemitischer Inhalte im Netz genutzt werden, sind vielfältig. Darüber hinaus wird deutlich, dass Nutzer*innen im Netz bereits mit wenigen Klicks auf antisemitische Inhalte stoßen können, ohne diese aktiv zu suchen (Schwarz-Friesel, 2019). Die Ideologie manifestiert sich online vor allem in Form von Verschwörungserzählungen, Shoah-Leugnung oder -Relativierung. Altbekannte antisemitische Narrative und Codes werden dabei häufig in Bildsprache verarbeitet, mit Filtern und Musik kombiniert und muten dadurch mitunter modern an. Einige gehen sogar viral. Daneben tauchen Inhalte auf, die historische Ereignisse verzerrt wiedergeben. Ebenso finden sich plattformgerechte Adaptionen, etwa KI-animierte Videos, in denen vor einer vermeintlichen neuen Weltordnung durch finstere “Eliten“ gewarnt wird, oder auf den ersten Blick informativ wirkende Inhalte, die Verschwörungsnarrative wie die “Protokolle der Weisen von Zion“ oder die Erzählung um die Rothschild-Familie verbreiten.
Im digitalen Raum kann jede*r über Plattformen wie X, Facebook, YouTube, Instagram oder TikTok Inhalte und Meinungen öffentlich teilen. Das stärkt die Debattenkultur und demokratische Teilhabe, birgt aber auch Risiken: Hass, Beleidigungen und menschenverachtende Aussagen verbreiten sich schnell. Besonders sichtbar ist dies in Kommentarspalten. Diese digitalen Räume sind mittlerweile zu einem zentralen Schauplatz für Beleidigungen, Abwertungen und digitale Gewalt geworden. Die Studie Hate Speech Forsa 2022 (Statista, 2022) zeigt: 36 Prozent der befragten Personen in Deutschland haben bereits (sehr) häufig Hassrede im Internet wahrgenommen. Während früher Leser*innen noch Leserbriefe an Zeitungen verfassen mussten, um sich an öffentlichen Debatten zu beteiligen, reicht heute ein Klick. Kommentare ermöglichen eine unmittelbare Interaktion zwischen Content Creator*innen und ihrem Publikum sowie zwischen den Nutzer*innen. Sie bieten einen niedrigschwelligen Zugang zur Beteiligung am öffentlichen Diskurs und schaffen digitale Räume der Zugehörigkeit. Wer kommentiert, bringt nicht nur eigene Gedanken und Gefühle ein, sondern trägt zugleich zur Sichtbarkeit bestimmter Themen bei. So können sich neue Impulse, Perspektiven und sogar innovative Formate entwickeln, sowohl auf Seiten der Produzierenden als auch der Rezipientinnen. Doch die Kommentarkultur birgt auch Risiken. Insbesondere Hasskommentare gewinnen zunehmend an Relevanz und können zu einer toxischen Kommunikationsdynamik führen. Menschen, die sich konstruktiv äußern wollen, erleben digitale Angriffe, was nicht selten zu sogenanntem Silencing führt, dem bewussten Rückzug aus Debatten aufgrund von Bedrohung oder Abwertung (Kompetenznetzwerk gegen Hass im Netz, 2024). Diese Entwicklung gefährdet die Vielfalt an Meinungen und schränkt das demokratische Potenzial digitaler Räume erheblich ein. Zudem werden Kommentarspalten gezielt genutzt, um die Funktionsweise sozialer Plattformen zu beeinflussen. Algorithmen bewerten häufig kommentierte Beiträge als besonders relevant, unabhängig von deren Inhalt. Diese Logik kann dazu führen, dass polarisierende und hasserfüllte Aussagen überproportional sichtbar werden und damit die öffentliche Debatte verzerren (HateAid, 2024). Genau hier setzt das Modellprojekt deras_on – Deradikalisierung Antisemitismus Online an.
deras_on: Digitale Intervention im Brennpunkt der Kommentarzeilen
Als Verbundprojekt vereint deras_on die Expertise pädagogischer Praxis und wissenschaftlicher Forschung. Verbundpartner von Drudel 11 e.V. ist das interdisziplinäre Zentrum für Antisemitismusforschung (ZfA) an der Technischen Universität Berlin. Es ist eines der wenigen Projekte in Deutschland, das sich explizit mit antisemitischer und rechtsextremer Online-Kommunikation direkt in den Kommentarspalten beschäftigt und dort hineinwirkt. Gemeinsam verfolgen die Beteiligten ein zentrales Ziel: Pädagogische Ansprache dort zu leisten, wo Radikalisierung beginnt. Mitten im digitalen Alltag, in den Kommentarspalten. Im Raum hinter dem Content.
Viele Projekte beobachten rechtsextreme und antisemitische Inhalte, wie Postings auf Social Media. Dabei wird jedoch oft übersehen, dass sich die eigentliche Radikalisierungsdynamik nicht nur durch den Content selbst, sondern auch in den Kommentarspalten entfalten kann. Ein zunächst unauffälliges oder harmloses Video kann schnell extremistisch konnotiert werden, sobald man einen Blick in die Kommentare wirft. Hier treffen junge Nutzer*innen auf antisemitische Narrative, Verschwörungsideologien und abwertende Rhetoriken. Diese sind oft eingebettet in harmlose Fragen oder Aussagen und sind teils über einschlägige Emojis und Codes zu erkennen. Genau diese subtilen Einstiegspunkte nimmt deras_on in den Fokus.
Ein eigener Ansatz: deras_on
In einer digitalen Öffentlichkeit, in der sich Antisemitismus und Verschwörungsideologien oft ungefiltert verbreiten, braucht es neue, kontextsensible Strategien, um wirksam gegenzusteuern. Das Projekt arbeitet iterativ und phasenbasiert. In einem ersten Schritt werden antisemitische, verschwörungsideologische oder rechtsextreme Aussagen in Kommentarspalten auf Social-Media-Plattformen wie TikTok oder Instagram identifiziert. Anschließend entwickeln die pädagogischen Fachkräfte gezielte Antwortstrategien, die in der Praxis erprobt und anschließend wissenschaftlich aufgearbeitet werden.
Statt nur allgemeine Aufklärungsarbeit zu leisten oder Inhalte zu melden, greifen die Pädagog*innen von deras_on gezielt in laufende Online-Diskussionen ein. Sie identifizieren antisemitische, verschwörungsideologische oder menschenfeindliche Kommentare in sozialen Netzwerken und treten direkt mit den Verfasser*innen in den Austausch. Dieser dialogische Zugang ist niedrigschwellig, orientiert sich an der Zielgruppe und wahrt dabei dennoch eine klare menschenrechtsbasierte Haltung. Die Interventionen bestehen aus Kommentaren, Fragen oder gezielten Impulsen. Sie setzen nicht auf reine Konfrontation, sondern wollen durch einen dialogischen Ansatz Denkprozesse anregen.
Die Interventionen erfolgen rollenbasiert, mit verschiedenen kommunikativen Stilen, etwa sachlich-fragend, empathisch-zweifelnd oder ironisch-provokant. Diese vielfältigen Anspracheformen werden situativ eingesetzt, um auf die Dynamik des jeweiligen Kommentarthreads einzugehen und möglichst niedrigschwellige, deeskalierende und dialogorientierte Kommunikationsräume zu eröffnen. Ein häufiges Problem im digitalen Raum ist das abrupte Abbrechen von Interaktionen durch Blockieren, Löschen oder Rückzug. Ziel ist es daher, Wege zu finden, wie Diskussionen online nicht vorschnell enden. Deras_on setzt auf einen offenen Austausch, der zum Gespräch einlädt, ohne rein belehrend zu sein. Gleichzeitig ist es notwendig, wachsam zu bleiben und regelmäßig zu überprüfen, wo und wie die Arbeit stattfindet, da Kommentare im Internet sonst leicht wirkungslos verhallen können. Ziel ist nicht die unmittelbare Überzeugung, oft geht es vielmehr darum, Zweifel zu säen, kognitive Dissonanz auszulösen, Denkprozesse zu initiieren und Anschlusskommunikation zu ermöglichen. Dieser Zugang ist dringend notwendig angesichts der emotionalisierten, visuell geprägten und oft flüchtigen Diskursräume, in denen das Projekt arbeitet. Deras_on verlässt dafür die klassischen Pfade standardisierter Gegenrede. Statt auf eindeutige Widersprüche zu setzen, wird mit verschiedenen Formen der Intervention experimentiert. Dazu gehören etwa offene Fragen, die zum Nachdenken anregen sollen, das Verschieben oder Brechen von Narrativen, oder auch ironische Referenzen, die den Kommunikationsstil der Plattform aufgreifen. Nach jeder Phase folgt eine systematische Auswertung. Die Reaktionen auf die Interaktionen werden dokumentiert, reflektiert und gemeinsam im Projektteam analysiert. Daraus ergeben sich gezielte Anpassungen für die nächste Phase, sodass das Projekt stetig weiterlernt und seine Ansätze weiterentwickelt, mit dem Ziel, wirksame pädagogische und kommunikative Strategien im digitalen Raum zu identifizieren und zu verstetigen.
Vorläufige Ergebnisse
Im Rahmen des Projekts wurden bislang 378 Interaktionen erfasst. Davon konnte in 167 Fällen eine Reaktion (44,2 %) dokumentiert werden. Auch wenn derzeit noch offen ist, wie viele dieser Antworten langfristig als zielführend gelten, zeigen die bisherigen Ergebnisse deutlich, dass die Ansprache bei den Nutzer*innen Resonanz erzeugte.
Bereits im April 2025 hatte das Team 144 Fälle kodiert. Davon wurden 95 entsprechend der Kategorisierung durch die Meldestelle als antisemitisch klassifiziert. Das sind 65,97 % der vorgenommenen Ansprachen. Besonders aufschlussreich war, dass sich die Dynamiken je nach Plattform deutlich unterscheiden: Auf TikTok zeigte die Strategie des ironisch-ablenkenden Vorgehens die größte Wirkung, während auf Instagram die Rolle der empathisch-zweifelnden Person erfolgreicher war. Solche Unterschiede bieten wertvolle Hinweise, wie Strategien plattformspezifisch angepasst werden können.
Auch die zeitliche Dimension der Interaktionen liefert spannende Erkenntnisse: Die Differenz zwischen Ausgangskommentar und Intervention lag im Durchschnitt bei 5 Tagen auf Instagram und 16 Tagen auf TikTok. In einzelnen Fällen reichte die Spanne sogar bis zu 80 Tage (Instagram) bzw. 108 Tage (TikTok). Dies deutet darauf hin, dass Interventionen auch nach längerer Zeit noch Wirkung zeigen können. Zwischen der ersten Intervention und der letzten Antwort vergingen durchschnittlich 2,4 Tage auf Instagram und 1,7 Tage auf TikTok. Damit wird deutlich, dass Gesprächsdynamiken häufig sehr schnell und unmittelbar ablaufen.
Die bisherigen Analysen liefern Hinweise darauf, wie und wo antisemitische Inhalte im Netz ansprechbar sind und welche Dynamiken auf den Plattformen dominieren. Bis Dezember 2025 werden weitere Auswertungen folgen und mit ihnen neue Erkenntnisse darüber, wie digitale Räume nicht nur Orte der Radikalisierung, sondern auch Räume der Intervention und des Widerspruchs sein können.
Literatur:
HateAid. (2024, 17. Juli). Die Macht der Kommentare. https://hateaid.org/die-macht-der-kommentare/
Keilhauer, J., & Würfel, M. (2009). Jugendliche und Konvergenz 2.0: Zur Bedeutung des Social Web bei der Aneignung von Inhalten der konvergenten Medienwelt. merz | medien + erziehung, 53(6). https://www.merz-zeitschrift.de/article/view/303
Kompetenznetzwerk gegen Hass im Netz. Das NETTZ, Gesellschaft für Medienpädagogik und Kommunikationskultur, HateAid und Neue deutsche Medienmacher*innen als Teil des Kompetenznetzwerks gegen Hass im Netz (Hrsg.) (2024): Lauter Hass – leiser Rückzug. Wie Hass im Netz den demokratischen Diskurs bedroht. Ergebnisse einer repräsentativen Befragung. Berlin.
Schwarz-Friesel, Monika. 2019. “Antisemitismus im Web 2.0: Judenhass zwischen Kontinuität und digitaler Adaptation.” In Neuer Antisemitismus? Fortsetzung einer globalen Debatte, edited by Christian Heilbronn, Doron Rabinovici, and Natan Sznaider. Zweite, erweiterte und überarbeitete Auflage, 170–83. Edition Suhrkamp 2740. Frankfurt am Main, Berlin: Suhrkamp. S. 170, 177.Statista. (2022, März). Umfrage in Deutschland zur Wahrnehmung von Hate Speech im Internet nach Alter. https://de.statista.com/statistik/daten/studie/1365862/umfrage/umfrage-in-deutschland-zur-wahrnehmung-von-hate-speech-im-internet-nach-alter/
Statista. (2024b). Nutzung von Internetdiensten durch Kinder und Jugendliche in Deutschland. https://de.statista.com/statistik/daten/studie/1499998/umfrage/nutzung-von-internetdiensten-durch-kinder-und-jugendliche-in-deutschland/
Statistisches Bundesamt. (2020). Durchschnittliche Nutzung des Internets durch Personen nach Altersgruppen. https://www.destatis.de/DE/Themen/Gesellschaft-Umwelt/Einkommen-Konsum-Lebensbedingungen/IT-Nutzung/Tabellen/durchschnittl-nutzung-alter-ikt.html
Fußnoten:
[1] Diese Polarisierung wird dabei nicht zuletzt durch die algorithmische Logik sozialer Plattformen verstärkt, die emotionale und kontroverse Inhalte häufig sichtbarer machen als sachliche Beiträge.
Schlagwörter
- Antisemitismus, Digitaler Rechtsextremismus
Veröffentlichungsdatum
Sofia Hernández
Sofía Hernández ist stellvertretende Projektleiterin des Projektes und vor allem für die pädagogische Betreuung und die Erprobung von Möglichkeiten der Zielgruppenansprache in verschiedenen Social-Media-Kanälen zuständig. Sie hat 2022 ihren Bachelor in Soziologie an der Universität Leipzig abgeschlossen und 2025 ihren Master in Sozial- und Organisationspädagogik an der Universität Hildesheim.
Tila de Almeida Mendonça
Tila de Almeida Mendonça ist Projektmitarbeiterin im Projekt und ist dort vor allem für die wissenschaftliche Auswertung im Teilvorhaben von Drudel 11 e.V. verantwortlich. Sie studierte Geschichte, Soziologie und Politikwissenschaft an der Universidade Federal de Goiás (Brasilien), an der Katholischen Universität Eichstätt-Ingolstadt und an der Friedrich-Schiller-Universität Jena, wo sie derzeit im Fach Osteuropäische Geschichte promoviert.
Daniel Speer
Daniel Speer ist der Projektleiter des Projektes „deras_on – Deradikalisierung Antisemitismus Online“ des Jenaer Jugendhilfevereins Drudel 11. Er arbeitet seit 2009 in der Gewalt- und Extremismusprävention. Er hat Diplom-Sozialpädagogik (FH) studiert.
Newsletter
Sie möchten über Angebote und Veranstaltungen des Wissensnetzwerks Rechtsextremismusforschung informiert bleiben? Melden Sie sich hier für unseren Newsletter an: