Desinformation (and) War (German)
Demokratien befinden sich im Kontext moderner hybrider Kriegsführung in einer strukturellen Zwickmühle: Sie stehen zwischen dem Schutz der offenen Gesellschaft und der Notwendigkeit, sich gegen gezielte Manipulation und Angriffe zu verteidigen. Demokratische Staaten beruhen auf Transparenz, Meinungsfreiheit und freiem Informationszugang. Diese Prinzipien machen sie jedoch verwundbar gegenüber Akteur*innen, die gezielt Falschinformationen verbreiten oder öffentliche Debatten manipulieren. Würden Demokratien beginnen, Inhalte systematisch zu zensieren oder Kommunikationskanäle zu kontrollieren, käme das einer Aushöhlung ihrer Grundwerte gleich – was letztlich den autoritären Zielen entspräche. Demokratien setzen auf mündige Bürger*innen, welche sich durch freien Zugang zu Informationen eine eigene Meinung bilden. Wird jedoch das Informationsökosystem durch Fake News, Bots und Deepfakes verzerrt, entstehen Zweifel an der Wahrheit – und damit auch Misstrauen gegenüber Institutionen und Medien. Ein übermäßiger Eingriff des Staates in Informationsflüsse würde wiederum das Vertrauen in seine Neutralität untergraben.
Reichen die Förderung von Medienkompetenz und Cybersecurity als ›Lösungsansätze‹ noch aus ?
Die Verstärkung der Cybersecurity und der Ausbau von Medienkompetenz sind zweifellos zentrale Elemente im Abwehrarsenal demokratischer Staaten gegen hybride Bedrohungen. Doch sie allein greifen zu kurz – insbesondere angesichts der tiefgreifenden emotionalen Dynamiken, die in Zeiten globaler Kriegsgeschehnisse wirken. Bilder des russischen Angriffskriegs auf die Ukraine oder des Gaza-Kriegs lösen starke emotionale Reaktionen aus. Bilder und Videos von entsetzlichem Leid, Terror, Zerstörung, verletzten Kindern, trauernden Angehörigen oder symbolischen Akten von Widerstand haben eine unmittelbare affektive und vor allem unterschätzte Wirkung. In digitalen Netzwerken verstärken sich diese Effekte durch algorithmische rabitholes: Inhalte, die emotional berühren, schockieren oder gar traumatisieren, werden öfter geteilt, kommentiert und geliked – unabhängig davon, ob sie wahr oder falsch sind. Je drastischer, desto viraler. Beispielhaft hierfür sind die Anschläge des 11. Septembers 2001. 24 Jahre später häufen sich mehr und mehr graphische Aufnahmen des Terrors – unzensiert und ungefiltert in den sozialen Medien; teils konfrontativ, ungewollt und plötzlich. Rezipient*innen werden nun nicht nur mit der Idee des Horrors von Krieg und Terror konfrontiert, sondern mit realen Aufnahmen der Geschehnisse.
Grenzen von Cybersecurity und Medienkompetenz
- Technischer Fokus auf Sicherheitsaspekte: Cybersecurity konzentriert sich primär auf technische Fragen wie Schutz vor Hackerangriffen, Datensicherheit, Netzwerkschutz. Was sie nicht leisten kann, ist der Schutz des öffentlichen Diskurses vor psychologischer Einflussnahme. Angriffe auf die gesellschaftliche Kohärenz, etwa durch Polarisierung oder systematische Desinformation, zielen nicht auf technische Infrastrukturen, sondern auf das kollektive Denken, Fühlen und Verhalten.
- Medienkompetenz ist kognitiv, nicht emotional: Programme zur Förderung von Medienkompetenz setzen auf rationale Urteilsbildung wie Quellenbewertung, Faktenprüfung, kritisches Denken. Doch Desinformation wirkt nicht primär über den Verstand, sondern über das Gefühl. Emotionen wie Angst, Wut, Empörung oder moralische Empathie sind mächtige Treiber von Meinung und Handlung – gerade in Kriegszeiten, in denen Rezipient*innen nach einfachen Erklärungen und klarer Schuld suchen.
Unterschätzte Bilder
Diskussionen über den Einsatz des Taurus Marschflugkörpers in der Ukraine oder die Präsenz nuklearer Bedrohung und einer generellen, geographischen Expansion von Krieg schüren existenzielle, reale Ängste. Die Intensivierung von Waffenexporten, Sanktionen und Sicherheitsmaßnahmen sind somit auch als emotionale Trigger zu begreifen, die reelle Folgen in der Nutzung, Evaluierung und Partizipation in digitalen Räumen zur Folge haben.
Eine rein technische oder kognitive Abwehrstrategie ist hier wenig wirksam. Die wahre Schlacht in der digitalen Kriegsführung wird nicht allein auf Servern oder in Klassenzimmern geführt, sondern im emotionalen Erfahrungsraum der Menschen. Wer die Herzen und Köpfe der Bevölkerung erreichen will, muss beides zugleich verstehen: die Logik der Sicherheitsarchitektur und die Psychologie kollektiver Affekte. Nur in dieser Verbindung entsteht eine starke demokratische Resilienz.
Falschwissen – Coping Mechanismus und emotionale Hängematte?
- Reduktion von Komplexität: Kriege und globale Konflikte sind hochkomplexe Phänomene, mit vielfältigen historischen, politischen und sozialen Ursachen. Viele Menschen fühlen sich intellektuell und emotional überfordert. Vereinfachende Erzählungen, etwa in Form von Verschwörungstheorien oder klaren Täter-Opfer-Schemata, bieten scheinbare Transparenz und Orientierung.
- Sinnstiftung und Kohärenz: Falschwissen kann helfen, ein kohärentes Weltbild aufrechtzuerhalten. In bedrohlichen Situationen entsteht ein innerer Drang, das Geschehen sinnvoll einzuordnen. Selbst verzerrte oder falsche Erklärungen geben dem Erlebten Struktur und können das Gefühl von Kontrollverlust reduzieren.
- Emotionale Entlastung: Falschwissen kann dazu dienen, unangenehme Emotionen wie Angst, Schuld oder Ambivalenz zu mildern. Beispielsweise kann das Leugnen oder Relativieren von Kriegsverbrechen die psychische Belastung verringern, die mit der Anerkennung brutaler Realitäten verbunden ist.
Text und Collage von Antonia Biehl
Dieser Beitrag entstand im Rahmen des Forschungsmoduls »Postdigitale Interventionen«, durchgeführt von Brigitte Weingart und Anja Dreschke im Sommersemester 2025 an der Universität der Künste Berlin. Er ist eine Reflexion der Diskussionsrunde »Desinformation (and) War«, die während der Jahrestagung des SFB Intervenierende Künste mit dem Titel »Digital Interventions« am 10. Mai 2025 im HAU Hebbel am Ufer stattfand.
Gallery with 3 images: »Diskussionsrunde »Desinformation (and) War« während der Jahrestagung »Digital Interventions« des SFB Intervenierende Künste am 10. Mai 2025 im HAU Hebbel am Ufer«
Es diskutieren (von links nach rechts): Pekka Kallioniemi, Veronika Solopova, Florian Schlittgen und Iryna Kovalenko (beide Moderation), Johanna Hiebl und Roman Horbyk. © Marvin Systermans
1/31/3 Es diskutieren (von links nach rechts): Pekka Kallioniemi, Veronika Solopova, Florian Schlittgen und Iryna Kovalenko (beide Moderation), Johanna Hiebl und Roman Horbyk.
© Marvin Systermans
Es diskutieren (von links nach rechts): Pekka Kallioniemi, Veronika Solopova, Florian Schlittgen und Iryna Kovalenko (beide Moderation), Johanna Hiebl und Roman Horbyk. © Marvin Systermans
2/32/3 Es diskutieren (von links nach rechts): Pekka Kallioniemi, Veronika Solopova, Florian Schlittgen und Iryna Kovalenko (beide Moderation), Johanna Hiebl und Roman Horbyk.
© Marvin Systermans
Es diskutieren (von links nach rechts): Pekka Kallioniemi, Veronika Solopova, Florian Schlittgen und Iryna Kovalenko (beide Moderation), Johanna Hiebl und Roman Horbyk. © Marvin Systermans
3/33/3 Es diskutieren (von links nach rechts): Pekka Kallioniemi, Veronika Solopova, Florian Schlittgen und Iryna Kovalenko (beide Moderation), Johanna Hiebl und Roman Horbyk.
© Marvin SystermansDie vollständige Diskussionsrunde in englischer Sprache mit (von links nach rechts) Pekka Kallioniemi, Veronika Solopova, Florian Schlittgen und Iryna Kovalenko (beide Moderation), Johanna Hiebl und Roman Horbyk gibt es hier zum Nachhören.
You can listen to the full discussion in English with (from left to right) Pekka Kallioniemi, Veronika Solopova, Florian Schlittgen and Iryna Kovalenko (both moderation), Johanna Hiebl and Roman Horbyk here.
Literatur:
Brady, William J.; Wills, Julian A.; Jost, John T.; Tucker, Joshua A.; Van Bavel, Jay J.: Emotion Shapes the Diffusion of Moralized Content in Social Networks, in: Proceedings of the National Academy of Sciences - PNAS, 2017-07, Vol. 114 (28), 7313–7318.
Johann, Tobias: Der Krieg in der Ukraine – (k)ein Thema für Demokratieförderung?, in: Demokratie gegen Menschenfeindlichkeit, 2023-11, Vol. 8 (2), 156–165.
Rid, Thomas: Active Measures – The Secret History of Disinformation and Political Warfare, 2020.