Startseite - Zurück - Drucken

NachDenkSeiten – Die kritische Website
Titel: Der Krieg um die Wahrnehmung: Wie künstliche Intelligenz beginnt, öffentliche Realität zu formen
Datum: 14. Mai 2026 um 10:00 Uhr
Rubrik: Außen- und Sicherheitspolitik, Kampagnen/Tarnworte/Neusprech, Strategien der Meinungsmache
Verantwortlich: Redaktion
Der moderne Krieg beginnt nicht erst mit Raketen, Panzern oder Soldatenbewegungen. Natürlich wurden auch frühere Kriege von Propaganda, psychologischer Einflussnahme und medialer Mobilisierung begleitet. Staaten versuchten schon immer, öffentliche Meinung zu formen, Feindbilder aufzubauen und Zustimmung für politische oder militärische Entscheidungen zu erzeugen. Doch mit sozialen Plattformen, digitalen Datenräumen und künstlicher Intelligenz verändern sich Reichweite, Geschwindigkeit und Präzision dieser Einflussnahme in einem Ausmaß, das frühere Formen psychologischer Kriegsführung deutlich übertrifft. Von Günther Burbach.
Heute beginnt der Kampf um Deutungshoheit wesentlich früher, in Nachrichtenfeeds, Kommentarspalten, Videoplattformen und sozialen Netzwerken. Dort entscheidet sich zunehmend, was Menschen für wahr halten, wem sie vertrauen, wovor sie Angst haben und welche politischen Maßnahmen sie akzeptieren. Genau an dieser Front verändert künstliche Intelligenz derzeit die Spielregeln mit einer Geschwindigkeit, die viele gesellschaftliche Debatten längst überholt hat.
Noch vor wenigen Jahren bestand digitale Einflussnahme vor allem aus klassischen Bots, gefälschten Profilen oder koordinierten Kampagnen. Inzwischen entsteht jedoch eine neue Qualität. Moderne KI-Systeme können Texte, Bilder, Stimmen und Videos in riesigen Mengen erzeugen, anpassen und emotional optimieren. Sie analysieren Reaktionen in Echtzeit, erkennen Stimmungen und passen Inhalte dynamisch an Zielgruppen an. Damit entsteht eine Form algorithmischer Einflussnahme, die nicht mehr nur Informationen verbreitet, sondern Wahrnehmung aktiv modelliert.
Soziale Netzwerke als digitale Schlachtfelder
Besonders deutlich wurde diese Entwicklung zuletzt im Umfeld internationaler Konflikte. Ob Ukrainekrieg, Nahost oder geopolitische Spannungen zwischen den Großmächten, soziale Netzwerke verwandeln sich zunehmend in digitale Schlachtfelder. Videos werden millionenfach verbreitet, Bilder emotional aufgeladen, Narrative innerhalb weniger Stunden global verstärkt. Oft ist kaum noch nachvollziehbar, woher Inhalte ursprünglich stammen oder ob sie authentisch sind. Genau hier beginnt das eigentliche Problem.
Denn künstliche Intelligenz macht Desinformation nicht nur schneller, sondern glaubwürdiger. Stimmen können täuschend echt imitiert werden, Gesichter perfekt synthetisch erzeugt, Szenen vollständig künstlich generiert werden. Was früher aufwendig war, lässt sich heute innerhalb weniger Minuten produzieren. Gleichzeitig verschwimmen die Grenzen zwischen echter Berichterstattung, Propaganda, Aktivismus und algorithmisch erzeugter Stimmungsmache noch stärker als in der klassischen Medienlandschaft vergangener Jahrzehnte.
Hinzu kommt ein Faktor, der politisch bislang erstaunlich wenig diskutiert wird: KI-Systeme lernen, welche Inhalte besonders starke emotionale Reaktionen auslösen. Angst, Wut, Empörung und moralische Zuspitzung erzeugen Aufmerksamkeit, und Aufmerksamkeit ist die eigentliche Währung digitaler Plattformen. Dadurch entsteht ein Mechanismus, der gesellschaftliche Spannungen systematisch verstärken kann.
Die eigentliche Gefahr liegt dabei weniger in einzelnen Falschmeldungen als in der dauerhaften Veränderung öffentlicher Wahrnehmung. Wenn Menschen permanent mit emotionalisierten, algorithmisch optimierten Inhalten konfrontiert werden, verändert sich schrittweise die Art, wie politische Realität wahrgenommen wird. Komplexe Zusammenhänge werden auf Schlagworte reduziert, Gegner moralisch entwertet, Unsicherheit in Feindbilder übersetzt.
Neue Formen der Propaganda
Damit entsteht eine Entwicklung, die weit über klassische Propaganda hinausgeht. Früher versuchten Staaten oder Medien, bestimmte Narrative zu verbreiten. Heute übernehmen zunehmend automatisierte Systeme die Verstärkung, Anpassung und Verteilung dieser Narrative. Nicht mehr einzelne Redaktionen oder politische Akteure steuern die Dynamik allein, sondern Plattformalgorithmen und KI-Modelle, deren Funktionsweise für die Öffentlichkeit kaum nachvollziehbar ist.
Besonders problematisch wird diese Entwicklung in Krisenzeiten. Denn Kriege, geopolitische Spannungen oder wirtschaftliche Unsicherheiten erzeugen hohe emotionale Anfälligkeit. Genau in solchen Situationen wirken algorithmisch verstärkte Inhalte besonders stark. Die Grenze zwischen Information und psychologischer Einflussnahme beginnt noch stärker zu verschwimmen, als es ohnehin schon immer der Fall war.
Dabei geht es längst nicht nur um ausländische Akteure oder klassische Geheimdienstoperationen. Auch westliche Staaten investieren zunehmend in digitale Einflussstrukturen, strategische Kommunikation und KI-gestützte Informationssysteme. Gleichzeitig entwickeln private Konzerne immer leistungsfähigere Werkzeuge zur Analyse und Steuerung öffentlicher Aufmerksamkeit. Die Kombination aus staatlichen Interessen, privater Plattformlogik und künstlicher Intelligenz schafft damit ein System, dessen gesellschaftliche Folgen bislang kaum abschätzbar sind.
Besonders brisant ist dabei die Rolle der sozialen Plattformen selbst. Ihre Algorithmen sind nicht darauf ausgelegt, Wahrheit zu fördern, sondern Aufmerksamkeit zu maximieren. Inhalte, die starke Emotionen auslösen, werden bevorzugt verbreitet. Das führt dazu, dass extreme Positionen, moralische Empörung und zugespitzte Narrative oft größere Reichweiten erzielen als differenzierte Analysen. KI verschärft diese Dynamik zusätzlich, weil sie in der Lage ist, solche Inhalte automatisiert und massenhaft zu erzeugen.
Damit verändert sich nicht nur die Geschwindigkeit öffentlicher Debatten, sondern auch ihre Struktur. Gesellschaftliche Diskussionen werden fragmentierter, emotionaler und manipulationsanfälliger. Menschen bewegen sich zunehmend in digitalen Informationsräumen, die algorithmisch auf ihre Ängste, Überzeugungen und Vorlieben zugeschnitten sind. Was der eine als offensichtliche Wahrheit empfindet, hält der andere bereits für gezielte Propaganda. Eine gemeinsame Realität beginnt zu zerfallen.
Überforderung durch Informationsmassen
Hinzu kommt ein weiterer Effekt: die permanente Überforderung durch Informationsmassen. Täglich strömen unzählige Videos, Kommentare, Analysen und Eilmeldungen auf die Menschen ein. KI-Systeme verstärken diese Flut zusätzlich. Dadurch entsteht ein Zustand dauerhafter Reizüberlastung, in dem viele irgendwann nicht mehr unterscheiden können, was relevant, glaubwürdig oder manipulativ ist. Genau diese Erschöpfung wird selbst zu einem politischen Faktor.
Denn wer nicht mehr weiß, wem er glauben soll, zieht sich entweder zurück oder klammert sich umso stärker an einfache Erklärungen und eindeutige Feindbilder. Beides destabilisiert demokratische Gesellschaften. Der öffentliche Raum verwandelt sich zunehmend in ein emotional aufgeladenes Dauergefecht, in dem nüchterne Debatten immer schwerer durchdringen.
Besonders deutlich zeigt sich das bereits bei jüngeren Generationen. Für viele Menschen unter 30 sind soziale Plattformen längst wichtiger als klassische Medien. Informationen werden nicht mehr primär über Zeitungen oder Nachrichtensendungen aufgenommen, sondern über kurze Clips, emotionalisierte Bilder und algorithmisch kuratierte Feeds. Die Grenze zwischen Unterhaltung, Aktivismus, Propaganda und Nachricht verschwimmt dabei noch stärker als in der klassischen Medienlandschaft.
Gerade deshalb entwickelt sich künstliche Intelligenz zu einem geopolitischen Machtinstrument. Staaten erkennen zunehmend, dass moderne Konflikte noch stärker als frühere Kriege auch jenseits der eigentlichen Schlachtfelder entschieden werden. Wer Wahrnehmung beeinflussen kann, beeinflusst auch politische Zustimmung, gesellschaftliche Stabilität und letztlich die Handlungsfähigkeit ganzer Staaten.
Das gilt insbesondere in Krisenzeiten. Wirtschaftliche Unsicherheit, Kriegsängste, Migration, soziale Spannungen oder Energiekrisen erzeugen emotionale Verwundbarkeit. KI-gestützte Informationssysteme können genau diese Schwächen analysieren und gezielt bespielen. Narrative werden nicht mehr einfach verbreitet, sie werden optimiert. Die Systeme lernen, welche Bilder Angst erzeugen, welche Formulierungen Wut verstärken und welche Botschaften gesellschaftliche Gruppen gegeneinander aufbringen.
Die eigentliche Macht dieser Technologie liegt deshalb nicht allein in einzelnen Fälschungen oder manipulierten Videos. Sie liegt in der Fähigkeit, öffentliche Stimmung permanent zu beeinflussen, Debattenräume zu verschieben und Wahrnehmung langfristig zu formen. Genau darin unterscheidet sich die neue digitale Einflussnahme von klassischer Propaganda vergangener Jahrzehnte.
Technologische Entwicklung ist schneller als politische Kontrolle
Hinzu kommt, dass die technologische Entwicklung schneller voranschreitet als politische Kontrolle. Während immer leistungsfähigere KI-Systeme entstehen, wirken Regulierung und gesellschaftliche Debatten oft erstaunlich langsam. Viele politische Entscheidungen fallen erst dann, wenn sich Technologien bereits tief in den Alltag integriert haben. Gleichzeitig verfügen große Plattformkonzerne über Datenmengen und technische Möglichkeiten, die selbst staatliche Institutionen teilweise übertreffen.
Dadurch entsteht ein Machtgefüge, das zunehmend schwer durchschaubar wird. Staaten, Konzerne, Plattformen, KI-Modelle und globale Datenströme greifen ineinander. Für die Öffentlichkeit wird immer unklarer, wo Einflussnahme beginnt, wer welche Interessen verfolgt und wie stark Wahrnehmung bereits algorithmisch gesteuert wird.
Noch nie standen so viele Informationen zur Verfügung wie heute, und gleichzeitig war vermutlich die Unsicherheit darüber, was eigentlich noch real ist, selten größer. Genau darin liegt die eigentliche Sprengkraft dieser Entwicklung.
Der Krieg der Zukunft könnte deshalb nicht zuerst um Territorien geführt werden, sondern um Wahrnehmung, in einem erheblich massiveren und technologisch präziseren Umfang als jemals zuvor. Nicht die Kontrolle einzelner Regionen wäre dann entscheidend, sondern die Fähigkeit, Realität für Millionen Menschen interpretierbar zu machen. Und genau dieser Kampf hat längst begonnen.
Titelbild: Accogliente Design / shutterstock.com
Quellen:
NATO StratCom COE – „Social Media Manipulation for Sale: 2025 Experiment on Platform Capabilities to Detect and Counter Inauthentic Social Media Engagement“
Reale Untersuchung der NATO-Strategieeinheit zu gekaufter Social-Media-Manipulation, Bots und künstlicher Reichweitenverstärkung.
https://stratcomcoe.org/publications/social-media-manipulation-for-sale-2025-experiment-on-platform-capabilities-to-detect-and-counter-inauthentic-social-media-engagement/338
Arxiv – „How cyborg propaganda reshapes collective action“ (2026)
Wissenschaftliche Arbeit über hybride Mensch-KI-Propaganda („Cyborg Propaganda“) und algorithmisch gesteuerte Meinungsbildung.
https://arxiv.org/abs/2602.13088
NATO StratCom COE – „Virtual Manipulation Brief 2025“
Analyse moderner Informationsoperationen, KI-Manipulation und digitaler Einflussnahme.
https://stratcomcoe.org/publications/generative-ai-and-its-implications-for-social-media-analysis/286
Nature Scientific Reports – Auswirkungen generativer KI auf soziale Medien und öffentliche Diskussionen
https://www.nature.com/articles/s41598-026-40110-8
Wired – Recherche über politische Einflusskampagnen rund um KI, China und Tech-Konzerne
https://www.wired.com/story/super-pac-backed-by-openai-and-palantir-is-paying-tiktok-influencers-to-fear-monger-about-china
Hauptadresse: http://www.nachdenkseiten.de/
Artikel-Adresse: http://www.nachdenkseiten.de/?p=150393