{"id":150393,"date":"2026-05-14T10:00:41","date_gmt":"2026-05-14T08:00:41","guid":{"rendered":"https:\/\/www.nachdenkseiten.de\/?p=150393"},"modified":"2026-05-14T16:47:06","modified_gmt":"2026-05-14T14:47:06","slug":"der-krieg-um-die-wahrnehmung-wie-kuenstliche-intelligenz-beginnt-oeffentliche-realitaet-zu-formen","status":"publish","type":"post","link":"https:\/\/www.nachdenkseiten.de\/?p=150393","title":{"rendered":"Der Krieg um die Wahrnehmung: Wie k\u00fcnstliche Intelligenz beginnt, \u00f6ffentliche Realit\u00e4t zu formen"},"content":{"rendered":"<p>Der moderne Krieg beginnt nicht erst mit Raketen, Panzern oder Soldatenbewegungen. Nat&uuml;rlich wurden auch fr&uuml;here Kriege von Propaganda, psychologischer Einflussnahme und medialer Mobilisierung begleitet. Staaten versuchten schon immer, &ouml;ffentliche Meinung zu formen, Feindbilder aufzubauen und Zustimmung f&uuml;r politische oder milit&auml;rische Entscheidungen zu erzeugen. Doch mit sozialen Plattformen, digitalen Datenr&auml;umen und k&uuml;nstlicher Intelligenz ver&auml;ndern sich Reichweite, Geschwindigkeit und Pr&auml;zision dieser Einflussnahme in einem Ausma&szlig;, das fr&uuml;here Formen psychologischer Kriegsf&uuml;hrung deutlich &uuml;bertrifft. Von <strong>G&uuml;nther Burbach<\/strong>.<br>\n<!--more--><br>\nHeute beginnt der Kampf um Deutungshoheit wesentlich fr&uuml;her, in Nachrichtenfeeds, Kommentarspalten, Videoplattformen und sozialen Netzwerken. Dort entscheidet sich zunehmend, was Menschen f&uuml;r wahr halten, wem sie vertrauen, wovor sie Angst haben und welche politischen Ma&szlig;nahmen sie akzeptieren. Genau an dieser Front ver&auml;ndert k&uuml;nstliche Intelligenz derzeit die Spielregeln mit einer Geschwindigkeit, die viele gesellschaftliche Debatten l&auml;ngst &uuml;berholt hat.<\/p><p>Noch vor wenigen Jahren bestand digitale Einflussnahme vor allem aus klassischen Bots, gef&auml;lschten Profilen oder koordinierten Kampagnen. Inzwischen entsteht jedoch eine neue Qualit&auml;t. Moderne KI-Systeme k&ouml;nnen Texte, Bilder, Stimmen und Videos in riesigen Mengen erzeugen, anpassen und emotional optimieren. Sie analysieren Reaktionen in Echtzeit, erkennen Stimmungen und passen Inhalte dynamisch an Zielgruppen an. Damit entsteht eine Form algorithmischer Einflussnahme, die nicht mehr nur Informationen verbreitet, sondern Wahrnehmung aktiv modelliert.<\/p><p><strong>Soziale Netzwerke als digitale Schlachtfelder<\/strong><\/p><p>Besonders deutlich wurde diese Entwicklung zuletzt im Umfeld internationaler Konflikte. Ob Ukrainekrieg, Nahost oder geopolitische Spannungen zwischen den Gro&szlig;m&auml;chten, soziale Netzwerke verwandeln sich zunehmend in digitale Schlachtfelder. Videos werden millionenfach verbreitet, Bilder emotional aufgeladen, Narrative innerhalb weniger Stunden global verst&auml;rkt. Oft ist kaum noch nachvollziehbar, woher Inhalte urspr&uuml;nglich stammen oder ob sie authentisch sind. Genau hier beginnt das eigentliche Problem.<\/p><p>Denn k&uuml;nstliche Intelligenz macht Desinformation nicht nur schneller, sondern glaubw&uuml;rdiger. Stimmen k&ouml;nnen t&auml;uschend echt imitiert werden, Gesichter perfekt synthetisch erzeugt, Szenen vollst&auml;ndig k&uuml;nstlich generiert werden. Was fr&uuml;her aufwendig war, l&auml;sst sich heute innerhalb weniger Minuten produzieren. Gleichzeitig verschwimmen die Grenzen zwischen echter Berichterstattung, Propaganda, Aktivismus und algorithmisch erzeugter Stimmungsmache noch st&auml;rker als in der klassischen Medienlandschaft vergangener Jahrzehnte.<\/p><p>Hinzu kommt ein Faktor, der politisch bislang erstaunlich wenig diskutiert wird: KI-Systeme lernen, welche Inhalte besonders starke emotionale Reaktionen ausl&ouml;sen. Angst, Wut, Emp&ouml;rung und moralische Zuspitzung erzeugen Aufmerksamkeit, und Aufmerksamkeit ist die eigentliche W&auml;hrung digitaler Plattformen. Dadurch entsteht ein Mechanismus, der gesellschaftliche Spannungen systematisch verst&auml;rken kann.<\/p><p>Die eigentliche Gefahr liegt dabei weniger in einzelnen Falschmeldungen als in der dauerhaften Ver&auml;nderung &ouml;ffentlicher Wahrnehmung. Wenn Menschen permanent mit emotionalisierten, algorithmisch optimierten Inhalten konfrontiert werden, ver&auml;ndert sich schrittweise die Art, wie politische Realit&auml;t wahrgenommen wird. Komplexe Zusammenh&auml;nge werden auf Schlagworte reduziert, Gegner moralisch entwertet, Unsicherheit in Feindbilder &uuml;bersetzt.<\/p><p><strong>Neue Formen der Propaganda<\/strong><\/p><p>Damit entsteht eine Entwicklung, die weit &uuml;ber klassische Propaganda hinausgeht. Fr&uuml;her versuchten Staaten oder Medien, bestimmte Narrative zu verbreiten. Heute &uuml;bernehmen zunehmend automatisierte Systeme die Verst&auml;rkung, Anpassung und Verteilung dieser Narrative. Nicht mehr einzelne Redaktionen oder politische Akteure steuern die Dynamik allein, sondern Plattformalgorithmen und KI-Modelle, deren Funktionsweise f&uuml;r die &Ouml;ffentlichkeit kaum nachvollziehbar ist.<\/p><p>Besonders problematisch wird diese Entwicklung in Krisenzeiten. Denn Kriege, geopolitische Spannungen oder wirtschaftliche Unsicherheiten erzeugen hohe emotionale Anf&auml;lligkeit. Genau in solchen Situationen wirken algorithmisch verst&auml;rkte Inhalte besonders stark. Die Grenze zwischen Information und psychologischer Einflussnahme beginnt noch st&auml;rker zu verschwimmen, als es ohnehin schon immer der Fall war.<\/p><p>Dabei geht es l&auml;ngst nicht nur um ausl&auml;ndische Akteure oder klassische Geheimdienstoperationen. Auch westliche Staaten investieren zunehmend in digitale Einflussstrukturen, strategische Kommunikation und KI-gest&uuml;tzte Informationssysteme. Gleichzeitig entwickeln private Konzerne immer leistungsf&auml;higere Werkzeuge zur Analyse und Steuerung &ouml;ffentlicher Aufmerksamkeit. Die Kombination aus staatlichen Interessen, privater Plattformlogik und k&uuml;nstlicher Intelligenz schafft damit ein System, dessen gesellschaftliche Folgen bislang kaum absch&auml;tzbar sind.<\/p><p>Besonders brisant ist dabei die Rolle der sozialen Plattformen selbst. Ihre Algorithmen sind nicht darauf ausgelegt, Wahrheit zu f&ouml;rdern, sondern Aufmerksamkeit zu maximieren. Inhalte, die starke Emotionen ausl&ouml;sen, werden bevorzugt verbreitet. Das f&uuml;hrt dazu, dass extreme Positionen, moralische Emp&ouml;rung und zugespitzte Narrative oft gr&ouml;&szlig;ere Reichweiten erzielen als differenzierte Analysen. KI versch&auml;rft diese Dynamik zus&auml;tzlich, weil sie in der Lage ist, solche Inhalte automatisiert und massenhaft zu erzeugen.<\/p><p>Damit ver&auml;ndert sich nicht nur die Geschwindigkeit &ouml;ffentlicher Debatten, sondern auch ihre Struktur. Gesellschaftliche Diskussionen werden fragmentierter, emotionaler und manipulationsanf&auml;lliger. Menschen bewegen sich zunehmend in digitalen Informationsr&auml;umen, die algorithmisch auf ihre &Auml;ngste, &Uuml;berzeugungen und Vorlieben zugeschnitten sind. Was der eine als offensichtliche Wahrheit empfindet, h&auml;lt der andere bereits f&uuml;r gezielte Propaganda. Eine gemeinsame Realit&auml;t beginnt zu zerfallen.<\/p><p><strong>&Uuml;berforderung durch Informationsmassen<\/strong><\/p><p>Hinzu kommt ein weiterer Effekt: die permanente &Uuml;berforderung durch Informationsmassen. T&auml;glich str&ouml;men unz&auml;hlige Videos, Kommentare, Analysen und Eilmeldungen auf die Menschen ein. KI-Systeme verst&auml;rken diese Flut zus&auml;tzlich. Dadurch entsteht ein Zustand dauerhafter Reiz&uuml;berlastung, in dem viele irgendwann nicht mehr unterscheiden k&ouml;nnen, was relevant, glaubw&uuml;rdig oder manipulativ ist. Genau diese Ersch&ouml;pfung wird selbst zu einem politischen Faktor.<\/p><p>Denn wer nicht mehr wei&szlig;, wem er glauben soll, zieht sich entweder zur&uuml;ck oder klammert sich umso st&auml;rker an einfache Erkl&auml;rungen und eindeutige Feindbilder. Beides destabilisiert demokratische Gesellschaften. Der &ouml;ffentliche Raum verwandelt sich zunehmend in ein emotional aufgeladenes Dauergefecht, in dem n&uuml;chterne Debatten immer schwerer durchdringen.<\/p><p>Besonders deutlich zeigt sich das bereits bei j&uuml;ngeren Generationen. F&uuml;r viele Menschen unter 30 sind soziale Plattformen l&auml;ngst wichtiger als klassische Medien. Informationen werden nicht mehr prim&auml;r &uuml;ber Zeitungen oder Nachrichtensendungen aufgenommen, sondern &uuml;ber kurze Clips, emotionalisierte Bilder und algorithmisch kuratierte Feeds. Die Grenze zwischen Unterhaltung, Aktivismus, Propaganda und Nachricht verschwimmt dabei noch st&auml;rker als in der klassischen Medienlandschaft.<\/p><p>Gerade deshalb entwickelt sich k&uuml;nstliche Intelligenz zu einem geopolitischen Machtinstrument. Staaten erkennen zunehmend, dass moderne Konflikte noch st&auml;rker als fr&uuml;here Kriege auch jenseits der eigentlichen Schlachtfelder entschieden werden. Wer Wahrnehmung beeinflussen kann, beeinflusst auch politische Zustimmung, gesellschaftliche Stabilit&auml;t und letztlich die Handlungsf&auml;higkeit ganzer Staaten.<\/p><p>Das gilt insbesondere in Krisenzeiten. Wirtschaftliche Unsicherheit, Kriegs&auml;ngste, Migration, soziale Spannungen oder Energiekrisen erzeugen emotionale Verwundbarkeit. KI-gest&uuml;tzte Informationssysteme k&ouml;nnen genau diese Schw&auml;chen analysieren und gezielt bespielen. Narrative werden nicht mehr einfach verbreitet, sie werden optimiert. Die Systeme lernen, welche Bilder Angst erzeugen, welche Formulierungen Wut verst&auml;rken und welche Botschaften gesellschaftliche Gruppen gegeneinander aufbringen.<\/p><p>Die eigentliche Macht dieser Technologie liegt deshalb nicht allein in einzelnen F&auml;lschungen oder manipulierten Videos. Sie liegt in der F&auml;higkeit, &ouml;ffentliche Stimmung permanent zu beeinflussen, Debattenr&auml;ume zu verschieben und Wahrnehmung langfristig zu formen. Genau darin unterscheidet sich die neue digitale Einflussnahme von klassischer Propaganda vergangener Jahrzehnte.<\/p><p><strong>Technologische Entwicklung ist schneller als politische Kontrolle<\/strong><\/p><p>Hinzu kommt, dass die technologische Entwicklung schneller voranschreitet als politische Kontrolle. W&auml;hrend immer leistungsf&auml;higere KI-Systeme entstehen, wirken Regulierung und gesellschaftliche Debatten oft erstaunlich langsam. Viele politische Entscheidungen fallen erst dann, wenn sich Technologien bereits tief in den Alltag integriert haben. Gleichzeitig verf&uuml;gen gro&szlig;e Plattformkonzerne &uuml;ber Datenmengen und technische M&ouml;glichkeiten, die selbst staatliche Institutionen teilweise &uuml;bertreffen.<\/p><p>Dadurch entsteht ein Machtgef&uuml;ge, das zunehmend schwer durchschaubar wird. Staaten, Konzerne, Plattformen, KI-Modelle und globale Datenstr&ouml;me greifen ineinander. F&uuml;r die &Ouml;ffentlichkeit wird immer unklarer, wo Einflussnahme beginnt, wer welche Interessen verfolgt und wie stark Wahrnehmung bereits algorithmisch gesteuert wird.<\/p><p>Noch nie standen so viele Informationen zur Verf&uuml;gung wie heute, und gleichzeitig war vermutlich die Unsicherheit dar&uuml;ber, was eigentlich noch real ist, selten gr&ouml;&szlig;er. Genau darin liegt die eigentliche Sprengkraft dieser Entwicklung.<\/p><p>Der Krieg der Zukunft k&ouml;nnte deshalb nicht zuerst um Territorien gef&uuml;hrt werden, sondern um Wahrnehmung, in einem erheblich massiveren und technologisch pr&auml;ziseren Umfang als jemals zuvor. Nicht die Kontrolle einzelner Regionen w&auml;re dann entscheidend, sondern die F&auml;higkeit, Realit&auml;t f&uuml;r Millionen Menschen interpretierbar zu machen. Und genau dieser Kampf hat l&auml;ngst begonnen.<\/p><p><small>Titelbild: Accogliente Design \/ shutterstock.com<\/small><\/p><div class=\"hr_wrap\">\n<hr>\n<\/div><p><small><strong>Quellen:<\/strong><\/small><\/p><p><small>NATO StratCom COE &ndash; &bdquo;Social Media Manipulation for Sale: 2025 Experiment on Platform Capabilities to Detect and Counter Inauthentic Social Media Engagement&ldquo;<br>\nReale Untersuchung der NATO-Strategieeinheit zu gekaufter Social-Media-Manipulation, Bots und k&uuml;nstlicher Reichweitenverst&auml;rkung.<br>\n<a href=\"https:\/\/stratcomcoe.org\/publications\/social-media-manipulation-for-sale-2025-experiment-on-platform-capabilities-to-detect-and-counter-inauthentic-social-media-engagement\/338\">https:\/\/stratcomcoe.org\/publications\/social-media-manipulation-for-sale-2025-experiment-on-platform-capabilities-to-detect-and-counter-inauthentic-social-media-engagement\/338<\/a><\/small><\/p><p><small>Arxiv &ndash; &bdquo;How cyborg propaganda reshapes collective action&ldquo; (2026)<br>\nWissenschaftliche Arbeit &uuml;ber hybride Mensch-KI-Propaganda (&bdquo;Cyborg Propaganda&ldquo;) und algorithmisch gesteuerte Meinungsbildung.<br>\n<a href=\"https:\/\/arxiv.org\/abs\/2602.13088\">https:\/\/arxiv.org\/abs\/2602.13088<\/a><\/small><\/p><p><small>NATO StratCom COE &ndash; &bdquo;Virtual Manipulation Brief 2025&ldquo;<br>\nAnalyse moderner Informationsoperationen, KI-Manipulation und digitaler Einflussnahme.<br>\n<a href=\"https:\/\/stratcomcoe.org\/publications\/generative-ai-and-its-implications-for-social-media-analysis\/286\">https:\/\/stratcomcoe.org\/publications\/generative-ai-and-its-implications-for-social-media-analysis\/286<\/a><\/small><\/p><p><small>Nature Scientific Reports &ndash; Auswirkungen generativer KI auf soziale Medien und &ouml;ffentliche Diskussionen<br>\n<a href=\"https:\/\/www.nature.com\/articles\/s41598-026-40110-8\">https:\/\/www.nature.com\/articles\/s41598-026-40110-8<\/a><\/small><\/p><p><small>Wired &ndash; Recherche &uuml;ber politische Einflusskampagnen rund um KI, China und Tech-Konzerne<br>\n<a href=\"https:\/\/www.wired.com\/story\/super-pac-backed-by-openai-and-palantir-is-paying-tiktok-influencers-to-fear-monger-about-china\">https:\/\/www.wired.com\/story\/super-pac-backed-by-openai-and-palantir-is-paying-tiktok-influencers-to-fear-monger-about-china<\/a><\/small><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Der moderne Krieg beginnt nicht erst mit Raketen, Panzern oder Soldatenbewegungen. Nat&uuml;rlich wurden auch fr&uuml;here Kriege von Propaganda, psychologischer Einflussnahme und medialer Mobilisierung begleitet. Staaten versuchten schon immer, &ouml;ffentliche Meinung zu formen, Feindbilder aufzubauen und Zustimmung f&uuml;r politische oder milit&auml;rische Entscheidungen zu erzeugen. Doch mit sozialen Plattformen, digitalen Datenr&auml;umen und k&uuml;nstlicher Intelligenz ver&auml;ndern sich Reichweite,<\/p>\n<div class=\"readMore\"><a class=\"moretag\" href=\"https:\/\/www.nachdenkseiten.de\/?p=150393\">Weiterlesen<\/a><\/div>\n","protected":false},"author":11,"featured_media":150396,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"spay_email":"","footnotes":""},"categories":[169,123,11],"tags":[2544,2005,1805,3399,1113,2507,1386],"class_list":["post-150393","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-aussen-und-sicherheitspolitik","category-kampagnentarnworteneusprech","category-strategien-der-meinungsmache","tag-echokammer","tag-fake-news","tag-kuenstliche-intelligenz","tag-psychologische-kriegsfuehrung","tag-soziale-medien","tag-streitkultur","tag-wissenschaftlich-technischer-fortschritt"],"jetpack_featured_media_url":"https:\/\/www.nachdenkseiten.de\/wp-content\/uploads\/2026\/05\/shutterstock_2527483071.png","_links":{"self":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts\/150393","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/users\/11"}],"replies":[{"embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=150393"}],"version-history":[{"count":7,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts\/150393\/revisions"}],"predecessor-version":[{"id":150427,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts\/150393\/revisions\/150427"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/media\/150396"}],"wp:attachment":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=150393"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=150393"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=150393"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}