{"id":147657,"date":"2026-03-13T10:00:42","date_gmt":"2026-03-13T09:00:42","guid":{"rendered":"https:\/\/www.nachdenkseiten.de\/?p=147657"},"modified":"2026-03-13T16:36:53","modified_gmt":"2026-03-13T15:36:53","slug":"ki-fuer-den-krieg-der-streit-zwischen-dem-pentagon-und-einem-ki-unternehmen-wirft-ein-licht-auf-die-neue-militaerische-technologiepolitik","status":"publish","type":"post","link":"https:\/\/www.nachdenkseiten.de\/?p=147657","title":{"rendered":"KI f\u00fcr den Krieg: Der Streit zwischen dem Pentagon und einem KI-Unternehmen wirft ein Licht auf die neue milit\u00e4rische Technologiepolitik"},"content":{"rendered":"<p>Ein aktueller Konflikt zwischen dem US-Verteidigungsministerium und dem KI-Unternehmen Anthropic zeigt erstmals offen, wie eng Technologieunternehmen und milit&auml;rische Institutionen inzwischen miteinander verbunden sind und wie umstritten diese Kooperationen geworden sind. Von <strong>G&uuml;nther Burbach<\/strong>.<\/p><p><em>Dieser Beitrag ist auch als Audio-Podcast verf&uuml;gbar.<\/em><br>\n<!--more--><br>\n<\/p><div class=\"powerpress_player\" id=\"powerpress_player_9815\"><!--[if lt IE 9]><script>document.createElement('audio');<\/script><![endif]-->\n<audio class=\"wp-audio-shortcode\" id=\"audio-147657-1\" preload=\"none\" style=\"width: 100%;\" controls=\"controls\"><source type=\"audio\/mpeg\" src=\"https:\/\/www.nachdenkseiten.de\/upload\/podcast\/260313_KI_fuer_den_Krieg_Der_Streit_zwischen_dem_Pentagon_und_einem_KI_Unternehmen_wirft_ein_Licht_auf_die_neue_militaerische_Technologiepolitik_NDS.mp3?_=1\"><\/source><a href=\"https:\/\/www.nachdenkseiten.de\/upload\/podcast\/260313_KI_fuer_den_Krieg_Der_Streit_zwischen_dem_Pentagon_und_einem_KI_Unternehmen_wirft_ein_Licht_auf_die_neue_militaerische_Technologiepolitik_NDS.mp3\">https:\/\/www.nachdenkseiten.de\/upload\/podcast\/260313_KI_fuer_den_Krieg_Der_Streit_zwischen_dem_Pentagon_und_einem_KI_Unternehmen_wirft_ein_Licht_auf_die_neue_militaerische_Technologiepolitik_NDS.mp3<\/a><\/audio><\/div><p class=\"powerpress_links powerpress_links_mp3\">Podcast: <a href=\"https:\/\/www.nachdenkseiten.de\/upload\/podcast\/260313_KI_fuer_den_Krieg_Der_Streit_zwischen_dem_Pentagon_und_einem_KI_Unternehmen_wirft_ein_Licht_auf_die_neue_militaerische_Technologiepolitik_NDS.mp3\" class=\"powerpress_link_pinw\" target=\"_blank\" title=\"Play in new window\" onclick=\"return powerpress_pinw('https:\/\/www.nachdenkseiten.de\/?powerpress_pinw=147657-podcast');\" rel=\"nofollow\">Play in new window<\/a> | <a href=\"https:\/\/www.nachdenkseiten.de\/upload\/podcast\/260313_KI_fuer_den_Krieg_Der_Streit_zwischen_dem_Pentagon_und_einem_KI_Unternehmen_wirft_ein_Licht_auf_die_neue_militaerische_Technologiepolitik_NDS.mp3\" class=\"powerpress_link_d\" title=\"Download\" rel=\"nofollow\" download=\"260313_KI_fuer_den_Krieg_Der_Streit_zwischen_dem_Pentagon_und_einem_KI_Unternehmen_wirft_ein_Licht_auf_die_neue_militaerische_Technologiepolitik_NDS.mp3\">Download<\/a><\/p><p>Die milit&auml;rische Nutzung K&uuml;nstlicher Intelligenz entwickelt sich seit einigen Jahren zu einem zentralen strategischen Thema der internationalen Sicherheitspolitik. W&auml;hrend in der &ouml;ffentlichen Debatte h&auml;ufig &uuml;ber zivile Anwendungen von KI gesprochen wird, etwa &uuml;ber Sprachmodelle, automatisierte Bilderkennung oder digitale Assistenzsysteme, hat sich im Hintergrund ein anderes Feld rasch ausgeweitet: die Integration von KI-Technologie in milit&auml;rische Analyse- und Entscheidungsprozesse.<\/p><p>Der Streit zwischen US-Verteidigungsministerium und dem KI-Unternehmen Anthropic entz&uuml;ndete sich an der Frage, unter welchen Bedingungen K&uuml;nstliche Intelligenz im milit&auml;rischen Bereich eingesetzt werden darf. Anthropic geh&ouml;rt zu den Unternehmen, die in den vergangenen Jahren gro&szlig;e Sprachmodelle und KI-Systeme entwickelt haben, die enorme Datenmengen analysieren k&ouml;nnen. Solche Systeme werden nicht nur in der Wirtschaft genutzt, sondern sind auch f&uuml;r staatliche Beh&ouml;rden interessant, insbesondere f&uuml;r Sicherheits- und Verteidigungsinstitutionen, die t&auml;glich riesige Datenstr&ouml;me auswerten m&uuml;ssen. <\/p><p>Nach Berichten mehrerer Medien war Anthropic an Projekten beteiligt, die KI-Technologie f&uuml;r staatliche Analyse- und Auswertungsprozesse nutzten. Dabei ging es unter anderem um die Verarbeitung komplexer Datenbest&auml;nde aus unterschiedlichen Quellen, etwa aus Satellitenbildern, Sensorinformationen oder milit&auml;rischen Lageberichten. Genau solche Aufgaben stehen im Mittelpunkt der digitalen Transformation moderner Streitkr&auml;fte. Milit&auml;rische Planer sehen in KI-Systemen ein Werkzeug, mit dem sich gro&szlig;e Informationsmengen schneller und effizienter analysieren lassen.<\/p><p><strong>Staatliche &Uuml;berwachung und Entwicklung autonomer Waffensysteme<\/strong><\/p><p>Doch im Zuge dieser Zusammenarbeit kam es zu einem Konflikt &uuml;ber die Grenzen des Einsatzes. Anthropic erkl&auml;rte, dass seine Technologie nicht f&uuml;r bestimmte Anwendungen verwendet werden solle. Dazu geh&ouml;rten nach Angaben des Unternehmens insbesondere zwei Bereiche: der Einsatz von KI f&uuml;r umfassende staatliche &Uuml;berwachung sowie die Entwicklung autonomer Waffensysteme, bei denen Maschinen ohne menschliche Kontrolle &uuml;ber t&ouml;dliche Gewalt entscheiden k&ouml;nnten. Solche Einschr&auml;nkungen geh&ouml;ren zu den sogenannten Nutzungsrichtlinien vieler KI-Unternehmen, die versuchen, bestimmte Anwendungen ihrer Systeme auszuschlie&szlig;en. <\/p><p>Das US-Verteidigungsministerium akzeptierte diese Einschr&auml;nkungen jedoch offenbar nicht ohne Weiteres. Aus Sicht des Pentagon stellt sich die Frage anders: Wenn eine Technologie f&uuml;r milit&auml;rische Zwecke relevant ist, will das Verteidigungsministerium sie m&ouml;glichst flexibel einsetzen k&ouml;nnen. In diesem Zusammenhang entstand der Konflikt, der schlie&szlig;lich dazu f&uuml;hrte, dass Anthropic juristisch gegen eine Entscheidung der Regierung vorging, das Unternehmen als Sicherheitsrisiko einzustufen. Eine solche Einstufung kann weitreichende Folgen haben, weil sie dazu f&uuml;hrt, dass staatliche Auftragnehmer bestimmte Technologien nicht mehr verwenden d&uuml;rfen.<\/p><p><strong>Seltene Einblicke<\/strong><\/p><p>Der Fall ist deshalb bemerkenswert, weil er einen seltenen Einblick in ein Feld gibt, das normalerweise hinter verschlossenen T&uuml;ren stattfindet. Die Kooperation zwischen Milit&auml;r und Technologieunternehmen ist in den letzten Jahren erheblich intensiver geworden. Viele Staaten betrachten K&uuml;nstliche Intelligenz inzwischen als strategische Schl&uuml;sseltechnologie. Sie kann milit&auml;rische F&auml;higkeiten ver&auml;ndern, indem sie Entscheidungsprozesse beschleunigt und die Analyse gro&szlig;er Datenmengen automatisiert. <\/p><p>Ein Beispiel f&uuml;r diese Entwicklung ist das Programm Project Maven, das vom US-Verteidigungsministerium ins Leben gerufen wurde. Ziel dieses Projekts ist es, KI-gest&uuml;tzte Bilderkennung zu nutzen, um milit&auml;rische Daten auszuwerten. Drohnen und Satelliten liefern t&auml;glich enorme Mengen an Bildmaterial. Fr&uuml;her mussten menschliche Analysten diese Daten manuell auswerten. Mit Hilfe von KI-Algorithmen k&ouml;nnen bestimmte Muster, etwa Fahrzeuge, Geb&auml;ude oder milit&auml;rische Infrastruktur, automatisch erkannt werden. <\/p><p>Die Bedeutung solcher Systeme liegt nicht nur in der technischen Innovation. Sie ver&auml;ndern auch die Geschwindigkeit milit&auml;rischer Entscheidungsprozesse. W&auml;hrend menschliche Analysten oft Stunden oder Tage ben&ouml;tigen, um gro&szlig;e Datens&auml;tze auszuwerten, k&ouml;nnen KI-Modelle &auml;hnliche Aufgaben innerhalb kurzer Zeit erledigen. F&uuml;r Milit&auml;rs, die auf schnelle Lageanalysen angewiesen sind, ist dies ein entscheidender Vorteil. Gleichzeitig wirft diese Entwicklung grundlegende Fragen auf. Wenn Maschinen zunehmend an der Auswertung milit&auml;rischer Informationen beteiligt sind, verschiebt sich auch die Rolle menschlicher Entscheidungstr&auml;ger. Offiziell bleibt der Mensch weiterhin derjenige, der &uuml;ber milit&auml;rische Ma&szlig;nahmen entscheidet. Doch die Grundlage dieser Entscheidungen wird immer st&auml;rker von algorithmischen Analysen gepr&auml;gt.<\/p><p><strong>Partnerschaften zwischen Milit&auml;r und Technologiesektor<\/strong><\/p><p>Die Zusammenarbeit mit Technologieunternehmen spielt dabei eine zentrale Rolle. Anders als klassische R&uuml;stungsfirmen verf&uuml;gen viele Tech-Unternehmen &uuml;ber Expertise in Softwareentwicklung, Datenanalyse und maschinellem Lernen. Diese F&auml;higkeiten sind f&uuml;r moderne Milit&auml;rsysteme zunehmend entscheidend. Deshalb bem&uuml;ht sich das Pentagon seit einigen Jahren intensiv darum, Partnerschaften mit Unternehmen aus dem Technologiesektor aufzubauen. <\/p><p>Neben Anthropic arbeiten auch andere gro&szlig;e Firmen mit staatlichen Institutionen zusammen. Dazu geh&ouml;rt beispielsweise OpenAI, dessen Technologien in verschiedenen Bereichen der Datenanalyse und Softwareentwicklung eingesetzt werden. Ebenso beteiligt sind Unternehmen wie Palantir Technologies, das bereits seit Jahren Software f&uuml;r Geheimdienste und Sicherheitsbeh&ouml;rden entwickelt. Diese Kooperationen markieren eine neue Phase der milit&auml;rischen Technologiepolitik. W&auml;hrend R&uuml;stungsprogramme fr&uuml;her vor allem von spezialisierten Waffenherstellern getragen wurden, sind heute auch Unternehmen aus der digitalen Wirtschaft Teil dieses Systems. Software, Datenanalyse und K&uuml;nstliche Intelligenz werden zu zentralen Komponenten moderner milit&auml;rischer Infrastruktur.<\/p><p>Der Konflikt zwischen Anthropic und dem Pentagon macht deutlich, dass diese Entwicklung nicht ohne Spannungen verl&auml;uft. Technologieunternehmen befinden sich in einer schwierigen Position. Einerseits er&ouml;ffnen staatliche Auftr&auml;ge enorme wirtschaftliche M&ouml;glichkeiten. Andererseits sehen sich viele Firmen mit internen und &ouml;ffentlichen Debatten &uuml;ber ethische Grenzen konfrontiert. Mitarbeiter, Investoren und zivilgesellschaftliche Gruppen stellen zunehmend Fragen danach, welche Rolle Technologieunternehmen in milit&auml;rischen Projekten spielen sollten. <\/p><p>Diese Diskussion ist keineswegs neu. Bereits vor einigen Jahren kam es innerhalb gro&szlig;er Technologieunternehmen zu Protesten gegen milit&auml;rische Kooperationen. Mitarbeiter argumentierten, dass bestimmte Anwendungen von KI mit den ethischen Grunds&auml;tzen ihrer Firmen unvereinbar seien. In einigen F&auml;llen f&uuml;hrten solche Proteste dazu, dass Unternehmen ihre Beteiligung an bestimmten Projekten beendeten. Der aktuelle Streit zeigt jedoch, dass die grundlegende Entwicklung dadurch nicht gestoppt wurde. Die milit&auml;rische Nutzung von KI schreitet weiter voran, und staatliche Institutionen investieren erhebliche Ressourcen in entsprechende Programme. F&uuml;r Regierungen stellt sich die Frage nicht mehr, ob KI milit&auml;risch eingesetzt werden kann, sondern wie schnell und in welchem Umfang diese Technologien integriert werden sollen.<\/p><p>Damit r&uuml;ckt ein neues Feld in den Mittelpunkt sicherheitspolitischer Debatten. K&uuml;nstliche Intelligenz k&ouml;nnte in Zukunft eine &auml;hnliche strategische Bedeutung erlangen wie andere Schl&uuml;sseltechnologien der Vergangenheit. Wie genau diese Entwicklung aussehen wird, ist noch offen. Doch der Konflikt zwischen dem Pentagon und Anthropic zeigt bereits jetzt, dass die Grenzen zwischen ziviler Technologieentwicklung und milit&auml;rischer Nutzung zunehmend verschwimmen.<\/p><p><strong>Der Streit zwischen dem Pentagon und einem KI-Unternehmen wirft ein Licht auf die neue milit&auml;rische Technologiepolitik<\/strong><\/p><p>Der Konflikt zwischen dem US-Verteidigungsministerium und dem KI-Unternehmen Anthropic ist jedoch nicht nur eine Auseinandersetzung &uuml;ber einzelne Vertragsbedingungen oder Nutzungsrichtlinien. Er verweist auf eine gr&ouml;&szlig;ere Entwicklung, die sich seit einigen Jahren im Hintergrund vollzieht: den Aufbau einer neuen technologischen Infrastruktur milit&auml;rischer Macht, in der K&uuml;nstliche Intelligenz eine zentrale Rolle spielt. <\/p><p>Diese Entwicklung ist eng mit der wachsenden Bedeutung von Daten verbunden. Moderne Streitkr&auml;fte operieren in einem Umfeld, in dem t&auml;glich enorme Mengen an Informationen entstehen. Satelliten liefern hochaufl&ouml;sende Bilder der Erdoberfl&auml;che, Drohnen &uuml;bertragen Videodaten in Echtzeit, Sensoren sammeln Informationen &uuml;ber Bewegungen und Kommunikationsstr&ouml;me. F&uuml;r milit&auml;rische Planer stellt sich daher weniger die Frage, ob Daten vorhanden sind, sondern wie sie ausgewertet werden k&ouml;nnen. Genau hier setzt K&uuml;nstliche Intelligenz an. Systeme des maschinellen Lernens k&ouml;nnen Muster in gro&szlig;en Datenmengen erkennen und Zusammenh&auml;nge identifizieren, die f&uuml;r menschliche Analysten nur schwer zug&auml;nglich w&auml;ren.<\/p><p>Programme wie Project Maven zeigen, wie diese Technologien konkret eingesetzt werden. Ziel solcher Projekte ist es, Bilderkennung und Datenanalyse so zu automatisieren, dass milit&auml;rische Informationen schneller und pr&auml;ziser ausgewertet werden k&ouml;nnen. Drohnenaufnahmen oder Satellitenbilder k&ouml;nnen von Algorithmen analysiert werden, die bestimmte Objekte identifizieren und markieren. <\/p><p><strong>&bdquo;Algorithmische Kriegsf&uuml;hrung&ldquo;<\/strong><\/p><p>Diese Ergebnisse dienen anschlie&szlig;end als Grundlage f&uuml;r menschliche Entscheidungen. Offiziell bleibt die Verantwortung f&uuml;r milit&auml;rische Ma&szlig;nahmen beim Menschen. Doch die Analyse, auf der diese Entscheidungen beruhen, wird zunehmend von Maschinen erstellt. Die Bedeutung dieser Entwicklung reicht &uuml;ber einzelne Programme hinaus. Milit&auml;rische Strategen sprechen inzwischen h&auml;ufig von einer &bdquo;algorithmischen Kriegsf&uuml;hrung&ldquo;. <\/p><p>Gemeint ist damit eine Form milit&auml;rischer Planung, bei der Datenanalyse und KI-Systeme eine zentrale Rolle spielen. Geschwindigkeit wird dabei zu einem entscheidenden Faktor. Wer Informationen schneller auswerten kann, erh&auml;lt einen strategischen Vorteil. In Konflikten, in denen Entscheidungen innerhalb von Minuten oder Sekunden getroffen werden m&uuml;ssen, kann die F&auml;higkeit zur schnellen Analyse &uuml;ber den Ausgang milit&auml;rischer Operationen entscheiden.<\/p><p>Diese Perspektive erkl&auml;rt auch, warum Regierungen weltweit erhebliche Mittel in die Entwicklung milit&auml;rischer KI investieren. Neben den Vereinigten Staaten verfolgen auch andere gro&szlig;e Staaten entsprechende Programme. China hat in den vergangenen Jahren umfangreiche Investitionen in KI-Technologien angek&uuml;ndigt und betrachtet diese als Schl&uuml;sselkomponente seiner milit&auml;rischen Modernisierung. Auch Russland arbeitet an Projekten, die K&uuml;nstliche Intelligenz in milit&auml;rische Systeme integrieren sollen. <\/p><p>Damit entsteht eine neue Form technologischer Konkurrenz, die oft mit historischen R&uuml;stungswettl&auml;ufen verglichen wird. Ein entscheidender Unterschied besteht jedoch darin, dass die treibenden Kr&auml;fte nicht ausschlie&szlig;lich staatliche Institutionen sind. Viele der technologischen Innovationen im Bereich K&uuml;nstlicher Intelligenz entstehen in privaten Unternehmen. Firmen wie OpenAI oder Palantir Technologies entwickeln Systeme, die urspr&uuml;nglich f&uuml;r zivile Anwendungen gedacht sind, etwa f&uuml;r Datenanalyse, Sprachverarbeitung oder Softwareentwicklung. Diese Technologien k&ouml;nnen jedoch relativ leicht f&uuml;r staatliche oder milit&auml;rische Zwecke angepasst werden. Dadurch entsteht eine Situation, in der zivile Technologieunternehmen zu wichtigen Partnern staatlicher Sicherheitsinstitutionen werden. <\/p><p><strong>Zunehmender Einfluss von Softwareunternehmen<\/strong><\/p><p>Diese Entwicklung ver&auml;ndert auch die Struktur der R&uuml;stungsindustrie. W&auml;hrend traditionelle Waffenhersteller weiterhin eine zentrale Rolle spielen, gewinnen Softwareunternehmen zunehmend Einfluss. Milit&auml;rische Systeme bestehen heute nicht mehr nur aus physischen Komponenten wie Flugzeugen, Raketen oder Fahrzeugen. Sie sind Teil komplexer digitaler Netzwerke, in denen Daten verarbeitet und analysiert werden. Wer diese Systeme entwickelt und kontrolliert, besitzt damit auch erheblichen Einfluss auf milit&auml;rische F&auml;higkeiten.<\/p><p>Gleichzeitig wirft diese Entwicklung Fragen nach politischer Kontrolle auf. Viele Programme zur milit&auml;rischen Nutzung von KI unterliegen strengen Geheimhaltungsregeln. Parlamente und &Ouml;ffentlichkeit haben oft nur begrenzten Einblick in die Details solcher Projekte. Entscheidungen &uuml;ber Technologieeinsatz, Budgetverteilung oder strategische Priorit&auml;ten werden h&auml;ufig innerhalb von Ministerien und milit&auml;rischen Institutionen getroffen. Die Rolle privater Unternehmen verst&auml;rkt diese Intransparenz zus&auml;tzlich, weil Vertr&auml;ge und technische Entwicklungen h&auml;ufig unter dem Schutz von Gesch&auml;ftsgeheimnissen stehen. <\/p><p>Der Streit zwischen Anthropic und dem Pentagon macht sichtbar, dass selbst innerhalb dieses Systems unterschiedliche Interessen existieren. Technologieunternehmen stehen unter wirtschaftlichem Druck, ihre Produkte m&ouml;glichst breit einzusetzen. Gleichzeitig sehen sich viele Firmen mit ethischen Debatten konfrontiert. Mitarbeiter, Investoren und zivilgesellschaftliche Organisationen fragen zunehmend danach, welche Verantwortung Unternehmen tragen, wenn ihre Technologien in milit&auml;rischen Kontexten verwendet werden.<\/p><p><strong>Bisher keine verbindlichen Vereinbarungen zur Begrenzung autonomer Waffensysteme<\/strong><\/p><p>Die politische Herausforderung besteht darin, Regeln f&uuml;r den Umgang mit solchen Technologien zu entwickeln. Internationale Organisationen diskutieren bereits seit mehreren Jahren &uuml;ber m&ouml;gliche Vereinbarungen zur Begrenzung autonomer Waffensysteme. Bisher sind diese Gespr&auml;che jedoch zu keinem verbindlichen Ergebnis gekommen. Staaten verfolgen unterschiedliche Interessen, und viele Regierungen z&ouml;gern, auf m&ouml;gliche milit&auml;rische Vorteile zu verzichten. Vor diesem Hintergrund gewinnt der Konflikt zwischen dem Pentagon und Anthropic eine symbolische Bedeutung. Er zeigt, dass die Entwicklung milit&auml;rischer KI nicht nur eine technische Frage ist, sondern auch eine politische. Entscheidungen dar&uuml;ber, wie und in welchem Umfang solche Technologien eingesetzt werden, betreffen grundlegende Fragen von Sicherheit, Kontrolle und Verantwortung.<\/p><p>F&uuml;r die &ouml;ffentliche Debatte bedeutet dies, dass die Rolle K&uuml;nstlicher Intelligenz in milit&auml;rischen Kontexten st&auml;rker diskutiert werden muss. W&auml;hrend viele technologische Entwicklungen im Alltag sichtbar sind, bleibt der milit&auml;rische Einsatz von KI h&auml;ufig im Hintergrund. Doch genau dort k&ouml;nnten sich in den kommenden Jahren entscheidende Ver&auml;nderungen vollziehen. <\/p><p>Die Integration von algorithmischen Systemen in milit&auml;rische Entscheidungsprozesse hat das Potenzial, die Struktur internationaler Sicherheitspolitik nachhaltig zu ver&auml;ndern. Der Konflikt um Anthropic bietet daher einen seltenen Einblick in ein Feld, das sonst weitgehend im Verborgenen bleibt. Er zeigt, wie eng die Beziehungen zwischen staatlichen Institutionen und Technologieunternehmen inzwischen geworden sind. Gleichzeitig macht er deutlich, dass diese Beziehungen nicht frei von Spannungen sind. Die Frage, wer letztlich &uuml;ber den Einsatz neuer Technologien entscheidet &ndash; Regierungen, Unternehmen oder internationale Vereinbarungen &ndash; wird in Zukunft eine zentrale Rolle spielen.<\/p><p>Damit steht die Entwicklung milit&auml;rischer KI exemplarisch f&uuml;r eine gr&ouml;&szlig;ere Herausforderung moderner Gesellschaften. Technologische Innovationen entstehen heute h&auml;ufig schneller, als politische Systeme darauf reagieren k&ouml;nnen. Die F&auml;higkeit, neue Technologien verantwortungsvoll zu regulieren, wird daher zu einer der wichtigsten Aufgaben der kommenden Jahre.<\/p><p><small>Titelbild: Summit Art Creations \/ Shutterstock<\/small><\/p><div class=\"hr_wrap\">\n<hr>\n<\/div><p><strong>Quellen:<\/strong><\/p><ul>\n<li>Guardian: <a href=\"https:\/\/www.theguardian.com\/technology\/2026\/mar\/09\/anthropic-defense-department-lawsuit-ai\">Anthropic verklagt das US-Verteidigungsministerium wegen Blacklisting als &bdquo;Supply-Chain Risk&ldquo;<\/a><\/li>\n<li>Reuters: <a href=\"https:\/\/www.reuters.com\/business\/pentagon-clashes-with-anthropic-over-military-ai-use-2026-01-29\/\">Pentagon und Anthropic streiten &uuml;ber milit&auml;rische Nutzung von KI ohne Beschr&auml;nkungen<\/a><\/li>\n<li>The Verge: <a href=\"https:\/\/www.theverge.com\/ai-artificial-intelligence\/890347\/pentagon-anthropic-supply-chain-risk\">Pentagon erkl&auml;rt Anthropic zum &bdquo;Supply-Chain Risk&ldquo;<\/a><\/li>\n<li>Wall Street Journal: <a href=\"https:\/\/www.wsj.com\/politics\/national-security\/anthropic-sues-trump-administration-for-targeting-it-917b52ca\">Anthropic verklagt US-Regierung wegen Einstufung als Sicherheitsrisiko<\/a><\/li>\n<li>Wikipedia: <a href=\"https:\/\/en.wikipedia.org\/wiki\/Project_Maven\">Project Maven &ndash; KI-Programm des Pentagon zur Analyse milit&auml;rischer Daten<\/a><\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Ein aktueller Konflikt zwischen dem US-Verteidigungsministerium und dem KI-Unternehmen Anthropic zeigt erstmals offen, wie eng Technologieunternehmen und milit&auml;rische Institutionen inzwischen miteinander verbunden sind und wie umstritten diese Kooperationen geworden sind. Von <strong>G&uuml;nther Burbach<\/strong>.<\/p>\n<p><em>Dieser Beitrag ist auch als Audio-Podcast verf&uuml;gbar.<\/em><\/p>\n","protected":false},"author":11,"featured_media":147658,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"spay_email":"","footnotes":""},"categories":[107,172,184,161],"tags":[3628,2097,2129,1805],"class_list":["post-147657","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-audio-podcast","category-aufruestung","category-ueberwachung","category-wertedebatte","tag-autonome-waffen","tag-big-data","tag-geheimhaltung","tag-kuenstliche-intelligenz"],"jetpack_featured_media_url":"https:\/\/www.nachdenkseiten.de\/wp-content\/uploads\/2026\/03\/shutterstock_2326997879.jpg","_links":{"self":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts\/147657","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/users\/11"}],"replies":[{"embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=147657"}],"version-history":[{"count":8,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts\/147657\/revisions"}],"predecessor-version":[{"id":147751,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts\/147657\/revisions\/147751"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/media\/147658"}],"wp:attachment":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=147657"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=147657"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=147657"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}