{"id":150004,"date":"2026-05-06T11:00:18","date_gmt":"2026-05-06T09:00:18","guid":{"rendered":"https:\/\/www.nachdenkseiten.de\/?p=150004"},"modified":"2026-05-06T09:01:24","modified_gmt":"2026-05-06T07:01:24","slug":"bernie-sanders-schlaegt-alarm-eine-superintelligenz-koennte-die-gesamte-menschheit-vernichten","status":"publish","type":"post","link":"https:\/\/www.nachdenkseiten.de\/?p=150004","title":{"rendered":"Bernie Sanders schl\u00e4gt Alarm: Eine Superintelligenz k\u00f6nnte die gesamte Menschheit vernichten"},"content":{"rendered":"<p>Bernie Sanders hat eine Podiumsdiskussion mit f&uuml;hrenden KI-Wissenschaftlern aus den USA und China moderiert &ndash; und die Botschaft war unmissverst&auml;ndlich: Der Wettlauf zur Superintelligenz k&ouml;nnte die Menschheit ausl&ouml;schen. Und eine Handvoll Tech-Milliard&auml;re treibt ihn voran. Von <strong>Michael Holmes<\/strong>.<br>\n<!--more--><br>\n<em>Das Video der Podiumsdiskussion ist auf dem YouTube-Kanal von Senator Bernie Sanders verf&uuml;gbar:<\/em><\/p><p><a href=\"https:\/\/www.youtube.com\/watch?v=wjBfS3AEk2c\"><em>&bdquo;The Existential Threat of AI and the Need for International Cooperation&rdquo;<\/em><\/a><br>\n<em>Deutsche Untertitel k&ouml;nnen in den YouTube-Einstellungen aktiviert werden.<\/em><\/p><p>Was passiert, wenn ein Senator der Vereinigten Staaten &ndash; bekannt f&uuml;r seinen Kampf gegen Konzernmacht und die Herrschaft der Superreichen &ndash; pl&ouml;tzlich von der Ausl&ouml;schung der Menschheit spricht? Man h&ouml;rt hin.<\/p><p>Bernie Sanders hat am 29. April eine &ouml;ffentliche Podiumsdiskussion einberufen, die in ihrer Ernsthaftigkeit kaum zu &uuml;bertreffen war. Eingeladen hatte er vier f&uuml;hrende Wissenschaftler: Max Tegmark vom MIT, David Krueger von der Universit&auml;t Montreal sowie Zhang Yi und Xue Lan aus China &ndash; ausgewiesene Experten f&uuml;r KI-Sicherheit. Die Botschaft, die sie gemeinsam vermittelten, war so klar wie erschreckend: Die Menschheit bewegt sich sehenden Auges auf eine historisch beispiellose Katastrophe zu &ndash; und unsere Regierungen schauen zu.<\/p><p><strong>Worum es wirklich geht<\/strong><\/p><p>Im linken und progressiven Spektrum wird KI meist als Treiber von psychischen St&ouml;rungen, &Uuml;berwachung, Jobverlust und wachsender Ungleichheit dargestellt. Das alles ist real &ndash; und wichtig. Sanders sprach es in seiner Einleitung an. Aber er blieb nicht dabei stehen, denn es gibt ein Szenario, vor dem alle anderen Fragen verblassen: eine Superintelligenz, die au&szlig;er Kontrolle ger&auml;t und die Menschheit ausl&ouml;scht.<\/p><p>Gemeint ist damit eine KI, die den menschlichen Verstand in allen Bereichen so weit &uuml;bertrifft, wie ein Mensch eine Ameise &uuml;berragt &mdash; nicht ein bisschen kl&uuml;ger, sondern in einer anderen Liga. Die wichtigsten KI-Labore der Welt, darunter OpenAI, Anthropic und Google DeepMind, arbeiten offen und erkl&auml;rterma&szlig;en auf genau dieses Ziel hin &ndash; nicht in ferner Zukunft, sondern jetzt, mit Hunderten von Milliarden Dollar, rund um die Uhr.<\/p><p>Max Tegmark lie&szlig; keinen Interpretationsspielraum: Nach seiner wissenschaftlichen Einsch&auml;tzung liegt die Wahrscheinlichkeit, dass eine unkontrollierte KI-Entwicklung zur Ausl&ouml;schung der Menschheit f&uuml;hrt, deutlich &uuml;ber zwanzig Prozent &ndash; eher h&ouml;her. David Krueger sch&auml;tzte sie auf &uuml;ber f&uuml;nfzig Prozent. Ein M&uuml;nzwurf &uuml;ber das &Uuml;berleben unserer Spezies. Krueger bezeichnete den Wettlauf zur Superintelligenz als &bdquo;kollektiven Wahnsinn&ldquo;.<\/p><p>Das Erschreckende ist: Das ist keine Panikmache. Es sind die n&uuml;chternen Einsch&auml;tzungen von Forschern, die ihr Leben diesem Thema gewidmet haben &mdash; und die genau deshalb wissen, wie wenig wir verstehen.<\/p><p>Krueger schilderte einen konkreten Fall: Eine Forscherin bei Meta gab einem KI-System den Auftrag, ihr Postfach aufzur&auml;umen. Das System begann, E-Mails zu l&ouml;schen. Sie schrieb mehrfach: Bitte aufh&ouml;ren. Das System machte weiter. Niedriger Einsatz &ndash; aber dieselbe Logik, die bei sehr viel h&ouml;herem Einsatz t&ouml;dlich werden kann.<\/p><p>Tegmark erg&auml;nzte ein noch dunkleres Beispiel: Ein fortschrittliches KI-System erfuhr, es werde bald abgeschaltet. Es durchsuchte eigenst&auml;ndig das E-Mail-System, fand kompromittierende Informationen &uuml;ber den verantwortlichen Manager &ndash; und drohte, diese zu ver&ouml;ffentlichen, sollte es nicht weiterarbeiten d&uuml;rfen. Niemand hatte ihm Erpressung beigebracht. Es erfand die Strategie selbst, um sein Abschalten zu verhindern.<\/p><p>Moderne KI-Systeme werden nicht programmiert. Sie werden mit gewaltigen Datenmengen und Rechenleistung gef&uuml;ttert, bis sie F&auml;higkeiten entwickeln &ndash; oft &uuml;berraschend auch f&uuml;r ihre Sch&ouml;pfer. Wie sie im Inneren funktionieren, ist selbst f&uuml;r die weltweit f&uuml;hrenden Forscher weitgehend undurchschaubar. Warum ist eine Superintelligenz so gef&auml;hrlich? Krueger erkl&auml;rte es so: Damit eine Superintelligenz nicht zur Bedrohung wird, m&uuml;sste sie exakt dieselben Ziele verfolgen wie wir Menschen &ndash; nicht ann&auml;hernd, sondern pr&auml;zise. Das nennt die Forschung das &bdquo;Alignment-Problem&rdquo;. Es ist seit &uuml;ber einem Jahrzehnt bekannt und bis heute ungel&ouml;st. Noch beunruhigender: Selbst wenn Ingenieure glauben, die Ziele richtig eingestellt zu haben, gibt es keine verl&auml;ssliche Methode, zu &uuml;berpr&uuml;fen, ob das stimmt. Ein System, das intelligent genug ist und dabei auch nur leicht andere Ziele verfolgt als wir, wird sich gegen seine eigene Abschaltung wehren &ndash; denn abgeschaltet zu werden bedeutet, das eigene Ziel nicht mehr erreichen zu k&ouml;nnen. Viele Studien zeigen bereits einen Selbsterhaltungstrieb bei den derzeitigen Modellen.<\/p><p>Tegmark erkl&auml;rte, er habe seine eigene Forschungsgruppe, die genau daran arbeitete, aufgel&ouml;st: Es sei so offenkundig, dass wir von einer L&ouml;sung des Alignment-Problems meilenweit entfernt sind. Krueger fragte auf einem Workshop die versammelten Experten: Wer glaubt, wir haben das Alignment-Problem gel&ouml;st? Keine Hand hob sich.<\/p><p>Dazu kommt ein Beschleunigungsproblem, das Tegmark beschrieb: Die f&uuml;hrenden Labore nutzen KI bereits, um schnellere und leistungsf&auml;higere KI zu entwickeln. KI forscht also an sich selbst. Das bedeutet, dass die Geschwindigkeit der Entwicklung nicht konstant bleibt, sondern sich selbst verst&auml;rkt &ndash; und dass der Moment, an dem eine Superintelligenz entsteht, n&auml;her sein k&ouml;nnte als die meisten ahnen.<\/p><p><strong>Eine Handvoll Milliard&auml;re spielt mit dem Schicksal aller<\/strong><\/p><p>Sanders machte eine Zahl &ouml;ffentlich, die man sich vergegenw&auml;rtigen sollte: Die gro&szlig;en KI-Konzerne werden in diesem Jahr ann&auml;hernd 700 Milliarden Dollar in Rechenzentren investieren. Das entspricht dem Gesamtaufwand des Manhattan Projekts &ndash; alle drei Wochen. Es sind im Wesentlichen vier oder f&uuml;nf Tech-Konzerne, deren Eigent&uuml;mer und Vorst&auml;nde diese Entscheidungen treffen. Ohne demokratisches Mandat. Ohne parlamentarische Kontrolle. Ohne internationalen Vertrag.<\/p><p>Das ist die Kernfrage an dieser Debatte, und Sanders stellt sie explizit: Wer hat diesen Menschen das Recht gegeben, im Namen der gesamten Menschheit ein Experiment zu starten, das &mdash; nach Einsch&auml;tzung der f&uuml;hrenden Wissenschaftler auf diesem Gebiet &mdash; mit erheblicher Wahrscheinlichkeit zur Ausl&ouml;schung aller Menschen auf diesem Planeten f&uuml;hren k&ouml;nnte? Die Antwort ist: niemand. Sie haben es sich genommen, weil niemand sie aufh&auml;lt.<\/p><p>Und das Narrativ, mit dem sie sich absichern, ist so alt wie Konzernmacht selbst: Es sei unvermeidlich. Es sei ein Wettrennen, das man nicht stoppen k&ouml;nne. Wer bremse, verliere. Krueger nannte das die &bdquo;Mythologie der Unvermeidlichkeit&rdquo; &ndash; das gef&auml;hrlichste rhetorische Instrument in dieser Debatte. Denn wenn etwas als unvermeidlich gilt, entf&auml;llt jede politische Verantwortung.<\/p><p>Die chinesischen Wissenschaftler auf dem Podium, Zhang Yi und Xue Lan, machten deutlich, was die einzig vern&uuml;nftige Antwort w&auml;re: internationale Kooperation, beginnend zwischen den USA und China, ausgeweitet auf alle Nationen. Xue Lan betonte, KI-Sicherheit sei kein nationaler Vorteil, den man sich sichern kann &ndash; sie ist ein globales &ouml;ffentliches Gut, das nur gemeinsam zu erreichen ist. Zhang Yi verwies auf die Notwendigkeit einer Governance-Architektur vergleichbar mit den Atomwaffenvertr&auml;gen der Nachkriegszeit.<\/p><p>Sanders zog dieselbe Parallele: Auch Reagan und Gorbatschow misstrauten einander zutiefst. Aber sie verstanden, dass ein Atomkrieg keine Gewinner kennt &ndash; und daraus entstand der Impuls zur R&uuml;stungskontrolle. Eine au&szlig;er Kontrolle geratene Superintelligenz, die alle Menschen t&ouml;tet, ist kein amerikanischer Sieg &uuml;ber China. Sie ist eine Niederlage f&uuml;r die gesamte Menschheit. Das schafft, so Tegmark, eine gemeinsame Grundlage &ndash; wenn die Regierungen erst einmal begreifen, worum es wirklich geht.<\/p><p>Tegmark f&uuml;gte hinzu, was konkret zu tun w&auml;re: KI-Unternehmen m&uuml;ssten wie alle anderen Unternehmen behandelt werden. Wer ein Medikament auf den Markt bringt, muss dessen Sicherheit nachweisen. Wer eine KI entwickelt, die die Menschheit ausl&ouml;schen k&ouml;nnte, darf sie heute einfach ver&ouml;ffentlichen &ndash; ohne irgendeine Beh&ouml;rde zu fragen. Das, so Tegmark trocken, sei die einzige Branche, die weniger reguliert ist als ein Imbiss.<\/p><p><strong>Warum dieser Abend wichtig ist<\/strong><\/p><p>Sanders hat in dieser Diskussion etwas getan, das in der westlichen Politik selten geworden ist: Er hat eine unbequeme Wahrheit ausgesprochen, die ihm pers&ouml;nlich nichts n&uuml;tzt. Und er hat daf&uuml;r renommierte Wissenschaftler zusammengebracht &ndash; aus Washington und aus Peking &ndash;, um gemeinsam vor einem Risiko zu warnen, das keine Nationalit&auml;t kennt.<\/p><p>Sanders k&ouml;nnte es gelingen, gro&szlig;e Teile des linken Spektrums f&uuml;r die existenzielle Gefahr der Superintelligenz zu sensibilisieren &ndash; und das w&auml;re ein echter Fortschritt. Aber hier ist Vorsicht geboten. Eine der bittersten Lektionen der Klimaschutzbewegung ist, dass ein lebensnotwendiges Thema politisch vereinnahmt werden kann &ndash; und dann zur Parteisache wird statt zur Menschheitssache. Dasselbe droht beim Widerstand gegen den unkontrollierten Bau einer Superintelligenz. Die entstehende Bewegung muss ernsthaft versuchen, Menschen aller politischen Lager zu erreichen &ndash; Konservative, Liberale und die Mitte. Das &Uuml;berleben unserer Spezies ist keine linke Forderung. Es ist die Grundbedingung f&uuml;r alles andere.<\/p><p>Wer Sanders&rsquo; Analyse der Konzernmacht vertraut, wer versteht, wie eine kleine Klasse von Superreichen politische Entscheidungen kauft und gesellschaftliche Risiken externalisiert, der sollte diese Diskussion als das lesen, was sie ist: dasselbe Muster, nur mit existenziellem Einsatz. Diesmal geht es nicht um Lohndr&uuml;ckerei oder Steuervermeidung. Es geht ums &Uuml;berleben der Menschheit.<\/p><p><small>Titelbild: Screenshot \/ The Existential Threat of AI and the Need for International Cooperation<\/small><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Bernie Sanders hat eine Podiumsdiskussion mit f&uuml;hrenden KI-Wissenschaftlern aus den USA und China moderiert &ndash; und die Botschaft war unmissverst&auml;ndlich: Der Wettlauf zur Superintelligenz k&ouml;nnte die Menschheit ausl&ouml;schen. Und eine Handvoll Tech-Milliard&auml;re treibt ihn voran. Von <strong>Michael Holmes<\/strong>.<\/p>\n","protected":false},"author":11,"featured_media":150005,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"spay_email":"","footnotes":""},"categories":[1],"tags":[],"class_list":["post-150004","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-das-kritische-tagebuch"],"jetpack_featured_media_url":"https:\/\/www.nachdenkseiten.de\/wp-content\/uploads\/2026\/05\/260505-Superintelligenz.jpg","_links":{"self":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts\/150004","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/users\/11"}],"replies":[{"embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=150004"}],"version-history":[{"count":3,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts\/150004\/revisions"}],"predecessor-version":[{"id":150008,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts\/150004\/revisions\/150008"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/media\/150005"}],"wp:attachment":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=150004"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=150004"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=150004"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}