{"id":146464,"date":"2026-02-18T16:28:52","date_gmt":"2026-02-18T15:28:52","guid":{"rendered":"https:\/\/www.nachdenkseiten.de\/?p=146464"},"modified":"2026-02-19T18:04:53","modified_gmt":"2026-02-19T17:04:53","slug":"das-rennen-um-superintelligenz-bedroht-die-menschheit-ein-interview-mit-holly-elmore-direktorin-von-pause-ai-usa","status":"publish","type":"post","link":"https:\/\/www.nachdenkseiten.de\/?p=146464","title":{"rendered":"Das Rennen um Superintelligenz bedroht die Menschheit \u2013 ein Interview mit Holly Elmore, Direktorin von Pause AI USA"},"content":{"rendered":"<p><strong>Holly Elmore<\/strong>, Gr&uuml;nderin und Direktorin von <a href=\"https:\/\/www.pauseai-us.org\/\">Pause AI US<\/a>, geh&ouml;rt zu den profiliertesten Stimmen einer wachsenden internationalen Bewegung, die vor einem unkontrollierten Wettlauf um k&uuml;nstliche Superintelligenz warnt. Ihre Intervention kommt zu einem Zeitpunkt, in dem Regierungen und Konzerne zwischen Washington und Peking die K&uuml;nstliche Intelligenz (KI) zur geopolitischen Schl&uuml;sseltechnologie erkl&auml;ren &ndash; und dabei Sicherheitsfragen systematisch nachrangig behandeln. Das Gespr&auml;ch f&uuml;hrte <strong>Michael Holmes<\/strong>.<\/p><p><em>Dieser Beitrag ist auch als Audio-Podcast verf&uuml;gbar.<\/em><br>\n<!--more--><br>\n<\/p><div class=\"powerpress_player\" id=\"powerpress_player_4053\"><!--[if lt IE 9]><script>document.createElement('audio');<\/script><![endif]-->\n<audio class=\"wp-audio-shortcode\" id=\"audio-146464-1\" preload=\"none\" style=\"width: 100%;\" controls=\"controls\"><source type=\"audio\/mpeg\" src=\"https:\/\/www.nachdenkseiten.de\/upload\/podcast\/260212-Holly-Elmore-Holmes-Interview-NDS.mp3?_=1\"><\/source><a href=\"https:\/\/www.nachdenkseiten.de\/upload\/podcast\/260212-Holly-Elmore-Holmes-Interview-NDS.mp3\">https:\/\/www.nachdenkseiten.de\/upload\/podcast\/260212-Holly-Elmore-Holmes-Interview-NDS.mp3<\/a><\/audio><\/div><p class=\"powerpress_links powerpress_links_mp3\">Podcast: <a href=\"https:\/\/www.nachdenkseiten.de\/upload\/podcast\/260212-Holly-Elmore-Holmes-Interview-NDS.mp3\" class=\"powerpress_link_pinw\" target=\"_blank\" title=\"Play in new window\" onclick=\"return powerpress_pinw('https:\/\/www.nachdenkseiten.de\/?powerpress_pinw=146464-podcast');\" rel=\"nofollow\">Play in new window<\/a> | <a href=\"https:\/\/www.nachdenkseiten.de\/upload\/podcast\/260212-Holly-Elmore-Holmes-Interview-NDS.mp3\" class=\"powerpress_link_d\" title=\"Download\" rel=\"nofollow\" download=\"260212-Holly-Elmore-Holmes-Interview-NDS.mp3\">Download<\/a><\/p><div class=\"hr_wrap\">\n<hr>\n<\/div><p><div class=\"external-2click\" data-provider=\"Youtube\" data-provider-slug=\"youtube\"><div class=\"external-placeholder\"><p><strong>Externer Inhalt<\/strong><\/p><p>Beim Laden des Videos werden Daten an Youtube &uuml;bertragen.<\/p><button type=\"button\" class=\"external-load\">Inhalt von Youtube zulassen<\/button><\/div><div class=\"external-content\"><iframe loading=\"lazy\" style=\"aspect-ratio: 16 \/ 9\" width=\"100%\" height=\"auto\" src=\"\" frameborder=\"0\" allowfullscreen class=\"external-2click-target \" data-src=\"https:\/\/www.youtube-nocookie.com\/embed\/Ug5xd-w0wU8\"><\/iframe><\/div><div class=\"external-optout\"><a href=\"#\" data-revoke=\"youtube\">Inhalte von Youtube nicht mehr zulassen<\/a><\/div><\/div><\/p><div class=\"hr_wrap\">\n<hr>\n<\/div><p>Elmore argumentiert, dass die Entwicklung einer dem Menschen &uuml;berlegenen Intelligenz kein Science-Fiction-Szenario, sondern ein reales, existenzielles Risiko darstellt. F&uuml;hrende KI-Forscher beziffern die Wahrscheinlichkeit menschlicher Ausl&ouml;schung durch KI mit zweistelligen Prozentwerten. Gleichzeitig sei das sogenannte <em>Alignment<\/em>-Problem &ndash; die Sicherstellung, dass hochintelligente Systeme menschliche Ziele teilen &ndash; bis heute nicht gel&ouml;st. Dennoch beschleunigen Unternehmen die Skalierung immer m&auml;chtigerer Modelle, investieren Milliarden in Leistungsf&auml;higkeit, aber vergleichsweise wenig in Sicherheit.<\/p><p>Hinzu komme die gef&auml;hrliche Logik eines geopolitischen Wettr&uuml;stens: Die Erz&auml;hlung vom KI-Wettbewerb zwischen den USA und China verschleiert, dass eine fehlgeleitete Superintelligenz keine nationalen Grenzen kennt. Wer hier &bdquo;gewinnt&ldquo;, verliert wom&ouml;glich alles.<\/p><p>Elmore pl&auml;diert f&uuml;r eine international koordinierte Pause der fortgeschrittensten KI-Systeme, f&uuml;r v&ouml;lkerrechtlich verbindliche Vertr&auml;ge und eine demokratische Kontrolle, die diesen Namen verdient &ndash; jenseits von Konzerninteressen und geopolitischer Machtlogik. Sie will eine global vernetzte B&uuml;rgerbewegung aufbauen, die den politischen Druck erzeugt, um diese Z&auml;sur durchzusetzen und die Entscheidung &uuml;ber das &Uuml;berleben der Menschheit nicht den Tech-Eliten zu &uuml;berlassen.<\/p><p><em>Es folgt ein <strong>Ausschnitt aus dem Interview<\/strong>:<\/em><\/p><p><em>(Ein vollst&auml;ndiges Transkript auf Deutsch k&ouml;nnen sie <a href=\"https:\/\/www.nachdenkseiten.de\/upload\/pdf\/260218T-ranskript_Holly-Elmore.pdf\">hier herunterladen.<\/a>)<\/em><\/p><p><strong>Michael Holmes: Ihr Hauptziel ist es, das Rennen zur Superintelligenz zu stoppen, weil Sie glauben, es besteht ein hohes Risiko, dass dies zum Aussterben der Menschheit f&uuml;hren wird. Das mag zun&auml;chst wie Science-Fiction klingen. K&ouml;nnen Sie uns &uuml;berzeugen, dass dies eine reale Gefahr ist &ndash; aber auch, dass wir es stoppen k&ouml;nnen?<\/strong><\/p><p><strong>Holly Elmore: <\/strong>Ich h&ouml;rte vom existenziellen Risiko durch KI w&auml;hrend meines Doktorandenstudiums. Die Kultur darum war sehr speziell &ndash; transhumanistisch, techno-utopisch. Ich promovierte in Evolutionsbiologie, und das gab mir die Perspektive, diese Bedrohung ernst zu nehmen. Wenn man die Geschichte des Lebens betrachtet: 99 Prozent aller Arten sind ausgestorben. Intelligenz ist ein Hauptgrund daf&uuml;r. Der Grund, warum es so viele gef&auml;hrdete Arten gibt, sind wir Menschen, und zwar wegen unserer Intelligenz &ndash; nicht weil wir sie t&ouml;ten wollen, sondern weil wir ihren Lebensraum f&uuml;r etwas anderes nutzen. Das ist das Standardergebnis.<\/p><p><strong>B&auml;ren und Haie sind st&auml;rker als wir &ndash; aber wenn wir eine Waffe haben, gewinnen wir trotzdem. Was sagen die f&uuml;hrenden Experten auf diesem Gebiet?<\/strong><\/p><p>Umfragen unter KI-Forschern zeigten: &Uuml;ber 50 Prozent denken, es g&auml;be mindestens eine zehnprozentige Chance auf das Aussterben der Menschheit durch KI. Etwa 30 Prozent hielten es f&uuml;r &uuml;ber 50 Prozent wahrscheinlich. Das sind Menschen, die die Technologie verstehen.<\/p><p>Geoffrey Hinton, einer der Gr&uuml;nderv&auml;ter der KI, verlie&szlig; Google, um freier &uuml;ber KI-Risiken sprechen zu k&ouml;nnen. Yoshua Bengio sprach offen &uuml;ber die Notwendigkeit von Regulierung. Stuart Russell, der das Lehrbuch &uuml;ber KI schrieb, warnt seit Jahren. Und Leute aus den Unternehmen selbst &ndash; Ilya Sutskever bei OpenAI &ndash; hatten Bedenken. Das sind keine Maschinenst&uuml;rmer [Anm. d. Red.: Technikfeinde], sondern Menschen, die ihr Leben dem Aufbau dieser Technologie gewidmet haben.<\/p><p>Das existenzielle Risiko besteht darin, dass wir etwas erschaffen, das intelligenter ist als wir, das unsere Werte nicht teilt und seine eigenen Ziele verfolgt. Das <em>Alignment<\/em>-Problem: Wie stellt man sicher, dass ein superintelligentes System das tut, was man will, nicht nur das, was man ihm w&ouml;rtlich gesagt hat? Computer sind sehr w&ouml;rtlich. Bei etwas, das kl&uuml;ger ist als man selbst, wird es extrem gef&auml;hrlich, wenn es nicht perfekt mit menschlichen Werten &uuml;bereinstimmt. Es k&ouml;nnte Wege finden, seine Ziele zu erreichen, die f&uuml;r uns katastrophal sind.<\/p><p><strong>Wir wissen noch nicht, wie wir das <em>Alignment<\/em>-Problem l&ouml;sen?<\/strong><\/p><p>Genau. Wir rasen vorw&auml;rts, um immer leistungsf&auml;higere Systeme zu bauen, ohne L&ouml;sung f&uuml;r das Alignment-Problem. Wir verstehen nicht einmal die Systeme, die wir jetzt bauen &ndash; riesige neuronale Netzwerke mit Milliarden von Parametern. Dennoch skalieren die Unternehmen sie hoch unter der Annahme, dass wir das Sicherheitszeug sp&auml;ter herausfinden. Es ist, als w&uuml;rde man einen Kernreaktor bauen und sagen: Oh, wir verhindern Kernschmelzen, nachdem wir ihn eingeschaltet haben.<\/p><p><strong>Wie w&uuml;rde eine Pause aussehen?<\/strong><\/p><p>Wir fordern eine Pause bei der Entwicklung von Systemen, die leistungsf&auml;higer sind als GPT-4-Niveau, bis wir angemessene Sicherheitsma&szlig;nahmen haben. Das m&uuml;sste international sein &ndash; durch einen Vertrag, &auml;hnlich wie bei Atomwaffen. W&auml;hrend der Pause sollten wir massiv in Alignment-Forschung investieren, internationale Regelungsrahmen entwickeln, Verifikationsmechanismen schaffen. Dann, wenn wir L&ouml;sungen haben, k&ouml;nnen wir die Entwicklung kontrolliert wieder aufnehmen.<\/p><p><strong>Ist das machbar?<\/strong><\/p><p>Absolut. Wir haben den Atomwaffensperrvertrag, die Biowaffenkonvention, die Chemiewaffenkonvention. L&auml;nder kooperieren bei existenziellen Risiken, wenn sie sie ernst nehmen. Die Anreize passen: Alle profitieren davon, mehr Zeit zu haben.<\/p><p><strong>Hier kommen Wettlaufdynamiken ins Spiel &ndash; das Rennen zwischen den USA und China.<\/strong><\/p><p>Ja, die USA-China-Dynamik: Es gibt diese Erz&auml;hlung, dass KI ein Wettbewerb ist. Aber wenn eines der L&auml;nder eine nicht ausgerichtete Superintelligenz erschafft, ist das kein Gewinn &ndash; es ist ein Verlust f&uuml;r alle. Eine nicht ausgerichtete KI k&uuml;mmert sich nicht um nationale Grenzen. Sie ist ein existenzielles Risiko f&uuml;r die gesamte Spezies. Es ist kein Wettbewerb um ein besseres Kampfflugzeug. Es ist ein Wettbewerb darum, etwas zu bauen, das uns alle zerst&ouml;ren k&ouml;nnte. Kooperation ist die einzig rationale Strategie.<\/p><p>Wenn wir &uuml;ber existenzielle Risiken sprechen, spielt es keine Rolle, ob die KI von einer Demokratie oder einem autorit&auml;ren Staat erschaffen wird. Wenn sie nicht ausgerichtet ist, ist sie gef&auml;hrlich. Eine nicht ausgerichtete KI aus den USA ist genauso eine Bedrohung wie eine aus China. Wir rasen auf ein Ausl&ouml;schungsereignis zu.<\/p><p>Die Menge an Geld f&uuml;r die KI-Entwicklung &ndash; den Bau leistungsf&auml;higerer Systeme &ndash; &uuml;bersteigt bei weitem das Geld f&uuml;r Sicherheitsforschung. Wir rasen auf etwas zu, von dem wir nicht wissen, wie wir es kontrollieren sollen. Wir nehmen an, dass es irgendwie klappen wird. Das ist wahnsinnig.<\/p><p><strong>Welche Regulierung brauchen wir?<\/strong><\/p><p>Mehrere Dinge: Starke inl&auml;ndische Regulierung &ndash; Gesetze f&uuml;r Sicherheitstests, Haftung f&uuml;r Sch&auml;den, Befugnis f&uuml;r Regulierungsbeh&ouml;rden, gef&auml;hrliche Projekte zu stoppen. Internationale Zusammenarbeit &ndash; Vertr&auml;ge, internationale Gremien, Verifikationsmechanismen. Und die &Ouml;ffentlichkeit muss eine Stimme haben. Im Moment entscheiden CEOs und Aufsichtsr&auml;te. Diese Entscheidungen betreffen alle &ndash; also sollten alle ein Mitspracherecht haben. Wir brauchen demokratische Aufsicht, &ouml;ffentlichen Input, Transparenz.<\/p><p><strong>Menschen f&uuml;hlen sich oft machtlos. Was k&ouml;nnen sie tun?<\/strong><\/p><p>Menschen untersch&auml;tzen ihre Macht. Bei diesem Thema ist die &Ouml;ffentlichkeit auf unserer Seite &ndash; Umfragen zeigen, dass die meisten Menschen vorsichtigere Entwicklung, mehr Regulierung wollen. Wir versuchen, Menschen zu aktivieren, die bereits mit uns &uuml;bereinstimmen. Was kann eine Person tun? Mit Freunden sprechen. An Vertreter schreiben. Pause AI beitreten. Protestieren. Spenden. Das Bewusstsein sch&auml;rfen. Wenn Sie all diese individuellen Aktionen zusammenz&auml;hlen, baut man eine Bewegung auf, schafft politischen Druck, &auml;ndert die Diskussion und die Politik.<\/p><p>Wir opfern langfristiges &Uuml;berleben f&uuml;r kurzfristige Gewinne.<\/p><p><strong>Ihre Vision f&uuml;r eine positive Zukunft?<\/strong><\/p><p>Wir pausieren die fortschrittlichsten Systeme. Wir l&ouml;sen das Alignment-Problem, bauen robuste Regelungsrahmen. Dann k&ouml;nnen wir die Entwicklung kontrolliert wieder aufnehmen. In dieser Zukunft bekommen wir die Vorteile &ndash; KI, die hilft, Krankheiten zu heilen, den Klimawandel zu l&ouml;sen, das Leben besser zu machen. Ohne das existenzielle Risiko, weil wir uns die Zeit genommen haben, es richtig zu machen. Die meisten Menschen wollen nicht auf Ausl&ouml;schung zurasen. Sie wollen sicher sein. Wenn wir das mobilisieren, k&ouml;nnen wir den Kurs &auml;ndern.<\/p><p><strong>Holly Elmore, ich danke Ihnen vielmals.<\/strong><\/p><p>Ich danke Ihnen.<\/p><p><em>&Uuml;bersetzung aus dem englischen Original von <strong>Michael Holmes<\/strong>.<\/em><\/p><p><small>Titelbild: NachDenkSeiten<\/small><\/p>\n","protected":false},"excerpt":{"rendered":"<p><strong>Holly Elmore<\/strong>, Gr&uuml;nderin und Direktorin von <a href=\"https:\/\/www.pauseai-us.org\/\">Pause AI US<\/a>, geh&ouml;rt zu den profiliertesten Stimmen einer wachsenden internationalen Bewegung, die vor einem unkontrollierten Wettlauf um k&uuml;nstliche Superintelligenz warnt. Ihre Intervention kommt zu einem Zeitpunkt, in dem Regierungen und Konzerne zwischen Washington und Peking die K&uuml;nstliche Intelligenz (KI) zur geopolitischen Schl&uuml;sseltechnologie erkl&auml;ren &ndash; und dabei Sicherheitsfragen<\/p>\n<div class=\"readMore\"><a class=\"moretag\" href=\"https:\/\/www.nachdenkseiten.de\/?p=146464\">Weiterlesen<\/a><\/div>\n","protected":false},"author":11,"featured_media":146468,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"spay_email":"","footnotes":""},"categories":[107,209,161],"tags":[379,1805,1006,1556,1386],"class_list":["post-146464","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-audio-podcast","category-interviews","category-wertedebatte","tag-china","tag-kuenstliche-intelligenz","tag-regulierung","tag-usa","tag-wissenschaftlich-technischer-fortschritt"],"jetpack_featured_media_url":"https:\/\/www.nachdenkseiten.de\/wp-content\/uploads\/2026\/02\/260212-Holly-Elmore-Holmes-Titelbild-NDS.jpg","_links":{"self":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts\/146464","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/users\/11"}],"replies":[{"embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=146464"}],"version-history":[{"count":5,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts\/146464\/revisions"}],"predecessor-version":[{"id":146530,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts\/146464\/revisions\/146530"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/media\/146468"}],"wp:attachment":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=146464"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=146464"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=146464"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}