Sipri: Künstliche Intelligenz erhöht nukleare Kriegsrisiken

KI und Militär: „Die menschliche Kontrolle ist entscheidend“
10.07.2025
Von: Thomas Borchert
Forscher Jules Palayer über die nicht wenigen Nachteile militärischer künstlicher Intelligenz – und ihre unerwarteten Vorteile. Ein Interview.
Das Stockholmer Friedensforschungsinstitut Sipri warnt in seinem neuen Jahrbuch vor einem Wettrüsten der neun Atommächte durch Modernisierung ihrer Arsenale. Dazu gehöre auch ein „höheres Risiko für nukleare Konflikte“ durch den Einsatz von künstlicher Intelligenz (KI): Sie verkürze unter anderem den Zeitraum bis zur nicht umkehrbaren Entscheidung markant. Im FR-Interview gibt der Sipri-Experte Jules Palayer Auskunft über weitere Risiken.
Herr Palayer, was ist das größte Risiko durch militärische KI, wenn sie für den Einsatz von Atomwaffen verwendet wird?
Wenn es um KI und Atomwaffen geht, hat man sie typischerweise in der nuklearen Kommando- und Kontrollstruktur, also in all den Systemen, die vor dem möglichen Einsatz einer Atomwaffe verwendet werden. Die Aufrechterhaltung der menschlichen Kontrolle über alle Prozesse, die mit dem Einsatz von Gewalt verbunden sind, ist das Wichtigste. Dies kann Atomwaffen am äußersten Ende des Spektrums betreffen, aber auch früher bei der Eskalation eines Konflikts zu einem Krieg oder einer Krise. Wenn wir auf die Geschichte zurückblicken, gibt es viele Momente, in denen es das menschliche Urteil und nicht ein System oder eine Technologie war, die einen Krieg oder eine Katastrophe verhinderte. In Wirklichkeit kann keine Maschine die moralischen und strategischen Implikationen, auch nicht beim Einsatz von Atomwaffen, verstehen. Kontrolle bedeutet nicht nur, ein System zu überwachen: Es geht nicht nur darum, einen Menschen einen Entscheidungsstempel für eine Maschinenentscheidung setzen zu lassen. Es geht um Dinge wie die Kontrolle über das Systemdesign und darüber, wie der Mensch mit diesem System interagiert. Das schließt auch ein, sicherzustellen, dass Menschen die Fähigkeit haben, Eingriffe vorzunehmen, Entscheidungen zu überschreiben, zu verstehen und KI-Entscheidungen zu bewerten.
Zur Person
Jules Palayer arbeitet am Stockholmer Friedensforschungsinstitut (Sipri) zu dem Einfluss von künstlicher Intelligenz (KI) vor allem auf das Gebaren von Regierungsinstitutionen. Er hat in London studiert und in Leiden gelehrt. FR (Sipri)
Kann nicht KI mit der riesigen Menge an Daten, die gesammelt und verarbeitet werden, auch die Chance erhöhen, nukleare Angriffe zu verhindern, weil deren Gefahren schneller und früher erkannt werden?
Absolut. Wie alle Technologien bringt militärische KI sowohl Vorteile als auch technische Einschränkungen mit sich. Es ist manchmal eine sehr fragile Technologie, die zu unerwarteten Ergebnissen in sehr einfachen Situationen führt. Der Einsatz von militärischer KI kann zu dem führen, was als Automatisierungs-Bias beim Operateur bezeichnet wird. Das bedeutet im Wesentlichen, dass man den Ergebnissen vertraut und aufhört, zu hinterfragen, ob die Ausgabe legitim ist oder nicht. Für eine Eskalation wichtig sein könnte außerdem, dass diese Systeme anfällig für Cyberangriffe sind. KI wird auch zunehmend in sogenannten Entscheidungshilfesystemen eingesetzt. In diesen Systemen kann es zu Fehlern kommen. Im Alltag helfen sie uns dabei, den besten Podcast auszuwählen, den besten Film zu finden und so weiter. Sie schlagen zum Beispiel die beste Reiseroute basierend auf Verkehrsstörungen vor. Wir sind mit diesen Systemen vertraut, und wir kennen auch die Fehler dieser Systeme. Jeder weiß, dass Google Maps manchmal versagt und nicht die besten Routen vorschlägt.
Gibt es Erkenntnisse, dass KI aggressivere militärische Entscheidungen empfiehlt oder trifft als Menschen?
Eine Studie hat untersucht, wie große Sprachmodelle in Eskalationsszenarien reagieren, und festgestellt, dass sie dazu tendieren, eskalierende Ergebnisse zu nutzen. Das ist etwas, das weiter erforscht werden muss. Was wir andererseits mit Sicherheit wissen, wenn es um militärische KI und Atomwaffen geht, und das ist eine wichtige Sache, ist, dass die neun Staaten, die Atomwaffen besitzen – die USA, Russland, China, Indien, Pakistan, Nordkorea, Israel, Großbritannien und Frankreich – anscheinend nicht die Entscheidung, Atomwaffen einzusetzen, an ein KI-System delegieren wollen.
Kann man diesen Zusicherungen vertrauen?
Das erste, was man sagen muss: Rüstungskontrolle ist heutzutage nicht mehr in Mode, und wir haben viele Beispiele dafür. Strategische Abrüstungsabkommen zwischen den USA und Russland laufen ab, und es gibt wenig Hoffnung, dass sie erneuert werden. Wir hören auch immer mehr aggressive Rhetorik rund um den Einsatz von Atomwaffen. Zum Beispiel in der Indien-Pakistan-Krise im Mai letzten Jahres, in der Operation Spiderweb, bei der die Ukraine russische strategische Bomber tief in Russland ins Visier nahm, und sogar bei den jüngsten Angriffen auf iranische Atomanlagen. Sie zeigen, dass es viele Krisenmomente gibt, in denen Fehleinschätzungen, Missverständnisse oder technische Fehler katastrophal sein könnten.
Was könnte getan werden, um ein Wettrüsten um die mächtigste militärische KI für den Einsatz von Atomwaffen zu verhindern?
Wichtig ist, wie wir tatsächlich die menschliche Kontrolle definieren, was die roten Linien sind. Da gibt es noch viel Arbeit zu tun. Aber auch wenn Rüstungskontrolle momentan nicht „in“ ist, laufen dennoch Gespräche zu diesem Thema. Darauf müssen wir aufbauen. Staaten müssen ein gegenseitiges Verständnis für diese Fragen entwickeln, um eine Eskalation zu verhindern.