Computergestützte Frühwarn- und Entscheidungssysteme für nukleare Bedrohungen
06.10.2023 , Ostasien

Computergestützte Frühwarn- und Entscheidungssysteme dienen der Erkennung eines Angriffs mit Atomwaffen. Hierbei kann es aber zu Fehlalarmen kommen, bei denen nukleare Angriffe gemeldet werden, obwohl kein Angriff vorliegt. Solche Fehler könnten zu einem Atomkrieg aus Versehen führen. Immer kürzere Vorwarnzeiten erfordern den Einsatz von Techniken der KI. Da die verfügbaren Daten unsicher und unvollständig sind, können auch KI-Systeme nicht zuverlässig entscheiden.


Seit dem Krieg in der Ukraine ist auch das Risiko eines möglichen Atomkriegs in der Diskussion. Auch vor Ausbruch dieses Krieges wurde schon von verschiedenen Initiativen vor Kriegsrisiken und dem Atomkriegsrisiko gewarnt, unter anderem auch vor einem Atomkrieg aus Versehen. Dieses Risiko ist in Krieg- und Krisenzeiten höher und wird auch unabhängig vom Ukraine-Krieg in den nächsten Jahren und Jahrzehnten steigen.
Auch wenn die nukleare Abschreckung einen bewussten Atomwaffeneinsatz bisher verhindert hat, gibt es keine Garantie, dass dies immer so bleibt. Die nukleare Abschreckungsstrategie beinhaltet auch den Betrieb von Computergestützten Frühwarn- und Entscheidungssystemen zur Erkennung eines Angriffs mit Atomwaffen. Hierbei kann es aber zu Fehlalarmen kommen, bei denen nukleare Angriffe gemeldet werden, obwohl kein Angriff vorliegt. Solche Fehlalarme sind besonders gefährlich im Falle von internationalen Krisen. In der Vergangenheit gab es einige Situationen, in denen es nur durch großes Glück nicht zu einem Atomkrieg aus Versehen kam. Die Abschreckungsstrategie schützt also nicht vor einem „Atomkrieg aus Versehen“.
Das Wissen um die gravierenden Auswirkungen eines Atomkriegs bildet auch in Krisen- und Kriegszeiten eine große Hemmschwelle für den Einsatz von Atomwaffen. Dennoch sind verschiedene Szenarien denkbar, in denen es zu einem Einsatz kommen kann:
1. Bewusster Einsatz von Atomwaffen: Eine Seite setzt Atomwaffen ein, um einen Vorteil zu erzielen, ein bestimmtes Ziel zu erreichen oder Vergeltung zu üben.
2. Atomkrieg aus Versehen: Aufgrund eines Fehlalarms in einem Frühwarnsystem für nukleare Bedrohungen kommt es durch Fehleinschätzungen zu einem Atomkrieg.
3. Kombination von bewusstem und versehentlichem Atomkrieg: Ein Fehlalarm in einem Frühwarnsystem könnte als Anlass für einen nuklearen Angriff gewählt werden, wenn ein solcher ohnehin schon in Erwägung gezogen wurde. Die Aspekte 1 und 2 könnten sich entscheidend verstärken.
Es ist zu erwarten, dass das Risiko eines Atomkriegs in den nächsten Jahren und Jahrzehnten stark steigen wird. Der Klimawandel wird zu mehr Krisen führen und neue technische Entwicklungen werden die Komplexität von Frühwarnsystemen und Bedrohungssituationen so stark erhöhen, dass die Beherrschbarkeit solcher Systeme immer schwieriger wird.
In den letzten Jahren hat ein neues Wettrüsten in verschiedenen militärischen Dimensionen begonnen. Die meisten dieser Entwicklungen sind noch am Anfang und die Folgen kaum kalkulierbar. Dies gilt für neue Trägersysteme von Atomwaffen, wie etwa die Hyperschallraketen, die geplante Bewaffnung des Weltraums, den Ausbau von Cyberkriegskapazitäten und die zunehmende Anwendung von Systemen der Künstlichen Intelligenz bis hin zu autonomen Waffensystemen. Alle diese Aspekte haben auch Wechselwirkungen mit Frühwarnsystemen zur Erkennung von Angriffen mit Atomraketen und werden die Komplexität dieser Systeme deutlich erhöhen.
Die Weiterentwicklung von Waffensystemen mit höherer Treffsicherheit und immer kürzeren Vorwarnzeiten (Hyperschallraketen) wird zunehmend Techniken der Künstlichen Intelligenz (KI) erforderlich machen, um für gewisse Teilaufgaben Entscheidungen automatisch zu treffen. Besonders gefährlich könnten navigierbare Marschflugkörper sein, die nur schwer erkennbar sind, aber eventuell eine große Reichweite haben, z.B. mit einem Nuklearantrieb. Es gibt im Zusammenhang mit Frühwarnsystemen bereits Forderungen, autonome KI-Systeme zu entwickeln, die vollautomatisch eine Alarmmeldung bewerten und gegebenenfalls einen Gegenschlag auslösen, da für menschliche Entscheidungen keine Zeit mehr bleibt. Die für eine Entscheidung verfügbaren Daten sind in der Regel jedoch vage, unsicher und unvollständig. Deshalb können auch KI-Systeme in solchen Situationen nicht zuverlässig entscheiden. In der kurzen verfügbaren Zeit wird es kaum möglich sein, Entscheidungen der Maschine zu überprüfen. Dem Menschen bleibt nur zu glauben, was die Maschine liefert. Aufgrund der unsicheren und unvollständigen Datengrundlage werden weder Menschen noch Maschinen in der Lage sein, Alarmmeldungen zuverlässig zu bewerten. Solche Unsicherheiten können auch bei normalen Waffensystemen relevant sein, allerdings sind die Auswirkungen in der Regel begrenzt, während es im Falle eines Atomkriegs um das Überleben der gesamten Menschheit gehen kann.
Unkalkulierbar sind auch potenzielle Cyberangriffe, wobei Komponenten oder Daten eines Frühwarnsystems manipuliert werden könnten, was auf vielfältige Art möglich sein kann.
Verschiedene Maßnahmen könnten die Risiken eines Atomkriegs aus Versehen reduzieren. Dazu gehören:
• Verbesserung von Vertrauen, Kommunikation und Zusammenarbeit zwischen Atommächten
• Vereinbarungen zur Reduzierung von Atomwaffen und zum Alarmmodus von Atomwaffen
• Verbesserung des Informationsaustauschs in Zusammenhang mit Frühwarnsystemen
• Keine automatischen Entscheidungen zum Einsatz von Atomwaffen

Promotion 1986 in einem Bereich der KI an der Uni Kaiserslautern, Industrietätigkeiten bei AEG und IBM, Prof. für Wissensbasierte Systeme von 1990 bis 2017 an der Hochschule Trier, Fachbereich Informatik, Forschungsprojekte zur Dokumentanalyse, auch mit Unternehmensgründungen. Initiator der Seiten "Atomkrieg aus Versehen".

Jörg Siekmann, geb. 1941, war von 1991 bis 2006 Professor für Informatik und Künstliche Intelligenz (KI) an der Universität des Saarlandes und ist seitdem dort Seniorprofessor. Er promovierte 1976 in Artificial Intelligence an der University of Essex und wurde 1983 erster deutscher KI-Professur an der TU Kaiserslautern. Er war Gründer der KI-Fachgruppe in der Deutschen Gesellschaft für Informatik (GI) und Sprecher eines Sonderforschungsbereichs. Von 1991 bis 2006 war er Direktor des von ihm mitgegründeten DFKI. Er wurde 2019 von der GI zu einem der zehn einflussreichsten KI-Forscher gewählt.