Kognitive Assemblagen im gläsernen Gefechtsfeld
06.10, 16:15–16:45 (Europe/Berlin), Ostasien

Die Bundesregierung steht derzeit in einer militärischen Praxis des gläsernen Gefechtsfelds, das von allen Parteien in der Ukraine bedient wird. Ein Feld, welches das klassische Dreigespann, zu Land, zu Wasser und in der Luft, in den Welt- und Cyberraum erweitert und neue Technologien in den Militärapparat implementieren lässt. Dies bringt erhebliche gesellschaftliche Konsequenzen mit sich, wodurch Fragen zum militärischen Einsatz Künstlicher Intelligenzen präzise reformuliert werden müssen.


Was noch vor dem russischen Angriffskrieg gegen die Ukraine in fast allen Ämtern der Bundeswehr lediglich in Forschungs- und Experimentalsystemen für Multi Domain Operationen getestet wurde, wird nun rasch in die Praxis umgesetzt. Diese ist ohne (halb-)autonome, kognitive Systeme nicht realisierbar. Sie räumt menschlichen Akteuren und nicht-menschlichen Artefakten eine gänzlich neue aktive politische Handlungskraft ein, wie bspw. Betreiber:innen von Cloudplattformen, Rechenzentren und Satellitenanlagen, kriegspropagandistischen Influencer:innen oder neuen digitalen Führungssystemen (Multi domain battlespace management Systems) um sich zu jederzeit ein präzises Lagebild feindlicher Stellungen im Hier und Jetzt zu verschaffen. Auch um sich ein mögliches Szenario in der Zukunft generieren zu können und Präemptivschläge einzuleiten. Denn Einsatzschnelligkeit bedeutet in Multi Domain Operationen, nicht nur möglichst schnell, sondern seiner Zeit voraus zu handeln. Diese Zeiteinheit jedoch, die ist nicht für den Menschen gemacht, sondern zur möglichst fehlerfreien Funktionstüchtigkeit technischer Systeme. So auch die Interpretation anfallender Datenströme, die im gläsernen Gefechtsfeld in Echtzeit in militärische technische Handlungen überführt werden müssen. Auch diese sind nicht für den Menschen gemacht und er wird diese undenkbare Masse an Daten nicht alleinig bewältigen können, sei er noch so gut ausgebildet. Hierfür braucht es technische kognitive Systeme der State-of-the-Art und ein ausgefeiltes Man Machine Teaming.
Die jüngste Generation von digitalen Führungssystemen hierfür ist gerade auf dem Markt erschienen. Mit der Artificial Intelligence Platform (AIP) des US-amerikanischen Datenanalyse-Unternehmens Palantir werden vortrainierte Sprachmodelle mit neuronalen Einbettungen für militärische Operationen nutzbar gemacht. Das System soll in naher Zukunft Einsätze unterstützen, indem es feindliche Stellungen erkennt und durch eine Chatfunktion á la ChatGPT Gegenmaßnahmen vorschlägt und ggf. autonom ausführt, wie z.B. das Starten einer Aufklärungsdrohne ins Zielgebiet. Doch nicht nur das Interface erinnert an den besagten Chatbot, auch das maschinelle Lernverfahren ist ein ähnliches wie bei OpenAI's Künstlicher Intelligenz hinter ChatGPT. Das Sprachmodell GPT (Generative Pretrained Transformer). Ein Large Language Model, dessen 175 Milliarden Parameter auf Clouds trainiert werden, die über viele Rechenzentren verteilt sind und dessen Entwicklung derzeit auf physische und auch ökologisch tragbare Grenzen stößt. Der Stromverbrauch entspricht dem von 3000 europäischen Durchschnittshaushalten, eine Frage an ChatGPT benötigt 1000 Mal mehr Strom als eine Suchanfrage bei Google und für jede Antwort die man von dem Bot erhält, könnte man ein Smartphone bis zu 60-mal aufladen.
Neben der natürlichen Begrenztheit dieser ganz speziellen Art kognitiver Systeme, bringen diese in ihrer Pragmatik aber zugleich auch eine scheinbare Grenzenlosigkeit zu Tage. Eine, die in ihrem Lern-Vermögen liegt und bis hin zur Entgrenzung unseres Denkens führt. Denn sie können „sowohl lernen, dass die Erde flach ist, als auch rund“, so Noam Chomsky kürzlich in einem Essay in den New York Times. Sie können auch lernen, dass seit über einem Jahr ein von Russland geführter Angriffskrieg gegen die ukrainische Bevölkerung herrscht. Im nächsten Moment können sie dies jedoch auch wieder verlernen, egal ob es der Wirklichkeit entspricht oder nicht. Was diese technischen kognitiven Systeme eben nicht können, ist ihre innere Grenzenlosigkeit durch ethische Prinzipien einzuschränken, das was wir als „moralisches Denken“ bezeichnen. Sie sind, während sie prozessieren getrennt von der Außenwelt. In ihren inneren Entscheidungsfunktionen liegen keine Modellierungen von dem, was Worte, was Dinge, was Taten und Ereignisse für uns in der Welt bedeuten. Dennoch werden sie über Leben und Tod von Soldatinnen und Soldaten, von Jugendlichen, von Großeltern, von Eltern und ihren Kindern algorithmisch mitentscheiden.
Eine klare Trennung von menschlicher und technischer kognitiver Leistung in Multi Domain Operationen ist demnach unvermeidbar für die Gewährleistung, dass die letzte Entscheidung beim Menschen liegt. Denn das ist nicht nur gesetzlich so verankert, sondern muss auch im Interesse aller Beteiligten liegen. Nicht nur in Kampfhandlungen. Auch im Zivilen. In den seltensten Fällen ist solch eine Trennung jedoch präzise setzbar.

Christian Heck ist künstlerisch-wissenschaftlicher Mitarbeiter für Ästhetik und neue Technologien / Experimentelle Informatik und Doktorand an der Kunsthochschule für Medien Köln. Seine Forschungs- und Arbeitsschwerpunkte liegen auf Algorithmenkritik und Ethik der Künstlichen Intelligenz mit Fokus auf Generative Systeme, ADM, IT-Sicherheitstechnologien, Kampfdrohnen und autonomen Waffensystemen.