Friedensinformatik: heute und morgen
07.10, 10:00–10:30 (Europe/Berlin), Ostasien

Die Rolle der Informatik in der Friedens- und Konfliktforschung hat sich durch die Digitalisierung der Gesellschaft gewandelt. Wie beeinflussen die Artefakte der Informatik Kriege und Konflikte? Welche Fragen bewegen die Friedensinformatik aktuell und in Zukunft? Auf diese Fragen möchte der Beitrag eingehen und einen Einblick in unterschiedliche Forschungsfragen geben.


Einleitung
Die Rolle der Informatik in der Friedens- und Konfliktforschung hat sich durch die Digitalisierung der Gesellschaft gewandelt. Als Teil der naturwissenschaftlich-technischen Friedens- und Konfliktforschung hat sich die Friedensinformatik herausgebildet. Diese beschäftigt sich mit der Rolle informationstechnischer Artefakte in Konflikten und Kriegen sowie mit der Gestaltung von informationstechnischen Systemen, welche zur Gewaltvermeidung oder friedlichen Transformation von Konflikten beitragen können. Dazu gehören Fragen zu Cyber-Rüstungskontrolle, Dual-use, künstlicher Intelligenz (KI) und autonomen Systemen. Es werden interdisziplinär Konzepte und Methoden aus der Informatik und den Sozialwissenschaften zusammengeführt, wie der Mensch-Computer-Interaktion, IT-Sicherheit, KI-Forschung, Technikfolgenabschätzung und Politikwissenschaft. Dieser Beitrag möchte einen Einblick in ausgewählte aktuelle Arbeitsthemen und Bereiche der Friedensinformatik geben.

Arbeitsbereiche
Mit Blick auf die Militarisierung des Cyberspace und die damit verbundenen Gefahren und Bedrohungen ergeben sich vielfältige Herausforderungen, wie das Attributionsproblem, die Virtualität des Cyberspace oder die fehlende physische Form von Sicherheitslücken und Schadsoftware. Daher versagen vielfach etablierte Konzepte der Rüstungskontrolle für den Cyberspace und neue Ansätze, die den technischen Besonderheiten dieses Raumes Rechnung tragen, sind dringend von Nöten. Die Friedensinformatik kann hier wertvolle Beiträge leisten. So etwa bei der Frage danach, wie sich Cyberwaffen bewerten lassen. Aber auch anhand welcher technischen mess- und erfassbaren Parameter eine Schadsoftware vor deren Einsatz und unabhängig von mutmaßlichen Absichten klassifiziert und reguliert werden kann.

Die Entwicklungen und mögliche Regulierungen rund um letale (teil)autonome Waffensysteme (LAWS) werden seit einigen Jahren innerhalb der UN CCW im Rahmen einer Group of Governmental Experts (GGE) zwischen Mitgliedsstaaten, Zivilgesellschaft und Fachexpert*innen diskutiert. Das Element der menschlichen Kontrolle, Fragen im Kontext der Mensch-Maschine-Interaktion sowie die human security rücken dabei immer mehr in den Vordergrund. So weist die internationale NGO-Kampagne Campaign to Stop Killer Robots auf die Bedeutung intersektionaler Ansätze hin und verdeutlicht bspw., in welchem Ausmaß Gender- und Race-Bias in der Konzeption, Technologie und Anwendung von LAWS in der Kriegsführung vorhanden sind. Auf dieser Basis skizziert sie zukünftige Herausforderungen für die Einordnung dieser Waffensysteme.

Diese Einordnung von autonomen Systemen wird durch ihre Dual-use-Eigenschaften erschwert. Dual-use ist die Möglichkeit, eine Technologie als Teil einer Waffe oder eines Waffensystems einzusetzen. Die Herausforderungen für die Forschung ergeben sich hierbei durch die Kombination von konventionellen mit automatisierten oder autonomen Trägersystemen, aber auch durch völlig neuartige Systeme zum Mensch-Maschine-Teaming und zur Unterstützung von Menschen, z. B. durch autonome Systeme wie Drohnen, Roboterhunde oder auch Exoskelette. Die Technikfolgenabschätzung solcher Technologien, z. B. im Hinblick auf die Einhaltung des Humanitären Völkerrechts, die Verbreitungskontrolle und die effektive Rüstungskontrolle, bringt Herausforderungen mit sich.

Jüngste Forschung und Entwicklung im Bereich der KI wird gesellschaftlich breit, auch im Hinblick auf Herausforderungen, diskutiert. Beispiele wie der Konversationsbot ChatGPT, predictive maintenance in der Logistik oder militärische KI verweisen darauf, dass Schlüsseltechnologien Anwendung in verschiedenen Kontexten finden und gesellschaftlich transformativ wirken können. In Bezug auf internationale Sicherheit zeigt sich zudem der Trend der Geopolitisierung von Innovationen, welcher die Förderung von Technologien für nationale und machtpolitische Zwecke umfasst. Staatliche Akteure prägen durch Regulierung Innovationsprozesse entscheidend. Es lohnt daher eine Analyse ihrer Innovationspolitiken und damit verknüpften Visionen von Technologien sowie der Mensch-KI-Beziehung.

Ausblick auf zukünftige Fragen der Friedensinformatik
Der Einsatz von Informatik-Artefakten in Kriegen und Konflikten wird zunehmen. Daher wird auch die Friedensinformatik in Zukunft u. a. Fragen zur Attribution und Verifikation von Cyberwaffen, zur Mensch-Maschine-Interaktion und deren Auswirkung auf die internationale Sicherheit erforschen. Konfliktdynamiken im Cyberspace, sowie der Einsatz autonomer Waffensysteme insbesondere vor dem Hintergrund der Nutzung von KI, stellen uns weiterhin vor relevante Forschungsfragen. Aus der Governance-Perspektive ist zudem von großer Bedeutung, welche Schwerpunkte bei der Innovationsförderung im Bereich der zivil-militärischen Dual-use-Güter gesetzt werden, um technologische Trends zu beeinflussen.

Autor*innen: Thea Riebe, Anja-Liisa Gonsior, Stefka Schmid, Thomas Reinhold, Christian Reuter

Dr. Thea Riebe ist Postdoktorandin am Lehrstuhl Wissenschaft und Technik für Frieden und Sicherheit (PEASEC) im Fachbereich Informatik der Technischen Universität Darmstadt und forscht zu Technikfolgenabschätzung und Dual-Use in der Mensch-Computer Interaktion.

Anja-Liisa Gonsior ist wissenschaftliche Mitarbeiterin und Doktorandin am Lehrstuhl Wissenschaft und Technik für Frieden und Sicherheit (PEASEC) am Fachbereich Informatik der Technischen Universität Darmstadt. Ihre Forschungsinteressen liegen in den Bereichen autonome Waffensysteme, Meaningful Human Control, (Cyber-)Rüstungskontrolle, (naturwissenschaftlich-technische) Friedens- und Konfliktforschung sowie kritische Sicherheitsstudien.