25.02.2026 –, Kopernikus 1
Quellcode, der von KI-Assistenten (ChatGPT, Copilot, etc) erstellt wurde,
um Entwickler bei der Programmierung zu unterstützen oder deren Effizient zu
steigern, findet sich heute in allen Industrien. Die verwendeten KI-Modelle
können jedoch auch "halluzinieren", sowie anfälligen oder fehlerhaften Code
aus ihren Trainingsdaten (re-)produzieren, sodass eine Überprüfung und in
der Regel eine Absicherung des KI-generierten Codes in Industrien mit
sicherheitskritischen Anwendungen unerlässlich ist.
In diesem Workshop wird demonstriert, wie statische Programmanalysen
automatisierte Prüfungen ermöglichen, mit denen KI-generierter Code
effizient abgesichert werden kann. Die vorgestellten Überprüfungen umfassen
die Überprüfung von MISRA-Konformität, die Durchführung von
SAST-Aktivitäten, bis hin zum Nachweis der Abwesenheit von Laufzeitfehlern.
Jörg Herter studied Computer Science and received his Ph.D. on predictable dynamic memory allocation for hard real-time systems. He has been a research fellow at Saarland University and the University of Applied Sciences in Saarbrücken.
His current work is focused on functional safety and the formal validation and verification of safety-critical software.
Jörg Herter works as a Senior Technical Consultant for AbsInt Angewandte Informatik GmbH.