09:30 – 09:45 |
Begrüßung |
|
Dr. Udo Brockmeyer, BTC Embedded Systems Prof. Dr. Werner Damm, SafeTRANS Vortragsfolien (passwortgeschützt) |
09:45 – 10:15 |
Resilienz, Lernen und Evolution: Herausforderungen in Automotive |
|
Peter Heidl, Robert Bosch GmbH Vortragsfolien (passwortgeschützt) |
10:15 – 10:45 |
Resiliente, lernende und evolutionäre CPS - Herausforderungen aus Sicht deren Sicherheitsargumentation |
|
Matthias Maihöfer, Schaeffler Technologies AG & Co. KG.
-
The successive paradigm shift from physical systems to cyber-physical systems concerns industries and their supply chains. More and more highly automated system functions which require the use of ML/AI algorithms or value-added functions or services involving connected backend systems increase the engineers challenge to provide adequate safety or cybersecurity arguments not only for the OEM but also for its suppliers. The presentation will highlight some of this challenges and corresponding need for actions.
Vortragsfolien (passwortgeschützt)
|
10:45 – 11:15 |
Kaffeepause und Networking |
11:15 – 11:45 |
Das Cyber Physical System "Schiff" - Wie kann man so etwas zulassen? |
|
Dr.-Ing. Wiegand Grafe, DNV-GL
-
Im Zuge der Digitalisierung werden zunehmend auch Schiffe mit komplexen, softwaregestützten Systemen in sicherheitskritischen Teilbereichen wie Navigation, Energieversorgung und Antrieb ausgerüstet. Mittelfristig soll auch das Gesamtsystem Schiff mit Hilfe integrierter Softwarkomponenten und somit als CPS betrieben werden. Daraus ergibt sich die Notwendigkeit, solche komplexen Systeme zu testen und im praktischen Betrieb zu erproben. Für die Zulassung von Cyber Physical Systems in einer durch Einzelteil und Kleinserien geprägten Industrie, steht neben der qualitativ richtigen Ausführung auch die Effizienz der Genehmigungsprozedur im Mittelpunkt der Entwicklungstätigkeit. Im Vortrag werden erste Erfahrungen und neue Ansätze vorgestellt.
Vortragsfolien (passwortgeschützt)
|
11:45 – 12:15 |
Adversarial Resilience Learning in Cyber-Physical Energy Systems
|
|
Prof. Dr. Sebastian Lehnhoff, OFFIS e.V.
Das Konzept des Adversarial Resilience Learning (ARL) definiert zwei Klassen von gegeneinander agierenden Agenten, die auf ein gemeinsames, komplexes Cyber-physikalisches System (CPS) – hier das Stromnetz – einwirken. Abstraktes Ziel der Attacker Agents ist es, negativ im Sinne einer Systemperformanz auf das CPS einzuwirken. Dem entgegengesetzt ist es Ziel der Defender Agents, die Systemperformanz des CPS in einem gewünschten Bereich zu halten bzw. das CPS aus ungünstigen Systemzuständen wieder in einen wünschenswerten Betriebszustand zu überführen. Damit können zum einen im Rahmen von Resilienzanalysen für bestehende CPS systematisch Schwachstellen und Risiken ermittelt werden, indem ein oder mehrere Attacker auf das System einwirken und versuchen, einen möglichst ungünstigen Systemzustand herzustellen bzw. einen möglichst großen Schaden anzurichten. Zum anderen können im Rahmen eines Resilienztrainings KI-basierte Defender entwickelt und trainiert werden, die die Funktion des CPS trotz der Angriffe und destabilisierenden Maßnahmen der Attacker aufrechterhalten. Durch fortlaufendes Training entsteht eine Software, die die Resilienz des CPS maßgeblich unterstützt.
Vortragsfolien (passwortgeschützt)
|
12:15 – 12:45 |
Diskussion und Ergebnissicherung |
12:45 – 13:45 |
Mittagspause |
13:45 – 14:15 |
Modellierung, Design und Analyse von sicherheitskritischen eingebetteten Systemen in einer sich fortwährend verändernden Umgebung |
|
Dr. Kim Grüttner, OFFIS e.V.
-
"Die einzige Konstante im Leben ist die Veränderung“ sagte bereits der griechische Philosoph Heraklit und diese Aussage hat auch nach zweieinhalbtausend Jahren nicht an Gültigkeit verloren. Ganz im Gegenteil: Wir leben in einer Zeit in der die Digitalisierung uns völlig neue Möglichkeiten zur Automatisierung und Verbesserung unseres Lebens erbringen kann. Eine der größten Herausforderungen aus technischer Sicht ist hierbei die Bereitstellung geeigneter Sensoren, Rechenplattformen, Systemsoftware und einer Design- und Analysemethodik, welche die Integration neuer Funktionen unter gleichzeitiger Garantie unterschiedlicher extra-funktionaler Anforderungen ermöglicht. Dabei handelt es sich z.B. um Sicherheits- und Verfügbarkeitseigenschaften. Diese beschreiben mit welcher Wahrscheinlichkeit das eingebettete System seine intendierte Funktion innerhalb der dafür vorgesehenen Zeit unter Anwesenheit bekannter Störungen erfüllt. Doch was passiert, wenn im laufenden Betrieb Änderungen vorgenommen werden müssen? Z.B. weil neu bekanntgewordene Fehler behoben, Funktionen erweitert oder verbessert werden oder ganz neue Funktionen hinzukommen müssen. Der Vortrag gibt einen Überblick ausgewählter Forschungsthemen zur Modellierung, dem Design und der Analyse von sicherheitskritischen eingebetteten Systemen und wagt einen Ausblick auf neue Fragestellungen in Bezug auf die Behandlung funktionaler und technischer Veränderungen, die während der Betriebszeit entstehen können und wie mit ihnen umgegangen werden kann.
Vortragsfolien (passwortgeschützt)
|
14:15 – 14:45 |
Mut zur Lücke - Domänenübergreifende Entwicklung und Absicherung von autonomen Fahrfunktionen am Beispiel Valet Parking
|
|
Carl Philipp Hohl, FZI Forschungszentrum Informatik
-
Das CoCar („Cognitive Car“) ist ein Versuchsträger des Forschungszentrum
Informatik FZI in Karlsruhe. Als Forschungsfahrzeug soll es im Rahmen
des Projekts „Testfeld Autonomes Fahren“ Möglichkeiten und Perspektiven
für intelligente Mobilität beleuchten. Die Kompetenz des FZI liegt hier
nicht nur in der Entwicklung von neuen Fahrfunktionen, sondern auch in
der entwicklungsbegleitenden Unterstützung in Form von Prozessen und
Methoden. Am Beispiel des Valet Parking, also der automatischen
Parkplatzsuche in Parkhäusern, wird die Entwicklung von neuen
domänenübergreifenden Funktionen betrachtet. Dabei spielen die Themen
Sicherheit und Absicherung eine ebenso große Rolle wie maschinelles
Lernen und künstliche Intelligenz. Durch die Vernetzung des Fahrzeugs
mit der Infrastruktur ergeben sich außerdem neue Herausforderungen, die
bei der Entwicklung des Gesamtsystems betrachtet werden müssen.
Vortragsfolien (passwortgeschützt)
|
14:45 – 15:15 |
Eine Konzeptstudie zur kontinuierlichen Integration von Fahrzeugfunktionen |
|
Dr. Jan Gacnik, Jan Weber, IAV GmbH
Vortragsfolien (passwortgeschützt)
|
15:15 – 15:45 |
Kaffeepause und Networking
|
15:45 – 16:15 |
How (can) machines learn to do the right things? |
|
Prof. Dr. Dieter Hutter, Universität Bremen und DFKI
-
Within the last decade Machine Learning has radically advanced both from a scientific point of view and also from the view of industrial applicability. Applications of Machine Learning range from natural language processing (including sentiment analysis) to classify, for instance, letters of application to real-time image recognition to allow for autonomous driving. One reason for these success stories is the fact that the prevailing technique of deep learning does not require elaborated ontologies but mostly depend on a vast amount of examples to train the neuronal network. However, the more these techniques constitute the back ends in sensitive applications the more there is a need to provide means to establish confidence in the appropriateness and safety of such systems. Classical verification techniques depending on structured and symbolic representations are of little help to solve this issue. Starting with an outline of various approaches in machine learning this talk introduces in the main concepts of deep learning illustrating the correlated issues and directions of establishing trust in applications that use such techniques.
Vortragsfolien (passwortgeschützt) |
|
16:15 – 16:45 |
Using Machine learning to improve Safety Critical SW development |
|
Leonid Borodaev, Parasoft GmbH
-
Static program analysis plays crucial role developing safety critical systems for transportation. One of the most often cited problems that comes with using a static code analyser is an overwhelming amount of its findings, which need to be reviewed to filter out false positives. In an effort to help the reviewer with their task, Parasoft has created a tool that utilises Machine Learning (ML) to prioritise and group violations reported by static analysers based on the likelihood of them being either a true error or a falsely reported correct line of code. The ML model can offer significant help to the reviewer not only in the context of one project, but also when working with multiple projects that share either some part of the development team, or codebase, in a situation when some number of violations in one of the projects has already been reviewed. Our approach has shown significant reduction in effort required to review violations reported by static code analysers.
Vortragsfolien (passwortgeschützt) |
16:45 – 17:15 |
Diskussion und Ergebnissicherung
|
17:15 |
Ende des 25. SafeTRANS Industrial Days |
17:30 – 20:30 |
Mitgliederversammlung und Steering Board-Sitzung (nur für Mitglieder) |