AI Engineering als Enabler für eine fundierte Sicherheitsargumentation über den gesamten Lebenszyklus einer KI-Funktion.

AI Engineering als Enabler für eine fundierte Sicherheits­argumentation über den gesamten Lebenszyklus einer KI-Funktion.

Für mehr Sicherheit beim automatisierten Fahren

Das Forschungsprojekt Safe AI Engineering ist ein wichtiger Schritt auf dem Weg zu einem allgemein akzeptierten und praxistauglichen Sicherheitsnachweis für KI-Funktionen, der für die Homologation herangezogen werden kann und damit freigaberelevant ist.

Ziel ist es, eine gesamtheitliche Methodik zur Absicherung von sicherheitskritischen KI-Funktionen im automatisierten Fahren zu entwickeln – von der Planung über Entwicklung, Tests, Anwendung und Monitoring bis hin zur kontinuierlichen Verbesserung. Im Mittelpunkt des Forschungsprojektes stehen mehr Sicherheit und eine bessere Integration der KI- Eigenschaften.

Safety Rope

Wie bei einem Sicherungsseil zeichnet sich eine zuverlässige Sicherheitsargumentation dadurch aus, dass konsistent verschiedene Aspekte miteinander verwoben werden. Diese Aspekte – abgebildet durch die Teilaspekte des Projektes – zu einem robusten Gefüge zu verseilen, geschieht durch die sogenannte Orchestrierung, die ähnlich zu einer Flechtmaschine die Fäden zu einem sicheren Seil schlägt.

Auf diese Weise schafft Safe AI Engineering die Basis zu einer AI Engineering Methode, die die Grundlage für einen im Markt allgemein akzeptierten, praxistauglichen Nachweis sicherheitskritischer KI schafft.

Für mehr Sicherheit beim automatisierten Fahren

Das Forschungsprojekt Safe AI Engineering ist ein wichtiger Schritt auf dem Weg zu einem allgemein akzeptierten und praxistauglichen Sicherheitsnachweis für KI-Funktionen, der für die Homologation herangezogen werden kann und damit freigaberelevant ist.

Ziel ist es, eine gesamtheitliche Methodik zur Absicherung von sicherheitskritischen KI-Funktionen im automatisierten Fahren zu entwickeln – von der Planung über Entwicklung, Tests, Anwendung und Monitoring bis hin zur kontinuierlichen Verbesserung. Im Mittelpunkt des Forschungsprojektes stehen mehr Sicherheit und eine bessere Integration der KI- Eigenschaften.

Safety Rope

Wie bei einem Sicherungsseil zeichnet sich ein zuverlässiges Sicherheitsargument dadurch aus, dass konsistent verschiedene Aspekte miteinander verwoben werden. Diese Aspekte – abgebildet durch die Teilaspekte des Projektes – zu einem robusten Gefüge zu verseilen, geschieht durch die sogenannte Orchestrierung, die ähnlich zu einer Flechtmaschine die Fäden zu einem sicheren Seil schlägt.

Auf diese Weise schafft Safe AI Engineering die Basis zu einer AI Engineering Methode, die die Grundlage für einen im Markt allgemein akzeptierten, praxistauglichen Sicherheitsnachweis sicherheitskritischer KI schafft.

Aktuelle News zum Projekt

Zahlen & Fakten

Projektbudget

34,5 Mio. €

Konsortialleitung

Dr. Ulrich Wurstbauer

Luxoft GmbH

Prof. Dr. Frank Köster

DLR

Konsortium

24 Partner

Automobilhersteller, Zulieferer, Technologieprovider, Forschungsinstitutionen, externe Partner

Fördervolumen

17,2 Mio. €

Laufzeit

36 Monate

March 2025 – February 2028

Projektkonsortium

Scroll to Top