safe AI

Absicherung von AI-Algorithmen

Wie sicher ist sich die künstliche Intelligenz (AI)?

 

Das IABG-Innovationsprojekt safeAI entwickelt Lösungen zur Absicherung künstlicher Intelligenz und berücksichtigt dabei nicht nur den Stand der wissenschaftlichen Forschung, sondern auch aktuelle Entwicklungen von nationalen und internationalen Normungsgremien. Diese neuen Entwicklungen werden kombiniert mit der langjährigen Erfahrung mit Zertifizierungsprozessen in der Luftfahrt-, Automobil- und Bahntechnikbranche.

Herausforderung – Absicherung von künstlicher Intelligenz

Der zunehmende Einsatz von AI in sicherheitskritischen Anwendungen wie dem Führen eines Fahrzeugs, dem Landen einer Drohne, der automatisierten Schadenserkennung, der Überwachung von Infrastrukturen oder beim Condition Based Maintenance erfordert eine quantitative Zuverlässigkeitsbewertung.

Aufgrund der Komplexität künstlicher neuronaler Netze ist der Entscheidungsprozess jedoch nicht mehr analytisch nachvollziehbar. Zudem stehen repräsentative Trainings und Testdaten (insbesondere für sicherheitsrelevante Szenarien) nicht in ausreichender Menge zur Verfügung.

Derzeitige Bewertungsmethoden befinden sich noch in der Forschung. Daher sind nationale oder internationale Standards und Normen noch nicht verfügbar, was die Zertifizierung AI-basierter Systeme erschwert.

Wir machen die Absicherung von AI quantitativ bewertbar

  • Mit safeAI entwickeln wir eine Methode, die die Zuverlässigkeit einer AI quantitativ bewertbar macht.
  • Für safeAI werden realitätsnahe virtuelle Simulationsumgebungen für die Beurteilung von Leistungsfähigkeit und Zuverlässigkeit der Algorithmen eingesetzt, deren Eigenschaften kontrollierbar sind.
  • safeAI fokussiert sich auf zuverlässige Bild- und Objekterkennung.
  • Aktive Teilnahme in Normungsgremien zum Thema Zuverlässigkeit, Qualität und Zertifizierung von AI (DIN / ISO / IEC, EUROCAE) stellt sicher, dass unsere Entwicklungen konform mit zukünftigen Normen sind.
  • Weitere Aktivitäten der IABG wie safeHAF (SOTIF – Safety of the intended Functionality) und safeHumanFactors werden mit safeAI zu einem Framework zur Absicherung autonomer Systeme integriert.

Ansatz und Mehrwert der Methode safeAI

  • safeAI unterstützt und begleitet den Entwicklungsprozess, um die Anforderungen an eine sichere AI zu erfüllen. Von der Auswahl und Bewertung der Trainingsdaten über die Generierung anwendungsspezifischer Testdaten bis zur detaillierten Performance-Analyse des implementierten Algorithmus.
  • Entwicklung von Bewertungskriterien für AI-Zuverlässigkeit.
  • Zertifizierbarkeit Ihrer AI-Lösungen.