Assessment and Testing of Autonomous and Safety-Critical Systems

Zu autonomen Systemen mit komplexen Sensoren und komplexen Abläufen sind verlässliche Aussagen hinsichtlich ihrer Sicherheit und Zuverlässigkeit nur in sehr beschränktem Ausmaß möglich, da es keine objektiven Messungen (messbare Abdeckung potenzieller Situationen) gibt, mit denen ihre Funktionen und Erfüllung von Zuverlässigkeitswerten überprüft werden könnten. Daher verfügen die Entwickler normalerweise nur über diffuse Kenntnisse über die erzielte Zuverlässigkeit und Sicherheit. 

Jeder, der ein solches System auf den Markt bringt, hat dafür Sorge zu tragen, dass dadurch weder Menschen noch Güter einem höheren Risiko ausgesetzt werden, als es derzeit auf natürliche Weise der Fall ist. In der Folge werden solche autonome Systeme in einem stark isolierten Umfeld eingesetzt und sind auch in ihrem Aktionsradius äußerst stark eingeschränkt (beispielsweise Fertigungsroboter) oder dienen nur als Hilfssysteme, bei denen die Letztverantwortung für die ausgeführten Handlungen beim eigentlichen Benutzer/Besitzer verbleibt (beispielsweise bei Geschwindgkeitsreglern (ACC) in Fahrzeugen oder bei Mährobotern). 

Die Zahl der autonomen Systeme und Roboter ist jedoch im Steigen begriffen. Rund 1 Million Industrierobotereinheiten stehen heutzutage weltweit im Einsatz, die Zahl der professionellen Serviceroboter stieg von 25.000 im Jahr 2004 auf rund 75.000 im Jahr 2008 und während Ende 2004 erst 1,2 Millionen „persönliche Service- oder Haushaltsroboter“ im Einsatz waren, betrug ihre Zahl im Jahr 2008 bereits ca. 7 Millionen. Dadurch steigt auch der Bedarf der Industrie an objektiven, systematischen und effizienten Methoden für die Auswertung der Robustheit, Zuverlässigkeit und Sicherheit von autonomen Systemen und Robotern mit komplexen Sensoren und komplexen Abläufen, insbesondere im Bereich von sicherheitskritischen Anwendungen (z. B. Betreuungs-/Pflegesysteme in einer immer älter werdenden Gesellschaft).

Einer der kritischsten Punkte bei autonomen Systemen ist die korrekte Beobachtung ihrer Umgebung sowie die Erfassung von Situationen in Echtzeit mithilfe von Sensorsystemen wie Radar oder Kameras. Die Zuverlässigkeit von Einzelsensoren ist jedoch von einer Reihe von beeinflussenden Faktoren abhängig: physisches Versagen eines Sensors aufgrund von Abnutzung oder ungeplanten Betriebsbedingungen (wie Feuchtigkeit, niedrige Temperatur), (Software-)Fehler in einem Erkennungsalgorithmus, unzureichendes Detektionsspektrum (z. B. Objekt außerhalb des Sichtbereichs, Umgebung zu dunkel), unzureichende räumliche oder zeitliche Auflösung des Sensors, Störeinflüsse (z. B. elektromagnetische Interferenzen oder Blendung), Schattenbildung und andere Faktoren. Zusätzlich kann jeder Einzelsensor nur eine einzige Art von Beobachtung machen („Augen können nicht hören und Ohren können nicht sehen“).  

Oft lässt sich die benötigte Zuverlässigkeit nicht erzielen, wenn die Entscheidung auf einem einzigen Sensoreingang beruht. Stattdessen müssen die Signale verschiedener Sensoren (Sensorarten) analysiert werden. Um eine zuverlässige Abbildung der Umgebung zu erreichen und eine Entscheidung über die nächste zu setzende Handlung zu erleichtern, können redundante Daten aus verschiedenen Sensoren verglichen und einander ergänzende Daten kombiniert werden. Eine komplexe Architektur unterschiedlicher Sensorarten ist das Ergebnis. 

Die Entwicklung von Methoden, Werkzeugen und Richtlinien für die Evaluierung und Bewertung von sicherheitskritischen autonomen Systemen bildet eine gute Grundlage für die quantitative Evaluierung der Zuverlässigkeit von Einzelsensoren. Basierend darauf konzentrieren wir uns auf multidimensionale und multimodale Sensorsysteme. Durch Anwendung bekannter Methoden zur Ausfalls- und Fehleranalyse wie FTA (Fault Tree Analysis), FMEA (Failure Modes and Effects Analysis) und HAZOP (Hazard and Operability Analysis) entwickeln wir Messparameter und -modelle zur Festlegung von Testfallszenarien mit einer messbaren Abdeckung hinsichtlich der sicherheitsrelevanten Aspekte. Neben der Zuverlässigkeit erforschen wir auch modellbasiertes Design und die Erzeugung von Testfällen, um Aufwand und Kosten für die Überprüfung von Systemen auf ein Minimum zu reduzieren. 

Marketing and Communications

uploads/pics/AIT-DSS_Muerling-Michael_005_150x200px_white_01.jpg
Mag. (FH) Michael Mürling
AIT Austrian Institute of Technology

T: +43 50550 4126
F: +43 50550 4150
Donau-City-Straße 1
1220 Wien


Research Services