Direkt zum Inhalt
Metallkonstrukt mit VR Brille

Wenn Komplexität zu menschlicher Überforderung und Unsich

21.10.2020

Menschen stehen bei der Benutzung von Maschinen oft vor komplexen Aufgaben, denen sie sich nicht gewachsen fühlen. Unter dem Schlagwort „Deconstructing Complexity“ entwickelt die User-Experience-Forschung am AIT Austrian Institute of Technology Methoden, die dem Menschen den Umgang mit Technik erleichtern sollen – sowohl im Alltagsleben als auch bei der Bedienung von Maschinen.

Die Nutzung von technischen Systemen ist für uns Menschen oft schwierig – etwa wenn wir sie nicht kennen, wenn wir nicht gleich verstehen, wie sie funktionieren, oder wenn wir uns nicht merken (wollen), wie man sie bedient. „Deshalb ergibt sich für Anwenderinnen und Anwender eine gewisse Komplexität“, sagt Manfred Tscheligi, Head of Center for Technology Experience am AIT Austrian Institute of Technology und Professor an der Universität Salzburg. „Besonders komplex wird die Sache, wenn ein Gerät nicht unmittelbar das tut, was man will – und man keine Ahnung hat, warum das so ist.“

Beim Umgang mit dieser Form von Komplexität sind in Tscheligis Augen zwei Bereiche wesentlich: Zum einen geht es darum, wie einfach oder umständlich die Bedienung eines Gerätes auf technischer Ebene ist. Zum anderen ist aber auch die Wahrnehmungspsychologie gefragt – also wie Menschen Gegenstände in ihrer Umgebung wahrnehmen und begreifen. „Der Mensch kann ein System aus vielen Einzelteilen mit vielen Verknüpfungen und einer verästelten Struktur nicht sofort erfassen und interpretieren«, so der Forscher. Das hat Folgen, die von Unsicherheit und mangelndem Vertrauen in Technik über das Gefühl des Kontrollverlusts bis hin zur Furcht vor Technologie und deren Ablehnung reichen. „Etwas kann technisch super funktionieren, aber wenn ich als Mensch damit nicht umgehen kann, kann ich nichts damit anfangen“, so Tscheligi.

Bei der Gestaltung von Technologien und den Schnittstellen zu den Anwenderinnen und Anwendern muss daher auf den Menschen Rücksicht genommen werden. Klingt logisch, ist aber in der Praxis noch keineswegs überall Standard. „Die Sicht der Nutzerinnen und Nutzer kommt bei der Entwicklung neuer Technologien oftmals noch zu kurz“, sagt Tscheligi.

 

„Wir wollen den Menschen das Leben leichter machen“

Aus dieser Grundproblematik hat sich eine eigene Wissenschaftsdisziplin entwickelt. In der sogenannten „Experience-Forschung“ gibt es Verfahren, mit denen die subjektive Komplexität gemessen werden kann und das komplexe Zusammenspiel von Experience-Faktoren untersucht wird. Überdies wurden Methoden entwickelt, wie man die wahrgenommene Komplexität reduzieren kann. Tscheligi: „Unser hehres Ziel ist es, den Menschen das Leben bei der Nutzung von technischen Artefakten leichter zu machen.“

Ein gängiger Ansatz hierfür heißt in der Fachsprache „Deconstructing Complexity“. Dabei werden komplexe Zusammenhänge in Produkten oder Softwareprogrammen in ihre einzelnen Bestandteile zerlegt, um besser zu verstehen, welche Probleme auftreten können. Auch Verknüpfungen der Teile werden betrachtet. „Wenn man die einzelnen Elemente verstanden und verbessert hat, werden sie wieder zusammengesetzt“, so Tscheligi. Das bedarf einer Methode des Zerlegens, die reproduzierbar ist. Eines dieser Verfahren nennt sich „heuristische Analyse“: Man durchwandert ein Produkt oder ein Interface nach bestimmten Prinzipien Stück für Stück, um die Grundprinzipien des Designs der Reihe nach abzuarbeiten und zu klären, an welchem Punkt Probleme auftauchen, die die Benutzbarkeit beeinträchtigen. Tscheligi: „Oft wäre es besser, einen Teil wegzulassen, um die Komplexität eines Produkts zu reduzieren, das dann genauso gut oder sogar noch besser funktioniert.“

Metallkonstrukt mit daneben liegender VR Brille

Der Einsatz moderner Kommunikationstools – wie hier einer Virtual-Reality-Brille – kann dem Menschen den Umgang mit Technik sehr erleichtern. Credit: AIT/Gerdenitsch

Was der Mensch erfassen kann

Die Analyse der Technik ist aber eben nur eine Seite. „Nicht nur das System, sondern auch seine Umgebung gilt es zu zerlegen“, erklärt Markus Murtinger, Experience-Experte  am AIT. Man müsse auch fragen: Wer sind die User? Welche Aufgabe haben sie? In welchen Situationen benötigen Menschen Hilfe? Welche Informationen brauchen sie z. B. direkt auf einem Bildschirm, um eine Aufgabe erledigen zu können?

Ein Beispiel: In dem Forschungsprojekt „MMAssist II“, das kürzlich mit einer Konferenz seinen Abschluss fand, wurden Assistenzsysteme für die „Industrie 4.0“ entwickelt – also für Produktionsbetriebe, in denen Maschinen den Menschen assistieren. Um dabei das Produktionspersonal zu entlasten, hat ein großes Industriekonsortium unter der Leitung der AIT-Tochter Profactor ein benutzerzentriertes Assistenzsystem entwickelt, das aus einzelnen Modulen, sogenannten „Assistenz Units“, besteht. „Der Operator einer Maschine braucht in gewissen Situationen etwas, das ihm hilft, die Aufgabe zu bewältigen. Wir haben das Problem in Einzelbestandteile zerlegt, die immer wieder auftreten“, erklärt Tscheligi. „Das System muss feststellen, in welcher Situation der Mensch vielleicht ein Problem hat und liefert die benötigten Informationen.“

In der Folge stellt sich die Frage: Welche Daten soll man dem Menschen in einer bestimmten Situation zur Verfügung stellen? „Oft werden alle Funktionen, die man zum Bedienen einer Maschine irgendwie brauchen kann, auf einem Display untergebracht“, erläutert Murtinger. In der Realität kann dies aber schnell zu Überforderung führen, denn oftmals arbeiten ganz unterschiedliche Gruppen von Usern, mit unterschiedlichen Informationsbedarf, an den Maschinen: Einmal in der Woche kommt ein Systemadministrator, einmal am Tag die Person, die die Maschine einstellt, und dann gibt es jemanden, der tatsächlich mit und an der Maschine arbeitet. „Den unterschiedlichen Personen sollte man jeweils nur jene Funktionen anzeigen, die sie auch wirklich benötigen. Dadurch wird die Arbeit viel einfacher“, so Murtinger. Perfekt wäre es, wenn die Maschine bzw. das Interface den User und seine Rolle erkennt und sich an die Person anpasst. Das nennt man in der Fachsprache „adaptive Interface“.

 

Person steht in einem Labor und arbeitet

Bei der Bedienung und Wartung komplexer Maschinen (im Bild eine Druckgießmaschine) braucht der Mensch in unterschiedlichen Situationen ganz andere Informationen. Ein intelligentes System soll dafür sorgen, dass immer die gerade benötigten Daten zur Verfügung stehen. Credit: AIT/LKR/Lang

Wie gestaltet man ein Interface?

In der Wahrnehmungspsychologie kennt man eine Reihe von Komplexitätsfaktoren, auf die man bei der Gestaltung von Interfaces achten sollte. Zu den wichtigsten zählen zum einen die Menge an Informationen und zum anderen die Schnelligkeit. „Je mehr auf User einströmt und je rascher das geschieht, umso weniger können sie wahrnehmen – und das belastet sie“, so Tscheligi. Man müsse beim Design daher genau wissen, wie man ein Interface gestaltet, damit die Anwenderinnen und Anwender die für sie jeweils wichtigen Informationen auch wahrnehmen können. In der Praxis geschieht allerdings oft das genaue Gegenteil. Murtinger bezeichnet dieses Phänomen als „Featuritis“ – frei nach dem Motto: Ein zusätzliches Feature geht schon noch. Auch das sei ein Ausfluss dessen, dass man sich primär mit technischen Problemen beschäftigt und zu wenig mit jenen, die eine bestimmte Technik anwenden. „Man darf sich dann nicht wundern, wenn schließlich für den Menschen alles noch komplexer wird.“

Forscher arbeitet im Additive Manufacturing Labor an einer Maschine

Interfaces an der Mensch-Maschine-Schnittstelle muss sorgfältig designt werden, damit die Anwender*innen die für sie jeweils wichtigen Informationen auch wahrnehmen können. Denn ein Zuviel an Infos führt zu Verwirrung und stellt eine zusätzliche Belastung dar. Credit: AIT/LKR/Lang

Kann man Künstlicher Intelligenz vertrauen?

Noch unübersichtlicher wird die Situation durch die Ausbreitung von Künstlicher Intelligenz (KI). Hier stellt sich das Problem, dass die Maschine dermaßen viele Fakten berücksichtigen kann, die der Mensch nicht mehr in der Lage ist zu überblicken. Man hat im Normalfall keinen Einblick in den Prozess des maschinellen Lernens: KI ist mit einer Blackbox vergleichbar, bei der man nicht weiß, auf welchen Kriterien eine Entscheidung des Systems beruht. Das lässt zum einen ein Gefühl des Kontrollverlusts entstehen, zum anderen wird dadurch das Vertrauen in die Maschine beeinträchtigt.

Dagegen treten Forscherinnen und Forscher seit einigen Jahren unter dem Schlagwort „explainable AI“ an. Dadurch soll man einen Einblick bekommen, wie das System zu einer bestimmten Entscheidung kommt. Das ist auch wesentlich für die Frage, wer für eine Fehlleistung eines technischen Systems verantwortlich ist. In manchen Bereichen ist man bereits dabei, Antworten zu finden. So entwickeln Forscherinnen und Forscher am AIT im Rahmen des Projekts CALIBRaiTE sogenannte „Reliability Displays“, die den Usern vermitteln, wie zuverlässig eine intelligente Funktion ist. Dadurch soll transparent gemacht werden, ob eine KI genügend Informationen zur Einschätzung einer Lage hat und auf welcher Datenqualität die Maschine ihre Bewertungen vornimmt – ob z. B. im Fall eines autonomen Fahrzeuges alle Sensoren zuverlässige Daten liefern oder ob ein Sensor ausgefallen ist.

Dadurch soll es möglich werden, dass die Anwenderinnen und Anwender ihre Erwartungshaltung an die Fähigkeit einer KI anpassen und deren Verlässlichkeit weder unter- noch überschätzen. „Das ist ein wichtiger Beitrag, um das Gefühl der Unsicherheit und des Kontrollverlustes zu reduzieren und die Akzeptanz von KI-Systemen langfristig zu steigern“, so Tscheligi.

Dieser Text beruht auf einem Beitrag im Jahrbuch zu den Alpbacher Technologiegesprächen 2020 „Discussing Technology“ zum Thema „Komplexität“ .