Software misst, wohin Piloten blicken
Auf individuelle Ziele fokussiert
Es ist das erste Mal, dass ein Forschungsprojekt die blickbasierten Interaktionen von Piloten in einem Flugsimulator analysiert. Als Teil der Kooperation war es für Raubals Team wichtig, einen eigenständigen wissenschaftlichen Nutzen zu generieren, da für die ETH eine optimierte Pilotenausbildung per se als Ziel nicht reichte. «Deshalb haben wir den Fokus auf die Entwicklung der Software gelegt», resümiert Rudi.
Der Swiss wiederum ging es im Projekt primär um das Scanning im Cockpit. Das konnten sie dank dem Eye-Tracking-System gemeinsam mit Aviatik-Psychologen der Nasa und der University of Oregon separat untersuchen. Die Erkenntnisse mündeten in eine neue Richtlinie für die visuelle Überwachung der Flugautomatik. Lufthansa Aviation Training stellte dem Konsortium technisches Know-how und die Infrastruktur im Simulator zur Verfügung. Schliesslich hat das Bundesamt für Zivilluftfahrt BAZL rund 40 Prozent der Projektkosten übernommen.
Ein Werkzeug – viele Möglichkeiten
Die naheliegende Anwendung von iAssyst sehen Raubal und Rudi im Evaluierungsgespräch nach einem Trainingsflug im Simulator. Langfristig könnte das Programm auch in echten Cockpits zum Einsatz kommen. Bis dahin ist es aber noch ein weiter Weg.
Die Luftfahrt ist jedoch nicht das einzige Forschungsgebiet, in dem Eye Tracking dazu beitragen kann, die Interaktion zwischen Benutzer und technischen System zu verbessern. Laut Raubal und Rudi ist eine Anwendung ihrer Software beispielsweise auch in der Medizinausbildung denkbar, wo Ärzte mithilfe von Simulatoren chirurgische Eingriffe am künstlichen Körper trainieren.
Hinweis: Dieser Artikel ist zunächst bei «ETH News» erschienen und wurde von Michael Keller verfasst.
Autor(in)
Computerworld
Redaktion