ExtruFace
Eine gestengesteuerte Benutzeroberfläche für meterlange industrielle Extrusionsmaschinen
Wissenschaftstransferprojekt mit einem Interface, das dynamisch zwischen Nahfeld-Handgesten und Fernfeld-Körpergesten wechselt, abhängig vom Abstand der bedienenden Person. Gestützt auf Fitts'-Law-Analyse und Beobachtung der Arbeitsabläufe.
Überblick
ExtruFace war ein Wissenschaftstransferprojekt, in dem Konzept und Prototyp einer gestengesteuerten Benutzerschnittstelle zur Steuerung von Extrusions-Industriemaschinen entwickelt wurden. Ich habe in allen Projektphasen mitgewirkt: bei der Anforderungsermittlung, Umsetzung und Abnahme.
Die Herausforderung
Extrusionsmaschinen sind mehrere Meter lange, schwere Industriemaschinen zur Rohrformung. Bediener:innen müssen sie teils aus einer gewissen Distanz steuern und tragen häufig Schutzhandschuhe. Die vorhandene Touchscreen-Lösung war daher nicht dauerhaft praktikabel. Zentrale Herausforderungen waren:
- Anpassung moderner UX/UI-Prinzipien an einen Industriemaschinen-Kontext
- Gestaltung für zwei grundlegend verschiedene Interaktionsmodi: Handgesten im Nahbereich und Körpergesten im Fernbereich
- Ausbalancieren von Gesten-Innovation mit Bediener-Vertrautheit und Sicherheitsanforderungen
- Sicherstellung der Zuverlässigkeit in Produktionsumgebungen
Der Prozess
-
Anforderungsanalyse: Interviews mit Maschinenbediener:innen, um Arbeitsabläufe zu verstehen und zu ermitteln, welche Steuerungselemente in welcher Entfernung benötigt werden
-
Gestendesign: Erkenntnisse aus meiner Bachelorarbeit flossen maßgeblich in das Gestenvokabular ein; Fernmodus-Gesten wurden in Zusammenarbeit mit den Maschinenbediener:innen gestaltet
-
Low-Fidelity-Prototyping: Wireframes und Flowcharts zur Darstellung des gesamten Interaktionsablaufs zwischen Nah- und Fernmodus
-
High-Fidelity-Prototyp: Funktionsfähige Webanwendung, die beide Interaktionsmodi demonstriert
-
Nutzerevaluation: Test des Prototypen im Laborumfeld mit realen Bediener:innen
Die Lösung
Zentrale Features, die ich gestaltet und entwickelt habe:
-
Adaptive Oberfläche: UI-Elemente skalieren dynamisch, wenn sich die bedienende Person dem Monitor nähert oder sich entfernt (via Microsoft Kinect Distanzerkennung)
-
Fernmodus: Nur distanzrelevante Steuerungselemente werden angezeigt, Auswahl anhand von Bediener-Interviews; gesteuert über Körpergesten (Armposen), erkannt durch Microsoft Kinect
-
Nahmodus: Berührungslose Handgestensteuerung via Leap-Motion-Controller für feingranulare Interaktion
-
Fitts-Gesetz-optimierte Menüs: Kreismenüs zur Minimierung der Entfernung zu Menüoptionen bei Gesteneingabe
-
Touchscreen-Fallback: Traditionelle Touch-Steuerung als alternative Eingabemethode
Ergebnisse & Wirkung
- Funktionsfähiger Prototyp als Ideenquelle für die Weiterentwicklung des bestehenden Systems übergeben
- Nachweis, dass berührungslose Gestensteuerung für industrielle Maschinenbedienung praktikabel ist
- Das adaptive Nah-/Fernmodus-Konzept löste das Kernproblem der Maschinenbedienung aus unterschiedlichen Entfernungen mit Schutzausrüstung
Interesse an einer Zusammenarbeit?
Schreiben Sie mir