← Portfolio

ExtruFace

Eine gestengesteuerte Benutzeroberfläche für meterlange industrielle Extrusionsmaschinen

Web HTML JavaScript jQuery UX UI User Research Prototyping Entwicklung
Zeitraum 2015 bis 2016
Rolle UX-Design & Entwicklung
Status Forschungsprojekt
Kurzübersicht

Wissenschaftstransferprojekt mit einem Interface, das dynamisch zwischen Nahfeld-Handgesten und Fernfeld-Körpergesten wechselt, abhängig vom Abstand der bedienenden Person. Gestützt auf Fitts'-Law-Analyse und Beobachtung der Arbeitsabläufe.

Überblick

ExtruFace war ein Wissenschaftstransferprojekt, in dem Konzept und Prototyp einer gestengesteuerten Benutzerschnittstelle zur Steuerung von Extrusions-Industriemaschinen entwickelt wurden. Ich habe in allen Projektphasen mitgewirkt: bei der Anforderungsermittlung, Umsetzung und Abnahme.

Die Herausforderung

Extrusionsmaschinen sind mehrere Meter lange, schwere Industriemaschinen zur Rohrformung. Bediener:innen müssen sie teils aus einer gewissen Distanz steuern und tragen häufig Schutzhandschuhe. Die vorhandene Touchscreen-Lösung war daher nicht dauerhaft praktikabel. Zentrale Herausforderungen waren:

  • Anpassung moderner UX/UI-Prinzipien an einen Industriemaschinen-Kontext
  • Gestaltung für zwei grundlegend verschiedene Interaktionsmodi: Handgesten im Nahbereich und Körpergesten im Fernbereich
  • Ausbalancieren von Gesten-Innovation mit Bediener-Vertrautheit und Sicherheitsanforderungen
  • Sicherstellung der Zuverlässigkeit in Produktionsumgebungen

Der Prozess

  • Anforderungsanalyse: Interviews mit Maschinenbediener:innen, um Arbeitsabläufe zu verstehen und zu ermitteln, welche Steuerungselemente in welcher Entfernung benötigt werden

  • Gestendesign: Erkenntnisse aus meiner Bachelorarbeit flossen maßgeblich in das Gestenvokabular ein; Fernmodus-Gesten wurden in Zusammenarbeit mit den Maschinenbediener:innen gestaltet

  • Low-Fidelity-Prototyping: Wireframes und Flowcharts zur Darstellung des gesamten Interaktionsablaufs zwischen Nah- und Fernmodus

  • High-Fidelity-Prototyp: Funktionsfähige Webanwendung, die beide Interaktionsmodi demonstriert

  • Nutzerevaluation: Test des Prototypen im Laborumfeld mit realen Bediener:innen

Die Lösung

Zentrale Features, die ich gestaltet und entwickelt habe:

  • Adaptive Oberfläche: UI-Elemente skalieren dynamisch, wenn sich die bedienende Person dem Monitor nähert oder sich entfernt (via Microsoft Kinect Distanzerkennung)

  • Fernmodus: Nur distanzrelevante Steuerungselemente werden angezeigt, Auswahl anhand von Bediener-Interviews; gesteuert über Körpergesten (Armposen), erkannt durch Microsoft Kinect

  • Nahmodus: Berührungslose Handgestensteuerung via Leap-Motion-Controller für feingranulare Interaktion

  • Fitts-Gesetz-optimierte Menüs: Kreismenüs zur Minimierung der Entfernung zu Menüoptionen bei Gesteneingabe

  • Touchscreen-Fallback: Traditionelle Touch-Steuerung als alternative Eingabemethode

Ergebnisse & Wirkung

  • Funktionsfähiger Prototyp als Ideenquelle für die Weiterentwicklung des bestehenden Systems übergeben
  • Nachweis, dass berührungslose Gestensteuerung für industrielle Maschinenbedienung praktikabel ist
  • Das adaptive Nah-/Fernmodus-Konzept löste das Kernproblem der Maschinenbedienung aus unterschiedlichen Entfernungen mit Schutzausrüstung

Interesse an einer Zusammenarbeit?

Schreiben Sie mir