Eine neue Studie, die untersucht, wie mobile Geräte ausschließlich durch die Bewegungen der Augen von Benutzern gesteuert werden können, bietet einen Einblick in die Zukunft von blickbasierten Interaktionen mit Smartphones, sagen Forscher. Spezialisten für Mensch-Computer-Interaktion von Universitäten in Schottland, Deutschland und Portugal haben genauer untersucht, wie Augen zur Steuerung von mobilen Geräten verwendet werden können, und eine Reihe von Empfehlungen zur Integration von Blick-Interaktionen in zukünftige Generationen von Technologie gemacht. Die Ergebnisse werden später in diesem Monat als Papier auf der ACM-Konferenz über Mensch-Computer-Interaktion veröffentlicht.
Das Papier könnte das Benutzererlebnis zukünftiger Mobilgeräte prägen, die wahrscheinlich Augenverfolgungstechnologie nutzen werden, da Frontkameras immer fortschrittlicher werden. Das Papier basiert auf einer Bewertung der Erfahrungen von 24 Studienteilnehmern bei der Verwendung verschiedener auf den Augen basierenden Interaktionsmethoden, während sie an einem Schreibtisch saßen und dann in einem Raum umhergingen. Die Teilnehmer verwendeten die Methoden, um bestimmte Ziele von einem Raster weißer, kreisförmiger Formen auf einem Handy-Bildschirm auszuwählen, jedes Mal wenn die Ziele von weiß zu schwarz wechselten.
Also Read:
Im Laufe der Studie wurden die Teilnehmer gebeten, verschiedene Zahlen von Bildschirmzielen auszuwählen. Die Anzahl der Ziele variierte zwischen zwei und 32 und wurde zwischen den Teilnehmern ausgeglichen, um den Einfluss von Nebenfaktoren wie Praxis oder Müdigkeit auf die experimentellen Ergebnisse zu minimieren.
Die drei Methoden, die die Teilnehmer verwenden mussten, waren Dwell Time, Pursuits und Gaze Gestures. Dwell Time ermöglicht es Benutzern, Gegenstände auszuwählen, indem sie ihren Blick auf ein Ziel fixieren, bis diese 800 Millisekunden erreicht sind. Bei Pursuits folgen Benutzer einem kleinen Objekt, das um das Ziel kreist, um es auszuwählen. Gaze Gestures verwendet einen mehrstufigen Prozess, bei dem Benutzer den Blick von der Bildschirmseite nach links oder rechts richten, um die Anzahl der Ziele zu reduzieren, bis sie das gewünschte Ziel erreichen.
Also Read:
Die Forscher fanden heraus, dass die Teilnehmer, als sie saßen, es vorzogen, Pursuits zu verwenden. Diese Methode war auch schneller – im Durchschnitt dauerte es nur 1,36 Sekunden, bis Benutzer ein Ziel ausgewählt hatten, im Vergleich zu 2,33 Sekunden bei Dwell und 5,17 Sekunden bei der Verwendung von Gaze Gestures. Wenn sie unterwegs waren, bevorzugten die Benutzer Dwell Time. Mit durchschnittlich 2,76 Sekunden war dies etwas langsamer als Pursuits mit 2,14 Sekunden, aber schneller als Gaze Gestures mit 6,68 Sekunden.
Dr. Mohamed Khamis, von der School of Computing Science der Universität Glasgow, überwachte die Forschung und war Mitautor des Papiers. Er sagte: „Augenverfolgung wurde in den letzten Jahren in einer Reihe von Benutzerumgebungen gut untersucht, aber die meisten davon waren entweder der Benutzer, die Kamera oder beides waren stationär. Da aber die Smartphone-Kameratechnologie fortschreitet, ist es praktischer geworden, Augenverfolgung in diesen Geräten einzusetzen, trotz der Herausforderungen, dass sowohl das Gerät als auch der Benutzer sich gleichzeitig bewegen. Es ist eine vielversprechende Methode, um schnelle Interaktionen mit Geräten zu ermöglichen. Es könnte es auch Menschen mit Mobilitätsproblemen erleichtern, Smartphones zu nutzen, und die Anzahl der Situationen erweitern, in denen Geräte verwendet werden können. Jeder, der versucht hat, einen wichtigen Anruf zu tätigen, während er Handschuhe trägt oder etwas Schweres in der Hand hält, wird wissen, wie schwierig es sein kann, die Hände frei zu machen, um das Gerät zu berühren. Unser Ziel war es, zu untersuchen,
Also Read:
In Other News Around the World: