in|situ| Lab - Log In

Navigation et interaction focus+contexte sur tablettes graphiques / Focus+Context Navigation and Interaction on Graphical Tablets

[English version follows]

De nombreuses interfaces graphiques nécessitent de naviguer dans des espaces multi-échelles et d'interagir avec des éléments à différents niveaux de détails (e.g., éditeur graphique et navigation dans des cartes avec GoogleMap). Différentes techniques ont été envisagées (voir [1]), la plus classique étant le pan-and-zoom : déplacement de la vue sur le document par un glissement (drag) et changement du niveau d'échelle avec, par exemple, la molette de la souris ou en rapprochant/écartant deux doigts sur un smartphone ou une tablette.

Un désavantage de l'utilisation d'un changement d'échelle global est qu'il conduit à une perte de contexte. Par exemple, un zoom sur le point d'arrivée d'un parcours aura pour effet de faire disparaître le point de départ de la vue. Contrairement au pan-and-zoom, les techniques focus+contexte modifient localement le document (zoom sur le focus) et laissent le reste du document inchangé (le contexte est conservé). Les lentilles grossissantes ou fish-eye sont l'exemple le plus classique de techniques de type focus+contexte (voir [4] et http://zvtm.sourceforge.net/doc/tutorials/lenses/).

Nous pensons que les techniques de type focus+contexte sont particulièrement bien adaptées aux tablettes graphiques (e.g., iPad et Galaxy Tab). Le canal de sortie, l'écran, a une très bonne résolution et est suffisamment grand (vs. l'écran d'un SmartPhone) pour l'affichage simultané du focus et du contexte. Le canal d'entrée, le toucher direct multi-points, ouvre un espace de conception très vaste pour le contrôle (voir par exemple, les techniques d'interaction introduites pour des tables interactives [2,3]). Cependant, les tablettes imposent aussi des limites qui restreignent cet espace de conception: les techniques doivent être utilisables avec une seule main a priori (l'autre main portant la tablette en situation de mobilité) et tenir compte des problèmes d'occlusion que présente le contrôle direct (la main peut cacher une partie de la surface d'affichage).

Le stage porte donc sur l'étude de techniques focus+contexte adaptées aux tablettes graphiques. Le stagiaire devra réaliser les tâches suivantes :

(1) Développement d'un prototype de navigation sur une image bitmap (une carte géographique par exemple) avec Android et OpengGL ES 2.0.

(2) Conception de contrôles originaux pour des techniques de type focus+contexte pour la navigation et l'interaction.

(3) Évaluation par une ou plusieurs expériences en laboratoire des techniques développées, sur des tâches combinant, par exemple, recherche de cibles et suivi de trajectoires.

Ce stage pourra conduire à une thèse qui aura pour sujet d'étude les interfaces multi-échelles (pan-and-zoom, focus+contexte, overview+details, etc. voir [1]) relativement au type de support matériel (smartphone, tablette graphique, ordinateur de bureau, table interactive et mur d'écran) et au contexte d'utilisation (e.g., un utilisateur vs. collaboratif co-localisé et type de tâche).

English Version:

Many tasks in graphical user interfaces require multi-scale navigation and interaction with objects at different levels of detail (e.g., graphical editor and map navigation as with GoogleMap). Various techniques have been investigated (see [1]). The most classical one is pan-and-zoom: view navigation in the document by dragging it and manipulation of the zoom level with, for example, the mouse wheel or a two-finger "pitch" gesture on a multi-touch surface.

One limitation of pan-and-zoom is that the zoom operation is global, leading to situations where the user is disoriented. For instance, zooming on the end point of a path might push out of the view the starting point. Focus+context techniques overcome this limitation by zooming a local area of the view (focus) and keep the rest of the view intact (context). Magnification lenses are a good example of focus+context techniques (see [4] and http://zvtm.sourceforge.net/doc/tutorials/lenses/).

We believe that focus+context techniques are well suited for graphical tablets (e.g., iPad or Galaxy Tab). The output channel, i.e. the screen, has a high resolution and is large enough (as opposed to a smartphone) for rendering both the context and the focus. The input channel, i.e. multi-touch, opens a very large design space for innovative control (see techniques for interactive tables for example [2,3]). However, tablets also show some limitations that reduce the size of this design space. First, the control must mostly rely on one hand because the other hand will often be used to hold the tablet. Second, direct control causes occlusion issues.

The candidate will investigate focus+context techniques for graphical tablets. More precisely, the intern will work on the following tasks:

(1) Develop a prototype for navigating in a bitmap image (e.g., a map) under Android and OpengGL ES 2.0.

(2) Design novel types of control for focus+context techniques by considering both navigation and interaction (e.g., selection) aspects.

(3) Evaluate the designed techniques through lab experiments on tasks that combine, for example, target search and path navigation.

If the student is highly motivated and interested in conducting research in Human-Computer In- teraction, these directions could form the topic of a Ph.D. thesis. It would consist in investigating multi-scale interface (pan-and-zoom, focus+context, overview+details, etc. see [1]) relatively to different hardware (smartphone, graphical tablets, desktop computer, interactive table and wall-sized screen) and the context of use (e.g., mono vs multi users and task type).

Références/References:

[1] A. Cockburn , A. Karlson , B. Bederson, A review of overview+detail, zooming, and focus+context interfaces, ACM Computing Surveys (CSUR), v. 41 n.1, p.1-31, 2008.

[2] C. Forlines and C. Shen. DTLens: Multi-user tabletop spatial data exploration. In Proc. UIST '05, pages 119-122, 2005.

[3] D. Käser, M. Agrawala and M. Pauly. FingerGlass: efficient multiscale interaction on multitouch screens, In Proc. CHI '11, pages 1601-1610, 2011.

[4] E. Pietriga, O. Bau and C. Appert. Representation-Independent In-Place Magnification with Sigma Lenses. IEEE TVCG. v. 16 n. 3, 455-467. 2010.

Contact

Olivier Chapuis (chapuis@lri.fr), Caroline Appert & Emmanuel Pietriga