Touche pas à mon Pad ! ou l’interaction homme-machine sans le toucher…

Depuis quelques années le tactile a pris une part importante dans nos interactions avec les systèmes High Tech qui nous entourent. Mais le restera-t-il longtemps ? Les nouvelles interactions émergentes ne vont-elles pas bientôt le dépasser ? Quel est le futur de l’interaction homme-machine ?

Après un premier billet publié il y a quelques mois qui commençait par dresser un état des lieux des IHM existantes et des évolutions, nous allons ici nous pencher de plus près sur deux tendances : la reconnaissance gestuelle (qui est désormais une technologie mûre et très performante) et la reconnaissance mentale (un peu plus futuriste, mais déjà disponible sur le marché).

Reconnaissance gestuelle

Les évolutions technologiques au niveau de la reconnaissance gestuelle sont telles qu’il est désormais possible d’interagir avec son équipement High Tech de tous les jours : tablettes tactiles, Smartphone, télévision, GPS… sans même les toucher !!

EyeSight par exemple propose une solution de reconnaissance gestuelle assez précise qui permet à l’utilisateur d’interagir avec ses interfaces tactiles. Cela s’avère pratique dans certaines situations de la vie de tous les jours comme lorsque l’on cuisine et que nos doigts ne sont pas forcément secs et propres…

Dans certains contextes professionnels, pour éviter les risques de contamination dans le milieu médical par exemple, ce mode d’interaction présente un intérêt certain.

Ainsi, nous observons que les modalités d’interaction évoluent. La nature de l’input (commande en entrée) qui permet de communiquer avec la machine change. Le binôme clavier/souris et le tactile ne sont plus les seuls moyens mis à notre disposition pour interagir avec un système.

La maîtrise de la reconnaissance gestuelle par l’utilisation de caméra 3D (Leap Motion, GestureTeK) , ou par sondWave (utilisation d’un micro et d’enceintes) nous conduit à une évolution importante des interactions. La conception des futurs systèmes doit être repensée pour optimiser ces nouvelles modalités d’interaction. Il ne suffit pas seulement d’intégrer ces nouvelles technologies sur les interfaces existantes conçues initialement avec des commandes par clavier/souris pour réussir une expérience utilisateur optimisée.

Reconnaissance mentale et BCI (Brain Computer Interface)

Encore époustouflée par les progrès de la reconnaissance gestuelle, voilà que les technologies concernant la reconnaissance mentale commencent elles aussi à faire parler d’elles.

La société Emotiv développe un bandeau qui mesure l’activité cérébrale en la catégorisant selon les modalités rencontrées lors de la communication homme-homme : cognitive, expressive et affective. Ces mesures de l’activité cérébrale deviennent des inputs permettant de communiquer avec le système (la machine).

Les mesures expressives permettent par exemple de transposer sur un avatar virtuel nos expressions faciales (sourire, froncement des sourcils…). Les mesures affectives peuvent modifier la luminosité, la couleur de fond d’une scène de jeux vidéo en fonction des émotions ressenties et d’en modifier l’évolution…

En ce qui concerne les mesures cognitives, elles permettent de commander volontairement des objets présents sur l’interface par la simple puissance de sa pensée.

La richesse de ces mesures de l’activité cérébrale étoffe ainsi la palette des interactions possibles avec le système en exploitant des inputs émis consciemment ou non par notre cerveau.

(R)évolution des Interactions Homme-Machine

Ces évolutions technologiques nous donnent l’opportunité de repenser totalement l’interaction homme-machine. La palette des interfaces et des interactions disponibles (sans oublier la reconnaissance vocale et le guidage oculaire) s’élargit et notre créativité doit être au rendez-vous pour proposer une expérience utilisateur enrichie et réellement innovante. En effet, au delà de l’effet « wow » (on se croirait Tom Cruise dans Minority Report, ou un grand manitou avec des pouvoirs de télékinésie) il faut que ces progrès technologiques soient accompagnés d’une certaine valeur ajoutée (ou d’une valeur ajoutée certaine) en termes d’utilité et utilisabilité pour le public. En tant qu’ergonomes et experts d’user experience, nous nous devons tout d’abord de mieux comprendre l’apport de chacune de ces technologies (clavier/souris, contrôle oculaire, contrôle vocale…) afin d’identifier les axes d’optimisation en termes d’interaction homme-machine. A ce sujet, d’autres billets de Blog suivront, enrichis par nos projets R&D.

De nouvelles guidelines restent à définir afin de servir de base pour la conception des futures interfaces au potentiel surprenant. A nous de jouer…

  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
Michèle Delacroix

Ergonome cogniticienne depuis 10 ans, Michèle a une grande expérience dans l’analyse et l’optimisation d’IHM complexes (aéronautique, prévoyance…). Elle est également en charge du projet R&D « Technologies Usages et Interactions » chez LudoTIC.

0 commentaires

Laisser un commentaire

Vous souhaitez vous joindre à la discussion ? N'hésitez pas !

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.