Le projet CARISM (partenaires : ECN/AAU, IMT-A/LS2N, Dynamixyz, Mazedia) vise à créer une expérience immersive collective, en réalité augmentée, adaptable à tous les types de médiation – sciences, nature, art, etc. – dès que l’immersion du visiteur et les interactions dans un univers augmenté peut avoir du sens.

Forts d’un lieu d’expérimentation (Océarium du Croisic) propice à ce type d’expérience et d’un premier prototype fonctionnel, les partenaires du projet CARISM ont pour objectif de concevoir un dispositif technique innovant combinant la détection de postures dans une scène 3D et d’expressions faciales pour proposer des interactions entre un groupe de visiteurs et des éléments virtuels (modèles 3D animés d’espèces animales) projetés sur écran.

Mazedia a conçu, produit et mis en place pour l’Océarium du Croisic un dispositif de réalité augmentée dans l’espace d’exposition temporaire de l’aquarium. Celui‐ci avait pour objectif de proposer une expérience nouvelle d’interaction entre les visiteurs de l’Océarium et des animaux marins virtuels : manchots, requin. Le dispositif, basé sur la réalisation d’animations 3D, permet, par le biais d’une caméra de prise de vue, d’un module de captation de la vidéo en live et d’un vidéoprojecteur la restitution des animations 3D en augmentant la scène réelle.

Objectifs

L’objectif est de prototyper un système permettant de capturer les postures et les mouvements du corps d’un groupe de personnes dans un espace physique délimité. Les techniques de l’état de l’art permettent aujourd’hui soit de fonctionner avec plusieurs personnes au prix d’un équipement complexe (système de motion capture) soit de capturer une seule personne ou plusieurs dans des configurations sans occlusions à l’aide de dispositifs plus simples.

Il s’agit ici de développer de nouvelles techniques permettant la détermination de postures d’un petit groupe de personnes (4-6) en utilisant un matériel limité (pas ou peu d’équipement des personnes). La solution proposée doit être robuste, facile d’utilisation (sans calibration et autonomie des participants), ne doit nécessiter que peu de maintenance et doit être efficace.

La.e candidat.e aura la responsabilité d’étudier et de proposer une instrumentation de l’environnement physique (combinant par exemple caméras classiques et de profondeur). Il/elle devra travailler en étroite collaboration avec l’équipe IMT-A/LS2N responsable de la définition des scénarios de collaboration humains/animaux virtuels qui dépendent des (ré)actions des humains lors de leur interactions avec les animaux (extraites des postures détectées).

Profil recherché

Très bonnes connaissances informatiques dans le domaine de la réalité virtuelle ou augmentée, ou vision par ordinateur.

Compétences spécifiques recherchées : programmation C++/C#, Unity3D, OpenCV, Nuitrack, OpenPose, etc…

Rémunération :

Informations : Guillaume Moreau, Jean-Marie Normand