Le projet consiste à améliorer les algorithmes de navigation corporelle d’une combinaison de capture du mouvement à l’intérieur du système ibNav (Indoor-Body Navigation) du laboratoire LASSENA intégrant une animation virtuelle (« Virtual Reality », VR) avec des capacités de réalités augmentées (« Augmented Reality », AR). Les algorithmes de fusion pourront non seulement permettre une navigation (localisation de l’individu) à l’intérieur d’un environnement réel intérieur mais également dans un environnement virtuel (un jeu, par exemple). Le projet est en lien avec des travaux de navigation à l’intérieur des bâtiments et/ou tout environnement où les systèmes GPS ne fonctionnent pas (« GPS-Denied Applications »). Le laboratoire LASSENA a conçu une combinaison (pantalon, chemise et bandeau frontal) composé de 14 capteurs inertiels. Ces capteurs électroniques de technologies MEMS communiquent leurs mesures brutes à une unité centrale de traitement temps réel qui calculent l’orientation 3D des membres d’un individu dans l’espace de façon totalement autonome, et ce, sans système de localisation GPS. Le modèle tridimensionnel dynamique du corps humain est transféré à un casque AR/VR qui traite l’information à l’intérieur d’une application tel un jeu, un environnement virtuel d’entrainement ou autre type d’application. Dans l’ensemble des fonctionnalités du projet, une consigne de détection d’un évènement dans l’environnement virtuel sera retournée à l’habit pour une rétroaction active sur l’individu via sa combinaison, son vêtement/habit. Une interaction virtuelle entre 2 ou plusieurs individus en temps réels, pouvant être localisé n’importe où sur la planète, pourra être réalisée et visualisée dans la scène virtuelle. Ce système futuriste pourra être utilisé dans diverses applications de type civiles et militaires.