Les capteurs 3D tenus en main permettent de recueillir des données sur la géométrie d’objets pour diverses applications comme la métrologie et le contrôle de qualité. Ces capteurs exigent que l’utilisateur interagisse avec un ordinateur durant le processus de numérisation, soit pour consulter la progression du scan à l’écran, ou pour saisir des commandes au clavier. L’utilisateur doit détourner son regard de l’objet à numériser lors de ces interactions, ce qui résulte en une perte de productivité et potentiellement de qualité du scan.
L’exposé portera sur l’interface gestuelle basée sur la vision par ordinateur développée pour la commande à distance d’un logiciel de numérisation 3D au moyen d’une caméra observant l’utilisateur. On y présentera le montage du système de reconnaissance de gestes, constitué d’une caméra de profondeur Azure Kinect; le langage de gestes défini et sa correspondance aux fonctionnalités du logiciel de numérisation; et les modèles d’apprentissage automatique créés pour reconnaître les gestes statiques et dynamiques de l’utilisateur à partir des données de caméra.
Connexion requise
Pour ajouter un commentaire, vous devez être connecté.