Informations générales
Événement : 92e Congrès de l'Acfas
Type : Domaine
Section : Section 200 - Sciences naturelles, mathématiques et génie
Description :Vous trouverez ici les communications libres du domaine Technologies de l'information et des communications. Dès le 28 avril 2025, vous pourrez voir les contributions en cliquant sur le bouton éponyme. Connectez-vous à votre compte utilisateur si vous souhaitez laisser un commentaire ou poser une question.
Dates :- Gauthier Alfonsi (Acfas)
Programme
Toute la semaine
Technologies de l'information et des communications
-
Communication orale
Mise en œuvre d'un système de compression vidéo sémantique sur l'embarqué pour les communications par satelliteRaed Bahria (ÉTS - École de technologie supérieure), Hakim Ghazzai (L'université des sciences et technologies du roi Abdallah - KAUST), Mohamed Karaa (École de technologie supérieure - ÉTS Montréal.), Lokman Sboui (École de technologie supérieure - ÉTS Montréal.)▶ Vidéo
La surveillance vidéo dans les zones isolées est difficile en raison des contraintes de connectivité, telles que l'absence d'infrastructure de communication terrestre et une bande passante très faible. Ce projet propose une solution en utilisant les communications par satellite pour transmettre des données de surveillance sous forme de représentations abstraites issues d'un système de compression de vidéo sémantique. Ce système, basé sur des modèles d'apprentissage profond, génère plusieurs types de représentations (coordonnées des objets, classes, ID de suivi, programmes de correction (patches) d'objets) optimisées pour les systèmes embarqués. Ces représentations, conçues pour réduire la quantité de données tout en conservant les informations essentielles, sont adaptées à des environnements à ressources limitées et transmises efficacement via les satellites.
Nous déployons ce système sur des systèmes embarqués en réduisant leur complexité grâce à des techniques de compression et de conversion de modèles. Nous optimisons les paramètres de compression pour réduire le temps de latence de transmission de l’information tout en développant un schéma de communication adapté aux contraintes des satellites en orbite basse, avec un ordonnancement efficace pour la transmission, soit à partir d'une caméra unique priorisant les représentations, soit de plusieurs caméras coopérant pour déterminer quelles données transmettre selon la bande passante et l'importance des informations.
-
Communication orale
Quantification des artefacts de mouvement dans les IRMs T1 : approche basée sur l'apprentissage synthétiqueSylvain Bouix (École de Technologie Supérieure), Charles Bricout (ÉTS - École de technologie supérieure), Samira Ebrahimi Kahou (Université de Calgary)▶ Vidéo
L'imagerie par résonance magnétique (IRM) est vulnérable à différents artefacts qui affectent la qualité des images, impactant les diagnostics et l'efficacité des logiciels d'analyse. L'artefact de mouvement, inévitable, varie en magnitude et en aspect selon les cas. L'inspection manuelle des volumes, surtout dans des études de grande envergure, est dispendieuse et chronophage. Il devient donc essentiel de détecter automatiquement les volumes problématiques. Cependant, les critères de qualité varient d'une étude à l'autre, rendant difficile l'entraînement, sur la base de ces données, d'un modèle généralisable. De plus, les protocoles d'acquisition cherchant à minimiser la présence d'artefacts, les données disponibles présentent un déséquilibre des classes, limitant la robustesse des modèles.
Nous proposons une méthode pour quantifier les artefacts de mouvement pour les IRMs anatomiques cérébrales T1. Nous avons recours à des techniques de préentraînement sur des artefacts synthétiques et évaluons plusieurs méthodes de quantification, démontrant que ces modèles détectent efficacement le mouvement dans des volumes réels. Après transfert d'apprentissage, les modèles préentraînés sur données synthétiques rivalisent avec ceux entraînés sur des données réelles. En conclusion, les résultats démontrent que l'entraînement sur données synthétiques peut être efficace en pratique et permet aux laboratoires de former leurs modèles avec des ressources limitées. -
Communication orale
Compression sémantique pour la vidéo surveillance dans des environnements à bandes passantes faiblesRaed Bahria (Ecole de technologie supérieure), Hakim Ghazzai (King Abdullah University of Science and Technology (KAUST)), Mohamed Karaa (ÉTS - École de technologie supérieure), Lokman Sboui (Ecole de technologie supérieure)▶ Vidéo
La vidéo surveillance génère un volume important de données qui doivent être transmises sur des canaux de communication. Dans les zones rurales et isolées, l’accès aux réseaux de télécommunications à bon débit n’est toujours pas garanti. Cela impose la nécessité de réduire le volume de données afin de permettre la tâche de surveillance à temps réel. Nous présentons un système basé sur l’intelligence artificielle pour effectuer la compression efficace des vidéos dans un cadre de communication sémantique. La compression se fait en générant des représentations abstraites des objets qui tiennent les informations les plus pertinentes à la surveillance.
Le système combine plusieurs modèles d’apprentissage profond qui génèrent différentes représentations sémantiques qui varient en taille et signification. Un modèle de détection et suivi des objets, YOLOv10, permet d’identifier les objets et leurs mouvements. Un grand modèle de langage pour la vidéo génère des descriptions textuelles de la scène. D’autres modules permettent la séparation d’arrière-plan statique et l’échantillonnage temporel des images vidéo pour éliminer les redondances spatio-temporelles. Ce système permet de transmettre des données représentant seulement 1 % à 12 % du volume initial de la vidéo. Nous établissons ainsi une mesure pour évaluer la valeur sémantique des représentations extraites. Le système vise également à trouver un équilibre entre le taux de compression et la valeur sémantique.
-
Communication orale
Vers un jumeau numérique pour les villes : transformation numérique de la ville de BeaconsfieldNawel Lafioune (ÉTS - École de technologie supérieure), Michele St-Jacques (Ecole de Technologie Superieure)▶ Vidéo
Les municipalités doivent continuellement s'adapter aux nouvelles technologies, souvent en concurrence avec leurs pratiques établies. Le défi central réside dans la gestion des données et de l'information dans des structures organisationnelles cloisonnées, ainsi que dans le manque de stratégie claire pour aborder cette transformation numérique.
Une étude doctorale propose un cadre théorique permettant de mieux guider et encadrer la transformation numérique au sein des municipalités. Elle aide à comprendre les défis liés à la gestion des infrastructures urbaines à travers une approche plus systématique et intégrée, favorisant une transformation numérique efficace. L'étude s'appuie sur une enquête menée auprès de 44 municipalités québécoises ainsi que sur des entretiens approfondis avec 13 municipalités de tailles variées.
La présentation retrace les étapes de développement du cadre théorique, puis en détaille la validation et l’application à travers l’étude de cas de la Ville de Beaconsfield.
Les résultats mettent en évidence que la gestion des données demeure un obstacle majeur. Malgré une volonté affirmée, la ville ne sait pas comment aborder la transformation numérique. L’analyse révèle également un manque critique de ressources humaines, d’expertise et de formation pour soutenir efficacement cette transition, aboutissant à l’élaboration d’une feuille de route structurante pour la transformation numérique de la ville de Beaconsfield.
-
Communication orale
Recommandations de librairies logicielles par les grands modèles de langage : défis, risques et solutionsAhmad Abdellatif (Université de Calgary), SayedHassan Khatoonabadi (Université Concordia), Jasmine Latendresse (Université Concordia), Emad Shihab (Université Concordia)▶ Vidéo
Les bibliothèques logicielles jouent un rôle critique dans la fonctionnalité, l'efficacité et la maintenabilité des systèmes logiciels. Avec l'adoption croissante des grands modèles de langage (GMLs) par les développeurs pour simplifier leurs processus de code, il devient essentiel d'évaluer l'efficacité de ces modèles dans la recommandation de bibliothèques appropriées. Dans une première étude, nous avons évalué les performances de ChatGPT en tant que « bibliothécaire logiciel » en générant du code Python pour 10 000 questions issues de Stack Overflow. Nos résultats montrent que ChatGPT propose des bibliothèques comportant des licences copyleft restrictives, sans que cela ne soit explicitement communiqué, dans 14,2 % des cas. De plus, 6,5 % des bibliothèques ne fonctionnaient pas correctement dès l'installation, causant potentiellement des confusions pour les développeurs. Dans un second travail, nous avons développé le Software Librarian, un outil destiné à résoudre certaines des lacunes identifiées dans l'étude précédente. Cet outil fournit des informations en temps réel sur les bibliothèques Python recommandées par GitHub Copilot, incluant les détails sur les licences, l'état de dépréciation et la santé des bibliothèques. Le Software Librarian assure donc que les bibliothèques recommandées sont non seulement valides, mais adaptées à une intégration dans les projets, en tenant compte des aspects juridiques et de la maintenabilité à long terme.
-
Communication orale
Identification automatisée de marques descriptives sur des douilles de cartoucheLuc Duong (École de technologie supérieure), Marie-Eve Le Bouthillier (ÉTS - École de technologie supérieure), Sylvie Ratté (École de technologie supérieure)▶ Vidéo
Lors du tir d’une cartouche, les mécanismes de l’arme à feu laissent des marques sur la balle et la douille. Ces marques peuvent être des caractéristiques de classe, qui sont communes aux armes à feu d’une même famille; ou des caractéristiques individuelles, qui sont théoriquement uniques et permettent de relier un spécimen à une arme à feu précise. Lorsque des douilles sont retrouvées sur une scène de crime, leurs marques sont analysées dans un laboratoire. Actuellement, avant de comparer les caractéristiques individuelles pour proposer des correspondances, un triage manuel est effectué en considérant les caractéristiques de classe afin d’éviter de calculer inutilement les comparaisons avec des spécimens produits par des familles d’armes différentes.
Quelques études ont tenté d’identifier des marques variées et des défauts sur des surfaces texturées, mais pas sur des douilles. D’autres ont cherché à identifier la famille d’une arme à feu utilisée, à l’aide de l’apprentissage machine traditionnel d’après des caractéristiques prédéterminées et mesurées par un expert. La contribution de ce projet sera d’utiliser l’intelligence artificielle afin de détecter automatiquement les marques de classe sur des images de douilles. Notamment, des techniques de classification multiétiquettes (plus d’un type de marque peut être présent) et de clustering sont envisagées. Cette présentation discute des résultats préliminaires.
-
Communication orale
L'utilisation des systèmes distribués pour les robots autonomesJulien Gascon-Samson (École de technologie supérieure), Kuljeet Kaur (École de technologie supérieure), Cédric Melançon (ÉTS - École de technologie supérieure), Maarouf Saad (École de technologie supérieure)▶ Vidéo
Les robots sont de plus en plus présents dans les hôpitaux pour effectuer certaines tâches dans le but de libérer plus de temps au personnel de la santé. Ces robots autonomes sont très souvent dispendieux et offrent peu de flexibilité pour la gestion globale d'une flotte de robots. L'utilisation d'une solution distribuée en périphérie jusqu'en infonuagique peut résoudre ces limitations. Le déplacement de la capacité de calcul en dehors de la plateforme robotique permet la réduction de coûts, tout en permettant le partage de ressources entre plusieurs robots. Une solution qui centralise certaines décisions permet une meilleure gestion de l'ensemble de la flotte robotisée. Certaines portions peuvent être décentralisées afin d'optimiser les performances de certains algorithmes d'intelligence artificielle dans le but de répondre aux contraintes temps réel d'un contrôle de robot. Le résultat est une solution plus abordable, plus facile à maintenir et qui permet au personnel de la santé de se concentrer sur les tâches à caractère humain de leur profession.
-
Communication orale
Système de prévention de la perte de données (DLP) assisté par l'intelligence artificielle (IA)Ali Azouz (Université du Québec à Montréal (UQAM)), Amine Messaoud Nacer (ÉTS - École de technologie supérieure), Bassant Selim (École de technologie supérieure (ÉTS))▶ Vidéo
Dans un environnement où les fuites de données représentent une menace majeure pour les organisations, cette recherche se concentre sur la problématique de l’équilibre entre l’automatisation de la protection des données sensibles et la supervision humaine dans les processus critiques. Le projet propose un système de prévention des pertes de données (DLP) assisté par intelligence artificielle (IA), intégrant les modèles GPT-4-Turbo et XGBoost pour automatiser la classification des données sensibles. La contribution principale de cette recherche réside dans la démonstration de l'efficacité d'un modèle hybride, combinant IA et intervention humaine, pour améliorer la détection des fuites tout en minimisant les erreurs de classification. La méthodologie comprend l’analyse de courriels réels à partir d'une base de données publique, avec une phase de prétraitement des données (nettoyage, tokenization, TF-IDF) suivie de l'entraînement des modèles. Les performances ont été évaluées par des mesures standard telles que la matrice de confusion, la précision et le rappel. Les résultats préliminaires montrent que les performances de XGBoost et de GPT-4-Turbo sont comparables à celles de la classification humaine. En combinant ces trois approches, nous obtenons un système DLP solide. Cette étude valide ainsi l’intérêt d’un système DLP hybride dans des environnements organisationnels complexes.
Technologies de l'information et des communications
-
Communication par affiche
Les grands modèles de langage (LLMs) influencent-ils le délai durant les étapes de demande de tirage (pull request)Ahmad Abdellatif (Universite Calgary), Samuel Abedu (Universite Concordia), Antonio Collante (Université Concordia), Alor Ebube (Universite Concordia), Hassan Khatoonabadi (Universite Concordia), Emad Shihab (Universite Concordia)Affiche
Les grands modèles de langage (LLM) offrent des bénéfices dans le développement de logiciels. Néanmoins, il reste à explorer le potentiel des modèles en tant qu'assistant dans les contextes de collaboration. Les résultats de cette étude exploratoire pourraient être cruciaux pour les développeurs qui envisagent d'adopter des outils d'intelligence artificielle (IA) générative lors des demandes de tirage (pull request). Néanmoins, il est impératif de se poser les questions suivantes : les LLMs accélèrent-ils les révisions du code, où sont-ils le plus souvent utilisés comme assistance, quelles sont les motivations à les utiliser lors de chaque stade de la revue du code? Un modèle linéaire à effets mixtes a été développé pour évaluer la pertinence statistique de l'effet de l'utilisation de LLMs sur le délai pour résoudre les revues de code. Selon les résultats du modèle, l'utilisation des LLMs pourrait réduire le temps nécessaire pour la revue du code. Une méthode quantitative basée sur des statistiques descriptives non paramétriques a également été choisie pour étudier l'utilisation des LLMs lors des différentes étapes de la revue de code. Une adoption anticipée peut diminuer le temps total du processus, ce qui augmente l'efficacité de la pratique, par ailleurs, lors de la soumission de la revue du code. Nos analyses préliminaires sur les événements où les LLMs ont été utilisés, montrent que le LLM peut fournir des explications sur un problème spécifique afin d'aider le développeur à le comprendre.
-
Communication par affiche
Un cadre de développement logiciel évolutif fondé sur les systèmes multi-agents de grands modèles de langageHassan khatoonabadi (Concordia University), Darine Ameyed (École de technologie supérieure (ÉTS)), Chaima Jaziri (Université Concordia), Emad Shihab (Concordia University)Affiche
L'émergence de grands modèles de langage (LLM) a récemment conduit au développement de systèmes multiagents. Cela a pour l'objectif à développer des systèmes intelligents qui peuvent effectuer des tâches complexes telles que les tâches de conception et développement logiciel. Cependant, les implémentations actuelles suivent une approche statique basée sur des modèles préétablis de processus de développement, qui s'appuient fortement sur des définitions de rôles et des catégorisations de tâches prédéfinies. Bien que cette approche statique basée sur les modèles prédéfinis soit efficace pour des tâches spécifiques, elle manque de flexibilité, d'autonomie et d'évolutivité pour s'adapter dynamiquement aux problèmes. Dans ce travail, nous posons la question suivante : comment les systèmes multiagents à base des LLM peuvent-ils générer et gérer dynamiquement des tâches spécifiques au sein des processus de développement logiciel? Nous avons défini cinq cas d'utilisation et exploité l'ensemble de données publiques PURE. Notre approche a consisté à analyser ces documents, à extraire les problématiques clés, et à concevoir une architecture de base sur « Méga-Agent ». En comparaison avec les travaux antérieurs, qui s'appuyaient sur cinq agents et neuf sous-tâches définis manuellement, notre méthodologie a abouti à la génération autonome de quatre agents, chacun jouant des rôles distincts, et contribuant à l'optimisation des processus de développement logiciel.
-
Communication par affiche
Optimisation des opérations de déneigement assistée par la vision par ordinateurHakim Ghazzai (King Abdullah University of Science and Technology), Mohamed Karaa (ÉTS - École de technologie supérieure), Lokman Sboui (Ecole de technologie supérieure)Affiche
Le déneigement urbain est une tâche importante pour assurer la sécurité et la mobilité continue pendant l’hiver. La complexité du réseau routier et les variations des activités et des conditions climatiques imposent une planification plus rigoureuse des opérations et des ressources. Nous étudions l’utilisation des images des caméras de surveillance routière pour assister la planification des opérations de déneigement grâce à des prédictions sur l’état de la chaussée et de la circulation.
Dans un premier temps, nous recueillons un large ensemble de données d’images routières de la ville de Montréal pendant l’hiver. Nous avons développé un outil d’annotation basé sur l’apprentissage profond pour attribuer à chaque image une étiquette décrivant l'état de la chaussée en fonction du niveau de neige. Les images des caméras sont classées à l'aide d'un modèle entraîné sur le jeu de données collecté, et l'état de circulation est estimé en comptant les véhicules présents. Pour les rues sans caméras, un modèle d'apprentissage de graphe estime les informations manquantes. Nous combinons ces données avec des informations du réseau routier pour établir des priorités de déneigement. La planification du déneigement est effectuée de manière à ce qu'un plus grand nombre de routes prioritaires soient déneigées en premier. Cette approche assistée par la vision par ordinateur permet également une meilleure qualité de service pour la mobilité des véhicules.
-
Communication par affiche
Détecteur de puissance RF CMOS large bande pour la calibration d'une antenne réseau-réflecteur reconfigurableNicolas Constantin (Ecole de Technologie Supérieure), Elouan Millet (ÉTS - École de technologie supérieure)Affiche
Les antennes réseau-réflecteur reconfigurables (reconfigurable reflectarray antenna) permettent le modelage de faisceaux d’ondes électromagnétiques, une technique nécessaire pour les réseaux 5G actuels et pour les futurs réseaux 6G. Le modelage se fait par déphasage du signal radiofréquence émis grâce à des composants tels que des diodes à capacité variable (varicap), qui sont contrôlées individuellement par des tensions de polarisation variables. Ces diodes varicap sont présentes dans chacune des petites cellules d’antenne faisant partie d’une matrice planaire, constituant ainsi le réseau-réflecteur.
La capacité des diodes varicap varie non linéairement avec la tension de contrôle et celles-ci exhibent des comportements non linéaires lorsque la puissance du signal radiofréquence est élevée. Ces non-linéarités introduisent de la distorsion dans le signal émis, mais cela peut être réduit par un processus de prédistorsion qui dépend de la puissance du signal émis. Le but de ce travail consiste donc à développer un détecteur de puissance intégré en technologie CMOS pour mesurer la puissance émise par chaque cellule de l’antenne.
Cette recherche se penche sur une technique existante, mais vise à l’améliorer pour exploiter une technologie CMOS-65nm afin d’augmenter la fréquence d’opération et accroître la bande passante.
Ce travail contribue aussi à l’étude de la distorsion dans un détecteur de puissance pour antennes reconfigurables, un aspect peu étudié dans la littérature.
-
Communication par affiche
Estimation de la direction d'arrivée avec une antenne unique en mouvement curvilignePascal Giard (École de technologie supérieure), Lokman Sboui (École de technologie supérieure), Jérémie Voix (École de technologie supérieure), Nour Zidi (ÉTS - École de technologie supérieure)Affiche
Ce projet de recherche propose une approche novatrice pour l'estimation de la direction d'arrivée (DoA) en utilisant une seule antenne se déplaçant le long d'une trajectoire curviligne pour créer un réseau d'antennes virtuelles (VAA). Contrairement aux méthodes traditionnelles comme l'algorithme MUSIC, qui repose généralement sur des réseaux d'antennes fixes, notre technique exploite le mouvement de l'antenne pour simuler l'effet d’un réseau multiélément. Cela permet une estimation précise de la DoA dans des scénarios où le déploiement de grands réseaux d'antennes est peu pratique. Les simulations valident la performance de cette méthode dans des mouvements uniformes et curvilignes, démontrant sa robustesse et son exactitude. Cette approche réduit considérablement les besoins en matériel tout en maintenant une grande précision, ce qui la rend adaptée à des environnements dynamiques et contraints en ressources.