Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Les antennes réseau-réflecteur reconfigurables (reconfigurable reflectarray antenna) permettent le modelage de faisceaux d’ondes électromagnétiques, une technique nécessaire pour les réseaux 5G actuels et pour les futurs réseaux 6G. Le modelage se fait par déphasage du signal radiofréquence émis grâce à des composants tels que des diodes à capacité variable (varicap), qui sont contrôlées individuellement par des tensions de polarisation variables. Ces diodes varicap sont présentes dans chacune des petites cellules d’antenne faisant partie d’une matrice planaire, constituant ainsi le réseau-réflecteur. 

La capacité des diodes varicap varie non linéairement avec la tension de contrôle et celles-ci exhibent des comportements non linéaires lorsque la puissance du signal radiofréquence est élevée. Ces non-linéarités introduisent de la distorsion dans le signal émis, mais cela peut être réduit par un processus de prédistorsion qui dépend de la puissance du signal émis. Le but de ce travail consiste donc à développer un détecteur de puissance intégré en technologie CMOS pour mesurer la puissance émise par chaque cellule de l’antenne.

Cette recherche se penche sur une technique existante, mais vise à l’améliorer pour exploiter une technologie CMOS-65nm afin d’augmenter la fréquence d’opération et accroître la bande passante.

Ce travail contribue aussi à l’étude de la distorsion dans un détecteur de puissance pour antennes reconfigurables, un aspect peu étudié dans la littérature.

Les modèles de graphème en phonème sont des composants clés dans les systèmes de reconnaissance automatique de la parole et de synthèse vocale. Avec des paires de langues peu dotées (ou peu de ressources linguistiques, d'outils informatiques) qui ne possèdent pas de dictionnaires de prononciation bien développés, les modèles de graphème en phonème sont particulièrement utiles. En principe, ces modèles sont basés sur des alignements entre les séquences sources de graphèmes et les séquences cibles de phonèmes. Dans le cadre de notre travail de recherche, nous présentons une nouvelle méthode appliquant la représentation d'alignement au niveau de caractères pour les séquences d'entrée ainsi que les plongements (embeddings) pré-entraînés de source et de cible pour surmonter le problème de la tâche de translittération pour une paire de langues peu dotée. Les expérimentations ont été réalisées sur la paire de langues peu dotée franco-vietnamienne. Avec seulement un petit dictionnaire de prononciation bilingue disponible pour l'apprentissage des modèles de translittération, nous avons obtenu des résultats prometteurs avec un grand gain de score BLEU ainsi qu'une réduction du taux d'erreur de traduction (TER) et du taux d'erreurs de phonèmes (PER), comparés à d'autres systèmes utilisant l'approche statistique.

La sécurité routière représente un processus continu qui consiste à identifier des zones à risque et d'apporter des solutions viables. Une diversité de méthodes de prédiction paramètres du trafic sont utilisées lors des évaluations des risques.    Le fait qu'il n'existe pas de processus pour faire un choix sur des méthodes de prédiction peut avoir des conséquences problématiques au niveau des solutions implantées pour améliorer la sécurité des zones identifiées.  Notre objectif est de choisir des méthodes de prédiction des paramètres du trafic de manière à éviter d'implanter des solutions qui ne conviennent pas réellement aux zones à risque identifiées.  Notre approche de résolution est basée sur la définition et le développement d'un environnement d'expérimentation et la définition d'études de cas réalistes permettant d'étudier les conséquences des précisions de diverses méthodes de prédiction.   Le simulateur de trafic urbain SUMO est utilisé pour générer un trafic au niveau de plusieurs zones de la Ville de Gatineau. L'installation de capteurs nous a permis de faire du comptage concernant ces zones.   Des études empiriques sont en cours pour tester les méthodes de prédictions couramment utilisées pour la prédiction de densité de trafic. Différentes valeurs de limitations de vitesses sont considérées. Les résultats attendus permettront de définir une méthodologie pour optimiser le choix d'une méthode de prédiction selon les caractéristiques du trafic routier.

La conception d’un régulateur de tension CMOS pour amplificateurs de type RFIC GaAs HBT comporte des défis. Avec une faible consommation de courant et à bas voltage, il doit être capable de fournir un courant de 20 mA, tout en restant insensible aux perturbations RF. La structure "Recycled Folded-cascode" (RFC) permet un fonctionnement à basse tension avec de bonnes performances, mais ne répond pas entièrement à cette problématique.

Cette communication propose une version améliorée de la structure RFC qui, grâce aux  modifications illustrées à la figure jointe, constitue une solution adaptée à cette problématique.  La méthodologie employée est présentée à travers des résultats de simulations avec un signal d’excitation RF à 1.88 GHz et de puissance 20 dBm, ainsi qu’une charge émulant le comportement d'un transistor GaAs HBT. L’effet perturbateur du à l’infiltration du signal RF dans les circuits de polarisation à travers l’inductance d’isolation a été étudié.

Alimentée à 1.8 V, la structure RFC améliorée consomme un courant de polarisation ramené de 800 µA à 135 µA. Employée dans une configuration de rétroaction, elle assure la régulation de tension à 1.4 V, pour un courant de charge allant jusqu’à 20 mA. La technique de désensibilisation appliquée contre les perturbations RF permet de réduire la chute de tension de sortie par 80 mV, pour rétablir une régulation à 97%. Elle permet d’utiliser une inductance d’isolation aussi faible que 8 nH, favorisant l’intégration sur puce.

L'algorithme de Viterbi est habituellement utilisé dans les systèmes de reconnaissance de la parole pour la recherche du meilleur chemin dans le graphe de reconnaissance.  L'espace de recherche étant immense, l'arbre de recherche doit être élagué afin de garder seulement les hypothèses les plus prometteuses.  Cependant, cette approche a pour effet de déstructurer les accès mémoire, ce qui conduit à une mauvaise utilisation de l'architecture de la mémoire sur les processeurs multi-coeurs et graphiques (GPUs).


Nous allons décrire comment nous avons utilisé l'algorithme de recherche A* afin de diminuer considérablement le temps de recherche dans le graphe grâce à l'utilisation d'un graphe de reconnaissance simplifié comme heuristique.  Ce graphe, beaucoup plus petit, permet une recherche exhaustive qui utilise plus efficacement les architectures mémoire des processeurs Intel et GPUs. La recherche elle même (7% du temps de calcul total) ne pouvant pas être parallélisée efficacement, est demeurée séquentielle. Le calcul de l'heuristique, sur un processeur 4 coeurs est 4.1 fois plus rapide que la version séquentielle sur un seul coeur tandis que sur un GPU, le facteur d'accélération est de 12x. Nos expériences, sur une application temps réel, montre que notre système parallèle (les probabilités acoustiques sur GPU) nous permet d'augmenter la précision de 4% absolu par rapport au système basé sur l'algorithme de Viterbi séquentiel. 

L’énergie éolienne représente aujourd’hui une source d’énergie verte qui joue un rôle important dans le domaine de l’énergie électrique. Les éoliennes  situées dans des zones de climat froid sont affectées par le phénomène de givrage. L’accrétion de glace sur les pales, et l’infiltration du froid dans la structure sont à l’origine de pannes et d’usures prématurées. Un fonctionnement avec une forte accumulation de glace peut endommager l’éolienne et représenter un danger pour la sécurité à cause des jets de glace. Ces effets peuvent diminuer considérablement la production, et être responsable de l’arrêt complet de l’éolienne, élevant les dommages à plusieurs millions de dollars.

La détection et la mesure de la glace est devenu un souci majeur pour les fabricants et les exploitants. Les systèmes actuels ne sont pas capables de fonctionner de manière fiable dans des conditions extrêmes. Dans ce travail, deux approches basées sur la vision artificielle ont été développées et expérimentées sur des images d’éoliennes. La première utilise la forme du mât comme référence. La quantité de glace accumulée est la différence entre la largeur du mât sans glace et la largeur avec glace. La deuxième méthode mesure le profil givré sur la pale de l’éolienne. Dans les deux cas, l’image doit être rectifiée pour annuler la perspective et effectuer la mesure. Les résultats obtenus se comparent avantageusement aux mesures manuelles et démontrent le potentiel des solutions proposés.

L'imagerie par résonance magnétique (IRM) est vulnérable à différents artefacts qui affectent la qualité des images, impactant les diagnostics et l'efficacité des logiciels d'analyse. L'artefact de mouvement, inévitable, varie en magnitude et en aspect selon les cas. L'inspection manuelle des volumes, surtout dans des études de grande envergure, est dispendieuse et chronophage. Il devient donc essentiel de détecter automatiquement les volumes problématiques. Cependant, les critères de qualité varient d'une étude à l'autre, rendant difficile l'entraînement, sur la base de ces données, d'un modèle généralisable. De plus, les protocoles d'acquisition cherchant à minimiser la présence d'artefacts, les données disponibles présentent un déséquilibre des classes, limitant la robustesse des modèles.

Nous proposons une méthode pour quantifier les artefacts de mouvement pour les IRMs anatomiques cérébrales T1. Nous avons recours à des techniques de préentraînement sur des artefacts synthétiques et évaluons plusieurs méthodes de quantification, démontrant que ces modèles détectent efficacement le mouvement dans des volumes réels. Après transfert d'apprentissage, les modèles préentraînés sur données synthétiques rivalisent avec ceux entraînés sur des données réelles. En conclusion, les résultats démontrent que l'entraînement sur données synthétiques peut être efficace en pratique et permet aux laboratoires de former leurs modèles avec des ressources limitées.

La mesure objective de la douleur d’une personne atteinte de la fibromyalgie (FM) représente un défi puisque la symptomatologie chez ces personnes est caractérisée par de douleurs diffuses, persistantes, amoindrissant leurs capacités fonctionnelles. Jusqu’à ce jour, des études en imagerie cérébrale fonctionnelle utilisant l’électroencéphalogramme (EEG) se sont essentiellement concentrées sur l’analyse spectrale, fondée sur l’hypothèse de stationnarité des signaux. Cependant, l’EEG est un signal non-périodique, non-stationnaire où l’information de la douleur peut contenir des paramètres pertinents changeant dans le temps. Par conséquent, nous proposons l’application d’un algorithme permettant de déterminer un indice pouvant être lié à la douleur et à la performance à la tâche à l’aide des polynômes de Tchebychev. Ainsi, nous émettons l’hypothèse que la douleur musculosquelettique et la performance à la tâche seraient en lien avec l’énergie provenant de l’EEG. Cet algorithme, capable de détecter les paramètres des processus non-stationnaires, calcule un indice permettant d’inférer sur la douleur musculosquelettique pendant la tâche. L’efficacité de notre approche a été évaluée sur quatre participants atteints de la FM et quatre participants sains. Les résultats préliminaires montrent que les pointes d’énergie apparaissant dans le temps pourraient être corrélées avec un indice d’une douleur généralisée et de performance à la tâche bimanuelle chez les personnes atteintes de la FM

Résumé: Ordinateur quantique, cryptographie quantique et mémoire magnétique, toutes ces avancées technologiques découlent de la physique quantique et de la notion de spin. Mais qu’est-ce qu’un spin? Le spin est une propriété fondamentale des particules élémentaires. Les particules élémentaires sont des particules qui forment la matière autour de nous, par exemple l’électron. Celui-ci orbite autour d’un noyau d’atomes et son spin lui permet de se comporter tel un petit aimant qui suit le champ magnétique produit par l’atome. Le spin de l’électron est fixe et peut avoir une valeur de +1/2 ou -1/2. L’existence de deux états permet à l’électron de se superposer et de produire des états inaccessibles classiquement.

La scoliose idiopathique adolescente (SIA) est une déformation de la colonne vertébrale qui affecte 1% de la population. Les patients atteints de SIA sont suivis périodiquement en clinique d’orthopédie du CHU Sainte-Justine. Une base de données a été conçue pour informatiser les données recueillies. Or, la consultation de la base de données s’effectue sur un poste de travail, peu adapté à une utilisation clinique. L'utilisation d'une application mobile faciliterait le travail des cliniciens en rendant plus convivial l'accès à la base de données. L’objectif de ce projet de recherche est de présenter l’analyse, la conception et l’implémentation d’un système permettant aux orthopédistes de consulter un dossier médical sur la plateforme iOS d’Apple (Cupertino, É.U.). Le processus de développement logiciel Rational Universal Process a été utilisé pour modéliser le système. L’analyse et l’identification des exigences fonctionnelles et non fonctionnelles ont permis de bien identifier les besoins cliniques. Les comportements statiques et dynamiques du système furent modélisés avec le langage UML. La phase de développement a permis de réaliser une application iPad en utilisant le langage Objective-C. La recherche d’un dossier est réalisée selon des critères médicaux ou nominaux sur les patients, incluant une visualisation interactive des radiographies. Le prototype a été validé avec un chirurgien orthopédiste et le déploiement sur iPad est planifié prochainement en clinique.

La détection de copie audio peut être utilisée dans plusieurs applications comme la détection de copie frauduleuse d'oeuvres musicales ou la détection de publicités afin de s'assurer que les publicités d'une entreprise sont diffusées tel que stipulé dans le contrat.  Nous avons développé un système de détection de copie dans le cadre de l'évaluation TRECVID.  Pour cette évaluation, nous avions une base de données de 385 heures audio qui était notre référence.  La tâche consistait à retrouver des fichiers audio transformés de 7 façons différentes, dont 3 pour lesquels de la parole avait été ajoutée à l'audio rendant le processus beaucoup plus difficile.  Nous avons développé un algorithme en deux phases.  La première phase permet d'éliminer rapidement les candidats les plus faibles.  La deuxième phase permet de raffiner les résultats et demande le calcul d'une empreinte beaucoup plus lente à calculer mais beaucoup plus précise.  Pour pouvoir l'utilisé en pratique, nous avons implanté ce calcul sur un processeur graphique (GPU).  La version GPU est de 80 à 200 fois plus rapide que sur un CPU avec un seul coeur.  L'accélération dépend des applications et varie selon la taille des audios à évaluer et celle de la base de données. Le taux de détection est supérieur à 99% pour les 4 premières transformations et de 94% pour les 3 plus complexes.

En vidéo-surveillance, la capacité de détecter et de suivre une cible en temps réel représente un objectif important pour garantir la sécurité d’un périmètre dans des zones sensibles. De plus, avoir la possibilité de suivre l’objectif en temps réel et obtenir sa position en 3D peut s’avérer une information d’un intérêt capital pour le personnel de sécurité. Ce travail présente un système de suivi 3D et en temps réel basé sur la stéréovision. Le système de caméras stéréo est positionné sur une plateforme Pan-Tilt pour permettre le suivi en continu de la cible détectée. La technique des filtres à particules est utilisée pour le suivi. Une approche de reconnaissance des formes permet de garder le focus sur la cible d'intérêt. La position 3D de la cible par rapport au référentiel du système stéréo est calculée en utilisant des techniques de reconstruction 3D. Cette position permet de suivre la position de la cible sur une carte en temps réel (une carte Google Maps a été utilisée). Les résultats expérimentais menées dans des scènes externes montrent l'efficacité de l'approche proposée.

La surveillance vidéo dans les zones isolées est difficile en raison des contraintes de connectivité, telles que l'absence d'infrastructure de communication terrestre et une bande passante très faible. Ce projet propose une solution en utilisant les communications par satellite pour transmettre des données de surveillance sous forme de représentations abstraites issues d'un système de compression de vidéo sémantique. Ce système, basé sur des modèles d'apprentissage profond, génère plusieurs types de représentations (coordonnées des objets, classes, ID de suivi, programmes de correction (patches) d'objets) optimisées pour les systèmes embarqués. Ces représentations, conçues pour réduire la quantité de données tout en conservant les informations essentielles, sont adaptées à des environnements à ressources limitées et transmises efficacement via les satellites.

Nous déployons ce système sur des systèmes embarqués en réduisant leur complexité grâce à des techniques de compression et de conversion de modèles. Nous optimisons les paramètres de compression pour réduire le temps de latence de transmission de l’information tout en développant un schéma de communication adapté aux contraintes des satellites en orbite basse, avec un ordonnancement efficace pour la transmission, soit à partir d'une caméra unique priorisant les représentations, soit de plusieurs caméras coopérant pour déterminer quelles données transmettre selon la bande passante et l'importance des informations.

Les soins à domicile (SAD) améliorent les conditions de vie des patients grâce à des soins médicaux, paramédicaux et services sociaux à domicile. Leur planification est étudiée en recherche opérationnelle afin d’optimiser les conditions de travail des soignants et, par conséquent, la qualité des soins offerts. Plusieurs contraintes doivent être considérées telles que la charge de travail, la qualification des soignants ou le routage. La recherche est principalement axée sur deux aspects : la représentation du problème et la proposition d’une méthode de résolution adaptée. Toutefois, les données utilisées dans la littérature sont généralement spécifiques aux problématiques étudiées en plus d’être confidentielles. Dans cette communication, nous présentons la réalisation d’un objectif clé à notre recherche : l’élaboration d’un jeu de données. Ce dernier est indispensable à la validation de notre modèle et à la conception d’une méthode de résolution. Il comporte plusieurs combinaisons de contraintes spécifiques aux SAD qui, jusqu’à présent, ont été traitées séparément dans la littérature. Le jeu de données proposé se base sur des connaissances métiers propres à la région du Saguenay mais aussi sur des probabilités issues de communications scientifiques médicales. En plus des contraintes générales, il offre la possibilité de considérer la continuité dans les soins ou l’interdépendance des soins. Sa complexité peut aussi varier selon le nombre de soignants et leurs qualifications.

Le modèle de mélange gaussien est un modèle probabiliste très utilisé dans de nombreux domaines, notamment la segmentation d'images, la reconnaissance de formes, l'apprentissage automatique, etc. Les mélanges de gaussiens (MdG), en tant que somme pondérée de plusieurs fonctions gaussiennes, sont utiles en raison du fait que le nombre de paramètres utilisés est très faible et en raison de leur flexibilité pour modéliser des distributions dont les formes paramétriques sont inconnues.

Malheureusement, plus le nombre de composants dans le mélange est élevé, plus la probabilité des données est élevée, mais également plus la charge de calcul et le sur-ajustement des données sont élevés. Ainsi, il y a eu un intérêt grandissant pour les algorithmes de réduction de MdG qui se basent sur la fusion de gaussiennes tout en préservant la structure du mélange initial. Pour fusionner deux MdG, on mesure la différence entre les deux à l'aide de divers types de divergences disponibles ou de mesures de distance. Cependant, toutes les divergences ne sont pas également utiles pour le MdG car la plupart des divergences connues, y compris la divergence de Kullback-Leibler, ne donnent pas une expression analytique en forme fermée pour un MdG. La plupart des travaux existants se basent sur une approximation de la divergence Kullback-Leibler. Dans ce travail, nous présentons un algorithme de réduction de MdG basé sur la divergence de Cauchy-Schwarz pour la segmentation d’images de mélanome.

Nous présentons un nouveau paradigme lié à l'acquisition, la représentation, l'organisation et l'utilisation des informations partagées entre les partenaires d’un centre de prévention en santé.  Il s’agit de construire un cadre efficace pour optimiser ce partage en utilisant les ontologies. L’approche proposée décrit les aspects statiques de l'information, c'est à dire les objets informationnels, leurs attributs et leurs relations. Les aspects dynamiques quant à eux, englobent le choix des médias de diffusion et de méthodes de sauvegardes qui assurent la circulation de l'information optimale entre les structures organisationnelles. La démarche expérimentale adoptée consiste en deux étapes. La première étape construit un corpus textuel en utilisant les documents, l’observation et les entrevues avec les gestionnaires du centre de prévention. Les textes recueillis seront segmentés en  unités sématiquement homogènes.  La seconde étape construit  l’ontologie sous un format générique utilisant un langage de balisage. Des règles permettant de paramétrer l’édition de rapports sont ensuite établies. L’application développée est évaluée dans un contexte d’utilisation réelle. Le nouveau format de représentation des documents est validé de façon à démontrer la pérennité et la généricité qui permettent, comme le montrent les résultats obtenus, l’exploitation efficace de ces documents et leur réutilisation dans des chaînes de traitement numérique, indépendamment des médias et supports.

Les informations diffusées dans les réseaux véhiculaires sans fil (VANETs) peuvent être vulnérables aux attaques en absence de mesures de sécurité adéquates. Pour remédier à ce problème, nous proposons un protocole de sécurité qui permet aux véhicules de changer leurs pseudonymes de communication dans un même intervalle de temps. Ce protocole gère d’une part l’authentification, la confidentialité et d’autre part l’anonymat des différents véhicules qui communiquent à travers le réseau afin d’éviter la traçabilité de ces derniers.

Le modèle proposé repose sur l’utilisation des plages de vitesses autorisées sur les routes, la distribution équidistante des autorités centrales (CA) ainsi que la cryptographie asymétrique basée sur les courbes elliptiques. Les résultats de notre travail serviront dans un premier temps à analyser l’impact du changement des pseudonymes de communication sur le réseau en termes de temps et de mémoire, puis à estimer la durée exacte des pseudonymes de communication en vue de leur exploitation maximale. Enfin, nous en déduirons la distribution optimale des CA sur la route afin d’avoir une meilleure communication véhicule – infrastructure.

Les robots manipulateurs industriels sont très présents dans différentes applications industrielles où la flexibilité est nécessaire ou lorsque les tâches répétitives sont présentes. Ces systèmes sont conçus pour obtenir une répétabilité optimale et peu d'attention est accordée à l'aspect de la précision.

Au cours des dernières années, nous assistons à un gain d'intérêt dans l'industrie aérospatiale pour l'utilisation de robots industriels dans les applications où une plus grande précision est nécessaire. A cet effet, de nombreuses solutions ont été proposées au cours des dernières années pour le suivi dynamique du robot. Ces systèmes sont très intéressants lorsque l'espace de travail et la cellule du robot sont assez grands pour pouvoir positionner le système de suivi dans son environnement de travail.

Dans ce travail, nous présentons une alternative simple pour augmenter la précision des robots industriels. Cette approche utilise la vision artificielle pour l’étalonnage géométrique du robot. Une caméra montée sur un robot capte des images dans différentes poses du robot et calcule les erreurs de positionnement du robot pour appliquer une compensation à la géométrie de celui-ci. Un nouveau modèle cinématique est alors obtenu par une approche d’optimisation non linéaire. Ce modèle permet  d'augmenter la précision du robot.

Les tests effectués avec un robot industriel permettent de constater une amélioration de 30% au niveau de la précision de positionnement du robot.

Les bibliothèques logicielles jouent un rôle critique dans la fonctionnalité, l'efficacité et la maintenabilité des systèmes logiciels. Avec l'adoption croissante des grands modèles de langage (GMLs) par les développeurs pour simplifier leurs processus de code, il devient essentiel d'évaluer l'efficacité de ces modèles dans la recommandation de bibliothèques appropriées. Dans une première étude, nous avons évalué les performances de ChatGPT en tant que « bibliothécaire logiciel » en générant du code Python pour 10 000 questions issues de Stack Overflow. Nos résultats montrent que ChatGPT propose des bibliothèques comportant des licences copyleft restrictives, sans que cela ne soit explicitement communiqué, dans 14,2 % des cas. De plus, 6,5 % des bibliothèques ne fonctionnaient pas correctement dès l'installation, causant potentiellement des confusions pour les développeurs. Dans un second travail, nous avons développé le Software Librarian, un outil destiné à résoudre certaines des lacunes identifiées dans l'étude précédente. Cet outil fournit des informations en temps réel sur les bibliothèques Python recommandées par GitHub Copilot, incluant les détails sur les licences, l'état de dépréciation et la santé des bibliothèques. Le Software Librarian assure donc que les bibliothèques recommandées sont non seulement valides, mais adaptées à une intégration dans les projets, en tenant compte des aspects juridiques et de la maintenabilité à long terme. 

Le cloud computing représente le plus grand changement dans l'industrie informatique et peut révolutionner la façon dont les entreprises exercent leurs activités. Ce paradigme informatique offre des avantages mais aussi d'inconvénients. Une des préoccupations des utilisateurs du cloud réside dans la sécurité en raison de sa dépendance à Internet dans sa nature et des ressources informatiques dispersées généralement localisées sur des serveurs de stockage répartis.La littérature a discuté de cette question, mais pas de manière exhaustive, surtout quand on regarde dans une perspective différente. Nous proposons un modèle de déploiement de cloud répondant aux préoccupations de sécurité des utilisateurs en traitant des facteurs inhabituels qui entravent l'adoption du cloud dans les pays en développement, en particulier ceux présentant un déficit  énergétique comme dans la plus part des pays africains. Les coupures souvent observées dans les pays africains nous ont poussé de réfléchir sur un modèle de déploiement de cloud pouvant garantir la disponibilité des serveurs même en cas de coupure d’où nous avons proposé un modèle permettant la reprise sans perte lors du rétablissement de la connexion.Un diagnostic de sécurité des causes profondes du cloud sera également effectué dans cet article en révélant des menaces tangibles et intangibles au stockage de données, à l'accès et au matériel hébergé dans l'environnement informatique en nuage.

20 % des Québécois sont proches aidants pour une personne en perte d’autonomie et ont besoin d’outils pour faciliter leur relation d’aide. MedOClock est une application québécoise de santé mobile destinée aux aidants pour le suivi, la communication et l’organisation d’une personne en perte d’autonomie. Malgré son fort potentiel, ce type d’application soulève plusieurs enjeux quant à son adoption par les aidants. Dans cette étude, nous avons évalué l’utilisabilité de l’application MedOClock auprès de 9 proches aidants. Pour ce faire, nous avons réalisé des entretiens semi-structurés d’une heure en ligne afin de comprendre la réalité des aidants, puis évaluer la réalisation de neuf tâches dans l’application (ex. : envoyer un message et répondre à une urgence). Nos résultats montrent que les personnes en perte d’autonomie ne seraient pas en mesure de gérer une application mobile. Plutôt, offrir une communication constante entre les membres du réseau de soutien et les aidants est plus adaptée à leurs besoins réels. Le taux de succès moyen des tâches a été de 56% s’expliquant par des problèmes de guidage et de représentation graphique dans l’application. De là, nous avons conçu un persona type des proches aidants rencontrés et développé de nouveaux prototypes pour améliorer l’utilisabilité de l’application. Ceux-ci pourront être implémentés dans une prochaine version. Finalement, ce projet souligne les avantages de la collaboration entre une entreprise et une équipe de recherche.

L’interface cerveau-machine (ICM) connaît des avancées importantes depuis les dernières années.  Il existe un état de l’art très élaboré sur cet objet.  Cependant, il peut être difficile de se retrouver devant tant d’information.  La contribution de cette communication est qu’elle propose un modèle représentant les usages actuels et éventuels de l’ICM dans les organisations. Le cadre conceptuel de cette recherche s’inscrit dans l’ensemble des écrits scientifiques portant sur l’ICM (Farwell et Donchin, 1988, Faraz et al., 2014, Guger et al., 1999, Vanacker et al., 2007, Do et al., 2013, Yang Chin et al., 2013, Leeb et al, 2014, Li, 2013, Schmorrow et Kruse, 2002, Resalat et Afdideh, 2012, Fuchs et al., 2007, Touryan et al., 2013, Stephens et al., 2010, Skinner et al., 2013, Pais-Vieira et al., 2013, Yoo et al., 2013). L’approche méthodologique est qualitative.  Elle consiste à une analyse de l’état de la connaissance portant sur l’ICM.  Nous avons d’abord créé une matrice puis un modèle représentant la source et la destination des données.  Nos résultats illustrent, dans le cas d’un fauteuil motorisé,  le cerveau comme source et le fauteuil comme destinataire des données.

Un des défits actuels dans les systèmes de transmission numérique sans fil est la conception de nouvelles architectures entièrement numériques, plus génériques et « universelles », capables de prendre en charge des fonctionnalités précédemment gérées par des circuits différents. Celles-ci devront, en outre, être suffisamment flexibles pour supporter des normes de transmissions multiples et pour s’adapter facilement aux évolutions futures.

Dans cet article nous avons proposé des architectures tout numériques génériques capables de faire la démodulation numérique de plusieurs types de modulation de phase ainsi que la démodulation de fréquence, et sont également capables de générer le code Gold qui est utilisé dans les systèmes WCDMA, par le même circuit. Nos architectures proposées montrent la supériorité au niveau de la surface occupée et le nombre des registres LFSR utilisé, ils réduisent la surface de presque de 50%, par rapport aux architectures proposés précédemment. 

 Mot clés

Architectures numériques haut débit, modulation et démodulation totalement numériques, applications télécom., architectures génériques, VHDL. 

Les soins de santé au Canada ont de sérieux problèmes de performance. L’atteinte des résultats ciblés est une méthode pour refléter la performance. L’indicateur est un outil important pour collecter des données afin de mesurer si les résultats ciblés sont atteints. Comprendre les relations entre les résultats et les indicateurs peut être un moyen d’acquérir une compréhension préliminaire de la question de la performance des soins de santé au Canada.

Pour répondre à la question de recherche « quelle est la relation entre les résultats et les indicateurs et comment cette relation influence-t-elle la performance », cette recherche applique Formal Concept Analysis (FCA) pour examiner les relations entre les résultats et les indicateurs dans 12 ensembles de données issus des résultats 2021 de l'Agence de la santé publique du Canada. Pour appliquer la FCA afin de reconnaître la structure des données et de généraliser les similitudes et les relations, cette recherche applique des méthodes qualitatives pour coder les données d'indicateur et de résultat afin de générer des concepts. Un réseau plus efficace est construit après avoir appliqué la relation 1 : plusieurs données entre l’indicateur et le résultat, avec une explication détaillée des raisons pour lesquelles cette relation est applicable. Deux recommandations sont faites pour modifier la politique et les pratiques actuelles de collecte de données sur les résultats et pour établir des normes internationales sur la définition des résultats.

Malgré près d'un siècle de recherche sur la théorie de la circulation, les problèmes de congestion routière sont de plus en plus importants notamment à cause de l'augmentation du nombre de véhicules sur les routes. Une façon de limiter les congestions consiste à coordonner les feux de circulation routière, action ayant aussi des impacts importants sur les délais d’attente, les risques d’accidents et la consommation inutile de carburant. Pourtant, près de la moitié des feux de circulation aux États-Unis – probablement aussi au Canada – ne sont pas mis à jour régulièrement. La programmation des feux de circulation est un processus d'optimisation complexe, long et coûteux. Il est difficile de programmer ces systèmes en temps réel ou quasi-réel. Nous proposons une alternative basée sur le raisonnement à partir de cas pour contourner ce problème. Pour chaque situation problématique, il existe théoriquement une solution satisfaisante pour améliorer la situation. Si la solution a été satisfaisante, il y a de fortes chances qu’elle soit à nouveau satisfaisante dans des conditions similaires. L'idée est donc d’identifier des situations problématiques, de proposer une solution pour chaque problème et de l'appliquer au moment opportun. Il existe peu de recherches similaires dans le domaine de la gestion des feux de circulation. Nous présenterons cette approche originale de manière globale et sa pertinence face aux travaux du domaine.