Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Les robots manipulateurs industriels sont très présents dans différentes applications industrielles où la flexibilité est nécessaire ou lorsque les tâches répétitives sont présentes. Ces systèmes sont conçus pour obtenir une répétabilité optimale et peu d'attention est accordée à l'aspect de la précision.

Au cours des dernières années, nous assistons à un gain d'intérêt dans l'industrie aérospatiale pour l'utilisation de robots industriels dans les applications où une plus grande précision est nécessaire. A cet effet, de nombreuses solutions ont été proposées au cours des dernières années pour le suivi dynamique du robot. Ces systèmes sont très intéressants lorsque l'espace de travail et la cellule du robot sont assez grands pour pouvoir positionner le système de suivi dans son environnement de travail.

Dans ce travail, nous présentons une alternative simple pour augmenter la précision des robots industriels. Cette approche utilise la vision artificielle pour l’étalonnage géométrique du robot. Une caméra montée sur un robot capte des images dans différentes poses du robot et calcule les erreurs de positionnement du robot pour appliquer une compensation à la géométrie de celui-ci. Un nouveau modèle cinématique est alors obtenu par une approche d’optimisation non linéaire. Ce modèle permet  d'augmenter la précision du robot.

Les tests effectués avec un robot industriel permettent de constater une amélioration de 30% au niveau de la précision de positionnement du robot.

Les bibliothèques logicielles jouent un rôle critique dans la fonctionnalité, l'efficacité et la maintenabilité des systèmes logiciels. Avec l'adoption croissante des grands modèles de langage (GMLs) par les développeurs pour simplifier leurs processus de code, il devient essentiel d'évaluer l'efficacité de ces modèles dans la recommandation de bibliothèques appropriées. Dans une première étude, nous avons évalué les performances de ChatGPT en tant que « bibliothécaire logiciel » en générant du code Python pour 10 000 questions issues de Stack Overflow. Nos résultats montrent que ChatGPT propose des bibliothèques comportant des licences copyleft restrictives, sans que cela ne soit explicitement communiqué, dans 14,2 % des cas. De plus, 6,5 % des bibliothèques ne fonctionnaient pas correctement dès l'installation, causant potentiellement des confusions pour les développeurs. Dans un second travail, nous avons développé le Software Librarian, un outil destiné à résoudre certaines des lacunes identifiées dans l'étude précédente. Cet outil fournit des informations en temps réel sur les bibliothèques Python recommandées par GitHub Copilot, incluant les détails sur les licences, l'état de dépréciation et la santé des bibliothèques. Le Software Librarian assure donc que les bibliothèques recommandées sont non seulement valides, mais adaptées à une intégration dans les projets, en tenant compte des aspects juridiques et de la maintenabilité à long terme. 

Le cloud computing représente le plus grand changement dans l'industrie informatique et peut révolutionner la façon dont les entreprises exercent leurs activités. Ce paradigme informatique offre des avantages mais aussi d'inconvénients. Une des préoccupations des utilisateurs du cloud réside dans la sécurité en raison de sa dépendance à Internet dans sa nature et des ressources informatiques dispersées généralement localisées sur des serveurs de stockage répartis.La littérature a discuté de cette question, mais pas de manière exhaustive, surtout quand on regarde dans une perspective différente. Nous proposons un modèle de déploiement de cloud répondant aux préoccupations de sécurité des utilisateurs en traitant des facteurs inhabituels qui entravent l'adoption du cloud dans les pays en développement, en particulier ceux présentant un déficit  énergétique comme dans la plus part des pays africains. Les coupures souvent observées dans les pays africains nous ont poussé de réfléchir sur un modèle de déploiement de cloud pouvant garantir la disponibilité des serveurs même en cas de coupure d’où nous avons proposé un modèle permettant la reprise sans perte lors du rétablissement de la connexion.Un diagnostic de sécurité des causes profondes du cloud sera également effectué dans cet article en révélant des menaces tangibles et intangibles au stockage de données, à l'accès et au matériel hébergé dans l'environnement informatique en nuage.

L’interface cerveau-machine (ICM) connaît des avancées importantes depuis les dernières années.  Il existe un état de l’art très élaboré sur cet objet.  Cependant, il peut être difficile de se retrouver devant tant d’information.  La contribution de cette communication est qu’elle propose un modèle représentant les usages actuels et éventuels de l’ICM dans les organisations. Le cadre conceptuel de cette recherche s’inscrit dans l’ensemble des écrits scientifiques portant sur l’ICM (Farwell et Donchin, 1988, Faraz et al., 2014, Guger et al., 1999, Vanacker et al., 2007, Do et al., 2013, Yang Chin et al., 2013, Leeb et al, 2014, Li, 2013, Schmorrow et Kruse, 2002, Resalat et Afdideh, 2012, Fuchs et al., 2007, Touryan et al., 2013, Stephens et al., 2010, Skinner et al., 2013, Pais-Vieira et al., 2013, Yoo et al., 2013). L’approche méthodologique est qualitative.  Elle consiste à une analyse de l’état de la connaissance portant sur l’ICM.  Nous avons d’abord créé une matrice puis un modèle représentant la source et la destination des données.  Nos résultats illustrent, dans le cas d’un fauteuil motorisé,  le cerveau comme source et le fauteuil comme destinataire des données.

Un des défits actuels dans les systèmes de transmission numérique sans fil est la conception de nouvelles architectures entièrement numériques, plus génériques et « universelles », capables de prendre en charge des fonctionnalités précédemment gérées par des circuits différents. Celles-ci devront, en outre, être suffisamment flexibles pour supporter des normes de transmissions multiples et pour s’adapter facilement aux évolutions futures.

Dans cet article nous avons proposé des architectures tout numériques génériques capables de faire la démodulation numérique de plusieurs types de modulation de phase ainsi que la démodulation de fréquence, et sont également capables de générer le code Gold qui est utilisé dans les systèmes WCDMA, par le même circuit. Nos architectures proposées montrent la supériorité au niveau de la surface occupée et le nombre des registres LFSR utilisé, ils réduisent la surface de presque de 50%, par rapport aux architectures proposés précédemment. 

 Mot clés

Architectures numériques haut débit, modulation et démodulation totalement numériques, applications télécom., architectures génériques, VHDL. 

Les soins de santé au Canada ont de sérieux problèmes de performance. L’atteinte des résultats ciblés est une méthode pour refléter la performance. L’indicateur est un outil important pour collecter des données afin de mesurer si les résultats ciblés sont atteints. Comprendre les relations entre les résultats et les indicateurs peut être un moyen d’acquérir une compréhension préliminaire de la question de la performance des soins de santé au Canada.

Pour répondre à la question de recherche « quelle est la relation entre les résultats et les indicateurs et comment cette relation influence-t-elle la performance », cette recherche applique Formal Concept Analysis (FCA) pour examiner les relations entre les résultats et les indicateurs dans 12 ensembles de données issus des résultats 2021 de l'Agence de la santé publique du Canada. Pour appliquer la FCA afin de reconnaître la structure des données et de généraliser les similitudes et les relations, cette recherche applique des méthodes qualitatives pour coder les données d'indicateur et de résultat afin de générer des concepts. Un réseau plus efficace est construit après avoir appliqué la relation 1 : plusieurs données entre l’indicateur et le résultat, avec une explication détaillée des raisons pour lesquelles cette relation est applicable. Deux recommandations sont faites pour modifier la politique et les pratiques actuelles de collecte de données sur les résultats et pour établir des normes internationales sur la définition des résultats.

Malgré près d'un siècle de recherche sur la théorie de la circulation, les problèmes de congestion routière sont de plus en plus importants notamment à cause de l'augmentation du nombre de véhicules sur les routes. Une façon de limiter les congestions consiste à coordonner les feux de circulation routière, action ayant aussi des impacts importants sur les délais d’attente, les risques d’accidents et la consommation inutile de carburant. Pourtant, près de la moitié des feux de circulation aux États-Unis – probablement aussi au Canada – ne sont pas mis à jour régulièrement. La programmation des feux de circulation est un processus d'optimisation complexe, long et coûteux. Il est difficile de programmer ces systèmes en temps réel ou quasi-réel. Nous proposons une alternative basée sur le raisonnement à partir de cas pour contourner ce problème. Pour chaque situation problématique, il existe théoriquement une solution satisfaisante pour améliorer la situation. Si la solution a été satisfaisante, il y a de fortes chances qu’elle soit à nouveau satisfaisante dans des conditions similaires. L'idée est donc d’identifier des situations problématiques, de proposer une solution pour chaque problème et de l'appliquer au moment opportun. Il existe peu de recherches similaires dans le domaine de la gestion des feux de circulation. Nous présenterons cette approche originale de manière globale et sa pertinence face aux travaux du domaine.



Une des plus grandes problématiques en agriculture moderne est celle du traitement des mauvaises herbes. Ce traitement, qui est nécessaire pour augmenter la production, se fait aujourd'hui en utilisant une grande quantité de produits chimiques, ce qui induit des coûts pour les producteurs. De plus, les effets sur l'environnement et sur la santé sont non négligeables. Avec l’évolution des techniques de vision artificielle et de robotique mobile, on pourrait envisager un système autonome qui s’attaquerait aux mauvaises herbes. Un tel système permettrait de les détecter et de les traiter localement. La détection des mauvaises herbes sera réalisée par un système de vision équipant un robot de désherbage ou une rampe d’épandage. Notre travaille s’intéresse au maïs, qui représente la plus grande culture au Québec (994 454 acres en 2011). Il présente l’utilisation des techniques d’analyse statistiques des textures afin d’analyser la densité locale de la végétation pour détecter l’emplacement du maïs et celui des mauvaises herbes. Comme le maïs est cultivé en rangs, cette information est exploitée pour extraire sa redondance spatiale en identifiant les lignes de culture. L’analyse de couleur pour segmenter les images et le filtrage morphologique sont utilisés afin d’extraire les zones les plus intéressantes. Les tests effectués sur des images de culture capturées dans la région de Montréal et en Mauricie, sont très prometteurs et montrent l’efficacité des approches proposées.

Les robots sont de plus en plus présents dans les hôpitaux pour effectuer certaines tâches dans le but de libérer plus de temps au personnel de la santé. Ces robots autonomes sont très souvent dispendieux et offrent peu de flexibilité pour la gestion globale d'une flotte de robots. L'utilisation d'une solution distribuée en périphérie jusqu'en infonuagique peut résoudre ces limitations. Le déplacement de la capacité de calcul en dehors de la plateforme robotique permet la réduction de coûts, tout en permettant le partage de ressources entre plusieurs robots. Une solution qui centralise certaines décisions permet une meilleure gestion de l'ensemble de la flotte robotisée. Certaines portions peuvent être décentralisées afin d'optimiser les performances de certains algorithmes d'intelligence artificielle dans le but de répondre aux contraintes temps réel d'un contrôle de robot. Le résultat est une solution plus abordable, plus facile à maintenir et qui permet au personnel de la santé de se concentrer sur les tâches à caractère humain de leur profession.

Dans un monde où les comportements des robots doivent satisfaire les besoins des utilisateurs, il n'est pas faisable pour les programmeurs de couvrir toutes

les actions possibles qu'un robot doit entreprendre. L'apprentissage par imitation offre une solution facile pour ce problème en permettant à des usagers

sans expertise en programmation d'enseigner les comportements désirés aux robots. 

Notre papier se concentre sur des tâches de navigation que les usagers de fauteuils roulants robotiques espèrent automatiser pour sauver temps et énergie

pour eux-mêmes et leurs soignants. Notre approche requiert seulement une démonstration et une façon d'enregistrer des images et les commandes issues par

l'usager durant l'enseignement. 

Une fois les images obtenues, des Speeded-Up Robust Features (SURF) sont extraites des images et un algorithme K Nearest Neighbours (KNN) s'occupe de

prédire les commandes appropriées en observant des nouvelles images durant l'exécution. 

Les nombreux handicaps de la distribution de Dirichlet comme distribution à priori dans les modèles thématiques ont provoqué la rapide émergence d'autres modèles génératifs probabilistes. Ces nouveaux modèles sont basés sur des distributions à priori plus flexibles et efficaces dans les systèmes de « modèle de sujet » et applications qui, surtout mettent en relief les liens sémantiques entre les thèmes (correlation). C'est le cas des modèles tels que le CTM (Modèles thématiques de correlation, de l’anglais Correlated Topic models), PAM (modèle d’allocation de Patchinko), GD-LDA (allocation de Dirichlet latente basée sur la distribution de Dirichlet généralisée), et LGDA (allocation de Dirichlet généralisée latente). Mais encore, de profondes analyses ont récemment montré que ces modèles cités portent en eux aussi des insufisances qui affectent les inférences habituelles notamment l'échantillonnage de Gibbs  et l'inférence Bayésienne variationnelle. Devant ces difficultés et défis, nous proposons une nouvelle approche qui veut reconcilier un processus génératif complet à une inférence plus robuste avec désormais un choix basé sur la flexibilité des distributions à priori comme la distribution de Dirichlet généralisée. Cela ainsi permet à notre modèle d'être plus adaptable à des applications et données numériques plus variées (textes, images, videos, objets 3D, etc). Notre étude expérimentale à travers la classification des images confirme l'efficacité du nouveau modèle.

20 % des Québécois sont proches aidants pour une personne en perte d’autonomie et ont besoin d’outils pour faciliter leur relation d’aide. MedOClock est une application québécoise de santé mobile destinée aux aidants pour le suivi, la communication et l’organisation d’une personne en perte d’autonomie. Malgré son fort potentiel, ce type d’application soulève plusieurs enjeux quant à son adoption par les aidants. Dans cette étude, nous avons évalué l’utilisabilité de l’application MedOClock auprès de 9 proches aidants. Pour ce faire, nous avons réalisé des entretiens semi-structurés d’une heure en ligne afin de comprendre la réalité des aidants, puis évaluer la réalisation de neuf tâches dans l’application (ex. : envoyer un message et répondre à une urgence). Nos résultats montrent que les personnes en perte d’autonomie ne seraient pas en mesure de gérer une application mobile. Plutôt, offrir une communication constante entre les membres du réseau de soutien et les aidants est plus adaptée à leurs besoins réels. Le taux de succès moyen des tâches a été de 56% s’expliquant par des problèmes de guidage et de représentation graphique dans l’application. De là, nous avons conçu un persona type des proches aidants rencontrés et développé de nouveaux prototypes pour améliorer l’utilisabilité de l’application. Ceux-ci pourront être implémentés dans une prochaine version. Finalement, ce projet souligne les avantages de la collaboration entre une entreprise et une équipe de recherche.

D'un point de vu informatique la prise de rendez-vous est souvent réduite à une tache d'ordonnancement de créneaux horaires dans des calendriers synchronisés. Internet a rendu possible le développement de systèmes automatisés d'ordonnancement mais qui ne permettent pas d'instaurer un dialogue avec le client. Parallèlement, avec l’émergence des téléphones mobiles, les entreprises proposent des services utilisant le SMS comme support de conversation. C'est pourquoi, l'automatisation de la conversation entre un client et un système informatique appliquée à la prise de rendez-vous par SMS, a été étudiée. Il ressort qu'un rendez-vous se construit et se négocie d'une manière collective et incrémentale pendant la conversation. Cette dernière ne peut-être modélisée comme un enchaînement linéaire de messages prédictibles. La démarche proposée est de représenter la conversation à l'aide d'une machine à états alimentée par l'intention émise par l'utilisateur. Cette dernière est déduite à l'aide d'algorithmes d'annotation d'entités et de classification automatique fondée sur l’apprentissage machine. L'objectif est d'être capable de générer une réponse cohérente pour construire le rendez-vous et converger sur une entente adaptée aux besoins de l'utilisateur. Les réponses du système sont générées à partir de patrons pré-définies, en tenant compte des informations extraites du message entrant, de l'intention déduite, ainsi que du profil et de l'historique des conversations avec l'utilisateur.

Dans la course pour remplacer les combustibles fossiles par des biocarburants renouvelables, la découverte d'enzymes dégradant efficacement la lignocellulose est un défi majeur. Pour identifier ces enzymes, les biologistes rassemblent les résultats expérimentaux publiés dans une littérature scientifique dont volume et diversité des sources sont en expansion constante. Analyser la littérature nécessite une lecture appronfondie de toutes les publications pertinentes mais cette tâche est difficilement exhaustive et des informations cruciales peuvent échapper au lecteur.

Combinant outils de fouille de texte sémantique et ressources ontologiques, notre système mycoMINE extrait automatiquement de la littérature les connaissances concernant les enzymes fongiques. mycoMINE est intégré dans les outils des utilisateurs (navigateurs, éditeurs de textes, wikis) via la plateforme Semantic Assistants. Les performances de mycoMINE sont évaluées sur un corpus, librement accessible, d'articles scientifiques manuellement annotés par des biologistes experts. Les évaluations menées sur les quatres entités les plus fréquentes - organisme, enzyme, pH et température - extraites automatiquement montrent que plus de 90% des entités présentes sont trouvées par mycoMINE.

mycoMINE, développé pour le projet Genozymes, est le premier système de fouille de texte sémantique dédié à la recherche d'enzymes fongiques impliquées dans le développement des biocarburants de deuxième génération.

Les outils d’intelligence artificielle peuvent fournir une aide précieuse en soutien à la santé mentale, notamment en analysant les productions textuelles des personnes à risque. Afin de fournir des analyses pertinentes, il est primordial que de tels outils soient robustes à la diversité d'expression textuelle qui peut exister chez ces personnes. Dans cet esprit, nous étudions les effets que les différences d'ordre dialectique ont sur la représentation interne de messages textuels dans les modèles de langue courants en libre distribution. Nous comparons les modèles produits à partir de corpus en plusieurs langues avec ceux produits à partir de corpus francophones uniquement en les appliquant à des messages texte en français québécois.

Pour ce faire, nous comparons l'encodage de messages textes que font ces modèles avec l'encodage des mêmes messages, normalisés en français standard. Ensuite, les modèles sont ajustés afin de rapprocher les encodages des deux versions d'un même message et ainsi faire abstraction des particularités d’expression qui distinguent ces versions.

Nos résultats indiquent que les modèles produits à partir de corpus en français sont plus réceptifs à ces ajustements que ceux produits à partir de corpus multilingues.

En utilisant des approximations locales, par le biais de ponts browniens et de courbes de Daniels, nous proposons un nouvel algorithme de simulation permettant d'estimer la densité du premier temps de passage d'un mouvement brownien à travers une frontière évoluant dans le temps. Nous effectuerons des études comparatives avec des méthodes existantes afin d'établir l'efficacité de notre approche. Enfin, nous appliquerons nos résultats dans le contexte d'un problème de gestion de portefeuilles.

Lorsque vient le moment de suivre un évènement dans le détail, le lecteur attentif de l’actualité n’a plus le choix ; il doit sélectionner les sources d’information qu’il veut privilégier. L’information est là et partout, en plusieurs langues et s’exprimant au travers de multiples points de vue. Cette disparité dans le traitement crée ce que l’on pourrait appeler des trous informatifs qu’il est impossible de combler sans lire l’ensemble de ce qui s’est écrit sur le sujet. Notre méthodologie comporte quatre étapes : la construction du corpus documentaire de manière semi-automatique, l'alignement des sources, l'identification des trous informationnels, la visualisation et la validation des résultats.  Notre corpus de travail est construit en utilisant des modèles probabilistes qui permettent de dégager les documents, rédigés en français et en anglais, relatant les mêmes faits historiques. L'alignement des sources s'effectuent après avoir encodé les textes dans une structure de graphes qui, une fois projetée dans un espace de moindre dimension, permettra à l'utilisateur d'identifier les couvertures médiatiques semblables et distinctes, ces dernières venant ainsi combler les trous informatifs. La visualisation résultante sera validée auprès d'experts. Ce projet contribue à donner aux utilisateurs le potentiel d'innover en étant à même d'appréhender toute la richesse de nos sources documentaires afin de mieux les explorer et, par le fait même, de les étudier.

La vidéo surveillance génère un volume important de données qui doivent être transmises sur des canaux de communication. Dans les zones rurales et isolées, l’accès aux réseaux de télécommunications à bon débit n’est toujours pas garanti. Cela impose la nécessité de réduire le volume de données afin de permettre la tâche de surveillance à temps réel. Nous présentons un système basé sur l’intelligence artificielle pour effectuer la compression efficace des vidéos dans un cadre de communication sémantique. La compression se fait en générant des représentations abstraites des objets qui tiennent les informations les plus pertinentes à la surveillance.

Le système combine plusieurs modèles d’apprentissage profond qui génèrent différentes représentations sémantiques qui varient en taille et signification. Un modèle de détection et suivi des objets, YOLOv10, permet d’identifier les objets et leurs mouvements. Un grand modèle de langage pour la vidéo génère des descriptions textuelles de la scène. D’autres modules permettent la séparation d’arrière-plan statique et l’échantillonnage temporel des images vidéo pour éliminer les redondances spatio-temporelles. Ce système permet de transmettre des données représentant seulement 1 % à 12 % du volume initial de la vidéo. Nous établissons ainsi une mesure pour évaluer la valeur sémantique des représentations extraites. Le système vise également à trouver un équilibre entre le taux de compression et la valeur sémantique.

Les systèmes informationnels sont désormais au centre des décisions en santé. Un très grand volume de données associées à des évènements interreliés temporellement est généré chaque jour. Les établissements de santé désirent réutiliser ces données pour différents types d’analyse et les partager d’une façon exploitable. L’efficacité des études cliniques dépend de la quantité et de la qualité des données recueillies. D’une part, l’extraction des informations d’intérêt à des fins d’études demeure un grand défi au vu du grand nombre de sources hétérogènes et des connaissances diversifiées. D’autre part, la temporalisation est devenue un enjeu crucial afin de garder les traces de l’évolution des données et d’améliorer la prise de décision clinique. L’approche préconisée consiste à construire un entrepôt de données (ED) en se basant sur un modèle de connaissance (ontologie) pour faciliter l’intégration des sources, l’extraction des informations et l’expression des requêtes. La construction d’un ED demeure en grande partie manuelle. Les méthodes existantes sont basées sur des règles ad hoc avec un minimum de gestion de la temporalisation ce qui limite l’interopérabilité temporelle et donc à l’exploitation de données. Le but est d’élaborer une méthode semi-automatisée de construction d’ED temporalisées à partir d’un modèle de connaissance et d’un modèle temporel unifié construits selon des critères fondamentaux tels que la théorie relationnelle et les ontologies réalistes.

En recherche opérationnelle, l’algorithme d’optimisation par essaim particulaire (OEP) est reconnu comme une métaheuristique efficace dans la résolution de problèmes utilisant des variables réelles. Plusieurs variantes de cet algorithme sont proposées dans la littérature et chacune d’elles adopte une approche différente dans la résolution de problèmes. Malgré les progrès proposés au fil des ans, l’OEP éprouve tout de même de la difficulté à optimiser des problèmes de grande taille. Afin de pallier à cette lacune, il est proposé dans cette recherche d’hybrider trois variantes de l’OEP dans le but d’utiliser les forces de certaines pour atténuer les faiblesses des autres. Ces trois variantes prouvées efficaces dans la littérature sont : le barebones particle swarm optimization, le comprehensive learning particle swarm optimization et le cooperative learning particle swarm optimization. Trois nouveaux algorithmes hybrides sont ainsi proposés dans le but d’améliorer la qualité des solutions produites. Leur efficacité est testée sur une série de problèmes de tailles différentes utilisant des variables réelles. La comparaison des résultats est effectuée avec l’aide de la dominance stochastique ainsi que par une analyse de convergence. Cette comparaison permet de démontrer que l’hybridation entre les variantes de l’OEP améliore la qualité des solutions obtenues lors de l’optimisation de problèmes de grande taille.

Les capteurs 3D tenus en main permettent de recueillir des données sur la géométrie d’objets pour diverses applications comme la métrologie et le contrôle de qualité. Ces capteurs exigent que l’utilisateur interagisse avec un ordinateur durant le processus de numérisation, soit pour consulter la progression du scan à l’écran, ou pour saisir des commandes au clavier. L’utilisateur doit détourner son regard de l’objet à numériser lors de ces interactions, ce qui résulte en une perte de productivité et potentiellement de qualité du scan.

L’exposé portera sur l’interface gestuelle basée sur la vision par ordinateur développée pour la commande à distance d’un logiciel de numérisation 3D au moyen d’une caméra observant l’utilisateur. On y présentera le montage du système de reconnaissance de gestes, constitué d’une caméra de profondeur Azure Kinect; le langage de gestes défini et sa correspondance aux fonctionnalités du logiciel de numérisation; et les modèles d’apprentissage automatique créés pour reconnaître les gestes statiques et dynamiques de l’utilisateur à partir des données de caméra.

La technologie RFID (Identification par fréquence-radio) est de plus en plus utilisée dans divers domaines d’application. Malgré cette utilisation croissante dans les organisations et les réseaux inter-entreprises, peu d’études actuelles examinent l’impact de RFID au sein d’un réseau de partenaires d’affaires. Ainsi, l’impact de la technologie RFID sur la création et l'appropriation de la valeur relationnelle, c’est-à-dire les bénéfices conjointement créés avec les partenaires d’affaires, n’est pas clairement établi. Il est donc nécessaire de comprendre comment RFID agit sur la capacité d’une entreprise à co-créer et à s’approprier la valeur relationnelle. Pour cela, nous proposons un modèle basé sur une conceptualisation multidimensionnelle de cette technologie dans un contexte inter-entreprises.

Nous avons validé empiriquement ce modèle par des études de cas multiples. Les résultats suggèrent que la différence dans l’appropriation de valeur relationnelle entre les entreprises est fonction de leur capacité à utiliser la technologie RFID pour alimenter leurs relations en information de meilleure qualité. Ces relations promeuvent la co-création de valeur par rapport aux besoins des unités d’affaires. Les résultats suggèrent aussi que l’utilisation de la technologie RFID est efficace en cas d’un meilleur partenariat entre la fonction TI et les unités d'affaires. Ce partenariat atténue les effets négatifs de la technologie et accentue ses effets bénéfiques.

Ce projet propose un système d’équations estimant les niveaux de distorsions d’intermodulation (IMD) d’un amplificateur à rétroaction d’enveloppe. La particularité de ce modèle est la prise en compte de l’effet de mémoire que comportent les amplificateurs de puissance. Ce modèle a pour objectif de faciliter l’atteinte des exigences, en termes de linéarité, à l’étape de la conception assistée par ordinateur d’amplificateur de puissance à rétroaction d’enveloppe.

Les résultats obtenus avec le modèle proposé sont comparés aux simulations (sur ADSTM) du comportement dynamique AM et PM du modèle d’amplificateur de puissance sur puce à rétroaction d’enveloppe déjà existant. L’excitation à l’entrée est définie avec trois niveaux sinusoïdaux arbitraires ainsi qu’avec une interrelation arbitraire de leur phase. Un polynôme de 5e degré représente l’amplificateur, bien que ce système puisse être étendu à des degrés supérieurs. La sortie inclut quatre raies de produits IMD sur chaque bande latérale de la porteuse. Une analyse comparative entre l’utilisation du système d’équations et des simulations de l’amplificateur a démontré une différence d’amplitude de 0.06dB sur les produits IMD de sortie et une erreur maximale de 1° sur leur phase, montrant ainsi la précision du modèle proposé. Une procédure pour réaliser l’algorithme sur l’outil de modélisation MAPLETM ainsi qu’un code pour solutionner les valeurs des produits IMD associées au système polynomial d’un amplificateur sont fournis.

De nos jours, la représentation de la diversité dans les communications est devenue impérative et plus que jamais accessible grâce aux technologies de communication modernes. Conscients de cet enjeu et de cette occasion, l’Hôpital Montfort en collaboration avec l’Institut du Savoir Montfort ont entrepris un exercice d’intégration stylistique de la diversité à l’aide de l’intelligence artificielle (IA), pour les illustrations de leur offre de soins en santé mentale,en télésanté, basée sur la théorie cognitive comportementale. Ce programme permettant aux communautés francophones en situation minoritaire au Canada de gérer leur santé mentale de manière autonome a été amélioré dans un souci de favoriser l’adaptation au contexte d’une société multiculturelle telle que la nôtre. Les buts étant de favoriser l’engagement à travers l’identification des patients, ainsi que l’analyse de l’intégration de l’IA dans les communications avec ceux-ci, la présente communication portera donc sur trois éléments : 1) le processus de modernisation; 2) Les défis rencontrés et le rôle central de l’IA; et 3) les aspirations futures incluant l’évaluation de l’acceptabilité de la communication avec l’IA chez les patients.

Pour répondre aux besoins de personnes victimes d'un traumatisme craniocérébral ne pouvant demeurer à domicile, le Centre de réadaptation de l'Estrie propose une Résidence alternative de 10 personnes.

Le but du projet est d’identifier les solutions technologiques les mieux adaptées aux besoins et aux attentes des résidents, pour les implanter dans la résidence alternative. Lors d’une étape préliminaire, les besoins et attentes des résidents ont été identifiés et priorisés. 

Lors de la première étape, nous avons effectué une revue de littérature systématique pour identifier l’ensemble des solutions technologiques existantes. Nous avons fait des recherches dans les banques de données du domaine technologique et clinique et nous sommes concentrés sur la compensation des troubles cognitifs.

La deuxième étape consiste à sélectionner les solutions technologiques implantables à la résidence, parmi les 55 solutions sélectionnées. Pour cela, nous avons d’abord identifié les critères de sélection regroupés en 5 thèmes (réponse aux besoins, ergonomie, techniques, disponibilité, support, éthique).  Ensuite, chaque technologie a été pondérée selon une grille d’évaluation afin d’établir un ordre d’importance et de priorisation. 

La méthode rigoureuse de sélection de ces technologies présentée ici permet d’une part de combler les besoins spécifiques des résidents et d’autre part de fournir à la communauté scientifique une méthodologie rigoureuse de sélection.