Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.
En vidéo-surveillance, la capacité de détecter et de suivre une cible en temps réel représente un objectif important pour garantir la sécurité d’un périmètre dans des zones sensibles. De plus, avoir la possibilité de suivre l’objectif en temps réel et obtenir sa position en 3D peut s’avérer une information d’un intérêt capital pour le personnel de sécurité. Ce travail présente un système de suivi 3D et en temps réel basé sur la stéréovision. Le système de caméras stéréo est positionné sur une plateforme Pan-Tilt pour permettre le suivi en continu de la cible détectée. La technique des filtres à particules est utilisée pour le suivi. Une approche de reconnaissance des formes permet de garder le focus sur la cible d'intérêt. La position 3D de la cible par rapport au référentiel du système stéréo est calculée en utilisant des techniques de reconstruction 3D. Cette position permet de suivre la position de la cible sur une carte en temps réel (une carte Google Maps a été utilisée). Les résultats expérimentais menées dans des scènes externes montrent l'efficacité de l'approche proposée.

De nos jours, l’émergence des logiciels libres, plus connus sous le vocable de logiciels open source, a radicalement changé le paysage de l’industrie des logiciels. Pour des raisons diverses (d’ordre social, technique, économique, etc.), les logiciels open source sont de plus en plus utilisés dans les organisations publiques et privées. Toutefois, l’adoption des logiciels libres tarde à se faire auprès des institutions académiques. Les institutions académiques ont des raisons pratiques et pédagogiques à s’intéresser aux logiciels open source. Vu les contraintes budgétaires notamment le coût annuel alloué aux frais d’acquisition et des licences de logiciels, les logiciels open source sont devenus une alternative viable. Cette recherche explore les différents facteurs clés de l’adoption des logiciels libres dans les universités québécoises auprès du corps professoral et des étudiants. Par le biais d’une recherche qualitative, plusieurs entrevues ont été faites après de deux groupes d’acteurs universitaires (professeurs et étudiants). Nous avons utilisé le cadre théorique TOE, élaboré par Tornatzky et Fleischer, comme fondement théorique pour catégoriser les différents facteurs clés de l’adoption des logiciels open source dans le milieu universitaire québécois. Les résultats préliminaires de cette recherche montrent que plusieurs facteurs technologiques, organisationnels et environnementaux impactent sur la diffusion des logiciels libres auprès des universités québécoises.

Les soins à domicile (SAD) améliorent les conditions de vie des patients grâce à des soins médicaux, paramédicaux et services sociaux à domicile. Leur planification est étudiée en recherche opérationnelle afin d’optimiser les conditions de travail des soignants et, par conséquent, la qualité des soins offerts. Plusieurs contraintes doivent être considérées telles que la charge de travail, la qualification des soignants ou le routage. La recherche est principalement axée sur deux aspects : la représentation du problème et la proposition d’une méthode de résolution adaptée. Toutefois, les données utilisées dans la littérature sont généralement spécifiques aux problématiques étudiées en plus d’être confidentielles. Dans cette communication, nous présentons la réalisation d’un objectif clé à notre recherche : l’élaboration d’un jeu de données. Ce dernier est indispensable à la validation de notre modèle et à la conception d’une méthode de résolution. Il comporte plusieurs combinaisons de contraintes spécifiques aux SAD qui, jusqu’à présent, ont été traitées séparément dans la littérature. Le jeu de données proposé se base sur des connaissances métiers propres à la région du Saguenay mais aussi sur des probabilités issues de communications scientifiques médicales. En plus des contraintes générales, il offre la possibilité de considérer la continuité dans les soins ou l’interdépendance des soins. Sa complexité peut aussi varier selon le nombre de soignants et leurs qualifications.

Dans un environnement où les fuites de données représentent une menace majeure pour les organisations, cette recherche se concentre sur la problématique de l’équilibre entre l’automatisation de la protection des données sensibles et la supervision humaine dans les processus critiques. Le projet propose un système de prévention des pertes de données (DLP) assisté par intelligence artificielle (IA), intégrant les modèles GPT-4-Turbo et XGBoost pour automatiser la classification des données sensibles. La contribution principale de cette recherche réside dans la démonstration de l'efficacité d'un modèle hybride, combinant IA et intervention humaine, pour améliorer la détection des fuites tout en minimisant les erreurs de classification. La méthodologie comprend l’analyse de courriels réels à partir d'une base de données publique, avec une phase de prétraitement des données (nettoyage, tokenization, TF-IDF) suivie de l'entraînement des modèles. Les performances ont été évaluées par des mesures standard telles que la matrice de confusion, la précision et le rappel. Les résultats préliminaires montrent que les performances de XGBoost et de GPT-4-Turbo sont comparables à celles de la classification humaine. En combinant ces trois approches, nous obtenons un système DLP solide. Cette étude valide ainsi l’intérêt d’un système DLP hybride dans des environnements organisationnels complexes.

Jean-Pierre Booto Ekionea, Ph.D. 

Patrick Nsenga, Étudiant M.B.A. 

La performance d’affaires et la stratégie d’affaires constituent le point culminant pour la rationalisation d’une entreprise de financement industriel. Pour atteindre ce point culminant, l’alignement d’un progiciel intégré de gestion a un impact considérable dans le couplage de la performance et de la stratégie d’affaires. Car une entreprise de financement industriel a besoin d’intégrer ses opérations et de développer les capacités de différenciation de ses professionnels afin de répondre efficacement aux multiples exigences d’affaires.

Il est question ici d’étudier l’impact possible qu’un alignement d’un logiciel intégré et les stratégies d’affaires peut avoir sur la performance organisationnelle en termes d’intégration et de différenciation (Lawrence et Lorsh, 1967). Ainsi, le sujet aborde sous forme qualitative la rentabilisation d’une entreprise de financement industriel par l’alignement d’un progiciel intégré aux stratégies d’affaires.

En effet, l’apport des technologies de l’information à la performance d’affaires en termes d’intégration et de différenciation est un sujet qui préoccupe les chercheurs, les professionnels et les gestionnaires au sein des organisations afin d’augmenter l'efficacité commerciale, réduire le cycle temps, diminuer les coûts de production et améliorer le service client (Aremu et al, 2018).

Mots clef : Performance d’affaires, stratégies d’affaires, progiciel intégré.

Les informations diffusées dans les réseaux véhiculaires sans fil (VANETs) peuvent être vulnérables aux attaques en absence de mesures de sécurité adéquates. Pour remédier à ce problème, nous proposons un protocole de sécurité qui permet aux véhicules de changer leurs pseudonymes de communication dans un même intervalle de temps. Ce protocole gère d’une part l’authentification, la confidentialité et d’autre part l’anonymat des différents véhicules qui communiquent à travers le réseau afin d’éviter la traçabilité de ces derniers.

Le modèle proposé repose sur l’utilisation des plages de vitesses autorisées sur les routes, la distribution équidistante des autorités centrales (CA) ainsi que la cryptographie asymétrique basée sur les courbes elliptiques. Les résultats de notre travail serviront dans un premier temps à analyser l’impact du changement des pseudonymes de communication sur le réseau en termes de temps et de mémoire, puis à estimer la durée exacte des pseudonymes de communication en vue de leur exploitation maximale. Enfin, nous en déduirons la distribution optimale des CA sur la route afin d’avoir une meilleure communication véhicule – infrastructure.

Les robots manipulateurs industriels sont très présents dans différentes applications industrielles où la flexibilité est nécessaire ou lorsque les tâches répétitives sont présentes. Ces systèmes sont conçus pour obtenir une répétabilité optimale et peu d'attention est accordée à l'aspect de la précision.

Au cours des dernières années, nous assistons à un gain d'intérêt dans l'industrie aérospatiale pour l'utilisation de robots industriels dans les applications où une plus grande précision est nécessaire. A cet effet, de nombreuses solutions ont été proposées au cours des dernières années pour le suivi dynamique du robot. Ces systèmes sont très intéressants lorsque l'espace de travail et la cellule du robot sont assez grands pour pouvoir positionner le système de suivi dans son environnement de travail.

Dans ce travail, nous présentons une alternative simple pour augmenter la précision des robots industriels. Cette approche utilise la vision artificielle pour l’étalonnage géométrique du robot. Une caméra montée sur un robot capte des images dans différentes poses du robot et calcule les erreurs de positionnement du robot pour appliquer une compensation à la géométrie de celui-ci. Un nouveau modèle cinématique est alors obtenu par une approche d’optimisation non linéaire. Ce modèle permet  d'augmenter la précision du robot.

Les tests effectués avec un robot industriel permettent de constater une amélioration de 30% au niveau de la précision de positionnement du robot.

La culture individuelle est un concept clé pour le management des TI.Il serait donc déterminant de mettre à la disponibilité des organisations une approche holistique qui permet d'appréhender ce concept en englobant toutes ses caractéristiques. L’objectif de notre communication est de mettre en lumière notre contribution à ce niveau. Nous avons procédé à une étude de la  littérature pour déceler les différents modèles approchant la culture individuelle dans le management des TI. Nous avons par la suite porté un oeil critique sur ces approches pour proposer  un autre modèle qui comble les insuffisances décelées.  

L’approche d’Hostede (1980) appréhende la culture individuelle exclusivement par la culture nationale et considère que la culture est stable.  Karahanna, Evaristo et Srite (2005) conceptualisent la culture individuelle sous forme d’oignon composé de plusieurs niveaux culturels et  ne considèrent pas l’aspect évolutif de la culture individuelle. Walsh et Kefi  (2008) présentent la culture individuelle sous  forme de Toupie qui implique que la culture est un phénomène stratifié composé seulement de valeurs. 

Nous constatons que chaque modèle a des limites. Cependant, notre conceptualisation considère que la culture est une masse homogène qui évoluent en permanence, elle peut être assimilée à une de galaxie, composée par des particules et qui évolue dans l'univers. L'étude du mouvement des galaxies permet de mieux appréhender le comportement de l'individu face aux TI. 

Le cloud computing représente le plus grand changement dans l'industrie informatique et peut révolutionner la façon dont les entreprises exercent leurs activités. Ce paradigme informatique offre des avantages mais aussi d'inconvénients. Une des préoccupations des utilisateurs du cloud réside dans la sécurité en raison de sa dépendance à Internet dans sa nature et des ressources informatiques dispersées généralement localisées sur des serveurs de stockage répartis.La littérature a discuté de cette question, mais pas de manière exhaustive, surtout quand on regarde dans une perspective différente. Nous proposons un modèle de déploiement de cloud répondant aux préoccupations de sécurité des utilisateurs en traitant des facteurs inhabituels qui entravent l'adoption du cloud dans les pays en développement, en particulier ceux présentant un déficit  énergétique comme dans la plus part des pays africains. Les coupures souvent observées dans les pays africains nous ont poussé de réfléchir sur un modèle de déploiement de cloud pouvant garantir la disponibilité des serveurs même en cas de coupure d’où nous avons proposé un modèle permettant la reprise sans perte lors du rétablissement de la connexion.Un diagnostic de sécurité des causes profondes du cloud sera également effectué dans cet article en révélant des menaces tangibles et intangibles au stockage de données, à l'accès et au matériel hébergé dans l'environnement informatique en nuage.

Les antennes réseau-réflecteur reconfigurables (reconfigurable reflectarray antenna) permettent le modelage de faisceaux d’ondes électromagnétiques, une technique nécessaire pour les réseaux 5G actuels et pour les futurs réseaux 6G. Le modelage se fait par déphasage du signal radiofréquence émis grâce à des composants tels que des diodes à capacité variable (varicap), qui sont contrôlées individuellement par des tensions de polarisation variables. Ces diodes varicap sont présentes dans chacune des petites cellules d’antenne faisant partie d’une matrice planaire, constituant ainsi le réseau-réflecteur. 

La capacité des diodes varicap varie non linéairement avec la tension de contrôle et celles-ci exhibent des comportements non linéaires lorsque la puissance du signal radiofréquence est élevée. Ces non-linéarités introduisent de la distorsion dans le signal émis, mais cela peut être réduit par un processus de prédistorsion qui dépend de la puissance du signal émis. Le but de ce travail consiste donc à développer un détecteur de puissance intégré en technologie CMOS pour mesurer la puissance émise par chaque cellule de l’antenne.

Cette recherche se penche sur une technique existante, mais vise à l’améliorer pour exploiter une technologie CMOS-65nm afin d’augmenter la fréquence d’opération et accroître la bande passante.

Ce travail contribue aussi à l’étude de la distorsion dans un détecteur de puissance pour antennes reconfigurables, un aspect peu étudié dans la littérature.

L’interface cerveau-machine (ICM) connaît des avancées importantes depuis les dernières années.  Il existe un état de l’art très élaboré sur cet objet.  Cependant, il peut être difficile de se retrouver devant tant d’information.  La contribution de cette communication est qu’elle propose un modèle représentant les usages actuels et éventuels de l’ICM dans les organisations. Le cadre conceptuel de cette recherche s’inscrit dans l’ensemble des écrits scientifiques portant sur l’ICM (Farwell et Donchin, 1988, Faraz et al., 2014, Guger et al., 1999, Vanacker et al., 2007, Do et al., 2013, Yang Chin et al., 2013, Leeb et al, 2014, Li, 2013, Schmorrow et Kruse, 2002, Resalat et Afdideh, 2012, Fuchs et al., 2007, Touryan et al., 2013, Stephens et al., 2010, Skinner et al., 2013, Pais-Vieira et al., 2013, Yoo et al., 2013). L’approche méthodologique est qualitative.  Elle consiste à une analyse de l’état de la connaissance portant sur l’ICM.  Nous avons d’abord créé une matrice puis un modèle représentant la source et la destination des données.  Nos résultats illustrent, dans le cas d’un fauteuil motorisé,  le cerveau comme source et le fauteuil comme destinataire des données.

La sécurité routière représente un processus continu qui consiste à identifier des zones à risque et d'apporter des solutions viables. Une diversité de méthodes de prédiction paramètres du trafic sont utilisées lors des évaluations des risques.    Le fait qu'il n'existe pas de processus pour faire un choix sur des méthodes de prédiction peut avoir des conséquences problématiques au niveau des solutions implantées pour améliorer la sécurité des zones identifiées.  Notre objectif est de choisir des méthodes de prédiction des paramètres du trafic de manière à éviter d'implanter des solutions qui ne conviennent pas réellement aux zones à risque identifiées.  Notre approche de résolution est basée sur la définition et le développement d'un environnement d'expérimentation et la définition d'études de cas réalistes permettant d'étudier les conséquences des précisions de diverses méthodes de prédiction.   Le simulateur de trafic urbain SUMO est utilisé pour générer un trafic au niveau de plusieurs zones de la Ville de Gatineau. L'installation de capteurs nous a permis de faire du comptage concernant ces zones.   Des études empiriques sont en cours pour tester les méthodes de prédictions couramment utilisées pour la prédiction de densité de trafic. Différentes valeurs de limitations de vitesses sont considérées. Les résultats attendus permettront de définir une méthodologie pour optimiser le choix d'une méthode de prédiction selon les caractéristiques du trafic routier.

Malgré près d'un siècle de recherche sur la théorie de la circulation, les problèmes de congestion routière sont de plus en plus importants notamment à cause de l'augmentation du nombre de véhicules sur les routes. Une façon de limiter les congestions consiste à coordonner les feux de circulation routière, action ayant aussi des impacts importants sur les délais d’attente, les risques d’accidents et la consommation inutile de carburant. Pourtant, près de la moitié des feux de circulation aux États-Unis – probablement aussi au Canada – ne sont pas mis à jour régulièrement. La programmation des feux de circulation est un processus d'optimisation complexe, long et coûteux. Il est difficile de programmer ces systèmes en temps réel ou quasi-réel. Nous proposons une alternative basée sur le raisonnement à partir de cas pour contourner ce problème. Pour chaque situation problématique, il existe théoriquement une solution satisfaisante pour améliorer la situation. Si la solution a été satisfaisante, il y a de fortes chances qu’elle soit à nouveau satisfaisante dans des conditions similaires. L'idée est donc d’identifier des situations problématiques, de proposer une solution pour chaque problème et de l'appliquer au moment opportun. Il existe peu de recherches similaires dans le domaine de la gestion des feux de circulation. Nous présenterons cette approche originale de manière globale et sa pertinence face aux travaux du domaine.



Une des plus grandes problématiques en agriculture moderne est celle du traitement des mauvaises herbes. Ce traitement, qui est nécessaire pour augmenter la production, se fait aujourd'hui en utilisant une grande quantité de produits chimiques, ce qui induit des coûts pour les producteurs. De plus, les effets sur l'environnement et sur la santé sont non négligeables. Avec l’évolution des techniques de vision artificielle et de robotique mobile, on pourrait envisager un système autonome qui s’attaquerait aux mauvaises herbes. Un tel système permettrait de les détecter et de les traiter localement. La détection des mauvaises herbes sera réalisée par un système de vision équipant un robot de désherbage ou une rampe d’épandage. Notre travaille s’intéresse au maïs, qui représente la plus grande culture au Québec (994 454 acres en 2011). Il présente l’utilisation des techniques d’analyse statistiques des textures afin d’analyser la densité locale de la végétation pour détecter l’emplacement du maïs et celui des mauvaises herbes. Comme le maïs est cultivé en rangs, cette information est exploitée pour extraire sa redondance spatiale en identifiant les lignes de culture. L’analyse de couleur pour segmenter les images et le filtrage morphologique sont utilisés afin d’extraire les zones les plus intéressantes. Les tests effectués sur des images de culture capturées dans la région de Montréal et en Mauricie, sont très prometteurs et montrent l’efficacité des approches proposées.

Le miroir de courant à transistors GaAs BiFET (HBT, MESFET en technologie Arséniure de Gallium) est très performant pour la polarisation des amplificateurs MMIC (puce unique) fonctionnant à basses tensions [1]. Toutefois, en raison d’une grande variation de la tension de seuil des MESFET, il est  préférable d’utiliser un miroir de courant à régulateur purement bipolaire (GaAs HBT) dans certaines applications [2]. Or, le miroir de courant HBT conventionnel cause une variation excessive du courant de polarisation avec une tension de référence VREF variant de 2,6V à 3,2V. Ceci est du à la tension VBE élevée d’un transistor GaAs HBT (1,3V).

Ce travail de recherche se concentre donc sur le miroir de courant GaAs HBT pour la polarisation des amplificateurs MMIC à basse tension. Dans cette communication nous proposons une nouvelle structure de miroir de courant GaAs HBT qui permet d’améliorer les performances DC et RF. Les résultats de simulation démontrent que cette nouvelle structure réduit les variations du courant de polarisation du transistor RF sur la plage 2.6V-3.2V de VREF et affecte positivement l’efficacité énergétique. De plus, cela permet une meilleure régulation du gain RF (0,75dB de variation) avec VREF aussi bas que 2,6V et une puissance du signal RF d’entrée variant de -10 dBm à 10 dBm. Ceci est une nette amélioration comparativement à 3,75dB avec la structure conventionnelle.

[1] A. G. Metzger et al., IEEE - JSSC, Oct. 2007.

[2] Brevet:  USPTO 7719354, 18 Mai 2010.

Dans un monde où les comportements des robots doivent satisfaire les besoins des utilisateurs, il n'est pas faisable pour les programmeurs de couvrir toutes

les actions possibles qu'un robot doit entreprendre. L'apprentissage par imitation offre une solution facile pour ce problème en permettant à des usagers

sans expertise en programmation d'enseigner les comportements désirés aux robots. 

Notre papier se concentre sur des tâches de navigation que les usagers de fauteuils roulants robotiques espèrent automatiser pour sauver temps et énergie

pour eux-mêmes et leurs soignants. Notre approche requiert seulement une démonstration et une façon d'enregistrer des images et les commandes issues par

l'usager durant l'enseignement. 

Une fois les images obtenues, des Speeded-Up Robust Features (SURF) sont extraites des images et un algorithme K Nearest Neighbours (KNN) s'occupe de

prédire les commandes appropriées en observant des nouvelles images durant l'exécution. 

Les nombreux handicaps de la distribution de Dirichlet comme distribution à priori dans les modèles thématiques ont provoqué la rapide émergence d'autres modèles génératifs probabilistes. Ces nouveaux modèles sont basés sur des distributions à priori plus flexibles et efficaces dans les systèmes de « modèle de sujet » et applications qui, surtout mettent en relief les liens sémantiques entre les thèmes (correlation). C'est le cas des modèles tels que le CTM (Modèles thématiques de correlation, de l’anglais Correlated Topic models), PAM (modèle d’allocation de Patchinko), GD-LDA (allocation de Dirichlet latente basée sur la distribution de Dirichlet généralisée), et LGDA (allocation de Dirichlet généralisée latente). Mais encore, de profondes analyses ont récemment montré que ces modèles cités portent en eux aussi des insufisances qui affectent les inférences habituelles notamment l'échantillonnage de Gibbs  et l'inférence Bayésienne variationnelle. Devant ces difficultés et défis, nous proposons une nouvelle approche qui veut reconcilier un processus génératif complet à une inférence plus robuste avec désormais un choix basé sur la flexibilité des distributions à priori comme la distribution de Dirichlet généralisée. Cela ainsi permet à notre modèle d'être plus adaptable à des applications et données numériques plus variées (textes, images, videos, objets 3D, etc). Notre étude expérimentale à travers la classification des images confirme l'efficacité du nouveau modèle.

L'imagerie par résonance magnétique (IRM) est vulnérable à différents artefacts qui affectent la qualité des images, impactant les diagnostics et l'efficacité des logiciels d'analyse. L'artefact de mouvement, inévitable, varie en magnitude et en aspect selon les cas. L'inspection manuelle des volumes, surtout dans des études de grande envergure, est dispendieuse et chronophage. Il devient donc essentiel de détecter automatiquement les volumes problématiques. Cependant, les critères de qualité varient d'une étude à l'autre, rendant difficile l'entraînement, sur la base de ces données, d'un modèle généralisable. De plus, les protocoles d'acquisition cherchant à minimiser la présence d'artefacts, les données disponibles présentent un déséquilibre des classes, limitant la robustesse des modèles.

Nous proposons une méthode pour quantifier les artefacts de mouvement pour les IRMs anatomiques cérébrales T1. Nous avons recours à des techniques de préentraînement sur des artefacts synthétiques et évaluons plusieurs méthodes de quantification, démontrant que ces modèles détectent efficacement le mouvement dans des volumes réels. Après transfert d'apprentissage, les modèles préentraînés sur données synthétiques rivalisent avec ceux entraînés sur des données réelles. En conclusion, les résultats démontrent que l'entraînement sur données synthétiques peut être efficace en pratique et permet aux laboratoires de former leurs modèles avec des ressources limitées.

D'un point de vu informatique la prise de rendez-vous est souvent réduite à une tache d'ordonnancement de créneaux horaires dans des calendriers synchronisés. Internet a rendu possible le développement de systèmes automatisés d'ordonnancement mais qui ne permettent pas d'instaurer un dialogue avec le client. Parallèlement, avec l’émergence des téléphones mobiles, les entreprises proposent des services utilisant le SMS comme support de conversation. C'est pourquoi, l'automatisation de la conversation entre un client et un système informatique appliquée à la prise de rendez-vous par SMS, a été étudiée. Il ressort qu'un rendez-vous se construit et se négocie d'une manière collective et incrémentale pendant la conversation. Cette dernière ne peut-être modélisée comme un enchaînement linéaire de messages prédictibles. La démarche proposée est de représenter la conversation à l'aide d'une machine à états alimentée par l'intention émise par l'utilisateur. Cette dernière est déduite à l'aide d'algorithmes d'annotation d'entités et de classification automatique fondée sur l’apprentissage machine. L'objectif est d'être capable de générer une réponse cohérente pour construire le rendez-vous et converger sur une entente adaptée aux besoins de l'utilisateur. Les réponses du système sont générées à partir de patrons pré-définies, en tenant compte des informations extraites du message entrant, de l'intention déduite, ainsi que du profil et de l'historique des conversations avec l'utilisateur.

Résumé: Ordinateur quantique, cryptographie quantique et mémoire magnétique, toutes ces avancées technologiques découlent de la physique quantique et de la notion de spin. Mais qu’est-ce qu’un spin? Le spin est une propriété fondamentale des particules élémentaires. Les particules élémentaires sont des particules qui forment la matière autour de nous, par exemple l’électron. Celui-ci orbite autour d’un noyau d’atomes et son spin lui permet de se comporter tel un petit aimant qui suit le champ magnétique produit par l’atome. Le spin de l’électron est fixe et peut avoir une valeur de +1/2 ou -1/2. L’existence de deux états permet à l’électron de se superposer et de produire des états inaccessibles classiquement.

En utilisant des approximations locales, par le biais de ponts browniens et de courbes de Daniels, nous proposons un nouvel algorithme de simulation permettant d'estimer la densité du premier temps de passage d'un mouvement brownien à travers une frontière évoluant dans le temps. Nous effectuerons des études comparatives avec des méthodes existantes afin d'établir l'efficacité de notre approche. Enfin, nous appliquerons nos résultats dans le contexte d'un problème de gestion de portefeuilles.

Lorsque vient le moment de suivre un évènement dans le détail, le lecteur attentif de l’actualité n’a plus le choix ; il doit sélectionner les sources d’information qu’il veut privilégier. L’information est là et partout, en plusieurs langues et s’exprimant au travers de multiples points de vue. Cette disparité dans le traitement crée ce que l’on pourrait appeler des trous informatifs qu’il est impossible de combler sans lire l’ensemble de ce qui s’est écrit sur le sujet. Notre méthodologie comporte quatre étapes : la construction du corpus documentaire de manière semi-automatique, l'alignement des sources, l'identification des trous informationnels, la visualisation et la validation des résultats.  Notre corpus de travail est construit en utilisant des modèles probabilistes qui permettent de dégager les documents, rédigés en français et en anglais, relatant les mêmes faits historiques. L'alignement des sources s'effectuent après avoir encodé les textes dans une structure de graphes qui, une fois projetée dans un espace de moindre dimension, permettra à l'utilisateur d'identifier les couvertures médiatiques semblables et distinctes, ces dernières venant ainsi combler les trous informatifs. La visualisation résultante sera validée auprès d'experts. Ce projet contribue à donner aux utilisateurs le potentiel d'innover en étant à même d'appréhender toute la richesse de nos sources documentaires afin de mieux les explorer et, par le fait même, de les étudier.

La conception d’un régulateur de tension CMOS pour amplificateurs de type RFIC GaAs HBT comporte des défis. Avec une faible consommation de courant et à bas voltage, il doit être capable de fournir un courant de 20 mA, tout en restant insensible aux perturbations RF. La structure "Recycled Folded-cascode" (RFC) permet un fonctionnement à basse tension avec de bonnes performances, mais ne répond pas entièrement à cette problématique.

Cette communication propose une version améliorée de la structure RFC qui, grâce aux  modifications illustrées à la figure jointe, constitue une solution adaptée à cette problématique.  La méthodologie employée est présentée à travers des résultats de simulations avec un signal d’excitation RF à 1.88 GHz et de puissance 20 dBm, ainsi qu’une charge émulant le comportement d'un transistor GaAs HBT. L’effet perturbateur du à l’infiltration du signal RF dans les circuits de polarisation à travers l’inductance d’isolation a été étudié.

Alimentée à 1.8 V, la structure RFC améliorée consomme un courant de polarisation ramené de 800 µA à 135 µA. Employée dans une configuration de rétroaction, elle assure la régulation de tension à 1.4 V, pour un courant de charge allant jusqu’à 20 mA. La technique de désensibilisation appliquée contre les perturbations RF permet de réduire la chute de tension de sortie par 80 mV, pour rétablir une régulation à 97%. Elle permet d’utiliser une inductance d’isolation aussi faible que 8 nH, favorisant l’intégration sur puce.

Les systèmes informationnels sont désormais au centre des décisions en santé. Un très grand volume de données associées à des évènements interreliés temporellement est généré chaque jour. Les établissements de santé désirent réutiliser ces données pour différents types d’analyse et les partager d’une façon exploitable. L’efficacité des études cliniques dépend de la quantité et de la qualité des données recueillies. D’une part, l’extraction des informations d’intérêt à des fins d’études demeure un grand défi au vu du grand nombre de sources hétérogènes et des connaissances diversifiées. D’autre part, la temporalisation est devenue un enjeu crucial afin de garder les traces de l’évolution des données et d’améliorer la prise de décision clinique. L’approche préconisée consiste à construire un entrepôt de données (ED) en se basant sur un modèle de connaissance (ontologie) pour faciliter l’intégration des sources, l’extraction des informations et l’expression des requêtes. La construction d’un ED demeure en grande partie manuelle. Les méthodes existantes sont basées sur des règles ad hoc avec un minimum de gestion de la temporalisation ce qui limite l’interopérabilité temporelle et donc à l’exploitation de données. Le but est d’élaborer une méthode semi-automatisée de construction d’ED temporalisées à partir d’un modèle de connaissance et d’un modèle temporel unifié construits selon des critères fondamentaux tels que la théorie relationnelle et les ontologies réalistes.

En recherche opérationnelle, l’algorithme d’optimisation par essaim particulaire (OEP) est reconnu comme une métaheuristique efficace dans la résolution de problèmes utilisant des variables réelles. Plusieurs variantes de cet algorithme sont proposées dans la littérature et chacune d’elles adopte une approche différente dans la résolution de problèmes. Malgré les progrès proposés au fil des ans, l’OEP éprouve tout de même de la difficulté à optimiser des problèmes de grande taille. Afin de pallier à cette lacune, il est proposé dans cette recherche d’hybrider trois variantes de l’OEP dans le but d’utiliser les forces de certaines pour atténuer les faiblesses des autres. Ces trois variantes prouvées efficaces dans la littérature sont : le barebones particle swarm optimization, le comprehensive learning particle swarm optimization et le cooperative learning particle swarm optimization. Trois nouveaux algorithmes hybrides sont ainsi proposés dans le but d’améliorer la qualité des solutions produites. Leur efficacité est testée sur une série de problèmes de tailles différentes utilisant des variables réelles. La comparaison des résultats est effectuée avec l’aide de la dominance stochastique ainsi que par une analyse de convergence. Cette comparaison permet de démontrer que l’hybridation entre les variantes de l’OEP améliore la qualité des solutions obtenues lors de l’optimisation de problèmes de grande taille.