Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Plus de 500 millions de messages sont publiés quotidiennement sur Twitter. Les entreprises et les consommateurs interagissent et sont connectés entre eux comme l’illustrent autant le marketing viral que les comportements moutonniers. Notre hypothèse est que les conversations sur les réseaux sociaux peuvent ajouter de l’information à l’information financière déjà disponible.

La recherche s’appuie sur des bases de données répertoriant l’évolution de la popularité sur Twitter de l’ensemble des compagnies du S&P500. De plus, tous les messages publiés avant l’ouverture des marchés ont été conservés afin d’en extraire les informations dans une seconde base de données. La méthodologie employée s’appuit sur des modèles économétriques (probit).

En termes de résultats, l’utilisation de données massives non structurées apporte un complément d’information pour obtenir une meilleure mesure du risque des actifs financiers. De plus, l’extraction, le filtrage et l’analyse des messages publiés sur Twitter avant l’ouverture des marchés offre un levier décisionnel supplémentaire aux investisseurs.

L’originalité de la recherche réside dans l’étendue des bases de données, étant la seule recherche à notre connaissance couvrant l’ensemble des compagnies du S&P500 et leur présence sur Twitter. De plus, l’application des modèles économétriques permet de traiter de manière robuste ces données massives générées en temps réel.

Les systèmes informationnels sont désormais au centre des décisions en santé. Un très grand volume de données associées à des évènements interreliés temporellement est généré chaque jour. Les établissements de santé désirent réutiliser ces données pour différents types d’analyse et les partager d’une façon exploitable. L’efficacité des études cliniques dépend de la quantité et de la qualité des données recueillies. D’une part, l’extraction des informations d’intérêt à des fins d’études demeure un grand défi au vu du grand nombre de sources hétérogènes et des connaissances diversifiées. D’autre part, la temporalisation est devenue un enjeu crucial afin de garder les traces de l’évolution des données et d’améliorer la prise de décision clinique. L’approche préconisée consiste à construire un entrepôt de données (ED) en se basant sur un modèle de connaissance (ontologie) pour faciliter l’intégration des sources, l’extraction des informations et l’expression des requêtes. La construction d’un ED demeure en grande partie manuelle. Les méthodes existantes sont basées sur des règles ad hoc avec un minimum de gestion de la temporalisation ce qui limite l’interopérabilité temporelle et donc à l’exploitation de données. Le but est d’élaborer une méthode semi-automatisée de construction d’ED temporalisées à partir d’un modèle de connaissance et d’un modèle temporel unifié construits selon des critères fondamentaux tels que la théorie relationnelle et les ontologies réalistes.

Les modèles de graphème en phonème sont des composants clés dans les systèmes de reconnaissance automatique de la parole et de synthèse vocale. Avec des paires de langues peu dotées (ou peu de ressources linguistiques, d'outils informatiques) qui ne possèdent pas de dictionnaires de prononciation bien développés, les modèles de graphème en phonème sont particulièrement utiles. En principe, ces modèles sont basés sur des alignements entre les séquences sources de graphèmes et les séquences cibles de phonèmes. Dans le cadre de notre travail de recherche, nous présentons une nouvelle méthode appliquant la représentation d'alignement au niveau de caractères pour les séquences d'entrée ainsi que les plongements (embeddings) pré-entraînés de source et de cible pour surmonter le problème de la tâche de translittération pour une paire de langues peu dotée. Les expérimentations ont été réalisées sur la paire de langues peu dotée franco-vietnamienne. Avec seulement un petit dictionnaire de prononciation bilingue disponible pour l'apprentissage des modèles de translittération, nous avons obtenu des résultats prometteurs avec un grand gain de score BLEU ainsi qu'une réduction du taux d'erreur de traduction (TER) et du taux d'erreurs de phonèmes (PER), comparés à d'autres systèmes utilisant l'approche statistique.

D'un point de vu informatique la prise de rendez-vous est souvent réduite à une tache d'ordonnancement de créneaux horaires dans des calendriers synchronisés. Internet a rendu possible le développement de systèmes automatisés d'ordonnancement mais qui ne permettent pas d'instaurer un dialogue avec le client. Parallèlement, avec l’émergence des téléphones mobiles, les entreprises proposent des services utilisant le SMS comme support de conversation. C'est pourquoi, l'automatisation de la conversation entre un client et un système informatique appliquée à la prise de rendez-vous par SMS, a été étudiée. Il ressort qu'un rendez-vous se construit et se négocie d'une manière collective et incrémentale pendant la conversation. Cette dernière ne peut-être modélisée comme un enchaînement linéaire de messages prédictibles. La démarche proposée est de représenter la conversation à l'aide d'une machine à états alimentée par l'intention émise par l'utilisateur. Cette dernière est déduite à l'aide d'algorithmes d'annotation d'entités et de classification automatique fondée sur l’apprentissage machine. L'objectif est d'être capable de générer une réponse cohérente pour construire le rendez-vous et converger sur une entente adaptée aux besoins de l'utilisateur. Les réponses du système sont générées à partir de patrons pré-définies, en tenant compte des informations extraites du message entrant, de l'intention déduite, ainsi que du profil et de l'historique des conversations avec l'utilisateur.

La sécurité routière représente un processus continu qui consiste à identifier des zones à risque et d'apporter des solutions viables. Une diversité de méthodes de prédiction paramètres du trafic sont utilisées lors des évaluations des risques.    Le fait qu'il n'existe pas de processus pour faire un choix sur des méthodes de prédiction peut avoir des conséquences problématiques au niveau des solutions implantées pour améliorer la sécurité des zones identifiées.  Notre objectif est de choisir des méthodes de prédiction des paramètres du trafic de manière à éviter d'implanter des solutions qui ne conviennent pas réellement aux zones à risque identifiées.  Notre approche de résolution est basée sur la définition et le développement d'un environnement d'expérimentation et la définition d'études de cas réalistes permettant d'étudier les conséquences des précisions de diverses méthodes de prédiction.   Le simulateur de trafic urbain SUMO est utilisé pour générer un trafic au niveau de plusieurs zones de la Ville de Gatineau. L'installation de capteurs nous a permis de faire du comptage concernant ces zones.   Des études empiriques sont en cours pour tester les méthodes de prédictions couramment utilisées pour la prédiction de densité de trafic. Différentes valeurs de limitations de vitesses sont considérées. Les résultats attendus permettront de définir une méthodologie pour optimiser le choix d'une méthode de prédiction selon les caractéristiques du trafic routier.

L'algorithme de Viterbi est habituellement utilisé dans les systèmes de reconnaissance de la parole pour la recherche du meilleur chemin dans le graphe de reconnaissance.  L'espace de recherche étant immense, l'arbre de recherche doit être élagué afin de garder seulement les hypothèses les plus prometteuses.  Cependant, cette approche a pour effet de déstructurer les accès mémoire, ce qui conduit à une mauvaise utilisation de l'architecture de la mémoire sur les processeurs multi-coeurs et graphiques (GPUs).


Nous allons décrire comment nous avons utilisé l'algorithme de recherche A* afin de diminuer considérablement le temps de recherche dans le graphe grâce à l'utilisation d'un graphe de reconnaissance simplifié comme heuristique.  Ce graphe, beaucoup plus petit, permet une recherche exhaustive qui utilise plus efficacement les architectures mémoire des processeurs Intel et GPUs. La recherche elle même (7% du temps de calcul total) ne pouvant pas être parallélisée efficacement, est demeurée séquentielle. Le calcul de l'heuristique, sur un processeur 4 coeurs est 4.1 fois plus rapide que la version séquentielle sur un seul coeur tandis que sur un GPU, le facteur d'accélération est de 12x. Nos expériences, sur une application temps réel, montre que notre système parallèle (les probabilités acoustiques sur GPU) nous permet d'augmenter la précision de 4% absolu par rapport au système basé sur l'algorithme de Viterbi séquentiel. 

Le miroir de courant à transistors GaAs BiFET (HBT, MESFET en technologie Arséniure de Gallium) est très performant pour la polarisation des amplificateurs MMIC (puce unique) fonctionnant à basses tensions [1]. Toutefois, en raison d’une grande variation de la tension de seuil des MESFET, il est  préférable d’utiliser un miroir de courant à régulateur purement bipolaire (GaAs HBT) dans certaines applications [2]. Or, le miroir de courant HBT conventionnel cause une variation excessive du courant de polarisation avec une tension de référence VREF variant de 2,6V à 3,2V. Ceci est du à la tension VBE élevée d’un transistor GaAs HBT (1,3V).

Ce travail de recherche se concentre donc sur le miroir de courant GaAs HBT pour la polarisation des amplificateurs MMIC à basse tension. Dans cette communication nous proposons une nouvelle structure de miroir de courant GaAs HBT qui permet d’améliorer les performances DC et RF. Les résultats de simulation démontrent que cette nouvelle structure réduit les variations du courant de polarisation du transistor RF sur la plage 2.6V-3.2V de VREF et affecte positivement l’efficacité énergétique. De plus, cela permet une meilleure régulation du gain RF (0,75dB de variation) avec VREF aussi bas que 2,6V et une puissance du signal RF d’entrée variant de -10 dBm à 10 dBm. Ceci est une nette amélioration comparativement à 3,75dB avec la structure conventionnelle.

[1] A. G. Metzger et al., IEEE - JSSC, Oct. 2007.

[2] Brevet:  USPTO 7719354, 18 Mai 2010.

Les grands modèles de langage (LLM) offrent des bénéfices dans le développement de logiciels. Néanmoinsil reste à explorer le potentiel des modèles en tant qu'assistant dans les contextes de collaboration. Les résultats de cette étude exploratoire pourraient être cruciaux pour les développeurs qui envisagent d'adopter des outils d'intelligence artificielle (IA) générative lors des demandes de tirage (pull request). Néanmoins, il est impératif de se poser les questions suivantes : les LLMs accélèrent-ils les révisions du code, où sont-ils le plus souvent utilisés comme assistance, quelles sont les motivations à les utiliser lors de chaque stade de la revue du code? Un modèle linéaire à effets mixtes a été développé pour évaluer la pertinence statistique de l'effet de l'utilisation de LLMs sur le délai pour résoudre les revues de code. Selon les résultats du modèle, l'utilisation des LLMs pourrait réduire le temps nécessaire pour la revue du code. Une méthode quantitative basée sur des statistiques descriptives non paramétriques a également été choisie pour étudier l'utilisation des LLMs lors des différentes étapes de la revue de code. Une adoption anticipée peut diminuer le temps total du processus, ce qui augmente l'efficacité de la pratique, par ailleurs, lors de la soumission de la revue du code. Nos analyses préliminaires sur les événements où les LLMs ont été utilisés, montrent que le LLM peut fournir des explications sur un problème spécifique afin d'aider le développeur à le comprendre.

L’énergie éolienne représente aujourd’hui une source d’énergie verte qui joue un rôle important dans le domaine de l’énergie électrique. Les éoliennes  situées dans des zones de climat froid sont affectées par le phénomène de givrage. L’accrétion de glace sur les pales, et l’infiltration du froid dans la structure sont à l’origine de pannes et d’usures prématurées. Un fonctionnement avec une forte accumulation de glace peut endommager l’éolienne et représenter un danger pour la sécurité à cause des jets de glace. Ces effets peuvent diminuer considérablement la production, et être responsable de l’arrêt complet de l’éolienne, élevant les dommages à plusieurs millions de dollars.

La détection et la mesure de la glace est devenu un souci majeur pour les fabricants et les exploitants. Les systèmes actuels ne sont pas capables de fonctionner de manière fiable dans des conditions extrêmes. Dans ce travail, deux approches basées sur la vision artificielle ont été développées et expérimentées sur des images d’éoliennes. La première utilise la forme du mât comme référence. La quantité de glace accumulée est la différence entre la largeur du mât sans glace et la largeur avec glace. La deuxième méthode mesure le profil givré sur la pale de l’éolienne. Dans les deux cas, l’image doit être rectifiée pour annuler la perspective et effectuer la mesure. Les résultats obtenus se comparent avantageusement aux mesures manuelles et démontrent le potentiel des solutions proposés.

La santé alimentaire est devenue au fil du temps un enjeu important pour tout les consommateurs (Planifier votre croissance : Cinq tendances de consommation qui changent la donne, BDC, octobre 2013). Avec la prolifération du Web et la croissance des achats de produits alimentaires en ligne, il devient crucial d’avoir des services d’épicerie en ligne qui permettent aux consommateurs d’avoir une information nutritionnelle de qualité. Ainsi, l’objectif de cette étude est d’explorer les types d’informations et d’outil d’aide à la décision que les consommateurs s’attendent à retrouver sur une page de produit alimentaire en ligne et d’analyser la meilleure façon de la présenter.

Pour ce faire, en partenariat avec une grande entreprise alimentaire au Québec, un sondage a été administré en ligne auprès de consommateurs d’épicerie.

Six outils d’aide à la décision pour les informations nutritionnelles ont été développés à partir de la revue de la littérature. Ils ont été évalués selon différents critères, dont la pertinence de l’information et l’appréciation de l’outil. Les résultats n’ont pas encore été analysés, mais ils permettront de déterminer des aspects plus ou moins appréciés de chacun des outils dans le but de fournir une combinaison de différents éléments de chacun à appliquer sur une page de produits alimentaires en ligne.

Une contribution notable, tant au niveau scientifique qu’au niveau managérial, est prévue.

La mesure objective de la douleur d’une personne atteinte de la fibromyalgie (FM) représente un défi puisque la symptomatologie chez ces personnes est caractérisée par de douleurs diffuses, persistantes, amoindrissant leurs capacités fonctionnelles. Jusqu’à ce jour, des études en imagerie cérébrale fonctionnelle utilisant l’électroencéphalogramme (EEG) se sont essentiellement concentrées sur l’analyse spectrale, fondée sur l’hypothèse de stationnarité des signaux. Cependant, l’EEG est un signal non-périodique, non-stationnaire où l’information de la douleur peut contenir des paramètres pertinents changeant dans le temps. Par conséquent, nous proposons l’application d’un algorithme permettant de déterminer un indice pouvant être lié à la douleur et à la performance à la tâche à l’aide des polynômes de Tchebychev. Ainsi, nous émettons l’hypothèse que la douleur musculosquelettique et la performance à la tâche seraient en lien avec l’énergie provenant de l’EEG. Cet algorithme, capable de détecter les paramètres des processus non-stationnaires, calcule un indice permettant d’inférer sur la douleur musculosquelettique pendant la tâche. L’efficacité de notre approche a été évaluée sur quatre participants atteints de la FM et quatre participants sains. Les résultats préliminaires montrent que les pointes d’énergie apparaissant dans le temps pourraient être corrélées avec un indice d’une douleur généralisée et de performance à la tâche bimanuelle chez les personnes atteintes de la FM

La technologie RFID (Identification par fréquence-radio) est de plus en plus utilisée dans divers domaines d’application. Malgré cette utilisation croissante dans les organisations et les réseaux inter-entreprises, peu d’études actuelles examinent l’impact de RFID au sein d’un réseau de partenaires d’affaires. Ainsi, l’impact de la technologie RFID sur la création et l'appropriation de la valeur relationnelle, c’est-à-dire les bénéfices conjointement créés avec les partenaires d’affaires, n’est pas clairement établi. Il est donc nécessaire de comprendre comment RFID agit sur la capacité d’une entreprise à co-créer et à s’approprier la valeur relationnelle. Pour cela, nous proposons un modèle basé sur une conceptualisation multidimensionnelle de cette technologie dans un contexte inter-entreprises.

Nous avons validé empiriquement ce modèle par des études de cas multiples. Les résultats suggèrent que la différence dans l’appropriation de valeur relationnelle entre les entreprises est fonction de leur capacité à utiliser la technologie RFID pour alimenter leurs relations en information de meilleure qualité. Ces relations promeuvent la co-création de valeur par rapport aux besoins des unités d’affaires. Les résultats suggèrent aussi que l’utilisation de la technologie RFID est efficace en cas d’un meilleur partenariat entre la fonction TI et les unités d'affaires. Ce partenariat atténue les effets négatifs de la technologie et accentue ses effets bénéfiques.

Ce projet propose un système d’équations estimant les niveaux de distorsions d’intermodulation (IMD) d’un amplificateur à rétroaction d’enveloppe. La particularité de ce modèle est la prise en compte de l’effet de mémoire que comportent les amplificateurs de puissance. Ce modèle a pour objectif de faciliter l’atteinte des exigences, en termes de linéarité, à l’étape de la conception assistée par ordinateur d’amplificateur de puissance à rétroaction d’enveloppe.

Les résultats obtenus avec le modèle proposé sont comparés aux simulations (sur ADSTM) du comportement dynamique AM et PM du modèle d’amplificateur de puissance sur puce à rétroaction d’enveloppe déjà existant. L’excitation à l’entrée est définie avec trois niveaux sinusoïdaux arbitraires ainsi qu’avec une interrelation arbitraire de leur phase. Un polynôme de 5e degré représente l’amplificateur, bien que ce système puisse être étendu à des degrés supérieurs. La sortie inclut quatre raies de produits IMD sur chaque bande latérale de la porteuse. Une analyse comparative entre l’utilisation du système d’équations et des simulations de l’amplificateur a démontré une différence d’amplitude de 0.06dB sur les produits IMD de sortie et une erreur maximale de 1° sur leur phase, montrant ainsi la précision du modèle proposé. Une procédure pour réaliser l’algorithme sur l’outil de modélisation MAPLETM ainsi qu’un code pour solutionner les valeurs des produits IMD associées au système polynomial d’un amplificateur sont fournis.

Résumé: Ordinateur quantique, cryptographie quantique et mémoire magnétique, toutes ces avancées technologiques découlent de la physique quantique et de la notion de spin. Mais qu’est-ce qu’un spin? Le spin est une propriété fondamentale des particules élémentaires. Les particules élémentaires sont des particules qui forment la matière autour de nous, par exemple l’électron. Celui-ci orbite autour d’un noyau d’atomes et son spin lui permet de se comporter tel un petit aimant qui suit le champ magnétique produit par l’atome. Le spin de l’électron est fixe et peut avoir une valeur de +1/2 ou -1/2. L’existence de deux états permet à l’électron de se superposer et de produire des états inaccessibles classiquement.

La détection de copie audio peut être utilisée dans plusieurs applications comme la détection de copie frauduleuse d'oeuvres musicales ou la détection de publicités afin de s'assurer que les publicités d'une entreprise sont diffusées tel que stipulé dans le contrat.  Nous avons développé un système de détection de copie dans le cadre de l'évaluation TRECVID.  Pour cette évaluation, nous avions une base de données de 385 heures audio qui était notre référence.  La tâche consistait à retrouver des fichiers audio transformés de 7 façons différentes, dont 3 pour lesquels de la parole avait été ajoutée à l'audio rendant le processus beaucoup plus difficile.  Nous avons développé un algorithme en deux phases.  La première phase permet d'éliminer rapidement les candidats les plus faibles.  La deuxième phase permet de raffiner les résultats et demande le calcul d'une empreinte beaucoup plus lente à calculer mais beaucoup plus précise.  Pour pouvoir l'utilisé en pratique, nous avons implanté ce calcul sur un processeur graphique (GPU).  La version GPU est de 80 à 200 fois plus rapide que sur un CPU avec un seul coeur.  L'accélération dépend des applications et varie selon la taille des audios à évaluer et celle de la base de données. Le taux de détection est supérieur à 99% pour les 4 premières transformations et de 94% pour les 3 plus complexes.

La conception d’un régulateur de tension CMOS pour amplificateurs de type RFIC GaAs HBT comporte des défis. Avec une faible consommation de courant et à bas voltage, il doit être capable de fournir un courant de 20 mA, tout en restant insensible aux perturbations RF. La structure "Recycled Folded-cascode" (RFC) permet un fonctionnement à basse tension avec de bonnes performances, mais ne répond pas entièrement à cette problématique.

Cette communication propose une version améliorée de la structure RFC qui, grâce aux  modifications illustrées à la figure jointe, constitue une solution adaptée à cette problématique.  La méthodologie employée est présentée à travers des résultats de simulations avec un signal d’excitation RF à 1.88 GHz et de puissance 20 dBm, ainsi qu’une charge émulant le comportement d'un transistor GaAs HBT. L’effet perturbateur du à l’infiltration du signal RF dans les circuits de polarisation à travers l’inductance d’isolation a été étudié.

Alimentée à 1.8 V, la structure RFC améliorée consomme un courant de polarisation ramené de 800 µA à 135 µA. Employée dans une configuration de rétroaction, elle assure la régulation de tension à 1.4 V, pour un courant de charge allant jusqu’à 20 mA. La technique de désensibilisation appliquée contre les perturbations RF permet de réduire la chute de tension de sortie par 80 mV, pour rétablir une régulation à 97%. Elle permet d’utiliser une inductance d’isolation aussi faible que 8 nH, favorisant l’intégration sur puce.

Dans un environnement où les fuites de données représentent une menace majeure pour les organisations, cette recherche se concentre sur la problématique de l’équilibre entre l’automatisation de la protection des données sensibles et la supervision humaine dans les processus critiques. Le projet propose un système de prévention des pertes de données (DLP) assisté par intelligence artificielle (IA), intégrant les modèles GPT-4-Turbo et XGBoost pour automatiser la classification des données sensibles. La contribution principale de cette recherche réside dans la démonstration de l'efficacité d'un modèle hybride, combinant IA et intervention humaine, pour améliorer la détection des fuites tout en minimisant les erreurs de classification. La méthodologie comprend l’analyse de courriels réels à partir d'une base de données publique, avec une phase de prétraitement des données (nettoyage, tokenization, TF-IDF) suivie de l'entraînement des modèles. Les performances ont été évaluées par des mesures standard telles que la matrice de confusion, la précision et le rappel. Les résultats préliminaires montrent que les performances de XGBoost et de GPT-4-Turbo sont comparables à celles de la classification humaine. En combinant ces trois approches, nous obtenons un système DLP solide. Cette étude valide ainsi l’intérêt d’un système DLP hybride dans des environnements organisationnels complexes.

En vidéo-surveillance, la capacité de détecter et de suivre une cible en temps réel représente un objectif important pour garantir la sécurité d’un périmètre dans des zones sensibles. De plus, avoir la possibilité de suivre l’objectif en temps réel et obtenir sa position en 3D peut s’avérer une information d’un intérêt capital pour le personnel de sécurité. Ce travail présente un système de suivi 3D et en temps réel basé sur la stéréovision. Le système de caméras stéréo est positionné sur une plateforme Pan-Tilt pour permettre le suivi en continu de la cible détectée. La technique des filtres à particules est utilisée pour le suivi. Une approche de reconnaissance des formes permet de garder le focus sur la cible d'intérêt. La position 3D de la cible par rapport au référentiel du système stéréo est calculée en utilisant des techniques de reconstruction 3D. Cette position permet de suivre la position de la cible sur une carte en temps réel (une carte Google Maps a été utilisée). Les résultats expérimentais menées dans des scènes externes montrent l'efficacité de l'approche proposée.

« Les bonnes lois ne peuvent rien où il n’y a pas de bonnes armes ; et où il y a de bonnes armes, il faut qu’il y ait de bonne loi ». Cette citation de Machiavel traduit parfaitement quelles ont été les motivations du Conseil de l’Europe quant à l’élaboration et la mise en place de la Convention de Budapest sur la cybercriminalité de 2001. Instrument juridique pionnier en la matière et parfait exemple d’une harmonisation normative réussie,  elle insiste sur la nécessité pour les États membres (ou non), de coopérer entre eux de façon efficace et rapide, la cybercriminalité faisant fi des frontières. Texte d’influence, cette Convention a indirectement induit la création d’accords régionaux dont le dernier en date est la Convention de Malabo de 2014. Bien que ratifiée par certains États non membres du Conseil de l’Europe (Canada, etc.), cette dernière est malgré tout perçue comme un peu trop « européanisée », si bien que certains États ont soulevé la nécessité d’élaborer un encadrement juridique à vocation universelle unanimement reconnu par la communauté internationale. Cependant, l’ONU, à qui cette tâche devrait logiquement revenir puisque capable de produire et garantir le droit international, ne semble pas manifester d’intérêt quant à cette question. Son comportement tend d'ailleurs à confirmer l’idéologie de certains auteurs selon laquelle la région s’imposera demain comme le moteur principal du progrès du droit international.

Les soins à domicile (SAD) améliorent les conditions de vie des patients grâce à des soins médicaux, paramédicaux et services sociaux à domicile. Leur planification est étudiée en recherche opérationnelle afin d’optimiser les conditions de travail des soignants et, par conséquent, la qualité des soins offerts. Plusieurs contraintes doivent être considérées telles que la charge de travail, la qualification des soignants ou le routage. La recherche est principalement axée sur deux aspects : la représentation du problème et la proposition d’une méthode de résolution adaptée. Toutefois, les données utilisées dans la littérature sont généralement spécifiques aux problématiques étudiées en plus d’être confidentielles. Dans cette communication, nous présentons la réalisation d’un objectif clé à notre recherche : l’élaboration d’un jeu de données. Ce dernier est indispensable à la validation de notre modèle et à la conception d’une méthode de résolution. Il comporte plusieurs combinaisons de contraintes spécifiques aux SAD qui, jusqu’à présent, ont été traitées séparément dans la littérature. Le jeu de données proposé se base sur des connaissances métiers propres à la région du Saguenay mais aussi sur des probabilités issues de communications scientifiques médicales. En plus des contraintes générales, il offre la possibilité de considérer la continuité dans les soins ou l’interdépendance des soins. Sa complexité peut aussi varier selon le nombre de soignants et leurs qualifications.

Nous assistons à un accroissement prodigieux des publications scientifiques numérisées à l’échelle internationale. Ce que promet la société du numérique est une toute autre façon de nous représenter et de concevoir l’espace et le temps : c’est notamment le cas des travaux en scientométrie qui analysent des corpus volumineux de publications scientifiques. Nos travaux s’inscrivent dans cette démarche en proposant une méthode semi-automatique générique pour l’analyse d’un corpus de publications, l’intérêt étant d’appuyer les scientifiques dans leur travail de veille en mettant en avant l’évolution des thématiques au fil du temps, et également de proposer une approche de classification thématique d’articles destinée à assister les organisateurs des éditions à venir de la conférence traitée. De nombreux travaux en scientométrie présentent des méthodes pour analyser des communautés à partir de publications scientifiques, mais il n’existe pas de solutions satisfaisantes permettant de traiter de façon efficace l’évolution des thématiques. Notre méthode se décompose en 3 étapes : (1) marquage thématique via une approche de fouille de textes, (2) indexation du contenu des publications et métadonnées associées, (3) analyse semi-automatique du corpus. La figure annexe présente un extrait des résultats des expérimentations, menées sur un corpus de 1103 publications présentées à EGC entre 2004-2015, qui mettent en avant l’évolution du classement des articles par thématique de recherche.

L’idéation est un processus incontournable et essentiel de la démarche de conception en design. Bien qu’elle puisse être sollicitée à tous moments (CROSS 2011), l’idéation revêt une importance particulière en tout début de démarche, lorsque le designer concentre ses efforts à l’exploration de l’univers des possibles et à l’identification de l’idée brute qui deviendra le générateur primaire (DRAKE 1978) de la solution de design en devenir. Mais l’acte idéatif repose sur un processus cognitif exigeant et fragile. Les obstacles susceptibles de lui nuire, de l’interrompre ou de mener à son échec sont nombreux.

Enseignants universitaires, nous avons eu l’occasion d’étudier la démarche de conception de plus d’une centaine de designers en formation. Nos observations nous ont permis d’identifier des écueils récurrents à l’idéation. Les problèmes de focalisation en font partie. Ce type de problèmes concerne particulièrement l’élaboration de l’idée, l’identification de son cadre de référence et sa portée. Dans cette catégorie, nous ciblons trois problèmes particulièrement nuisibles à l’idéation, soient ceux relatifs à : 1) la définition du périmètre idéatif, 2) la posture philosophique du designer et 3) la persistance à la solution. Dans le contexte de nos observations, le manque d’expérience des designers ainsi que la faiblesse des stratégies utilisées pour identifier et surmonter les obstacles à l’idéation sont également des freins au processus global d’idéation.

Le modèle de mélange gaussien est un modèle probabiliste très utilisé dans de nombreux domaines, notamment la segmentation d'images, la reconnaissance de formes, l'apprentissage automatique, etc. Les mélanges de gaussiens (MdG), en tant que somme pondérée de plusieurs fonctions gaussiennes, sont utiles en raison du fait que le nombre de paramètres utilisés est très faible et en raison de leur flexibilité pour modéliser des distributions dont les formes paramétriques sont inconnues.

Malheureusement, plus le nombre de composants dans le mélange est élevé, plus la probabilité des données est élevée, mais également plus la charge de calcul et le sur-ajustement des données sont élevés. Ainsi, il y a eu un intérêt grandissant pour les algorithmes de réduction de MdG qui se basent sur la fusion de gaussiennes tout en préservant la structure du mélange initial. Pour fusionner deux MdG, on mesure la différence entre les deux à l'aide de divers types de divergences disponibles ou de mesures de distance. Cependant, toutes les divergences ne sont pas également utiles pour le MdG car la plupart des divergences connues, y compris la divergence de Kullback-Leibler, ne donnent pas une expression analytique en forme fermée pour un MdG. La plupart des travaux existants se basent sur une approximation de la divergence Kullback-Leibler. Dans ce travail, nous présentons un algorithme de réduction de MdG basé sur la divergence de Cauchy-Schwarz pour la segmentation d’images de mélanome.

Les informations diffusées dans les réseaux véhiculaires sans fil (VANETs) peuvent être vulnérables aux attaques en absence de mesures de sécurité adéquates. Pour remédier à ce problème, nous proposons un protocole de sécurité qui permet aux véhicules de changer leurs pseudonymes de communication dans un même intervalle de temps. Ce protocole gère d’une part l’authentification, la confidentialité et d’autre part l’anonymat des différents véhicules qui communiquent à travers le réseau afin d’éviter la traçabilité de ces derniers.

Le modèle proposé repose sur l’utilisation des plages de vitesses autorisées sur les routes, la distribution équidistante des autorités centrales (CA) ainsi que la cryptographie asymétrique basée sur les courbes elliptiques. Les résultats de notre travail serviront dans un premier temps à analyser l’impact du changement des pseudonymes de communication sur le réseau en termes de temps et de mémoire, puis à estimer la durée exacte des pseudonymes de communication en vue de leur exploitation maximale. Enfin, nous en déduirons la distribution optimale des CA sur la route afin d’avoir une meilleure communication véhicule – infrastructure.

La scoliose idiopathique adolescente (SIA) est une déformation de la colonne vertébrale qui affecte 1% de la population. Les patients atteints de SIA sont suivis périodiquement en clinique d’orthopédie du CHU Sainte-Justine. Une base de données a été conçue pour informatiser les données recueillies. Or, la consultation de la base de données s’effectue sur un poste de travail, peu adapté à une utilisation clinique. L'utilisation d'une application mobile faciliterait le travail des cliniciens en rendant plus convivial l'accès à la base de données. L’objectif de ce projet de recherche est de présenter l’analyse, la conception et l’implémentation d’un système permettant aux orthopédistes de consulter un dossier médical sur la plateforme iOS d’Apple (Cupertino, É.U.). Le processus de développement logiciel Rational Universal Process a été utilisé pour modéliser le système. L’analyse et l’identification des exigences fonctionnelles et non fonctionnelles ont permis de bien identifier les besoins cliniques. Les comportements statiques et dynamiques du système furent modélisés avec le langage UML. La phase de développement a permis de réaliser une application iPad en utilisant le langage Objective-C. La recherche d’un dossier est réalisée selon des critères médicaux ou nominaux sur les patients, incluant une visualisation interactive des radiographies. Le prototype a été validé avec un chirurgien orthopédiste et le déploiement sur iPad est planifié prochainement en clinique.