Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

La santé alimentaire est devenue au fil du temps un enjeu important pour tout les consommateurs (Planifier votre croissance : Cinq tendances de consommation qui changent la donne, BDC, octobre 2013). Avec la prolifération du Web et la croissance des achats de produits alimentaires en ligne, il devient crucial d’avoir des services d’épicerie en ligne qui permettent aux consommateurs d’avoir une information nutritionnelle de qualité. Ainsi, l’objectif de cette étude est d’explorer les types d’informations et d’outil d’aide à la décision que les consommateurs s’attendent à retrouver sur une page de produit alimentaire en ligne et d’analyser la meilleure façon de la présenter.

Pour ce faire, en partenariat avec une grande entreprise alimentaire au Québec, un sondage a été administré en ligne auprès de consommateurs d’épicerie.

Six outils d’aide à la décision pour les informations nutritionnelles ont été développés à partir de la revue de la littérature. Ils ont été évalués selon différents critères, dont la pertinence de l’information et l’appréciation de l’outil. Les résultats n’ont pas encore été analysés, mais ils permettront de déterminer des aspects plus ou moins appréciés de chacun des outils dans le but de fournir une combinaison de différents éléments de chacun à appliquer sur une page de produits alimentaires en ligne.

Une contribution notable, tant au niveau scientifique qu’au niveau managérial, est prévue.

L'imagerie par résonance magnétique (IRM) est vulnérable à différents artefacts qui affectent la qualité des images, impactant les diagnostics et l'efficacité des logiciels d'analyse. L'artefact de mouvement, inévitable, varie en magnitude et en aspect selon les cas. L'inspection manuelle des volumes, surtout dans des études de grande envergure, est dispendieuse et chronophage. Il devient donc essentiel de détecter automatiquement les volumes problématiques. Cependant, les critères de qualité varient d'une étude à l'autre, rendant difficile l'entraînement, sur la base de ces données, d'un modèle généralisable. De plus, les protocoles d'acquisition cherchant à minimiser la présence d'artefacts, les données disponibles présentent un déséquilibre des classes, limitant la robustesse des modèles.

Nous proposons une méthode pour quantifier les artefacts de mouvement pour les IRMs anatomiques cérébrales T1. Nous avons recours à des techniques de préentraînement sur des artefacts synthétiques et évaluons plusieurs méthodes de quantification, démontrant que ces modèles détectent efficacement le mouvement dans des volumes réels. Après transfert d'apprentissage, les modèles préentraînés sur données synthétiques rivalisent avec ceux entraînés sur des données réelles. En conclusion, les résultats démontrent que l'entraînement sur données synthétiques peut être efficace en pratique et permet aux laboratoires de former leurs modèles avec des ressources limitées.

EC3 est un projet avancé et testé : veille, cybersécurité,  très grandes bibliothèques. EC3 est une nouvelle version de la méthode d'Exploration Contextuelle afin d'extraire des informations pertinentes à partir de parties textuelles hétérogènes du Web Sémantique ou de grandes bases de données documentaires. Il fournit un environnement plus général pour l'extraction d'informations à partir de textes en utilisant cette méthode originale. EC3 n'a pas besoin d'analyse syntaxique, d'analyse statistique ni d'ontologie générale. Mais EC3 n'utilise que de petites ontologies appelées «Ontologies Linguistiques» qui expriment les connaissances linguistiques d'un utilisateur qui doit trouver des informations pertinentes. EC3 fonctionne très vite sur de gros corpus ( «partie de discours» : des SMS aux livres). EC3 propose une représentation visuelle de sous forme de graphes de nœuds (Entités Nommées) liés par des relations sémantiques (en fonction du point de vue). Nous représentons le graphique à l'utilisateur sur un écran d'ordinateur en utilisant une approche originale: "Memory Islands". Une nouvelle application du projet à fort potentiel est actuellement envisagée, dans le domaine juridique. Les avocats, magistrats, syndicats notamment utilisent les bases de données textuelles de la jurisprudence. Cependant, avec les nouvelles lois françaises et européennes, il est urgent de mettre à jour l'indexation de la jurisprudence.

Nous assistons à un accroissement prodigieux des publications scientifiques numérisées à l’échelle internationale. Ce que promet la société du numérique est une toute autre façon de nous représenter et de concevoir l’espace et le temps : c’est notamment le cas des travaux en scientométrie qui analysent des corpus volumineux de publications scientifiques. Nos travaux s’inscrivent dans cette démarche en proposant une méthode semi-automatique générique pour l’analyse d’un corpus de publications, l’intérêt étant d’appuyer les scientifiques dans leur travail de veille en mettant en avant l’évolution des thématiques au fil du temps, et également de proposer une approche de classification thématique d’articles destinée à assister les organisateurs des éditions à venir de la conférence traitée. De nombreux travaux en scientométrie présentent des méthodes pour analyser des communautés à partir de publications scientifiques, mais il n’existe pas de solutions satisfaisantes permettant de traiter de façon efficace l’évolution des thématiques. Notre méthode se décompose en 3 étapes : (1) marquage thématique via une approche de fouille de textes, (2) indexation du contenu des publications et métadonnées associées, (3) analyse semi-automatique du corpus. La figure annexe présente un extrait des résultats des expérimentations, menées sur un corpus de 1103 publications présentées à EGC entre 2004-2015, qui mettent en avant l’évolution du classement des articles par thématique de recherche.

L’idéation est un processus incontournable et essentiel de la démarche de conception en design. Bien qu’elle puisse être sollicitée à tous moments (CROSS 2011), l’idéation revêt une importance particulière en tout début de démarche, lorsque le designer concentre ses efforts à l’exploration de l’univers des possibles et à l’identification de l’idée brute qui deviendra le générateur primaire (DRAKE 1978) de la solution de design en devenir. Mais l’acte idéatif repose sur un processus cognitif exigeant et fragile. Les obstacles susceptibles de lui nuire, de l’interrompre ou de mener à son échec sont nombreux.

Enseignants universitaires, nous avons eu l’occasion d’étudier la démarche de conception de plus d’une centaine de designers en formation. Nos observations nous ont permis d’identifier des écueils récurrents à l’idéation. Les problèmes de focalisation en font partie. Ce type de problèmes concerne particulièrement l’élaboration de l’idée, l’identification de son cadre de référence et sa portée. Dans cette catégorie, nous ciblons trois problèmes particulièrement nuisibles à l’idéation, soient ceux relatifs à : 1) la définition du périmètre idéatif, 2) la posture philosophique du designer et 3) la persistance à la solution. Dans le contexte de nos observations, le manque d’expérience des designers ainsi que la faiblesse des stratégies utilisées pour identifier et surmonter les obstacles à l’idéation sont également des freins au processus global d’idéation.

Résumé: Ordinateur quantique, cryptographie quantique et mémoire magnétique, toutes ces avancées technologiques découlent de la physique quantique et de la notion de spin. Mais qu’est-ce qu’un spin? Le spin est une propriété fondamentale des particules élémentaires. Les particules élémentaires sont des particules qui forment la matière autour de nous, par exemple l’électron. Celui-ci orbite autour d’un noyau d’atomes et son spin lui permet de se comporter tel un petit aimant qui suit le champ magnétique produit par l’atome. Le spin de l’électron est fixe et peut avoir une valeur de +1/2 ou -1/2. L’existence de deux états permet à l’électron de se superposer et de produire des états inaccessibles classiquement.

La scoliose idiopathique adolescente (SIA) est une déformation de la colonne vertébrale qui affecte 1% de la population. Les patients atteints de SIA sont suivis périodiquement en clinique d’orthopédie du CHU Sainte-Justine. Une base de données a été conçue pour informatiser les données recueillies. Or, la consultation de la base de données s’effectue sur un poste de travail, peu adapté à une utilisation clinique. L'utilisation d'une application mobile faciliterait le travail des cliniciens en rendant plus convivial l'accès à la base de données. L’objectif de ce projet de recherche est de présenter l’analyse, la conception et l’implémentation d’un système permettant aux orthopédistes de consulter un dossier médical sur la plateforme iOS d’Apple (Cupertino, É.U.). Le processus de développement logiciel Rational Universal Process a été utilisé pour modéliser le système. L’analyse et l’identification des exigences fonctionnelles et non fonctionnelles ont permis de bien identifier les besoins cliniques. Les comportements statiques et dynamiques du système furent modélisés avec le langage UML. La phase de développement a permis de réaliser une application iPad en utilisant le langage Objective-C. La recherche d’un dossier est réalisée selon des critères médicaux ou nominaux sur les patients, incluant une visualisation interactive des radiographies. Le prototype a été validé avec un chirurgien orthopédiste et le déploiement sur iPad est planifié prochainement en clinique.

Au fil des années, des stratégies en intelligence d’affaires ont permis aux entreprises d’emmagasiner leurs données dans des entrepôts de données, transformer ces données en information et les rendre disponibles pour fins de consommation via les comptoirs de données. L’usine du savoir servira d’infrastructure de la gestion des connaissances de l’entreprise en emmagasinant, transformant, canalisant et produisant des connaissances en temps opportun d’une manière transversale favorisant la réutilisation du savoir de l'entreprise.

L’intégration des données, informations et des connaissances de l’entreprise demeure un secteur très actif de la recherche scientifique. Les entreprises éprouvent d’importants problèmes à implémenter des méthodes et l’infrastructure requise afin de pouvoir permettre les échanges entre les systèmes de l’entreprise. Le protocole de recherche qualitatif de ce projet comprend un ensemble d’entrevues de semi-structurées en vue d’induire des patrons de solutions sémantiques provenant des connaissances et du savoir-faire de praticiens chevronnés intervenant dans l’industrie et, de chercheurs du milieu universitaire. Ce projet permet d’allier les forces particulières, à la fois, des milieux académiques et de l’industrie. Les résultats de la recherche qui seront présentés comporteront le modèle de référence, les fonctions du modèle ainsi que des cas d’usage qui aideront l’auditoire à comprendre le fonctionnement du modèle ainsi que son utilité.  

De plus en plus d’êtres humains sont connectés entre eux depuis la démocratisation d’Internet et l’avènement des médias sociaux, entraînant l’augmentation du stockage des données personnelles des usagers. Ces données ont pour caractéristiques d’être massives, générées en temps réel, et sont non structurées (messages publiés sur Twitter, recherches effectuées à travers Google, applications mobiles...). L’objectif de notre recherche est de proposer une méthodologie robuste issue de l’industrie financière afin d’extraire l’information pertinente de ces données, l’industrie financière étant une industrie adaptée au traitement massif de données en temps réel.

La méthodologie employée se fonde sur les travaux initiés par Sharpe (1964) avec l’utilisation du Modèle d’évaluation des actifs financiers (MÉDAF). Ces modèles permettent de quantifier un actif en fonction de sa croissance et de sa volatilité.

En termes de résultats, l’utilisation de ce cadre d’analyse permet de quantifier l’évolution du niveau de risque perçu par la population québécoise à partir des données mises en ligne sur Twitter. 9 catégories de risques peuvent être ainsi évaluées en temps réel.

L’originalité de la recherche réside dans le fait que nous n’utilisons pas les données massives non structurées afin d’ajouter de l’information aux analyses financières ; au contraire, nous utilisons des modèles financiers afin de structurer les données massives pour en extraire l’information pertinente.

« Les bonnes lois ne peuvent rien où il n’y a pas de bonnes armes ; et où il y a de bonnes armes, il faut qu’il y ait de bonne loi ». Cette citation de Machiavel traduit parfaitement quelles ont été les motivations du Conseil de l’Europe quant à l’élaboration et la mise en place de la Convention de Budapest sur la cybercriminalité de 2001. Instrument juridique pionnier en la matière et parfait exemple d’une harmonisation normative réussie,  elle insiste sur la nécessité pour les États membres (ou non), de coopérer entre eux de façon efficace et rapide, la cybercriminalité faisant fi des frontières. Texte d’influence, cette Convention a indirectement induit la création d’accords régionaux dont le dernier en date est la Convention de Malabo de 2014. Bien que ratifiée par certains États non membres du Conseil de l’Europe (Canada, etc.), cette dernière est malgré tout perçue comme un peu trop « européanisée », si bien que certains États ont soulevé la nécessité d’élaborer un encadrement juridique à vocation universelle unanimement reconnu par la communauté internationale. Cependant, l’ONU, à qui cette tâche devrait logiquement revenir puisque capable de produire et garantir le droit international, ne semble pas manifester d’intérêt quant à cette question. Son comportement tend d'ailleurs à confirmer l’idéologie de certains auteurs selon laquelle la région s’imposera demain comme le moteur principal du progrès du droit international.

La surveillance vidéo dans les zones isolées est difficile en raison des contraintes de connectivité, telles que l'absence d'infrastructure de communication terrestre et une bande passante très faible. Ce projet propose une solution en utilisant les communications par satellite pour transmettre des données de surveillance sous forme de représentations abstraites issues d'un système de compression de vidéo sémantique. Ce système, basé sur des modèles d'apprentissage profond, génère plusieurs types de représentations (coordonnées des objets, classes, ID de suivi, programmes de correction (patches) d'objets) optimisées pour les systèmes embarqués. Ces représentations, conçues pour réduire la quantité de données tout en conservant les informations essentielles, sont adaptées à des environnements à ressources limitées et transmises efficacement via les satellites.

Nous déployons ce système sur des systèmes embarqués en réduisant leur complexité grâce à des techniques de compression et de conversion de modèles. Nous optimisons les paramètres de compression pour réduire le temps de latence de transmission de l’information tout en développant un schéma de communication adapté aux contraintes des satellites en orbite basse, avec un ordonnancement efficace pour la transmission, soit à partir d'une caméra unique priorisant les représentations, soit de plusieurs caméras coopérant pour déterminer quelles données transmettre selon la bande passante et l'importance des informations.

Face à l'émergence des données massives dans nos systèmes d'analyse (Big data, Open data), les thick data se proposent d'ajouter des éléments de contexte, facilitant ainsi l'interprétation de l'information. À la croisée entre l'analyse des données massives (données qualitatives) et la représentation des données contextuelles (données quantitatives), ma proposition de communication tend à présenter des exemples de projets de système d'information ayant adopté l'approche mixte. J'exposerai également un cas d'étude et une enquête réalisée auprès d'organismes privés qui permettra de saisir le besoin sociétal vis-à-vis du sujet. Ce travail transdisciplinaire s'inscrit dans les champs d'étude suivants : sciences cognitives, science des données, design, économie, sociologie, psychologie, information et communication.

Références : D. Norman, M. Di Penta, M.-A. Storey, A. Moles

Avec la croissance phénoménale des informations multilingues via les documents informatisés et surtout en ligne, le besoin d’un outil de traduction automatique joue un rôle crucial dans la compréhension et dans le traitement pour but de transmettre la signification d’un énoncé ou d’un texte à partir d’une langue vers une autre langue. En raison de la polysémie des mots et de la métaphore des expressions, les systèmes de traduction automatique ne proposent pas toujours les bonnes traductions correctes pour des contextes donnés. Il se peut qu’ils traduisent un nom commun écrit avec des majuscules comme s’il s’agit d’un nom propre et inversement, qu'ils traduisent un nom propre ayant une signification dans un dictionnaire bilingue comme s’il s’agit d’un nom commun. La traduction automatique des entités nommées reste une tâche très importante dans le traitement automatique des langues naturelles. En revanche, la création de ressources linguistiques annotées est très coûteuse en temps et en main d’œuvre. Et la présente communication concerne la création automatique de corpus annotés en entités nommées pour le vietnamien-français, une paire de langues peu dotée. L’application d’une méthode basée sur la projection cross-linguistique en utilisant des corpus parallèles. Les évaluations ont montré une bonne performance (un gain de BLEU de 2 points pour la traduction) lors de la traduction des paires d’entités nommées bilingues. 

L’année 2014 marquera le 15e anniversaire de la maîtrise en design multimédia (MDM) offerte à l’Université Laval. Depuis sa création en 1999, la maîtrise forme des designers spécialistes de l’interface et de l’interaction numérique. Même si plusieurs aspects de la formation permettent à l’étudiant de développer ses aptitudes à la recherche universitaire, il s’agit d’abord d’un programme professionnel, c’est-à-dire qu’il vise surtout à former des designers qui s’intègrent avec compétence sur le marché de l’emploi. S’il est tenu d’acquérir nombre de compétences relatives à son objet de travail principal – l’interface –, le futur designer devrait aussi, selon nous, être en mesure de développer des aptitudes connexes telles que tenir compte du public pour lequel il conçoit, agir comme orchestrateur au sein de son équipe de travail, ainsi que devenir un gestionnaire efficace et un utilisateur avisé de l'information, dans cette discipline en perpétuel mouvement. Notre participation active dans la formation pédagogique de plus de 150 designers en apprentissage nous a permis d’identifier différents enjeux pédagogiques relatifs aux compétences et aptitudes que ces futurs spécialistes du design interactif doivent acquérir. Cette communication pose un regard sur ces enjeux à la lumière des 15 années passées à développer un programme de design d'interface de 2e cycle universitaire.

Le modèle de mélange gaussien est un modèle probabiliste très utilisé dans de nombreux domaines, notamment la segmentation d'images, la reconnaissance de formes, l'apprentissage automatique, etc. Les mélanges de gaussiens (MdG), en tant que somme pondérée de plusieurs fonctions gaussiennes, sont utiles en raison du fait que le nombre de paramètres utilisés est très faible et en raison de leur flexibilité pour modéliser des distributions dont les formes paramétriques sont inconnues.

Malheureusement, plus le nombre de composants dans le mélange est élevé, plus la probabilité des données est élevée, mais également plus la charge de calcul et le sur-ajustement des données sont élevés. Ainsi, il y a eu un intérêt grandissant pour les algorithmes de réduction de MdG qui se basent sur la fusion de gaussiennes tout en préservant la structure du mélange initial. Pour fusionner deux MdG, on mesure la différence entre les deux à l'aide de divers types de divergences disponibles ou de mesures de distance. Cependant, toutes les divergences ne sont pas également utiles pour le MdG car la plupart des divergences connues, y compris la divergence de Kullback-Leibler, ne donnent pas une expression analytique en forme fermée pour un MdG. La plupart des travaux existants se basent sur une approximation de la divergence Kullback-Leibler. Dans ce travail, nous présentons un algorithme de réduction de MdG basé sur la divergence de Cauchy-Schwarz pour la segmentation d’images de mélanome.

Nous présentons un nouveau paradigme lié à l'acquisition, la représentation, l'organisation et l'utilisation des informations partagées entre les partenaires d’un centre de prévention en santé.  Il s’agit de construire un cadre efficace pour optimiser ce partage en utilisant les ontologies. L’approche proposée décrit les aspects statiques de l'information, c'est à dire les objets informationnels, leurs attributs et leurs relations. Les aspects dynamiques quant à eux, englobent le choix des médias de diffusion et de méthodes de sauvegardes qui assurent la circulation de l'information optimale entre les structures organisationnelles. La démarche expérimentale adoptée consiste en deux étapes. La première étape construit un corpus textuel en utilisant les documents, l’observation et les entrevues avec les gestionnaires du centre de prévention. Les textes recueillis seront segmentés en  unités sématiquement homogènes.  La seconde étape construit  l’ontologie sous un format générique utilisant un langage de balisage. Des règles permettant de paramétrer l’édition de rapports sont ensuite établies. L’application développée est évaluée dans un contexte d’utilisation réelle. Le nouveau format de représentation des documents est validé de façon à démontrer la pérennité et la généricité qui permettent, comme le montrent les résultats obtenus, l’exploitation efficace de ces documents et leur réutilisation dans des chaînes de traitement numérique, indépendamment des médias et supports.

Les systèmes de détection d’intrusion (IDS), dans les réseaux véhiculaires sans fil (VANETs), sont chargés d’analyser les trafics de paquets entrants et sortants afin d’identifier des signatures malicieuses. Cependant, sans prise de décision, ils ne sont d’aucune utilité.

Le but de notre travail est de concevoir un protocole de routage d’informations de sécurité pour les VANETs. Notre étude se base sur deux approches d’IDS. Dans la première, les IDS sont installés sur les véhicules, alors que dans la seconde, ils sont installés sur les infrastructures routières (RSU). Dans les deux approches, les véhicules sont regroupés en fonction de leurs vitesses. Si un véhicule souhaite communiquer, il doit faire partie d’un cluster et doit connaître la tête du cluster. Dans le cas contraire, l’algorithme de clusterisation s’initialise et l’élection de la tête du cluster s’amorce. Ce dernier a la charge de transmettre les paquets à l’interne du cluster, vers les clusters voisins et vers le RSU. Quand un IDS détecte une attaque, l’information et le type d’attaque utilisé seront diffusés aux clusters voisins. Quand l'un de ces derniers reçoit l’information, il met en place une politique de sécurité (exemple: ajustement des valeurs de confiance des nouveaux véhicules dans le cluster). Le protocole s’amorce si l’attaque détectée est corroborée. La corroboration s'appuie sur un modèle probabiliste de calcul de ratio entre les véhicules ayant répondu à la signature de l'attaque.



Plus de 500 millions de messages sont publiés quotidiennement sur Twitter. Les entreprises et les consommateurs interagissent et sont connectés entre eux comme l’illustrent autant le marketing viral que les comportements moutonniers. Notre hypothèse est que les conversations sur les réseaux sociaux peuvent ajouter de l’information à l’information financière déjà disponible.

La recherche s’appuie sur des bases de données répertoriant l’évolution de la popularité sur Twitter de l’ensemble des compagnies du S&P500. De plus, tous les messages publiés avant l’ouverture des marchés ont été conservés afin d’en extraire les informations dans une seconde base de données. La méthodologie employée s’appuit sur des modèles économétriques (probit).

En termes de résultats, l’utilisation de données massives non structurées apporte un complément d’information pour obtenir une meilleure mesure du risque des actifs financiers. De plus, l’extraction, le filtrage et l’analyse des messages publiés sur Twitter avant l’ouverture des marchés offre un levier décisionnel supplémentaire aux investisseurs.

L’originalité de la recherche réside dans l’étendue des bases de données, étant la seule recherche à notre connaissance couvrant l’ensemble des compagnies du S&P500 et leur présence sur Twitter. De plus, l’application des modèles économétriques permet de traiter de manière robuste ces données massives générées en temps réel.

Le canal Web représente aujourd’hui un attrait incontournable pour tout annonceur sur la planète. La multiplication des plateformes étend définitivement le temps et l’espace de rencontre entre les entreprises et leurs clients potentiels. D’où l’intérêt, de mieux comprendre l’attention des internautes face à une publicité en ligne.

Plusieurs recherches, abordant l’efficacité des publicités en ligne, ont mis en avant le format, le contenu, le positionnement et plus récemment l’accomplissement d’une tâche sur Internet en tant que caractéristiques incontournables d’une publicité efficace. Cependant, rares sont celles à ce jour, qui ont mesuré l’interaction de toutes ces caractéristiques et leur impact sur l’attention.

L’objectif de notre étude est donc de mieux comprendre, à l’aide mesures oculométriques objectives, l’impact du format, du contenu et du positionnement d’une publicité en ligne et de leur interaction sur l’attention d’un internaute, dépendamment de la nature hédonique ou utilitaire de la tâche qu’il accomplit sur un site Web.

Pour ce faire, 45 participants ont été invités en laboratoire à naviguer sur des sites Web et d’y exécuter des tâches bien précises. Les résultats ne sont pas encore analysés, mais ils nous permettront de dresser un portrait précis de l’attention des internautes face aux différentes caractéristiques d’une publicité en ligne et d’apporter une contribution notable au niveau scientifique et au niveau du secteur de la publicité.

Les bibliothèques logicielles jouent un rôle critique dans la fonctionnalité, l'efficacité et la maintenabilité des systèmes logiciels. Avec l'adoption croissante des grands modèles de langage (GMLs) par les développeurs pour simplifier leurs processus de code, il devient essentiel d'évaluer l'efficacité de ces modèles dans la recommandation de bibliothèques appropriées. Dans une première étude, nous avons évalué les performances de ChatGPT en tant que « bibliothécaire logiciel » en générant du code Python pour 10 000 questions issues de Stack Overflow. Nos résultats montrent que ChatGPT propose des bibliothèques comportant des licences copyleft restrictives, sans que cela ne soit explicitement communiqué, dans 14,2 % des cas. De plus, 6,5 % des bibliothèques ne fonctionnaient pas correctement dès l'installation, causant potentiellement des confusions pour les développeurs. Dans un second travail, nous avons développé le Software Librarian, un outil destiné à résoudre certaines des lacunes identifiées dans l'étude précédente. Cet outil fournit des informations en temps réel sur les bibliothèques Python recommandées par GitHub Copilot, incluant les détails sur les licences, l'état de dépréciation et la santé des bibliothèques. Le Software Librarian assure donc que les bibliothèques recommandées sont non seulement valides, mais adaptées à une intégration dans les projets, en tenant compte des aspects juridiques et de la maintenabilité à long terme. 

Les modèles de graphème en phonème sont des composants clés dans les systèmes de reconnaissance automatique de la parole et de synthèse vocale. Avec des paires de langues peu dotées (ou peu de ressources linguistiques, d'outils informatiques) qui ne possèdent pas de dictionnaires de prononciation bien développés, les modèles de graphème en phonème sont particulièrement utiles. En principe, ces modèles sont basés sur des alignements entre les séquences sources de graphèmes et les séquences cibles de phonèmes. Dans le cadre de notre travail de recherche, nous présentons une nouvelle méthode appliquant la représentation d'alignement au niveau de caractères pour les séquences d'entrée ainsi que les plongements (embeddings) pré-entraînés de source et de cible pour surmonter le problème de la tâche de translittération pour une paire de langues peu dotée. Les expérimentations ont été réalisées sur la paire de langues peu dotée franco-vietnamienne. Avec seulement un petit dictionnaire de prononciation bilingue disponible pour l'apprentissage des modèles de translittération, nous avons obtenu des résultats prometteurs avec un grand gain de score BLEU ainsi qu'une réduction du taux d'erreur de traduction (TER) et du taux d'erreurs de phonèmes (PER), comparés à d'autres systèmes utilisant l'approche statistique.

Fouiller manuellement la littérature biomédicale est une tâche incontournable pour analyser les études publiées sur un sujet donné. Les experts réalisant cette tâche doivent identifier, au sein de corpora très volumineux, les rares documents pertinents traitant d'une question de recherche précise. Pour aider les chercheurs dans cette tâche exigeante et chronophage, nous proposons une approche automatique basée sur des méthodes d'apprentissage supervisé. Le très faible nombre de documents pertinents présents dans les corpora de référence, ainsi que la spécificité de ces documents, constituent les principales difficultés associées à ce triage automatique. Notre système identifie automatiquement les documents pertinents parmi une liste extraite de PubMed, la base de données de référence pour la littérature biomédicale. En utilisant des méthodes d'échantillonnage de données et de sélection de caractéristiques, nous avons évalué plus de 100 modèles de classification automatique. Les meilleurs performances ont été obtenues par un classifieur à base d'arbres de décision entraîné sur un corpus équilibré. Nos résultats indiquent que le système identifie la plupart des documents pertinents. Très utile aux chercheurs pour trier rapidement un grand nombre de documents, notre approche est également très flexible et peut être aisément adaptée à d'autres thèmes d'étude. Pour faciliter son utilisation, notre système est un logiciel libre disponible sous licence MIT.


Les universités canadiennes forment plus de 1,5 million d’étudiants dont environ 8% proviennent des seize universités du Canada atlantique. Selon l’Association des Universités et Collèges du Canada (AUCC), les retombées économiques de l’activité de ce secteur sont considérables et se chiffrent à  30 milliards de dollars par année pour le Canada. Or, l’Association des Universités de l’Atlantique (AAU) a révélé une diminution des inscriptions étudiantes dans la plupart des universités de l’atlantique Canadien, et ce durant les deux dernières années. Ceci pourrait menacer le fonctionnement de certaines d’entre elles.Ce constat nous a amené à rechercher les causes d’une telle diminution en prenant comme exemple l’Université de Moncton. Même si les causes de la diminution sont multiples, nous nous sommes intéressés uniquement à celles reliées à l’utilisation des technologies de l’information dans les compagnes de recrutement étudiant. Ainsi, nous avons d’abord analysé l’existant en observant les moyens disponibles utilisés par l’Université de Moncton pour l’approche et le suivi des élèves dans les écoles secondaires de la province du Nouveau-Brunswick. Ce qui a permis de noter des insuffisances et des corrections susceptibles d’être apportées. Ensuite, nous avons mis en place un système intégré pour la gestion et le suivi des futures étudiantes et étudiants de l’Université. Le système est un ensemble d’outils dotés d’une banque de données et d’une capacité d’aide à la décision.

20 % des Québécois sont proches aidants pour une personne en perte d’autonomie et ont besoin d’outils pour faciliter leur relation d’aide. MedOClock est une application québécoise de santé mobile destinée aux aidants pour le suivi, la communication et l’organisation d’une personne en perte d’autonomie. Malgré son fort potentiel, ce type d’application soulève plusieurs enjeux quant à son adoption par les aidants. Dans cette étude, nous avons évalué l’utilisabilité de l’application MedOClock auprès de 9 proches aidants. Pour ce faire, nous avons réalisé des entretiens semi-structurés d’une heure en ligne afin de comprendre la réalité des aidants, puis évaluer la réalisation de neuf tâches dans l’application (ex. : envoyer un message et répondre à une urgence). Nos résultats montrent que les personnes en perte d’autonomie ne seraient pas en mesure de gérer une application mobile. Plutôt, offrir une communication constante entre les membres du réseau de soutien et les aidants est plus adaptée à leurs besoins réels. Le taux de succès moyen des tâches a été de 56% s’expliquant par des problèmes de guidage et de représentation graphique dans l’application. De là, nous avons conçu un persona type des proches aidants rencontrés et développé de nouveaux prototypes pour améliorer l’utilisabilité de l’application. Ceux-ci pourront être implémentés dans une prochaine version. Finalement, ce projet souligne les avantages de la collaboration entre une entreprise et une équipe de recherche.

Un des défits actuels dans les systèmes de transmission numérique sans fil est la conception de nouvelles architectures entièrement numériques, plus génériques et « universelles », capables de prendre en charge des fonctionnalités précédemment gérées par des circuits différents. Celles-ci devront, en outre, être suffisamment flexibles pour supporter des normes de transmissions multiples et pour s’adapter facilement aux évolutions futures.

Dans cet article nous avons proposé des architectures tout numériques génériques capables de faire la démodulation numérique de plusieurs types de modulation de phase ainsi que la démodulation de fréquence, et sont également capables de générer le code Gold qui est utilisé dans les systèmes WCDMA, par le même circuit. Nos architectures proposées montrent la supériorité au niveau de la surface occupée et le nombre des registres LFSR utilisé, ils réduisent la surface de presque de 50%, par rapport aux architectures proposés précédemment. 

 Mot clés

Architectures numériques haut débit, modulation et démodulation totalement numériques, applications télécom., architectures génériques, VHDL.