Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Le design de service (DS) est une expertise en forte montée depuis les dix dernières années (MAGER et SUNG 2011; MERONI et SANGIORGI 2011), et la demande d'outils de correction et de conception ne cesse de croître. Dans le cadre des activités de notre groupe de recherche (Faber Sapiens, École de design, U. Laval), nous avons développé une approche du DS essentiellement basée sur la prise en compte de l'écosystème de service, c'est-à-dire les lieux accessibles au consommateur ou au bénéficiaire, qu'il s'agisse de lieux physiques ou numériques. Afin d'appréhender ces espaces d'interaction et de faciliter le travail d'évaluation des designers, notre équipe a développé une typologie des irritants du service à l'usage des praticiens. Cette typologie a été constituée par une triple collecte de données: 1) extraction dans la documentation spécialisée, 2) rapports autoethnographiques et 3) sondage à grande échelle. La typologie proposée couvre une gamme variée de services: transports, restauration, soins de santé, services municipaux de proximité, commerce au détail, services gouvernementaux divers (poste, énergie, etc.), assurances, etc. Au cours de notre présentation, en plus de faire l'exposé des grandes catégories de cette typologie (avec cas réels à l'appui), nous proposerons aussi un jeu de principes de DS déduits de la typologie des irritants. Nous tenterons de défendre l'idée que ces principes de DS peuvent jouer le même rôle que les premiers jeux de règles d'utilisabilité.

Les critères ergonomiques de présentation de l’information pour le web recommandent une mise en page fluide, c’est-à-dire que la largeur de la page s’adapte à la fenêtre du navigateur, plutôt qu’une mise en page de taille fixe. Toutefois, l’expérience à l’origine de cette recommandation a été réalisée avec un écran de 17’’ (Bernard et Larsen, 2001). En utilisant un protocole semblable à celui de Bernard et Larsen (2001) et un écran de 22’’, nous montrons qu’une mise en page de largeur fixe est perçue plus favorablement qu’une mise en page fluide. Vingt participants ont complété une tâche de recherche d’information sur le site Wikipédia et sur un blogue de nouvelles. Dans la première condition, la mise en page du site était fluide (voir figure 1-A) et dans la seconde la mise en page était fixe (voir figure 1-B). Après chaque condition, les participants ont rempli un questionnaire sur leur perception de la mise en page. L’ordre de présentation des conditions était balancé entre les participants. Les résultats pour le blogue montrent que les participants ont significativement préféré la mise en page fixe à la mise en page fluide (p<0.05) et qu’ils ont trouvé la mise en page fixe plus appropriée pour la lecture que celle fluide (p<0.05). Aucune différence significative n’a été observée pour Wikipedia. Ces nouveaux résultats suggèrent que la recommandation ergonomique d’une mise en page fluide ne s’applique pas nécessairement pour un écran de grande taille.

Dans un contexte d'affaires où la transformation numérique des processus et des activités des entreprises s'accélèrent, le rôle et l’importance des technologies de l'information (TI) pour le fonctionnement et la performance de ces entreprises constituent une réalité indéniable. Néanmoins, malgré les avantages que les TI procurent aux entreprises, ces dernières et les gestionnaires s’en servent peu. Par conséquent, plusieurs entreprises peinent à prendre les bonnes décisions, à obtenir et à pérenniser l’avantage concurrentiel ainsi qu’à atteindre le niveau de la performance durable d’entreprises.

La présente est une étude de cas (Yin, 1994) qui concerne une entreprise de fonds de promotion pour l’industrie en Afrique centrale précisément en République Démocratique du Congo. Il sera question de vouloir comprendre en détail l’apport des technologies de l’information dans les directions métiers et dans l’ensemble de l’organisation. Ici, il sera comparé la situation avant par rapport à la situation après l’implantation des technologies de l’information.

Un questionnaire adressé à la direction générale, aux directeurs et aux professionnels des directions métiers afin de comprendre l’apport des TI à l’avantage concurrentiel et le niveau de la performance durable.

Les résultats de cette étude peuvent être utiles pour créer une première image des pratiques perçues, attendues et appliquées par cette entreprise à leur utilisation des technologies numériques (Bharadwaj, 2000).

Nous assistons à un accroissement prodigieux des publications scientifiques numérisées à l’échelle internationale. Ce que promet la société du numérique est une toute autre façon de nous représenter et de concevoir l’espace et le temps : c’est notamment le cas des travaux en scientométrie qui analysent des corpus volumineux de publications scientifiques. Nos travaux s’inscrivent dans cette démarche en proposant une méthode semi-automatique générique pour l’analyse d’un corpus de publications, l’intérêt étant d’appuyer les scientifiques dans leur travail de veille en mettant en avant l’évolution des thématiques au fil du temps, et également de proposer une approche de classification thématique d’articles destinée à assister les organisateurs des éditions à venir de la conférence traitée. De nombreux travaux en scientométrie présentent des méthodes pour analyser des communautés à partir de publications scientifiques, mais il n’existe pas de solutions satisfaisantes permettant de traiter de façon efficace l’évolution des thématiques. Notre méthode se décompose en 3 étapes : (1) marquage thématique via une approche de fouille de textes, (2) indexation du contenu des publications et métadonnées associées, (3) analyse semi-automatique du corpus. La figure annexe présente un extrait des résultats des expérimentations, menées sur un corpus de 1103 publications présentées à EGC entre 2004-2015, qui mettent en avant l’évolution du classement des articles par thématique de recherche.

L’idéation est un processus incontournable et essentiel de la démarche de conception en design. Bien qu’elle puisse être sollicitée à tous moments (CROSS 2011), l’idéation revêt une importance particulière en tout début de démarche, lorsque le designer concentre ses efforts à l’exploration de l’univers des possibles et à l’identification de l’idée brute qui deviendra le générateur primaire (DRAKE 1978) de la solution de design en devenir. Mais l’acte idéatif repose sur un processus cognitif exigeant et fragile. Les obstacles susceptibles de lui nuire, de l’interrompre ou de mener à son échec sont nombreux.

Enseignants universitaires, nous avons eu l’occasion d’étudier la démarche de conception de plus d’une centaine de designers en formation. Nos observations nous ont permis d’identifier des écueils récurrents à l’idéation. Les problèmes de focalisation en font partie. Ce type de problèmes concerne particulièrement l’élaboration de l’idée, l’identification de son cadre de référence et sa portée. Dans cette catégorie, nous ciblons trois problèmes particulièrement nuisibles à l’idéation, soient ceux relatifs à : 1) la définition du périmètre idéatif, 2) la posture philosophique du designer et 3) la persistance à la solution. Dans le contexte de nos observations, le manque d’expérience des designers ainsi que la faiblesse des stratégies utilisées pour identifier et surmonter les obstacles à l’idéation sont également des freins au processus global d’idéation.

Plusieurs entreprises implantent des systèmes ERP pour la gestion de l'organisation et des informations. Les systèmes ERP étaient particulièrement implantés par les grandes entreprises à raison de leurs coûts d'acquisition élevés. Cependant, depuis l’émergence des ERP open source, les PME adoptent massivement ces applications qui sont développées par les communautés open source. D'après la littérature, l'implantation d'un système ERP, l'un des systèmes d'information les plus complexes, est un processus intensif de transfert de connaissances entre le personnel de l'entreprise et les sources externes de connaissances. Dans le contexte d’un projet ERP open source, les connaissances pouvant être transférées peuvent être plus grandes parce qu’elles sont produites par les communautés open source et que leur accès est libre. Afin d'exploiter efficacement les ressources de connaissances, les entreprises doivent être en mesure d'absorber de nouvelles connaissances et de les appliquer. La littérature soutient que l’avantage concurrentiel d'une entreprise repose sur les ressources de connaissances de ses employés, autrement dit, de son capital humain organisationnel. Les recherches sur les systèmes ERP open source sont rares, car ils sont un phénomène contemporain. L’objectif de ce papier est de proposer un modèle théorique conceptualisant l'effet de la capacité d'absorption des utilisateurs sur le développement du capital  humain organisationnel dans le contexte d'ERP open source.

Le déneigement urbain est une tâche importante pour assurer la sécurité et la mobilité continue pendant l’hiver. La complexité du réseau routier et les variations des activités et des conditions climatiques imposent une planification plus rigoureuse des opérations et des ressources. Nous étudions l’utilisation des images des caméras de surveillance routière pour assister la planification des opérations de déneigement grâce à des prédictions sur l’état de la chaussée et de la circulation.

Dans un premier temps, nous recueillons un large ensemble de données d’images routières de la ville de Montréal pendant l’hiver. Nous avons développé un outil d’annotation basé sur l’apprentissage profond pour attribuer à chaque image une étiquette décrivant l'état de la chaussée en fonction du niveau de neige. Les images des caméras sont classées à l'aide d'un modèle entraîné sur le jeu de données collecté, et l'état de circulation est estimé en comptant les véhicules présents. Pour les rues sans caméras, un modèle d'apprentissage de graphe estime les informations manquantes. Nous combinons ces données avec des informations du réseau routier pour établir des priorités de déneigement. La planification du déneigement est effectuée de manière à ce qu'un plus grand nombre de routes prioritaires soient déneigées en premier. Cette approche assistée par la vision par ordinateur permet également une meilleure qualité de service pour la mobilité des véhicules.

Le canal Web représente aujourd’hui un attrait incontournable pour tout annonceur sur la planète. La multiplication des plateformes étend définitivement le temps et l’espace de rencontre entre les entreprises et leurs clients potentiels. D’où l’intérêt, de mieux comprendre l’attention des internautes face à une publicité en ligne.

Plusieurs recherches, abordant l’efficacité des publicités en ligne, ont mis en avant le format, le contenu, le positionnement et plus récemment l’accomplissement d’une tâche sur Internet en tant que caractéristiques incontournables d’une publicité efficace. Cependant, rares sont celles à ce jour, qui ont mesuré l’interaction de toutes ces caractéristiques et leur impact sur l’attention.

L’objectif de notre étude est donc de mieux comprendre, à l’aide mesures oculométriques objectives, l’impact du format, du contenu et du positionnement d’une publicité en ligne et de leur interaction sur l’attention d’un internaute, dépendamment de la nature hédonique ou utilitaire de la tâche qu’il accomplit sur un site Web.

Pour ce faire, 45 participants ont été invités en laboratoire à naviguer sur des sites Web et d’y exécuter des tâches bien précises. Les résultats ne sont pas encore analysés, mais ils nous permettront de dresser un portrait précis de l’attention des internautes face aux différentes caractéristiques d’une publicité en ligne et d’apporter une contribution notable au niveau scientifique et au niveau du secteur de la publicité.

La carte d’expérience est un outil de schématisation graphique permettant de décrire l’expérience d’un usager avec un produit, un système ou un service au fil du temps (Kalbach 2016). Populaire en design d’interaction, son usage est particulièrement répandu pendant les activités de conceptualisation. Dans cette communication, nous revisitons le concept de carte d’expérience en étendant son utilisation à la gestion de projet de design en contexte pédagogique. Nous avons expérimenté cet outil dans un cours de maîtrise en design d’interaction. Dans un premier temps, nous présentons notre démarche d’intégration de la carte d’expérience comme méthode de suivi, d’intervention et de réflexivité pédagogique. Ensuite, nous portons une réflexion sur ces usages selon deux perspectives : celle des étudiants et celle des enseignants. Dans l'ensemble, nous évaluons positivement les effets de la mise en oeuvre de la carte d’expérience. Contrairement aux outils de gestion de projet courants, la carte d’expérience supporte la représentation simultanée de nombreuses dimensions de l’expérience de l’étudiant nécessaires à la compréhension et à la planification d’interventions professionnelles (émotions, interactions, défis, etc.). La représentation de la dimension émotionnelle (Lafortune 2005, Fenouillet 2016) nous a semblé particulièrement bénéfique, car elle a permis d’identifier certains moments critiques de l’intervention et de soutenir la mise en oeuvre de stratégies pour y faire face.

La réalité augmentée a atteint un degré de maturité suffisant pour susciter l’intérêt du public et de l’industrie. En permettant l’affichage d’un objet virtuel dans une scène réelle, elle ouvre la porte à de nouvelles façons de présenter des objets en 3D. Toutefois, l’interaction avec l’objet 3D est généralement limitée à un simple affichage et l’utilisation de boutons virtuels pour générer des actions. Nous développons activement de nouvelles stratégies permettant d’interagir naturellement avec l’objet 3D virtuel en utilisant la gestuelle des mains. Nous présentons d’abord nos travaux en estimation de la pose qui permettent d’afficher un objet 3d de façon interactive en créant l’illusion qu’il appartient à la scène. Ensuite, nous verrons comment le module de suivie des mains du capteur Kinect permet de créer un nouveau lien plus direct entre le monde réel et virtuel. Une personne peut alors virtuellement toucher, déplacer et tourner l’objet 3D. Cependant, l’interaction avec les mains apporte de nouveaux défis : lorsque la main est placée entre la caméra et l’objet virtuel, elle doit cacher cet objet; on dit alors qu’il y a occlusion. Dans notre système, l’information provenant de la carte de profondeur du capteur Kinect est combinée avec celle de suivi de silhouette et permet de déterminer quelles parties de l’objet virtuel sont visibles et gérer les cas d’occlusion. Nous présenterons des résultats et des démonstrations supportant les contributions de ce projet.

En raison de l’évolution technologique des caméras, une énorme quantité de données vidéos peuvent être enregistrées. L'analyse de cette énorme quantité des vidéos dépasse la capacité humaine, il est donc nécessaire de disposer de systèmes intelligents permettant d’analyser leur contenu.

La segmentation de vidéos est l'un des sujets de recherche d'actualité en vision par ordinateur.  Dans le cadre de notre projet, l'objectif est d’analyser et segmenter des vidéos recueillies par des caméras portées par des animaux (des caribous et des ours) afin d'extraire des informations liées à leur environnement. La segmentation est cruciale puisque les vidéos sont susceptibles d’être de mauvaise qualité à cause du mouvement des animaux.  Pour cela, une tache de stabilisation est nécessaire afin d’aboutir à une segmentation satisfaisante. 

Dans cette communication, nous présentons l’étape de prétraitement ainsi que la méthode de segmentation proposée. La phase de prétraitement consiste: 1) à filtrer les données brutes; 2) à stabiliser les vidéos et 3) à étudier la pertinence pour la segmentation. La méthode de segmentation est basée sur deux phases. La phase offline qui permet d’entrainer un réseau pour la détection d’objets, puis de segmenter les vidéos en utilisant les résultats de détection obtenus. La phase online consiste à améliorer la segmentation et segmenter les vidéos de l’ensemble de test. les expérimentations qui ont été faites ainsi que les résultats obtenus seront présentés.

Avec la croissance phénoménale des informations multilingues via les documents informatisés et surtout en ligne, le besoin d’un outil de traduction automatique joue un rôle crucial dans la compréhension et dans le traitement pour but de transmettre la signification d’un énoncé ou d’un texte à partir d’une langue vers une autre langue. En raison de la polysémie des mots et de la métaphore des expressions, les systèmes de traduction automatique ne proposent pas toujours les bonnes traductions correctes pour des contextes donnés. Il se peut qu’ils traduisent un nom commun écrit avec des majuscules comme s’il s’agit d’un nom propre et inversement, qu'ils traduisent un nom propre ayant une signification dans un dictionnaire bilingue comme s’il s’agit d’un nom commun. La traduction automatique des entités nommées reste une tâche très importante dans le traitement automatique des langues naturelles. En revanche, la création de ressources linguistiques annotées est très coûteuse en temps et en main d’œuvre. Et la présente communication concerne la création automatique de corpus annotés en entités nommées pour le vietnamien-français, une paire de langues peu dotée. L’application d’une méthode basée sur la projection cross-linguistique en utilisant des corpus parallèles. Les évaluations ont montré une bonne performance (un gain de BLEU de 2 points pour la traduction) lors de la traduction des paires d’entités nommées bilingues. 

L’année 2014 marquera le 15e anniversaire de la maîtrise en design multimédia (MDM) offerte à l’Université Laval. Depuis sa création en 1999, la maîtrise forme des designers spécialistes de l’interface et de l’interaction numérique. Même si plusieurs aspects de la formation permettent à l’étudiant de développer ses aptitudes à la recherche universitaire, il s’agit d’abord d’un programme professionnel, c’est-à-dire qu’il vise surtout à former des designers qui s’intègrent avec compétence sur le marché de l’emploi. S’il est tenu d’acquérir nombre de compétences relatives à son objet de travail principal – l’interface –, le futur designer devrait aussi, selon nous, être en mesure de développer des aptitudes connexes telles que tenir compte du public pour lequel il conçoit, agir comme orchestrateur au sein de son équipe de travail, ainsi que devenir un gestionnaire efficace et un utilisateur avisé de l'information, dans cette discipline en perpétuel mouvement. Notre participation active dans la formation pédagogique de plus de 150 designers en apprentissage nous a permis d’identifier différents enjeux pédagogiques relatifs aux compétences et aptitudes que ces futurs spécialistes du design interactif doivent acquérir. Cette communication pose un regard sur ces enjeux à la lumière des 15 années passées à développer un programme de design d'interface de 2e cycle universitaire.

Cette affiche présente la méthode et les techniques propres au web sémantique, utilisées dans le cadre du projet Bio2RDF pour créer une base de données intégrée sur les bases de données publiques du domaine de la bioinformatique.

Comment transformer des données existantes en RDF ? Comment les publier à l'aide d'un point d'accès SPARQL ?  Comment consommer des données RDF disponible sur le web ? Trois questions fondamentales auxquelles on offre comme réponse les fruits de notre expérience dans le cadre du projet Bio2RDF.

Référence: http://bio2rdf.org

L'affiche sera une version française et améliorée du poster

http://fr.slideshare.net/fbelleau/producing-publishing-and-consuming-li…

Ce projet de recherche propose une approche novatrice pour l'estimation de la direction d'arrivée (DoA) en utilisant une seule antenne se déplaçant le long d'une trajectoire curviligne pour créer un réseau d'antennes virtuelles (VAA). Contrairement aux méthodes traditionnelles comme l'algorithme MUSIC, qui repose généralement sur des réseaux d'antennes fixes, notre technique exploite le mouvement de l'antenne pour simuler l'effet d’un réseau multiélément. Cela permet une estimation précise de la DoA dans des scénarios où le déploiement de grands réseaux d'antennes est peu pratique. Les simulations valident la performance de cette méthode dans des mouvements uniformes et curvilignes, démontrant sa robustesse et son exactitude. Cette approche réduit considérablement les besoins en matériel tout en maintenant une grande précision, ce qui la rend adaptée à des environnements dynamiques et contraints en ressources.

Récemment, l’OMS déclarait que 31% des adultes étaient aux prises avec un manque d’activité physique et que plus de 1,9 milliard d’adultes étaient en surpoids. Ces statistiques alarmantes ont poussé certaines entreprises à développer de nouvelles technologies, telles que les bracelets intelligents, dans le but de répondre à ce problème. Aujourd’hui, quelques études ont couvert l’utilisation de ces produits d’un point de vue technique, mais aucune ne s’est penchée sur les comportements inhérents à leur consommation. Ainsi, notre étude vise à développer une classification des consommateurs de bracelets intelligents, dans un contexte d’entrainement physique, en se basant sur la théorie unifiée de l’acceptation et l’utilisation des technologies améliorée. Pour ce faire, une étude qualitative exploratoire a permis, en premier lieu, d’élaborer un cadre conceptuel basé sur  la performance espérée, l’influence sociale, la motivation hédonique, le prix, les habitudes, la qualité perçue des données recueillies par le bracelet, l’intention comportementale et l’utilisation réelle des bracelets intelligents. En second lieu, un sondage a été administré auprès de 200 utilisateurs ciblés pour permettre une analyse de classification combinée. Les résultats n’ont pas encore été analysés, mais ils permettront de classifier et dresser un portrait précis des consommateurs des bracelets intelligents. Une contribution notable tant au niveau scientifique qu’au niveau managérial.

L’interactivité robotique permet d’assister l’humain à des tâches dangereuses et d’éviter les postures inadéquates pouvant mener à des troubles musculo-squelettiques. En particulier, un modèle de l’interaction favorise une réduction des efforts physiques et permet un partage des tâches dans l’ordonnancement des activités de production et de fabrication. Cette interaction doit cependant s’activer lorsque cela est nécessaire, spécifiquement lorsque le robot détecte un comportement anormal de l’opérateur par une analyse de la performance des actions. La mesure de cette performance est réalisée à l’aide de vêtements de protection individuel intelligents.

L’une des applications envisagées dans ce domaine est l’augmentation de l’environnement réel par une aide virtuelle des opérateurs via un retour haptique (kinesthésique et vibrotactile) et visuel.

Cette technique permettra de visualiser des objets virtuels 3D dans un environnement réel (réalité augmentée) de manière à apporter une aide assistée immédiate à un opérateur de même qu’à déterminer la trajectoire des mains et de la tête.

Le retour haptique sera réalisé avec un guide virtuel tout en faisant l’étude de la stabilité du guide à l’aide d’un modèle dynamique « bras-robot-guide ». Ce projet de recherche permettra d’introduire les robots collaboratifs naturellement dans un environnement de production industrielle de l’industrie 4.0.

Depuis le début des années 2000, le monde sportif a pris conscience des conséquences importantes du traumatisme crânio-cérébral léger (TCCL). L’étude du TCCL a principalement ciblé les sports de contact comme le football et le hockey. Par contre, les sports considérés sans contact, comme le soccer, ne sont pas épargnés. Par exemple, au Canada, entre 2012 et 2014, le nombre de TCCL rapporté chez les joueuses de 10 à 19 ans au soccer a été supérieur à la somme des TCCL au hockey et au rugby. C’est pourquoi l’objectif de ce projet de recherche était d’évaluer le risque de TCCL au soccer. Huit joueurs et seize joueuses de soccer ont porté un bandeau instrumenté mesurant les accélérations de la tête lors de matchs de compétition. Ces accélérations ont été confrontées à un critère de blessure permettant d’identifier le risque de TCCL causé par chacune des accélérations. Le nombre total d’accélérations mesurées a été de 239 chez les joueurs et de 294 chez les joueuses. Les accélérations moyennes mesurées chez les joueurs ont été de 25,9g (maximum 82,9g) et de 2 815 rad/s2 (maximum 15 000 rad/s2), et ont été de 28,9g (maximum 67,3g) et de 3 072 rad/s2 (maximum 12 900 rad/s2) chez les joueuses. Un total de 44 (8,3 %) accélérations de la tête a dépassé le risque de 50 % de subir un TCCL. Parmi ces 44 accélérations, 36 ont été causées par des techniques de tête et 8 par des impacts involontaires. Alors, les techniques de tête devraient-elles être considérées sécuritaires?

Les autorités de réglementation aérienne exigent de minimiser l’encombrement visuel des écrans de la cabine de pilotage car il s’agit d’un facteur connu de dégradation de la performance du pilote. Les recherches antérieures identifient deux facteurs contribuant à l’encombrement visuel soit (1) la quantité et la densité d’information à l’écran et (2) la pertinence de l’information pour la tâche. Il semble toutefois difficile d’évaluer le degré d’encombrement visuel d’écrans complexes comme ceux de la cabine de pilotage et d’identifier les éléments d’affichage y contribuant le plus.

Dans ce travail, nous identifions à partir d’une revue de la littérature six méthodes d’évaluation de l’encombrement visuel d’un écran et nous montrons comment elles ont été utilisées en aviation. La comparaison des méthodes montre que celles impliquant des participants (méthodes subjectives) permettent d’évaluer l’encombrement lié à la pertinence de l’information et de distinguer les éléments d’affichage contribuant à l’encombrement (ex. couleur, densité, saillance,...). Les méthodes informatiques ne peuvent évaluer que l’encombrement lié à la quantité d’information. À l’issue de ce travail, nous recommandons une série de méthodes pertinentes pour l’évaluation de l’encombrement des écrans en aéronautique et suggérons des pistes de recherche pour le développement de nouvelles méthodes.

Les modélisateurs rencontrent différents types d'incertitude dans leurs conceptions et modèles de systèmes logiciels. L'un de ces types concerne l'incertitude sur la manière de construire un modèle. C'est ce qu'on appelle '' l'incertitude au moment de la conception '', et les recherches existantes ont étudié comment les modélisateurs peuvent travailler en sa présence. Cependant, le processus par lequel ils en viennent à articuler et à exprimer leurs incertitudes reste flou.

Dans cet article, nous prenons des mesures pour combler cette lacune en introduisant DRUIDE (Design and Requirements Uncertainty Integrated Development Environment), un langage et un flux de travail pour articuler l'incertitude au moment de la conception. Nous présentons et illustrons notre proposition sur un exemple de conception de logiciel. De plus, nous menons une étude de cas réelle d'analyse de domaine liée à l'incertitude causée par la pandémie de COVID-19, et évaluons DRUIDE avec elle. Notre évaluation montre que DRUIDE est suffisamment expressif pour articuler l'incertitude du moment de la conception.

Fouiller manuellement la littérature biomédicale est une tâche incontournable pour analyser les études publiées sur un sujet donné. Les experts réalisant cette tâche doivent identifier, au sein de corpora très volumineux, les rares documents pertinents traitant d'une question de recherche précise. Pour aider les chercheurs dans cette tâche exigeante et chronophage, nous proposons une approche automatique basée sur des méthodes d'apprentissage supervisé. Le très faible nombre de documents pertinents présents dans les corpora de référence, ainsi que la spécificité de ces documents, constituent les principales difficultés associées à ce triage automatique. Notre système identifie automatiquement les documents pertinents parmi une liste extraite de PubMed, la base de données de référence pour la littérature biomédicale. En utilisant des méthodes d'échantillonnage de données et de sélection de caractéristiques, nous avons évalué plus de 100 modèles de classification automatique. Les meilleurs performances ont été obtenues par un classifieur à base d'arbres de décision entraîné sur un corpus équilibré. Nos résultats indiquent que le système identifie la plupart des documents pertinents. Très utile aux chercheurs pour trier rapidement un grand nombre de documents, notre approche est également très flexible et peut être aisément adaptée à d'autres thèmes d'étude. Pour faciliter son utilisation, notre système est un logiciel libre disponible sous licence MIT.


Les universités canadiennes forment plus de 1,5 million d’étudiants dont environ 8% proviennent des seize universités du Canada atlantique. Selon l’Association des Universités et Collèges du Canada (AUCC), les retombées économiques de l’activité de ce secteur sont considérables et se chiffrent à  30 milliards de dollars par année pour le Canada. Or, l’Association des Universités de l’Atlantique (AAU) a révélé une diminution des inscriptions étudiantes dans la plupart des universités de l’atlantique Canadien, et ce durant les deux dernières années. Ceci pourrait menacer le fonctionnement de certaines d’entre elles.Ce constat nous a amené à rechercher les causes d’une telle diminution en prenant comme exemple l’Université de Moncton. Même si les causes de la diminution sont multiples, nous nous sommes intéressés uniquement à celles reliées à l’utilisation des technologies de l’information dans les compagnes de recrutement étudiant. Ainsi, nous avons d’abord analysé l’existant en observant les moyens disponibles utilisés par l’Université de Moncton pour l’approche et le suivi des élèves dans les écoles secondaires de la province du Nouveau-Brunswick. Ce qui a permis de noter des insuffisances et des corrections susceptibles d’être apportées. Ensuite, nous avons mis en place un système intégré pour la gestion et le suivi des futures étudiantes et étudiants de l’Université. Le système est un ensemble d’outils dotés d’une banque de données et d’une capacité d’aide à la décision.

Les nouvelles technologies sont une avenue prometteuse pour le maintien à domicile des personnes avec des troubles cognitifs. Au laboratoire DOMUS, plusieurs outils d’assistance ont été développés pour faciliter la prise de rendez-vous, le téléphone à des proches et l’assistance pas à pas d’activités. Ces outils sont adaptés suivant la clientèle. Les prototypes sont conçus selon une approche centrée utilisateur avec une conception itérative et des études d’utilisabilité fréquentes. Ajoutés aux résultats de ces études, les chercheurs cliniciens évaluent l’impact de l’utilisation de ces outils sur l’autonomie. Il devient donc indispensable de concevoir un environnement d’administration des données de recherche.

But: Concevoir un environnement pour la conception, l’utilisation et l’évaluation de l’utilisation des outils d’assistance.

Méthodologie : L’environnement de recherche sera bâti à partir des RCP. Pour chaque outil, il contiendra ses interfaces et les sujets l’ayant testé. Ceux-ci sont décrits par leurs préférences, la fréquence d’utilisation et les erreurs commises (physiques: appui à côté du bouton ou cognitives: aller-retour avant d’atteindre l’objectif).

Résultat : Une application a été implantée pour décrire les clients : les données personnelles anonymisées ou non et leurs traces d’utilisation.

Retombée: cet environnement intégrera d'autres outils d’assistance et permettra aux cliniciens d’analyser l'utilisation de toutes les technologies fournies.

La minimisation du temps de transfert des données, entre la mémoire et les blocs de calcul dans les algorithmes de traitement des images, reste un problème major pour assurer un temps réel, surtout avec des algorithmes qui utilisent de plus en plus des données parallèles. Le choix du système de communication dépend des composants constituant le système et surtout du processeur utilisé. Ce choix va influer considérablement sur les caractéristiques du système global. Dans ce papier, nous présentons les résultats de synthèse d’un système sur puce à base de processeur MicroBlaze de Xilinx avec un accélérateur matériel pour le traitement vidéo adapté à l’aide d’une interface spéciale. Ces résultats montrent que le système de communication utilise 2,15% des slices registres, 2,56% des LUTs et 4,68% des BRAMs en utilisant le circuit FPGA Vitrex5 LX110T de Xilinx.Nous avons montré l’importance du choix du système de communication dans un système sur puce ainsi que le taux d’utilisation de ce système sur un circuit FPGA. Les résultats de synthèse montrent que les différents taux sont importants surtout avec l’utilisation des adaptateurs de bus pour les accélérateurs matériels. Nous avons ainsi montré les résultats de synthèse du bus CoreConnect dans un système à base de processeur MicroBlaze de Xilinx. Nous avons aussi ajouté au système un accélérateur de traitement de vidéo à l’aide d’une interface PLB-IPIF à base de FIFOs.

La robotique constitue certainement le défi le plus extraordinaire que devra relever le monde scientifique dans les vingt prochaines années. La notion de « robot » comprend une multitude de catégories allant des humanoïdes aux drones en passant par ce qu’on surnomme également les bioniques. Mais surtout, la robotique comprend l’étude et l’utilisation de l’intelligence artificielle. Cela induit la construction de machines capables de s’adapter à leur environnement tout en montrant de réelles capacités d’auto-apprentissage. Autrefois considéré comme une chimère, l’hypothèse de robots policiers ou à l’inverse de robots-tueurs prend de plus en plus d’épaisseur. En effet, malgré la fiabilité de certains algorithmes ainsi que la vigilance des programmeurs, le contrôle de certains robots dotés d’intelligence artificielle pourrait devenir plus aléatoire. Eu égard à l’ensemble de ces considérations, plusieurs questions méritent donc d’être posées. Tout d’abord, ces robots peuvent-ils constituer de véritables instruments préventifs et dissuasifs permettant de lutter contre la criminalité ? Ensuite, comment devrait-on réagir sur le terrain de la responsabilité pénale, face à des robots qui seraient auteurs de crimes ?

L’ensemble de ces interrogations nous pousse à nous inscrire dans une forme d’analyse prospective où nous étudierons l’impact que pourrait avoir l’utilisation de robots dotés d’intelligence artificielle sur la prévention du crime ainsi que sur la responsabilité pénale.