Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Le déneigement urbain est une tâche importante pour assurer la sécurité et la mobilité continue pendant l’hiver. La complexité du réseau routier et les variations des activités et des conditions climatiques imposent une planification plus rigoureuse des opérations et des ressources. Nous étudions l’utilisation des images des caméras de surveillance routière pour assister la planification des opérations de déneigement grâce à des prédictions sur l’état de la chaussée et de la circulation.

Dans un premier temps, nous recueillons un large ensemble de données d’images routières de la ville de Montréal pendant l’hiver. Nous avons développé un outil d’annotation basé sur l’apprentissage profond pour attribuer à chaque image une étiquette décrivant l'état de la chaussée en fonction du niveau de neige. Les images des caméras sont classées à l'aide d'un modèle entraîné sur le jeu de données collecté, et l'état de circulation est estimé en comptant les véhicules présents. Pour les rues sans caméras, un modèle d'apprentissage de graphe estime les informations manquantes. Nous combinons ces données avec des informations du réseau routier pour établir des priorités de déneigement. La planification du déneigement est effectuée de manière à ce qu'un plus grand nombre de routes prioritaires soient déneigées en premier. Cette approche assistée par la vision par ordinateur permet également une meilleure qualité de service pour la mobilité des véhicules.

Le canal Web représente aujourd’hui un attrait incontournable pour tout annonceur sur la planète. La multiplication des plateformes étend définitivement le temps et l’espace de rencontre entre les entreprises et leurs clients potentiels. D’où l’intérêt, de mieux comprendre l’attention des internautes face à une publicité en ligne.

Plusieurs recherches, abordant l’efficacité des publicités en ligne, ont mis en avant le format, le contenu, le positionnement et plus récemment l’accomplissement d’une tâche sur Internet en tant que caractéristiques incontournables d’une publicité efficace. Cependant, rares sont celles à ce jour, qui ont mesuré l’interaction de toutes ces caractéristiques et leur impact sur l’attention.

L’objectif de notre étude est donc de mieux comprendre, à l’aide mesures oculométriques objectives, l’impact du format, du contenu et du positionnement d’une publicité en ligne et de leur interaction sur l’attention d’un internaute, dépendamment de la nature hédonique ou utilitaire de la tâche qu’il accomplit sur un site Web.

Pour ce faire, 45 participants ont été invités en laboratoire à naviguer sur des sites Web et d’y exécuter des tâches bien précises. Les résultats ne sont pas encore analysés, mais ils nous permettront de dresser un portrait précis de l’attention des internautes face aux différentes caractéristiques d’une publicité en ligne et d’apporter une contribution notable au niveau scientifique et au niveau du secteur de la publicité.

La carte d’expérience est un outil de schématisation graphique permettant de décrire l’expérience d’un usager avec un produit, un système ou un service au fil du temps (Kalbach 2016). Populaire en design d’interaction, son usage est particulièrement répandu pendant les activités de conceptualisation. Dans cette communication, nous revisitons le concept de carte d’expérience en étendant son utilisation à la gestion de projet de design en contexte pédagogique. Nous avons expérimenté cet outil dans un cours de maîtrise en design d’interaction. Dans un premier temps, nous présentons notre démarche d’intégration de la carte d’expérience comme méthode de suivi, d’intervention et de réflexivité pédagogique. Ensuite, nous portons une réflexion sur ces usages selon deux perspectives : celle des étudiants et celle des enseignants. Dans l'ensemble, nous évaluons positivement les effets de la mise en oeuvre de la carte d’expérience. Contrairement aux outils de gestion de projet courants, la carte d’expérience supporte la représentation simultanée de nombreuses dimensions de l’expérience de l’étudiant nécessaires à la compréhension et à la planification d’interventions professionnelles (émotions, interactions, défis, etc.). La représentation de la dimension émotionnelle (Lafortune 2005, Fenouillet 2016) nous a semblé particulièrement bénéfique, car elle a permis d’identifier certains moments critiques de l’intervention et de soutenir la mise en oeuvre de stratégies pour y faire face.

La réalité augmentée a atteint un degré de maturité suffisant pour susciter l’intérêt du public et de l’industrie. En permettant l’affichage d’un objet virtuel dans une scène réelle, elle ouvre la porte à de nouvelles façons de présenter des objets en 3D. Toutefois, l’interaction avec l’objet 3D est généralement limitée à un simple affichage et l’utilisation de boutons virtuels pour générer des actions. Nous développons activement de nouvelles stratégies permettant d’interagir naturellement avec l’objet 3D virtuel en utilisant la gestuelle des mains. Nous présentons d’abord nos travaux en estimation de la pose qui permettent d’afficher un objet 3d de façon interactive en créant l’illusion qu’il appartient à la scène. Ensuite, nous verrons comment le module de suivie des mains du capteur Kinect permet de créer un nouveau lien plus direct entre le monde réel et virtuel. Une personne peut alors virtuellement toucher, déplacer et tourner l’objet 3D. Cependant, l’interaction avec les mains apporte de nouveaux défis : lorsque la main est placée entre la caméra et l’objet virtuel, elle doit cacher cet objet; on dit alors qu’il y a occlusion. Dans notre système, l’information provenant de la carte de profondeur du capteur Kinect est combinée avec celle de suivi de silhouette et permet de déterminer quelles parties de l’objet virtuel sont visibles et gérer les cas d’occlusion. Nous présenterons des résultats et des démonstrations supportant les contributions de ce projet.

En raison de l’évolution technologique des caméras, une énorme quantité de données vidéos peuvent être enregistrées. L'analyse de cette énorme quantité des vidéos dépasse la capacité humaine, il est donc nécessaire de disposer de systèmes intelligents permettant d’analyser leur contenu.

La segmentation de vidéos est l'un des sujets de recherche d'actualité en vision par ordinateur.  Dans le cadre de notre projet, l'objectif est d’analyser et segmenter des vidéos recueillies par des caméras portées par des animaux (des caribous et des ours) afin d'extraire des informations liées à leur environnement. La segmentation est cruciale puisque les vidéos sont susceptibles d’être de mauvaise qualité à cause du mouvement des animaux.  Pour cela, une tache de stabilisation est nécessaire afin d’aboutir à une segmentation satisfaisante. 

Dans cette communication, nous présentons l’étape de prétraitement ainsi que la méthode de segmentation proposée. La phase de prétraitement consiste: 1) à filtrer les données brutes; 2) à stabiliser les vidéos et 3) à étudier la pertinence pour la segmentation. La méthode de segmentation est basée sur deux phases. La phase offline qui permet d’entrainer un réseau pour la détection d’objets, puis de segmenter les vidéos en utilisant les résultats de détection obtenus. La phase online consiste à améliorer la segmentation et segmenter les vidéos de l’ensemble de test. les expérimentations qui ont été faites ainsi que les résultats obtenus seront présentés.

Avec la croissance phénoménale des informations multilingues via les documents informatisés et surtout en ligne, le besoin d’un outil de traduction automatique joue un rôle crucial dans la compréhension et dans le traitement pour but de transmettre la signification d’un énoncé ou d’un texte à partir d’une langue vers une autre langue. En raison de la polysémie des mots et de la métaphore des expressions, les systèmes de traduction automatique ne proposent pas toujours les bonnes traductions correctes pour des contextes donnés. Il se peut qu’ils traduisent un nom commun écrit avec des majuscules comme s’il s’agit d’un nom propre et inversement, qu'ils traduisent un nom propre ayant une signification dans un dictionnaire bilingue comme s’il s’agit d’un nom commun. La traduction automatique des entités nommées reste une tâche très importante dans le traitement automatique des langues naturelles. En revanche, la création de ressources linguistiques annotées est très coûteuse en temps et en main d’œuvre. Et la présente communication concerne la création automatique de corpus annotés en entités nommées pour le vietnamien-français, une paire de langues peu dotée. L’application d’une méthode basée sur la projection cross-linguistique en utilisant des corpus parallèles. Les évaluations ont montré une bonne performance (un gain de BLEU de 2 points pour la traduction) lors de la traduction des paires d’entités nommées bilingues. 

L’année 2014 marquera le 15e anniversaire de la maîtrise en design multimédia (MDM) offerte à l’Université Laval. Depuis sa création en 1999, la maîtrise forme des designers spécialistes de l’interface et de l’interaction numérique. Même si plusieurs aspects de la formation permettent à l’étudiant de développer ses aptitudes à la recherche universitaire, il s’agit d’abord d’un programme professionnel, c’est-à-dire qu’il vise surtout à former des designers qui s’intègrent avec compétence sur le marché de l’emploi. S’il est tenu d’acquérir nombre de compétences relatives à son objet de travail principal – l’interface –, le futur designer devrait aussi, selon nous, être en mesure de développer des aptitudes connexes telles que tenir compte du public pour lequel il conçoit, agir comme orchestrateur au sein de son équipe de travail, ainsi que devenir un gestionnaire efficace et un utilisateur avisé de l'information, dans cette discipline en perpétuel mouvement. Notre participation active dans la formation pédagogique de plus de 150 designers en apprentissage nous a permis d’identifier différents enjeux pédagogiques relatifs aux compétences et aptitudes que ces futurs spécialistes du design interactif doivent acquérir. Cette communication pose un regard sur ces enjeux à la lumière des 15 années passées à développer un programme de design d'interface de 2e cycle universitaire.

Cette affiche présente la méthode et les techniques propres au web sémantique, utilisées dans le cadre du projet Bio2RDF pour créer une base de données intégrée sur les bases de données publiques du domaine de la bioinformatique.

Comment transformer des données existantes en RDF ? Comment les publier à l'aide d'un point d'accès SPARQL ?  Comment consommer des données RDF disponible sur le web ? Trois questions fondamentales auxquelles on offre comme réponse les fruits de notre expérience dans le cadre du projet Bio2RDF.

Référence: http://bio2rdf.org

L'affiche sera une version française et améliorée du poster

http://fr.slideshare.net/fbelleau/producing-publishing-and-consuming-li…

Ce projet de recherche propose une approche novatrice pour l'estimation de la direction d'arrivée (DoA) en utilisant une seule antenne se déplaçant le long d'une trajectoire curviligne pour créer un réseau d'antennes virtuelles (VAA). Contrairement aux méthodes traditionnelles comme l'algorithme MUSIC, qui repose généralement sur des réseaux d'antennes fixes, notre technique exploite le mouvement de l'antenne pour simuler l'effet d’un réseau multiélément. Cela permet une estimation précise de la DoA dans des scénarios où le déploiement de grands réseaux d'antennes est peu pratique. Les simulations valident la performance de cette méthode dans des mouvements uniformes et curvilignes, démontrant sa robustesse et son exactitude. Cette approche réduit considérablement les besoins en matériel tout en maintenant une grande précision, ce qui la rend adaptée à des environnements dynamiques et contraints en ressources.

Récemment, l’OMS déclarait que 31% des adultes étaient aux prises avec un manque d’activité physique et que plus de 1,9 milliard d’adultes étaient en surpoids. Ces statistiques alarmantes ont poussé certaines entreprises à développer de nouvelles technologies, telles que les bracelets intelligents, dans le but de répondre à ce problème. Aujourd’hui, quelques études ont couvert l’utilisation de ces produits d’un point de vue technique, mais aucune ne s’est penchée sur les comportements inhérents à leur consommation. Ainsi, notre étude vise à développer une classification des consommateurs de bracelets intelligents, dans un contexte d’entrainement physique, en se basant sur la théorie unifiée de l’acceptation et l’utilisation des technologies améliorée. Pour ce faire, une étude qualitative exploratoire a permis, en premier lieu, d’élaborer un cadre conceptuel basé sur  la performance espérée, l’influence sociale, la motivation hédonique, le prix, les habitudes, la qualité perçue des données recueillies par le bracelet, l’intention comportementale et l’utilisation réelle des bracelets intelligents. En second lieu, un sondage a été administré auprès de 200 utilisateurs ciblés pour permettre une analyse de classification combinée. Les résultats n’ont pas encore été analysés, mais ils permettront de classifier et dresser un portrait précis des consommateurs des bracelets intelligents. Une contribution notable tant au niveau scientifique qu’au niveau managérial.

L’interactivité robotique permet d’assister l’humain à des tâches dangereuses et d’éviter les postures inadéquates pouvant mener à des troubles musculo-squelettiques. En particulier, un modèle de l’interaction favorise une réduction des efforts physiques et permet un partage des tâches dans l’ordonnancement des activités de production et de fabrication. Cette interaction doit cependant s’activer lorsque cela est nécessaire, spécifiquement lorsque le robot détecte un comportement anormal de l’opérateur par une analyse de la performance des actions. La mesure de cette performance est réalisée à l’aide de vêtements de protection individuel intelligents.

L’une des applications envisagées dans ce domaine est l’augmentation de l’environnement réel par une aide virtuelle des opérateurs via un retour haptique (kinesthésique et vibrotactile) et visuel.

Cette technique permettra de visualiser des objets virtuels 3D dans un environnement réel (réalité augmentée) de manière à apporter une aide assistée immédiate à un opérateur de même qu’à déterminer la trajectoire des mains et de la tête.

Le retour haptique sera réalisé avec un guide virtuel tout en faisant l’étude de la stabilité du guide à l’aide d’un modèle dynamique « bras-robot-guide ». Ce projet de recherche permettra d’introduire les robots collaboratifs naturellement dans un environnement de production industrielle de l’industrie 4.0.

Depuis le début des années 2000, le monde sportif a pris conscience des conséquences importantes du traumatisme crânio-cérébral léger (TCCL). L’étude du TCCL a principalement ciblé les sports de contact comme le football et le hockey. Par contre, les sports considérés sans contact, comme le soccer, ne sont pas épargnés. Par exemple, au Canada, entre 2012 et 2014, le nombre de TCCL rapporté chez les joueuses de 10 à 19 ans au soccer a été supérieur à la somme des TCCL au hockey et au rugby. C’est pourquoi l’objectif de ce projet de recherche était d’évaluer le risque de TCCL au soccer. Huit joueurs et seize joueuses de soccer ont porté un bandeau instrumenté mesurant les accélérations de la tête lors de matchs de compétition. Ces accélérations ont été confrontées à un critère de blessure permettant d’identifier le risque de TCCL causé par chacune des accélérations. Le nombre total d’accélérations mesurées a été de 239 chez les joueurs et de 294 chez les joueuses. Les accélérations moyennes mesurées chez les joueurs ont été de 25,9g (maximum 82,9g) et de 2 815 rad/s2 (maximum 15 000 rad/s2), et ont été de 28,9g (maximum 67,3g) et de 3 072 rad/s2 (maximum 12 900 rad/s2) chez les joueuses. Un total de 44 (8,3 %) accélérations de la tête a dépassé le risque de 50 % de subir un TCCL. Parmi ces 44 accélérations, 36 ont été causées par des techniques de tête et 8 par des impacts involontaires. Alors, les techniques de tête devraient-elles être considérées sécuritaires?

Les autorités de réglementation aérienne exigent de minimiser l’encombrement visuel des écrans de la cabine de pilotage car il s’agit d’un facteur connu de dégradation de la performance du pilote. Les recherches antérieures identifient deux facteurs contribuant à l’encombrement visuel soit (1) la quantité et la densité d’information à l’écran et (2) la pertinence de l’information pour la tâche. Il semble toutefois difficile d’évaluer le degré d’encombrement visuel d’écrans complexes comme ceux de la cabine de pilotage et d’identifier les éléments d’affichage y contribuant le plus.

Dans ce travail, nous identifions à partir d’une revue de la littérature six méthodes d’évaluation de l’encombrement visuel d’un écran et nous montrons comment elles ont été utilisées en aviation. La comparaison des méthodes montre que celles impliquant des participants (méthodes subjectives) permettent d’évaluer l’encombrement lié à la pertinence de l’information et de distinguer les éléments d’affichage contribuant à l’encombrement (ex. couleur, densité, saillance,...). Les méthodes informatiques ne peuvent évaluer que l’encombrement lié à la quantité d’information. À l’issue de ce travail, nous recommandons une série de méthodes pertinentes pour l’évaluation de l’encombrement des écrans en aéronautique et suggérons des pistes de recherche pour le développement de nouvelles méthodes.

Les modélisateurs rencontrent différents types d'incertitude dans leurs conceptions et modèles de systèmes logiciels. L'un de ces types concerne l'incertitude sur la manière de construire un modèle. C'est ce qu'on appelle '' l'incertitude au moment de la conception '', et les recherches existantes ont étudié comment les modélisateurs peuvent travailler en sa présence. Cependant, le processus par lequel ils en viennent à articuler et à exprimer leurs incertitudes reste flou.

Dans cet article, nous prenons des mesures pour combler cette lacune en introduisant DRUIDE (Design and Requirements Uncertainty Integrated Development Environment), un langage et un flux de travail pour articuler l'incertitude au moment de la conception. Nous présentons et illustrons notre proposition sur un exemple de conception de logiciel. De plus, nous menons une étude de cas réelle d'analyse de domaine liée à l'incertitude causée par la pandémie de COVID-19, et évaluons DRUIDE avec elle. Notre évaluation montre que DRUIDE est suffisamment expressif pour articuler l'incertitude du moment de la conception.

Fouiller manuellement la littérature biomédicale est une tâche incontournable pour analyser les études publiées sur un sujet donné. Les experts réalisant cette tâche doivent identifier, au sein de corpora très volumineux, les rares documents pertinents traitant d'une question de recherche précise. Pour aider les chercheurs dans cette tâche exigeante et chronophage, nous proposons une approche automatique basée sur des méthodes d'apprentissage supervisé. Le très faible nombre de documents pertinents présents dans les corpora de référence, ainsi que la spécificité de ces documents, constituent les principales difficultés associées à ce triage automatique. Notre système identifie automatiquement les documents pertinents parmi une liste extraite de PubMed, la base de données de référence pour la littérature biomédicale. En utilisant des méthodes d'échantillonnage de données et de sélection de caractéristiques, nous avons évalué plus de 100 modèles de classification automatique. Les meilleurs performances ont été obtenues par un classifieur à base d'arbres de décision entraîné sur un corpus équilibré. Nos résultats indiquent que le système identifie la plupart des documents pertinents. Très utile aux chercheurs pour trier rapidement un grand nombre de documents, notre approche est également très flexible et peut être aisément adaptée à d'autres thèmes d'étude. Pour faciliter son utilisation, notre système est un logiciel libre disponible sous licence MIT.


Les universités canadiennes forment plus de 1,5 million d’étudiants dont environ 8% proviennent des seize universités du Canada atlantique. Selon l’Association des Universités et Collèges du Canada (AUCC), les retombées économiques de l’activité de ce secteur sont considérables et se chiffrent à  30 milliards de dollars par année pour le Canada. Or, l’Association des Universités de l’Atlantique (AAU) a révélé une diminution des inscriptions étudiantes dans la plupart des universités de l’atlantique Canadien, et ce durant les deux dernières années. Ceci pourrait menacer le fonctionnement de certaines d’entre elles.Ce constat nous a amené à rechercher les causes d’une telle diminution en prenant comme exemple l’Université de Moncton. Même si les causes de la diminution sont multiples, nous nous sommes intéressés uniquement à celles reliées à l’utilisation des technologies de l’information dans les compagnes de recrutement étudiant. Ainsi, nous avons d’abord analysé l’existant en observant les moyens disponibles utilisés par l’Université de Moncton pour l’approche et le suivi des élèves dans les écoles secondaires de la province du Nouveau-Brunswick. Ce qui a permis de noter des insuffisances et des corrections susceptibles d’être apportées. Ensuite, nous avons mis en place un système intégré pour la gestion et le suivi des futures étudiantes et étudiants de l’Université. Le système est un ensemble d’outils dotés d’une banque de données et d’une capacité d’aide à la décision.

La minimisation du temps de transfert des données, entre la mémoire et les blocs de calcul dans les algorithmes de traitement des images, reste un problème major pour assurer un temps réel, surtout avec des algorithmes qui utilisent de plus en plus des données parallèles. Le choix du système de communication dépend des composants constituant le système et surtout du processeur utilisé. Ce choix va influer considérablement sur les caractéristiques du système global. Dans ce papier, nous présentons les résultats de synthèse d’un système sur puce à base de processeur MicroBlaze de Xilinx avec un accélérateur matériel pour le traitement vidéo adapté à l’aide d’une interface spéciale. Ces résultats montrent que le système de communication utilise 2,15% des slices registres, 2,56% des LUTs et 4,68% des BRAMs en utilisant le circuit FPGA Vitrex5 LX110T de Xilinx.Nous avons montré l’importance du choix du système de communication dans un système sur puce ainsi que le taux d’utilisation de ce système sur un circuit FPGA. Les résultats de synthèse montrent que les différents taux sont importants surtout avec l’utilisation des adaptateurs de bus pour les accélérateurs matériels. Nous avons ainsi montré les résultats de synthèse du bus CoreConnect dans un système à base de processeur MicroBlaze de Xilinx. Nous avons aussi ajouté au système un accélérateur de traitement de vidéo à l’aide d’une interface PLB-IPIF à base de FIFOs.

La robotique constitue certainement le défi le plus extraordinaire que devra relever le monde scientifique dans les vingt prochaines années. La notion de « robot » comprend une multitude de catégories allant des humanoïdes aux drones en passant par ce qu’on surnomme également les bioniques. Mais surtout, la robotique comprend l’étude et l’utilisation de l’intelligence artificielle. Cela induit la construction de machines capables de s’adapter à leur environnement tout en montrant de réelles capacités d’auto-apprentissage. Autrefois considéré comme une chimère, l’hypothèse de robots policiers ou à l’inverse de robots-tueurs prend de plus en plus d’épaisseur. En effet, malgré la fiabilité de certains algorithmes ainsi que la vigilance des programmeurs, le contrôle de certains robots dotés d’intelligence artificielle pourrait devenir plus aléatoire. Eu égard à l’ensemble de ces considérations, plusieurs questions méritent donc d’être posées. Tout d’abord, ces robots peuvent-ils constituer de véritables instruments préventifs et dissuasifs permettant de lutter contre la criminalité ? Ensuite, comment devrait-on réagir sur le terrain de la responsabilité pénale, face à des robots qui seraient auteurs de crimes ?

L’ensemble de ces interrogations nous pousse à nous inscrire dans une forme d’analyse prospective où nous étudierons l’impact que pourrait avoir l’utilisation de robots dotés d’intelligence artificielle sur la prévention du crime ainsi que sur la responsabilité pénale.

 

La notion de service a évolué et s’est adaptée en prenant une place très importante dans une économie en pleine mutation. Le service est désormais enchâssé dans un système à trois dimensions : le support physique, la formalisation de l’expérience et les valeurs sous-jacentes. Le design, autrefois majoritairement axé sur les objets, tente d’appréhender le service en tant qu’agent intégrateur de l’expérience utilisateur. Or, les méthodes qui fonctionnent pour concevoir l'objet ne sont pas tout à fait adaptées pour un service de nature intangible, ayant une logique temporelle et s’étendant dans de multiples espaces. Le designer doit d’abord comprendre les mécanismes fondamentaux du service pour pouvoir l’appréhender et, pour ce faire, un processus de cartographie et de représentation de son écosystème s’avère nécessaire.

Au cours de cette présentation, nous exposerons la notion du service et les enjeux complexes qui entourent le concept d’écosystème de service. Ensuite, nous analyserons comment la cartographie de cet écosystème est essentielle à la compréhension de tous ses agents et de ses mécanismes intangibles. Finalement, nous discuterons de l’importance d’une représentation complète de l’écosystème de service pour construire un langage commun essentiel à la coordination des multiples acteurs qui interviennent dans la conception et la mise en œuvre du service centré sur l’humain et son contexte.

L’imagerie avec les fréquences térahertz (0.1 – 10 THz, longueurs d’onde de 3 mm – 30 µm) a reçu une attention considérable au cours des dernières années, en raison de la capacité de ces ondes électromagnétiques de pénétrer en profondeur plusieurs matériaux diélectriques autrement opaques dans le visible (tissus, papiers, cartons, polymères etc.). Cependant, le principal problème rencontré aujourd’hui en imagerie THz est le temps d’acquisition. Contrairement aux autres régions du spectre, il n’existe pas encore de caméra THz suffisamment sensible. Les détecteurs les plus sensibles qui existent sont à pixel unique. Ainsi, pour obtenir une image, il faut manuellement déplacer l’échantillon point par point. Ce processus, en plus de prendre beaucoup de temps, ne s’applique pas à tous les types d’échantillons. Dans ce projet, nous avons développé une méthode unique de reconstruction d’images qui utilise l’information spectrale d’une impulsion THz pour reconstruire une image avec un nombre très limité de mesures spatiales. L’idée principale est d’utiliser la relation linéaire entre la fréquence spatiale et la fréquence spectrale pour substituer la dimension spatiale en une dimension spectrale. Nous avons développé des algorithmes de reconstruction pour les cas importants de masques d’amplitude et de phase. Nous avons ensuite expérimentalement démontré avec succès la reconstruction d’images de 4500 pixels avec seulement 45 mesures spatiales (1%).

L'activité pédagogique Logique et mathématiques discrètes est souvent perçue comme un mal nécessaire par la majorité de la clientèle étudiante en informatique, malgré l'importance fondamentale des théories étudiées. La méthode d'apprentissage employée pour cette matière est en général peu adaptée à une population étudiante qui provient du secteur technique des cégeps, comme c'est le cas pour une partie significative de celle admise au Département d'informatique. Un projet pédagogique de l'Université de Sherbrooke propose l'utilisation de l'outil Alloy, un outil basé sur des méthodes de satisfaction de contraintes booléennes (SAT), parallèlement à la présentation des sujets en classe. Alloy est conçu de manière à pouvoir décrire simplement des modèles abstraits (une théorie est spécifiée d'une manière déclarative) et de générer des contre-exemples suite à une assertion non satisfaite. Ainsi, les étudiants peuvent formuler en logique des prédicats des propriétés, comme la symétrie et la transitivité, et les vérifier à partir de relations données, de façon à obtenir instantanément une réaction sous une forme textuelle ou graphique. Pour chaque thème du cours, une bibliothèque décrivant une théorie a été développée. Celle-ci s'accompagne d'une manière de faire afin de guider l'étudiant dans des exercices et de lui donner une rétro-action directe sur ses résultats. Nous nous proposons de présenter l'outil, les bibliothèques et les problèmes techniques liés à une telle activité.

Le développement d’un modèle pharmacophore se fait généralement à partir d’un ensemble de composés biologiquement actifs pour une cible pharmaceutique donnée. Cette hypothèse pharmacophore doit ensuite être optimisée et validée par la qualité et la quantité de nouvelles molécules biologiquement actives trouvées à partir de recherches dans des banques de données de molécules ayant des propriétés pharmaceutiques. En 1998, Güner & Henry ont publié un chapitre de livre sur une nouvelle formule pour optimiser les hypothèses pharmacophores : le GH score. Cette dernière a été utilisée depuis plusieurs années pour évaluer la qualité de ces recherches dans les banques de données. Toutefois cette formule présente certaines limites, car elle ne prend pas en considération les composées inactifs connus. Dans cette présentation, nous proposons donc une formule optimisée : le score AE. Pour ce faire, nous avons ajouté un nouveau facteur qui permet d’évaluer la proportion de composés inactifs connus. Nous avons ensuite appliqué des coefficients à chaque facteur de cette formule soit le rendement, le pourcentage d’actifs et le pourcentage d’inactifs. Les meilleures listes de composés sont trouvées par l’optimisation de ces trois facteurs. Ces coefficients ont été testés sur les résultats de différentes recherches puisés dans la littérature. Nous aurons l’occasion de justifier les paramètres de cette nouvelle formule (ci-dessous) lors de cette présentation.

Le projet TECTONIQ étudie les dispositifs numériques mis en place par les différents acteurs impliqués pour gérer, diffuser et échanger les informations relatives au Patrimoine Industriel Textile (PIT) sur le territoire du Nord – Pas-de-Calais. Dans les travaux présentés, nous définissons tout d’abord notre domaine d’étude, à savoir le patrimoine numérique lié à l’industrie textile, en nous appuyant notamment sur les définitions de l’UNESCO et du comité TICCIH (UNESCO, 2008 ; TICCIH, 2003). Nous proposons ensuite une méthode hybride, c’est-à-dire une approche qualitative combinée à une approche quantitative semi-automatisée, afin de dresser une cartographie des acteurs du patrimoine nous permettant d’identifier les sources existantes de documents numériques hétérogènes. Une cartographie du Web du réseau d’acteurs du patrimoine de l’industrie textile organisé par type (patrimoine patrimonialisé en rouge et patrimoine vivant en bleu) résultante de l'approche est présentée en annexe. L'ensemble des résultats est disponible sur le site suivant : http://ekergosien.net/Tectoniq. L’objectif du projet à terme étant de construire une base de connaissances qui structure et relie entre elles l’ensemble de ces données en respectant les normes définies pour le Web sémantique, nous justifions notre choix d’utiliser le modèle sémantique CIDOC CRM et nous présentons un extrait d’une première ontologie produite manuellement à partir d’un extrait du jeu de documents collecté.

En gestion des connaissances
(GC), la construction d’une mémoire d’entreprise (ontologie, base de
connaissances, etc.) passe par une étape de captation de la connaissance détenue
par les personnes en lien avec l’organisation (employé, client ou fournisseur).
La captation est une activité stressante car elle se déroule souvent dans un
contexte organisationnel en déséquilibre, qu’il s’agisse de restructuration ou parfois
de tensions entre employés et l’employeur, etc. Ces situations influencent
nécessairement l’état émotionnel du connaissant freinant l’accès à son savoir. Dès
lors, la captation de la connaissance devient un enjeu qui nécessite de considérer
le connaissant dans son entièreté : intellectuelle et émotionnelle.

Parallèlement au développement du
concept d’ontologie (discours portant sur l’essence des choses), les Grecs
anciens développèrent le concept de maïeutique
(du grec maieutikê) qui, selon
Platon, est l’art qu’utilise Socrate pour faire accoucher de son interlocuteur,
la connaissance qu’il sait (la connaissance explicite) mais surtout, la
connaissance qu’il ne sait pas qu’il sait (la connaissance tacite). Alors que l’élicitation
place le modèle de connaissances au centre du processus de captation, la
maïeutique, elle, y place le connaissant, permettant ainsi d’en considérer
l’état émotionnel.

L’exposé permettra de définir les
composants procéduraux, les acteurs et les instruments de la maïeutique
appliquée à la GC. La définition sera appuyée une étude de cas.

Les nouvelles technologies sont une avenue prometteuse pour le maintien à domicile des personnes avec des troubles cognitifs. Au laboratoire DOMUS, plusieurs outils d’assistance ont été développés pour faciliter la prise de rendez-vous, le téléphone à des proches et l’assistance pas à pas d’activités. Ces outils sont adaptés suivant la clientèle. Les prototypes sont conçus selon une approche centrée utilisateur avec une conception itérative et des études d’utilisabilité fréquentes. Ajoutés aux résultats de ces études, les chercheurs cliniciens évaluent l’impact de l’utilisation de ces outils sur l’autonomie. Il devient donc indispensable de concevoir un environnement d’administration des données de recherche.

But: Concevoir un environnement pour la conception, l’utilisation et l’évaluation de l’utilisation des outils d’assistance.

Méthodologie : L’environnement de recherche sera bâti à partir des RCP. Pour chaque outil, il contiendra ses interfaces et les sujets l’ayant testé. Ceux-ci sont décrits par leurs préférences, la fréquence d’utilisation et les erreurs commises (physiques: appui à côté du bouton ou cognitives: aller-retour avant d’atteindre l’objectif).

Résultat : Une application a été implantée pour décrire les clients : les données personnelles anonymisées ou non et leurs traces d’utilisation.

Retombée: cet environnement intégrera d'autres outils d’assistance et permettra aux cliniciens d’analyser l'utilisation de toutes les technologies fournies.