Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Les troubles musculo-squelettiques (TMS) sont des lésions (douleur chronique, faiblesse musculaire, etc.) résultants de la surutilisation des tissus anatomiques, en particulier sur les postes où des travailleurs effectuent des mouvements manuels répétitifs, dans un environnement multitâche. Une proportion importante d’arrêts de travail est due à l’incapacité physique des travailleurs affectés d’un TMS. Pour ce faire, nous proposons un modèle d’interactivité humain-robot (une troisième main robotique autonome) pour favoriser la réintégration des opérateurs en absence prolongée au travail pour TMS à leur poste. Le but du modèle d’interaction robotique est l’assistance des travailleurs via le partage des tâches dans l’ordonnancement des activités de production. Bien que l’interaction robotique ait été largement étudiée, sa mise en œuvre dans l’ordonnancement reste assez complexe lors de la conceptualisation du partage des tâches et de l’efficacité du travail d’équipe. Les objectifs du modèle proposé sont orientés vers l’inclusion de la détection des activités humaines et du positionnement du corps humain dans la commande intelligente du robot. Ainsi, un algorithme de classification fiable et robuste sera mis en œuvre à l’intérieur des capteurs intelligents insérés dans des vêtements de protection individuels du travailleur, pour identifier ses actions et ses comportements anormaux. Par conséquent, le robot intervient en fonction de l’état de l’opérateur en évitant sa collision.

L'imagerie par résonance magnétique (IRM) est vulnérable à différents artefacts qui affectent la qualité des images, impactant les diagnostics et l'efficacité des logiciels d'analyse. L'artefact de mouvement, inévitable, varie en magnitude et en aspect selon les cas. L'inspection manuelle des volumes, surtout dans des études de grande envergure, est dispendieuse et chronophage. Il devient donc essentiel de détecter automatiquement les volumes problématiques. Cependant, les critères de qualité varient d'une étude à l'autre, rendant difficile l'entraînement, sur la base de ces données, d'un modèle généralisable. De plus, les protocoles d'acquisition cherchant à minimiser la présence d'artefacts, les données disponibles présentent un déséquilibre des classes, limitant la robustesse des modèles.

Nous proposons une méthode pour quantifier les artefacts de mouvement pour les IRMs anatomiques cérébrales T1. Nous avons recours à des techniques de préentraînement sur des artefacts synthétiques et évaluons plusieurs méthodes de quantification, démontrant que ces modèles détectent efficacement le mouvement dans des volumes réels. Après transfert d'apprentissage, les modèles préentraînés sur données synthétiques rivalisent avec ceux entraînés sur des données réelles. En conclusion, les résultats démontrent que l'entraînement sur données synthétiques peut être efficace en pratique et permet aux laboratoires de former leurs modèles avec des ressources limitées.

Le design comme domaine de recherche attire dans son sillage des projets de nature fort variée dont la recherche-intervention (RI) est l'une des formes de plus en plus courantes. Au-delà des caractéristiques particulières de ce mode d'investigation d'un point de vue méthodologique, la RI suppose un encadrement particulier des assistants de recherche recrutés parmi les bassins d'étudiants en design. Dans cette présentation, nous considérons la recherche notamment comme une activité intégrée de formation des étudiants qui y participent. Dans le contexte particulier du design, cette situation constitue un défi de taille pour les responsables de la recherche dans la mesure où ils doivent exercer une triple supervision. D’abord, ils doivent veiller à la bonne exécution des outils et méthodes propres au protocole de recherche inhérent à la RI. L’étudiant est alors installé dans un processus de formation à la recherche. Ensuite, ils doivent les superviser en tant que designers (quelle que soit la spécialité convoquée) de manière à ce que les livrables au cœur de la RI soit conçus et produits au moins en partie à la satisfaction du commanditaire de la recherche. Enfin, les responsables doivent superviser le déroulement de la recherche entre les diverses équipes et dans le respect des échéanciers et des diverses contraintes logistiques.​

Ce projet de recherche concerne l’exploitation de  wikipédia comme étant une ressource semi-structurée de connaissances linguistiques et en particulier comme étant un corpus comparable, pour l'extraction de terminologie bilingue.

L'approche tend à extraire d’abord des paires de terme et traduction à partir de types des informations, liens et textes de Wikipédia. Une deuxième approche basée sur l’information linguistique, afin de ré-ordonner les termes et leurs traductions pertinentes et ainsi éliminer les termes cibles inutiles, est utilisée.

Les évaluations préliminaires utilisant les paires de langues français-anglais, japonais-français et japonais-anglais ont montré une bonne qualité des paires de termes extraits. Cette étude est très favorable pour la construction et l’enrichissement des ressources linguistiques tels que les dictionnaires et ontologies multilingues. Aussi, elle est très utile pour un système de recherche d’information translinguistique (RIT) ainsi que pour améliorer la qualité d'un traducteur automatique statistique.

Valider une nouvelle approche dans le domaine du génie logiciel est toujours considérée comme une activité pernicieuse pour n’importe quel chercheur œuvrant dans ce domaine. Dans cette communication nous visons à mettre en lumière les défis rencontrés, en tant que chercheur, lors de la validation de l’approche et l’outil BScrum.
BScrum est une nouvelle approche de gestion des exigences logicielles basée sur les buts d’affaires dans un contexte de gestion de projets agiles. Elle vise à améliorer la perspective d’affaires dans les projets agiles basés sur Scrum. Pour valider BScrum, un protocole d’étude de cas a été élaboré et appliqué dans des projets réels en entreprise. Dans cette communication, nous allons d’abord présenter Scrum, le cadre de travail agile et l’approche BScrum qui vise à l’améliorer. Ensuite, les étapes menées pour l’élaboration du protocole de validation et la conception du questionnaire seront présentés. Puis, nous présenterons  les défis rencontrés et les limites de l’approche de validation utilisée lors de la conduite des études de cas en entreprise. Finalement, les résultats de la conduite des études de cas et les leçons apprises seront exposés à l’audience.

Contexte

Inscrire des activités dans un calendrier n’assure pas que celles-ci seront réalisées. Le laboratoire DOMUS a conçu un calendrier intelligent, AMELIS, qui offre le rappel automatique des activités inscrites sans savoir si celles-ci sont accomplies. La prochaine étape est donc de connecter AMELIS à un habitat intelligent pour suivre les activités inscrites et s’assurer de leur réalisation.

Méthodologie

Il faut sélectionner un algorithme de reconnaissance d’activités parmi différents algorithmes de data mining fonctionnant avec apprentissage. La sélection est basée sur leur efficacité en fonction du nombre de capteurs dans l'appartement et des activités à reconnaître. Des tests effectués sur un jeu de données provenant de capteurs du laboratoire nous ont permis de sélectionner trois algorithmes : le premier est un algorithme de simple association entre les capteurs de l’appartement et une activité, le deuxième est un algorithme basé sur les réseaux bayésiens, et enfin le dernier est un algorithme de clustering basé sur les mixtures de gaussiennes.

Ils sont utilisés par un programme qui communique avec AMELIS pour savoir quelles sont les activités à reconnaître sur une plage horaire précise.

Résultats

Le dernier algorithme est le plus efficace, mais ne fonctionne qu’avec un nombre restreint de capteurs. Le deuxième algorithme est moins efficace mais offre une reconnaissance plus fine car il utilise tous les capteurs. Enfin, la méthode par simple association a été rejettée.

Combien y a-t-il de relations internes possibles dans un ensemble à  n  éléments?  Parmi elles, combien sont réflexives? symétriques? transitives?  De combien de façons peuvent être combinées les différentes propriétés?  Le cas  n = 3  sera étudié de façon plus détaillée, avec notamment la présentation synoptique des 104 graphes sagittaux représentatifs des 512 relations.

Résumé: Ordinateur quantique, cryptographie quantique et mémoire magnétique, toutes ces avancées technologiques découlent de la physique quantique et de la notion de spin. Mais qu’est-ce qu’un spin? Le spin est une propriété fondamentale des particules élémentaires. Les particules élémentaires sont des particules qui forment la matière autour de nous, par exemple l’électron. Celui-ci orbite autour d’un noyau d’atomes et son spin lui permet de se comporter tel un petit aimant qui suit le champ magnétique produit par l’atome. Le spin de l’électron est fixe et peut avoir une valeur de +1/2 ou -1/2. L’existence de deux états permet à l’électron de se superposer et de produire des états inaccessibles classiquement.

La conception d’un régulateur de tension CMOS pour amplificateurs de type RFIC GaAs HBT comporte des défis. Avec une faible consommation de courant et à bas voltage, il doit être capable de fournir un courant de 20 mA, tout en restant insensible aux perturbations RF. La structure "Recycled Folded-cascode" (RFC) permet un fonctionnement à basse tension avec de bonnes performances, mais ne répond pas entièrement à cette problématique.

Cette communication propose une version améliorée de la structure RFC qui, grâce aux  modifications illustrées à la figure jointe, constitue une solution adaptée à cette problématique.  La méthodologie employée est présentée à travers des résultats de simulations avec un signal d’excitation RF à 1.88 GHz et de puissance 20 dBm, ainsi qu’une charge émulant le comportement d'un transistor GaAs HBT. L’effet perturbateur du à l’infiltration du signal RF dans les circuits de polarisation à travers l’inductance d’isolation a été étudié.

Alimentée à 1.8 V, la structure RFC améliorée consomme un courant de polarisation ramené de 800 µA à 135 µA. Employée dans une configuration de rétroaction, elle assure la régulation de tension à 1.4 V, pour un courant de charge allant jusqu’à 20 mA. La technique de désensibilisation appliquée contre les perturbations RF permet de réduire la chute de tension de sortie par 80 mV, pour rétablir une régulation à 97%. Elle permet d’utiliser une inductance d’isolation aussi faible que 8 nH, favorisant l’intégration sur puce.

La formation à distance nécessite l'emploi d'outils informatiques, notamment des systèmes de gestion d'apprentissage (Learning Manage System ou LMS). Les jeux sérieux (jeux vidéo mélangeant aspect pédagogique et aspect ludique) représentent un outil informatique pouvant être utilisé par les enseignants et développé pour leurs besoins précis. Cependant, l'intégration des jeux sérieux aux LMS peut poser des problèmes de compatibilité. De plus, les avancés en intelligence artificielle incitent à prendre en compte un domaine comme l'apprentissage adaptatif (qui consiste à proposer un enseignement personnalisé au niveau du contenu ou des activités), complexifiant les outils informatiques. Au final, nous proposons un jeu sérieux adaptatif dont les résultats du joueur-apprenant peuvent être importés dans un LMS comme Moodle. Un tuteur "intelligent" est intégré au jeu sérieux adaptatif afin de guider le joueur-apprenant.

Dans la dernière décennie, le concept de champ vectoriel combinatoire (ou discrète) introduit par Robin Forman en 1998 est devenu un outil très efficace pour la discrétisation des problèmes continus en mathématiques appliquées, l'imagerie et la visualisation.  Le but de ces recherches est de développer les liens formels entre la théorie classique de Morse et la théorie de Forman dans le contexte de systèmes dynamiques. Donc, dans cette présentation, nous débuterons par faire un résumé sur les fonctions de Morse discrète et par la suite, nous montrerons des exemples sur des champs vectoriels gradient de Morse qui est générer par un programme fait à l’interne. Ensuite, par ce champ vectoriel, nous pouvons construire un champ de vecteurs à valeurs multiples. De plus, on peut construire une application semi-continue supérieurement et de montrer graphiquement le fonctionnement de cette application. D’autre part, nous pouvons étendre ce résultat sur la théorie d’indice de Conley sur les complexes simpliciaux 2D.

Le designer d’interaction conçoit des produits et services numériques aux visées habituellement prospectives et novatrices. Ainsi, dans sa démarche de design, il n’est pas rare que le designer d’interaction investisse considérablement de temps et d’efforts à l’élaboration d’un concept original, activité privilégiée de la créativité et de l’idéation en design (ROOZENBURG et EEKELS 1995). Mais la conceptualisation se révèle souvent beaucoup plus ardue qu’escomptée, et force est d’admettre que plusieurs défis et écueils menacent sa réussite, réussite pourtant cruciale au succès global de l’entreprise du designer (WANG et collab. 2002). En fait, la conceptualisation, ses défis et ses écueils font partie des aspects de la démarche de design que, encore aujourd’hui, nous ne comprenons que très peu (MacMILLAN et collab. 2001).

Dans cette communication, nous présenterons les résultats d’un projet de recherche dans le cadre duquel nous avons observé la démarche de conceptualisation de 20 designers d’interaction sur une période de 15 semaines. Pendant toute la durée du projet, différents instruments de collecte de données (journaux de bord, questionnaires, etc.) ont été déployés afin de suivre la trace de l’évolution des concepts et d’obtenir des indices révélateurs des défis et des écueils rencontrés par les designers. L’analyse des données récoltées devrait permettre de cibler les défis de la conceptualisation et d’identifier ses écueils (typologie, classement, etc.).

La surveillance vidéo dans les zones isolées est difficile en raison des contraintes de connectivité, telles que l'absence d'infrastructure de communication terrestre et une bande passante très faible. Ce projet propose une solution en utilisant les communications par satellite pour transmettre des données de surveillance sous forme de représentations abstraites issues d'un système de compression de vidéo sémantique. Ce système, basé sur des modèles d'apprentissage profond, génère plusieurs types de représentations (coordonnées des objets, classes, ID de suivi, programmes de correction (patches) d'objets) optimisées pour les systèmes embarqués. Ces représentations, conçues pour réduire la quantité de données tout en conservant les informations essentielles, sont adaptées à des environnements à ressources limitées et transmises efficacement via les satellites.

Nous déployons ce système sur des systèmes embarqués en réduisant leur complexité grâce à des techniques de compression et de conversion de modèles. Nous optimisons les paramètres de compression pour réduire le temps de latence de transmission de l’information tout en développant un schéma de communication adapté aux contraintes des satellites en orbite basse, avec un ordonnancement efficace pour la transmission, soit à partir d'une caméra unique priorisant les représentations, soit de plusieurs caméras coopérant pour déterminer quelles données transmettre selon la bande passante et l'importance des informations.

L’audit de contenu est une méthode d’évaluation du contenu d’un site Web ou d’un écosystème informationnel plus vaste (C. Jones 2010; Land 2014; B. Martin & Hanington 2012).  Rares sont les travaux de recherche étudiant cette méthode. L’audit de contenu se voit toutefois abondamment décrit et commenté dans une foule d’écrits. Ces publications, qui découlent en grande majorité de l’externalisation de la pratique professionnelle de leurs auteurs, constituent un riche terreau pour entamer une réflexion plus vaste. C’est ce qui nous a amené à examiner plus en profondeur un corpus de 200 écrits abordant l’audit de contenu (ouvrages, publications Web, articles).


Dans le cadre de cette présentation, nous nous penchons plus particulièrement sur le protocole de conduite de l’audit de contenu. Dans un premier temps, nous présentons et examinons les protocoles identifiés dans notre corpus. Cette analyse fournit l’assise nécessaire pour proposer, dans un second temps, un protocole d’audit de contenu enrichi, tenant compte des forces et des faiblesses soulevées précédemment. Cette étude vise non seulement à alimenter la recherche en communication numérique, mais aussi à construire des ponts concrets entre la recherche et la pratique professionnelle.

Le téléphone cellulaire est utilisé à des fins professionnelles depuis de nombreuses années, particulièrement par les gestionnaires seniors au travail. Et cette technologie est de plus en plus employée au travail depuis qu’une panoplie d’applications mobiles a été intégrée aux stratégies d’affaires de l’entreprise. L’adoption individuelle de la technologie a été largement étudiée dans le secteur du travail, mais elle l’a été beaucoup moins à la maison. De ce fait, peu d’études ont été menées jusqu’à présent pour vérifier la satisfaction des gens à la maison de l’utilisation d'un téléphone cellulaire. L’objectif de cette étude est donc de vérifier quels sont les facteurs d’influence de l’utilisation d’un téléphone cellulaire chez les Camerounais. Pour guider l’étude, un modèle de recherche de type « modérateur » a été développé, duquel 8 hypothèses ont été formulées. La méthodologie utilisée pour mener l’étude est le sondage en personne. Plus de 500 Camerounais possédant un téléphone cellulaire ont été choisis aléatoirement dans les deux principales villes du Cameroun pour former l’échantillon. L’analyse des données a été faite à l’aide de la modélisation d’équation structurale avec le logiciel Partial Least Squares (PLS). Les résultats révèlent que la moitié des variables examinées dans l’étude ont montré être des facteurs déterminants de l’usage d’un téléphone cellulaire par les Camerounais. De plus, la plupart des hypothèses de recherche formulées ont été vérifiées.  

À l’heure du Web 2.0, de nouvelles pratiques d’apprentissage se sont développées au sein de la communauté universitaire. Les étudiants adoptent des pratiques d’intégration de leurs activités sociales au sein de leur processus d’apprentissage. Ces derniers s’attendent à avoir accès à une vaste quantité d’information à travers des outils formels ou informels et à faire partie d'une communauté mondiale de pairs. Le besoin de combiner les ressources institutionnelles et personnelles formalise le concept d’environnement personnel d’apprentissage(EPA).Toutefois, l’élaboration de tels environnements nécessite de développer des compétences complexes que les étudiants du supérieur, pourtant décrits comme natifs du numérique, ne possèdent pas nécessairement. Quelques supports de construction d’EPA ont été proposés dans la littérature, mais ces travaux mettent de côté un point important qui est l’interopérabilité des ressources. L’objectif du présent travail est de fournir aux étudiants un support de construction de leur EPA sous forme d’un tableau de bord, qui permettra d’avoir une vision actualisée des ressources et d’exploiter davantage les liens qui en découlent.  La solution proposée est basée sur le concept des systèmes multi-agents. Offrir aux étudiants un support de construction de leur EPA est une façon de leur faciliter la réappropriation individuelle des ressources d’apprentissage provenant de sources variées et une gestion optimale en termes de contenu et de processus.

Le modèle de mélange gaussien est un modèle probabiliste très utilisé dans de nombreux domaines, notamment la segmentation d'images, la reconnaissance de formes, l'apprentissage automatique, etc. Les mélanges de gaussiens (MdG), en tant que somme pondérée de plusieurs fonctions gaussiennes, sont utiles en raison du fait que le nombre de paramètres utilisés est très faible et en raison de leur flexibilité pour modéliser des distributions dont les formes paramétriques sont inconnues.

Malheureusement, plus le nombre de composants dans le mélange est élevé, plus la probabilité des données est élevée, mais également plus la charge de calcul et le sur-ajustement des données sont élevés. Ainsi, il y a eu un intérêt grandissant pour les algorithmes de réduction de MdG qui se basent sur la fusion de gaussiennes tout en préservant la structure du mélange initial. Pour fusionner deux MdG, on mesure la différence entre les deux à l'aide de divers types de divergences disponibles ou de mesures de distance. Cependant, toutes les divergences ne sont pas également utiles pour le MdG car la plupart des divergences connues, y compris la divergence de Kullback-Leibler, ne donnent pas une expression analytique en forme fermée pour un MdG. La plupart des travaux existants se basent sur une approximation de la divergence Kullback-Leibler. Dans ce travail, nous présentons un algorithme de réduction de MdG basé sur la divergence de Cauchy-Schwarz pour la segmentation d’images de mélanome.

La scoliose idiopathique adolescente (SIA) est une déformation de la colonne vertébrale qui affecte 1% de la population. Les patients atteints de SIA sont suivis périodiquement en clinique d’orthopédie du CHU Sainte-Justine. Une base de données a été conçue pour informatiser les données recueillies. Or, la consultation de la base de données s’effectue sur un poste de travail, peu adapté à une utilisation clinique. L'utilisation d'une application mobile faciliterait le travail des cliniciens en rendant plus convivial l'accès à la base de données. L’objectif de ce projet de recherche est de présenter l’analyse, la conception et l’implémentation d’un système permettant aux orthopédistes de consulter un dossier médical sur la plateforme iOS d’Apple (Cupertino, É.U.). Le processus de développement logiciel Rational Universal Process a été utilisé pour modéliser le système. L’analyse et l’identification des exigences fonctionnelles et non fonctionnelles ont permis de bien identifier les besoins cliniques. Les comportements statiques et dynamiques du système furent modélisés avec le langage UML. La phase de développement a permis de réaliser une application iPad en utilisant le langage Objective-C. La recherche d’un dossier est réalisée selon des critères médicaux ou nominaux sur les patients, incluant une visualisation interactive des radiographies. Le prototype a été validé avec un chirurgien orthopédiste et le déploiement sur iPad est planifié prochainement en clinique.

Le lieu, qu’il soit physique ou numérique, aurait tendance à nous conditionner et orienter nos pratiques. Toutefois, les usages présents dans tout espace social, et que l’on pense préconçus par le système (économique, politique, urbanistique, culturel, etc.) ne sont finalement jamais stabilisés. En effet, le lieu se trouve être lui-même conditionné par diverses variables, telles que la temporalité ou encore l’organisation spatiale, susceptibles d’impacter les pratiques. L’instabilité de ces usages peut donc rendre les observations de tout designer complexes au sein d’un écosystème de services. C’est à cette difficulté que nous souhaitons répondre et pour ce faire nous suivons une méthodologie ethnographique.

Cette méthodologie s’orchestre autour d’observations non participantes au sein de l’aire de restauration d’un centre commercial. Ces observations nous permettent de définir les pratiques des usagers selon les contraintes temporelles et spatiales du lieu, tout en prenant en compte les critères sociodémographiques. Au terme des analyses découlant de ces observations, nous souhaitons aboutir à la mise en œuvre d’un outil méthodologique. Cet outil devrait permettre de faciliter la description du passage de l’humain dans un lieu, et de ce fait, mieux cerner ses usages. Le but de cet outil serait donc de faciliter l’appréhension d’un espace où l’on souhaite améliorer l’accès aux services pour le consommateur et à terme en optimiser les usages réels.

Depuis une quinzaine d’années, le Web s’est imposé comme média privilégié par une variété d’organisations pour transmettre une quantité substantielle d’information à leurs destinataires. La mise en place adéquate de ces imposantes structures informationnelles dépend, entre autres, de spécialistes de l’information et de la communication. Dans la mesure où l’accès à une information particulière constitue l’objectif principal d’une majorité d’activités de recherche sur le Web, ces spécialistes doivent idéalement porter une attention particulière au contenu présenté. Pour ce faire, différentes méthodes visant à mieux appréhender le contenu ont vu le jour depuis quelques années. L’audit de contenu est l’une d’elles.

Cette méthode permet d’identifier, de dénombrer, de décrire et d’évaluer les contenus d’un site en les confrontant à une liste de critères d’analyse. Si l’audit est décrit dans une multitude d’ouvrages et de sites Web professionnels, on constate une certaine hétérogénéité entre ces publications, notamment au regard des critères à inclure. Cette pluralité de discours nous a amenés à examiner plus en profondeur une centaine d’écrits professionnels afin de dresser un inventaire des critères proposés et de les analyser. Cette étude devrait contribuer, selon nous, à améliorer l’efficacité de cette méthode, et ainsi faciliter sa mise en place et sa conduite.

Les bibliothèques logicielles jouent un rôle critique dans la fonctionnalité, l'efficacité et la maintenabilité des systèmes logiciels. Avec l'adoption croissante des grands modèles de langage (GMLs) par les développeurs pour simplifier leurs processus de code, il devient essentiel d'évaluer l'efficacité de ces modèles dans la recommandation de bibliothèques appropriées. Dans une première étude, nous avons évalué les performances de ChatGPT en tant que « bibliothécaire logiciel » en générant du code Python pour 10 000 questions issues de Stack Overflow. Nos résultats montrent que ChatGPT propose des bibliothèques comportant des licences copyleft restrictives, sans que cela ne soit explicitement communiqué, dans 14,2 % des cas. De plus, 6,5 % des bibliothèques ne fonctionnaient pas correctement dès l'installation, causant potentiellement des confusions pour les développeurs. Dans un second travail, nous avons développé le Software Librarian, un outil destiné à résoudre certaines des lacunes identifiées dans l'étude précédente. Cet outil fournit des informations en temps réel sur les bibliothèques Python recommandées par GitHub Copilot, incluant les détails sur les licences, l'état de dépréciation et la santé des bibliothèques. Le Software Librarian assure donc que les bibliothèques recommandées sont non seulement valides, mais adaptées à une intégration dans les projets, en tenant compte des aspects juridiques et de la maintenabilité à long terme. 

L’intégration de nouveaux logiciels est importante pour améliorer la performance des organisations.  L’appropriation individuelle a été étudiée.  Cependant, l’impact d’une dynamique de groupe sur l’appropriation individuelle a fait l’objet de peu de recherche, d’où la contribution de notre recherche.

Le problème générique de recherche est que des individus ne s’approprient pas les logiciels dans le cadre de leurs activités professionnelles et académiques.  L’objectif est d’évaluer les liens entre la personnalité, l’appropriation et l’environnement d’apprentissage.

Le cadre conceptuel comporte deux principales composantes. (1) Le modèle de l’ennéagramme de la personnalité (Sutton et al., 2013) est utilisé pour mieux comprendre le rôle de la personnalité sur l’appropriation d’un nouveau logiciel. (2) Une échelle d’appropriation (Tsoni, 2012) adaptée est utilisée.  Deux éléments s’ajouteront à l’échelle, l’efficacité et la préférence de l’environnement d’apprentissage.

L’approche méthodologique quantitative comporte un questionnaire en ligne.  La population est une cohorte d’environ 400 étudiants suivant un cours de fondements technologiques des systèmes d’information.  La cueillette de donnée s’effectuera au début de 2016.  Le logiciel choisi est Access parce que très peu d’étudiants l’ont utilisé avant le cours.  Pour l’évaluation de la personnalité, le Halin-Prémont-Enneagram-Indicator sera utilisé.  Lors de la communication, nous présenterons nos résultats préliminaires.

Typiquement, un processus d’affaires s’exécute sur plusieurs heures ou plusieurs jours, implique plusieurs acteurs et comprend plusieurs points d’erreurs. Lors de son exécution, le processus produit des effets qui dépassent le cadre du système d’information de sorte qu’il ne soit pas possible, en cas d’erreur, de les renverser tels que des transactions dans une base de données. Ainsi, nous devons mener des activités qui visent à renverser sémantiquement les effets du processus : c’est ce qui est appelé la compensation.

La tâche d’identification des différents points d’erreurs dans un processus d’affaires et la modélisation des processus de compensation correspondants est une activité complexe, sujette à l’erreur et qui monopolise l’essentiel de l’effort de modélisation. Dans cette tâche, aucune aide n’est fournie aux l’analystes qui, par conséquent, relèguent la compensation aux détails d'implémentation.

Les travaux ayant porté sur la compensation se sont concentrés sur des aspects techniques de coordination et de structures des langages. Nous soutenons que la compensation est avant tout un problème métier et devrait donc être traitée sous cet angle. Nous proposons, dans cette communication, une approche métier visant à assister l’analyste dans l’identification des activités de compensation et dans la modélisation des processus de compensation d’un processus d’affaires en nous basant sur une analyse métier des processus encadrée par l’ontologie d’affaires​​ REA.

Informatiser l’un des processus d’une entreprise est monnaie courante afin de lui permettre de se surpasser dans ses compétences clés. Cependant, lorsque l’on vise à l’automatiser et que celui-ci comporte des particularités propres à chaque client, cela représente tout un défi. Tel est le cas de S3R, une entreprise qui innove en offrant au Québec un service unique de développement, d’implantation et de suivi de solutions qui permettent à ses clients de réaliser des profits à travers une meilleure gestion de leurs déchets et matières recyclables. Notre recherche a d’abord consisté à standardiser, puis à automatiser une partie du processus de génération des dossiers d’observations et de recommandations fournis par S3R à sa clientèle. Une modernisation des techniques de traitement notamment par une base de données s’est avérée nécessaire. Ce projet a été effectué à travers trois points essentiels.

- L'élaboration d'un modèle de rapports des traitements unifié pour la clientèle de l'entreprise.

- L’exploitation des avantages du Cloud comme la possibilité d’accès et de consultation, quel que soit la localisation.

 - L’informatisation des procédures en rejetant l’utilisation des formulaires papier au profit des nouveaux outils de traitement des données.

Nos objectifs sont de réduire les temps requis au traitement des dossiers et ainsi libérer les ressources hautement qualifiées pour les opérations clés de l’entreprise, ayant un effet immédiat sur les profits engendrés.

EC3 est un projet avancé et testé : veille, cybersécurité,  très grandes bibliothèques. EC3 est une nouvelle version de la méthode d'Exploration Contextuelle afin d'extraire des informations pertinentes à partir de parties textuelles hétérogènes du Web Sémantique ou de grandes bases de données documentaires. Il fournit un environnement plus général pour l'extraction d'informations à partir de textes en utilisant cette méthode originale. EC3 n'a pas besoin d'analyse syntaxique, d'analyse statistique ni d'ontologie générale. Mais EC3 n'utilise que de petites ontologies appelées «Ontologies Linguistiques» qui expriment les connaissances linguistiques d'un utilisateur qui doit trouver des informations pertinentes. EC3 fonctionne très vite sur de gros corpus ( «partie de discours» : des SMS aux livres). EC3 propose une représentation visuelle de sous forme de graphes de nœuds (Entités Nommées) liés par des relations sémantiques (en fonction du point de vue). Nous représentons le graphique à l'utilisateur sur un écran d'ordinateur en utilisant une approche originale: "Memory Islands". Une nouvelle application du projet à fort potentiel est actuellement envisagée, dans le domaine juridique. Les avocats, magistrats, syndicats notamment utilisent les bases de données textuelles de la jurisprudence. Cependant, avec les nouvelles lois françaises et européennes, il est urgent de mettre à jour l'indexation de la jurisprudence.