Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Contexte

Inscrire des activités dans un calendrier n’assure pas que celles-ci seront réalisées. Le laboratoire DOMUS a conçu un calendrier intelligent, AMELIS, qui offre le rappel automatique des activités inscrites sans savoir si celles-ci sont accomplies. La prochaine étape est donc de connecter AMELIS à un habitat intelligent pour suivre les activités inscrites et s’assurer de leur réalisation.

Méthodologie

Il faut sélectionner un algorithme de reconnaissance d’activités parmi différents algorithmes de data mining fonctionnant avec apprentissage. La sélection est basée sur leur efficacité en fonction du nombre de capteurs dans l'appartement et des activités à reconnaître. Des tests effectués sur un jeu de données provenant de capteurs du laboratoire nous ont permis de sélectionner trois algorithmes : le premier est un algorithme de simple association entre les capteurs de l’appartement et une activité, le deuxième est un algorithme basé sur les réseaux bayésiens, et enfin le dernier est un algorithme de clustering basé sur les mixtures de gaussiennes.

Ils sont utilisés par un programme qui communique avec AMELIS pour savoir quelles sont les activités à reconnaître sur une plage horaire précise.

Résultats

Le dernier algorithme est le plus efficace, mais ne fonctionne qu’avec un nombre restreint de capteurs. Le deuxième algorithme est moins efficace mais offre une reconnaissance plus fine car il utilise tous les capteurs. Enfin, la méthode par simple association a été rejettée.

Les projets de recherche impliquant l’annotation de documents textuels électroniques présentent un défi de taille pour les équipes académiques dès que plusieurs participants sont impliqués. Ils exigent des protocoles rigoureux pour l’annotation, une sécurité adaptée aux données traitées ainsi que des méthodes de saisie, de comparaison et d'agrégation des annotations qui dépassent rapidement les connaissances informatiques des gestionnaires de projet. Le constat est que les outils existants sont restrictifs à ces égards, tant sur les aspects économique, technologique, linguistique que pour leur accessibilité. Ceci a motivé la création de la plateforme PACTE, une plateforme bilingue qui facilite ce type de projet multi-utilisateur d’annotation textuelle.

Cette plateforme, développée en tant que logiciel libre, offre la possibilité aux membres d’un projet de collaborer sur les tâches d’annotation d’un corpus textuel. Elle permet au gestionnaire de définir le protocole d’annotation, les participants, les schémas d’annotation et de distribuer, manuellement ou aléatoirement, des sous-ensembles d’un corpus de grande taille aux participants. Ces annotations peuvent viser un corpus, un document ou la surface continue ou disjointe d’un document. Le module de création de schémas personnalisés offre une grande flexibilité quant aux informations à saisir pour chaque type d’annotation. Des services d’annotations automatiques bilingues peuvent aussi être appliqués pour enrichir les corpus.

L’implantation des systèmes intelligence d’affaires (BI) occupe un intérêt important auprès des chefs d’entreprises qui possèdent une culture analytique des données. Cela leur permettra de prendre les meilleures décisions en temps opportun et de gagner un avantage concurrentiel majeur dans le marché. Bien que dans la littérature SI souvent les études de cas sont réalisées soit dans un contexte nord-américain ou européen, mais rares dans un contexte africain et plus particulièrement algérien. Le BI en Algérie, c’est un terme qui existe depuis au moins une dizaine d’années, mais négligé par plusieurs entreprises. En effet, l’Algérie éprouve plusieurs difficultés en matière de l’intelligence d’affaires telles que l’accès aux sources de données, manque de la culture de partage d’information, etc. Dans notre recherche, nous présenterons des résultats préliminaires visant à comprendre les barrières et les facilitateurs d’implantation des systèmes BI dans le contexte algérien. Cela a pour but de comprendre les réalités qui existent dans ce contexte. Pour répondre à notre questionnement, nous allons nous baser sur une méthodologie qualitative de type «étude de cas» et nous recueillerons nos données à travers des entrevues semi-dirigées. Nous croyons que notre recherche pourrait apporter une contribution pertinente. Cela aidera les entreprises qui voudraient, à l’avenir, implanter des systèmes BI à comprendre la réalité de BI dans le contexte nord-africain et particulièrement algérien

Les troubles musculo-squelettiques (TMS) sont des lésions (douleur chronique, faiblesse musculaire, etc.) résultants de la surutilisation des tissus anatomiques, en particulier sur les postes où des travailleurs effectuent des mouvements manuels répétitifs, dans un environnement multitâche. Une proportion importante d’arrêts de travail est due à l’incapacité physique des travailleurs affectés d’un TMS. Pour ce faire, nous proposons un modèle d’interactivité humain-robot (une troisième main robotique autonome) pour favoriser la réintégration des opérateurs en absence prolongée au travail pour TMS à leur poste. Le but du modèle d’interaction robotique est l’assistance des travailleurs via le partage des tâches dans l’ordonnancement des activités de production. Bien que l’interaction robotique ait été largement étudiée, sa mise en œuvre dans l’ordonnancement reste assez complexe lors de la conceptualisation du partage des tâches et de l’efficacité du travail d’équipe. Les objectifs du modèle proposé sont orientés vers l’inclusion de la détection des activités humaines et du positionnement du corps humain dans la commande intelligente du robot. Ainsi, un algorithme de classification fiable et robuste sera mis en œuvre à l’intérieur des capteurs intelligents insérés dans des vêtements de protection individuels du travailleur, pour identifier ses actions et ses comportements anormaux. Par conséquent, le robot intervient en fonction de l’état de l’opérateur en évitant sa collision.

Pour intégrer les données probantes à leur pratique, les professionnels de la santé doivent formuler précisément leur question clinique, consulter la littérature scientifique médicale à ce sujet, évaluer la qualité et la pertinence des données trouvées avant d’intégrer leurs nouvelles connaissances à leur pratique. Afin d’améliorer la recherche des données probantes, nous nous intéressons à la prédiction de la pertinence d’un article par rapport à une question clinique, en prenant compte du type d’étude qu’il décrit et du type de la question posée. Nous nous intéressons plus particulièrement aux questions formulées à l’aide du cadre PICO, un cadre de formulation de question d’avant-plan qui permet de trouver une réponse précise à des questions cliniques. Pour prédire si un article est pertinent, nous identifions d’abord des concepts UMLS d’intérêt dans les articles et dans les questions en utilisant diverses techniques du traitement du langage naturel par des outils tels que cTAKES. Pour évaluer nos résultats, nous utilisons le corpus CLIREC. Notre prototype permet de détecter la présence de concepts présents à la fois dans les questions et les articles. Nous travaillons à améliorer notre approche en intégrant le concept de distance sémantique et en intégrant des algorithmes d’apprentissage automatique pour prédire la pertinence de l’article. L’aspect novateur de nos travaux est l’utilisation du type des questions et articles en plus des éléments PICO de la question.



Il arrive fréquemment que des technologies, ayant fait leur preuve techniquement, ne réussissent pas à conquérir les marchés, se faisant même surclasser par des innovations moins performantes. La question qui se pose alors est de savoir quels sont les facteurs déterminants du succès commercial d’un produit d’innovation technologique. Plusieurs chercheurs se sont penchés sur cette question, sans toutefois parvenir à prédire à coup sûr le succès commercial des innovations, particulièrement dans le domaine émergent des technologies mobiles. L’objectif de cette communication est de proposer un modèle permettant non seulement de prédire le succès et les échecs des technologies mobiles mais aussi d’orienter la conception de celles-ci afin qu’elles puissent réussir leur introduction dans les marchés visés. La méthodologie adoptée pour y parvenir consiste à mettre en œuvre une hiérarchie de facteurs liés au contexte socio-économique et organisationnel de l’entreprise qui cherche à développer la technologie, en suivant une série de cinq étapes correspondant à cette hiérarchie.  Les résultats de cette recherche démontrent qu’il est possible d’anticiper le succès commercial de technologies mobiles en amont des activités de recherche et développement nécessaires à leur conception. La contribution de cette communication demeure la mise à disposition d’une méthode de prédiction de succès pouvant faciliter la sélection et le financement de projets de développement de technologies mobiles.

Le designer d’interaction conçoit des produits et services numériques aux visées habituellement prospectives et novatrices. Ainsi, dans sa démarche de design, il n’est pas rare que le designer d’interaction investisse considérablement de temps et d’efforts à l’élaboration d’un concept original, activité privilégiée de la créativité et de l’idéation en design (ROOZENBURG et EEKELS 1995). Mais la conceptualisation se révèle souvent beaucoup plus ardue qu’escomptée, et force est d’admettre que plusieurs défis et écueils menacent sa réussite, réussite pourtant cruciale au succès global de l’entreprise du designer (WANG et collab. 2002). En fait, la conceptualisation, ses défis et ses écueils font partie des aspects de la démarche de design que, encore aujourd’hui, nous ne comprenons que très peu (MacMILLAN et collab. 2001).

Dans cette communication, nous présenterons les résultats d’un projet de recherche dans le cadre duquel nous avons observé la démarche de conceptualisation de 20 designers d’interaction sur une période de 15 semaines. Pendant toute la durée du projet, différents instruments de collecte de données (journaux de bord, questionnaires, etc.) ont été déployés afin de suivre la trace de l’évolution des concepts et d’obtenir des indices révélateurs des défis et des écueils rencontrés par les designers. L’analyse des données récoltées devrait permettre de cibler les défis de la conceptualisation et d’identifier ses écueils (typologie, classement, etc.).

L’audit de contenu est une méthode d’évaluation du contenu d’un site Web ou d’un écosystème informationnel plus vaste (C. Jones 2010; Land 2014; B. Martin & Hanington 2012).  Rares sont les travaux de recherche étudiant cette méthode. L’audit de contenu se voit toutefois abondamment décrit et commenté dans une foule d’écrits. Ces publications, qui découlent en grande majorité de l’externalisation de la pratique professionnelle de leurs auteurs, constituent un riche terreau pour entamer une réflexion plus vaste. C’est ce qui nous a amené à examiner plus en profondeur un corpus de 200 écrits abordant l’audit de contenu (ouvrages, publications Web, articles).


Dans le cadre de cette présentation, nous nous penchons plus particulièrement sur le protocole de conduite de l’audit de contenu. Dans un premier temps, nous présentons et examinons les protocoles identifiés dans notre corpus. Cette analyse fournit l’assise nécessaire pour proposer, dans un second temps, un protocole d’audit de contenu enrichi, tenant compte des forces et des faiblesses soulevées précédemment. Cette étude vise non seulement à alimenter la recherche en communication numérique, mais aussi à construire des ponts concrets entre la recherche et la pratique professionnelle.

Le téléphone cellulaire est utilisé à des fins professionnelles depuis de nombreuses années, particulièrement par les gestionnaires seniors au travail. Et cette technologie est de plus en plus employée au travail depuis qu’une panoplie d’applications mobiles a été intégrée aux stratégies d’affaires de l’entreprise. L’adoption individuelle de la technologie a été largement étudiée dans le secteur du travail, mais elle l’a été beaucoup moins à la maison. De ce fait, peu d’études ont été menées jusqu’à présent pour vérifier la satisfaction des gens à la maison de l’utilisation d'un téléphone cellulaire. L’objectif de cette étude est donc de vérifier quels sont les facteurs d’influence de l’utilisation d’un téléphone cellulaire chez les Camerounais. Pour guider l’étude, un modèle de recherche de type « modérateur » a été développé, duquel 8 hypothèses ont été formulées. La méthodologie utilisée pour mener l’étude est le sondage en personne. Plus de 500 Camerounais possédant un téléphone cellulaire ont été choisis aléatoirement dans les deux principales villes du Cameroun pour former l’échantillon. L’analyse des données a été faite à l’aide de la modélisation d’équation structurale avec le logiciel Partial Least Squares (PLS). Les résultats révèlent que la moitié des variables examinées dans l’étude ont montré être des facteurs déterminants de l’usage d’un téléphone cellulaire par les Camerounais. De plus, la plupart des hypothèses de recherche formulées ont été vérifiées.  

Combien y a-t-il de relations internes possibles dans un ensemble à  n  éléments?  Parmi elles, combien sont réflexives? symétriques? transitives?  De combien de façons peuvent être combinées les différentes propriétés?  Le cas  n = 3  sera étudié de façon plus détaillée, avec notamment la présentation synoptique des 104 graphes sagittaux représentatifs des 512 relations.

La formation à distance nécessite l'emploi d'outils informatiques, notamment des systèmes de gestion d'apprentissage (Learning Manage System ou LMS). Les jeux sérieux (jeux vidéo mélangeant aspect pédagogique et aspect ludique) représentent un outil informatique pouvant être utilisé par les enseignants et développé pour leurs besoins précis. Cependant, l'intégration des jeux sérieux aux LMS peut poser des problèmes de compatibilité. De plus, les avancés en intelligence artificielle incitent à prendre en compte un domaine comme l'apprentissage adaptatif (qui consiste à proposer un enseignement personnalisé au niveau du contenu ou des activités), complexifiant les outils informatiques. Au final, nous proposons un jeu sérieux adaptatif dont les résultats du joueur-apprenant peuvent être importés dans un LMS comme Moodle. Un tuteur "intelligent" est intégré au jeu sérieux adaptatif afin de guider le joueur-apprenant.

Dans la dernière décennie, le concept de champ vectoriel combinatoire (ou discrète) introduit par Robin Forman en 1998 est devenu un outil très efficace pour la discrétisation des problèmes continus en mathématiques appliquées, l'imagerie et la visualisation.  Le but de ces recherches est de développer les liens formels entre la théorie classique de Morse et la théorie de Forman dans le contexte de systèmes dynamiques. Donc, dans cette présentation, nous débuterons par faire un résumé sur les fonctions de Morse discrète et par la suite, nous montrerons des exemples sur des champs vectoriels gradient de Morse qui est générer par un programme fait à l’interne. Ensuite, par ce champ vectoriel, nous pouvons construire un champ de vecteurs à valeurs multiples. De plus, on peut construire une application semi-continue supérieurement et de montrer graphiquement le fonctionnement de cette application. D’autre part, nous pouvons étendre ce résultat sur la théorie d’indice de Conley sur les complexes simpliciaux 2D.

Motivés par la mécanique statistique, les problèmes de dénombrement de chemins auto-évitants et de polyominos dans un réseau géométrique régulier sont parmi les problèmes ouverts les plus célèbres en combinatoire. Au cours des vingt dernières années, plusieurs chercheurs se sont intéressés aux classes de polyominos plus résolubles, ayant les propriétés particulières de convexité ou de croissance dirigés, spécialement, sur les réseaux carré et hexagonal.

Le but de ce travail est de développer des nouveaux outils pour résoudre des problèmes de nature combinatoire motivés par la mécanique statistique et la chimie organique. La nécessité de tels développements a été soulignée dans plusieurs rencontres internationales.

Grâce à l'évolution continue de la technologie de télécommunications, l'apprentissage mobile joue un rôle croissant dans le domaine de l'éducation. Cependant, ce nouveau type d'apprentissage affronte nombreux problèmes sociaux, pédagogiques et techniques.

À ce jour, l'apprentissage mobile n'a ni de définition stricte ni de normes bien définies partout le monde. Par conséquent, la technologie mobile n'est pas parfaitement utilisé dans le domaine de l'éducation et les profits prévues qui pourraient être obtenus à partir de l'emploi de cette technologie n'ont pas été encore reconnue. Donc, il y a beaucoup de travail à faire par les chercheurs pour combler l'écart entre la situation actuelle d'apprentissage mobile et ce qui peut être atteint en raison de ses caractéristiques et capacités distinctes.

Notre question de recherche est : «Comment formuler et définir précisément un processus d'apprentissage complet qui est basé principalement sur ​​la technologie mobile et comment définir en manière compréhensible les rôles de toutes les parties impliquées dans ce processus?»

L'objectif principal de notre recherche est de fournir une réponse complète et satisfaisante à la question de recherche mentionnée. Nous suivons la méthodologie CommonKADS pour développer un modèle générique et compréhensible pour l'apprentissage mobile. CommonKADS nous donne la capacité de définir profondément toutes les parties du processus d'apprentissage.

Depuis une quinzaine d’années, le Web s’est imposé comme média privilégié par une variété d’organisations pour transmettre une quantité substantielle d’information à leurs destinataires. La mise en place adéquate de ces imposantes structures informationnelles dépend, entre autres, de spécialistes de l’information et de la communication. Dans la mesure où l’accès à une information particulière constitue l’objectif principal d’une majorité d’activités de recherche sur le Web, ces spécialistes doivent idéalement porter une attention particulière au contenu présenté. Pour ce faire, différentes méthodes visant à mieux appréhender le contenu ont vu le jour depuis quelques années. L’audit de contenu est l’une d’elles.

Cette méthode permet d’identifier, de dénombrer, de décrire et d’évaluer les contenus d’un site en les confrontant à une liste de critères d’analyse. Si l’audit est décrit dans une multitude d’ouvrages et de sites Web professionnels, on constate une certaine hétérogénéité entre ces publications, notamment au regard des critères à inclure. Cette pluralité de discours nous a amenés à examiner plus en profondeur une centaine d’écrits professionnels afin de dresser un inventaire des critères proposés et de les analyser. Cette étude devrait contribuer, selon nous, à améliorer l’efficacité de cette méthode, et ainsi faciliter sa mise en place et sa conduite.

L’intégration de nouveaux logiciels est importante pour améliorer la performance des organisations.  L’appropriation individuelle a été étudiée.  Cependant, l’impact d’une dynamique de groupe sur l’appropriation individuelle a fait l’objet de peu de recherche, d’où la contribution de notre recherche.

Le problème générique de recherche est que des individus ne s’approprient pas les logiciels dans le cadre de leurs activités professionnelles et académiques.  L’objectif est d’évaluer les liens entre la personnalité, l’appropriation et l’environnement d’apprentissage.

Le cadre conceptuel comporte deux principales composantes. (1) Le modèle de l’ennéagramme de la personnalité (Sutton et al., 2013) est utilisé pour mieux comprendre le rôle de la personnalité sur l’appropriation d’un nouveau logiciel. (2) Une échelle d’appropriation (Tsoni, 2012) adaptée est utilisée.  Deux éléments s’ajouteront à l’échelle, l’efficacité et la préférence de l’environnement d’apprentissage.

L’approche méthodologique quantitative comporte un questionnaire en ligne.  La population est une cohorte d’environ 400 étudiants suivant un cours de fondements technologiques des systèmes d’information.  La cueillette de donnée s’effectuera au début de 2016.  Le logiciel choisi est Access parce que très peu d’étudiants l’ont utilisé avant le cours.  Pour l’évaluation de la personnalité, le Halin-Prémont-Enneagram-Indicator sera utilisé.  Lors de la communication, nous présenterons nos résultats préliminaires.

Typiquement, un processus d’affaires s’exécute sur plusieurs heures ou plusieurs jours, implique plusieurs acteurs et comprend plusieurs points d’erreurs. Lors de son exécution, le processus produit des effets qui dépassent le cadre du système d’information de sorte qu’il ne soit pas possible, en cas d’erreur, de les renverser tels que des transactions dans une base de données. Ainsi, nous devons mener des activités qui visent à renverser sémantiquement les effets du processus : c’est ce qui est appelé la compensation.

La tâche d’identification des différents points d’erreurs dans un processus d’affaires et la modélisation des processus de compensation correspondants est une activité complexe, sujette à l’erreur et qui monopolise l’essentiel de l’effort de modélisation. Dans cette tâche, aucune aide n’est fournie aux l’analystes qui, par conséquent, relèguent la compensation aux détails d'implémentation.

Les travaux ayant porté sur la compensation se sont concentrés sur des aspects techniques de coordination et de structures des langages. Nous soutenons que la compensation est avant tout un problème métier et devrait donc être traitée sous cet angle. Nous proposons, dans cette communication, une approche métier visant à assister l’analyste dans l’identification des activités de compensation et dans la modélisation des processus de compensation d’un processus d’affaires en nous basant sur une analyse métier des processus encadrée par l’ontologie d’affaires​​ REA.

Informatiser l’un des processus d’une entreprise est monnaie courante afin de lui permettre de se surpasser dans ses compétences clés. Cependant, lorsque l’on vise à l’automatiser et que celui-ci comporte des particularités propres à chaque client, cela représente tout un défi. Tel est le cas de S3R, une entreprise qui innove en offrant au Québec un service unique de développement, d’implantation et de suivi de solutions qui permettent à ses clients de réaliser des profits à travers une meilleure gestion de leurs déchets et matières recyclables. Notre recherche a d’abord consisté à standardiser, puis à automatiser une partie du processus de génération des dossiers d’observations et de recommandations fournis par S3R à sa clientèle. Une modernisation des techniques de traitement notamment par une base de données s’est avérée nécessaire. Ce projet a été effectué à travers trois points essentiels.

- L'élaboration d'un modèle de rapports des traitements unifié pour la clientèle de l'entreprise.

- L’exploitation des avantages du Cloud comme la possibilité d’accès et de consultation, quel que soit la localisation.

 - L’informatisation des procédures en rejetant l’utilisation des formulaires papier au profit des nouveaux outils de traitement des données.

Nos objectifs sont de réduire les temps requis au traitement des dossiers et ainsi libérer les ressources hautement qualifiées pour les opérations clés de l’entreprise, ayant un effet immédiat sur les profits engendrés.

Lors du tir d’une cartouche, les mécanismes de l’arme à feu laissent des marques sur la balle et la douille. Ces marques peuvent être des caractéristiques de classe, qui sont communes aux armes à feu d’une même famille; ou des caractéristiques individuelles, qui sont théoriquement uniques et permettent de relier un spécimen à une arme à feu précise. Lorsque des douilles sont retrouvées sur une scène de crime, leurs marques sont analysées dans un laboratoire. Actuellement, avant de comparer les caractéristiques individuelles pour proposer des correspondances, un triage manuel est effectué en considérant les caractéristiques de classe afin d’éviter de calculer inutilement les comparaisons avec des spécimens produits par des familles d’armes différentes. 

Quelques études ont tenté d’identifier des marques variées et des défauts sur des surfaces texturées, mais pas sur des douilles. D’autres ont cherché à identifier la famille d’une arme à feu utilisée, à l’aide de l’apprentissage machine traditionnel d’après des caractéristiques prédéterminées et mesurées par un expert. La contribution de ce projet sera d’utiliser l’intelligence artificielle afin de détecter automatiquement les marques de classe sur des images de douilles. Notamment, des techniques de classification multiétiquettes (plus d’un type de marque peut être présent) et de clustering sont envisagées. Cette présentation discute des résultats préliminaires.

À l’heure du Web 2.0, de nouvelles pratiques d’apprentissage se sont développées au sein de la communauté universitaire. Les étudiants adoptent des pratiques d’intégration de leurs activités sociales au sein de leur processus d’apprentissage. Ces derniers s’attendent à avoir accès à une vaste quantité d’information à travers des outils formels ou informels et à faire partie d'une communauté mondiale de pairs. Le besoin de combiner les ressources institutionnelles et personnelles formalise le concept d’environnement personnel d’apprentissage(EPA).Toutefois, l’élaboration de tels environnements nécessite de développer des compétences complexes que les étudiants du supérieur, pourtant décrits comme natifs du numérique, ne possèdent pas nécessairement. Quelques supports de construction d’EPA ont été proposés dans la littérature, mais ces travaux mettent de côté un point important qui est l’interopérabilité des ressources. L’objectif du présent travail est de fournir aux étudiants un support de construction de leur EPA sous forme d’un tableau de bord, qui permettra d’avoir une vision actualisée des ressources et d’exploiter davantage les liens qui en découlent.  La solution proposée est basée sur le concept des systèmes multi-agents. Offrir aux étudiants un support de construction de leur EPA est une façon de leur faciliter la réappropriation individuelle des ressources d’apprentissage provenant de sources variées et une gestion optimale en termes de contenu et de processus.

Le lieu, qu’il soit physique ou numérique, aurait tendance à nous conditionner et orienter nos pratiques. Toutefois, les usages présents dans tout espace social, et que l’on pense préconçus par le système (économique, politique, urbanistique, culturel, etc.) ne sont finalement jamais stabilisés. En effet, le lieu se trouve être lui-même conditionné par diverses variables, telles que la temporalité ou encore l’organisation spatiale, susceptibles d’impacter les pratiques. L’instabilité de ces usages peut donc rendre les observations de tout designer complexes au sein d’un écosystème de services. C’est à cette difficulté que nous souhaitons répondre et pour ce faire nous suivons une méthodologie ethnographique.

Cette méthodologie s’orchestre autour d’observations non participantes au sein de l’aire de restauration d’un centre commercial. Ces observations nous permettent de définir les pratiques des usagers selon les contraintes temporelles et spatiales du lieu, tout en prenant en compte les critères sociodémographiques. Au terme des analyses découlant de ces observations, nous souhaitons aboutir à la mise en œuvre d’un outil méthodologique. Cet outil devrait permettre de faciliter la description du passage de l’humain dans un lieu, et de ce fait, mieux cerner ses usages. Le but de cet outil serait donc de faciliter l’appréhension d’un espace où l’on souhaite améliorer l’accès aux services pour le consommateur et à terme en optimiser les usages réels.

Grâce aux ontologies qui capturent la sémantique d'informations et fournissent une description déclarative concise, la communication, la recherche d'informations, le partage des connaissances et la prise de décision deviennent plus efficaces. La médecine est parmi les domaines qui s’intéressent à la modélisation des connaissances sous forme d'ontologies. Deux stratégies de construction d’ontologies peuvent être envisagées : la construction ex nihilo et / ou la réutilisation des ressources existantes comme UMLS. La réutilisation constitue un point central de l'ingénierie des ontologies soulevant des questions concernant les ambigüités, les inconsistances et les hétérogénéités. Nous travaillons sur une ontologie de domaine de diagnostic de la pneumonie. Pour ce faire, nous utilisons un corpus de textes des guides de bonnes pratiques cliniques (cochrane et autres) et nous réutilisons d'autres ontologies biomédicales issues d'OBO Foundry et de Bioportal. Cette réutilisation peut être complète, c'est le cas de l'ontologie générique BFO et de domaine OGMS. Elle peut être partielle comme  SYMP pour les symptômes, NCBITAXON pour les pathogènes, SNOMED pour les types de pneumonie et RO pour les relations entre les concepts. Notre ontologie qui contient 743 classes, 29  relations  et 1929 instances est soumise à une évaluation. La réutilisation des ontologies permet d'éviter des confusions et des inconsistances qui peuvent être générées par plusieurs représentations du même domaine.

 

De nos jours, l’émergence des logiciels libres, plus connus sous le vocable de logiciels open source, a radicalement changé le paysage de l’industrie des logiciels. Pour des raisons diverses (d’ordre social, technique, économique, etc.), les logiciels open source sont de plus en plus utilisés dans les organisations publiques et privées. Toutefois, l’adoption des logiciels libres tarde à se faire auprès des institutions académiques. Les institutions académiques ont des raisons pratiques et pédagogiques à s’intéresser aux logiciels open source. Vu les contraintes budgétaires notamment le coût annuel alloué aux frais d’acquisition et des licences de logiciels, les logiciels open source sont devenus une alternative viable. Cette recherche explore les différents facteurs clés de l’adoption des logiciels libres dans les universités québécoises auprès du corps professoral et des étudiants. Par le biais d’une recherche qualitative, plusieurs entrevues ont été faites après de deux groupes d’acteurs universitaires (professeurs et étudiants). Nous avons utilisé le cadre théorique TOE, élaboré par Tornatzky et Fleischer, comme fondement théorique pour catégoriser les différents facteurs clés de l’adoption des logiciels open source dans le milieu universitaire québécois. Les résultats préliminaires de cette recherche montrent que plusieurs facteurs technologiques, organisationnels et environnementaux impactent sur la diffusion des logiciels libres auprès des universités québécoises.

Les estimateurs de 2e ordre permettent de localiser des sources rayonnantes avec un réseau d'antennes ou de capteurs; le pouvoir séparateur obtenu est dit à haute résolution. Les méthodes du maximum de vraisemblance (MLM ou Capon), celles de MUSIC ou ESPRIT sont parmi les plus connues. Elles utilisent la matrice de covariance des signaux reçus et supposent un modèle de propagation connu, utilisé pour récupérer l'information désirée. Avec des ondes électromagnétiques, le média de propagation est considéré sans problème comme étant isotrope et homogène. Le front d'onde émis par une source et incident sur le réseau de capteurs est soit  plan ou sphérique selon la distance de la source, mais surtout non-distordu. Il n'en est pas ainsi avec les ondes sonores, particulièrement à l'extérieur avec vent et changement de pression. Un algorithme basé sur le propagateur Qu, a été modifié pour récupérer les fronts d'onde distordus de sources acoustiques. L'algorithme démarre en supposant un modèle sans distorsion et par itérations successives, converge vers une solution procurant une projection la plus faible possible entre le front d'onde récupéré et le sous-espace bruit. Un réseau de 16 capteurs acoustiques a été réalisé pour valider les résultats de simulation. Des mesures expérimentales faites à l'extérieur montrent clairement la présence d'une distorsion importante. Cette distorsion fluctue assez rapidement ce qui limite le nombre d'épreuves pour construire la matrice de covariance.

La téléphonie mobile en Afrique facilite le développement de plusieurs domaines. Le secteur financier bénéficie le plus des applications du mobile pour résoudre le problème de non bancarisation. Le m-banking implique du risque et une incertitude au sein des utilisateurs en Afrique où une grande partie de la population n'a pas d'expérience ni de compétence avec l'usage du m-banking. Il est important aux fournisseurs du m-banking de bâtir la confiance au sein des utilisateurs. Par contre, les études sur le développement de la confiance en e-commerce proviennent principalement du contexte Européen/Nord-Américain. Il est incertain si ces résultats sont généralisables aux utilisateurs de m-banking dans les pays en développement. D’où notre question de recherche : «Quel rôle joue la confiance dans l’adoption et l’usage du m-banking dans le contexte africain?». Une méthodologie qualitative a été choisie pour cette étude. Des entrevues réalisées au sein des fournisseurs du m-banking au Burundi nous ont permis de comprendre les défis du m-banking et identifier des stratégies efficaces afin d’en promouvoir l’adoption. Nous croyons que plusieurs de nos observations et conclusions ont des implications importantes et directes aux secteurs bancaires dans d'autres pays en développement sur d’autres continents, eux aussi, aux prises avec des contraintes sociales, culturelles et technologiques semblables (grande population vivant en zones rurales, illettrisme, manque d’infrastructure, etc.)