Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Dans le présent article l’intérêt de notre travail de recherche porte sur la compréhension des phénomènes mis en jeu dans la formation et l’oxydation des polluants dans une flamme Propane/Air de diffusion laminaire et turbulente soumise à un champ électrique. En effet, de nouvelles technologies pour assister la combustion connaissent un véritable essor : c’est l’utilisation de systèmes de contrôle actif comme : le champ électrique, le champ magnétique, le champ électromagnétique et/ou une excitation acoustique. Plusieurs études et travaux sur les plasmas froids appliqués aux flammes ont démontré des effets intéressants sur la réactivité chimique des radicaux et des espèces formées au sein du plasma pour transformer (oxyder) les molécules polluantes en molécules inoffensives. Grâce à l’application d’un champ électrique, les collisions ioniques et électroniques avec des molécules de gaz neutres influencent la forme de la flamme, l'intensité de combustion, les émissions de particules, la formation de suie et le taux de production d'ions. Des résultats très intéressants ont été obtenus sur notre montage expérimental lorsqu'un champ électrique a été généré.



Introduction : Touchant environ 4% de la population, l'anévrisme de l'aorte abdominale (AAA) est une dilatation localisée de l'aorte abdominale, souvent asymptomatique. En cas de rupture, la mortalité et la morbidité peuvent atteindre 80%, soit la 15e cause de mortalité aux USA. L'utilisation du couplage entre la mécanique des fluides et les données cliniques de suivi morphologique permettra une meilleure compréhension des mécanismes de croissance en jeu dans l’aorte et vise à définir des nouveaux critères pour l'aide à la planification interventionnelle personnalisée.
Méthodes : (i) extraction des AAAs de suivi (ii) Calcul de l’écoulement par volumes finis (validé par IRM) (iii) Extraction des Structures Lagrangiennes Cohérentes (SLC) de l'écoulement pour quantifier la topologie du transport dynamique.
Résultats : l'IRM a permis de valider la topologie de l'écoulement ainsi que le choix des conditions limites. Le transport, donnée complexe à visualiser et quantifier dans un écoulement instationnaire, est observé via les SLC elliptiques. Celles-ci forment des domaine fermés présentant peu de déformation au cours du temps.
Discussion : Si les relations entre croissance locale et écoulement sont établies dans les AAAs, les composantes de celui-ci ayant un rôle sont encore méconnus. Notre étude vise à les extraire et quantifier leur impact par des méthodes numériques innovantes.

Image: évolution des zones de stagnation du sang dans un AAA en 2006, 2009 et 2012.

Grâce aux ontologies qui capturent la sémantique d'informations et fournissent une description déclarative concise, la communication, la recherche d'informations, le partage des connaissances et la prise de décision deviennent plus efficaces. La médecine est parmi les domaines qui s’intéressent à la modélisation des connaissances sous forme d'ontologies. Deux stratégies de construction d’ontologies peuvent être envisagées : la construction ex nihilo et / ou la réutilisation des ressources existantes comme UMLS. La réutilisation constitue un point central de l'ingénierie des ontologies soulevant des questions concernant les ambigüités, les inconsistances et les hétérogénéités. Nous travaillons sur une ontologie de domaine de diagnostic de la pneumonie. Pour ce faire, nous utilisons un corpus de textes des guides de bonnes pratiques cliniques (cochrane et autres) et nous réutilisons d'autres ontologies biomédicales issues d'OBO Foundry et de Bioportal. Cette réutilisation peut être complète, c'est le cas de l'ontologie générique BFO et de domaine OGMS. Elle peut être partielle comme  SYMP pour les symptômes, NCBITAXON pour les pathogènes, SNOMED pour les types de pneumonie et RO pour les relations entre les concepts. Notre ontologie qui contient 743 classes, 29  relations  et 1929 instances est soumise à une évaluation. La réutilisation des ontologies permet d'éviter des confusions et des inconsistances qui peuvent être générées par plusieurs représentations du même domaine.

 

Typiquement, un processus d’affaires s’exécute sur plusieurs heures ou plusieurs jours, implique plusieurs acteurs et comprend plusieurs points d’erreurs. Lors de son exécution, le processus produit des effets qui dépassent le cadre du système d’information de sorte qu’il ne soit pas possible, en cas d’erreur, de les renverser tels que des transactions dans une base de données. Ainsi, nous devons mener des activités qui visent à renverser sémantiquement les effets du processus : c’est ce qui est appelé la compensation.

La tâche d’identification des différents points d’erreurs dans un processus d’affaires et la modélisation des processus de compensation correspondants est une activité complexe, sujette à l’erreur et qui monopolise l’essentiel de l’effort de modélisation. Dans cette tâche, aucune aide n’est fournie aux l’analystes qui, par conséquent, relèguent la compensation aux détails d'implémentation.

Les travaux ayant porté sur la compensation se sont concentrés sur des aspects techniques de coordination et de structures des langages. Nous soutenons que la compensation est avant tout un problème métier et devrait donc être traitée sous cet angle. Nous proposons, dans cette communication, une approche métier visant à assister l’analyste dans l’identification des activités de compensation et dans la modélisation des processus de compensation d’un processus d’affaires en nous basant sur une analyse métier des processus encadrée par l’ontologie d’affaires​​ REA.



Il arrive fréquemment que des technologies, ayant fait leur preuve techniquement, ne réussissent pas à conquérir les marchés, se faisant même surclasser par des innovations moins performantes. La question qui se pose alors est de savoir quels sont les facteurs déterminants du succès commercial d’un produit d’innovation technologique. Plusieurs chercheurs se sont penchés sur cette question, sans toutefois parvenir à prédire à coup sûr le succès commercial des innovations, particulièrement dans le domaine émergent des technologies mobiles. L’objectif de cette communication est de proposer un modèle permettant non seulement de prédire le succès et les échecs des technologies mobiles mais aussi d’orienter la conception de celles-ci afin qu’elles puissent réussir leur introduction dans les marchés visés. La méthodologie adoptée pour y parvenir consiste à mettre en œuvre une hiérarchie de facteurs liés au contexte socio-économique et organisationnel de l’entreprise qui cherche à développer la technologie, en suivant une série de cinq étapes correspondant à cette hiérarchie.  Les résultats de cette recherche démontrent qu’il est possible d’anticiper le succès commercial de technologies mobiles en amont des activités de recherche et développement nécessaires à leur conception. La contribution de cette communication demeure la mise à disposition d’une méthode de prédiction de succès pouvant faciliter la sélection et le financement de projets de développement de technologies mobiles.

Informatiser l’un des processus d’une entreprise est monnaie courante afin de lui permettre de se surpasser dans ses compétences clés. Cependant, lorsque l’on vise à l’automatiser et que celui-ci comporte des particularités propres à chaque client, cela représente tout un défi. Tel est le cas de S3R, une entreprise qui innove en offrant au Québec un service unique de développement, d’implantation et de suivi de solutions qui permettent à ses clients de réaliser des profits à travers une meilleure gestion de leurs déchets et matières recyclables. Notre recherche a d’abord consisté à standardiser, puis à automatiser une partie du processus de génération des dossiers d’observations et de recommandations fournis par S3R à sa clientèle. Une modernisation des techniques de traitement notamment par une base de données s’est avérée nécessaire. Ce projet a été effectué à travers trois points essentiels.

- L'élaboration d'un modèle de rapports des traitements unifié pour la clientèle de l'entreprise.

- L’exploitation des avantages du Cloud comme la possibilité d’accès et de consultation, quel que soit la localisation.

 - L’informatisation des procédures en rejetant l’utilisation des formulaires papier au profit des nouveaux outils de traitement des données.

Nos objectifs sont de réduire les temps requis au traitement des dossiers et ainsi libérer les ressources hautement qualifiées pour les opérations clés de l’entreprise, ayant un effet immédiat sur les profits engendrés.

À l’heure du Web 2.0, de nouvelles pratiques d’apprentissage se sont développées au sein de la communauté universitaire. Les étudiants adoptent des pratiques d’intégration de leurs activités sociales au sein de leur processus d’apprentissage. Ces derniers s’attendent à avoir accès à une vaste quantité d’information à travers des outils formels ou informels et à faire partie d'une communauté mondiale de pairs. Le besoin de combiner les ressources institutionnelles et personnelles formalise le concept d’environnement personnel d’apprentissage(EPA).Toutefois, l’élaboration de tels environnements nécessite de développer des compétences complexes que les étudiants du supérieur, pourtant décrits comme natifs du numérique, ne possèdent pas nécessairement. Quelques supports de construction d’EPA ont été proposés dans la littérature, mais ces travaux mettent de côté un point important qui est l’interopérabilité des ressources. L’objectif du présent travail est de fournir aux étudiants un support de construction de leur EPA sous forme d’un tableau de bord, qui permettra d’avoir une vision actualisée des ressources et d’exploiter davantage les liens qui en découlent.  La solution proposée est basée sur le concept des systèmes multi-agents. Offrir aux étudiants un support de construction de leur EPA est une façon de leur faciliter la réappropriation individuelle des ressources d’apprentissage provenant de sources variées et une gestion optimale en termes de contenu et de processus.

Le développement d’un modèle pharmacophore se fait généralement à partir d’un ensemble de composés biologiquement actifs pour une cible pharmaceutique donnée. Cette hypothèse pharmacophore doit ensuite être optimisée et validée par la qualité et la quantité de nouvelles molécules biologiquement actives trouvées à partir de recherches dans des banques de données de molécules ayant des propriétés pharmaceutiques. En 1998, Güner & Henry ont publié un chapitre de livre sur une nouvelle formule pour optimiser les hypothèses pharmacophores : le GH score. Cette dernière a été utilisée depuis plusieurs années pour évaluer la qualité de ces recherches dans les banques de données. Toutefois cette formule présente certaines limites, car elle ne prend pas en considération les composées inactifs connus. Dans cette présentation, nous proposons donc une formule optimisée : le score AE. Pour ce faire, nous avons ajouté un nouveau facteur qui permet d’évaluer la proportion de composés inactifs connus. Nous avons ensuite appliqué des coefficients à chaque facteur de cette formule soit le rendement, le pourcentage d’actifs et le pourcentage d’inactifs. Les meilleures listes de composés sont trouvées par l’optimisation de ces trois facteurs. Ces coefficients ont été testés sur les résultats de différentes recherches puisés dans la littérature. Nous aurons l’occasion de justifier les paramètres de cette nouvelle formule (ci-dessous) lors de cette présentation.

Le lieu, qu’il soit physique ou numérique, aurait tendance à nous conditionner et orienter nos pratiques. Toutefois, les usages présents dans tout espace social, et que l’on pense préconçus par le système (économique, politique, urbanistique, culturel, etc.) ne sont finalement jamais stabilisés. En effet, le lieu se trouve être lui-même conditionné par diverses variables, telles que la temporalité ou encore l’organisation spatiale, susceptibles d’impacter les pratiques. L’instabilité de ces usages peut donc rendre les observations de tout designer complexes au sein d’un écosystème de services. C’est à cette difficulté que nous souhaitons répondre et pour ce faire nous suivons une méthodologie ethnographique.

Cette méthodologie s’orchestre autour d’observations non participantes au sein de l’aire de restauration d’un centre commercial. Ces observations nous permettent de définir les pratiques des usagers selon les contraintes temporelles et spatiales du lieu, tout en prenant en compte les critères sociodémographiques. Au terme des analyses découlant de ces observations, nous souhaitons aboutir à la mise en œuvre d’un outil méthodologique. Cet outil devrait permettre de faciliter la description du passage de l’humain dans un lieu, et de ce fait, mieux cerner ses usages. Le but de cet outil serait donc de faciliter l’appréhension d’un espace où l’on souhaite améliorer l’accès aux services pour le consommateur et à terme en optimiser les usages réels.

Le résultat d’un programme d’apprentissage automatique dépend beaucoup de la qualité et de la quantité des exemples qui lui ont été présentés. L’ensemble des exemples pour lesquels le résultat attendu du programme est connu et validé par des humains est appelé un corpus de référence (Gold Standard). Sa construction peut être difficile et coûteuse en temps de travail. Dans le but de faciliter celle-ci, nous avons conçu une plateforme web à code source ouvert nommée annotator, qui est un outil d’annotation sémantique de texte. Cet outil permettra aux experts de divers domaines d’annoter des documents via une interface conviviale et de modifier des annotations produites par d’autres outils. Le fonctionnement d’annotator est basé sur l'outil brat. Ses fonctionnalités incluent la création et la suppression d'annotations, ainsi que la gestion d'annotateurs par projet. Tout projet sur la plateforme est considéré comme un corpus qui possède des propriétés (types d’entité, types de relation entre entités). Le département de pédiatrie d’un hôpital universitaire pourrait alors créer un corpus comportant les notes médicales de ses patients, les annoter avec un outil de type cTAKES et corriger d’éventuelles erreurs avec annotator. À l’avenir, notre application pourrait alors comparer les annotations de différents experts et aider le chef de projet à choisir l’annotation la plus pertinente.

Les TIC se voient attribuer un rôle de levier dans le développement des territoires, non seulement par ses usages dans les secteurs d’activité ayant caractéristique « intérêts publics », mais aussi par son potentiel d’accélérateur du développement économique. Cette constatation interpelle les décideurs politiques qui font face à plusieurs options. Le but de cette communication est d’identifier et d’analyser les politiques canadiennes visant l’accès des TIC aux collectivités locales. Nous nous concentrerons particulièrement sur celles qui visent à donner les moyens aux groupes défavorisés de se connecter aux réseaux numériques et de réduire la fracture numérique. Quels sont les dispositifs politiques mis en œuvre pour permettre aux communautés exclues de s’adapter aux nouveaux enjeux soulevés par la généralisation des usages des TIC ? Nous procédons à une analyse historique et évolutive, sur la période allant entre l’émergence de politiques publiques jusqu’à l’année 2011. Le thème numérique reste l’un des objectifs les plus importants des gouvernements fédéral et provincial, mais avec un penchant en faveur des dimensions économiques. Les gouvernements sont conscients des écarts entre les territoires connectés et ceux qui ne le sont pas et cherchent à combler cette disparité. Cependant, les méthodes adoptées ne parviennent toujours pas à améliorer la situation de l’infopauvreté à laquelle fait face une partie importante de la population.

 



Grâce à l'évolution continue de la technologie de télécommunications, l'apprentissage mobile joue un rôle croissant dans le domaine de l'éducation. Cependant, ce nouveau type d'apprentissage affronte nombreux problèmes sociaux, pédagogiques et techniques.

À ce jour, l'apprentissage mobile n'a ni de définition stricte ni de normes bien définies partout le monde. Par conséquent, la technologie mobile n'est pas parfaitement utilisé dans le domaine de l'éducation et les profits prévues qui pourraient être obtenus à partir de l'emploi de cette technologie n'ont pas été encore reconnue. Donc, il y a beaucoup de travail à faire par les chercheurs pour combler l'écart entre la situation actuelle d'apprentissage mobile et ce qui peut être atteint en raison de ses caractéristiques et capacités distinctes.

Notre question de recherche est : «Comment formuler et définir précisément un processus d'apprentissage complet qui est basé principalement sur ​​la technologie mobile et comment définir en manière compréhensible les rôles de toutes les parties impliquées dans ce processus?»

L'objectif principal de notre recherche est de fournir une réponse complète et satisfaisante à la question de recherche mentionnée. Nous suivons la méthodologie CommonKADS pour développer un modèle générique et compréhensible pour l'apprentissage mobile. CommonKADS nous donne la capacité de définir profondément toutes les parties du processus d'apprentissage.

L’informatique décisionnelle représente de nos jours une source vitale aux succès des entreprises, petite, moyenne ou grande. Le but de cette recherche est d'évaluer les tableaux de bord potentiels et de concevoir par la suite la meilleure solution informatique adaptée à l'environnement de l'entreprise S3R. Celle-ci est spécialisée dans l'offre de solutions de gestion des déchets pour ses clients. La société détient actuellement une application liée à une base de données hébergée dans le Cloud, lui permettant d’automatiser une partie de son processus opérationnel. L’utilisation d’un outil décisionnel tel que les tableaux de bords devient cruciale pour l’entreprise afin de mieux atteindre ses objectifs stratégiques. Cela lui permettra de mieux cibler sa clientèle et viser le secteur d’activité où il existe plus de potentiel. Cette recherche se concentre ainsi sur le développement des tableaux de bords les mieux adaptés aux fonctions de l’entreprise, afin d’apporter une meilleure prise de décision et une optimisation de service à long terme. Dans ce contexte, trois catégories de tableaux de bord sont soulevés : marketing, stratégie de l’entreprise et clientèle. Le développement des tableaux de bords est fait sur Excel, leur fournissant des graphes et des figures qui démontrent leurs activités concernant les trois catégories. L'identification des principaux indicateurs et de mesures a été effectuée suivant une approche spécifique dans ce contexte.

EC3 est un projet avancé et testé : veille, cybersécurité,  très grandes bibliothèques. EC3 est une nouvelle version de la méthode d'Exploration Contextuelle afin d'extraire des informations pertinentes à partir de parties textuelles hétérogènes du Web Sémantique ou de grandes bases de données documentaires. Il fournit un environnement plus général pour l'extraction d'informations à partir de textes en utilisant cette méthode originale. EC3 n'a pas besoin d'analyse syntaxique, d'analyse statistique ni d'ontologie générale. Mais EC3 n'utilise que de petites ontologies appelées «Ontologies Linguistiques» qui expriment les connaissances linguistiques d'un utilisateur qui doit trouver des informations pertinentes. EC3 fonctionne très vite sur de gros corpus ( «partie de discours» : des SMS aux livres). EC3 propose une représentation visuelle de sous forme de graphes de nœuds (Entités Nommées) liés par des relations sémantiques (en fonction du point de vue). Nous représentons le graphique à l'utilisateur sur un écran d'ordinateur en utilisant une approche originale: "Memory Islands". Une nouvelle application du projet à fort potentiel est actuellement envisagée, dans le domaine juridique. Les avocats, magistrats, syndicats notamment utilisent les bases de données textuelles de la jurisprudence. Cependant, avec les nouvelles lois françaises et européennes, il est urgent de mettre à jour l'indexation de la jurisprudence.

En résumé, l’électronique imprimable (EI) est une technologie de pointe qui permet la fabrication de dispositifs électroniques personnalisés à moindre coût. Aujourd’hui, la qualité de ces dispositifs est évaluée manuellement. Cette limitation ralentit sévèrement le procédé de fabrication industrielle et par le fait même, en diminue sa valeur ajoutée. Par conséquent, le développement d’une technique de caractérisation en ligne, idéalement sans contact, est essentiel pour contrôler la qualité des motifs imprimés. Dans le cadre de cette recherche, nous évaluons une nouvelle méthode de caractérisation de la variabilité de la conductivité de l’encre imprimée avec l’utilisation d’ondes de fréquence térahertz (THz). La spectroscopie THz est une technique de mesure sans contact, non-destructive, et de haute résolution spatiale capable de mesurer les propriétés conductrices des matériaux. Pour obtenir une sensibilité accrue aux fréquences THz, des résonateurs (métamatériaux) sont fabriqués avec les mêmes paramètres d’impression qu’une structure imprimée (Figure 1a). Les résultats de nos travaux démontrent que l’utilisation d’ondes THz est plus sensible aux variations de conductivités vis-à-vis des méthodes classiques, telles que les mesures à quatre pointes ou par multimètre standard (Figure 1b). Finalement, nos résultats ouvrent la porte à une stratégie simple pour l’évaluation non destructive, sans contact et in situ de la production des dispositifs de l’EI.

 

Au fil des années, des stratégies en intelligence d’affaires ont permis aux entreprises d’emmagasiner leurs données dans des entrepôts de données, transformer ces données en information et les rendre disponibles pour fins de consommation via les comptoirs de données. L’usine du savoir servira d’infrastructure de la gestion des connaissances de l’entreprise en emmagasinant, transformant, canalisant et produisant des connaissances en temps opportun d’une manière transversale favorisant la réutilisation du savoir de l'entreprise.

L’intégration des données, informations et des connaissances de l’entreprise demeure un secteur très actif de la recherche scientifique. Les entreprises éprouvent d’importants problèmes à implémenter des méthodes et l’infrastructure requise afin de pouvoir permettre les échanges entre les systèmes de l’entreprise. Le protocole de recherche qualitatif de ce projet comprend un ensemble d’entrevues de semi-structurées en vue d’induire des patrons de solutions sémantiques provenant des connaissances et du savoir-faire de praticiens chevronnés intervenant dans l’industrie et, de chercheurs du milieu universitaire. Ce projet permet d’allier les forces particulières, à la fois, des milieux académiques et de l’industrie. Les résultats de la recherche qui seront présentés comporteront le modèle de référence, les fonctions du modèle ainsi que des cas d’usage qui aideront l’auditoire à comprendre le fonctionnement du modèle ainsi que son utilité.  

De nos jours, l’émergence des logiciels libres, plus connus sous le vocable de logiciels open source, a radicalement changé le paysage de l’industrie des logiciels. Pour des raisons diverses (d’ordre social, technique, économique, etc.), les logiciels open source sont de plus en plus utilisés dans les organisations publiques et privées. Toutefois, l’adoption des logiciels libres tarde à se faire auprès des institutions académiques. Les institutions académiques ont des raisons pratiques et pédagogiques à s’intéresser aux logiciels open source. Vu les contraintes budgétaires notamment le coût annuel alloué aux frais d’acquisition et des licences de logiciels, les logiciels open source sont devenus une alternative viable. Cette recherche explore les différents facteurs clés de l’adoption des logiciels libres dans les universités québécoises auprès du corps professoral et des étudiants. Par le biais d’une recherche qualitative, plusieurs entrevues ont été faites après de deux groupes d’acteurs universitaires (professeurs et étudiants). Nous avons utilisé le cadre théorique TOE, élaboré par Tornatzky et Fleischer, comme fondement théorique pour catégoriser les différents facteurs clés de l’adoption des logiciels open source dans le milieu universitaire québécois. Les résultats préliminaires de cette recherche montrent que plusieurs facteurs technologiques, organisationnels et environnementaux impactent sur la diffusion des logiciels libres auprès des universités québécoises.

De plus en plus d’êtres humains sont connectés entre eux depuis la démocratisation d’Internet et l’avènement des médias sociaux, entraînant l’augmentation du stockage des données personnelles des usagers. Ces données ont pour caractéristiques d’être massives, générées en temps réel, et sont non structurées (messages publiés sur Twitter, recherches effectuées à travers Google, applications mobiles...). L’objectif de notre recherche est de proposer une méthodologie robuste issue de l’industrie financière afin d’extraire l’information pertinente de ces données, l’industrie financière étant une industrie adaptée au traitement massif de données en temps réel.

La méthodologie employée se fonde sur les travaux initiés par Sharpe (1964) avec l’utilisation du Modèle d’évaluation des actifs financiers (MÉDAF). Ces modèles permettent de quantifier un actif en fonction de sa croissance et de sa volatilité.

En termes de résultats, l’utilisation de ce cadre d’analyse permet de quantifier l’évolution du niveau de risque perçu par la population québécoise à partir des données mises en ligne sur Twitter. 9 catégories de risques peuvent être ainsi évaluées en temps réel.

L’originalité de la recherche réside dans le fait que nous n’utilisons pas les données massives non structurées afin d’ajouter de l’information aux analyses financières ; au contraire, nous utilisons des modèles financiers afin de structurer les données massives pour en extraire l’information pertinente.

Dans un monde où les comportements des robots doivent satisfaire les besoins des utilisateurs, il n'est pas faisable pour les programmeurs de couvrir toutes

les actions possibles qu'un robot doit entreprendre. L'apprentissage par imitation offre une solution facile pour ce problème en permettant à des usagers

sans expertise en programmation d'enseigner les comportements désirés aux robots. 

Notre papier se concentre sur des tâches de navigation que les usagers de fauteuils roulants robotiques espèrent automatiser pour sauver temps et énergie

pour eux-mêmes et leurs soignants. Notre approche requiert seulement une démonstration et une façon d'enregistrer des images et les commandes issues par

l'usager durant l'enseignement. 

Une fois les images obtenues, des Speeded-Up Robust Features (SURF) sont extraites des images et un algorithme K Nearest Neighbours (KNN) s'occupe de

prédire les commandes appropriées en observant des nouvelles images durant l'exécution. 

Face à l'émergence des données massives dans nos systèmes d'analyse (Big data, Open data), les thick data se proposent d'ajouter des éléments de contexte, facilitant ainsi l'interprétation de l'information. À la croisée entre l'analyse des données massives (données qualitatives) et la représentation des données contextuelles (données quantitatives), ma proposition de communication tend à présenter des exemples de projets de système d'information ayant adopté l'approche mixte. J'exposerai également un cas d'étude et une enquête réalisée auprès d'organismes privés qui permettra de saisir le besoin sociétal vis-à-vis du sujet. Ce travail transdisciplinaire s'inscrit dans les champs d'étude suivants : sciences cognitives, science des données, design, économie, sociologie, psychologie, information et communication.

Références : D. Norman, M. Di Penta, M.-A. Storey, A. Moles

L’interface cerveau-machine (ICM) connaît des avancées importantes depuis les dernières années.  Il existe un état de l’art très élaboré sur cet objet.  Cependant, il peut être difficile de se retrouver devant tant d’information.  La contribution de cette communication est qu’elle propose un modèle représentant les usages actuels et éventuels de l’ICM dans les organisations. Le cadre conceptuel de cette recherche s’inscrit dans l’ensemble des écrits scientifiques portant sur l’ICM (Farwell et Donchin, 1988, Faraz et al., 2014, Guger et al., 1999, Vanacker et al., 2007, Do et al., 2013, Yang Chin et al., 2013, Leeb et al, 2014, Li, 2013, Schmorrow et Kruse, 2002, Resalat et Afdideh, 2012, Fuchs et al., 2007, Touryan et al., 2013, Stephens et al., 2010, Skinner et al., 2013, Pais-Vieira et al., 2013, Yoo et al., 2013). L’approche méthodologique est qualitative.  Elle consiste à une analyse de l’état de la connaissance portant sur l’ICM.  Nous avons d’abord créé une matrice puis un modèle représentant la source et la destination des données.  Nos résultats illustrent, dans le cas d’un fauteuil motorisé,  le cerveau comme source et le fauteuil comme destinataire des données.

Jean-Pierre Booto Ekionea, Ph.D. 

Patrick Nsenga, Étudiant M.B.A. 

La performance d’affaires et la stratégie d’affaires constituent le point culminant pour la rationalisation d’une entreprise de financement industriel. Pour atteindre ce point culminant, l’alignement d’un progiciel intégré de gestion a un impact considérable dans le couplage de la performance et de la stratégie d’affaires. Car une entreprise de financement industriel a besoin d’intégrer ses opérations et de développer les capacités de différenciation de ses professionnels afin de répondre efficacement aux multiples exigences d’affaires.

Il est question ici d’étudier l’impact possible qu’un alignement d’un logiciel intégré et les stratégies d’affaires peut avoir sur la performance organisationnelle en termes d’intégration et de différenciation (Lawrence et Lorsh, 1967). Ainsi, le sujet aborde sous forme qualitative la rentabilisation d’une entreprise de financement industriel par l’alignement d’un progiciel intégré aux stratégies d’affaires.

En effet, l’apport des technologies de l’information à la performance d’affaires en termes d’intégration et de différenciation est un sujet qui préoccupe les chercheurs, les professionnels et les gestionnaires au sein des organisations afin d’augmenter l'efficacité commerciale, réduire le cycle temps, diminuer les coûts de production et améliorer le service client (Aremu et al, 2018).

Mots clef : Performance d’affaires, stratégies d’affaires, progiciel intégré.

Les systèmes de détection d’intrusion (IDS), dans les réseaux véhiculaires sans fil (VANETs), sont chargés d’analyser les trafics de paquets entrants et sortants afin d’identifier des signatures malicieuses. Cependant, sans prise de décision, ils ne sont d’aucune utilité.

Le but de notre travail est de concevoir un protocole de routage d’informations de sécurité pour les VANETs. Notre étude se base sur deux approches d’IDS. Dans la première, les IDS sont installés sur les véhicules, alors que dans la seconde, ils sont installés sur les infrastructures routières (RSU). Dans les deux approches, les véhicules sont regroupés en fonction de leurs vitesses. Si un véhicule souhaite communiquer, il doit faire partie d’un cluster et doit connaître la tête du cluster. Dans le cas contraire, l’algorithme de clusterisation s’initialise et l’élection de la tête du cluster s’amorce. Ce dernier a la charge de transmettre les paquets à l’interne du cluster, vers les clusters voisins et vers le RSU. Quand un IDS détecte une attaque, l’information et le type d’attaque utilisé seront diffusés aux clusters voisins. Quand l'un de ces derniers reçoit l’information, il met en place une politique de sécurité (exemple: ajustement des valeurs de confiance des nouveaux véhicules dans le cluster). Le protocole s’amorce si l’attaque détectée est corroborée. La corroboration s'appuie sur un modèle probabiliste de calcul de ratio entre les véhicules ayant répondu à la signature de l'attaque.



La culture individuelle est un concept clé pour le management des TI.Il serait donc déterminant de mettre à la disponibilité des organisations une approche holistique qui permet d'appréhender ce concept en englobant toutes ses caractéristiques. L’objectif de notre communication est de mettre en lumière notre contribution à ce niveau. Nous avons procédé à une étude de la  littérature pour déceler les différents modèles approchant la culture individuelle dans le management des TI. Nous avons par la suite porté un oeil critique sur ces approches pour proposer  un autre modèle qui comble les insuffisances décelées.  

L’approche d’Hostede (1980) appréhende la culture individuelle exclusivement par la culture nationale et considère que la culture est stable.  Karahanna, Evaristo et Srite (2005) conceptualisent la culture individuelle sous forme d’oignon composé de plusieurs niveaux culturels et  ne considèrent pas l’aspect évolutif de la culture individuelle. Walsh et Kefi  (2008) présentent la culture individuelle sous  forme de Toupie qui implique que la culture est un phénomène stratifié composé seulement de valeurs. 

Nous constatons que chaque modèle a des limites. Cependant, notre conceptualisation considère que la culture est une masse homogène qui évoluent en permanence, elle peut être assimilée à une de galaxie, composée par des particules et qui évolue dans l'univers. L'étude du mouvement des galaxies permet de mieux appréhender le comportement de l'individu face aux TI. 

Lors du tir d’une cartouche, les mécanismes de l’arme à feu laissent des marques sur la balle et la douille. Ces marques peuvent être des caractéristiques de classe, qui sont communes aux armes à feu d’une même famille; ou des caractéristiques individuelles, qui sont théoriquement uniques et permettent de relier un spécimen à une arme à feu précise. Lorsque des douilles sont retrouvées sur une scène de crime, leurs marques sont analysées dans un laboratoire. Actuellement, avant de comparer les caractéristiques individuelles pour proposer des correspondances, un triage manuel est effectué en considérant les caractéristiques de classe afin d’éviter de calculer inutilement les comparaisons avec des spécimens produits par des familles d’armes différentes. 

Quelques études ont tenté d’identifier des marques variées et des défauts sur des surfaces texturées, mais pas sur des douilles. D’autres ont cherché à identifier la famille d’une arme à feu utilisée, à l’aide de l’apprentissage machine traditionnel d’après des caractéristiques prédéterminées et mesurées par un expert. La contribution de ce projet sera d’utiliser l’intelligence artificielle afin de détecter automatiquement les marques de classe sur des images de douilles. Notamment, des techniques de classification multiétiquettes (plus d’un type de marque peut être présent) et de clustering sont envisagées. Cette présentation discute des résultats préliminaires.