Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Le téléphone cellulaire est utilisé à des fins professionnelles depuis de nombreuses années, particulièrement par les gestionnaires seniors au travail. Et cette technologie est de plus en plus employée au travail depuis qu’une panoplie d’applications mobiles a été intégrée aux stratégies d’affaires de l’entreprise. L’adoption individuelle de la technologie a été largement étudiée dans le secteur du travail, mais elle l’a été beaucoup moins à la maison. De ce fait, peu d’études ont été menées jusqu’à présent pour vérifier la satisfaction des gens à la maison de l’utilisation d'un téléphone cellulaire. L’objectif de cette étude est donc de vérifier quels sont les facteurs d’influence de l’utilisation d’un téléphone cellulaire chez les Camerounais. Pour guider l’étude, un modèle de recherche de type « modérateur » a été développé, duquel 8 hypothèses ont été formulées. La méthodologie utilisée pour mener l’étude est le sondage en personne. Plus de 500 Camerounais possédant un téléphone cellulaire ont été choisis aléatoirement dans les deux principales villes du Cameroun pour former l’échantillon. L’analyse des données a été faite à l’aide de la modélisation d’équation structurale avec le logiciel Partial Least Squares (PLS). Les résultats révèlent que la moitié des variables examinées dans l’étude ont montré être des facteurs déterminants de l’usage d’un téléphone cellulaire par les Camerounais. De plus, la plupart des hypothèses de recherche formulées ont été vérifiées.  

Combien y a-t-il de relations internes possibles dans un ensemble à  n  éléments?  Parmi elles, combien sont réflexives? symétriques? transitives?  De combien de façons peuvent être combinées les différentes propriétés?  Le cas  n = 3  sera étudié de façon plus détaillée, avec notamment la présentation synoptique des 104 graphes sagittaux représentatifs des 512 relations.

La formation à distance nécessite l'emploi d'outils informatiques, notamment des systèmes de gestion d'apprentissage (Learning Manage System ou LMS). Les jeux sérieux (jeux vidéo mélangeant aspect pédagogique et aspect ludique) représentent un outil informatique pouvant être utilisé par les enseignants et développé pour leurs besoins précis. Cependant, l'intégration des jeux sérieux aux LMS peut poser des problèmes de compatibilité. De plus, les avancés en intelligence artificielle incitent à prendre en compte un domaine comme l'apprentissage adaptatif (qui consiste à proposer un enseignement personnalisé au niveau du contenu ou des activités), complexifiant les outils informatiques. Au final, nous proposons un jeu sérieux adaptatif dont les résultats du joueur-apprenant peuvent être importés dans un LMS comme Moodle. Un tuteur "intelligent" est intégré au jeu sérieux adaptatif afin de guider le joueur-apprenant.

Dans la dernière décennie, le concept de champ vectoriel combinatoire (ou discrète) introduit par Robin Forman en 1998 est devenu un outil très efficace pour la discrétisation des problèmes continus en mathématiques appliquées, l'imagerie et la visualisation.  Le but de ces recherches est de développer les liens formels entre la théorie classique de Morse et la théorie de Forman dans le contexte de systèmes dynamiques. Donc, dans cette présentation, nous débuterons par faire un résumé sur les fonctions de Morse discrète et par la suite, nous montrerons des exemples sur des champs vectoriels gradient de Morse qui est générer par un programme fait à l’interne. Ensuite, par ce champ vectoriel, nous pouvons construire un champ de vecteurs à valeurs multiples. De plus, on peut construire une application semi-continue supérieurement et de montrer graphiquement le fonctionnement de cette application. D’autre part, nous pouvons étendre ce résultat sur la théorie d’indice de Conley sur les complexes simpliciaux 2D.

Motivés par la mécanique statistique, les problèmes de dénombrement de chemins auto-évitants et de polyominos dans un réseau géométrique régulier sont parmi les problèmes ouverts les plus célèbres en combinatoire. Au cours des vingt dernières années, plusieurs chercheurs se sont intéressés aux classes de polyominos plus résolubles, ayant les propriétés particulières de convexité ou de croissance dirigés, spécialement, sur les réseaux carré et hexagonal.

Le but de ce travail est de développer des nouveaux outils pour résoudre des problèmes de nature combinatoire motivés par la mécanique statistique et la chimie organique. La nécessité de tels développements a été soulignée dans plusieurs rencontres internationales.

Grâce à l'évolution continue de la technologie de télécommunications, l'apprentissage mobile joue un rôle croissant dans le domaine de l'éducation. Cependant, ce nouveau type d'apprentissage affronte nombreux problèmes sociaux, pédagogiques et techniques.

À ce jour, l'apprentissage mobile n'a ni de définition stricte ni de normes bien définies partout le monde. Par conséquent, la technologie mobile n'est pas parfaitement utilisé dans le domaine de l'éducation et les profits prévues qui pourraient être obtenus à partir de l'emploi de cette technologie n'ont pas été encore reconnue. Donc, il y a beaucoup de travail à faire par les chercheurs pour combler l'écart entre la situation actuelle d'apprentissage mobile et ce qui peut être atteint en raison de ses caractéristiques et capacités distinctes.

Notre question de recherche est : «Comment formuler et définir précisément un processus d'apprentissage complet qui est basé principalement sur ​​la technologie mobile et comment définir en manière compréhensible les rôles de toutes les parties impliquées dans ce processus?»

L'objectif principal de notre recherche est de fournir une réponse complète et satisfaisante à la question de recherche mentionnée. Nous suivons la méthodologie CommonKADS pour développer un modèle générique et compréhensible pour l'apprentissage mobile. CommonKADS nous donne la capacité de définir profondément toutes les parties du processus d'apprentissage.

Depuis une quinzaine d’années, le Web s’est imposé comme média privilégié par une variété d’organisations pour transmettre une quantité substantielle d’information à leurs destinataires. La mise en place adéquate de ces imposantes structures informationnelles dépend, entre autres, de spécialistes de l’information et de la communication. Dans la mesure où l’accès à une information particulière constitue l’objectif principal d’une majorité d’activités de recherche sur le Web, ces spécialistes doivent idéalement porter une attention particulière au contenu présenté. Pour ce faire, différentes méthodes visant à mieux appréhender le contenu ont vu le jour depuis quelques années. L’audit de contenu est l’une d’elles.

Cette méthode permet d’identifier, de dénombrer, de décrire et d’évaluer les contenus d’un site en les confrontant à une liste de critères d’analyse. Si l’audit est décrit dans une multitude d’ouvrages et de sites Web professionnels, on constate une certaine hétérogénéité entre ces publications, notamment au regard des critères à inclure. Cette pluralité de discours nous a amenés à examiner plus en profondeur une centaine d’écrits professionnels afin de dresser un inventaire des critères proposés et de les analyser. Cette étude devrait contribuer, selon nous, à améliorer l’efficacité de cette méthode, et ainsi faciliter sa mise en place et sa conduite.

L’intégration de nouveaux logiciels est importante pour améliorer la performance des organisations.  L’appropriation individuelle a été étudiée.  Cependant, l’impact d’une dynamique de groupe sur l’appropriation individuelle a fait l’objet de peu de recherche, d’où la contribution de notre recherche.

Le problème générique de recherche est que des individus ne s’approprient pas les logiciels dans le cadre de leurs activités professionnelles et académiques.  L’objectif est d’évaluer les liens entre la personnalité, l’appropriation et l’environnement d’apprentissage.

Le cadre conceptuel comporte deux principales composantes. (1) Le modèle de l’ennéagramme de la personnalité (Sutton et al., 2013) est utilisé pour mieux comprendre le rôle de la personnalité sur l’appropriation d’un nouveau logiciel. (2) Une échelle d’appropriation (Tsoni, 2012) adaptée est utilisée.  Deux éléments s’ajouteront à l’échelle, l’efficacité et la préférence de l’environnement d’apprentissage.

L’approche méthodologique quantitative comporte un questionnaire en ligne.  La population est une cohorte d’environ 400 étudiants suivant un cours de fondements technologiques des systèmes d’information.  La cueillette de donnée s’effectuera au début de 2016.  Le logiciel choisi est Access parce que très peu d’étudiants l’ont utilisé avant le cours.  Pour l’évaluation de la personnalité, le Halin-Prémont-Enneagram-Indicator sera utilisé.  Lors de la communication, nous présenterons nos résultats préliminaires.

Typiquement, un processus d’affaires s’exécute sur plusieurs heures ou plusieurs jours, implique plusieurs acteurs et comprend plusieurs points d’erreurs. Lors de son exécution, le processus produit des effets qui dépassent le cadre du système d’information de sorte qu’il ne soit pas possible, en cas d’erreur, de les renverser tels que des transactions dans une base de données. Ainsi, nous devons mener des activités qui visent à renverser sémantiquement les effets du processus : c’est ce qui est appelé la compensation.

La tâche d’identification des différents points d’erreurs dans un processus d’affaires et la modélisation des processus de compensation correspondants est une activité complexe, sujette à l’erreur et qui monopolise l’essentiel de l’effort de modélisation. Dans cette tâche, aucune aide n’est fournie aux l’analystes qui, par conséquent, relèguent la compensation aux détails d'implémentation.

Les travaux ayant porté sur la compensation se sont concentrés sur des aspects techniques de coordination et de structures des langages. Nous soutenons que la compensation est avant tout un problème métier et devrait donc être traitée sous cet angle. Nous proposons, dans cette communication, une approche métier visant à assister l’analyste dans l’identification des activités de compensation et dans la modélisation des processus de compensation d’un processus d’affaires en nous basant sur une analyse métier des processus encadrée par l’ontologie d’affaires​​ REA.

Informatiser l’un des processus d’une entreprise est monnaie courante afin de lui permettre de se surpasser dans ses compétences clés. Cependant, lorsque l’on vise à l’automatiser et que celui-ci comporte des particularités propres à chaque client, cela représente tout un défi. Tel est le cas de S3R, une entreprise qui innove en offrant au Québec un service unique de développement, d’implantation et de suivi de solutions qui permettent à ses clients de réaliser des profits à travers une meilleure gestion de leurs déchets et matières recyclables. Notre recherche a d’abord consisté à standardiser, puis à automatiser une partie du processus de génération des dossiers d’observations et de recommandations fournis par S3R à sa clientèle. Une modernisation des techniques de traitement notamment par une base de données s’est avérée nécessaire. Ce projet a été effectué à travers trois points essentiels.

- L'élaboration d'un modèle de rapports des traitements unifié pour la clientèle de l'entreprise.

- L’exploitation des avantages du Cloud comme la possibilité d’accès et de consultation, quel que soit la localisation.

 - L’informatisation des procédures en rejetant l’utilisation des formulaires papier au profit des nouveaux outils de traitement des données.

Nos objectifs sont de réduire les temps requis au traitement des dossiers et ainsi libérer les ressources hautement qualifiées pour les opérations clés de l’entreprise, ayant un effet immédiat sur les profits engendrés.

Lors du tir d’une cartouche, les mécanismes de l’arme à feu laissent des marques sur la balle et la douille. Ces marques peuvent être des caractéristiques de classe, qui sont communes aux armes à feu d’une même famille; ou des caractéristiques individuelles, qui sont théoriquement uniques et permettent de relier un spécimen à une arme à feu précise. Lorsque des douilles sont retrouvées sur une scène de crime, leurs marques sont analysées dans un laboratoire. Actuellement, avant de comparer les caractéristiques individuelles pour proposer des correspondances, un triage manuel est effectué en considérant les caractéristiques de classe afin d’éviter de calculer inutilement les comparaisons avec des spécimens produits par des familles d’armes différentes. 

Quelques études ont tenté d’identifier des marques variées et des défauts sur des surfaces texturées, mais pas sur des douilles. D’autres ont cherché à identifier la famille d’une arme à feu utilisée, à l’aide de l’apprentissage machine traditionnel d’après des caractéristiques prédéterminées et mesurées par un expert. La contribution de ce projet sera d’utiliser l’intelligence artificielle afin de détecter automatiquement les marques de classe sur des images de douilles. Notamment, des techniques de classification multiétiquettes (plus d’un type de marque peut être présent) et de clustering sont envisagées. Cette présentation discute des résultats préliminaires.

À l’heure du Web 2.0, de nouvelles pratiques d’apprentissage se sont développées au sein de la communauté universitaire. Les étudiants adoptent des pratiques d’intégration de leurs activités sociales au sein de leur processus d’apprentissage. Ces derniers s’attendent à avoir accès à une vaste quantité d’information à travers des outils formels ou informels et à faire partie d'une communauté mondiale de pairs. Le besoin de combiner les ressources institutionnelles et personnelles formalise le concept d’environnement personnel d’apprentissage(EPA).Toutefois, l’élaboration de tels environnements nécessite de développer des compétences complexes que les étudiants du supérieur, pourtant décrits comme natifs du numérique, ne possèdent pas nécessairement. Quelques supports de construction d’EPA ont été proposés dans la littérature, mais ces travaux mettent de côté un point important qui est l’interopérabilité des ressources. L’objectif du présent travail est de fournir aux étudiants un support de construction de leur EPA sous forme d’un tableau de bord, qui permettra d’avoir une vision actualisée des ressources et d’exploiter davantage les liens qui en découlent.  La solution proposée est basée sur le concept des systèmes multi-agents. Offrir aux étudiants un support de construction de leur EPA est une façon de leur faciliter la réappropriation individuelle des ressources d’apprentissage provenant de sources variées et une gestion optimale en termes de contenu et de processus.

Le lieu, qu’il soit physique ou numérique, aurait tendance à nous conditionner et orienter nos pratiques. Toutefois, les usages présents dans tout espace social, et que l’on pense préconçus par le système (économique, politique, urbanistique, culturel, etc.) ne sont finalement jamais stabilisés. En effet, le lieu se trouve être lui-même conditionné par diverses variables, telles que la temporalité ou encore l’organisation spatiale, susceptibles d’impacter les pratiques. L’instabilité de ces usages peut donc rendre les observations de tout designer complexes au sein d’un écosystème de services. C’est à cette difficulté que nous souhaitons répondre et pour ce faire nous suivons une méthodologie ethnographique.

Cette méthodologie s’orchestre autour d’observations non participantes au sein de l’aire de restauration d’un centre commercial. Ces observations nous permettent de définir les pratiques des usagers selon les contraintes temporelles et spatiales du lieu, tout en prenant en compte les critères sociodémographiques. Au terme des analyses découlant de ces observations, nous souhaitons aboutir à la mise en œuvre d’un outil méthodologique. Cet outil devrait permettre de faciliter la description du passage de l’humain dans un lieu, et de ce fait, mieux cerner ses usages. Le but de cet outil serait donc de faciliter l’appréhension d’un espace où l’on souhaite améliorer l’accès aux services pour le consommateur et à terme en optimiser les usages réels.

Grâce aux ontologies qui capturent la sémantique d'informations et fournissent une description déclarative concise, la communication, la recherche d'informations, le partage des connaissances et la prise de décision deviennent plus efficaces. La médecine est parmi les domaines qui s’intéressent à la modélisation des connaissances sous forme d'ontologies. Deux stratégies de construction d’ontologies peuvent être envisagées : la construction ex nihilo et / ou la réutilisation des ressources existantes comme UMLS. La réutilisation constitue un point central de l'ingénierie des ontologies soulevant des questions concernant les ambigüités, les inconsistances et les hétérogénéités. Nous travaillons sur une ontologie de domaine de diagnostic de la pneumonie. Pour ce faire, nous utilisons un corpus de textes des guides de bonnes pratiques cliniques (cochrane et autres) et nous réutilisons d'autres ontologies biomédicales issues d'OBO Foundry et de Bioportal. Cette réutilisation peut être complète, c'est le cas de l'ontologie générique BFO et de domaine OGMS. Elle peut être partielle comme  SYMP pour les symptômes, NCBITAXON pour les pathogènes, SNOMED pour les types de pneumonie et RO pour les relations entre les concepts. Notre ontologie qui contient 743 classes, 29  relations  et 1929 instances est soumise à une évaluation. La réutilisation des ontologies permet d'éviter des confusions et des inconsistances qui peuvent être générées par plusieurs représentations du même domaine.

 

Le résultat d’un programme d’apprentissage automatique dépend beaucoup de la qualité et de la quantité des exemples qui lui ont été présentés. L’ensemble des exemples pour lesquels le résultat attendu du programme est connu et validé par des humains est appelé un corpus de référence (Gold Standard). Sa construction peut être difficile et coûteuse en temps de travail. Dans le but de faciliter celle-ci, nous avons conçu une plateforme web à code source ouvert nommée annotator, qui est un outil d’annotation sémantique de texte. Cet outil permettra aux experts de divers domaines d’annoter des documents via une interface conviviale et de modifier des annotations produites par d’autres outils. Le fonctionnement d’annotator est basé sur l'outil brat. Ses fonctionnalités incluent la création et la suppression d'annotations, ainsi que la gestion d'annotateurs par projet. Tout projet sur la plateforme est considéré comme un corpus qui possède des propriétés (types d’entité, types de relation entre entités). Le département de pédiatrie d’un hôpital universitaire pourrait alors créer un corpus comportant les notes médicales de ses patients, les annoter avec un outil de type cTAKES et corriger d’éventuelles erreurs avec annotator. À l’avenir, notre application pourrait alors comparer les annotations de différents experts et aider le chef de projet à choisir l’annotation la plus pertinente.

De nos jours, l’émergence des logiciels libres, plus connus sous le vocable de logiciels open source, a radicalement changé le paysage de l’industrie des logiciels. Pour des raisons diverses (d’ordre social, technique, économique, etc.), les logiciels open source sont de plus en plus utilisés dans les organisations publiques et privées. Toutefois, l’adoption des logiciels libres tarde à se faire auprès des institutions académiques. Les institutions académiques ont des raisons pratiques et pédagogiques à s’intéresser aux logiciels open source. Vu les contraintes budgétaires notamment le coût annuel alloué aux frais d’acquisition et des licences de logiciels, les logiciels open source sont devenus une alternative viable. Cette recherche explore les différents facteurs clés de l’adoption des logiciels libres dans les universités québécoises auprès du corps professoral et des étudiants. Par le biais d’une recherche qualitative, plusieurs entrevues ont été faites après de deux groupes d’acteurs universitaires (professeurs et étudiants). Nous avons utilisé le cadre théorique TOE, élaboré par Tornatzky et Fleischer, comme fondement théorique pour catégoriser les différents facteurs clés de l’adoption des logiciels open source dans le milieu universitaire québécois. Les résultats préliminaires de cette recherche montrent que plusieurs facteurs technologiques, organisationnels et environnementaux impactent sur la diffusion des logiciels libres auprès des universités québécoises.

Les estimateurs de 2e ordre permettent de localiser des sources rayonnantes avec un réseau d'antennes ou de capteurs; le pouvoir séparateur obtenu est dit à haute résolution. Les méthodes du maximum de vraisemblance (MLM ou Capon), celles de MUSIC ou ESPRIT sont parmi les plus connues. Elles utilisent la matrice de covariance des signaux reçus et supposent un modèle de propagation connu, utilisé pour récupérer l'information désirée. Avec des ondes électromagnétiques, le média de propagation est considéré sans problème comme étant isotrope et homogène. Le front d'onde émis par une source et incident sur le réseau de capteurs est soit  plan ou sphérique selon la distance de la source, mais surtout non-distordu. Il n'en est pas ainsi avec les ondes sonores, particulièrement à l'extérieur avec vent et changement de pression. Un algorithme basé sur le propagateur Qu, a été modifié pour récupérer les fronts d'onde distordus de sources acoustiques. L'algorithme démarre en supposant un modèle sans distorsion et par itérations successives, converge vers une solution procurant une projection la plus faible possible entre le front d'onde récupéré et le sous-espace bruit. Un réseau de 16 capteurs acoustiques a été réalisé pour valider les résultats de simulation. Des mesures expérimentales faites à l'extérieur montrent clairement la présence d'une distorsion importante. Cette distorsion fluctue assez rapidement ce qui limite le nombre d'épreuves pour construire la matrice de covariance.

La téléphonie mobile en Afrique facilite le développement de plusieurs domaines. Le secteur financier bénéficie le plus des applications du mobile pour résoudre le problème de non bancarisation. Le m-banking implique du risque et une incertitude au sein des utilisateurs en Afrique où une grande partie de la population n'a pas d'expérience ni de compétence avec l'usage du m-banking. Il est important aux fournisseurs du m-banking de bâtir la confiance au sein des utilisateurs. Par contre, les études sur le développement de la confiance en e-commerce proviennent principalement du contexte Européen/Nord-Américain. Il est incertain si ces résultats sont généralisables aux utilisateurs de m-banking dans les pays en développement. D’où notre question de recherche : «Quel rôle joue la confiance dans l’adoption et l’usage du m-banking dans le contexte africain?». Une méthodologie qualitative a été choisie pour cette étude. Des entrevues réalisées au sein des fournisseurs du m-banking au Burundi nous ont permis de comprendre les défis du m-banking et identifier des stratégies efficaces afin d’en promouvoir l’adoption. Nous croyons que plusieurs de nos observations et conclusions ont des implications importantes et directes aux secteurs bancaires dans d'autres pays en développement sur d’autres continents, eux aussi, aux prises avec des contraintes sociales, culturelles et technologiques semblables (grande population vivant en zones rurales, illettrisme, manque d’infrastructure, etc.)

Les TIC se voient attribuer un rôle de levier dans le développement des territoires, non seulement par ses usages dans les secteurs d’activité ayant caractéristique « intérêts publics », mais aussi par son potentiel d’accélérateur du développement économique. Cette constatation interpelle les décideurs politiques qui font face à plusieurs options. Le but de cette communication est d’identifier et d’analyser les politiques canadiennes visant l’accès des TIC aux collectivités locales. Nous nous concentrerons particulièrement sur celles qui visent à donner les moyens aux groupes défavorisés de se connecter aux réseaux numériques et de réduire la fracture numérique. Quels sont les dispositifs politiques mis en œuvre pour permettre aux communautés exclues de s’adapter aux nouveaux enjeux soulevés par la généralisation des usages des TIC ? Nous procédons à une analyse historique et évolutive, sur la période allant entre l’émergence de politiques publiques jusqu’à l’année 2011. Le thème numérique reste l’un des objectifs les plus importants des gouvernements fédéral et provincial, mais avec un penchant en faveur des dimensions économiques. Les gouvernements sont conscients des écarts entre les territoires connectés et ceux qui ne le sont pas et cherchent à combler cette disparité. Cependant, les méthodes adoptées ne parviennent toujours pas à améliorer la situation de l’infopauvreté à laquelle fait face une partie importante de la population.

 



L’informatique décisionnelle représente de nos jours une source vitale aux succès des entreprises, petite, moyenne ou grande. Le but de cette recherche est d'évaluer les tableaux de bord potentiels et de concevoir par la suite la meilleure solution informatique adaptée à l'environnement de l'entreprise S3R. Celle-ci est spécialisée dans l'offre de solutions de gestion des déchets pour ses clients. La société détient actuellement une application liée à une base de données hébergée dans le Cloud, lui permettant d’automatiser une partie de son processus opérationnel. L’utilisation d’un outil décisionnel tel que les tableaux de bords devient cruciale pour l’entreprise afin de mieux atteindre ses objectifs stratégiques. Cela lui permettra de mieux cibler sa clientèle et viser le secteur d’activité où il existe plus de potentiel. Cette recherche se concentre ainsi sur le développement des tableaux de bords les mieux adaptés aux fonctions de l’entreprise, afin d’apporter une meilleure prise de décision et une optimisation de service à long terme. Dans ce contexte, trois catégories de tableaux de bord sont soulevés : marketing, stratégie de l’entreprise et clientèle. Le développement des tableaux de bords est fait sur Excel, leur fournissant des graphes et des figures qui démontrent leurs activités concernant les trois catégories. L'identification des principaux indicateurs et de mesures a été effectuée suivant une approche spécifique dans ce contexte.

Les grands modèles de langage (LLM) offrent des bénéfices dans le développement de logiciels. Néanmoinsil reste à explorer le potentiel des modèles en tant qu'assistant dans les contextes de collaboration. Les résultats de cette étude exploratoire pourraient être cruciaux pour les développeurs qui envisagent d'adopter des outils d'intelligence artificielle (IA) générative lors des demandes de tirage (pull request). Néanmoins, il est impératif de se poser les questions suivantes : les LLMs accélèrent-ils les révisions du code, où sont-ils le plus souvent utilisés comme assistance, quelles sont les motivations à les utiliser lors de chaque stade de la revue du code? Un modèle linéaire à effets mixtes a été développé pour évaluer la pertinence statistique de l'effet de l'utilisation de LLMs sur le délai pour résoudre les revues de code. Selon les résultats du modèle, l'utilisation des LLMs pourrait réduire le temps nécessaire pour la revue du code. Une méthode quantitative basée sur des statistiques descriptives non paramétriques a également été choisie pour étudier l'utilisation des LLMs lors des différentes étapes de la revue de code. Une adoption anticipée peut diminuer le temps total du processus, ce qui augmente l'efficacité de la pratique, par ailleurs, lors de la soumission de la revue du code. Nos analyses préliminaires sur les événements où les LLMs ont été utilisés, montrent que le LLM peut fournir des explications sur un problème spécifique afin d'aider le développeur à le comprendre.

EC3 est un projet avancé et testé : veille, cybersécurité,  très grandes bibliothèques. EC3 est une nouvelle version de la méthode d'Exploration Contextuelle afin d'extraire des informations pertinentes à partir de parties textuelles hétérogènes du Web Sémantique ou de grandes bases de données documentaires. Il fournit un environnement plus général pour l'extraction d'informations à partir de textes en utilisant cette méthode originale. EC3 n'a pas besoin d'analyse syntaxique, d'analyse statistique ni d'ontologie générale. Mais EC3 n'utilise que de petites ontologies appelées «Ontologies Linguistiques» qui expriment les connaissances linguistiques d'un utilisateur qui doit trouver des informations pertinentes. EC3 fonctionne très vite sur de gros corpus ( «partie de discours» : des SMS aux livres). EC3 propose une représentation visuelle de sous forme de graphes de nœuds (Entités Nommées) liés par des relations sémantiques (en fonction du point de vue). Nous représentons le graphique à l'utilisateur sur un écran d'ordinateur en utilisant une approche originale: "Memory Islands". Une nouvelle application du projet à fort potentiel est actuellement envisagée, dans le domaine juridique. Les avocats, magistrats, syndicats notamment utilisent les bases de données textuelles de la jurisprudence. Cependant, avec les nouvelles lois françaises et européennes, il est urgent de mettre à jour l'indexation de la jurisprudence.

En résumé, l’électronique imprimable (EI) est une technologie de pointe qui permet la fabrication de dispositifs électroniques personnalisés à moindre coût. Aujourd’hui, la qualité de ces dispositifs est évaluée manuellement. Cette limitation ralentit sévèrement le procédé de fabrication industrielle et par le fait même, en diminue sa valeur ajoutée. Par conséquent, le développement d’une technique de caractérisation en ligne, idéalement sans contact, est essentiel pour contrôler la qualité des motifs imprimés. Dans le cadre de cette recherche, nous évaluons une nouvelle méthode de caractérisation de la variabilité de la conductivité de l’encre imprimée avec l’utilisation d’ondes de fréquence térahertz (THz). La spectroscopie THz est une technique de mesure sans contact, non-destructive, et de haute résolution spatiale capable de mesurer les propriétés conductrices des matériaux. Pour obtenir une sensibilité accrue aux fréquences THz, des résonateurs (métamatériaux) sont fabriqués avec les mêmes paramètres d’impression qu’une structure imprimée (Figure 1a). Les résultats de nos travaux démontrent que l’utilisation d’ondes THz est plus sensible aux variations de conductivités vis-à-vis des méthodes classiques, telles que les mesures à quatre pointes ou par multimètre standard (Figure 1b). Finalement, nos résultats ouvrent la porte à une stratégie simple pour l’évaluation non destructive, sans contact et in situ de la production des dispositifs de l’EI.

 

La culture individuelle est un concept clé pour le management des TI.Il serait donc déterminant de mettre à la disponibilité des organisations une approche holistique qui permet d'appréhender ce concept en englobant toutes ses caractéristiques. L’objectif de notre communication est de mettre en lumière notre contribution à ce niveau. Nous avons procédé à une étude de la  littérature pour déceler les différents modèles approchant la culture individuelle dans le management des TI. Nous avons par la suite porté un oeil critique sur ces approches pour proposer  un autre modèle qui comble les insuffisances décelées.  

L’approche d’Hostede (1980) appréhende la culture individuelle exclusivement par la culture nationale et considère que la culture est stable.  Karahanna, Evaristo et Srite (2005) conceptualisent la culture individuelle sous forme d’oignon composé de plusieurs niveaux culturels et  ne considèrent pas l’aspect évolutif de la culture individuelle. Walsh et Kefi  (2008) présentent la culture individuelle sous  forme de Toupie qui implique que la culture est un phénomène stratifié composé seulement de valeurs. 

Nous constatons que chaque modèle a des limites. Cependant, notre conceptualisation considère que la culture est une masse homogène qui évoluent en permanence, elle peut être assimilée à une de galaxie, composée par des particules et qui évolue dans l'univers. L'étude du mouvement des galaxies permet de mieux appréhender le comportement de l'individu face aux TI. 

Le boom de la téléphonie mobile en Afrique a facilité le développement de plusieurs domaines. Le secteur financier a bénéficié le plus des applications du mobile pour résoudre le problème de non bancarisation. On parle ici du m-banking dont les utilisateurs adoptent les téléphones mobiles pour effectuer des opérations telles que paiements de facture, transferts d’argent, consultations du solde, etc.

Notre problématique part du fait que le m-banking implique du risque et une incertitude au sein des utilisateurs. Il est important aux fournisseurs du m-banking de bâtir la confiance au sein des utilisateurs avec comme objectif de développer les trois dimensions de confiance: la compétence, l’intégrité et la bienveillance en lien avec l’usage du m-banking. D’où notre question de recherche : « Comment développe-t-on la confiance pour le m-banking dans le contexte africain ? ». Une méthodologie qualitative a été choisie pour cette recherche due à sa nature exploratoire. Spécifiquement, des entrevues seront réalisées au sein des utilisateurs du m-banking au Burundi. Bien que nos conclusions reflèteront les défis du m-banking en Afrique, nous croyons que plusieurs de nos observations et conclusions auront des implications importantes et directes aux secteurs bancaires dans d'autres pays en développement sur d’autres continents aux prises avec des contraintes sociales et technologiques semblables (grande population vivant en zones rurales, illettrisme, manque d’infrastructure, etc.)