Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.



Les entreprises sont souvent entraînées à investir des sommes considérables dans des activités de recherche et développement, espérant ainsi arriver à mettre en marché de nouveaux produits répondant aux besoins des consommateurs. Malheureusement, le retour sur investissement n’est pas toujours garanti dans la mesure où un très grand nombre de nouvelles technologies ou de nouveaux produits, malgré leur indéniable qualité technique, se révèlent un échec sur le plan commercial. Dans ce contexte, il apparaît opportun de pouvoir évaluer a priori les chances de succès commercial d’une technologie avant même d’investir dans des activités intensives visant sa conception et sa commercialisation. L’objectif de cette communication est d’analyser les facteurs qui permettraient de prédire le succès commercial des nouvelles technologies mobiles.  Pour y parvenir, nous avons adopté une méthodologie basée sur l’examen d’un échantillon représentatif de technologies mobiles en cherchant à distinguer celles qui ont été des succès ou des échecs commerciaux. Les résultats de cette recherche révèlent l’existence de propriétés communes aux technologies mobiles à succès, ce qui conduit à une hiérarchie de facteurs déterminants du succès commercial dans ce domaine. Cette communication contribue à l’avancement des connaissances en ce sens que cette hiérarchie constitue un outil novateur de prise de décision d’investissement dans des projets de recherche et de développement  de technologies mobiles.

Le design comme domaine de recherche attire dans son sillage des projets de nature fort variée dont la recherche-intervention (RI) est l'une des formes de plus en plus courantes. Au-delà des caractéristiques particulières de ce mode d'investigation d'un point de vue méthodologique, la RI suppose un encadrement particulier des assistants de recherche recrutés parmi les bassins d'étudiants en design. Dans cette présentation, nous considérons la recherche notamment comme une activité intégrée de formation des étudiants qui y participent. Dans le contexte particulier du design, cette situation constitue un défi de taille pour les responsables de la recherche dans la mesure où ils doivent exercer une triple supervision. D’abord, ils doivent veiller à la bonne exécution des outils et méthodes propres au protocole de recherche inhérent à la RI. L’étudiant est alors installé dans un processus de formation à la recherche. Ensuite, ils doivent les superviser en tant que designers (quelle que soit la spécialité convoquée) de manière à ce que les livrables au cœur de la RI soit conçus et produits au moins en partie à la satisfaction du commanditaire de la recherche. Enfin, les responsables doivent superviser le déroulement de la recherche entre les diverses équipes et dans le respect des échéanciers et des diverses contraintes logistiques.​

Ce projet de recherche concerne l’exploitation de  wikipédia comme étant une ressource semi-structurée de connaissances linguistiques et en particulier comme étant un corpus comparable, pour l'extraction de terminologie bilingue.

L'approche tend à extraire d’abord des paires de terme et traduction à partir de types des informations, liens et textes de Wikipédia. Une deuxième approche basée sur l’information linguistique, afin de ré-ordonner les termes et leurs traductions pertinentes et ainsi éliminer les termes cibles inutiles, est utilisée.

Les évaluations préliminaires utilisant les paires de langues français-anglais, japonais-français et japonais-anglais ont montré une bonne qualité des paires de termes extraits. Cette étude est très favorable pour la construction et l’enrichissement des ressources linguistiques tels que les dictionnaires et ontologies multilingues. Aussi, elle est très utile pour un système de recherche d’information translinguistique (RIT) ainsi que pour améliorer la qualité d'un traducteur automatique statistique.

Valider une nouvelle approche dans le domaine du génie logiciel est toujours considérée comme une activité pernicieuse pour n’importe quel chercheur œuvrant dans ce domaine. Dans cette communication nous visons à mettre en lumière les défis rencontrés, en tant que chercheur, lors de la validation de l’approche et l’outil BScrum.
BScrum est une nouvelle approche de gestion des exigences logicielles basée sur les buts d’affaires dans un contexte de gestion de projets agiles. Elle vise à améliorer la perspective d’affaires dans les projets agiles basés sur Scrum. Pour valider BScrum, un protocole d’étude de cas a été élaboré et appliqué dans des projets réels en entreprise. Dans cette communication, nous allons d’abord présenter Scrum, le cadre de travail agile et l’approche BScrum qui vise à l’améliorer. Ensuite, les étapes menées pour l’élaboration du protocole de validation et la conception du questionnaire seront présentés. Puis, nous présenterons  les défis rencontrés et les limites de l’approche de validation utilisée lors de la conduite des études de cas en entreprise. Finalement, les résultats de la conduite des études de cas et les leçons apprises seront exposés à l’audience.

Contexte

Inscrire des activités dans un calendrier n’assure pas que celles-ci seront réalisées. Le laboratoire DOMUS a conçu un calendrier intelligent, AMELIS, qui offre le rappel automatique des activités inscrites sans savoir si celles-ci sont accomplies. La prochaine étape est donc de connecter AMELIS à un habitat intelligent pour suivre les activités inscrites et s’assurer de leur réalisation.

Méthodologie

Il faut sélectionner un algorithme de reconnaissance d’activités parmi différents algorithmes de data mining fonctionnant avec apprentissage. La sélection est basée sur leur efficacité en fonction du nombre de capteurs dans l'appartement et des activités à reconnaître. Des tests effectués sur un jeu de données provenant de capteurs du laboratoire nous ont permis de sélectionner trois algorithmes : le premier est un algorithme de simple association entre les capteurs de l’appartement et une activité, le deuxième est un algorithme basé sur les réseaux bayésiens, et enfin le dernier est un algorithme de clustering basé sur les mixtures de gaussiennes.

Ils sont utilisés par un programme qui communique avec AMELIS pour savoir quelles sont les activités à reconnaître sur une plage horaire précise.

Résultats

Le dernier algorithme est le plus efficace, mais ne fonctionne qu’avec un nombre restreint de capteurs. Le deuxième algorithme est moins efficace mais offre une reconnaissance plus fine car il utilise tous les capteurs. Enfin, la méthode par simple association a été rejettée.

Combien y a-t-il de relations internes possibles dans un ensemble à  n  éléments?  Parmi elles, combien sont réflexives? symétriques? transitives?  De combien de façons peuvent être combinées les différentes propriétés?  Le cas  n = 3  sera étudié de façon plus détaillée, avec notamment la présentation synoptique des 104 graphes sagittaux représentatifs des 512 relations.

La formation à distance nécessite l'emploi d'outils informatiques, notamment des systèmes de gestion d'apprentissage (Learning Manage System ou LMS). Les jeux sérieux (jeux vidéo mélangeant aspect pédagogique et aspect ludique) représentent un outil informatique pouvant être utilisé par les enseignants et développé pour leurs besoins précis. Cependant, l'intégration des jeux sérieux aux LMS peut poser des problèmes de compatibilité. De plus, les avancés en intelligence artificielle incitent à prendre en compte un domaine comme l'apprentissage adaptatif (qui consiste à proposer un enseignement personnalisé au niveau du contenu ou des activités), complexifiant les outils informatiques. Au final, nous proposons un jeu sérieux adaptatif dont les résultats du joueur-apprenant peuvent être importés dans un LMS comme Moodle. Un tuteur "intelligent" est intégré au jeu sérieux adaptatif afin de guider le joueur-apprenant.

Dans la dernière décennie, le concept de champ vectoriel combinatoire (ou discrète) introduit par Robin Forman en 1998 est devenu un outil très efficace pour la discrétisation des problèmes continus en mathématiques appliquées, l'imagerie et la visualisation.  Le but de ces recherches est de développer les liens formels entre la théorie classique de Morse et la théorie de Forman dans le contexte de systèmes dynamiques. Donc, dans cette présentation, nous débuterons par faire un résumé sur les fonctions de Morse discrète et par la suite, nous montrerons des exemples sur des champs vectoriels gradient de Morse qui est générer par un programme fait à l’interne. Ensuite, par ce champ vectoriel, nous pouvons construire un champ de vecteurs à valeurs multiples. De plus, on peut construire une application semi-continue supérieurement et de montrer graphiquement le fonctionnement de cette application. D’autre part, nous pouvons étendre ce résultat sur la théorie d’indice de Conley sur les complexes simpliciaux 2D.

Motivés par la mécanique statistique, les problèmes de dénombrement de chemins auto-évitants et de polyominos dans un réseau géométrique régulier sont parmi les problèmes ouverts les plus célèbres en combinatoire. Au cours des vingt dernières années, plusieurs chercheurs se sont intéressés aux classes de polyominos plus résolubles, ayant les propriétés particulières de convexité ou de croissance dirigés, spécialement, sur les réseaux carré et hexagonal.

Le but de ce travail est de développer des nouveaux outils pour résoudre des problèmes de nature combinatoire motivés par la mécanique statistique et la chimie organique. La nécessité de tels développements a été soulignée dans plusieurs rencontres internationales.



Il arrive fréquemment que des technologies, ayant fait leur preuve techniquement, ne réussissent pas à conquérir les marchés, se faisant même surclasser par des innovations moins performantes. La question qui se pose alors est de savoir quels sont les facteurs déterminants du succès commercial d’un produit d’innovation technologique. Plusieurs chercheurs se sont penchés sur cette question, sans toutefois parvenir à prédire à coup sûr le succès commercial des innovations, particulièrement dans le domaine émergent des technologies mobiles. L’objectif de cette communication est de proposer un modèle permettant non seulement de prédire le succès et les échecs des technologies mobiles mais aussi d’orienter la conception de celles-ci afin qu’elles puissent réussir leur introduction dans les marchés visés. La méthodologie adoptée pour y parvenir consiste à mettre en œuvre une hiérarchie de facteurs liés au contexte socio-économique et organisationnel de l’entreprise qui cherche à développer la technologie, en suivant une série de cinq étapes correspondant à cette hiérarchie.  Les résultats de cette recherche démontrent qu’il est possible d’anticiper le succès commercial de technologies mobiles en amont des activités de recherche et développement nécessaires à leur conception. La contribution de cette communication demeure la mise à disposition d’une méthode de prédiction de succès pouvant faciliter la sélection et le financement de projets de développement de technologies mobiles.

Le designer d’interaction conçoit des produits et services numériques aux visées habituellement prospectives et novatrices. Ainsi, dans sa démarche de design, il n’est pas rare que le designer d’interaction investisse considérablement de temps et d’efforts à l’élaboration d’un concept original, activité privilégiée de la créativité et de l’idéation en design (ROOZENBURG et EEKELS 1995). Mais la conceptualisation se révèle souvent beaucoup plus ardue qu’escomptée, et force est d’admettre que plusieurs défis et écueils menacent sa réussite, réussite pourtant cruciale au succès global de l’entreprise du designer (WANG et collab. 2002). En fait, la conceptualisation, ses défis et ses écueils font partie des aspects de la démarche de design que, encore aujourd’hui, nous ne comprenons que très peu (MacMILLAN et collab. 2001).

Dans cette communication, nous présenterons les résultats d’un projet de recherche dans le cadre duquel nous avons observé la démarche de conceptualisation de 20 designers d’interaction sur une période de 15 semaines. Pendant toute la durée du projet, différents instruments de collecte de données (journaux de bord, questionnaires, etc.) ont été déployés afin de suivre la trace de l’évolution des concepts et d’obtenir des indices révélateurs des défis et des écueils rencontrés par les designers. L’analyse des données récoltées devrait permettre de cibler les défis de la conceptualisation et d’identifier ses écueils (typologie, classement, etc.).

L’audit de contenu est une méthode d’évaluation du contenu d’un site Web ou d’un écosystème informationnel plus vaste (C. Jones 2010; Land 2014; B. Martin & Hanington 2012).  Rares sont les travaux de recherche étudiant cette méthode. L’audit de contenu se voit toutefois abondamment décrit et commenté dans une foule d’écrits. Ces publications, qui découlent en grande majorité de l’externalisation de la pratique professionnelle de leurs auteurs, constituent un riche terreau pour entamer une réflexion plus vaste. C’est ce qui nous a amené à examiner plus en profondeur un corpus de 200 écrits abordant l’audit de contenu (ouvrages, publications Web, articles).


Dans le cadre de cette présentation, nous nous penchons plus particulièrement sur le protocole de conduite de l’audit de contenu. Dans un premier temps, nous présentons et examinons les protocoles identifiés dans notre corpus. Cette analyse fournit l’assise nécessaire pour proposer, dans un second temps, un protocole d’audit de contenu enrichi, tenant compte des forces et des faiblesses soulevées précédemment. Cette étude vise non seulement à alimenter la recherche en communication numérique, mais aussi à construire des ponts concrets entre la recherche et la pratique professionnelle.

Le téléphone cellulaire est utilisé à des fins professionnelles depuis de nombreuses années, particulièrement par les gestionnaires seniors au travail. Et cette technologie est de plus en plus employée au travail depuis qu’une panoplie d’applications mobiles a été intégrée aux stratégies d’affaires de l’entreprise. L’adoption individuelle de la technologie a été largement étudiée dans le secteur du travail, mais elle l’a été beaucoup moins à la maison. De ce fait, peu d’études ont été menées jusqu’à présent pour vérifier la satisfaction des gens à la maison de l’utilisation d'un téléphone cellulaire. L’objectif de cette étude est donc de vérifier quels sont les facteurs d’influence de l’utilisation d’un téléphone cellulaire chez les Camerounais. Pour guider l’étude, un modèle de recherche de type « modérateur » a été développé, duquel 8 hypothèses ont été formulées. La méthodologie utilisée pour mener l’étude est le sondage en personne. Plus de 500 Camerounais possédant un téléphone cellulaire ont été choisis aléatoirement dans les deux principales villes du Cameroun pour former l’échantillon. L’analyse des données a été faite à l’aide de la modélisation d’équation structurale avec le logiciel Partial Least Squares (PLS). Les résultats révèlent que la moitié des variables examinées dans l’étude ont montré être des facteurs déterminants de l’usage d’un téléphone cellulaire par les Camerounais. De plus, la plupart des hypothèses de recherche formulées ont été vérifiées.  

Lors du tir d’une cartouche, les mécanismes de l’arme à feu laissent des marques sur la balle et la douille. Ces marques peuvent être des caractéristiques de classe, qui sont communes aux armes à feu d’une même famille; ou des caractéristiques individuelles, qui sont théoriquement uniques et permettent de relier un spécimen à une arme à feu précise. Lorsque des douilles sont retrouvées sur une scène de crime, leurs marques sont analysées dans un laboratoire. Actuellement, avant de comparer les caractéristiques individuelles pour proposer des correspondances, un triage manuel est effectué en considérant les caractéristiques de classe afin d’éviter de calculer inutilement les comparaisons avec des spécimens produits par des familles d’armes différentes. 

Quelques études ont tenté d’identifier des marques variées et des défauts sur des surfaces texturées, mais pas sur des douilles. D’autres ont cherché à identifier la famille d’une arme à feu utilisée, à l’aide de l’apprentissage machine traditionnel d’après des caractéristiques prédéterminées et mesurées par un expert. La contribution de ce projet sera d’utiliser l’intelligence artificielle afin de détecter automatiquement les marques de classe sur des images de douilles. Notamment, des techniques de classification multiétiquettes (plus d’un type de marque peut être présent) et de clustering sont envisagées. Cette présentation discute des résultats préliminaires.

À l’heure du Web 2.0, de nouvelles pratiques d’apprentissage se sont développées au sein de la communauté universitaire. Les étudiants adoptent des pratiques d’intégration de leurs activités sociales au sein de leur processus d’apprentissage. Ces derniers s’attendent à avoir accès à une vaste quantité d’information à travers des outils formels ou informels et à faire partie d'une communauté mondiale de pairs. Le besoin de combiner les ressources institutionnelles et personnelles formalise le concept d’environnement personnel d’apprentissage(EPA).Toutefois, l’élaboration de tels environnements nécessite de développer des compétences complexes que les étudiants du supérieur, pourtant décrits comme natifs du numérique, ne possèdent pas nécessairement. Quelques supports de construction d’EPA ont été proposés dans la littérature, mais ces travaux mettent de côté un point important qui est l’interopérabilité des ressources. L’objectif du présent travail est de fournir aux étudiants un support de construction de leur EPA sous forme d’un tableau de bord, qui permettra d’avoir une vision actualisée des ressources et d’exploiter davantage les liens qui en découlent.  La solution proposée est basée sur le concept des systèmes multi-agents. Offrir aux étudiants un support de construction de leur EPA est une façon de leur faciliter la réappropriation individuelle des ressources d’apprentissage provenant de sources variées et une gestion optimale en termes de contenu et de processus.

Le lieu, qu’il soit physique ou numérique, aurait tendance à nous conditionner et orienter nos pratiques. Toutefois, les usages présents dans tout espace social, et que l’on pense préconçus par le système (économique, politique, urbanistique, culturel, etc.) ne sont finalement jamais stabilisés. En effet, le lieu se trouve être lui-même conditionné par diverses variables, telles que la temporalité ou encore l’organisation spatiale, susceptibles d’impacter les pratiques. L’instabilité de ces usages peut donc rendre les observations de tout designer complexes au sein d’un écosystème de services. C’est à cette difficulté que nous souhaitons répondre et pour ce faire nous suivons une méthodologie ethnographique.

Cette méthodologie s’orchestre autour d’observations non participantes au sein de l’aire de restauration d’un centre commercial. Ces observations nous permettent de définir les pratiques des usagers selon les contraintes temporelles et spatiales du lieu, tout en prenant en compte les critères sociodémographiques. Au terme des analyses découlant de ces observations, nous souhaitons aboutir à la mise en œuvre d’un outil méthodologique. Cet outil devrait permettre de faciliter la description du passage de l’humain dans un lieu, et de ce fait, mieux cerner ses usages. Le but de cet outil serait donc de faciliter l’appréhension d’un espace où l’on souhaite améliorer l’accès aux services pour le consommateur et à terme en optimiser les usages réels.

Grâce aux ontologies qui capturent la sémantique d'informations et fournissent une description déclarative concise, la communication, la recherche d'informations, le partage des connaissances et la prise de décision deviennent plus efficaces. La médecine est parmi les domaines qui s’intéressent à la modélisation des connaissances sous forme d'ontologies. Deux stratégies de construction d’ontologies peuvent être envisagées : la construction ex nihilo et / ou la réutilisation des ressources existantes comme UMLS. La réutilisation constitue un point central de l'ingénierie des ontologies soulevant des questions concernant les ambigüités, les inconsistances et les hétérogénéités. Nous travaillons sur une ontologie de domaine de diagnostic de la pneumonie. Pour ce faire, nous utilisons un corpus de textes des guides de bonnes pratiques cliniques (cochrane et autres) et nous réutilisons d'autres ontologies biomédicales issues d'OBO Foundry et de Bioportal. Cette réutilisation peut être complète, c'est le cas de l'ontologie générique BFO et de domaine OGMS. Elle peut être partielle comme  SYMP pour les symptômes, NCBITAXON pour les pathogènes, SNOMED pour les types de pneumonie et RO pour les relations entre les concepts. Notre ontologie qui contient 743 classes, 29  relations  et 1929 instances est soumise à une évaluation. La réutilisation des ontologies permet d'éviter des confusions et des inconsistances qui peuvent être générées par plusieurs représentations du même domaine.

 

Grâce à l'évolution continue de la technologie de télécommunications, l'apprentissage mobile joue un rôle croissant dans le domaine de l'éducation. Cependant, ce nouveau type d'apprentissage affronte nombreux problèmes sociaux, pédagogiques et techniques.

À ce jour, l'apprentissage mobile n'a ni de définition stricte ni de normes bien définies partout le monde. Par conséquent, la technologie mobile n'est pas parfaitement utilisé dans le domaine de l'éducation et les profits prévues qui pourraient être obtenus à partir de l'emploi de cette technologie n'ont pas été encore reconnue. Donc, il y a beaucoup de travail à faire par les chercheurs pour combler l'écart entre la situation actuelle d'apprentissage mobile et ce qui peut être atteint en raison de ses caractéristiques et capacités distinctes.

Notre question de recherche est : «Comment formuler et définir précisément un processus d'apprentissage complet qui est basé principalement sur ​​la technologie mobile et comment définir en manière compréhensible les rôles de toutes les parties impliquées dans ce processus?»

L'objectif principal de notre recherche est de fournir une réponse complète et satisfaisante à la question de recherche mentionnée. Nous suivons la méthodologie CommonKADS pour développer un modèle générique et compréhensible pour l'apprentissage mobile. CommonKADS nous donne la capacité de définir profondément toutes les parties du processus d'apprentissage.

Depuis une quinzaine d’années, le Web s’est imposé comme média privilégié par une variété d’organisations pour transmettre une quantité substantielle d’information à leurs destinataires. La mise en place adéquate de ces imposantes structures informationnelles dépend, entre autres, de spécialistes de l’information et de la communication. Dans la mesure où l’accès à une information particulière constitue l’objectif principal d’une majorité d’activités de recherche sur le Web, ces spécialistes doivent idéalement porter une attention particulière au contenu présenté. Pour ce faire, différentes méthodes visant à mieux appréhender le contenu ont vu le jour depuis quelques années. L’audit de contenu est l’une d’elles.

Cette méthode permet d’identifier, de dénombrer, de décrire et d’évaluer les contenus d’un site en les confrontant à une liste de critères d’analyse. Si l’audit est décrit dans une multitude d’ouvrages et de sites Web professionnels, on constate une certaine hétérogénéité entre ces publications, notamment au regard des critères à inclure. Cette pluralité de discours nous a amenés à examiner plus en profondeur une centaine d’écrits professionnels afin de dresser un inventaire des critères proposés et de les analyser. Cette étude devrait contribuer, selon nous, à améliorer l’efficacité de cette méthode, et ainsi faciliter sa mise en place et sa conduite.

L’intégration de nouveaux logiciels est importante pour améliorer la performance des organisations.  L’appropriation individuelle a été étudiée.  Cependant, l’impact d’une dynamique de groupe sur l’appropriation individuelle a fait l’objet de peu de recherche, d’où la contribution de notre recherche.

Le problème générique de recherche est que des individus ne s’approprient pas les logiciels dans le cadre de leurs activités professionnelles et académiques.  L’objectif est d’évaluer les liens entre la personnalité, l’appropriation et l’environnement d’apprentissage.

Le cadre conceptuel comporte deux principales composantes. (1) Le modèle de l’ennéagramme de la personnalité (Sutton et al., 2013) est utilisé pour mieux comprendre le rôle de la personnalité sur l’appropriation d’un nouveau logiciel. (2) Une échelle d’appropriation (Tsoni, 2012) adaptée est utilisée.  Deux éléments s’ajouteront à l’échelle, l’efficacité et la préférence de l’environnement d’apprentissage.

L’approche méthodologique quantitative comporte un questionnaire en ligne.  La population est une cohorte d’environ 400 étudiants suivant un cours de fondements technologiques des systèmes d’information.  La cueillette de donnée s’effectuera au début de 2016.  Le logiciel choisi est Access parce que très peu d’étudiants l’ont utilisé avant le cours.  Pour l’évaluation de la personnalité, le Halin-Prémont-Enneagram-Indicator sera utilisé.  Lors de la communication, nous présenterons nos résultats préliminaires.

Typiquement, un processus d’affaires s’exécute sur plusieurs heures ou plusieurs jours, implique plusieurs acteurs et comprend plusieurs points d’erreurs. Lors de son exécution, le processus produit des effets qui dépassent le cadre du système d’information de sorte qu’il ne soit pas possible, en cas d’erreur, de les renverser tels que des transactions dans une base de données. Ainsi, nous devons mener des activités qui visent à renverser sémantiquement les effets du processus : c’est ce qui est appelé la compensation.

La tâche d’identification des différents points d’erreurs dans un processus d’affaires et la modélisation des processus de compensation correspondants est une activité complexe, sujette à l’erreur et qui monopolise l’essentiel de l’effort de modélisation. Dans cette tâche, aucune aide n’est fournie aux l’analystes qui, par conséquent, relèguent la compensation aux détails d'implémentation.

Les travaux ayant porté sur la compensation se sont concentrés sur des aspects techniques de coordination et de structures des langages. Nous soutenons que la compensation est avant tout un problème métier et devrait donc être traitée sous cet angle. Nous proposons, dans cette communication, une approche métier visant à assister l’analyste dans l’identification des activités de compensation et dans la modélisation des processus de compensation d’un processus d’affaires en nous basant sur une analyse métier des processus encadrée par l’ontologie d’affaires​​ REA.

Informatiser l’un des processus d’une entreprise est monnaie courante afin de lui permettre de se surpasser dans ses compétences clés. Cependant, lorsque l’on vise à l’automatiser et que celui-ci comporte des particularités propres à chaque client, cela représente tout un défi. Tel est le cas de S3R, une entreprise qui innove en offrant au Québec un service unique de développement, d’implantation et de suivi de solutions qui permettent à ses clients de réaliser des profits à travers une meilleure gestion de leurs déchets et matières recyclables. Notre recherche a d’abord consisté à standardiser, puis à automatiser une partie du processus de génération des dossiers d’observations et de recommandations fournis par S3R à sa clientèle. Une modernisation des techniques de traitement notamment par une base de données s’est avérée nécessaire. Ce projet a été effectué à travers trois points essentiels.

- L'élaboration d'un modèle de rapports des traitements unifié pour la clientèle de l'entreprise.

- L’exploitation des avantages du Cloud comme la possibilité d’accès et de consultation, quel que soit la localisation.

 - L’informatisation des procédures en rejetant l’utilisation des formulaires papier au profit des nouveaux outils de traitement des données.

Nos objectifs sont de réduire les temps requis au traitement des dossiers et ainsi libérer les ressources hautement qualifiées pour les opérations clés de l’entreprise, ayant un effet immédiat sur les profits engendrés.

Les grands modèles de langage (LLM) offrent des bénéfices dans le développement de logiciels. Néanmoinsil reste à explorer le potentiel des modèles en tant qu'assistant dans les contextes de collaboration. Les résultats de cette étude exploratoire pourraient être cruciaux pour les développeurs qui envisagent d'adopter des outils d'intelligence artificielle (IA) générative lors des demandes de tirage (pull request). Néanmoins, il est impératif de se poser les questions suivantes : les LLMs accélèrent-ils les révisions du code, où sont-ils le plus souvent utilisés comme assistance, quelles sont les motivations à les utiliser lors de chaque stade de la revue du code? Un modèle linéaire à effets mixtes a été développé pour évaluer la pertinence statistique de l'effet de l'utilisation de LLMs sur le délai pour résoudre les revues de code. Selon les résultats du modèle, l'utilisation des LLMs pourrait réduire le temps nécessaire pour la revue du code. Une méthode quantitative basée sur des statistiques descriptives non paramétriques a également été choisie pour étudier l'utilisation des LLMs lors des différentes étapes de la revue de code. Une adoption anticipée peut diminuer le temps total du processus, ce qui augmente l'efficacité de la pratique, par ailleurs, lors de la soumission de la revue du code. Nos analyses préliminaires sur les événements où les LLMs ont été utilisés, montrent que le LLM peut fournir des explications sur un problème spécifique afin d'aider le développeur à le comprendre.

EC3 est un projet avancé et testé : veille, cybersécurité,  très grandes bibliothèques. EC3 est une nouvelle version de la méthode d'Exploration Contextuelle afin d'extraire des informations pertinentes à partir de parties textuelles hétérogènes du Web Sémantique ou de grandes bases de données documentaires. Il fournit un environnement plus général pour l'extraction d'informations à partir de textes en utilisant cette méthode originale. EC3 n'a pas besoin d'analyse syntaxique, d'analyse statistique ni d'ontologie générale. Mais EC3 n'utilise que de petites ontologies appelées «Ontologies Linguistiques» qui expriment les connaissances linguistiques d'un utilisateur qui doit trouver des informations pertinentes. EC3 fonctionne très vite sur de gros corpus ( «partie de discours» : des SMS aux livres). EC3 propose une représentation visuelle de sous forme de graphes de nœuds (Entités Nommées) liés par des relations sémantiques (en fonction du point de vue). Nous représentons le graphique à l'utilisateur sur un écran d'ordinateur en utilisant une approche originale: "Memory Islands". Une nouvelle application du projet à fort potentiel est actuellement envisagée, dans le domaine juridique. Les avocats, magistrats, syndicats notamment utilisent les bases de données textuelles de la jurisprudence. Cependant, avec les nouvelles lois françaises et européennes, il est urgent de mettre à jour l'indexation de la jurisprudence.

Le résultat d’un programme d’apprentissage automatique dépend beaucoup de la qualité et de la quantité des exemples qui lui ont été présentés. L’ensemble des exemples pour lesquels le résultat attendu du programme est connu et validé par des humains est appelé un corpus de référence (Gold Standard). Sa construction peut être difficile et coûteuse en temps de travail. Dans le but de faciliter celle-ci, nous avons conçu une plateforme web à code source ouvert nommée annotator, qui est un outil d’annotation sémantique de texte. Cet outil permettra aux experts de divers domaines d’annoter des documents via une interface conviviale et de modifier des annotations produites par d’autres outils. Le fonctionnement d’annotator est basé sur l'outil brat. Ses fonctionnalités incluent la création et la suppression d'annotations, ainsi que la gestion d'annotateurs par projet. Tout projet sur la plateforme est considéré comme un corpus qui possède des propriétés (types d’entité, types de relation entre entités). Le département de pédiatrie d’un hôpital universitaire pourrait alors créer un corpus comportant les notes médicales de ses patients, les annoter avec un outil de type cTAKES et corriger d’éventuelles erreurs avec annotator. À l’avenir, notre application pourrait alors comparer les annotations de différents experts et aider le chef de projet à choisir l’annotation la plus pertinente.