Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

La radiothérapie à très haut débit de dose est une modalité émergente de traitement du cancer qui permet de protéger davantage les tissus sains lors des traitements, tout en permettant d’administrer une dose très élevée aux cellules cancéreuses en moins d’une seconde. L’instrumentation permettant de mesurer les doses de radiation pour ce type de modalité doit fournir des mesures précises afin d’assurer la justesse des traitements. Les dosimètres à scintillation, qui sont composés de fibre optique émettant de la lumière lorsqu’irradiée, permettent des mesures simples, précises et en temps réel. L’objectif de ce projet est d’étudier les dommages causés par la radiation à très haut débit de dose sur les fibres optiques utilisées dans ces dosimètres.

Quatre différents échantillons de fibre optique de 1,5 cm de longueur ont été irradiés au PTB, en Allemagne, sous un faisceau possédant un très haut débit de dose de radiation, pour des doses environ 1000 fois plus grandes que celles d’un traitement conventionnel. Suite à ces irradiations, l’efficacité de transmission et de scintillation des fibres optiques est mesurée avant et après l’irradiation. Les résultats obtenus montrent une baisse de l’efficacité de scintillation allant jusqu’à 50%, mais ne semble pas affecter la transmission de la lumière dans ces fibres au-delà des incertitudes de mesures. Cette caractérisation permet de planifier la conception d’une nouvelle génération de dosimètre utilisable à très haut débit de dose.

La technologie d’électrodialyse avec membrane de filtration (EDMF) a été appliquée avec succès à la séparation de peptides bioactifs provenant de diverses sources naturelles. Parmi les paramètres qui influent ce procédé, on peut mentionner le pH, la force de champ électrique, le matériau de membrane, la taille des pores ainsi que la surface d’échange. Dans la présente étude, l’impact de la configuration membranaire d’ÉDMF sur les paramètres électrodialytiques a été étudié pendant un traitement de 6 heures. Il ressort de cette étude, que la configuration 1 a conduit à un taux de migration de peptides de 5.20 ± 0.10 g/(h.m2), supérieur à celui obtenu avec la configuration 2 (4.41 ± 0.20 g/(h.m2).  Il apparaît cependant que dans la configuration 1, le champ électrique local appliqué dans le compartiment d’hydrolysat ait diminué de façon linéaire durant le traitement d’ÉDMF limitant ainsi la migration des peptides après deux heures. Les analyses d’acides aminés démontrent que seuls les acides aminés anioniques principalement Glu, Tau, Met et Phe ont été concentrés dans les compartiments de récupération de la configuration 1 alors que ce sont les acides aminés cationiques tels que l’Arg et la Lys qui ont été principalement concentrés dans le compartiment de récupération peptidique de la configuration 2.

Cette affiche présente la méthode et les techniques propres au web sémantique, utilisées dans le cadre du projet Bio2RDF pour créer une base de données intégrée sur les bases de données publiques du domaine de la bioinformatique.

Comment transformer des données existantes en RDF ? Comment les publier à l'aide d'un point d'accès SPARQL ?  Comment consommer des données RDF disponible sur le web ? Trois questions fondamentales auxquelles on offre comme réponse les fruits de notre expérience dans le cadre du projet Bio2RDF.

Référence: http://bio2rdf.org

L'affiche sera une version française et améliorée du poster

http://fr.slideshare.net/fbelleau/producing-publishing-and-consuming-li…

Les antennes réseau-réflecteur reconfigurables (reconfigurable reflectarray antenna) permettent le modelage de faisceaux d’ondes électromagnétiques, une technique nécessaire pour les réseaux 5G actuels et pour les futurs réseaux 6G. Le modelage se fait par déphasage du signal radiofréquence émis grâce à des composants tels que des diodes à capacité variable (varicap), qui sont contrôlées individuellement par des tensions de polarisation variables. Ces diodes varicap sont présentes dans chacune des petites cellules d’antenne faisant partie d’une matrice planaire, constituant ainsi le réseau-réflecteur. 

La capacité des diodes varicap varie non linéairement avec la tension de contrôle et celles-ci exhibent des comportements non linéaires lorsque la puissance du signal radiofréquence est élevée. Ces non-linéarités introduisent de la distorsion dans le signal émis, mais cela peut être réduit par un processus de prédistorsion qui dépend de la puissance du signal émis. Le but de ce travail consiste donc à développer un détecteur de puissance intégré en technologie CMOS pour mesurer la puissance émise par chaque cellule de l’antenne.

Cette recherche se penche sur une technique existante, mais vise à l’améliorer pour exploiter une technologie CMOS-65nm afin d’augmenter la fréquence d’opération et accroître la bande passante.

Ce travail contribue aussi à l’étude de la distorsion dans un détecteur de puissance pour antennes reconfigurables, un aspect peu étudié dans la littérature.

L’interactivité robotique permet d’assister l’humain à des tâches dangereuses et d’éviter les postures inadéquates pouvant mener à des troubles musculo-squelettiques. En particulier, un modèle de l’interaction favorise une réduction des efforts physiques et permet un partage des tâches dans l’ordonnancement des activités de production et de fabrication. Cette interaction doit cependant s’activer lorsque cela est nécessaire, spécifiquement lorsque le robot détecte un comportement anormal de l’opérateur par une analyse de la performance des actions. La mesure de cette performance est réalisée à l’aide de vêtements de protection individuel intelligents.

L’une des applications envisagées dans ce domaine est l’augmentation de l’environnement réel par une aide virtuelle des opérateurs via un retour haptique (kinesthésique et vibrotactile) et visuel.

Cette technique permettra de visualiser des objets virtuels 3D dans un environnement réel (réalité augmentée) de manière à apporter une aide assistée immédiate à un opérateur de même qu’à déterminer la trajectoire des mains et de la tête.

Le retour haptique sera réalisé avec un guide virtuel tout en faisant l’étude de la stabilité du guide à l’aide d’un modèle dynamique « bras-robot-guide ». Ce projet de recherche permettra d’introduire les robots collaboratifs naturellement dans un environnement de production industrielle de l’industrie 4.0.

La conception d'un oscillateur microonde est basée sur le principe de génération d'une résistance négative afin de compenser les pertes du résonateur. Une conception efficace nécessite l'examen de plusieurs questions, telles que la puissance de consommation, condition de démarrage, fréquence de fonctionnement, gamme de fréquences, caractéristiques de bruit, etc. Dans ce travail, nous allons évaluer les conditions d'oscillation d’un oscillateur 10 GHz. Nous proposons une méthodologie permettant de concevoir un oscillateur Bande-X à faible bruit de phase et répondant aux contraintes suivantes :

- Courant d’alimentation (DC): <100 mA

- Tension d'alimentation (DC): <15 Volts

- Sera utilisé dans des applications du radar (Bande X).

- Puissance consommée : <500 mW

- Harmoniques: <10 dBc

- Fréquence de fonctionnement: (~ 10 GHz), avec une précision en fréquence ± 1%

- Puissance de sortie:> 0 dBm dans une impédance de charge de 50 ohms

- Transistors polarisés directement,

- Résonateurs à facteur Q élevé,

- Taille du PCB plane: <1 pouce carré (package) = 6,45 cm²

Depuis le début des années 2000, le monde sportif a pris conscience des conséquences importantes du traumatisme crânio-cérébral léger (TCCL). L’étude du TCCL a principalement ciblé les sports de contact comme le football et le hockey. Par contre, les sports considérés sans contact, comme le soccer, ne sont pas épargnés. Par exemple, au Canada, entre 2012 et 2014, le nombre de TCCL rapporté chez les joueuses de 10 à 19 ans au soccer a été supérieur à la somme des TCCL au hockey et au rugby. C’est pourquoi l’objectif de ce projet de recherche était d’évaluer le risque de TCCL au soccer. Huit joueurs et seize joueuses de soccer ont porté un bandeau instrumenté mesurant les accélérations de la tête lors de matchs de compétition. Ces accélérations ont été confrontées à un critère de blessure permettant d’identifier le risque de TCCL causé par chacune des accélérations. Le nombre total d’accélérations mesurées a été de 239 chez les joueurs et de 294 chez les joueuses. Les accélérations moyennes mesurées chez les joueurs ont été de 25,9g (maximum 82,9g) et de 2 815 rad/s2 (maximum 15 000 rad/s2), et ont été de 28,9g (maximum 67,3g) et de 3 072 rad/s2 (maximum 12 900 rad/s2) chez les joueuses. Un total de 44 (8,3 %) accélérations de la tête a dépassé le risque de 50 % de subir un TCCL. Parmi ces 44 accélérations, 36 ont été causées par des techniques de tête et 8 par des impacts involontaires. Alors, les techniques de tête devraient-elles être considérées sécuritaires?

Les autorités de réglementation aérienne exigent de minimiser l’encombrement visuel des écrans de la cabine de pilotage car il s’agit d’un facteur connu de dégradation de la performance du pilote. Les recherches antérieures identifient deux facteurs contribuant à l’encombrement visuel soit (1) la quantité et la densité d’information à l’écran et (2) la pertinence de l’information pour la tâche. Il semble toutefois difficile d’évaluer le degré d’encombrement visuel d’écrans complexes comme ceux de la cabine de pilotage et d’identifier les éléments d’affichage y contribuant le plus.

Dans ce travail, nous identifions à partir d’une revue de la littérature six méthodes d’évaluation de l’encombrement visuel d’un écran et nous montrons comment elles ont été utilisées en aviation. La comparaison des méthodes montre que celles impliquant des participants (méthodes subjectives) permettent d’évaluer l’encombrement lié à la pertinence de l’information et de distinguer les éléments d’affichage contribuant à l’encombrement (ex. couleur, densité, saillance,...). Les méthodes informatiques ne peuvent évaluer que l’encombrement lié à la quantité d’information. À l’issue de ce travail, nous recommandons une série de méthodes pertinentes pour l’évaluation de l’encombrement des écrans en aéronautique et suggérons des pistes de recherche pour le développement de nouvelles méthodes.

La minimisation du temps de transfert des données, entre la mémoire et les blocs de calcul dans les algorithmes de traitement des images, reste un problème major pour assurer un temps réel, surtout avec des algorithmes qui utilisent de plus en plus des données parallèles. Le choix du système de communication dépend des composants constituant le système et surtout du processeur utilisé. Ce choix va influer considérablement sur les caractéristiques du système global. Dans ce papier, nous présentons les résultats de synthèse d’un système sur puce à base de processeur MicroBlaze de Xilinx avec un accélérateur matériel pour le traitement vidéo adapté à l’aide d’une interface spéciale. Ces résultats montrent que le système de communication utilise 2,15% des slices registres, 2,56% des LUTs et 4,68% des BRAMs en utilisant le circuit FPGA Vitrex5 LX110T de Xilinx.Nous avons montré l’importance du choix du système de communication dans un système sur puce ainsi que le taux d’utilisation de ce système sur un circuit FPGA. Les résultats de synthèse montrent que les différents taux sont importants surtout avec l’utilisation des adaptateurs de bus pour les accélérateurs matériels. Nous avons ainsi montré les résultats de synthèse du bus CoreConnect dans un système à base de processeur MicroBlaze de Xilinx. Nous avons aussi ajouté au système un accélérateur de traitement de vidéo à l’aide d’une interface PLB-IPIF à base de FIFOs.

L'imagerie par résonance magnétique (IRM) est vulnérable à différents artefacts qui affectent la qualité des images, impactant les diagnostics et l'efficacité des logiciels d'analyse. L'artefact de mouvement, inévitable, varie en magnitude et en aspect selon les cas. L'inspection manuelle des volumes, surtout dans des études de grande envergure, est dispendieuse et chronophage. Il devient donc essentiel de détecter automatiquement les volumes problématiques. Cependant, les critères de qualité varient d'une étude à l'autre, rendant difficile l'entraînement, sur la base de ces données, d'un modèle généralisable. De plus, les protocoles d'acquisition cherchant à minimiser la présence d'artefacts, les données disponibles présentent un déséquilibre des classes, limitant la robustesse des modèles.

Nous proposons une méthode pour quantifier les artefacts de mouvement pour les IRMs anatomiques cérébrales T1. Nous avons recours à des techniques de préentraînement sur des artefacts synthétiques et évaluons plusieurs méthodes de quantification, démontrant que ces modèles détectent efficacement le mouvement dans des volumes réels. Après transfert d'apprentissage, les modèles préentraînés sur données synthétiques rivalisent avec ceux entraînés sur des données réelles. En conclusion, les résultats démontrent que l'entraînement sur données synthétiques peut être efficace en pratique et permet aux laboratoires de former leurs modèles avec des ressources limitées.

La notion de service a évolué et s’est adaptée en prenant une place très importante dans une économie en pleine mutation. Le service est désormais enchâssé dans un système à trois dimensions : le support physique, la formalisation de l’expérience et les valeurs sous-jacentes. Le design, autrefois majoritairement axé sur les objets, tente d’appréhender le service en tant qu’agent intégrateur de l’expérience utilisateur. Or, les méthodes qui fonctionnent pour concevoir l'objet ne sont pas tout à fait adaptées pour un service de nature intangible, ayant une logique temporelle et s’étendant dans de multiples espaces. Le designer doit d’abord comprendre les mécanismes fondamentaux du service pour pouvoir l’appréhender et, pour ce faire, un processus de cartographie et de représentation de son écosystème s’avère nécessaire.

Au cours de cette présentation, nous exposerons la notion du service et les enjeux complexes qui entourent le concept d’écosystème de service. Ensuite, nous analyserons comment la cartographie de cet écosystème est essentielle à la compréhension de tous ses agents et de ses mécanismes intangibles. Finalement, nous discuterons de l’importance d’une représentation complète de l’écosystème de service pour construire un langage commun essentiel à la coordination des multiples acteurs qui interviennent dans la conception et la mise en œuvre du service centré sur l’humain et son contexte.

L’imagerie avec les fréquences térahertz (0.1 – 10 THz, longueurs d’onde de 3 mm – 30 µm) a reçu une attention considérable au cours des dernières années, en raison de la capacité de ces ondes électromagnétiques de pénétrer en profondeur plusieurs matériaux diélectriques autrement opaques dans le visible (tissus, papiers, cartons, polymères etc.). Cependant, le principal problème rencontré aujourd’hui en imagerie THz est le temps d’acquisition. Contrairement aux autres régions du spectre, il n’existe pas encore de caméra THz suffisamment sensible. Les détecteurs les plus sensibles qui existent sont à pixel unique. Ainsi, pour obtenir une image, il faut manuellement déplacer l’échantillon point par point. Ce processus, en plus de prendre beaucoup de temps, ne s’applique pas à tous les types d’échantillons. Dans ce projet, nous avons développé une méthode unique de reconstruction d’images qui utilise l’information spectrale d’une impulsion THz pour reconstruire une image avec un nombre très limité de mesures spatiales. L’idée principale est d’utiliser la relation linéaire entre la fréquence spatiale et la fréquence spectrale pour substituer la dimension spatiale en une dimension spectrale. Nous avons développé des algorithmes de reconstruction pour les cas importants de masques d’amplitude et de phase. Nous avons ensuite expérimentalement démontré avec succès la reconstruction d’images de 4500 pixels avec seulement 45 mesures spatiales (1%).

L'activité pédagogique Logique et mathématiques discrètes est souvent perçue comme un mal nécessaire par la majorité de la clientèle étudiante en informatique, malgré l'importance fondamentale des théories étudiées. La méthode d'apprentissage employée pour cette matière est en général peu adaptée à une population étudiante qui provient du secteur technique des cégeps, comme c'est le cas pour une partie significative de celle admise au Département d'informatique. Un projet pédagogique de l'Université de Sherbrooke propose l'utilisation de l'outil Alloy, un outil basé sur des méthodes de satisfaction de contraintes booléennes (SAT), parallèlement à la présentation des sujets en classe. Alloy est conçu de manière à pouvoir décrire simplement des modèles abstraits (une théorie est spécifiée d'une manière déclarative) et de générer des contre-exemples suite à une assertion non satisfaite. Ainsi, les étudiants peuvent formuler en logique des prédicats des propriétés, comme la symétrie et la transitivité, et les vérifier à partir de relations données, de façon à obtenir instantanément une réaction sous une forme textuelle ou graphique. Pour chaque thème du cours, une bibliothèque décrivant une théorie a été développée. Celle-ci s'accompagne d'une manière de faire afin de guider l'étudiant dans des exercices et de lui donner une rétro-action directe sur ses résultats. Nous nous proposons de présenter l'outil, les bibliothèques et les problèmes techniques liés à une telle activité.

En gestion des connaissances
(GC), la construction d’une mémoire d’entreprise (ontologie, base de
connaissances, etc.) passe par une étape de captation de la connaissance détenue
par les personnes en lien avec l’organisation (employé, client ou fournisseur).
La captation est une activité stressante car elle se déroule souvent dans un
contexte organisationnel en déséquilibre, qu’il s’agisse de restructuration ou parfois
de tensions entre employés et l’employeur, etc. Ces situations influencent
nécessairement l’état émotionnel du connaissant freinant l’accès à son savoir. Dès
lors, la captation de la connaissance devient un enjeu qui nécessite de considérer
le connaissant dans son entièreté : intellectuelle et émotionnelle.

Parallèlement au développement du
concept d’ontologie (discours portant sur l’essence des choses), les Grecs
anciens développèrent le concept de maïeutique
(du grec maieutikê) qui, selon
Platon, est l’art qu’utilise Socrate pour faire accoucher de son interlocuteur,
la connaissance qu’il sait (la connaissance explicite) mais surtout, la
connaissance qu’il ne sait pas qu’il sait (la connaissance tacite). Alors que l’élicitation
place le modèle de connaissances au centre du processus de captation, la
maïeutique, elle, y place le connaissant, permettant ainsi d’en considérer
l’état émotionnel.

L’exposé permettra de définir les
composants procéduraux, les acteurs et les instruments de la maïeutique
appliquée à la GC. La définition sera appuyée une étude de cas.

Contexte

Inscrire des activités dans un calendrier n’assure pas que celles-ci seront réalisées. Le laboratoire DOMUS a conçu un calendrier intelligent, AMELIS, qui offre le rappel automatique des activités inscrites sans savoir si celles-ci sont accomplies. La prochaine étape est donc de connecter AMELIS à un habitat intelligent pour suivre les activités inscrites et s’assurer de leur réalisation.

Méthodologie

Il faut sélectionner un algorithme de reconnaissance d’activités parmi différents algorithmes de data mining fonctionnant avec apprentissage. La sélection est basée sur leur efficacité en fonction du nombre de capteurs dans l'appartement et des activités à reconnaître. Des tests effectués sur un jeu de données provenant de capteurs du laboratoire nous ont permis de sélectionner trois algorithmes : le premier est un algorithme de simple association entre les capteurs de l’appartement et une activité, le deuxième est un algorithme basé sur les réseaux bayésiens, et enfin le dernier est un algorithme de clustering basé sur les mixtures de gaussiennes.

Ils sont utilisés par un programme qui communique avec AMELIS pour savoir quelles sont les activités à reconnaître sur une plage horaire précise.

Résultats

Le dernier algorithme est le plus efficace, mais ne fonctionne qu’avec un nombre restreint de capteurs. Le deuxième algorithme est moins efficace mais offre une reconnaissance plus fine car il utilise tous les capteurs. Enfin, la méthode par simple association a été rejettée.

Les projets de recherche impliquant l’annotation de documents textuels électroniques présentent un défi de taille pour les équipes académiques dès que plusieurs participants sont impliqués. Ils exigent des protocoles rigoureux pour l’annotation, une sécurité adaptée aux données traitées ainsi que des méthodes de saisie, de comparaison et d'agrégation des annotations qui dépassent rapidement les connaissances informatiques des gestionnaires de projet. Le constat est que les outils existants sont restrictifs à ces égards, tant sur les aspects économique, technologique, linguistique que pour leur accessibilité. Ceci a motivé la création de la plateforme PACTE, une plateforme bilingue qui facilite ce type de projet multi-utilisateur d’annotation textuelle.

Cette plateforme, développée en tant que logiciel libre, offre la possibilité aux membres d’un projet de collaborer sur les tâches d’annotation d’un corpus textuel. Elle permet au gestionnaire de définir le protocole d’annotation, les participants, les schémas d’annotation et de distribuer, manuellement ou aléatoirement, des sous-ensembles d’un corpus de grande taille aux participants. Ces annotations peuvent viser un corpus, un document ou la surface continue ou disjointe d’un document. Le module de création de schémas personnalisés offre une grande flexibilité quant aux informations à saisir pour chaque type d’annotation. Des services d’annotations automatiques bilingues peuvent aussi être appliqués pour enrichir les corpus.

La surveillance vidéo dans les zones isolées est difficile en raison des contraintes de connectivité, telles que l'absence d'infrastructure de communication terrestre et une bande passante très faible. Ce projet propose une solution en utilisant les communications par satellite pour transmettre des données de surveillance sous forme de représentations abstraites issues d'un système de compression de vidéo sémantique. Ce système, basé sur des modèles d'apprentissage profond, génère plusieurs types de représentations (coordonnées des objets, classes, ID de suivi, programmes de correction (patches) d'objets) optimisées pour les systèmes embarqués. Ces représentations, conçues pour réduire la quantité de données tout en conservant les informations essentielles, sont adaptées à des environnements à ressources limitées et transmises efficacement via les satellites.

Nous déployons ce système sur des systèmes embarqués en réduisant leur complexité grâce à des techniques de compression et de conversion de modèles. Nous optimisons les paramètres de compression pour réduire le temps de latence de transmission de l’information tout en développant un schéma de communication adapté aux contraintes des satellites en orbite basse, avec un ordonnancement efficace pour la transmission, soit à partir d'une caméra unique priorisant les représentations, soit de plusieurs caméras coopérant pour déterminer quelles données transmettre selon la bande passante et l'importance des informations.

Les troubles musculo-squelettiques (TMS) sont des lésions (douleur chronique, faiblesse musculaire, etc.) résultants de la surutilisation des tissus anatomiques, en particulier sur les postes où des travailleurs effectuent des mouvements manuels répétitifs, dans un environnement multitâche. Une proportion importante d’arrêts de travail est due à l’incapacité physique des travailleurs affectés d’un TMS. Pour ce faire, nous proposons un modèle d’interactivité humain-robot (une troisième main robotique autonome) pour favoriser la réintégration des opérateurs en absence prolongée au travail pour TMS à leur poste. Le but du modèle d’interaction robotique est l’assistance des travailleurs via le partage des tâches dans l’ordonnancement des activités de production. Bien que l’interaction robotique ait été largement étudiée, sa mise en œuvre dans l’ordonnancement reste assez complexe lors de la conceptualisation du partage des tâches et de l’efficacité du travail d’équipe. Les objectifs du modèle proposé sont orientés vers l’inclusion de la détection des activités humaines et du positionnement du corps humain dans la commande intelligente du robot. Ainsi, un algorithme de classification fiable et robuste sera mis en œuvre à l’intérieur des capteurs intelligents insérés dans des vêtements de protection individuels du travailleur, pour identifier ses actions et ses comportements anormaux. Par conséquent, le robot intervient en fonction de l’état de l’opérateur en évitant sa collision.

Pour intégrer les données probantes à leur pratique, les professionnels de la santé doivent formuler précisément leur question clinique, consulter la littérature scientifique médicale à ce sujet, évaluer la qualité et la pertinence des données trouvées avant d’intégrer leurs nouvelles connaissances à leur pratique. Afin d’améliorer la recherche des données probantes, nous nous intéressons à la prédiction de la pertinence d’un article par rapport à une question clinique, en prenant compte du type d’étude qu’il décrit et du type de la question posée. Nous nous intéressons plus particulièrement aux questions formulées à l’aide du cadre PICO, un cadre de formulation de question d’avant-plan qui permet de trouver une réponse précise à des questions cliniques. Pour prédire si un article est pertinent, nous identifions d’abord des concepts UMLS d’intérêt dans les articles et dans les questions en utilisant diverses techniques du traitement du langage naturel par des outils tels que cTAKES. Pour évaluer nos résultats, nous utilisons le corpus CLIREC. Notre prototype permet de détecter la présence de concepts présents à la fois dans les questions et les articles. Nous travaillons à améliorer notre approche en intégrant le concept de distance sémantique et en intégrant des algorithmes d’apprentissage automatique pour prédire la pertinence de l’article. L’aspect novateur de nos travaux est l’utilisation du type des questions et articles en plus des éléments PICO de la question.



Les entreprises sont souvent entraînées à investir des sommes considérables dans des activités de recherche et développement, espérant ainsi arriver à mettre en marché de nouveaux produits répondant aux besoins des consommateurs. Malheureusement, le retour sur investissement n’est pas toujours garanti dans la mesure où un très grand nombre de nouvelles technologies ou de nouveaux produits, malgré leur indéniable qualité technique, se révèlent un échec sur le plan commercial. Dans ce contexte, il apparaît opportun de pouvoir évaluer a priori les chances de succès commercial d’une technologie avant même d’investir dans des activités intensives visant sa conception et sa commercialisation. L’objectif de cette communication est d’analyser les facteurs qui permettraient de prédire le succès commercial des nouvelles technologies mobiles.  Pour y parvenir, nous avons adopté une méthodologie basée sur l’examen d’un échantillon représentatif de technologies mobiles en cherchant à distinguer celles qui ont été des succès ou des échecs commerciaux. Les résultats de cette recherche révèlent l’existence de propriétés communes aux technologies mobiles à succès, ce qui conduit à une hiérarchie de facteurs déterminants du succès commercial dans ce domaine. Cette communication contribue à l’avancement des connaissances en ce sens que cette hiérarchie constitue un outil novateur de prise de décision d’investissement dans des projets de recherche et de développement  de technologies mobiles.

Ce projet de recherche concerne l’exploitation de  wikipédia comme étant une ressource semi-structurée de connaissances linguistiques et en particulier comme étant un corpus comparable, pour l'extraction de terminologie bilingue.

L'approche tend à extraire d’abord des paires de terme et traduction à partir de types des informations, liens et textes de Wikipédia. Une deuxième approche basée sur l’information linguistique, afin de ré-ordonner les termes et leurs traductions pertinentes et ainsi éliminer les termes cibles inutiles, est utilisée.

Les évaluations préliminaires utilisant les paires de langues français-anglais, japonais-français et japonais-anglais ont montré une bonne qualité des paires de termes extraits. Cette étude est très favorable pour la construction et l’enrichissement des ressources linguistiques tels que les dictionnaires et ontologies multilingues. Aussi, elle est très utile pour un système de recherche d’information translinguistique (RIT) ainsi que pour améliorer la qualité d'un traducteur automatique statistique.

Combien y a-t-il de relations internes possibles dans un ensemble à  n  éléments?  Parmi elles, combien sont réflexives? symétriques? transitives?  De combien de façons peuvent être combinées les différentes propriétés?  Le cas  n = 3  sera étudié de façon plus détaillée, avec notamment la présentation synoptique des 104 graphes sagittaux représentatifs des 512 relations.

Les bibliothèques logicielles jouent un rôle critique dans la fonctionnalité, l'efficacité et la maintenabilité des systèmes logiciels. Avec l'adoption croissante des grands modèles de langage (GMLs) par les développeurs pour simplifier leurs processus de code, il devient essentiel d'évaluer l'efficacité de ces modèles dans la recommandation de bibliothèques appropriées. Dans une première étude, nous avons évalué les performances de ChatGPT en tant que « bibliothécaire logiciel » en générant du code Python pour 10 000 questions issues de Stack Overflow. Nos résultats montrent que ChatGPT propose des bibliothèques comportant des licences copyleft restrictives, sans que cela ne soit explicitement communiqué, dans 14,2 % des cas. De plus, 6,5 % des bibliothèques ne fonctionnaient pas correctement dès l'installation, causant potentiellement des confusions pour les développeurs. Dans un second travail, nous avons développé le Software Librarian, un outil destiné à résoudre certaines des lacunes identifiées dans l'étude précédente. Cet outil fournit des informations en temps réel sur les bibliothèques Python recommandées par GitHub Copilot, incluant les détails sur les licences, l'état de dépréciation et la santé des bibliothèques. Le Software Librarian assure donc que les bibliothèques recommandées sont non seulement valides, mais adaptées à une intégration dans les projets, en tenant compte des aspects juridiques et de la maintenabilité à long terme. 

Dans la dernière décennie, le concept de champ vectoriel combinatoire (ou discrète) introduit par Robin Forman en 1998 est devenu un outil très efficace pour la discrétisation des problèmes continus en mathématiques appliquées, l'imagerie et la visualisation.  Le but de ces recherches est de développer les liens formels entre la théorie classique de Morse et la théorie de Forman dans le contexte de systèmes dynamiques. Donc, dans cette présentation, nous débuterons par faire un résumé sur les fonctions de Morse discrète et par la suite, nous montrerons des exemples sur des champs vectoriels gradient de Morse qui est générer par un programme fait à l’interne. Ensuite, par ce champ vectoriel, nous pouvons construire un champ de vecteurs à valeurs multiples. De plus, on peut construire une application semi-continue supérieurement et de montrer graphiquement le fonctionnement de cette application. D’autre part, nous pouvons étendre ce résultat sur la théorie d’indice de Conley sur les complexes simpliciaux 2D.

Motivés par la mécanique statistique, les problèmes de dénombrement de chemins auto-évitants et de polyominos dans un réseau géométrique régulier sont parmi les problèmes ouverts les plus célèbres en combinatoire. Au cours des vingt dernières années, plusieurs chercheurs se sont intéressés aux classes de polyominos plus résolubles, ayant les propriétés particulières de convexité ou de croissance dirigés, spécialement, sur les réseaux carré et hexagonal.

Le but de ce travail est de développer des nouveaux outils pour résoudre des problèmes de nature combinatoire motivés par la mécanique statistique et la chimie organique. La nécessité de tels développements a été soulignée dans plusieurs rencontres internationales.