Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Les outils d’intelligence artificielle peuvent fournir une aide précieuse en soutien à la santé mentale, notamment en analysant les productions textuelles des personnes à risque. Afin de fournir des analyses pertinentes, il est primordial que de tels outils soient robustes à la diversité d'expression textuelle qui peut exister chez ces personnes. Dans cet esprit, nous étudions les effets que les différences d'ordre dialectique ont sur la représentation interne de messages textuels dans les modèles de langue courants en libre distribution. Nous comparons les modèles produits à partir de corpus en plusieurs langues avec ceux produits à partir de corpus francophones uniquement en les appliquant à des messages texte en français québécois.

Pour ce faire, nous comparons l'encodage de messages textes que font ces modèles avec l'encodage des mêmes messages, normalisés en français standard. Ensuite, les modèles sont ajustés afin de rapprocher les encodages des deux versions d'un même message et ainsi faire abstraction des particularités d’expression qui distinguent ces versions.

Nos résultats indiquent que les modèles produits à partir de corpus en français sont plus réceptifs à ces ajustements que ceux produits à partir de corpus multilingues.

En utilisant des approximations locales, par le biais de ponts browniens et de courbes de Daniels, nous proposons un nouvel algorithme de simulation permettant d'estimer la densité du premier temps de passage d'un mouvement brownien à travers une frontière évoluant dans le temps. Nous effectuerons des études comparatives avec des méthodes existantes afin d'établir l'efficacité de notre approche. Enfin, nous appliquerons nos résultats dans le contexte d'un problème de gestion de portefeuilles.

Lorsque vient le moment de suivre un évènement dans le détail, le lecteur attentif de l’actualité n’a plus le choix ; il doit sélectionner les sources d’information qu’il veut privilégier. L’information est là et partout, en plusieurs langues et s’exprimant au travers de multiples points de vue. Cette disparité dans le traitement crée ce que l’on pourrait appeler des trous informatifs qu’il est impossible de combler sans lire l’ensemble de ce qui s’est écrit sur le sujet. Notre méthodologie comporte quatre étapes : la construction du corpus documentaire de manière semi-automatique, l'alignement des sources, l'identification des trous informationnels, la visualisation et la validation des résultats.  Notre corpus de travail est construit en utilisant des modèles probabilistes qui permettent de dégager les documents, rédigés en français et en anglais, relatant les mêmes faits historiques. L'alignement des sources s'effectuent après avoir encodé les textes dans une structure de graphes qui, une fois projetée dans un espace de moindre dimension, permettra à l'utilisateur d'identifier les couvertures médiatiques semblables et distinctes, ces dernières venant ainsi combler les trous informatifs. La visualisation résultante sera validée auprès d'experts. Ce projet contribue à donner aux utilisateurs le potentiel d'innover en étant à même d'appréhender toute la richesse de nos sources documentaires afin de mieux les explorer et, par le fait même, de les étudier.

La vidéo surveillance génère un volume important de données qui doivent être transmises sur des canaux de communication. Dans les zones rurales et isolées, l’accès aux réseaux de télécommunications à bon débit n’est toujours pas garanti. Cela impose la nécessité de réduire le volume de données afin de permettre la tâche de surveillance à temps réel. Nous présentons un système basé sur l’intelligence artificielle pour effectuer la compression efficace des vidéos dans un cadre de communication sémantique. La compression se fait en générant des représentations abstraites des objets qui tiennent les informations les plus pertinentes à la surveillance.

Le système combine plusieurs modèles d’apprentissage profond qui génèrent différentes représentations sémantiques qui varient en taille et signification. Un modèle de détection et suivi des objets, YOLOv10, permet d’identifier les objets et leurs mouvements. Un grand modèle de langage pour la vidéo génère des descriptions textuelles de la scène. D’autres modules permettent la séparation d’arrière-plan statique et l’échantillonnage temporel des images vidéo pour éliminer les redondances spatio-temporelles. Ce système permet de transmettre des données représentant seulement 1 % à 12 % du volume initial de la vidéo. Nous établissons ainsi une mesure pour évaluer la valeur sémantique des représentations extraites. Le système vise également à trouver un équilibre entre le taux de compression et la valeur sémantique.

Les systèmes informationnels sont désormais au centre des décisions en santé. Un très grand volume de données associées à des évènements interreliés temporellement est généré chaque jour. Les établissements de santé désirent réutiliser ces données pour différents types d’analyse et les partager d’une façon exploitable. L’efficacité des études cliniques dépend de la quantité et de la qualité des données recueillies. D’une part, l’extraction des informations d’intérêt à des fins d’études demeure un grand défi au vu du grand nombre de sources hétérogènes et des connaissances diversifiées. D’autre part, la temporalisation est devenue un enjeu crucial afin de garder les traces de l’évolution des données et d’améliorer la prise de décision clinique. L’approche préconisée consiste à construire un entrepôt de données (ED) en se basant sur un modèle de connaissance (ontologie) pour faciliter l’intégration des sources, l’extraction des informations et l’expression des requêtes. La construction d’un ED demeure en grande partie manuelle. Les méthodes existantes sont basées sur des règles ad hoc avec un minimum de gestion de la temporalisation ce qui limite l’interopérabilité temporelle et donc à l’exploitation de données. Le but est d’élaborer une méthode semi-automatisée de construction d’ED temporalisées à partir d’un modèle de connaissance et d’un modèle temporel unifié construits selon des critères fondamentaux tels que la théorie relationnelle et les ontologies réalistes.

Résumé:

L'atterrissage d'urgence est un critère de conception important dans la certification de navigabilité. Les charges transmises aux passagers lors d'un atterrissage dur peuvent être fatales, et les systèmes d'absorption d'énergie jouent un rôle fondamental pour dissipez les énergies libérées lors des crashs.

Le défis est de prédire les endommagements, leur initiation, leur évolution au cours de l’écrasement, et l'énergie absorbée, à partir d'un nombre limité de propriétés matériau. Le but est d'améliorer la compréhension des mécanismes élémentaires impliqués dans l'écrasement des composites tissés 2D à base d’Époxyde et de fibres de carbone et de développer un modèle numérique performant. Ce dernier doit représenter principalement ; le délaminage et l’évasement des Plis, la fragmentation, Les bandes de pliage. Les paramètres du modèle doivent être identifier par des tests expérimentaux.

La première étape du processus de validation est la simulation des essais quasi statiques sur des échantillons choisis. Ensuite, les simulations des essais dynamiques assurent l’étude des modèles de dégradation et l’effet du taux d’endommagement sur la réponse finale.

Les résultats de validation montrent que le modèle capture bien la physique du phénomène de crash et prédit avec une bonne tolérance le comportement des coupons avec section en forme de chapeau fabriqués avec des composites tissés en fibre de carbone imprégné dans une matrice époxyde.

On sait que la composition de la communauté microbienne recrutée par la rhizosphère  (CMRR) varie qualitativement selon la source les conditions d’irrigation, l’espèce végétale cultivée et même le stade de maturation de la rhizosphère. Qui plus est, on sait que les fonctions écosystémiques jouées par la composition de la CMRR peuvent aussi changer selon les conditions environnementales de ce microcosme. Même si ces informations suggèrent que le type de pratique agricole (conventionnel, biologique, en transition ou en semis directs) doit aussi affecter la composition de la CMRR et les fonctions jouées par celle-ci, il y a une lacune à ce propos dans la littérature.

L’objectif de ce projet est d’évaluer l’effet des pratiques agricoles sur le recrutement de la communauté fonctionnelle microbienne de la rhizosphère de grandes cultures agricoles du Québec.

Les résultats présentés permettront de comparer les pratiques agricoles sur la base de la composition de la CMRR et de sa diversité fonctionnelle. Un portrait du réseau écologique porté par la CMRR de chaque pratique agricole servira de support visuel pour faire le pont entre les différents éléments de la présentation. La portée de cette expérience tient en ce que les fonctions écosystémiques jouées par la CMRR, une fois révélée, pourront servir à guider le choix des politiques agricoles dans un optique de développement durable et de transition écologique.

La biomasse forestière est considérée comme une source importante de carbone organique. Conséquemment, elle représente le remplacement idéal aux produits issus de la pétrochimie. Plus spécifiquement, la lignocellulose est le composé biosourcé le plus abondant sur terre. Un des composés aromatiques à valeur ajoutée obtenue de la dépolymérisation de la lignine est la vanilline. Cette dernière est d'ailleurs produite de manière écoresponsable à partir de l'épinette de Norvège (écorce et bois), et ce, à raison de 2 500 tonnes par année. Dans le cadre de ce projet, nous nous sommes intéressés à l'utilisation de la vanilline comme précurseur biosourcé pour la préparation de plusieurs monomères divanilline. Ces monomères ont ensuite été polymérisés par condensation aldolique sans l'utilisation de catalyseur métallique. Les propriétés physicochimiques, optiques et thermiques des polymères ont également été étudiées pour une application en électronique organique. Ces résultats démontrent qu'il est possible de préparer des polymères conjugués entièrement biosourcés.

Caenorhabditis elegans (C. elegans) est un organisme modèle largement utilisé pour examiner la réponse nocifensive aux stimuli nocifs. Afin de contourner la complexité du système nerveux des mammifères, nous utiliserons C. elegans pour étudier la pharmacologie de ligands aux récepteurs vanilloïdes (TRPV). C. elegans exprime des récepteurs orthologues au TRPV1 (OCR-2 et OSM-9) dont les mécanismes d’activation sont apparentés. Le comportement caractéristique et quantifiable d’évitement de la chaleur nocive de C. elegans sera utilisé pour étudier les effets anti-nociceptifs de molécules. L’objectif de cette étude est de démontrer les effets antinociceptifs de la capsaïcine et de ses analogues (6-gingerol, 6-shogaol, curcumin) chez C. elegans. La capsaïcine et ses analogues stimulent et ensuite désensibilisent les récepteurs TRPV1 afin de produire un effet analgésique chez les mammifères. Cet effet n’a jamais été démontré auparavant chez C. elegans.Nous quantifierons les comportements d’évitement de C.elegans suite à des stimuli thermiques nocifs. Les nématodes seront exposés à des solutions de capsaïcine ou d’analogues et nous caractériserons la modulation du phénotype d’évitement à la chaleur nocive (33˚C) induite par l’effet de ces molécules. Nos résultats préliminaires ont révélé un effet anti-nociceptif significatif dose dépendant de la capsaïcine chez C. elagans. Également, nous avons démontré que ces effets anti-nociceptifs sont liés principalement à la liaison avec OCR-2.

Le traitement des tumeurs par la radiothérapie nécessite l'utilisation d'un accélérateur pour la production d'un faisceau de rayons-X énergétiques (RX). Les RX sont destinés à couvrir le volume cible de la tumeur tout en minimisant la probabilité de dommages aux tissus normaux, en particulier les organes à risque. Il est courant d'utiliser des calculs par ordinateur en se basant sur des images de tomodensitométrie (TDM) pour planifier les directions des RX de mème que leur énergie. En recherche, des calculs similaires sont utilisés mais cela nécessite beaucoup de connaissance en physique et en programmation informatique. Dans le présent travail, nous avons réalisé une interface basée sur les mêmes calculs qu'en clinique, mais elle est simple d'usage en choisissant, par de simples clics de souris, l'image TDM du patient, le type de radiation, le nombre de particules et leur énergie et quelques autres paramètres proposés par des menus. L'interface, G4DARI (Geant4 for Dose and Radiation Interaction), peut être installée sur un PC Windows ou Linux. Le système s'installe en un bloc avec tous les outils et les programmes nécessaires. En conclusion, G4DARI est facile d'utilisation sans aucune nécessité de connaissance en physique des radiations ou en programmation informatique. C'est aussi un outil pédagogique pour comprendre les interactions des particules.

L’industrie de l’abattage des animaux génère de grandes quantités de peaux qui sont actuellement traitées comme des déchets. L’enfouissement de ces matières résiduelles occasionne des coûts, avec un impact sur la rentabilité des abattoirs et sur le coût de la viande. Avec une approche fondée sur l’économie circulaire, cette ressource peut être utilisée pour la production de cuirs et de peaux lainées grâce à un processus de tannage. À la demande de Viandes Lafrance, Écofaune boréale a travaillé sur un lot précommercial de 500 peaux de mouton afin de développer des méthodes de tannage innovantes et respectueuses de l’environnement. En réduisant la quantité de sel (NaCl) et en substituant le chrome par des tanins végétaux, nous avons obtenu un produit avec des caractéristiques intéressantes en vue de sa commercialisation. Une analyse du cycle de vie réalisée par le Centre de transfert technologique en écologie industrielle a confirmé, sur la base du cadre de l'étude et des données collectées, que ce nouveau processus a un impact moindre sur la santé humaine et sur les écosystèmes par rapport au scénario de référence, qui consiste à enfouir les peaux de moutons abattus et à importer des peaux lainées tannées au chrome. Ce projet a permis de démontrer la faisabilité du tannage des peaux de mouton au Québec avec un processus écoresponsable, tout en soulignant l’intérêt commercial et économique de ce produit.

Dans le cadre du traitement automatique de la langue, plusieurs cadres linguistiques ont été proposés pour modéliser les relations discursives entre unités textuelles qui nous permettent d'interpréter le but communicatif des éléments d'un texte. Cependant, il n'existe pas encore de consensus sur un schéma commun d'étiquetage de relations discursives. Les deux corpus les plus utilisés à cette fin sont le RST-DT (Rhetorical Structure Theory Discourse Treebank) et le PDTB (Penn Discourse Treebank).

RST-DT considère le discours comme une organisation hiérarchique d'unités textuelles. Un texte est d'abord divisé en unités minimales puis la relation entre ces unités est identifiée à l'aide d'un inventaire de relations de discours. À l'inverse, dans le PDTB, les relations de discours sont annotées en marquant d'abord les connecteurs de discours, puis leurs arguments. Les connecteurs de discours sont donc traités comme les ancres des relations discursives et chaque connecteur se voit attribuer une étiquette de sens à partir d'une hiérarchie d'étiquettes.

L'objectif de mon projet de recherche est d'établir une correspondance entre RST-DT et PDTB qui permettrait l'utilisation de ces deux corpus de manière transparente et interchangeable. Nous avons déjà conçu une méthode préliminaire pour établir une correspondance directe en utilisant une partie commune des corpus. Ceci nous a permis de fait correspondre 77,4 % des relations du PDTB à une relation dans RST-DT.

Afin d’assurer leur croissance et leur survie en conditions de stress, les bactéries utilisent divers mécanismes de régulation, tels que les petits ARN régulateurs (sRNA). Ces sRNA interagissent avec des ARNm cibles afin de réguler l’expression de certains gènes. Une des composantes intéressantes qui a été étudiée dans notre laboratoire est la régulation de la division cellulaire chez Escherichia coli par des sRNA. Cette étude a été mené sur zapB, un facteur de division cellulaire, à l’aide de deux sRNA; RyhB et DicF. Le sRNA RyhB est impliqué dans le métabolisme du fer (Fe), alors que DicF est impliqué directement dans le mécanisme de la division cellulaire, plus précisément dans la formation et la séparation des chromosomes répliqués dans les cellules filles. Afin d’élucider les mécanismes d’interaction des sRNA RyhB et DicF avec l’ARNm zapB, la technique MAPS développée au laboratoire a été utilisée afin de co-purifier les cibles potentielles des sRNA respectifs. Ensuite, les cibles ont été validées et caractérisées à l’aide de plusieurs techniques in vitro et in vivo. Ceci a permis de constater que zapB est régulé négativement par RyhB et que ce dernier a un effet sur la division cellulaire lors d’une carence de fer, alors que DicF régule positivement ce facteur de division cellulaire. Cette étude a permis de mieux comprendre les effets de ces deux sRNA sur la division cellulaire chez E. coli et les mécanismes que cette bactérie utilise pour assurer sa survie.

Plusieurs études ont été publiées sur le microbiome du porc. Malheureusement, peu de protocoles standardisés ont été établis et de nombreux biais peuvent être induits par la méthodologie utilisée pour collecter les fèces. En plus d’évaluer l’efficacité d’un stabilisateur commercial (PERFORMAbiome•GUT | PB-200, DNA Genotek, Ottawa, ON) pour la collecte de fèces, des échantillons ont été recueillis et stabilisés selon différents protocoles. L’ADN complet extrait de ces échantillons a ensuite été séquencé à haut-débit par Illumina. Les analyses taxonomiques ont montré que les méthodes de préservation avaient moins d’impact que le fait d’utiliser plusieurs porcs. Toutefois, les échantillons non stabilisés ont une composition taxonomique différente de celle des échantillons stabilisés. Des analyses sur la catégorisation des gènes ont également permis d’établir que de stabiliser ou non les échantillons influence fortement les analyses fonctionnelles. De plus, l’ADN était significativement plus dégradé pour les échantillons qui n’avaient pas été stabilisés que pour ceux stabilisés directement après la collecte. En plus de démontrer l’efficacité du produit étudié, la présente étude propose des solutions afin de stabiliser l’ADN d’échantillons déjà prélevés. 

 

Mazaea Stål, 1876 est un genre d'acridien afrotropical monospécifique, donc la position taxonomique est controversée, la délimitation des espèces au sein des taxa n'étant pas claire et nécessite de ce fait des études supplémentaires. Dans le présent travail, nous avons exploré la position taxonomique du genre Mazaea, en utilisant une approche intégrative qui combine des données morphologiques, en particulier du complexe phallique, avec les analyses génétiques. Les mâles ont été examinés, les genitalia internes disséqués, puis photographiés. L'ADN a été  séquencé et la première phylogénie du genre a été  fournie. Les résultats ont montré qu'il existe trois types d'édéages au sein du genre Mazaea (édéage à apex étroit et parallèle, édéage à apex divergent et élargi, édéage à apex étroit et divergent). Les types d'édéage à apex étroit et parallèle et à apex plus large, divergents sont les plus communs et sont largement présents dans la zone forestière du sud Cameroun. Par ailleurs, toutes les espèces connues sont clairement distinctes et sont identifiables par le code-barres ADN. Il est donc évident qu'une spéciation cryptique se produit au sein du genre acridien Mazaea. Nos données montrent que la diversité acridienne des forêts tropicales africaines est sous-estimée et que de nouvelles espèces peuvent être facilement découvertes en utilisant une approche intégrative.

La production d’acier représente l’une des plus grandes sources de pollution au monde. En vue de décarboniser la production de ce matériau, les entreprises se tournent vers des combustibles plus verts comme l’hydrogène. Ceci permet de réduire la consommation de ressources fossiles nécessaires au procédé. Le minerai de fer, à son état naturel, contient une grande quantité d’oxygène. L’étape de réduction du procédé de fabrication d’acier consiste en la combustion à haute température de cet oxyde de fer pour retirer la majorité de l’oxygène et obtenir du fer pur. L’injection d’hydrogène entraîne des déséquilibres sur les réactions chimiques du four de réduction et demande plus d’énergie pour assurer la même production d’acier.

Grâce à une modélisation complète du procédé, l’industriel pourra contrôler la production d’acier tout en minimisant les émissions de gaz à effet de serre. L’intégration de bases de données spécialisée en métallurgie (FACTSage) simulera le procédé avec une précision inégalée.

Chaque composante de l’usine sera modélisée indépendamment. Par la suite, l’entièreté des flux de l’usine sera prise en compte dans la modélisation pour trouver les paramètres qui minimisent la quantité de CO2 émise. Une phase d’implémentation en usine sera conduite afin de comparer les résultats numériques aux données réelles. Enfin, des essais en laboratoire seront effectués afin de s’assurer que la quantité d’impureté du produit respecte les standards de qualité du produit.

Le marché des grains de spécialité qui est en croissance constante au Québec amène les producteurs à entreposer leurs récoltes. En raison des normes strictes de qualité exigée, moins de 25 % de toute l’orge cultivée par les exploitants agricoles canadiens est acceptée pour le maltage engendrant d’importantes conséquences économiques. Pour satisfaire ces critères de qualité (p. ex. : taux d'humidité et de protéines), le contrôle de la température et de l’humidité par ventilation est primordial. Or, les techniques conventionnelles de séchage ne permettent pas de répondre aux exigences spécifiques. Ainsi le projet consistait à développer des capsules attachées à un câble enfoui dans les grains permettant une lecture, donc un contrôle, en temps réel de l'humidité et de la température du grain dans deux silos à grains de la ferme expérimentale du Cégep d’Alma. Une application a été développée pour suivre ces deux éléments critiques sous forme graphique et à distance et un objectif de 50 % du grain qualifiable est attendu. Une phase II est planifiée afin de faire un contrôle prédictif par PID (proportionnel, intégral, dérivé) ou encore par intelligence artificielle à partir de données météo d'Environnement Canada. Ce contrôle permettrait d’anticiper le séchage pour des périodes intenses et d’éviter les consommations électriques de pointe, impact économique majeur. Les premiers résultats sont intéressants mais il reste encore du calibrage et à faire un cycle complet d’une année.

Le bouleau à papier (Betula papyrifera) a présentement très peu d’applications par l’industrie forestière et sa présence crée des difficultés dans les opérations d’exploitation forestière. Le bois est généralement laissé sur les parterres de coupes constituant une pure perte. Des études sur les extractibles ont été effectuées sur les feuilles, les branches, les ramilles et l’écorce, mais aucune étude n’a été effectuée sur les composés volatils du bois dur à notre connaissance.  L’objectif du projet est de dresser le profil des composés volatils dans l’huile essentielle du bois dur de B. papyrifera.  L’identification et la quantification des molécules volatiles pourraient permettre d’identifier des composés ayant une valeur commerciale pour différentes industries ou un intérêt pour la recherche scientifique et ainsi de potentiellement trouver de nouvelles manières de valoriser le bouleau blanc pour l’industrie forestière.  Tout d’abord, des échantillons d’huile essentielle ont été obtenus par hydrodistillation à partir du bois dur de différents spécimens de bouleau à papier.  Les composés volatils ont ensuite été identifiés par GC-MS en comparant avec des bases de données, puis semi-quantifiés par GC-FID. Des résultats préliminaires ont permis d’identifier plus de 60 composés dans l’huile essentielle. Les composés majoritaires identifiés sont l’hexanal (28%), le 2,4-decadienal (20%), l’acide linoléique (14%) et le 2-pentylfuran (6%).

Les tributaires peuvent jouer un rôle important dans l’hydraulique hivernale des rivières, en particulier pendant la saison de la débâcle. Ils peuvent entre autres contribuer à engendrer des embâcles de glace, augmentant alors le risque d’inondations soudaines et menaçantes pour les populations riveraines. Or, les connaissances sur le comportement des tributaires pendant la débâcle et leurs effets sur la formation d'embâcles en aval sont encore limitées et la recherche la plus exhaustive n’a été produite que sur un modèle réduit en laboratoire. L’objectif principal de cette étude est donc de quantifier les processus de débâcle sur les confluences, afin de comprendre l'interaction entre les glaces des tributaires et celles des rivières en aval dans un contexte réel. Pour atteindre cet objectif, une campagne de terrain de 3 ans a été menée à la confluence des rivières Sainte-Anne et Bras-du-Nord, au Québec. Les mesures sur le terrain comprenaient les niveaux et la température de l'eau, ainsi que la concentration et l'état de la glace de surface à trois endroits le long de la confluence : un sur chaque bras en amont de la confluence, et un en aval de la confluence. Les données résultantes ont ensuite été analysées pour identifier et comprendre les processus de glaces importants. Les résultats ont permis d’observer que la morphologie de cette confluence est à lit discordant et que dans des conditions hydro-environnementales différentes, le même processus de formation d'embâcles pouvait se reproduire. En plus, en comparaison avec les processus définis en laboratoire selon la littérature, la formation d'embâcles à cette confluence peut être associée à l'impact de l'écoulement à surface libre du tributaire contraignant la glace de la rivière principale.

Le cancer du poumon représente 9% des cas de cancer dans le monde, avec un taux de survie moyen de 5%. Ce cancer agressif a bénéficié de la radiothérapie (RT) et de la thérapie photodynamique (PDT), qui ont amélioré les résultats pour les patients, mais présentent encore de nombreux inconvénients.

Les nanoparticules (NP) dopées au lanthanide peuvent être excitées par des rayons X comme ceux utilisés dans RT et produire radioluminescence (RL). Elles peuvent également être excitées par une lumière infrarouge (IR) et produire une luminescence de conversion ascendante (UC). Nous avons conçu des NPs mésoporeuses recouvertes de silice NaLuF4 : Gd3+, Dy3+, Yb3+, Er3+ qui peuvent induire une double PDT (dPDT), via RL et UC simultanément, en combinaison avec un médicament PDT appelé Rose Bengal (RB). Ces NP provoquent également une augmentation locale de la dose de rayonnement, fournissant un effet thérapeutique supplémentaire. La dynamique de luminescence des NP a été évaluée à l'aide de plusieurs techniques spectroscopiques pour établir les mécanismes simultanés RL et UC et le transfert d'énergie au RB. Des études in vitro sur des cellules cancéreuses du poumon ont été réalisées sous rayons X, IR et double excitation pour évaluer l'effet thérapeutique sur une gamme de concentrations de NP et de doses de rayonnement. La toxicité des NP, l'activité métabolique et les essais clonogéniques ont été utilisés pour déterminer la viabilité de cette nouvelle technique de traitement potentiel.

L'expansion de l'épidémie de la COVID-19 dans le monde a incité les gouvernements à mettre en œuvre des stratégies de contrôle afin de limiter les dégâts. Nous avons établi un modèle mathématique structuré en âge capable de représenter la situation de l'épidémie de la COVID-19 lors de la première vague dans la province de Québec. L'hétérogénéité liée à l'âge est très importante dans le cas de la COVID-19 puisque les interactions entre les individus sont plus accrues chez la population active (moins de 65 ans) que chez les personnes âgées (65 ans et plus), et que la maladie est plus sévère chez les personnes âgées. Pour chaque groupe d'âge, nous avons subdivisé la population en plusieurs compartiments afin de pouvoir suivre la dynamique des individus infectés au cours du temps. Nous avons ensuite intégré dans le modèle la vaccination et le dépistage comme moyens de contrôle pour tester leurs efficacités. En plus de bien représenter les données réelles existantes sur les populations infectées, notre modèle a été capable de prédire l'évolution du nombre cumulé de décès dans les deux groupes d'âge au Québec lors de la première vague de l'épidémie. Ensuite, nous utilisons le modèle pour mettre en évidence l'importance de la vaccination et des tests de dépistage comme stratégies de contrôle de l'épidémie.

Nous cherchons à soutenir le développement linguistique des enfants autistes d’âge préscolaire à l’aide d’une application de visionnement de vidéo. Cette initiative est soutenue par des acteurs du milieu de l’autisme qui ont remarqué que ces enfants s’orientent spontanément vers des vidéos comportant des lettres, des nombres, des formes et des couleurs. Par cette exposition, plusieurs enfants atteignent rapidement une connaissance autodidacte des codes écrits et un vocabulaire qui facilite leur entrée dans la langue orale plusieurs années plus tard. Afin de personnaliser les recommandations vidéo en fonction des centres d’intérêt de l’enfant, nous posons l’hypothèse que l’utilisation des sous-titres provenant des vidéos et appliqués à des modèles de langue permettra d’améliorer la qualité des recommandations.

Méthodologiquement, cela consiste à créer différents corpus via l’extraction et aux prétraitements des sous-titres. Déterminer la paramétrisation optimale des modèles de langues à l’aide d’algorithmes d’optimisation et des réseaux de neurones. Sélectionner le modèle optimal à l’aide d’analyse quantitative et qualitative.

Les résultats attendus permettront de décrire des séquences vidéo où il sera alors possible de regrouper ces informations sur une base de similarité.

Finalement, l’innovation de ce projet consiste en l’utilisation des modèles de langues sur ce type de données textuelles et en leur entrainement.

Le facteur de transcription sterol regulatory element-binding protein 1 (SREBP1) est l’un des régulateurs clefs régulant l’homéostasie des lipides. SREBP1 peut être régulé par divers stimuli nutritionnels ou hormonaux. Les mécanismes moléculaires sous-jacents à ces réponses adaptives restent à être élucidés. Des résultats préliminaires ont montré qu’une diminution de la concentration intracellulaire en oléate menait à une diminution de la lipogenèse et que cet effet pourrait être médié par l’acylation de SREBP1 par l’oléate. L’acylation augmente le caractère hydrophobe d’une protéine et favorise sa liaison membranaire régulant ainsi sa localisation subcellulaire, sa stabilité et ses interactions à d’autres protéines. L'objectif est alors de caractériser les mécanismes moléculaires impliqués dans la régulation de l’activité de SREBP1 par l’oléate. Une analyse bioinformatique a permis d’identifier un potentiel site d'acylation qui sera confirmé par spectrométrie de masse. Une construction contenant l’ADNc de SREBP1 muté sur ce site a été construit afin d’évaluer l’impact de l’acylation sur la localisation, la stabilité et l’activité transcriptionnelle de SREBP1. La caractérisation d’un nouveau mécanisme de régulation de l’activité de SREBP1c constituerait une avancée majeure dans le domaine du métabolisme des lipides et de la compréhension de plusieurs maladies telle que l’obésité, le diabète, le cancer et la neurodégénérescence.

Le développement industriel et la consommation de produits à base de pétrole ont déclenché une crise énergétique et un problème environnemental mondial. L'exploitation de sources d'énergie renouvelable demande le développement de nouveaux dispositifs de stockage d’énergie. L'un de ces nouveaux dispositifs de stockage est le supercondensateur, qui possède une densité d'énergie et de puissance se trouvant entre la batterie et le condensateur. La création d'un supercondensateur permettrait d'optimiser les performances énergétiques des appareils ayant besoin d'une grande quantité d'énergie en peu de temps. Le but de notre projet est la création d'un supercondensateur à base de matériaux renouvelables et l'optimisation de sa densité d'énergie, ce qui se fait en augmentant la surface spécifique des électrodes du supercondensateur, ce qui augmentera l'interface électrodes-électrolyte et donc la densité énergétique. L'augmentation de la surface spécifique passe par la synthétisation de nanofibres de lignine produites par électrofilature. La lignine est le second composé en importance des plantes après la cellulose. Son abondance et son caractère renouvelable en font un excellent candidat pour une exploitation responsable des ressources naturelles. Cette communication sera axée sur la création d'un supercondensateur à partir d'aérogels composés de membranes de nanofibres de lignine.

La découverte de nouvelles molécules thérapeutiques est une tâche longue et laborieuse. Afin d’accélérer ce processus, des méthodes informatiques dites in silico ont été développées. Malheureusement, ces outils sont souvent sujets à un compromis entre efficacité et temps de calcul. Notre recherche se concentre alors sur le développement d’un modèle à la fois efficace et rapide pour obtenir l’énergie potentielle et la géométrie optimisée de petites molécules d’intérêt. En effet, ces données sont notamment utiles pour améliorer des programmes de prédiction de chimie médicinale comme le criblage virtuel ou l’amarrage moléculaire.

Pour cela, nous avons développé notre propre modèle de mécanique moléculaire afin d’intégrer directement des principes connus en chimie organique tels que l’hyperconjugaison ou l’électronégativité. En effet, ces notions sont régulièrement utilisées qualitativement pour la prédiction de réactivité dans de nombreuses réflexions de chimistes organiciens. Notre modèle utilise alors ces principes pour prédire quantitativement les barrières énergétiques séparant les différentes conformations des molécules et peut être utilisé directement pour optimiser la géométrie de petites molécules d’intérêts. Cette méthodologie, dénommée H-TEQ (pour Hyperconjugaison pour la Torsion, l’Énergie et sa Quantification) a été testée sur de nombreux jeux de molécules différents de taille et de complexité graduelles et a démontré une meilleure précision que les méthodes habituelles.