Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

L'échographie est un outil non invasif qui permet de visualiser les organes en temps réel. Toutefois, la qualité des images dépend fortement de la maîtrise de la sonde, un défi pour les débutants en raison de la coordination et de l'expertise nécessaires. Il est donc essentiel d'améliorer leur formation. De plus, les échographistes sont exposés à des risques de blessures dues aux mouvements répétitifs et aux mauvaises postures, compromettant leur carrière. Afin de résoudre simultanément ces deux problèmes, ce projet propose le développement d’un système de guidage pour la manipulation de la sonde échographique, fournissant des indications tactiles par des moteurs vibratiles pour orienter le mouvement des doigts à l’épaule. Les moteurs sont placés de manière à rendre ces indications intuitives. En se basant sur des études existantes sur le guidage du bras global et les mouvements échographiques, la position théorique des moteurs a été définie. Pour la première validation, quelques personnes vont tester le prototype d’essai pouvant envoyer des indications pour deux mouvements échographiques. Ces essais vont permettre de vérifier de façon préliminaire et qualitative la clarté des indications.

Au cours de la dernière décennie, l'imagerie ultrasonore ultrarapide a connu une percée avec l'imagerie 3D, mais reste un défi à une cadence d’imagerie élevée et une haute résolution. De plus, la microscopie de localisation ultrasonore (MLU), basée sur la détection des microbulles injectées dans le sang a récemment permis de résoudre des vaisseaux de 25µm dans l’ensemble du cerveau en 2D chez l’humain. Une nouvelle approche de sonde : la ligne-colonne (Row Column Arrays, RCA) réduit le nombre d'éléments piézoélectriques d'une sonde matricielle de N2 à 2N en gardant une grande ouverture et moins de données. Cette approche consiste à utiliser deux réseaux linéaires orthogonaux superposés, en utilisant alternativement l'un en émission et l'autre en réception. Des études avec une sonde RCA prototype à 12MHz in silico, in vitro et in vivo sur souris saine seront menées afin d’optimiser les paramètres des séquences d’acquisitions. Les données seront traitées avec deux algorithmes de reconstruction différents (DAS et SMIF) afin de choisir le plus optimal en termes de résolution et de contraste.  Dans ce projet, nous montrons que les images peuvent être considérablement améliorées en utilisant une approche matricielle spatio-temporelle (SMIF, basée sur la corrélation) in vitro. Nous appliquons les deux méthodes sur des souris transcrâniennes afin de visualiser la microvascularisation cérébrale, et diagnostiquer si possible les maladies cérébro-vasculaires au plus tôt.

La gonarthrose est un trouble orthopédique fréquent. Les facteurs morpho-fonctionnels tels que la géométrie 3D et la cinématique 3D sont reconnus comme des acteurs principaux de la pathogénèse de la gonarthrose. Or, il n’existe aucune méthode d’évaluation morpho-fonctionnelle du genou. L’objectif principal de ce projet consiste donc à développer une méthode innovante capable de fusionner, à l’aide d’outils non invasifs et peu irradiants, la géométrie 3D et la cinématique 3D du genou au cours d’accroupissements dynamiques sous charge.

La cinématique 3D du genou sera enregistrée à l’aide du KneeKG™ puis corrigée à l’aide d’une des méthodes développées : la méthode de calibration multiple et/ou la méthode d’optimisation globale. Une fois corrigée, nous lui fusionnerons la géométrie 3D des os du genou reconstruite à l’aide du système EOS™. Il sera alors possible d’évaluer les surfaces de contact du genou. La validation de notre méthode se fera sur 10 sujets sains et 10 patients souffrant de gonarthrose.

Le protocole expérimental a été développé et testé à l’aide d’un sujet pilote. Des résultats préliminaires concernant la méthode de calibration multiple sont attendus. Le recrutement des participants a débuté en novembre 2011.

Ce projet aboutira à une méthode d’évaluation originale permettant d’analyser les caractéristiques morpho-fonctionnelles de genoux sains et arthrosiques au cours d’accroupissements dynamiques sous charge, ce qu’aucune étude biomécanique n’a réalisé à ce jour.

Plusieurs méthodes ont été utilisées dans la littérature pour le calcul approximatif ou exact des poids de Mayer : changements de variables, utilisation de symétries, analyse de Fourier, fonctions spéciales (polynômes orthogonaux, harmoniques sphériques, fonctions de Bessel, etc.), intégration numérique, méthodes de Monte-Carlo.

Dans le présent travail, nous adaptons la méthode des transformées de Fourier dans le but de développer de nouvelles formules exactes ou asymptotiques pour le poids de Mayer. Nous utilisons d’abord la notion d’arborescence couvrante croissante d’un graphe connexe afin d’obtenir un changement de variables qui va nous permettre d’exprimer le poids de Mayer pour une interaction quelconque et en dimension quelconque sous la forme d’une intégrale dont les variables sont en bijection avec les arêtes de l’arborescence couvrante. En utilisant les transformées de Fourier, nous transformons ensuite cette intégrale en une nouvelle intégrale générale dont les variables sont, cette fois, en bijection avec les arêtes complémentaires de l’arborescence couvrante. Cette méthode est illustrée sur divers exemples particuliers. Nous l’utilisons aussi pour obtenir en dimension d, dans le cas des particules dures, des formules exactes et asymptotiques.

L’ATP extracellulaire peut réguler des fonctions du poumon, comme la clairance muco-ciliaire. Sous des conditions physiologiques, les cellules libèrent l’ATP, mais ce mécanisme est peu connu. Nos travaux ont démontré que l’ATP est libérée en réponse à des contraintes mécaniques, dont l’étirement. L’objectif est donc d’étudier les mécanismes physiologiques du relargage d’ATP induit par l’étirement dans les cellules alvéolaires de rat.

Des cellules alvéolaires de type II (ATII) de rat sont fixées sur une chambre en silicone. Celles-ci sont baignées dans du DMEM avec de la luciférine-luciférase (LL) et sont soumises à un étirement de 1 s de 7-49%. Un système de lentilles à grand champ de vision favorisant l’apport de lumière était conçu pour visualiser l’ATP. La bioluminescence de la réaction ATP-LL est capturée en temps réel avec une caméra EMCCD.

Le nombre de cellules répondant au stimulus et la quantité d’ATP libérée sont proportionnels à l’intensité de l’étirement. 100 µM de carbenoxolone ou 2,5 mM de probénécide n’affecte pas la sécrétion d’ATP par rapport aux contrôles, ce qui suggère que ce processus n’implique pas les voies conductrices (pannexines) dans les cellules ATII.

Nos résultats démontrent l’importance du relargage d’ATP induit par l’étirement dans l’alvéole. Une meilleure compréhension de la signalisation purinergique fournira de nouvelles approches thérapeutiques pour les complications respiratoires, telles que les lésions pulmonaires induites par la ventilation.

La navigation par résonance magnétique (NRM) est une technologie permettant de déplacer des particules médicamenteuses dans le corps humain à l’aide d’un scanner d’imagerie par résonance magnétique (IRM). L’application privilégiée de la NRM est le traitement de cancer du foie, seconde cause de mortalité chez les patients atteints par un cancer. La réussite d’une telle technologie nécessite une connaissance approfondie de la géométrie vasculaire et des caractéristiques dynamiques du flot sanguin dans l’organe. Une des problématiques auxquelles nous sommes confrontés est la vitesse trop élevée du sang dans le foie (au-delà de 40 cm/s). Par pallier à ce problème, nous souhaitons mettre en place une approche par flot bloqué qui consiste à réduire le flot sanguin dans l’organe à l’aide d’un cathéter ballon. Cette approche a déjà fait l’objet d’études cliniques dont les résultats sont encourageants. Nos premières expériences ont montré des réductions drastiques de flot (plus de 800% de réduction), accompagnés par une élimination de la pulsation artérielle. Parce qu’il est difficile de mesurer des flots lents, nous utilisons plusieurs modalités d’imagerie (IRM, ultrasons, et angiographie) afin de conclure sur l’approche la plus robuste. Cette technologie de navigation magnétique a le potentiel de transformer la façon dont certaines procédures médicales sont actuellement réalisées et pourrait, à terme, rendre ces interventions plus efficaces et moins invasives.



Le cancer est une maladie génétique due à l'accumulation de mutations dans des gènes clés, comme PIK3CA, régulant des processus cruciaux tels que la division cellulaire et l'apoptose. Des mutations dans PIK3CA sont observées dans plusieurs cancers et sont associées à une résistance accrue aux traitements. La détection des mutations est donc importante pour personnaliser les thérapies. La PCR est la méthode la plus utilisée pour la détection, mais elle est coûteuse et lente. Pour surmonter ces limites, des alternatives sont en développement, notamment l'utilisation de la protéine Cas12a, qui peut détecter et cliver une séquence d'ADN cible. De plus, les transistors à base de graphène (GFETs) permettent une détection électrique sensible des charges proches du graphène. Mon projet vise donc à combiner ces deux approches afin de développer un biocapteur capable de détecter les mutations de PIK3CA. Pour cela, des brins d'ADN négatifs sont fixés à la surface des GFETs, puis la Cas12a, munie d'une séquence guide contre le gène PIK3CA muté, ainsi que le génome d'un patient, sont ajoutés en solution près du graphène. Si la Cas12a trouve dans le génome sa séquence d'intérêt, elle s'active et clive les ADN fixés au graphène, entraînant une diminution des charges négatives à proximité du graphène, et donc un changement dans la conductivité du biocapteur. Mon biocapteur offre une méthode de détection rapide, économique et applicable dans des environnements où les ressources sont limitées.

Problématique : 

Le transport de marchandises par camion au Canada représente un sérieux problème en matière d'émissions et de contamination. L’une des difficultés majeures est liée au plan stratégique d'efficacité de la charge durant la circulation, où presque la moitié des camions reviennent vides à leur point de départ après livraisons, signifiant des pertes économiques et l’augmentation de la pollution.

Objectif :

Simuler de nouveaux modèles d’affaire du transport intelligent de marchandises (NMATIM) par camion au Québec afin qu’ils deviennent plus durables en utilisant l’industrie 4.0.

OS1 : valider les technologies liées à l'industrie 4.0 et leur rôle dans le transport de fret.

OS2 : caractériser la simulation des impacts de NMATIM.

Méthodologie : 

OS1 :
une revue de littérature concernant l’industrie 4.0 pour approfondir l’écosystème et la logistique du fret.

OS2 : confectionner une simulation des systèmes à base d’agents pour reproduire les potentielles variations divergentes des NMATIM.

Résultats préliminaires : 

Une amélioration de l'optimisation des NMATIM est possible à travers des plateformes de trafic intelligent. Elles collectent des données en temps réel et utilisent des outils d'aide à la décision pour optimiser les charges à destination et retour à plein rendement, permettant d’analyser l'impact potentiel des NMATIM dans le contexte de l'Industrie 4.0 en réduisant les niveaux de pollution liés à une diminution du nombre de camions vides, en rendant la logistique plus efficace.

Le bruit émis par les motocyclettes amène souvent des plaintes des citoyens. Le niveau de bruit des véhicules est réglementé par Transport Canada (Règlement sur la sécurité des véhicules automobiles (C.R.C., ch. 1038) Annexe V.1 - Émission de bruit (norme 1106)). La méthode de mesurage de ce règlement est inapplicable en milieu urbain ou en bordure d’une route, car elle nécessite un grand espace dégagé et des mesures sur les véhicules en accélération. Le MTQ et la SAAQ on donc demandé le développement d’une méthode de mesure simple et efficace du niveau de pression acoustique (bruit) émis par les tuyaux d’échappement des motocyclettes lorsqu’elles ne sont pas en mouvement.

Une méthode de mesurage a été développée à partir de mesures prises sur des véhicules stationnaires à différents régimes moteurs, et prises sur ces mêmes véhicules conformément à la norme 1106 de Transport Canada. Les données ont aussi servi à déterminer un niveau limite de pression acoustique.

Ce projet de recherche a permis de développer une méthode de mesure simple (mesure en un point à proximité du tuyau d’échappement sur motocyclettes stationnaires avec régime moteur imposé) et d’établir une limite commune du niveau de pression acoustique qui soit compatible avec la règlementation fédérale, et qui élimine les problèmes rencontrés dans l’application pratique des autres normes de mesures stationnaires (ISO 5130, SAE 1287, SAE J2825, CEE Règlement 41).

Pour mettre en évidence les conséquences environnementales de la transition vers une économie circulaire, les modèles macroéconomiques à région unique sont largement utilisés. Toutefois, la représentation financière des flux inhérente à leur cadre méthodologique comporte un niveau élevé d'agrégation. Ils ne parviennent pas à suivre les interactions dynamiques intersectorielles et interrégionales affectées par une éventuelle transition tout en assurant la conservation de la masse. Cet article présente une approche intégrée d'analyse du cycle de vie conséquentielle (ACV-C) fondée sur un modèle économique dynamique de chaîne matériau-produit (M-P). Il combine les éléments pertinents de l’approche économique d'équilibre partiel, de l'analyse des flux de matières et de l’ACV-C. Avec cette nouvelle approche, les conséquences environnementales potentielles des options de gestion des résidus de verre post-consommation (réutilisation, recyclage en boucle fermée et ouverte, et l’enfouissement) au Québec ont été évaluées. Les résultats mettent en évidence une dynamique interrégionale et intersectorielle complexe lors de l'optimisation des flux M-P circulaires, conduisant à des compromis économiques et environnementaux spécifiques aux régions. Les résultats sont sensibles aux conditions de marché systémiques. Il est crucial d’incorporer ceux-ci pour évaluer l'efficacité globale d'une transition vers une économie circulaire.

Dans le présent article l’intérêt de notre travail de recherche porte sur la compréhension des phénomènes mis en jeu dans la formation et l’oxydation des polluants dans une flamme Propane/Air de diffusion laminaire et turbulente soumise à un champ électrique. En effet, de nouvelles technologies pour assister la combustion connaissent un véritable essor : c’est l’utilisation de systèmes de contrôle actif comme : le champ électrique, le champ magnétique, le champ électromagnétique et/ou une excitation acoustique. Plusieurs études et travaux sur les plasmas froids appliqués aux flammes ont démontré des effets intéressants sur la réactivité chimique des radicaux et des espèces formées au sein du plasma pour transformer (oxyder) les molécules polluantes en molécules inoffensives. Grâce à l’application d’un champ électrique, les collisions ioniques et électroniques avec des molécules de gaz neutres influencent la forme de la flamme, l'intensité de combustion, les émissions de particules, la formation de suie et le taux de production d'ions. Des résultats très intéressants ont été obtenus sur notre montage expérimental lorsqu'un champ électrique a été généré.



Introduction : Touchant environ 4% de la population, l'anévrisme de l'aorte abdominale (AAA) est une dilatation localisée de l'aorte abdominale, souvent asymptomatique. En cas de rupture, la mortalité et la morbidité peuvent atteindre 80%, soit la 15e cause de mortalité aux USA. L'utilisation du couplage entre la mécanique des fluides et les données cliniques de suivi morphologique permettra une meilleure compréhension des mécanismes de croissance en jeu dans l’aorte et vise à définir des nouveaux critères pour l'aide à la planification interventionnelle personnalisée.
Méthodes : (i) extraction des AAAs de suivi (ii) Calcul de l’écoulement par volumes finis (validé par IRM) (iii) Extraction des Structures Lagrangiennes Cohérentes (SLC) de l'écoulement pour quantifier la topologie du transport dynamique.
Résultats : l'IRM a permis de valider la topologie de l'écoulement ainsi que le choix des conditions limites. Le transport, donnée complexe à visualiser et quantifier dans un écoulement instationnaire, est observé via les SLC elliptiques. Celles-ci forment des domaine fermés présentant peu de déformation au cours du temps.
Discussion : Si les relations entre croissance locale et écoulement sont établies dans les AAAs, les composantes de celui-ci ayant un rôle sont encore méconnus. Notre étude vise à les extraire et quantifier leur impact par des méthodes numériques innovantes.

Image: évolution des zones de stagnation du sang dans un AAA en 2006, 2009 et 2012.

L’Échelle d’Estime de Soi de Rosenberg (EES) est un instrument unidimentionnel, de 10 items, largement utilisé depuis presque 50 ans. La littérature suggère qu’à chaque 5 ans, on revérifie les qualités métriques des instruments pour s’assurer de pertinence leur mesure. C’est dans cette optique que cette étude, menée auprès d’un échantillon composé de 83 étudiant-e-s universitaires âgés de 19 à 50 ans recueilli en 2012, teste des propriétés psychométriques de l’EES. Les corrélations inter-items (0,34<r<0,81) suggèrent la présence d’un construit unidimensionnel. Les corrélations items-total (0,60 < rc < 0,82) et les alphas de Cronbach en cas de suppression des items (0,90 < α < 0,92) réitèrent que le modèle testé est unidimensionnel. Finalement, une analyse en composantes principales (0,66 < Satf < 0,87), qui explique 61% de la variance, ainsi que les qualités de représentation (0,44 < h² < 0,75), viennent confirmer l’unidimensionnalité du modèle en 10 items. En ce qui a trait à la fidélité de la mesure (α = 0,92), l’instrument présente une consistance interne très satisfaisante. La principale conclusion est que l’EES-10 est un instrument remplissant les critères psychométriques les plus répandus et qu’on peut continuer à l’utiliser sans craindre qu’il ait perdu de ses qualités. Les répercussions théorique et pratique seront discutées. D’autres populations, de même que d’autres qualités métriques, devront être explorées par de nouvelles études.

Les simulations numériques jouent un rôle croissant dans la recherche sur les traumatismes de la colonne cervicale et la conception d'outils chirurgicaux et de prothèses. Au sein des groupes de recherche, les simulations sont cependant limitées par l’utilisation d’un modèle construit autour d’un individu « moyen », généralement un homme trentenaire arbitrairement sélectionné, ne reflétant pas l’ensemble de la population. Cette limitation pourrait être mitigée par la création d’un catalogue de plusieurs modèles représentant la variabilité de la population, mais combien sont nécessaires et quelles sont leurs distinctions?

L’âge et le sexe des individus, ainsi que les données géométriques des vertèbres de leur colonne seront soumises à analyse par partitionnement de données afin d’en décrire et résumer la variabilité. Une méthode de prise de mesures automatiques de la géométrie des vertèbres est en phase finale de développement et sera utilisée sur une base de données de près de 400 individus reflétant notre population locale se présentant aux urgences à la suite d’un traumatisme. Enfin, un algorithme en phase avancée de développement permettra de générer le modèle de simulation de chaque profil afin de former le catalogue. Les résultats anticipés sont un catalogue de minimalement quatre profils types de sexes et de groupes d’âge, permettant ainsi de limiter les futurs biais de recherche et de conception.

De nos jours, le meilleur engrenage pour une application donnée est souvent en plastique et tant les fournisseurs que les fabricants de machine rivalisent d’ingéniosité pour des applications dans des domaines variés. La variation prononcée des propriétés avec la température pose un problème. Le bris appelé thermique s’ajoute à ceux des engrenages en métal. Des travaux ont rapporté l’amélioration de la tenue à la rupture en flexion mais des problèmes demeurent, dont la fragilisation du matériau accompagnant l’augmentation du module élastique, l’inégale répartition des fibres ou leur rupture, etc. Cela entraîne des biais entre les prévisions et le comportement réel et, qui plus est, des tests ont montré que parfois des matériaux et des renforts chers démontrent des performances moindres au cours des essais que d’autres moins chers. D’autres ont apporté des remèdes pour un matériau particulier ou formulé de nouveaux composites. Des travaux de chercheurs et les nôtres ont montré que l’usure combinée à l’échauffement demeure la cause principale d’avarie. Dans cet article nous passons en revue les articles traitant de la détérioration des engrenages  en plastique et composites. Les auteurs  ont mis en évidence des modes particuliers d’endommagement. En analysant les études nous proposons une nouvelle approche basée sur deux  phases désignées « douce » et  « sévère » de l’endommagement  afin d’élaborer  une analyse multicritère de  prévision d’avarie des engrenages.

La détection des anomalies dans les réseaux et une tâche aussi complexe que ses applications sont variées : identification de spammers et de bots, fraudes (bancaires, fiscales, à l'assurance, etc), ou encore cyber-sécurité. La complexité de ces problèmes provient de plusieurs facteurs, le premier étant que les anomalies sont par définition rares et donc difficiles à détecter et à appréhender. Un second facteur qui rend ces problèmes particulierement difficiles est le caractère co-dépendant des éléments d'un réseau; en effet, la définition de ce qu'est une "anomalie" ne se résume pas seulement aux attributs d'un unique élément, mais à leurs manières d'interagir entre eux au sein du réseau.

Pour faire face à ce problème, nous avons développé deux méthodes d'apprentissage profond capables de détecter les anomalies d'un réseau. Ces méthodes commencent par analyser tous les éléments du réseau, incluant leurs relations et leurs attributs, et utilisent ces informations pour créer une "prévision" des attributs de chaque élément. Ces attributs "prévus" peuvent ensuite être comparés aux attributs réels et permettent d'identifier les anomalies du réseau, définies comme étant les éléments dont les prévisions sont les moins corrélées à la réalité.

Nos résultats finaux sur ces modèles montrent qu'ils surpassent les méthodes existantes et annoncent des dévelopements prometteurs dans le domaine de l'apprentissage profond des réseaux.

L'impact environnemental des structures en béton est fréquemment étudié, et tout particulièrement son empreinte carbone. Cependant, peu d'attention est accordée à l'absorption du CO2 par les structures en béton, aussi appelée carbonatation, dans les empreintes carbones. Cette recherche vise à étudier le bilan carbone du béton récemment produit au Québec, en comparant les émissions de CO2 émises lors de la fabrication à l'absorption totale de carbone due à la carbonatation tout au long du cycle de vie du béton, incluant son utilisation primaire et son utilisation ultérieure (secondaire) comme agrégat recyclé. Cette étude est réalisée grâce à une analyse dynamique du cycle de vie, en tenant compte des différents effets qu'une absorption de CO2 peut avoir aujourd'hui et à l'avenir, lorsque le béton est appelé à être broyé et recyclé. Les résultats préliminaires indiquent que, si tous les éléments en béton construits en 2018 devaient durer 50 ans, puis être broyés et enfouis pour 50 ans de plus, le béton aurait en 100 ans neutralisé 6% des émissions de CO2 qu'il émet lors de sa fabrication. La compensation sera plus que doublée (13%) si le Plan d'action 2011-2015 de la Politique québécoise de gestion des matières résiduelles entre en vigueur et que 80% du béton est recyclé. Les résultats démontrent ainsi l’intérêt d’inclure la carbonatation dans les études ACV, et d'encourager le recyclage du béton.

On s’intéresse au biceps brachial (BB) car il serait composé de 6 compartiments. Pour en identifier l’activité, 10 paires d’électrodes de surface ont été placées transversalement à la longueur du muscle et plusieurs enregistrements ont été effectués. À partir de maxima dans la valeur quadratique moyenne des signaux captés autour du BB, une identification initiale de la présence de dipôles de courant à l’intérieur du tissu musculaire a été faite. Avec les caractéristiques de ces dipôles, et modélisant le bras comme un cylindre de 4 couches concentriques (peau, gras, muscles, humérus) des simulations ont été réalisées en vue de reproduire les signaux expérimentaux. Des résultats similaires mais pas identiques aux données expérimentales ayant été obtenues, les caractéristiques initiales des dipôles ont été manuellement modifiées ce qui a permis de reproduire fidèlement les données expérimentales. Si on considère que les compartiments se trouvent placés côte-à-côte et ayant tous la même superficie, les résultats indiquent que les dipôles se retrouvent dans chacun des 6 compartiments. En position assise avec le coude plié à ~90°, un plus grand nombre de dipôles se sont toutefois trouvés dans le chef court alors que debout avec le bras étendu horizontalement, c’est dans le chef long que le nombre était le plus élevé. Nous sommes actuellement à la recherche d’information permettant de mieux préciser la location et la superficie de chacun de ces compartiments à l’intérieur du BB.  

Les complexes de cuivre avec les acides aminés sont utilisés dans divers processus biologiques et peuvent être efficaces pour le traitement des différentes maladies.

L'objectif de ce projet est de développer des complexes de cuivre coordinés avec divers ligands (L-sérine, L-histidine) etétudier leurs propriétés antioxydantes. Les complexes ainsi préparés seront formulés pour l'administration orale visant entre autres le traitement de troubles neurologiques.

La synthèse, purification des complexes et leur caractérisation structurale ont été suivies par des méthodes FTIR, UV-Vis absorption, diffractions par rayons X et l'analyse élémentaire. La capacité antioxydante a été évaluée en utilisant différentes méthodes pour doser l’activité de piégeage de radicaux libres (HO., O2.) ou la décomposition de H2O2

Les complexes Cu(Ser)2 et [Cu(His)2Cl2] sont stables dans différent milieux  intestinal et physiologique. Les deux complexes sont des piégeurs efficaces des espèces radicalaires (HO., O2.) et ils ont la capacité de décomposer H2O2. Le [Cu(His)2Cl2] présente une plus forte activité d'élimination des radicaux libres par rapport au complexe Cu(Ser)2. Les évaluation de l’activité antioxydante permettent de définir la spécificité de chaque méthode utilisée et aussi proposer le mécanisme d’action des complexes étudiés. On peut envisager l’utilisation des complexes à cuivre étudiés comme agents thérapeutiques pour les maladies neurodégénératives ou comme agents antioxydants.



Le génie tissulaire propose une alternative pour la construction d’un substitut à la valve aortique lors des chirurgies de remplacement. Comme les propriétés mécaniques de ce type de substituts peuvent être optimisées par le biais d’un conditionnement mécanique, un bioréacteur a été conçu afin de soumettre la valve produite par génie tissulaire aux conditions de débit et de pression auxquelles la valve aortique est soumise in vivo. Le système conçu est un circuit hydraulique reproduisant les caractéristiques mécaniques principales de la circulation systémique. Le débit dans le système est produit par une pompe à diaphragme, actionnée par une servovalve, qui simule l’action de pompage du cœur. L’innovation apportée par ce système repose sur la précision de la reproduction des conditions physiologiques, obtenue grâce au contrôle du système effectué par un réseau de neurones artificiels. Le contrôleur consiste en un modèle de la dynamique inverse du système, soit, dans un premier temps, la relation entre la commande à envoyer à la servovalve pour produire le débit désiré dans le système. Une phase d’apprentissage a permis d’établir un modèle initial du contrôleur qui a ensuite été raffiné par un apprentissage en cours d’utilisation. Le contrôleur final a permis de déterminer une commande produisant un débit dont la corrélation est très élevée avec le débit physiologique. La suite des travaux prévoit l’implantation d’un contrôleur pour la reproduction de l’onde de pression.

Le comportement des matériaux pendant l'usinage est affecté par de multiples facteurs, le frottement étant l'un des principaux. Le frottement aux interfaces de l'outil, du copeau et de la pièce à usiner peut entraîner des fluctuations des forces de coupe et des températures, affectant ainsi les performances de l'outil de coupe et l'intégrité de la surface des pièces usinées. Il est difficile de comprendre la physique du frottement et d'estimer avec précision le coefficient de frottement en raison de ses interactions avec l'environnement de coupe et les paramètres d'usinage. Cependant, la modélisation du frottement est essentielle pour prédire les indicateurs de performance de l'usinage. Cette étude consiste à simuler des modèles de frottement dépendant de la vitesse à l'aide de la méthode des éléments finis avec le logiciel DEFORM V.13.1 et à examiner leurs effets sur les températures et les forces de coupe. Une analyse comparative de ces modèles est menée pour évaluer leur performance prédictive.

Pour étudier le procédé de soudage de l’acier inoxydable austénitique 304L et comprendre le phénomène de fusion ou de vaporisation en cause, une série d’expériences a été réalisée pour caractériser le panache et le capillaire de vaporisation qui résultent de l’interaction laser-matière. Différents faisceaux lasers ont été mis à contribution pour caractériser le panache qui se forme au-dessus du point d’impact du faisceau du laser fibre. Ces faisceaux ont permis de mesurer la réfraction et la diffusion du faisceau du laser fibre qui sont causées par le panache. Aussi, une caméra à haute vitesse a été utilisée pour filmer le panache et le bain de fusion. Finalement, le spectre du panache a été mesuré avec un spectromètre à haute résolution pour déterminer le degré d’ionisation du panache.

 L’importance des poids de Mayer et de Ree-Hoover de graphes est dû au fait que le nième coefficient du développement du viriel est égal à la somme des poids de Mayer de tous les graphes 2-connexes sur l’ensemble des sommets {1, 2, …, n}, à constante multiplicative près. Ces poids sont des invariants de graphes définis par des intégrales multidimensionnelles très difficiles à calculer de façon exacte et généralement seulement approximées par des méthodes numériques par les physiciens. Contrairement aux physiciens, je m’intéresse surtout à l’étude et au calcul exact de ces poids de graphe individuels (plutôt qu’à l’approximation de leur poids totaux comme le font généralement les physiciens). Pour cela, j’ai établi un nouveau théorème (avec des nouvelles conditions) garantissant la nullité du poids de Ree-Hoover de certains graphes, facilitant ainsi le calcul de leurs poids de Mayer. 

Objectifs spécifiques: Compléter le dénombrement des familles de graphes 2-connexes qui apparaissent dans la théorie de Mayer. 

Objectifs généraux: Développer des outils mathématiques essentiels pour résoudre des problèmes de nature combinatoire issus de la mécanique statistique, de la chimie organique, et de l’économie et des finances.  Les outils mathématiques que je présente auront un renforcement aussi bien en combinatoire que dans les autres domaines d'applications.

Méthodologie:  Recherche bibliographiques, contacts avec d'autres chercheurs, conférences, rédaction d'articles. 

 

 

L’intégration des technologies de l’information s’appuyant sur les concepts de la transformation numérique est l’occasion d’accroître la productivité des PME manufacturières. L’intelligence artificielle (IA) fait partie de ces concepts avec la possibilité d’atteindre plus d’autonomie dans leurs processus d'affaires et leurs procédés.

Il n’y a, à notre connaissance, aucun outil pour évaluer le niveau d’autonomie envisageable avec les solutions technologiques en place. Ceci est toutefois nécessaire afin de proposer aux PME un accompagnement adéquat dans leur démarche numérique et de concentrer les efforts de recherche là où ce sera le plus pertinent. Une première analyse basée sur l’indice de maturité numérique des entreprises vis-à-vis des critères de qualité des données, d’interopérabilité des systèmes et d’autonomie a donc été réalisée en utilisant les résultats des audits numériques effectués par Productique Québec depuis 2018 auprès de 45 PME québécoises.

La valeur moyenne de cet indice pour l’ensemble des entreprises à l’étude indique que les PME sont engagées dans leur transformation numérique, mais qu’elles tardent à atteindre l’état de maîtrise et contrôle. La formalisation des pratiques semble être le principal frein à cette progression. Cette analyse met en lumière le besoin des entreprises d’être accompagnées dans l’adoption des technologies servant à la collecte, l’échange, la sauvegarde et la valorisation des données dans des applications d’IA manufacturière.

La synergie musculaire est considérée comme une approche pouvant être utilisée par le cerveau pour efficacement activer plusieurs muscles impliqués dans un mouvement. Ici il est question de la synergie du biceps brachial, un muscle multifonctionnel. On a analysé des ensembles de 8 signaux électromyographiques captés au-dessus du muscle de 10 sujets alors que leur main droite était en pronation ou en supination et qu’ils étaient assis avec le coude plié ou debout le bras étendu horizontalement. La valeur quadratique moyenne de ces signaux a été obtenue et avec un algorithme de factorisation matriciel non négatif, 3 synergies musculaires d’une durée de 4,2 s ont été identifiées. À partir des 3 coefficients obtenus, une fenêtre de 0,2 s est initialement utilisée pour entrainer un classifieur bayésien qui, sur les 0,2 s suivantes estime pour chacun des 400 échantillons qu’elle contient la probabilité (entre 0 et 1) que la main soit dans une position donnée. Ceci se répète à tous les 0,2 s et à la fin une courbe de 7600 valeurs (couvrant 3,8 s) est obtenue. Avec la main en pronation ou supination, la valeur moyenne des 3 ou 4 essais de chaque sujet a variée entre 0,53 et 0,98. Comme toute valeur >0,5 indique une bonne classification, le classifieur bayésien peut donc être utilisé pour détecter la posture de la main. Une classification en temps réel sera bientôt effectuée avec un filtre de Kalman sur des signaux du biceps alors que la main alterne entre pronation et supination.