Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Les simulations numériques jouent un rôle croissant dans la recherche sur les traumatismes de la colonne cervicale et la conception d'outils chirurgicaux et de prothèses. Au sein des groupes de recherche, les simulations sont cependant limitées par l’utilisation d’un modèle construit autour d’un individu « moyen », généralement un homme trentenaire arbitrairement sélectionné, ne reflétant pas l’ensemble de la population. Cette limitation pourrait être mitigée par la création d’un catalogue de plusieurs modèles représentant la variabilité de la population, mais combien sont nécessaires et quelles sont leurs distinctions?

L’âge et le sexe des individus, ainsi que les données géométriques des vertèbres de leur colonne seront soumises à analyse par partitionnement de données afin d’en décrire et résumer la variabilité. Une méthode de prise de mesures automatiques de la géométrie des vertèbres est en phase finale de développement et sera utilisée sur une base de données de près de 400 individus reflétant notre population locale se présentant aux urgences à la suite d’un traumatisme. Enfin, un algorithme en phase avancée de développement permettra de générer le modèle de simulation de chaque profil afin de former le catalogue. Les résultats anticipés sont un catalogue de minimalement quatre profils types de sexes et de groupes d’âge, permettant ainsi de limiter les futurs biais de recherche et de conception.

De nos jours, l’application des méthodes d’optimisation topologique permet d’améliorer de manière significative le processus global de Conception Assistée par Ordinateur (CAO). Dans ce contexte, le projet présenté ici s’inscrit dans la continuité des travaux de notre équipe de recherche qui développe, depuis maintenant quelques années, des outils permettant d’améliorer l’intégration des méthodes d’optimisation topologique de pièces et structures au sein du processus de développement de produits. Notre objectif est de reconstruire, de manière automatique, un modèle CAO à partir d’un résultat d’optimisation. Pour ce faire, l’objet initial, modélisé dans un logiciel de CAO, est tout d’abord maillé automatiquement à l’aide de tétraèdres. L’optimisation est ensuite réalisée à l’aide de la méthode SIMP qui consiste globalement à déterminer une répartition optimale de densité d’un matériau fictif poreux. Cette méthode est couplée à un raffinement adaptatif du maillage suivant le gradient de la densité. Ce raffinement permet de définir l’enveloppe de la forme optimale plus clairement. La forme optimisée est extraite par élimination des parties de matière les plus poreuses. Cette forme est ensuite automatiquement lissée puis convertie en un squelette afin d’en déduire une structure de poutres (lorsque le résultat tend vers une structure). Cette structure est finalement validée par éléments finis.

La gonarthrose est un trouble orthopédique fréquent. Les facteurs morpho-fonctionnels tels que la géométrie 3D et la cinématique 3D sont reconnus comme des acteurs principaux de la pathogénèse de la gonarthrose. Or, il n’existe aucune méthode d’évaluation morpho-fonctionnelle du genou. L’objectif principal de ce projet consiste donc à développer une méthode innovante capable de fusionner, à l’aide d’outils non invasifs et peu irradiants, la géométrie 3D et la cinématique 3D du genou au cours d’accroupissements dynamiques sous charge.

La cinématique 3D du genou sera enregistrée à l’aide du KneeKG™ puis corrigée à l’aide d’une des méthodes développées : la méthode de calibration multiple et/ou la méthode d’optimisation globale. Une fois corrigée, nous lui fusionnerons la géométrie 3D des os du genou reconstruite à l’aide du système EOS™. Il sera alors possible d’évaluer les surfaces de contact du genou. La validation de notre méthode se fera sur 10 sujets sains et 10 patients souffrant de gonarthrose.

Le protocole expérimental a été développé et testé à l’aide d’un sujet pilote. Des résultats préliminaires concernant la méthode de calibration multiple sont attendus. Le recrutement des participants a débuté en novembre 2011.

Ce projet aboutira à une méthode d’évaluation originale permettant d’analyser les caractéristiques morpho-fonctionnelles de genoux sains et arthrosiques au cours d’accroupissements dynamiques sous charge, ce qu’aucune étude biomécanique n’a réalisé à ce jour.

La détection des anomalies dans les réseaux et une tâche aussi complexe que ses applications sont variées : identification de spammers et de bots, fraudes (bancaires, fiscales, à l'assurance, etc), ou encore cyber-sécurité. La complexité de ces problèmes provient de plusieurs facteurs, le premier étant que les anomalies sont par définition rares et donc difficiles à détecter et à appréhender. Un second facteur qui rend ces problèmes particulierement difficiles est le caractère co-dépendant des éléments d'un réseau; en effet, la définition de ce qu'est une "anomalie" ne se résume pas seulement aux attributs d'un unique élément, mais à leurs manières d'interagir entre eux au sein du réseau.

Pour faire face à ce problème, nous avons développé deux méthodes d'apprentissage profond capables de détecter les anomalies d'un réseau. Ces méthodes commencent par analyser tous les éléments du réseau, incluant leurs relations et leurs attributs, et utilisent ces informations pour créer une "prévision" des attributs de chaque élément. Ces attributs "prévus" peuvent ensuite être comparés aux attributs réels et permettent d'identifier les anomalies du réseau, définies comme étant les éléments dont les prévisions sont les moins corrélées à la réalité.

Nos résultats finaux sur ces modèles montrent qu'ils surpassent les méthodes existantes et annoncent des dévelopements prometteurs dans le domaine de l'apprentissage profond des réseaux.

L'impact environnemental des structures en béton est fréquemment étudié, et tout particulièrement son empreinte carbone. Cependant, peu d'attention est accordée à l'absorption du CO2 par les structures en béton, aussi appelée carbonatation, dans les empreintes carbones. Cette recherche vise à étudier le bilan carbone du béton récemment produit au Québec, en comparant les émissions de CO2 émises lors de la fabrication à l'absorption totale de carbone due à la carbonatation tout au long du cycle de vie du béton, incluant son utilisation primaire et son utilisation ultérieure (secondaire) comme agrégat recyclé. Cette étude est réalisée grâce à une analyse dynamique du cycle de vie, en tenant compte des différents effets qu'une absorption de CO2 peut avoir aujourd'hui et à l'avenir, lorsque le béton est appelé à être broyé et recyclé. Les résultats préliminaires indiquent que, si tous les éléments en béton construits en 2018 devaient durer 50 ans, puis être broyés et enfouis pour 50 ans de plus, le béton aurait en 100 ans neutralisé 6% des émissions de CO2 qu'il émet lors de sa fabrication. La compensation sera plus que doublée (13%) si le Plan d'action 2011-2015 de la Politique québécoise de gestion des matières résiduelles entre en vigueur et que 80% du béton est recyclé. Les résultats démontrent ainsi l’intérêt d’inclure la carbonatation dans les études ACV, et d'encourager le recyclage du béton.

Les résidus agro-alimentaires de l’industrie sont des biomasses qui sont convoités pour leur valorisation en extraits ayant des propriétés antioxydant, antimicrobien ou anti-inflammatoire. Le marc résultant du pressage du jus est le plus souvent constitué de la pelure, des pépins et de la pulpe qui contiennent une quantité importante de polyphénols, des pigments responsables de la coloration des fruits ou des légumes.

Le procédé d'extraction par eau subcritique des polyphénols utilise de l’eau à température et à pression élevés en dessous du point critique du diagramme de phase. Sous ces conditions, les propriétés diélectriques de l’eau permettent d’atteindre une polarité comparable à celle d’un solvant organique tel que l’éthanol, mais en utilisant seulement de l’eau. Ce procédé en semi-continue offre une solution environnementale et économique à la valorisation du marc de canneberges.

La masse exacte des molécules est obtenue par Quadrupole Time-of-Flight, Q-TOF LC/MS. Une base de données interne (Personal Compound Database Library) de composés phénoliques est généré à partir de bases de données en ligne telle que Phenol-Explorer, et sert à interroger les profils obtenus par Q-TOF. Des analyses multivariées, Principal Component Analysis (PCA), sont utilisées pour mettre en évidence les différences entre les différentes conditions d'extraction.

Le comportement des matériaux pendant l'usinage est affecté par de multiples facteurs, le frottement étant l'un des principaux. Le frottement aux interfaces de l'outil, du copeau et de la pièce à usiner peut entraîner des fluctuations des forces de coupe et des températures, affectant ainsi les performances de l'outil de coupe et l'intégrité de la surface des pièces usinées. Il est difficile de comprendre la physique du frottement et d'estimer avec précision le coefficient de frottement en raison de ses interactions avec l'environnement de coupe et les paramètres d'usinage. Cependant, la modélisation du frottement est essentielle pour prédire les indicateurs de performance de l'usinage. Cette étude consiste à simuler des modèles de frottement dépendant de la vitesse à l'aide de la méthode des éléments finis avec le logiciel DEFORM V.13.1 et à examiner leurs effets sur les températures et les forces de coupe. Une analyse comparative de ces modèles est menée pour évaluer leur performance prédictive.

L’inspection automatique de pièces flexibles à l’état libre permet d’augmenter la performance et la rapidité de détection des défauts sur ce type de pièces et d’en diminuer considérablement le coût. Cesdéfauts peuvent êtreévaluésen comparant le résultat du scan de la pièce avec le modèle géométrique provenant de la conception assistée par ordinateur (CAO). On utilise classiquementdesgabaritssophistiquéset dispendieuxdurant l'inspection de ces pièces pour compenser leur déformation. Nous proposons une méthode d’inspection automatique sans gabarit (à l’état libre) basée sur un recalage non rigide avec filtration des points de correspondance. Des points de correspondance (échantillons) entre le modèle CAO et le modèle scanné sont d’abord générés sur chaque modèle puis utilisés pour déformer le modèle CAO vers le modèle scanné en utilisant les éléments finis.Afind’assurer la précision de l’inspection, les échantillons susceptibles d’être situés à proximité des défauts sont filtrés. Ce filtrage est basé sur l’analyse locale des courbures et sur l’analyse locale des contraintes de Von-Mises associées au recalage non-rigide. L’efficacité et larobustesse de la méthodesont illustréessur différents exemples. Sur ces exemples, on montre notamment l’effet de l’amplitude du bruit de mesure sur la précision d’identification des défauts. Nous présentons également une approche d’analyse des efforts requis lors de l’assemblage de ces pièces.

Le bruit émis par les motocyclettes amène souvent des plaintes des citoyens. Le niveau de bruit des véhicules est réglementé par Transport Canada (Règlement sur la sécurité des véhicules automobiles (C.R.C., ch. 1038) Annexe V.1 - Émission de bruit (norme 1106)). La méthode de mesurage de ce règlement est inapplicable en milieu urbain ou en bordure d’une route, car elle nécessite un grand espace dégagé et des mesures sur les véhicules en accélération. Le MTQ et la SAAQ on donc demandé le développement d’une méthode de mesure simple et efficace du niveau de pression acoustique (bruit) émis par les tuyaux d’échappement des motocyclettes lorsqu’elles ne sont pas en mouvement.

Une méthode de mesurage a été développée à partir de mesures prises sur des véhicules stationnaires à différents régimes moteurs, et prises sur ces mêmes véhicules conformément à la norme 1106 de Transport Canada. Les données ont aussi servi à déterminer un niveau limite de pression acoustique.

Ce projet de recherche a permis de développer une méthode de mesure simple (mesure en un point à proximité du tuyau d’échappement sur motocyclettes stationnaires avec régime moteur imposé) et d’établir une limite commune du niveau de pression acoustique qui soit compatible avec la règlementation fédérale, et qui élimine les problèmes rencontrés dans l’application pratique des autres normes de mesures stationnaires (ISO 5130, SAE 1287, SAE J2825, CEE Règlement 41).

De nos jours, le meilleur engrenage pour une application donnée est souvent en plastique et tant les fournisseurs que les fabricants de machine rivalisent d’ingéniosité pour des applications dans des domaines variés. La variation prononcée des propriétés avec la température pose un problème. Le bris appelé thermique s’ajoute à ceux des engrenages en métal. Des travaux ont rapporté l’amélioration de la tenue à la rupture en flexion mais des problèmes demeurent, dont la fragilisation du matériau accompagnant l’augmentation du module élastique, l’inégale répartition des fibres ou leur rupture, etc. Cela entraîne des biais entre les prévisions et le comportement réel et, qui plus est, des tests ont montré que parfois des matériaux et des renforts chers démontrent des performances moindres au cours des essais que d’autres moins chers. D’autres ont apporté des remèdes pour un matériau particulier ou formulé de nouveaux composites. Des travaux de chercheurs et les nôtres ont montré que l’usure combinée à l’échauffement demeure la cause principale d’avarie. Dans cet article nous passons en revue les articles traitant de la détérioration des engrenages  en plastique et composites. Les auteurs  ont mis en évidence des modes particuliers d’endommagement. En analysant les études nous proposons une nouvelle approche basée sur deux  phases désignées « douce » et  « sévère » de l’endommagement  afin d’élaborer  une analyse multicritère de  prévision d’avarie des engrenages.

 L’importance des poids de Mayer et de Ree-Hoover de graphes est dû au fait que le nième coefficient du développement du viriel est égal à la somme des poids de Mayer de tous les graphes 2-connexes sur l’ensemble des sommets {1, 2, …, n}, à constante multiplicative près. Ces poids sont des invariants de graphes définis par des intégrales multidimensionnelles très difficiles à calculer de façon exacte et généralement seulement approximées par des méthodes numériques par les physiciens. Contrairement aux physiciens, je m’intéresse surtout à l’étude et au calcul exact de ces poids de graphe individuels (plutôt qu’à l’approximation de leur poids totaux comme le font généralement les physiciens). Pour cela, j’ai établi un nouveau théorème (avec des nouvelles conditions) garantissant la nullité du poids de Ree-Hoover de certains graphes, facilitant ainsi le calcul de leurs poids de Mayer. 

Objectifs spécifiques: Compléter le dénombrement des familles de graphes 2-connexes qui apparaissent dans la théorie de Mayer. 

Objectifs généraux: Développer des outils mathématiques essentiels pour résoudre des problèmes de nature combinatoire issus de la mécanique statistique, de la chimie organique, et de l’économie et des finances.  Les outils mathématiques que je présente auront un renforcement aussi bien en combinatoire que dans les autres domaines d'applications.

Méthodologie:  Recherche bibliographiques, contacts avec d'autres chercheurs, conférences, rédaction d'articles. 

 

 

L’intégration des technologies de l’information s’appuyant sur les concepts de la transformation numérique est l’occasion d’accroître la productivité des PME manufacturières. L’intelligence artificielle (IA) fait partie de ces concepts avec la possibilité d’atteindre plus d’autonomie dans leurs processus d'affaires et leurs procédés.

Il n’y a, à notre connaissance, aucun outil pour évaluer le niveau d’autonomie envisageable avec les solutions technologiques en place. Ceci est toutefois nécessaire afin de proposer aux PME un accompagnement adéquat dans leur démarche numérique et de concentrer les efforts de recherche là où ce sera le plus pertinent. Une première analyse basée sur l’indice de maturité numérique des entreprises vis-à-vis des critères de qualité des données, d’interopérabilité des systèmes et d’autonomie a donc été réalisée en utilisant les résultats des audits numériques effectués par Productique Québec depuis 2018 auprès de 45 PME québécoises.

La valeur moyenne de cet indice pour l’ensemble des entreprises à l’étude indique que les PME sont engagées dans leur transformation numérique, mais qu’elles tardent à atteindre l’état de maîtrise et contrôle. La formalisation des pratiques semble être le principal frein à cette progression. Cette analyse met en lumière le besoin des entreprises d’être accompagnées dans l’adoption des technologies servant à la collecte, l’échange, la sauvegarde et la valorisation des données dans des applications d’IA manufacturière.

L’ATP extracellulaire peut réguler des fonctions du poumon, comme la clairance muco-ciliaire. Sous des conditions physiologiques, les cellules libèrent l’ATP, mais ce mécanisme est peu connu. Nos travaux ont démontré que l’ATP est libérée en réponse à des contraintes mécaniques, dont l’étirement. L’objectif est donc d’étudier les mécanismes physiologiques du relargage d’ATP induit par l’étirement dans les cellules alvéolaires de rat.

Des cellules alvéolaires de type II (ATII) de rat sont fixées sur une chambre en silicone. Celles-ci sont baignées dans du DMEM avec de la luciférine-luciférase (LL) et sont soumises à un étirement de 1 s de 7-49%. Un système de lentilles à grand champ de vision favorisant l’apport de lumière était conçu pour visualiser l’ATP. La bioluminescence de la réaction ATP-LL est capturée en temps réel avec une caméra EMCCD.

Le nombre de cellules répondant au stimulus et la quantité d’ATP libérée sont proportionnels à l’intensité de l’étirement. 100 µM de carbenoxolone ou 2,5 mM de probénécide n’affecte pas la sécrétion d’ATP par rapport aux contrôles, ce qui suggère que ce processus n’implique pas les voies conductrices (pannexines) dans les cellules ATII.

Nos résultats démontrent l’importance du relargage d’ATP induit par l’étirement dans l’alvéole. Une meilleure compréhension de la signalisation purinergique fournira de nouvelles approches thérapeutiques pour les complications respiratoires, telles que les lésions pulmonaires induites par la ventilation.

La navigation par résonance magnétique (NRM) est une technologie permettant de déplacer des particules médicamenteuses dans le corps humain à l’aide d’un scanner d’imagerie par résonance magnétique (IRM). L’application privilégiée de la NRM est le traitement de cancer du foie, seconde cause de mortalité chez les patients atteints par un cancer. La réussite d’une telle technologie nécessite une connaissance approfondie de la géométrie vasculaire et des caractéristiques dynamiques du flot sanguin dans l’organe. Une des problématiques auxquelles nous sommes confrontés est la vitesse trop élevée du sang dans le foie (au-delà de 40 cm/s). Par pallier à ce problème, nous souhaitons mettre en place une approche par flot bloqué qui consiste à réduire le flot sanguin dans l’organe à l’aide d’un cathéter ballon. Cette approche a déjà fait l’objet d’études cliniques dont les résultats sont encourageants. Nos premières expériences ont montré des réductions drastiques de flot (plus de 800% de réduction), accompagnés par une élimination de la pulsation artérielle. Parce qu’il est difficile de mesurer des flots lents, nous utilisons plusieurs modalités d’imagerie (IRM, ultrasons, et angiographie) afin de conclure sur l’approche la plus robuste. Cette technologie de navigation magnétique a le potentiel de transformer la façon dont certaines procédures médicales sont actuellement réalisées et pourrait, à terme, rendre ces interventions plus efficaces et moins invasives.



Pour étudier le procédé de soudage de l’acier inoxydable austénitique 304L et comprendre le phénomène de fusion ou de vaporisation en cause, une série d’expériences a été réalisée pour caractériser le panache et le capillaire de vaporisation qui résultent de l’interaction laser-matière. Différents faisceaux lasers ont été mis à contribution pour caractériser le panache qui se forme au-dessus du point d’impact du faisceau du laser fibre. Ces faisceaux ont permis de mesurer la réfraction et la diffusion du faisceau du laser fibre qui sont causées par le panache. Aussi, une caméra à haute vitesse a été utilisée pour filmer le panache et le bain de fusion. Finalement, le spectre du panache a été mesuré avec un spectromètre à haute résolution pour déterminer le degré d’ionisation du panache.

Le projet s’intéresse à l’étude et la compréhension des dunes sous-marines présentes sur le fond marin du Saint-Laurent. La compréhension des dunes et de leur détection contribuent directement à la sécurisation des voies navigables. De plus, la compréhension de ces dunes est associée à d’autres enjeux tels que: l’apport sédimentaire du Fleuve, la manutention des chenaux de navigation par le dragage, ou bien encore l’élaboration de modèles de simulation servant à établir des risques d’inondation des zones côtières. L’objectif du projet est d’identifier et de classifier les dunes à partir des surfaces numériques représentant le fond marin, tout en considérant la qualité des données utilisées pour leur génération. La nouvelle approche d’identification proposée est innovante. Elle s’appuie sur une démarche orientée objet qui considère la dune comme une entité en soi, contrairement aux méthodes conventionnelles qui extraient les dunes en utilisant des mesures géométriques dissociées de leur représentation surfacique, ce qui limite l’analyse morphologique subséquente des dunes. À partir des dunes identifiées, le projet vise à proposer une classification adaptée au contexte fluviomarin de la Traverse Nord. Les classifications des dunes sont peu nombreuses et elles ont été proposées seulement en contexte marin ou fluvial, sans considérer les particularités d’une zone dynamique. Ce projet vise donc à introduire une nouvelle typologie de classes de dunes adaptée au Saint-Laurent.

Les technologies quantiques actuelles, comme les ordinateurs quantiques, nécessitent des méthodes statistiques avancées à des fins de calibration et de validation de performance. Cependant, ces outils deviennent rapidement impraticables à mesure que la taille des systèmes quantiques augmente. Les dispositifs des prochaines générations requerront alors une nouvelle approche pour réaliser cette tâche. Les algorithmes d’apprentissage machine constituent une avenue prometteuse pour résoudre ce problème. Le but de notre recherche est donc d’élaborer une architecture d’apprentissage profond permettant d’inférer la dynamique d’un système quantique de manière efficace et consistante à partir de données expérimentales mesurées sur celui-ci. Afin de développer cette approche, les connaissances physiques du système issues de la mécanique quantique sont exploitées de manière à conditionner l’apprentissage de l’algorithme vers des solutions réalistes. Nous étudions ainsi l’influence des différentes structures de l’algorithme sur l’apprentissage de données. De plus, nous présentons des applications de cette méthode sur la calibration et la caractérisation de dispositifs quantiques supraconducteurs. Cette étude unie donc deux domaines de recherche en plein essor; soient l’intelligence artificielle et l’informatique quantique, afin d’appuyer les efforts techniques visant à concevoir de nouvelles technologies quantiques.

Dans le présent article l’intérêt de notre travail de recherche porte sur la compréhension des phénomènes mis en jeu dans la formation et l’oxydation des polluants dans une flamme Propane/Air de diffusion laminaire et turbulente soumise à un champ électrique. En effet, de nouvelles technologies pour assister la combustion connaissent un véritable essor : c’est l’utilisation de systèmes de contrôle actif comme : le champ électrique, le champ magnétique, le champ électromagnétique et/ou une excitation acoustique. Plusieurs études et travaux sur les plasmas froids appliqués aux flammes ont démontré des effets intéressants sur la réactivité chimique des radicaux et des espèces formées au sein du plasma pour transformer (oxyder) les molécules polluantes en molécules inoffensives. Grâce à l’application d’un champ électrique, les collisions ioniques et électroniques avec des molécules de gaz neutres influencent la forme de la flamme, l'intensité de combustion, les émissions de particules, la formation de suie et le taux de production d'ions. Des résultats très intéressants ont été obtenus sur notre montage expérimental lorsqu'un champ électrique a été généré.



Introduction : Touchant environ 4% de la population, l'anévrisme de l'aorte abdominale (AAA) est une dilatation localisée de l'aorte abdominale, souvent asymptomatique. En cas de rupture, la mortalité et la morbidité peuvent atteindre 80%, soit la 15e cause de mortalité aux USA. L'utilisation du couplage entre la mécanique des fluides et les données cliniques de suivi morphologique permettra une meilleure compréhension des mécanismes de croissance en jeu dans l’aorte et vise à définir des nouveaux critères pour l'aide à la planification interventionnelle personnalisée.
Méthodes : (i) extraction des AAAs de suivi (ii) Calcul de l’écoulement par volumes finis (validé par IRM) (iii) Extraction des Structures Lagrangiennes Cohérentes (SLC) de l'écoulement pour quantifier la topologie du transport dynamique.
Résultats : l'IRM a permis de valider la topologie de l'écoulement ainsi que le choix des conditions limites. Le transport, donnée complexe à visualiser et quantifier dans un écoulement instationnaire, est observé via les SLC elliptiques. Celles-ci forment des domaine fermés présentant peu de déformation au cours du temps.
Discussion : Si les relations entre croissance locale et écoulement sont établies dans les AAAs, les composantes de celui-ci ayant un rôle sont encore méconnus. Notre étude vise à les extraire et quantifier leur impact par des méthodes numériques innovantes.

Image: évolution des zones de stagnation du sang dans un AAA en 2006, 2009 et 2012.

L’Échelle d’Estime de Soi de Rosenberg (EES) est un instrument unidimentionnel, de 10 items, largement utilisé depuis presque 50 ans. La littérature suggère qu’à chaque 5 ans, on revérifie les qualités métriques des instruments pour s’assurer de pertinence leur mesure. C’est dans cette optique que cette étude, menée auprès d’un échantillon composé de 83 étudiant-e-s universitaires âgés de 19 à 50 ans recueilli en 2012, teste des propriétés psychométriques de l’EES. Les corrélations inter-items (0,34<r<0,81) suggèrent la présence d’un construit unidimensionnel. Les corrélations items-total (0,60 < rc < 0,82) et les alphas de Cronbach en cas de suppression des items (0,90 < α < 0,92) réitèrent que le modèle testé est unidimensionnel. Finalement, une analyse en composantes principales (0,66 < Satf < 0,87), qui explique 61% de la variance, ainsi que les qualités de représentation (0,44 < h² < 0,75), viennent confirmer l’unidimensionnalité du modèle en 10 items. En ce qui a trait à la fidélité de la mesure (α = 0,92), l’instrument présente une consistance interne très satisfaisante. La principale conclusion est que l’EES-10 est un instrument remplissant les critères psychométriques les plus répandus et qu’on peut continuer à l’utiliser sans craindre qu’il ait perdu de ses qualités. Les répercussions théorique et pratique seront discutées. D’autres populations, de même que d’autres qualités métriques, devront être explorées par de nouvelles études.

Le génie tissulaire propose une alternative pour la construction d’un substitut à la valve aortique lors des chirurgies de remplacement. Comme les propriétés mécaniques de ce type de substituts peuvent être optimisées par le biais d’un conditionnement mécanique, un bioréacteur a été conçu afin de soumettre la valve produite par génie tissulaire aux conditions de débit et de pression auxquelles la valve aortique est soumise in vivo. Le système conçu est un circuit hydraulique reproduisant les caractéristiques mécaniques principales de la circulation systémique. Le débit dans le système est produit par une pompe à diaphragme, actionnée par une servovalve, qui simule l’action de pompage du cœur. L’innovation apportée par ce système repose sur la précision de la reproduction des conditions physiologiques, obtenue grâce au contrôle du système effectué par un réseau de neurones artificiels. Le contrôleur consiste en un modèle de la dynamique inverse du système, soit, dans un premier temps, la relation entre la commande à envoyer à la servovalve pour produire le débit désiré dans le système. Une phase d’apprentissage a permis d’établir un modèle initial du contrôleur qui a ensuite été raffiné par un apprentissage en cours d’utilisation. Le contrôleur final a permis de déterminer une commande produisant un débit dont la corrélation est très élevée avec le débit physiologique. La suite des travaux prévoit l’implantation d’un contrôleur pour la reproduction de l’onde de pression.

Les constructions en glace fascinent, particulièrement au Québec. Au cours des dernières années, une équipe de recherche de l'Université McGill a mis au point des systèmes de prototypage rapide, aussi nommé impression en 3 D, pour construire des structures de glace. Au moyen d'un robot Cobra 600 d'Adept Technology, un système a été conçu et mis au point, capable de fabriquer un objet de n'importe quelle forme, de dimensions maximales d'environ 300 x 300 x 200 mm, en utilisant un fichier d'entrée de format STL. La précision du système est voisine de 0,5 mm, la vitesse de construction d'environ un litre par jour. Le processus d'adaptation du robot passe par la mise au point de plusieurs sous-systèmes importants. Celui de distribution d'eau est constitué d'un ensemble valve-buse, l'eau étant fournie par des réservoirs pressurisés à l'air. Un matériel d'échafaudage à base d'huile, qui s'adapte aux changements de phase et ne se dégrade pas au contact de la glace, a été développé. Des adaptations étaient également nécessaires sur le plan logiciel. Des algorithmes de tranchage de l'objet 3 D STL, de commande de la trajectoire du robot, et de détection et correction d'erreurs géométriques ont été mis au point.  Ces algorithmes contribuent à l'avancement des connaissances ; ils peuvent également être appliqués à d'autres domaines, comme le traitement de signaux et la fabrication.


La radiothérapie à très haut débit de dose est une modalité émergente de traitement du cancer qui permet de protéger davantage les tissus sains lors des traitements, tout en permettant d’administrer une dose très élevée aux cellules cancéreuses en moins d’une seconde. L’instrumentation permettant de mesurer les doses de radiation pour ce type de modalité doit fournir des mesures précises afin d’assurer la justesse des traitements. Les dosimètres à scintillation, qui sont composés de fibre optique émettant de la lumière lorsqu’irradiée, permettent des mesures simples, précises et en temps réel. L’objectif de ce projet est d’étudier les dommages causés par la radiation à très haut débit de dose sur les fibres optiques utilisées dans ces dosimètres.

Quatre différents échantillons de fibre optique de 1,5 cm de longueur ont été irradiés au PTB, en Allemagne, sous un faisceau possédant un très haut débit de dose de radiation, pour des doses environ 1000 fois plus grandes que celles d’un traitement conventionnel. Suite à ces irradiations, l’efficacité de transmission et de scintillation des fibres optiques est mesurée avant et après l’irradiation. Les résultats obtenus montrent une baisse de l’efficacité de scintillation allant jusqu’à 50%, mais ne semble pas affecter la transmission de la lumière dans ces fibres au-delà des incertitudes de mesures. Cette caractérisation permet de planifier la conception d’une nouvelle génération de dosimètre utilisable à très haut débit de dose.

L’érosion externe est l’un des principaux agents de destruction du réseau routier québécois, en particulier les routes non revêtues. Sous l'action de l'eau, il est possible d’observer la migration de particules, l'apparition de petits dommages ou même la ruine complète d'une route. Afin de présenter une alternative aux solutions traditionnelles contre l’érosion (injections, ajouts de liants, etc…), ce projet introduit deux techniques d'amélioration des sols granulaires dans le domaine de la géotechnique routière: 1 – La calcification biologique ou précipitation de calcite induite par l'activité métabolique de la bactérie Sporosarcina pasteurii (MICP en anglais) ; 2 – La calcification chimique ou précipitation de carbonates de calcium suite à l’injection des solutions de Na2CO3 et CaCl2. Pour ce faire, le projet a commencé par une étape de laboratoire avec percolation de solution chimiques et biologiques sur de petits échantillons de matériaux de fondation, qui a démontré le potentiel de la technique. Par la suite, nous prévoyons la même procédure sur le terrain, à grande échelle. Des essais seront ainsi effectués pour quantifier la précipitation des carbonates de calcium et évaluer la variation de l'érosion externe avant et après chaque type de calcification. Après les essais de terrain, un rapport de faisabilité technique, économique et environnementale sera préparé pour les deux processus de calcification de manière expliquer leur applicabilité à l'industrie du génie civil.

On s’intéresse au biceps brachial (BB) car il serait composé de 6 compartiments. Pour en identifier l’activité, 10 paires d’électrodes de surface ont été placées transversalement à la longueur du muscle et plusieurs enregistrements ont été effectués. À partir de maxima dans la valeur quadratique moyenne des signaux captés autour du BB, une identification initiale de la présence de dipôles de courant à l’intérieur du tissu musculaire a été faite. Avec les caractéristiques de ces dipôles, et modélisant le bras comme un cylindre de 4 couches concentriques (peau, gras, muscles, humérus) des simulations ont été réalisées en vue de reproduire les signaux expérimentaux. Des résultats similaires mais pas identiques aux données expérimentales ayant été obtenues, les caractéristiques initiales des dipôles ont été manuellement modifiées ce qui a permis de reproduire fidèlement les données expérimentales. Si on considère que les compartiments se trouvent placés côte-à-côte et ayant tous la même superficie, les résultats indiquent que les dipôles se retrouvent dans chacun des 6 compartiments. En position assise avec le coude plié à ~90°, un plus grand nombre de dipôles se sont toutefois trouvés dans le chef court alors que debout avec le bras étendu horizontalement, c’est dans le chef long que le nombre était le plus élevé. Nous sommes actuellement à la recherche d’information permettant de mieux préciser la location et la superficie de chacun de ces compartiments à l’intérieur du BB.