Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Ces dernières années ont vu un développement important des membranes à matrice mixte (MMM) pour une myriade d'applications. Pour la séparation des gaz, on souhaite simultanément améliorer la perméabilité, la sélectivité et les propriétés physico-chimiques de la membrane. Pour aider à atteindre ces objectifs, la caractérisation expérimentale et les modèles prédictifs peuvent être utilisés en synergie. Dans ce travail, un algorithme de Monte-Carlo (MC) est proposé pour estimer rapidement et avec précision la perméabilité relative des MMM idéales sur une large gamme de conditions. La différence des coefficients de diffusivité entre la matrice du polymère et la particule intégrée permet d'ajuster la progression aléatoire des espèces migrantes à l'intérieur de chaque phase. Les coefficients de solubilité des deux phases sont utilisés pour contrôler la migration des molécules d'une phase à l'autre de manière à atteindre progressivement l'équilibre de phase à l'interface. Les résultats de diverses MMM ont été comparés aux résultats obtenus avec la méthode des différences finies sous des conditions identiques, où les résultats de la méthode des différences finies sont utilisés dans cette étude comme méthode de référence pour tester la précision de l'algorithme de Monte-Carlo. Les résultats se sont avérés très précis (en général < 1% d'erreur) sur une large gamme de caractéristiques du polymère et de la particule intégrée. L'algorithme de MC est simple et rapide à mettre en œuvre.

Les cellules endothéliales (CE) sont cruciales dans la réparation osseuse, sécrétant des facteurs ostéogéniques (BMP) et angiogéniques (VEGF). Notre équipe a montré que deux peptides, pFibro (fibronectine) et SpBMP-9 (BMP-9), greffés sur des films de polycaprolactone (PCL), favorisent la différenciation des cellules souches en ostéoblastes (Jann et al. 2020 Materials Science and Engineering C 114). L’objectif de cette étude est de vérifier la capacité de ces films à favoriser l'adhésion des CE et l’expression de facteurs ostéogéniques et angiogéniques.

L'adhésion des CE sur PCL a été analysée par marquage du cytosquelette (actine, vinculine) et du noyau (DAPI). Les CE adhèrent et s'étalent uniquement en présence de pFibro et/ou SpBMP-9, avec un effet synergique de la combinaison des deux peptides sur le cytosquelette dès 4h. Après 24h, des contacts intercellulaires se forment. La transduction du signal par SpBMP-9 a été étudiée via le marquage de la protéine phosphorylée Smad1/5 (pSmad 1/5). Dès 4h, la localisation nucléaire de pSmad1/5 est observée dans les CE sur PCL-SpBMP-9 et PCL-pFibro/SpBMP-9. L'impact de cette translocation sur l'activation des gènes est en cours d'analyse par qPCR. 

Ces travaux contribuent à mieux comprendre les interactions entre CE et biomatériaux, essentielles pour développer des substituts osseux. Des études futures porteront sur des cocultures avec des cellules souches mésenchymateuses, pour améliorer la vascularisation et la régénération osseuse.

La production de nanoparticules est un procédé très coûteux, en raison des méthodes de pointes utilisées pour leur synthèse (plasma thermique, chimie colloïdale, etc.) ainsi que pour les divers traitements en surface qui leur sont appliqués. Alors que pour certaines applications avancées (ex.: en optique), ce coût élevé peut être justifié, l'applicabilité des nanoparticules sur une grande échelle est néanmoins limitée. Par exemple, dans le domaine des nanofluides (suspensions de nanoparticules ayant pour but l'amélioration des propriétés caloportrices), l'amélioration incrémentale de la conductivité thermique ne balance pas le coût des particules. Il est donc de mise d'identifier des sources de nanoparticules à faible coût. Une solution est l'extraction de nanoparticules à composition et à taille variées depuis les cendres issues de l'incinération ou de la gazéification de déchets. L'extraction proposée se fera en pré-traitant les cendres au moyen de dépôt chimique photo-induit (photo-CVD) et en séparant les particules les plus fines des plus lourdes au moyen de la sédimentation. Le traitement photo-CVD permet la fonctionnalisation de nanoparticules à plus faible coût, permettant de prévenir les phénomènes d'agglomération sans les inconvénients liés à d'autres techniques (produits secondaires pour les méthodes par chimie des solutions, requis de basse pression pour les méthodes au plasma froid).

Nous présentons dans cette étude un élément fini tridimensionnel de type solide-coque dédié à l’analyse linéaire des coques isotropes et composites. Cet élément utilise uniquement des degrés de liberté de déplacements (3 par nœuds). Une attention particulière est portée aux modifications à apporter afin d’éviter différents blocages numériques. Des investigations numériques ont été conduites afin de tester l’acuité de notre modèle en l’évaluant sur un ensemble de cas tests. La comparaison avec le code commercial ABAQUS montre que notre modèle reproduit  efficacement le comportement des structures coques stratifiées et donne ainsi de bon résultats. Mots clés : élément fini solide-coque, coque composite

Le procédé de la production d’aluminium primaire par électrolyse utilise des anodes de carbone pour réduire l’alumine. Ces anodes sont généralement constituées d’un mélange (coke, anodes recyclées et brai) qui est préchauffé, puis malaxé et enfin mis en forme par vibrocompactage. Les anodes obtenues, appelées anodes crues ou vertes, sont ensuite cuites dans des grands fours.

Afin de répondre aux nombreuses attentes économiques et environnementales relatives à ce type de procédé, l’optimisation des paramètres de cuisson s’avère nécessaire. Cela passe par la maîtrise et le contrôle des différents paramètres d’opération, nécessitant un modèle mathématique fiable. En effet, pour pallier aux limites de l’approche expérimentale souvent longue et coûteuse, la modélisation mathématique s’est progressivement imposée comme une solution permettant de mieux prendre en compte la complexité des phénomènes.

Un modèle de procédé tenant compte des divers paramètres de cuisson des anodes est développé afin d’étudier le comportement d'un four horizontal de cuisson d'anodes. Un de ses atouts, vis-à-vis des modèles existants, réside dans la résolution en 2D des équations du bilan d’énergie aussi bien pour le gaz (plan horizontal) que pour les solides (plan vertical). Dans ce travail, nous allons décrire son apport vis-à-vis des modèles existants, son utilisation dans l’étude de four industriel de cuisson des anodes et enfin des résultats issus de simulations numériques seront présentés.

Le domaine du transport a un besoin criant de se renouveler et d’améliorer ses techniques d’assemblage pour des technologies plus vertes et qui offrent plusieurs possibilités. Dans un objectif environnemental, la construction de structures multi-matériaux, en aluminium et en acier par exemple, permet l’allégement des véhicules ce qui réduit leur consommation de carburant et par le fait même, réduit la production de GES. La soudure par friction-malaxage est une technique d’assemblage qui compte sur un outil rotatif appliquant une forte pression sur les matériaux pour créer de la chaleur en quantité suffisante pour mélanger, à l’état solide, les deux matériaux de mêmes natures ou de natures différentes. L’obstacle majeur de l’implantation de cette technologie est l’usure des outils. Dépendamment des matériaux à assembler, l’outil subit beaucoup d’usure ce qui influence la qualité des soudures et occasionne des coûts pouvant faire pencher la balance pour une autre technologie qui serait plus dommageable pour l’environnement dans une application à grand déploiement. Afin de réduire les coûts environnementaux de la production de nouvelles structures, l’industrie a tout avantage à pouvoir quantifier l’usure des outils suivant une méthode de prédiction éprouvée par la science et donc donner un avantage certain pour la technologie de la soudure par friction-malaxage. Cette recherche porte sur les résultats associés à l’établissement d’une méthode de prédiction de l’usure des outils.

L’une des causes de la dégradation de notre environnement est la prolifération des déchets industriels parmi lesquels on peut citer les déchets de tissus de couture et de polystyrène.

Cette étude consiste à proposer une méthode de recyclage de ces déchets en élaborant des matériaux à base des déchets de tissus de couture et polystyrène expansé (PSE). Les tissus-pagnes à base de fibres synthétiques et le polystyrène expansé ont été sélectionnés, car ce sont les plus accessibles. Les échantillons ont été élaborés par  extrusion, compactage suivi de thermoformage, en faisant varier le taux de tissus et de PSE. Des essais ont été effectués pour déterminer les propriétés physiques et mécaniques des échantillons.  

Les résultats obtenus montrent que la masse volumique des échantillons diminue avec la variation du taux de résine PSE et de tissu. L’absorption diminue également de 5,12 % à 1,15 %  avec une augmentation de la teneur en résine PSE. Enfin, la résistance à la flexion trois points augmente de 3,23 MPa à 4,53 MPa  avec une variation du taux de la résine PSE allant de 60 à 80%. Cette étude a permis d’obtenir des matériaux avec des propriétés physiques et mécaniques intéressantes. Cette méthode de recyclage permet ainsi de valoriser ces déchets.

Mots clés : Déchets de tissu, polystyrène expansé, matériaux, résistance.

Cette étude examine l'impact de divers paramètres dans un bain de trempe sur l'efficacité du processus de refroidissement rapide des blocs d'acier de plus de 28 tonnes. Le phénomène des non-uniformités de refroidissement observé lors des opérations de refroidissement pose un défi significatif. Pour aborder ce problème, la modélisation numérique par la CFD (Computational Fluid Dynamics) a été appliquée. Un modèle numérique a été développé pour prédire le processus de refroidissement rapide, s'avérant être un outil utile pour les analyses paramétriques. La méthodologie repose sur la création d'un modèle thermohydraulique transitoire, prenant en compte le système d'agitation par pompe ainsi que le changement de phase liquide-vapeur de l'eau. Ce modèle résout le système hydrodynamique turbulent tout en intégrant l'évaporation de l'eau en contact avec la surface chauffée. La calibration du modèle a été effectuée à partir des températures mesurées de l'eau et de la pièce dans le bain de refroidissement lors de son fonctionnement réel. Par la suite, une analyse paramétrique a été conduite pour quantifier l'effet du rapport entre la quantité d'eau dans le bain et la masse du bloc d'acier. Cette analyse visait à déterminer l'impact du volume d'eau sur l'agitation globale et la vitesse de refroidissement. Les résultats préliminaires indiquent que l'ajout d'eau entraîne une diminution de l'agitation, ce qui a conduit à un refroidissement moins accéléré que prévu.

Les élastomères sont des polymères capables de supporter de grandes déformations réversibles. Ils sont très utilisés dans notre quotidien (pneus, brosse à dent, gants en plastiques...). Ils sont habituellement obtenus par réticulation chimique de chaines de polymères flexibles. Malheureusement ces matériaux sont très difficilement remis en forme à cause des liaisons covalentes de réticulation. Ce sont des polymères thermodurcissables, insolubles et ne peuvent être fondus pour une nouvelle utilisation.

Pour régler ces problèmes de mise en forme et de recyclage, les élastomères thermoplastiques (ETP) ont été introduits. Ils ont les mêmes propriétés mécaniques que les élastomères mais ils sont facilement remis en forme sous l’action de la chaleur ou d’un solvant. 

Nous proposons ici la stratégie et la synthèse de nouveaux élastomères supramoléculaires (ETP). Une fois chauffés, ces derniers ont une viscosité encore plus petites que les ETP conventionnels.

La polycondensation (chimie click) entre un polymère de faible IP obtenu par «ATRP» et une petite molécule capable de s'auto-assembler  nous a donné une reticulation physique.

Les effets de l'introduction de ces interactions sur la chaine principale et latérale ont été étudiés par DSC et DMA. Les résultats obtenus sont exposés dans ce travail. Les groupements coumarine sont introduits pour une réticulation covalente reversible sous l'action des radiations UV.  Cela est une photomodulation des propriétés mécaniques.

Lors du séisme de Boumerdes de mai 2003, toutes les structures non effondrées ont été renforcées. L’absence de règlement national dans la matière et l’urgence de l’opération ont conduit les ingénieurs a opté pour des solutions non économiques et peu opérationnelles. L’évaluation de la vulnérabilité sismique des bâtis existant est une tâche importante et difficile avec des conséquences politiques et économiques majeures. La mise en conformité sismique des structures de bâtiments en béton armé qui représentent une part importante du patrimoine immobilier algérien est une problématique qui doit être prise en charge dans le temps par l’ensemble des intervenants dans l’acte de construire,  afin de ramener le risque sismique à une valeur acceptable. La présente communication est une approche d’estimation de l’importance des paramètres à introduire dans une démarche d’évaluation de la vulnérabilité sismique d’un type de construction de structure de caractéristiques géométriques et mécaniques prédéfinies.Une méthode de calcul basée sur un calcul statique non linéaire en poussée progressive (pushover) a été utilisée pour l’évaluation de la courbe de capacité sismique de la structure. Cette approche est tirée des résultats des expertises réalisées sur le comportement réel de structures endommagées par le séisme de Boumerdes 2003.Les résultats de l’analyse ont révélé les déficiences sismiques dans la conception et la qualité deréalisation du béton et les dispositions constructives

 

 


 

Les nanoparticules magnétiques (NPMs) continuent d’être largement étudiées puisqu’elles démontrent des comportements largement différents des simples matériaux ferro ou ferrimagnétiques qui les composent. Les propriétés dépendantes de la taille telles que le super-paramagnétisme et la grande surface spécifique sont considérées comme étant la base pour le design de  nouvelles techniques de stimulation magnétique promettant plusieurs applications en génie chimique, en chimie, en biotechnologie et en médecine. Précédemment, nous avons mis en lumière le fait que des NPMs excitées par des champs magnétiques rotatifs de forces modérées et à basses fréquences génèrent des tourbillons nanométriques qui peuvent jouer un rôle crucial dans l’augmentation du phénomène de transport hors du paradigme de la diffusion moléculaire. Afin d’approfondir la compréhension de ce phénomène, la plus récente étude porte sur les effets de différents champs magnétiques rotatifs, alternatifs et directs sur le couple exercé par NPMs à l’intérieur de différentes solutions. Pour ce faire plusieurs suspensions de NPMs d’oxyde de fer de différentes tailles ainsi que des émulsions de ferrofluides à base d’huile dans de l’eau ont été préparées afin d’éclaircir la relation entre les différents paramètres des solutions et la réponse magnétique sur le couple exercé par un viscosimètre tournant dans le liquide.

Les modèles d'atmosphères stellaires sont issus de programmes informatiques qui simulent la  structure interne d'une étoile et produisent au final un spectre  électromagnétique dans un domaine de longueur d'onde désiré. Le spectre ainsi obtenu peut être comparé à celui émis par une étoile réelle, afin de déterminer les propriétés de celle-ci.

Pour ce faire, l'utilisateur doit considérer plusieurs paramètres dans les modèles afin de trouver le meilleur ajustement possible. Et c'est là que réside le problème. En effet, les paramètres sont souvent très nombreux et interdépendants, et habituellement  l'utilisateur va chercher à les déterminer alternativement en se basant sur quelques régions clés  du spectre observé. Idéalement, il faudrait déterminer les paramètres de façon simultanée, en se basant sur l'ensemble du spectre observé (ou du moins sur la majorité du spectre). L'utilisation des statistiques bayésiennes permet de satisfaire cette exigence. En effet, on peut s'en servir pour trouver un maximum de probabilité global dans un espace de paramètres en cumulant l'information contenue dans chaque région clé du spectre.

Durant cette présentation, je vais expliquer ce que sont les statistiques bayésiennes et comment  je les applique à l'analyse spectroscopique des étoiles massives. Enfin, je présenterai les résultats obtenus avec cette méthode pour un échantillon d'étoiles B, observées à l'Observatoire du  Mont-Mégantic.

En dépit de son abondance, la cellulose reste à ce jour peu utilisée en tant que matière première. Du à  son manque réactivité et son insolubilité dans la plupart des solvants, les procédés utilisés pour sa dégradation ont recours à une étape de prétraitement énergivore et utilisent des réactifs dangereux ou polluants (acides, base, métaux) diminuant leur attrait dans l’optique du déploiement d’énergies vertes.

Ce problème pourrait être résolu grâce à l’action de cellulases, des enzymes spécialisées dans la digestion de la cellulose en glucose. Leur utilisation reste toutefois  limitée par, entre autres, leur action relativement lente, la production de composés inhibiteurs lors du prétraitement et le recours à de grands volumes d’eau devant être traités par la suite.

En nous inspirant des conditions naturelles où l’on retrouve des cellulases, nous avons développé une technique de saccharification de la cellulose sans solvant. Cette approche fait usage de techniques de mécanochimie, alternant des phases de broyage avec des phases de repos à température modérée. En plus de mettre en évidence la résilience des cellulases aux contraintes mécaniques, cette technique permet d’obtenir des conversions rapides et élevées, ainsi que des concentrations de glucose largement supérieures à celles obtenues par les procédés classiques. Ces caractéristiques sont largement favorables entre autre à l’étape de fermentation produisant l’éthanol utilisé comme carburant.

La salubrité dans les usines de transformation alimentaire est une préoccupation majeure tant au niveau du secteur bioalimentaire que de la part de la santé publique. Cela est principalement en raison du risque élevé de contamination des aliments par des microorganismes pathogènes, car c'est un milieu propice à leur prolifération. Ainsi, pour assurer un niveau de salubrité adéquat et minimiser les risques de contaminations par des pathogènes, il est obligatoire d'assurer une qualité adéquate de lavage et de désinfection des équipements et des surfaces de travail. L'utilisation d'agents chimiques de lavage et d'assainissement est donc obligatoire, mais ceux-ci génèrent des effluents hautement nocifs pour l'environnement. Donc, pour maintenir un niveau adéquat de salubrité et éliminer l'utilisation d’agents chimiques de lavage, nous proposons l'utilisation de la technologie d'électro-activation, un principe basé sur l'électrochimie appliquée et le génie des procédés. Ainsi, des solutions électro-activées ont été testées contre différents pathogènes comme L. monocytogenes, S. aureus, E. coli et leurs biofilms. Les résultats obtenus ont montré une grande efficacité de ces solutions en ce qui est de leur pouvoir antimicrobien et anti-biofilm. Aussi, en utilisant ces solutions comme agents de lavage des équipements et de surfaces de travail, il a été possible d'exclure totalement l'utilisation d'agents chimiques conventionnels de nettoyage comme les acides, bases et assainisseurs. 

La conception de nouveaux antibiotiques est en retard par rapport à la résistance que les bactéries développent à ceux-ci, réduisant du coup l’éventail des outils thérapeutiques à notre disposition pour traiter les infections bactériennes. Notre contribution à ce défi fondamental du 21e siècle porte sur le développement d’une nouvelle plateforme de détection formée de biocapteurs électroniques basés sur un réseau de nanotubes de carbone. L’application de cette plateforme a été récemment démontrée en laboratoire par nos collaborateurs pour la détection de bêta-lactamases associés à la résistance aux pénicillines, l’une des plus grandes classes d’antibiotique utilisées en clinique.

Encouragés par ces résultats promoteurs, nous développons une méthodologie intégrée combinant le pouvoir prédictif de simulations à la conception en laboratoire pour optimiser la sensibilité de ce biocapteur électronique. Nous démontrons que les simulations apportent un nouvel éclairage sur le fonctionnement de ce biocapteur, révélant du coup les meilleures pratiques pour associer les protéines réceptrices aux nanotubes afin d’optimiser le signal électrique généré par le biocapteur lorsque les protéines réceptrices lient les bêta-lactamases. À terme, cette nouvelle procédure jumelant prédictions par simulation et conception en laboratoire offrira une approche rigoureuse de développement pour les biocapteurs électroniques, dont ceux pour la détection de la résistance aux antimicrobiens.

Les protéines amyloïdes forment des agrégats fibrilleux qui sont associés à certaines maladies. Formés au début du processus d’agrégation, les petits oligomères, un auto-assemblage de quelques protéines, seraient à l’origine de la toxicité de ces maladies, possiblement par la formation de pores dans la membrane cellulaire. Cependant, les modes d’actions et le repliement de ces oligomères restent encore très nébuleux. Les méthodes de simulations numériques que nous utilisons et développons permettent de lever le voile sur ces processus. Récemment, nous avons caractérisé le processus d’oligomérisation de la protéine bêta-amyloïde (Aβ) et de la séquence poly-glutamine (Poly-Q) associées aux maladies d’Alzheimer et de Huntington respectivement. De plus, nous avons analysé l’insertion de la protéine amyline (IAPP), associée au diabète, dans une membrane lipidique.

Dans cette présentation, je vais tout d’abord introduire les champs de forces (gros-grains et tout-atomes) et les méthodes de dynamique moléculaire (échantillonnage parapluie et échange de réplique) qui nous permettent de décrire ces systèmes. Puis, je vais présenter nos résultats, lesquels permettent de mieux comprendre les processus moléculaires et énergétiques importants lors du repliement des protéines Aβ, Poly-Q et IAPP.

Contrairement à tous les autres animaux, qui ont un mode de transmission strictement maternel de l’ADN mitochondrial (ADNmt), plusieurs espèces de bivalves ont un mode de transmission de l’ADNmt unique : la « double transmission uniparentale ». Ces bivalves ont deux ADNmt distincts: un ADNmt M transmis par les mâles, retrouvé dans les spermatozoïdes, et un ADNmt F transmis par les femelles, présent dans tous les tissus chez les femelles, et dans les tissus somatiques chez les mâles.

De plus, ces bivalves possèdentdeux nouveaux gènes mitochondriaux, un dans l’ADNmt F et un dans l’ADNmt M. Ces gènes fabriquent des protéines dont le rôle est inconnu mais qui ne sont pas liées à la production d’énergie comme les autres protéines mitochondriales typiques. L’hypothèse privilégiée est que ces nouveaux gènes chez les bivalves auraient un rôle dans la détermination du sexe, une première dans le monde animal, c’est-à-dire l’implication directe de l’ADNmt dans la détermination du sexe.

L’objectif principal de mon projet de maîtrise consistait à caractériser la structure et la fonction de ces nouveaux gènes par des analyses bioinformatiques. Mes résultats suggèrent des fonctions dans l'apoptose, le transport vésiculaire et la signalisation cellulaire (tous des processus importants dans la détermination du sexe, la différenciation sexuelle ou la maturation des gamètes). Mes résultats appuient l’hypothèse d’un système de détermination du sexe impliquant l’ADNmt chez les bivalves.

Les changements climatiques observés depuis quelques années à l’origine de diverses perturbations de notre planète nous interpellent tous.Dans la construction, le matériau terre utilisé depuis des millénaires puis abandonné par la suite apparait comme une alternative pour la réduction des gaz polluants.La technique de construction visée est celle du pisé coulé .Le pisé est un béton de terre et traité  avec les méthodes et pratiques usuelles du béton conventionnel.Une première phase concerne la caractérisation du sol étudié faite par des essais variés de laboratoire. Les gros granulats utilisés dans le béton sont des pierres concassées également caractérisés.Dans une deuxième phase des formulations de béton à confectionner puis à tester dans la phase 3 sont déterminées. Les résistances en compression à 28 jours visées sont de 15 Mpa et 1 Mpa pour le béton avec ciment.La troisième phase fait la caractérisation mécanique du béton confectionné. Des essais destructifs et non destructifs seront effectués.L'objectif final de cette étude est de promouvoir la construction en terre au Québec par la construction de bâtiments d'habitation d'un à deux étages. Une réponse peut être ainsi apportée à la problématique du logement d'une part tout en contribuant à la lutte contre le réchauffement climatique.

 

 

 

 

Le design de ligands symétriques C2 (ligands bivalents/dimères) comme agents thérapeutiques attire l’attention des chercheurs. En effet, ces dimères présentent généralement des propriétés biologiques supérieures aux monomères correspondants. Au niveau moléculaire, l’étude des interactions de ce type de composés avec des macromolécules biologiques (ADN, ARN, récepteur spécifique, etc.) présente un intérêt fondamental majeur et mène à une meilleure compréhension à la fois des sondes et des macromolécules étudiées. Notre laboratoire s’intéresse aux dimères de stéroïdes, particulièrement à base d’estradiol et de testostérone.

Nous proposons utiliser le malonate de diméthyle (1) pour construire rapidement et efficacement des dimères de la testostérone. Il est possible d’obtenir la 7alpha-(E)-4-chlorobut-2-ènyl-4-androsten-17beta-acétoxy-3-one (2) en seulement quatre étapes chimiques dans un rendement global de 37 %. Cette molécule clé peut former un dimère de type C2v par double alkylation de 1. Toutefois, nous avons procédé prudemment par monoalkylation initiale de 1 avec le chlorure allylique 2 pour fournir 3 avec un rendement de 50%. Une fois isolée et purifiée, une deuxième unité de testostérone est ajoutée pour donner le dimère 4.

Utilisant la spectroscopie rovibrationnelle en matrices, nous démontrerons l'efficacité d'une nouvelle méthode de focalisation magnétique d'un jet moléculaire en effectuant la première séparation des isomères de spin nucléaires de l'eau. Avec cette approche novatrice, nous avons créé un échantillon possédant un enrichissement substantiel en isomère o-H2O résultant en un accroissement du ratio ortho/para de plus de 400%.

Le cancer de la prostate est le plus diagnostiqué chez l’homme au Canada. Un homme sur 8 recevra un diagnostic au cours de sa vie. Ce projet de recherche vise le développement de nouveaux composés anticancéreux à base de testostérone pour le traitement de ce cancer. L’avantage de ces hybrides serait de découvrir des anticancéreux à la fois plus efficaces et moins toxiques que ceux utilisés présentement en clinique. Nous utilisons la fonction 1,2,3-triazole obtenue par « chimie click » afin de construire efficacement les conjugués à base de Pt(II). Le développement de ces complexes débute par la fonctionnalisation de la testostérone. Elle se déroule en trois étapes afin d’obtenir le produit 7a-allyltestostérone 1 par la réaction de Sakuraï. Le composé 1 est converti efficacement en chlorure allylique 2 par métathèse-croisée d’oléfines. Ensuite, le composé 2 est transformé en azoture 3 par simple substitution du chlorure allylique 2 par de l’azoture de sodium. La réaction « click » avec l’azoture 3 et le dérivé 4 conduit au composé 1,2,3-triazole 5. La complexation de l’aminopyridine en présence du tétrachloroplatinate de potassium permet d’obtenir le complexe T-Pt(II) 6. Différents complexes ont été synthétisés par l’utilisation de différents dérivés aminopyridines afin de créer une série d’hybrides testostérone-platine (II). L’activité anticancéreuse des molécules synthétisées est évaluée sur des lignées de cellules cancéreuses de la prostate (in vitro).

La recherche s'intéresse à la taphonomie forensique qui consiste à étudier les processus associés à la décomposition des cadavres. Ce domaine a pour but d'aider à déterminer les évènements périmortem et post mortem dans lesquels les corps sont impliqués. La décomposition du corps peut affecter une multitude de facteurs, dont les vêtements portés. Cette recherche vise à apporter une contribution dans la compréhension de l'intervalle postmortem. Le tout sera réalisé en déterminant la possible relation entre la décomposition d'un corps ou de tissus vivants et la nature des vêtements portés. Pour ce faire, une méthodologie purement littéraire sera appliquée. La démarche consistera à consulter divers articles scientifiques sur le sujet, puis à faire une synthèse des informations collectées. 

Le développement de nouvelles méthodologies de synthèse qui permettent la construction de liens C-C, C-N et C-O est essentiel dans la préparation de molécules d’intérêt pharmaceutique. Les organobismuths ont trouvé plusieurs applications en chimie organique, en partie dû aux faibles coûts et la faible toxicité associés à ce métal et dû à leur réactivité unique. Au cours de cette présentation, nos travaux sur le développement de nouveaux réactifs de type organobismuth et leur utilisation dans des réactions catalysées par des métaux de transition seront illustrés.

Les mitochondries sont les organelles qui produisent la quasi-totalité de l’énergie consommée par les cellules. Leur singularité est dû au fait qu’elles possèdent leur propre génome (ADN mitochondrial ou ADNmt) distincts du génome nucléaire (ADNnu). Chez les animaux l’ADNmt est, contrairement à l’ADNnu, hérité seulement par la mère.

Exceptionnellement, un seul système va à l’encontre de cette « loi » d’hérédité : le système de double hérédité uniparentale (Doubly Uniparental Inheritance ou DUI) retrouvé chez plusieurs espèces de bivalves. Les espèces concernées possèdent ainsi 2 lignées d’ADNmt distinctes : une d’origine paternelle (ADNmt M) et une d’origine maternelle (ADNmt F). En favorisant la présence de deux génomes mitochondriales différents, une situation pouvant être fatale chez les autres animaux, ce système soulève des interrogations quant à son rôle évolutif. L’hypothèse privilégiée pour expliquer son maintien l’implique dans la détermination sexuelle.

L’affirmation de cette hypothèse implique une étude plus élargie de différents systèmes DUI. Pour cela, dans le cadre de ma maitrise, j’étudie la distribution de ce système au sein du groupe des bivalves en testant pour sa présence chez des familles où aucune investigation n’a encore été réalisée. Un autre  de mes objectifs est d’établir si le DUI a une origine unique ou multiple. Les résultats préliminaires confirment la découverte du système DUI chez de nouvelles espèces et appuient l’hypothèse d’une origine unique.

 



Le milieu interstellaire est composé de gaz sous la forme atomique ou moléculaire et de particules appelées poussières agissant comme catalyseur dans la formation des molécules. Ce milieu est riche en interactions de toutes sortes. Certains de ces processus amènent à la formation des nuages moléculaires, entités de grandes importances pour une galaxie puisque ce sont les seuls lieux de formation des étoiles. Mes recherches se concentrent sur les mécanismes de formation de ces nuages. Les processus physiques à l'oeuvre, tels la turbulence ou les instabilités thermiques et gravitationnelles, engendrent des structures de gaz complexes dans le milieu interstellaire qui sont très difficile à interpréter de notre unique point d'observation de la Galaxie. Mon étude des interactions complexes entre les différents milieux m'a amené à construire une approche différente et originale fondée sur une analyse à la fois locale et multi-échelles des structures en émission de la poussière. Cette analyse basée sur les transformées en ondelettes complexes permet une séparation des structures incohérentes, causées par les mouvements turbulents, et celles cohérentes liées aux autres processus physiques menant à la formation des nuages moléculaires. Je présenterai la technique ainsi que ses résultats sur des relevés récents du plan de la Galaxie.