Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Les modèles probabilistes de la demande sismique et l'analyse de la fragilité sont des éléments clés du génie parasismique basé sur la performance. L'évaluation de la performance des systèmes structuraux à composants multiples, comme les ponts routiers, est facilitée par la prise en compte de l'interaction entre les composants. Les formulations analytiques classiques capables d'incorporer cette caractéristique et de gérer les incertitudes reposent sur des hypothèses communes : la demande sismique suit une loi log-normale et la dépendance linéaire entre les réponses des composantes structurelles. Néanmoins, ces hypothèses ne sont pas toujours valides. Une méthodologie est donc proposée pour la construction de modèles probabilistes de demande sismique basés sur l'analyse à bandes multiples (MSA) et sur des modèles de mélange gaussien (GM). Cette méthode s'appelle MSA-GM et est plus flexible que les autres stratégies classiques par rapport aux hypothèses généralement adoptées. Une étude de cas sur un pont au Québec est présentée pour analyser, dans un premier temps, la validité des hypothèses sur la demande sismique, et, plus tard, leur impact sur les courbes de fragilité (voir la figure attachée). Les avantages de la méthodologie proposée sont mis en évidence tout au long de ces analyses.

La navigation par résonance magnétique (NRM) est une technologie permettant de déplacer des particules médicamenteuses dans le corps humain à l’aide d’un scanner d’imagerie par résonance magnétique (IRM). L’application privilégiée de la NRM est le traitement de cancer du foie, seconde cause de mortalité chez les patients atteints par un cancer. La réussite d’une telle technologie nécessite une connaissance approfondie de la géométrie vasculaire et des caractéristiques dynamiques du flot sanguin dans l’organe. Une des problématiques auxquelles nous sommes confrontés est la vitesse trop élevée du sang dans le foie (au-delà de 40 cm/s). Par pallier à ce problème, nous souhaitons mettre en place une approche par flot bloqué qui consiste à réduire le flot sanguin dans l’organe à l’aide d’un cathéter ballon. Cette approche a déjà fait l’objet d’études cliniques dont les résultats sont encourageants. Nos premières expériences ont montré des réductions drastiques de flot (plus de 800% de réduction), accompagnés par une élimination de la pulsation artérielle. Parce qu’il est difficile de mesurer des flots lents, nous utilisons plusieurs modalités d’imagerie (IRM, ultrasons, et angiographie) afin de conclure sur l’approche la plus robuste. Cette technologie de navigation magnétique a le potentiel de transformer la façon dont certaines procédures médicales sont actuellement réalisées et pourrait, à terme, rendre ces interventions plus efficaces et moins invasives.



Dans le présent article l’intérêt de notre travail de recherche porte sur la compréhension des phénomènes mis en jeu dans la formation et l’oxydation des polluants dans une flamme Propane/Air de diffusion laminaire et turbulente soumise à un champ électrique. En effet, de nouvelles technologies pour assister la combustion connaissent un véritable essor : c’est l’utilisation de systèmes de contrôle actif comme : le champ électrique, le champ magnétique, le champ électromagnétique et/ou une excitation acoustique. Plusieurs études et travaux sur les plasmas froids appliqués aux flammes ont démontré des effets intéressants sur la réactivité chimique des radicaux et des espèces formées au sein du plasma pour transformer (oxyder) les molécules polluantes en molécules inoffensives. Grâce à l’application d’un champ électrique, les collisions ioniques et électroniques avec des molécules de gaz neutres influencent la forme de la flamme, l'intensité de combustion, les émissions de particules, la formation de suie et le taux de production d'ions. Des résultats très intéressants ont été obtenus sur notre montage expérimental lorsqu'un champ électrique a été généré.

* Lalla Samira TOUHAMI, * Daoud AIT-KADI, **Med Anouar JAMALI

Ingénierie du système de gestion de la maintenance dans un contexte distribué

Les coûts associés à la maintenance des biens d'une entreprise ne cessent de croitre. Ceci est dû à la complexité des biens à entretenir, aux coûts de la main d'œuvre, des pièces de rechange, des pénalités de retards occasionnés par la fréquence des défaillances aléatoires, aux durées d'inactivité et aux prestations externes.

La maintenance a toujours été considérée comme centre de coût. La maintenance productive totale (TPM) et le Lean maintenance préconisent des démarches structurées pour réduire les sources de gaspillage. Ceci exigeune cartographie des processus, des outils de modélisation, d’évaluation et d’amélioration des performances de chaque processus.

Pour la démarche proposée, chaque processus est décomposé en activités. A chaque activité on associe des ressources, des objectifs, une durée, un coût et une méthodologie d’évaluation.

Le processus de réingénierie de la maintenance repose sur l'évaluation des impacts techniques, économiques, stratégiques, sociaux et environnementaux de chaque activité. À l’issue de cet exercice, le mode de réalisation à l’interne, conjointement ou en totalité par des prestataires externes sera défini.

Dans cette communication, nous ferons état de la méthodologie proposée et des outils développés.

* Département Génie mécanique Université Laval G1V 0A6 Québec

** R&D ESITH Route d’El Jadida Km8 Maroc



Le glioblastome multiforme (GBM) représente la forme de cancer du cerveau la plus agressive avec un taux de survie inférieur à 5% au-delà de 5 ans. La principale cause d’échec des traitements actuels est la migration des cellules cancéreuses de la tumeur vers le  tissu cérébral avoisinant. La stratégie proposée consiste à inverser la direction de la migration des cellules GBM, via un gradient de chimioattractant (CXCL12), vers une zone confinée (gliotrappe) dans laquelle elles peuvent être éliminées par radiothérapie localisée Cette gliotrappe combine un hydrogel poreux avec des nanoparticules (NPs)  chargées de CXCL12 dans le but de favoriser sa libération contrôlée. Pour optimiser la gliotrappe, il est nécessaire de développer un modèle in vitro qui prend en compte le flux de liquide cérébral, un facteur pouvant influencer de manière significative la libération du CXCL12 en fonction de l’emplacement de la tumeur. Dans le cadre de ce projet de recherche, un bioréacteur à perfusion mimant la dynamique de l'écoulement du flux du liquide cérébral interstitiel a été développé afin de valider et d’optimiser cette technologie innovante. Tout d’abord, les cinétiques de libération de CXCL12 à partir des différents constituants de la gliotrappe ont été caractérisées et modélisées mathématiquement en conditions statiques. L’effet de la perfusion à différents débits retrouvés dans le cerveau a ensuite été évaluée, permettant d’émettre des recommandations sur la technologie proposée.

La formulation conventionnelle de la physique est est caractérisée par le fait que les équations du mouvement d'un système physique sont déterminées indépendamment des quantités conservées. Dans cette approche, on détermine d'abord, à l'aide du principe de moindre action, les équations du mouvement, puis, en faisant appel à certaines propriétés de l'espace-temps, on démontre que certaines quantités, comme l'énergie, l'impulsion et le moment cinétique, sont conservées. Il est proposé dans cette communication une approche différente, fondée sur la propriété de réversibilité des groupes, qui donne accès à la connaissance, et sur un autre principe d'invariance qui permet d'établir simultanément et en concordance les équations du mouvement et celles de conservation. Dans cette nouvelle approche, on ne considère pas le système physique comme évoluant dans un espace-temps préexistant; au contraire, non seulement le construction est corrélative à l'organisation du champ spatio-temporel, mais elle précède logiquement. L'espace-temps apparaît comme une propriété de l'objet. Cette nouvelle mécanique conduit à des résultats inattendus; en autres, elle permet d'inscrire dans le formalisme de la relativité restreinte le principe d'indétermination de Heisenberg, tout en établissant un lien entre indétermination, causalité et singularité.



Introduction : Touchant environ 4% de la population, l'anévrisme de l'aorte abdominale (AAA) est une dilatation localisée de l'aorte abdominale, souvent asymptomatique. En cas de rupture, la mortalité et la morbidité peuvent atteindre 80%, soit la 15e cause de mortalité aux USA. L'utilisation du couplage entre la mécanique des fluides et les données cliniques de suivi morphologique permettra une meilleure compréhension des mécanismes de croissance en jeu dans l’aorte et vise à définir des nouveaux critères pour l'aide à la planification interventionnelle personnalisée.
Méthodes : (i) extraction des AAAs de suivi (ii) Calcul de l’écoulement par volumes finis (validé par IRM) (iii) Extraction des Structures Lagrangiennes Cohérentes (SLC) de l'écoulement pour quantifier la topologie du transport dynamique.
Résultats : l'IRM a permis de valider la topologie de l'écoulement ainsi que le choix des conditions limites. Le transport, donnée complexe à visualiser et quantifier dans un écoulement instationnaire, est observé via les SLC elliptiques. Celles-ci forment des domaine fermés présentant peu de déformation au cours du temps.
Discussion : Si les relations entre croissance locale et écoulement sont établies dans les AAAs, les composantes de celui-ci ayant un rôle sont encore méconnus. Notre étude vise à les extraire et quantifier leur impact par des méthodes numériques innovantes.

Image: évolution des zones de stagnation du sang dans un AAA en 2006, 2009 et 2012.

L’Échelle d’Estime de Soi de Rosenberg (EES) est un instrument unidimentionnel, de 10 items, largement utilisé depuis presque 50 ans. La littérature suggère qu’à chaque 5 ans, on revérifie les qualités métriques des instruments pour s’assurer de pertinence leur mesure. C’est dans cette optique que cette étude, menée auprès d’un échantillon composé de 83 étudiant-e-s universitaires âgés de 19 à 50 ans recueilli en 2012, teste des propriétés psychométriques de l’EES. Les corrélations inter-items (0,34<r<0,81) suggèrent la présence d’un construit unidimensionnel. Les corrélations items-total (0,60 < rc < 0,82) et les alphas de Cronbach en cas de suppression des items (0,90 < α < 0,92) réitèrent que le modèle testé est unidimensionnel. Finalement, une analyse en composantes principales (0,66 < Satf < 0,87), qui explique 61% de la variance, ainsi que les qualités de représentation (0,44 < h² < 0,75), viennent confirmer l’unidimensionnalité du modèle en 10 items. En ce qui a trait à la fidélité de la mesure (α = 0,92), l’instrument présente une consistance interne très satisfaisante. La principale conclusion est que l’EES-10 est un instrument remplissant les critères psychométriques les plus répandus et qu’on peut continuer à l’utiliser sans craindre qu’il ait perdu de ses qualités. Les répercussions théorique et pratique seront discutées. D’autres populations, de même que d’autres qualités métriques, devront être explorées par de nouvelles études.

Plusieurs facteurs contribuent à accroître l’intérêt pour une utilisation accrue de la motricité électrique et des technologies des véhicules autonomes en agriculture : rareté croissante de la main-d’œuvre agricole qualifiée, augmentation de la production alimentaire à l’échelle mondiale, législations et réglementations visant la durabilité de la production agricole. Les technologies relatives aux piles à combustible (FC), aux véhicules électriques (EV) et aux véhicules autonomes et connectés (CAV) sont adaptées avec succès pour se conformer aux exigences liées aux déplacements routiers et aux applications hors route. Cette communication présente une analyse de faisabilité portant sur l’intégration des technologies FC, EV et CAV sur des unités motrices pour la réalisation d’opérations agricoles autonomes. De telles unités motrices agricoles autonomes de taille réduite (AAPU)  pourraient opérer des machines et équipements agricoles variés en fonction des différentes productions et  divers types de pratiques culturales. 

On s’intéresse au biceps brachial (BB) car il serait composé de 6 compartiments. Pour en identifier l’activité, 10 paires d’électrodes de surface ont été placées transversalement à la longueur du muscle et plusieurs enregistrements ont été effectués. À partir de maxima dans la valeur quadratique moyenne des signaux captés autour du BB, une identification initiale de la présence de dipôles de courant à l’intérieur du tissu musculaire a été faite. Avec les caractéristiques de ces dipôles, et modélisant le bras comme un cylindre de 4 couches concentriques (peau, gras, muscles, humérus) des simulations ont été réalisées en vue de reproduire les signaux expérimentaux. Des résultats similaires mais pas identiques aux données expérimentales ayant été obtenues, les caractéristiques initiales des dipôles ont été manuellement modifiées ce qui a permis de reproduire fidèlement les données expérimentales. Si on considère que les compartiments se trouvent placés côte-à-côte et ayant tous la même superficie, les résultats indiquent que les dipôles se retrouvent dans chacun des 6 compartiments. En position assise avec le coude plié à ~90°, un plus grand nombre de dipôles se sont toutefois trouvés dans le chef court alors que debout avec le bras étendu horizontalement, c’est dans le chef long que le nombre était le plus élevé. Nous sommes actuellement à la recherche d’information permettant de mieux préciser la location et la superficie de chacun de ces compartiments à l’intérieur du BB.  

Les tests ELISA (Enzyme-Linked ImunoSorbent Assay) sont communément utilisés pour détecter et quantifier des protéines dans des solutions complexes. Dans sa version standard dite « en sandwich », des anticorps de capture capables de fixer spécifiquement l’antigène recherché sont adsorbés au fond des puits d’une microplaque. Les plaques sont ensuite bloquées par incubation d’albumine sérique bovine (BSA) avant l’incubation du ligand à détecter et des autres réactifs du test (A). La réalisation d’un test ELISA peut sembler fastidieuse et longue (environ 16 h, incluant l’adsorption de l’anticorps primaire durant une nuit).

Le présent travail propose différentes alternatives aux tests standard. La première approche consiste à greffer chimiquement une couche de polymère aux propriétés anti-adhésives pour le matériel biologique (Dextran). Cette couche a permis de réduire drastiquement le temps de préparation des tests ELISA grâce à la suppression de l’étape de blocage à la BSA et à l’attache chimique de l’anticorps de capture au fond des puits, réalisée en 15 min (B). La deuxième approche repose sur l’interaction non-covalente, réversible et stable entre deux peptides K et Ecoil. Les plaques recouvertes de Kcoils attachés chimiquement ont démontrés leurs capacités à recruter spécifiquement des ligands étiquetés Ecoil (C). La stabilité et la capacité de régénération des nouvelles constructions ainsi qu’une comparaison avec les tests ELISA standard seront présentés. 

La Caraïbe a été au cours des siècles derniers le siège d'économies coloniales. Ce n'est qu'à la marge d'un développement tourné vers l'approvisionnement de métropoles européennes que des systèmes agricoles dédiés à l'approvisionnement du marché intérieur ont pu voir le jour. Aujourd'hui dans un souci d'accroissement de la résilience territoriale, l'orientation des systèmes agri-alimentaires vers la satisfaction des besoins des populations locales apparaît comme une priorité. Conjuguée à la nécessité d'une transition agroécologique et bioéconomique des modes de production, l'innovation en milieu agricole doit répondre à ces différents challenges. Organisés en réseau au sein du projet Cambionet, les scientifiques de la région développent la mise en place de living labs multisites au sein desquels les communautés d'agriculteurs et autres parties prenantes du secteur agricole, peuvent concevoir à partir des enjeux et contraintes auxquels elles sont confrontés, les choix opérationnels à privilégier dans l'évolution des agrosystèmes.  Les résultats préliminaires de cette approche originale entamée en 2021, montrent l'intérêt de la démarche collaborative d'où émergent des living labs organisés sur un nexus commun "agroécologie-bioéconomie-adaptation au changement climatique-nutrition", en déclinant dans chaque contexte des spécificités qui les rendent complémentaires, pour en faire des pôles d’attractivité à fort potentiel pour une mobilité des acteurs dans la région.

Plusieurs industries œuvrant dans la transformation sont aux prises avec un problème commun, soit la variabilité de leurs matières premières. Elle est problématique puisqu’elle se propage tout au long du procédé rendant l’atteinte des seuils de qualité plus ardue et une production moins uniforme. Pour minimiser l’impact de cette variabilité, il est nécessaire de faire un meilleur contrôle de qualité des matières premières. Il faut détecter à la source les lots de matières inadéquats. L’usage de spécifications univariées multiples est une pratique courante, mais elle comporte des inconvénients lorsque les propriétés utilisées sont corrélées entre elles.

L’usage de spécifications multivariées s’avère une meilleure option puisqu’elles tiennent compte de cette corrélation. La méthode standard vise à propager les seuils de qualité d’un produit fini jusqu’aux matières premières à l’aide de modèle à variables latentes afin de définir une zone d’acceptabilité sur ces dernières. L’inversion du modèle est une autre option.

Les travaux présentés visent à fournir une comparaison des deux approches. Afin d’assurer une répétabilité du processus et une connaissance exacte des relations, un jeu de données est bâti à partir de relations mathématiques. Il sert à construire le modèle de régression des moindres carrés partiels commun utilisé pour tester les deux approches. Les résultats obtenus sont comparés sur le plan des performances en classification et de la taille de la zone d’acceptabilité.

Les complexes de cuivre avec les acides aminés sont utilisés dans divers processus biologiques et peuvent être efficaces pour le traitement des différentes maladies.

L'objectif de ce projet est de développer des complexes de cuivre coordinés avec divers ligands (L-sérine, L-histidine) etétudier leurs propriétés antioxydantes. Les complexes ainsi préparés seront formulés pour l'administration orale visant entre autres le traitement de troubles neurologiques.

La synthèse, purification des complexes et leur caractérisation structurale ont été suivies par des méthodes FTIR, UV-Vis absorption, diffractions par rayons X et l'analyse élémentaire. La capacité antioxydante a été évaluée en utilisant différentes méthodes pour doser l’activité de piégeage de radicaux libres (HO., O2.) ou la décomposition de H2O2

Les complexes Cu(Ser)2 et [Cu(His)2Cl2] sont stables dans différent milieux  intestinal et physiologique. Les deux complexes sont des piégeurs efficaces des espèces radicalaires (HO., O2.) et ils ont la capacité de décomposer H2O2. Le [Cu(His)2Cl2] présente une plus forte activité d'élimination des radicaux libres par rapport au complexe Cu(Ser)2. Les évaluation de l’activité antioxydante permettent de définir la spécificité de chaque méthode utilisée et aussi proposer le mécanisme d’action des complexes étudiés. On peut envisager l’utilisation des complexes à cuivre étudiés comme agents thérapeutiques pour les maladies neurodégénératives ou comme agents antioxydants.



Le génie tissulaire propose une alternative pour la construction d’un substitut à la valve aortique lors des chirurgies de remplacement. Comme les propriétés mécaniques de ce type de substituts peuvent être optimisées par le biais d’un conditionnement mécanique, un bioréacteur a été conçu afin de soumettre la valve produite par génie tissulaire aux conditions de débit et de pression auxquelles la valve aortique est soumise in vivo. Le système conçu est un circuit hydraulique reproduisant les caractéristiques mécaniques principales de la circulation systémique. Le débit dans le système est produit par une pompe à diaphragme, actionnée par une servovalve, qui simule l’action de pompage du cœur. L’innovation apportée par ce système repose sur la précision de la reproduction des conditions physiologiques, obtenue grâce au contrôle du système effectué par un réseau de neurones artificiels. Le contrôleur consiste en un modèle de la dynamique inverse du système, soit, dans un premier temps, la relation entre la commande à envoyer à la servovalve pour produire le débit désiré dans le système. Une phase d’apprentissage a permis d’établir un modèle initial du contrôleur qui a ensuite été raffiné par un apprentissage en cours d’utilisation. Le contrôleur final a permis de déterminer une commande produisant un débit dont la corrélation est très élevée avec le débit physiologique. La suite des travaux prévoit l’implantation d’un contrôleur pour la reproduction de l’onde de pression.

Les défis urbains et environnementaux, exacerbés par les changements climatiques, requièrent des méthodes innovantes pour la planification urbaine. La cartographie actuelle des arbres urbains reste incomplète et difficile à maintenir. Les arbres en domaine privé sont d'autant plus victimes de ce problème par leur difficulté d'accès malgré leur grande contribution à la biomasse urbaine.

Ce projet propose une solution automatisée pour la caractérisation des arbres en domaine privé par des techniques de traitement d'image utilisant les images capturées par drone. Il étend les méthodologies existantes de cartographie par LIDAR en incorporant des analyses d'images à haute résolution en comparaison à des images satellites.

Les images acquises par drone sont traitées pour obtenir un nuage de point permettant la création de cartes de hauteurs et d'orthophotos géoréférencées. Ces images sont ensuite découpées en tuiles permettant l'extraction des objets y étant contenue. Un modèle d'apprentissage machine aidé par d'autres outils ouverts permet ensuite d'identifier les arbres et de les caractériser.

Les résultats préliminaires indiquent une précision d'identification élevée permettant la caractérisation de la position, de la hauteur et de la superficie de la canopée des arbres. Les données pourront être intégrées sur la plateforme de SylvCiT offrant un accès libre aux données. Le projet offre une méthode de cartographie rapide permettant une planification plus précise et éclairée.

La synergie musculaire est considérée comme une approche pouvant être utilisée par le cerveau pour efficacement activer plusieurs muscles impliqués dans un mouvement. Ici il est question de la synergie du biceps brachial, un muscle multifonctionnel. On a analysé des ensembles de 8 signaux électromyographiques captés au-dessus du muscle de 10 sujets alors que leur main droite était en pronation ou en supination et qu’ils étaient assis avec le coude plié ou debout le bras étendu horizontalement. La valeur quadratique moyenne de ces signaux a été obtenue et avec un algorithme de factorisation matriciel non négatif, 3 synergies musculaires d’une durée de 4,2 s ont été identifiées. À partir des 3 coefficients obtenus, une fenêtre de 0,2 s est initialement utilisée pour entrainer un classifieur bayésien qui, sur les 0,2 s suivantes estime pour chacun des 400 échantillons qu’elle contient la probabilité (entre 0 et 1) que la main soit dans une position donnée. Ceci se répète à tous les 0,2 s et à la fin une courbe de 7600 valeurs (couvrant 3,8 s) est obtenue. Avec la main en pronation ou supination, la valeur moyenne des 3 ou 4 essais de chaque sujet a variée entre 0,53 et 0,98. Comme toute valeur >0,5 indique une bonne classification, le classifieur bayésien peut donc être utilisé pour détecter la posture de la main. Une classification en temps réel sera bientôt effectuée avec un filtre de Kalman sur des signaux du biceps alors que la main alterne entre pronation et supination.

Les parcelles agricoles présentent certaines variabilités intra-parcellaires au niveau de la croissance des plantes qui influence la rendement des cultures. Il est nécessaire dans un premier temps connaître, d'identifier et de localiser cette variabilité (grid-sampling, imagerie aérienne, conductivité de sols,…) pour dans un second temps, en comprendre l’origine et savoir si elle est intrinsèque au sol ou si des opérations peuvent en modifier la fertilité. L'étude présentée ne cherche pas à apporter de réponse sur la cause d'un éventuel dérèglement des sols, mais bien de démonter que l'imagerie aérienne multispectrale permet de localiser les irrégularités de croissance. Pour cela, l'équipe de recherche a calculé la corrélation entre la biomasse aérienne évaluée par l'imagerie multispectrale grâce à l'indice de végétation normalisé (NDVI) et la présence réelle de trèfle sur le terrain (biomasse et chlorophylle). Les résultats obtenus ont permis de répondre de manière très satisfaisante à l'hypothèse de recherche selon laquelle l'imagerie multispectrale serait un bon outil d'analyse et de diagnostic de la productivité du sol. Cette méthodologie d'acquisition de données aériennes pourrait être utilisée dans un contexte concret d'agriculture de précision pour effectuer des suivis multi-date tout au long de la saison afin de pouvoir surveiller l'évolution de la croissance des cultures et pourvoir ainsi, le cas échéant, prendre des dispositions en cours de saison.

Un biocapteur à effet de champ novateur a récemment été développé pour mesurer la cinétique de protéines et d’acides nucléiques, en mode molécule unique, sur des échelles de temps étendues, ce qui est difficile à faire avec les dispositifs actuels. Ses avantages distinctifs émergent du nanomatériau en son cœur, soit un nanotube de carbone sur lequel on vient greffer la biomolécule d’intérêt. En effet, l’expérience montre que le courant électrique traversant le nanotube est directement influencé par les variations du potentiel électrostatique à sa surface lorsque l’état de la biomolécule change. Les mécanismes moléculaires en jeu ne sont cependant pas complètement bien cernés.

Nous avons donc effectué des simulations sur deux systèmes biomoléculaires typiques, soit une protéine (ici, le lysozyme) et un acide nucléique (ici, un 10-nt d’ADN), liés à un nanotube de carbone, tel que précédemment fait en laboratoire avec le biocapteur. Nos dynamiques moléculaires lèvent le voile sur : (1) les interactions en jeu entre la biomolécule et le nanotube et (2) sur la dépendance du potentiel électrostatique à la surface du nanotube envers la structure de la biomolécule. Dans le cas du lysozyme, ces résultats permettent de bien expliquer les variations de courant électrique observées expérimentalement. Dans le cas du 10-nt d’ADN, nous observons des particularités qui soulèvent des questions intéressantes sur les mécanismes réellement en jeu en cœur de ce biocapteur.

 Les données suggèrent que le complexe [Cu(Biuret)2]Cl2 présentait des propriétés antiradicalaires légèrement plus élevées par rapport au [Cu(Urea)2]Cl2 et indiquent un mécanisme de transfert de protons.

Le cuivre est un élément essentiel pour le métabolisme humain et il est bien connu que sa carence entraîne divers troubles cliniques. Ce métal est essentiel à l'utilisation normale du fer et de différents enzymes.L'urée estleproduit finalcontenant de l'azotele plus courantdu catabolisme des protéines.Des études récentes ont révélé les propriétés antioxydants et cardioprotectrices de l'urée et ses dérivés ainsi que pour des protéines de cuivre (la céruloplasmine et les  amineoxidases).

L'objectif principal de cette étude vise l’évaluation des propriétés antioxydantes  des complexes de cuivre avec l’urée [Cu(Urea)2]Cl2 et biuret [Cu(Biuret)2]Cl2 ayant une masse moléculaire significativement plus faible que celles des métalo-protéines et qui présentent aussi une bonne biocompatibilité et stabilité dans des milieux physiologiques. La réponse des antioxydants  aux différentes sources de radicaux peut varier dépendamment de la méthode d’évaluation.

Chaque complexe a été caractérisé structurellement et l’évaluation de l’activité antiradicalaire a été faite en utilisant la méthode colorimétrique N, N-diéthyl-p-phénylènediamine  (DPD), la  méthode  TEAC  modifiée  (Trolox  Equivalent Antioxidant Capacity fast assay) ainsi que la méthode DPPH(2,2-Diphenyl-1-picrylhydrazyl).

Dans un robot de traite, la localisation des trayons et le positionnement des gobelets de traite est très important. La technologie de positionnement des robots de traite n'a pas évoluée depuis une dizaine d'année et est basée principalement sur un profil laser qui donne les positions approximatives des trayons. Or cette technologie atteint ces limites et ne permet pas un positionnement optimal des gobelets.

Pour pallier à ces limites, nous avons développé un nouveau système basé sur la vision 3D et capable d'orienter efficacement les gobelets de traite. Un prototype du système intelligent pour le positionnement en temps-réel d'un robot de traite a été construit et testé dans diverses conditions sur des modèles de trayons (statiques et en mouvement).

Des tests expérimentaux ont été effectués avec des caméras 3D TOF (Temps de vol) et RGBD (Kinect). Les algorithmes développés permettent de segmenter les trayons, de les identifier et de calculer leur position 3D. Cette information est ensuite envoyée au robot de traite qui positionne les gobelets sous les trayons. Le système de vision fonction en mode suivi en continu et contrôle le positionnement optimal des gobelets même en présence du mouvement.

Les résultats démontrent l’efficacité du système de vision proposé. Les meilleurs résultats ont été obtenus avec des caméras RGBD qui ont des plus hautes résolutions que les caméras TOF.

Les isocyanates sont des composés réactifs et toxiques contenant un ou plusieurs groupes fonctionnels NCO. Appliqués par pulvérisation, ils existent sous forme de vapeur et d'aérosols difficiles à mesurer, dans un contexte d’exposition professionnelle, nonobstant l’utilisation des méthodes standardisées. Ils constituent l'une des principales causes d'asthme professionnel au Québec. Cette étude présente la validation en laboratoire d’un système de génération d’isocyanates par pulvérisation afin d’améliorer la compréhension du comportement de ces émissions semi-volatiles au sein des dispositifs d’échantillonnage d’air. Ce système comprenait une chambre de pulvérisation munie d’un pistolet générant une pulvérisation d’un vernis contenant du diisocyanate d’hexaméthylène (HDI) et ses oligomères et une chambre d’exposition à plusieurs points d’échantillonnage. Les paramètres de débit, d'hygrométrie et de température étaient contrôlés. Le HDI prélevé sur filtre imprégné était analysé par chromatographie liquide ultraviolet et/ou spectrométrique de masse. La granulométrie du HDI et de ses oligomères a été mesurée par un impacteur à cascade et d’un impacteur électrique à basse pression. Le diamètre aérodynamique massique médian était de 4 µm. Le système a été capable de générer des niveaux de concentration de HDI et d’isocyanurate allant de 0,030 à 0,057 mg/m3 et de 0,428 à 1,313 mg/m3 avec une variabilité intratest de 5,8% et de 16,5%, respectivement.

Les artères permettent de réguler les fluctuations de pression sanguine (pulsatilité) causées par le cycle cardiaque. Avec l’âge, ces vaisseaux perdent de leur élasticité, augmentant la pulsatilité et causant des microlésions et du déclin cognitif. Or, il n’existe aucune technique d’imagerie disponible en clinique qui puisse mesurer la pulsatilité dans la microvascularisation cérébrale chez l’humain. En détectant des microbulles injectées dans le sang, la microscopie de localisation ultrasonore (MLU) permet d’imager les microvaisseaux avec une résolution d’environ 10 μm dans le cerveau. Notre laboratoire a introduit la MLU dynamique permettant d’imager les flux sanguins, ce qui est essentiel au développement de diagnostics. Cependant, les temps d’acquisition requis restent longs. Augmenter la concentration de microbulles injectées réduirait ce temps d’acquisition, tant qu’il demeure possible de séparer ces microbulles en sources uniques.

L’objectif de mon projet est de changer l’approche de localisation des microbulles en développant un modèle de détection spatiotemporelle.

Nous avons d’ores et déjà développé une technique de localisation spatiotemporelle ultrasonore (LSTU) validée qualitativement sur des données in vivo 2D provenant de rats et de souris. Actuellement, nous essayons de démontrer que la résolution obtenue avec cette méthode est meilleure que la méthode standard. Nous étendrons ensuite la méthode en 3D dans le but d’imager des patients humains.

Les biocapteurs basés sur la résonance plasmonique de surface (SPR) sont utilisés couramment pour l’étude des interactions entre biomolécules. Les tests SPR consistent à fixer une molécule, le ligand,  à la surface d’un biocapteur et à suivre le changement d’indice de réfraction quand le partenaire biologique, l’analyte, est injecté en flux continu sur cette surface. Le changement d’indice de réfraction permet de détecter les interactions ligand/analytes sur la surface du biocapteur. Les utilisateur de la SPR procèdent à plusieurs cycles (5-10) d’injections d’analyte à différentes concentrations, à différents temps d’association et de dissociation. L’analyse des données par un modèle mathématique permet l’identification des paramètres cinétiques avec une confiance convenable. Cependant, il a été démontré que 2 injections correctement choisies permettent l’identification des paramètres avec une confiance adéquate. Pour sélectionner ces injections notre laboratoire a développé un algorithme basé sur l’optimisation sous contraintes et le design expérimental. Ce dernier réduit considérablement le temps d’expérience et la consommation de matériel tout en gardant une confiance satisfaisante. Cet algorithme a été consolidé avec un nouveau mode expérimental qui consiste en l’injection simultanée de deux analytes. L’adaptation de l’algorithme d’optimisation et son application à ce mode opératoire, permet une réduction drastique du temps d’expérience.

La numérisation 3D permet actuellement d’obtenir des informations métrologiques très précises en ce qui concerne la surface numérisée. Ce type d’information permet d’effectuer un contrôle dimensionnel et de détecter des défauts de surface. Cependant, ce type de système ne permet pas la détection de défauts cachés (dans ou derrière la matière). Ce type d’information utilise des approches de contrôle non destructif basées sur les ultrasons ou l’imagerie infrarouge.

Dans ce travail nous présentons un nouveau système permettant de combiner ces deux types d’analyses (Contrôle dimensionnel (CD) et Contrôle non destructif (CND)). La fusion des images 3D et infrarouges sera utilisée afin de permettre une modélisation hybride pour une inspection dimensionnelle et de défauts cachés. Une nouvelle approche est proposée, elle utilise la diffusion thermique de la pièce projetée sur un modèle 3D et permet de visualiser des défauts de structure non apparents dans un espace tridimensionnel.