Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

La radiothérapie à très haut débit de dose est une modalité émergente de traitement du cancer qui permet de protéger davantage les tissus sains lors des traitements, tout en permettant d’administrer une dose très élevée aux cellules cancéreuses en moins d’une seconde. L’instrumentation permettant de mesurer les doses de radiation pour ce type de modalité doit fournir des mesures précises afin d’assurer la justesse des traitements. Les dosimètres à scintillation, qui sont composés de fibre optique émettant de la lumière lorsqu’irradiée, permettent des mesures simples, précises et en temps réel. L’objectif de ce projet est d’étudier les dommages causés par la radiation à très haut débit de dose sur les fibres optiques utilisées dans ces dosimètres.

Quatre différents échantillons de fibre optique de 1,5 cm de longueur ont été irradiés au PTB, en Allemagne, sous un faisceau possédant un très haut débit de dose de radiation, pour des doses environ 1000 fois plus grandes que celles d’un traitement conventionnel. Suite à ces irradiations, l’efficacité de transmission et de scintillation des fibres optiques est mesurée avant et après l’irradiation. Les résultats obtenus montrent une baisse de l’efficacité de scintillation allant jusqu’à 50%, mais ne semble pas affecter la transmission de la lumière dans ces fibres au-delà des incertitudes de mesures. Cette caractérisation permet de planifier la conception d’une nouvelle génération de dosimètre utilisable à très haut débit de dose.

L’érosion externe est l’un des principaux agents de destruction du réseau routier québécois, en particulier les routes non revêtues. Sous l'action de l'eau, il est possible d’observer la migration de particules, l'apparition de petits dommages ou même la ruine complète d'une route. Afin de présenter une alternative aux solutions traditionnelles contre l’érosion (injections, ajouts de liants, etc…), ce projet introduit deux techniques d'amélioration des sols granulaires dans le domaine de la géotechnique routière: 1 – La calcification biologique ou précipitation de calcite induite par l'activité métabolique de la bactérie Sporosarcina pasteurii (MICP en anglais) ; 2 – La calcification chimique ou précipitation de carbonates de calcium suite à l’injection des solutions de Na2CO3 et CaCl2. Pour ce faire, le projet a commencé par une étape de laboratoire avec percolation de solution chimiques et biologiques sur de petits échantillons de matériaux de fondation, qui a démontré le potentiel de la technique. Par la suite, nous prévoyons la même procédure sur le terrain, à grande échelle. Des essais seront ainsi effectués pour quantifier la précipitation des carbonates de calcium et évaluer la variation de l'érosion externe avant et après chaque type de calcification. Après les essais de terrain, un rapport de faisabilité technique, économique et environnementale sera préparé pour les deux processus de calcification de manière expliquer leur applicabilité à l'industrie du génie civil.

L’inspection automatique de pièces flexibles à l’état libre permet d’augmenter la performance et la rapidité de détection des défauts sur ce type de pièces et d’en diminuer considérablement le coût. Cesdéfauts peuvent êtreévaluésen comparant le résultat du scan de la pièce avec le modèle géométrique provenant de la conception assistée par ordinateur (CAO). On utilise classiquementdesgabaritssophistiquéset dispendieuxdurant l'inspection de ces pièces pour compenser leur déformation. Nous proposons une méthode d’inspection automatique sans gabarit (à l’état libre) basée sur un recalage non rigide avec filtration des points de correspondance. Des points de correspondance (échantillons) entre le modèle CAO et le modèle scanné sont d’abord générés sur chaque modèle puis utilisés pour déformer le modèle CAO vers le modèle scanné en utilisant les éléments finis.Afind’assurer la précision de l’inspection, les échantillons susceptibles d’être situés à proximité des défauts sont filtrés. Ce filtrage est basé sur l’analyse locale des courbures et sur l’analyse locale des contraintes de Von-Mises associées au recalage non-rigide. L’efficacité et larobustesse de la méthodesont illustréessur différents exemples. Sur ces exemples, on montre notamment l’effet de l’amplitude du bruit de mesure sur la précision d’identification des défauts. Nous présentons également une approche d’analyse des efforts requis lors de l’assemblage de ces pièces.

L’ATP extracellulaire peut réguler des fonctions du poumon, comme la clairance muco-ciliaire. Sous des conditions physiologiques, les cellules libèrent l’ATP, mais ce mécanisme est peu connu. Nos travaux ont démontré que l’ATP est libérée en réponse à des contraintes mécaniques, dont l’étirement. L’objectif est donc d’étudier les mécanismes physiologiques du relargage d’ATP induit par l’étirement dans les cellules alvéolaires de rat.

Des cellules alvéolaires de type II (ATII) de rat sont fixées sur une chambre en silicone. Celles-ci sont baignées dans du DMEM avec de la luciférine-luciférase (LL) et sont soumises à un étirement de 1 s de 7-49%. Un système de lentilles à grand champ de vision favorisant l’apport de lumière était conçu pour visualiser l’ATP. La bioluminescence de la réaction ATP-LL est capturée en temps réel avec une caméra EMCCD.

Le nombre de cellules répondant au stimulus et la quantité d’ATP libérée sont proportionnels à l’intensité de l’étirement. 100 µM de carbenoxolone ou 2,5 mM de probénécide n’affecte pas la sécrétion d’ATP par rapport aux contrôles, ce qui suggère que ce processus n’implique pas les voies conductrices (pannexines) dans les cellules ATII.

Nos résultats démontrent l’importance du relargage d’ATP induit par l’étirement dans l’alvéole. Une meilleure compréhension de la signalisation purinergique fournira de nouvelles approches thérapeutiques pour les complications respiratoires, telles que les lésions pulmonaires induites par la ventilation.

Ce document traite du problème de renouvellement d’une flotte hétérogène de véhicules dans le contexte d’une gestion efficace. Une analyse de différents facteurs qui peuvent accélérer ou retarder le renouvellement est effectuée. Par l’intermédiaire d’une analyse documentaire, nous présentons un cadre de référence sur les principaux modèles de sélection de véhicules à changer pour aboutir à une méthode basée sur des critères économiques et environnementaux. Des outils sont
présentés pour l’établissement d’une politique appropriée qui comprend entre autres, les stratégies pour remplacer les vieux véhicules par des nouveaux. Une partie est consacrée aux coûts et aux besoins de financement du remplacement. En fin, différents concepts reliés au système global de gestion sont présentés, étant donné l’impact de la gestion sur le renouvellement.

Les plasmas, générés en fournissant de l’énergie électrique à un gaz, sont aujourd’hui au cœur des nouveaux développements industriels éco-responsables. La possibilité de les opérer à pression atmosphérique est particulièrement propice au traitement industriel, par exemple pour les polymères. Cependant les mécanismes régissant ces technologies plasma et notamment les interactions avec le substrat demeurent mal comprises. Dans ce contexte, ce projet vise à caractériser un plasma utilisé pour la modification de surface de fluoropolymères, tout en améliorant ou en développant des méthodes de diagnostics afin d’améliorer la compréhension de ces procédés.

L’analyse électrique constitue le moyen de diagnostic le plus simple et rapide du plasma. Elle permet, entre autres, de mesurer la puissance fournie au gaz en utilisant des figures de Lissajous, qui correspondent à des courbes charge-tension. Le présent travail démontre la possibilité de suivre l’évolution de température du procédé à l’aide d’analyses électriques indirectes. En effet, un lien a été établi entre l’augmentation de la puissance mesurée sans décharge à faible tension et l’augmentation de température au cours du temps. L’utilisation d’un signal modulé permet de gérer les temps de décharges, et semble être le paramètre clef dans l’élévation de température.

Cette méthode innovante est très intéressante et prometteuse d’un point de vue industriel car elle permet un suivi de la température de manière non intrusive.

Les modèles probabilistes de la demande sismique et l'analyse de la fragilité sont des éléments clés du génie parasismique basé sur la performance. L'évaluation de la performance des systèmes structuraux à composants multiples, comme les ponts routiers, est facilitée par la prise en compte de l'interaction entre les composants. Les formulations analytiques classiques capables d'incorporer cette caractéristique et de gérer les incertitudes reposent sur des hypothèses communes : la demande sismique suit une loi log-normale et la dépendance linéaire entre les réponses des composantes structurelles. Néanmoins, ces hypothèses ne sont pas toujours valides. Une méthodologie est donc proposée pour la construction de modèles probabilistes de demande sismique basés sur l'analyse à bandes multiples (MSA) et sur des modèles de mélange gaussien (GM). Cette méthode s'appelle MSA-GM et est plus flexible que les autres stratégies classiques par rapport aux hypothèses généralement adoptées. Une étude de cas sur un pont au Québec est présentée pour analyser, dans un premier temps, la validité des hypothèses sur la demande sismique, et, plus tard, leur impact sur les courbes de fragilité (voir la figure attachée). Les avantages de la méthodologie proposée sont mis en évidence tout au long de ces analyses.

La navigation par résonance magnétique (NRM) est une technologie permettant de déplacer des particules médicamenteuses dans le corps humain à l’aide d’un scanner d’imagerie par résonance magnétique (IRM). L’application privilégiée de la NRM est le traitement de cancer du foie, seconde cause de mortalité chez les patients atteints par un cancer. La réussite d’une telle technologie nécessite une connaissance approfondie de la géométrie vasculaire et des caractéristiques dynamiques du flot sanguin dans l’organe. Une des problématiques auxquelles nous sommes confrontés est la vitesse trop élevée du sang dans le foie (au-delà de 40 cm/s). Par pallier à ce problème, nous souhaitons mettre en place une approche par flot bloqué qui consiste à réduire le flot sanguin dans l’organe à l’aide d’un cathéter ballon. Cette approche a déjà fait l’objet d’études cliniques dont les résultats sont encourageants. Nos premières expériences ont montré des réductions drastiques de flot (plus de 800% de réduction), accompagnés par une élimination de la pulsation artérielle. Parce qu’il est difficile de mesurer des flots lents, nous utilisons plusieurs modalités d’imagerie (IRM, ultrasons, et angiographie) afin de conclure sur l’approche la plus robuste. Cette technologie de navigation magnétique a le potentiel de transformer la façon dont certaines procédures médicales sont actuellement réalisées et pourrait, à terme, rendre ces interventions plus efficaces et moins invasives.



Dans le présent article l’intérêt de notre travail de recherche porte sur la compréhension des phénomènes mis en jeu dans la formation et l’oxydation des polluants dans une flamme Propane/Air de diffusion laminaire et turbulente soumise à un champ électrique. En effet, de nouvelles technologies pour assister la combustion connaissent un véritable essor : c’est l’utilisation de systèmes de contrôle actif comme : le champ électrique, le champ magnétique, le champ électromagnétique et/ou une excitation acoustique. Plusieurs études et travaux sur les plasmas froids appliqués aux flammes ont démontré des effets intéressants sur la réactivité chimique des radicaux et des espèces formées au sein du plasma pour transformer (oxyder) les molécules polluantes en molécules inoffensives. Grâce à l’application d’un champ électrique, les collisions ioniques et électroniques avec des molécules de gaz neutres influencent la forme de la flamme, l'intensité de combustion, les émissions de particules, la formation de suie et le taux de production d'ions. Des résultats très intéressants ont été obtenus sur notre montage expérimental lorsqu'un champ électrique a été généré.

* Lalla Samira TOUHAMI, * Daoud AIT-KADI, **Med Anouar JAMALI

Ingénierie du système de gestion de la maintenance dans un contexte distribué

Les coûts associés à la maintenance des biens d'une entreprise ne cessent de croitre. Ceci est dû à la complexité des biens à entretenir, aux coûts de la main d'œuvre, des pièces de rechange, des pénalités de retards occasionnés par la fréquence des défaillances aléatoires, aux durées d'inactivité et aux prestations externes.

La maintenance a toujours été considérée comme centre de coût. La maintenance productive totale (TPM) et le Lean maintenance préconisent des démarches structurées pour réduire les sources de gaspillage. Ceci exigeune cartographie des processus, des outils de modélisation, d’évaluation et d’amélioration des performances de chaque processus.

Pour la démarche proposée, chaque processus est décomposé en activités. A chaque activité on associe des ressources, des objectifs, une durée, un coût et une méthodologie d’évaluation.

Le processus de réingénierie de la maintenance repose sur l'évaluation des impacts techniques, économiques, stratégiques, sociaux et environnementaux de chaque activité. À l’issue de cet exercice, le mode de réalisation à l’interne, conjointement ou en totalité par des prestataires externes sera défini.

Dans cette communication, nous ferons état de la méthodologie proposée et des outils développés.

* Département Génie mécanique Université Laval G1V 0A6 Québec

** R&D ESITH Route d’El Jadida Km8 Maroc



Le glioblastome multiforme (GBM) représente la forme de cancer du cerveau la plus agressive avec un taux de survie inférieur à 5% au-delà de 5 ans. La principale cause d’échec des traitements actuels est la migration des cellules cancéreuses de la tumeur vers le  tissu cérébral avoisinant. La stratégie proposée consiste à inverser la direction de la migration des cellules GBM, via un gradient de chimioattractant (CXCL12), vers une zone confinée (gliotrappe) dans laquelle elles peuvent être éliminées par radiothérapie localisée Cette gliotrappe combine un hydrogel poreux avec des nanoparticules (NPs)  chargées de CXCL12 dans le but de favoriser sa libération contrôlée. Pour optimiser la gliotrappe, il est nécessaire de développer un modèle in vitro qui prend en compte le flux de liquide cérébral, un facteur pouvant influencer de manière significative la libération du CXCL12 en fonction de l’emplacement de la tumeur. Dans le cadre de ce projet de recherche, un bioréacteur à perfusion mimant la dynamique de l'écoulement du flux du liquide cérébral interstitiel a été développé afin de valider et d’optimiser cette technologie innovante. Tout d’abord, les cinétiques de libération de CXCL12 à partir des différents constituants de la gliotrappe ont été caractérisées et modélisées mathématiquement en conditions statiques. L’effet de la perfusion à différents débits retrouvés dans le cerveau a ensuite été évaluée, permettant d’émettre des recommandations sur la technologie proposée.

La formulation conventionnelle de la physique est est caractérisée par le fait que les équations du mouvement d'un système physique sont déterminées indépendamment des quantités conservées. Dans cette approche, on détermine d'abord, à l'aide du principe de moindre action, les équations du mouvement, puis, en faisant appel à certaines propriétés de l'espace-temps, on démontre que certaines quantités, comme l'énergie, l'impulsion et le moment cinétique, sont conservées. Il est proposé dans cette communication une approche différente, fondée sur la propriété de réversibilité des groupes, qui donne accès à la connaissance, et sur un autre principe d'invariance qui permet d'établir simultanément et en concordance les équations du mouvement et celles de conservation. Dans cette nouvelle approche, on ne considère pas le système physique comme évoluant dans un espace-temps préexistant; au contraire, non seulement le construction est corrélative à l'organisation du champ spatio-temporel, mais elle précède logiquement. L'espace-temps apparaît comme une propriété de l'objet. Cette nouvelle mécanique conduit à des résultats inattendus; en autres, elle permet d'inscrire dans le formalisme de la relativité restreinte le principe d'indétermination de Heisenberg, tout en établissant un lien entre indétermination, causalité et singularité.



Introduction : Touchant environ 4% de la population, l'anévrisme de l'aorte abdominale (AAA) est une dilatation localisée de l'aorte abdominale, souvent asymptomatique. En cas de rupture, la mortalité et la morbidité peuvent atteindre 80%, soit la 15e cause de mortalité aux USA. L'utilisation du couplage entre la mécanique des fluides et les données cliniques de suivi morphologique permettra une meilleure compréhension des mécanismes de croissance en jeu dans l’aorte et vise à définir des nouveaux critères pour l'aide à la planification interventionnelle personnalisée.
Méthodes : (i) extraction des AAAs de suivi (ii) Calcul de l’écoulement par volumes finis (validé par IRM) (iii) Extraction des Structures Lagrangiennes Cohérentes (SLC) de l'écoulement pour quantifier la topologie du transport dynamique.
Résultats : l'IRM a permis de valider la topologie de l'écoulement ainsi que le choix des conditions limites. Le transport, donnée complexe à visualiser et quantifier dans un écoulement instationnaire, est observé via les SLC elliptiques. Celles-ci forment des domaine fermés présentant peu de déformation au cours du temps.
Discussion : Si les relations entre croissance locale et écoulement sont établies dans les AAAs, les composantes de celui-ci ayant un rôle sont encore méconnus. Notre étude vise à les extraire et quantifier leur impact par des méthodes numériques innovantes.

Image: évolution des zones de stagnation du sang dans un AAA en 2006, 2009 et 2012.

L’Échelle d’Estime de Soi de Rosenberg (EES) est un instrument unidimentionnel, de 10 items, largement utilisé depuis presque 50 ans. La littérature suggère qu’à chaque 5 ans, on revérifie les qualités métriques des instruments pour s’assurer de pertinence leur mesure. C’est dans cette optique que cette étude, menée auprès d’un échantillon composé de 83 étudiant-e-s universitaires âgés de 19 à 50 ans recueilli en 2012, teste des propriétés psychométriques de l’EES. Les corrélations inter-items (0,34<r<0,81) suggèrent la présence d’un construit unidimensionnel. Les corrélations items-total (0,60 < rc < 0,82) et les alphas de Cronbach en cas de suppression des items (0,90 < α < 0,92) réitèrent que le modèle testé est unidimensionnel. Finalement, une analyse en composantes principales (0,66 < Satf < 0,87), qui explique 61% de la variance, ainsi que les qualités de représentation (0,44 < h² < 0,75), viennent confirmer l’unidimensionnalité du modèle en 10 items. En ce qui a trait à la fidélité de la mesure (α = 0,92), l’instrument présente une consistance interne très satisfaisante. La principale conclusion est que l’EES-10 est un instrument remplissant les critères psychométriques les plus répandus et qu’on peut continuer à l’utiliser sans craindre qu’il ait perdu de ses qualités. Les répercussions théorique et pratique seront discutées. D’autres populations, de même que d’autres qualités métriques, devront être explorées par de nouvelles études.

Plusieurs facteurs contribuent à accroître l’intérêt pour une utilisation accrue de la motricité électrique et des technologies des véhicules autonomes en agriculture : rareté croissante de la main-d’œuvre agricole qualifiée, augmentation de la production alimentaire à l’échelle mondiale, législations et réglementations visant la durabilité de la production agricole. Les technologies relatives aux piles à combustible (FC), aux véhicules électriques (EV) et aux véhicules autonomes et connectés (CAV) sont adaptées avec succès pour se conformer aux exigences liées aux déplacements routiers et aux applications hors route. Cette communication présente une analyse de faisabilité portant sur l’intégration des technologies FC, EV et CAV sur des unités motrices pour la réalisation d’opérations agricoles autonomes. De telles unités motrices agricoles autonomes de taille réduite (AAPU)  pourraient opérer des machines et équipements agricoles variés en fonction des différentes productions et  divers types de pratiques culturales. 

On s’intéresse au biceps brachial (BB) car il serait composé de 6 compartiments. Pour en identifier l’activité, 10 paires d’électrodes de surface ont été placées transversalement à la longueur du muscle et plusieurs enregistrements ont été effectués. À partir de maxima dans la valeur quadratique moyenne des signaux captés autour du BB, une identification initiale de la présence de dipôles de courant à l’intérieur du tissu musculaire a été faite. Avec les caractéristiques de ces dipôles, et modélisant le bras comme un cylindre de 4 couches concentriques (peau, gras, muscles, humérus) des simulations ont été réalisées en vue de reproduire les signaux expérimentaux. Des résultats similaires mais pas identiques aux données expérimentales ayant été obtenues, les caractéristiques initiales des dipôles ont été manuellement modifiées ce qui a permis de reproduire fidèlement les données expérimentales. Si on considère que les compartiments se trouvent placés côte-à-côte et ayant tous la même superficie, les résultats indiquent que les dipôles se retrouvent dans chacun des 6 compartiments. En position assise avec le coude plié à ~90°, un plus grand nombre de dipôles se sont toutefois trouvés dans le chef court alors que debout avec le bras étendu horizontalement, c’est dans le chef long que le nombre était le plus élevé. Nous sommes actuellement à la recherche d’information permettant de mieux préciser la location et la superficie de chacun de ces compartiments à l’intérieur du BB.  

Les tests ELISA (Enzyme-Linked ImunoSorbent Assay) sont communément utilisés pour détecter et quantifier des protéines dans des solutions complexes. Dans sa version standard dite « en sandwich », des anticorps de capture capables de fixer spécifiquement l’antigène recherché sont adsorbés au fond des puits d’une microplaque. Les plaques sont ensuite bloquées par incubation d’albumine sérique bovine (BSA) avant l’incubation du ligand à détecter et des autres réactifs du test (A). La réalisation d’un test ELISA peut sembler fastidieuse et longue (environ 16 h, incluant l’adsorption de l’anticorps primaire durant une nuit).

Le présent travail propose différentes alternatives aux tests standard. La première approche consiste à greffer chimiquement une couche de polymère aux propriétés anti-adhésives pour le matériel biologique (Dextran). Cette couche a permis de réduire drastiquement le temps de préparation des tests ELISA grâce à la suppression de l’étape de blocage à la BSA et à l’attache chimique de l’anticorps de capture au fond des puits, réalisée en 15 min (B). La deuxième approche repose sur l’interaction non-covalente, réversible et stable entre deux peptides K et Ecoil. Les plaques recouvertes de Kcoils attachés chimiquement ont démontrés leurs capacités à recruter spécifiquement des ligands étiquetés Ecoil (C). La stabilité et la capacité de régénération des nouvelles constructions ainsi qu’une comparaison avec les tests ELISA standard seront présentés. 

La Caraïbe a été au cours des siècles derniers le siège d'économies coloniales. Ce n'est qu'à la marge d'un développement tourné vers l'approvisionnement de métropoles européennes que des systèmes agricoles dédiés à l'approvisionnement du marché intérieur ont pu voir le jour. Aujourd'hui dans un souci d'accroissement de la résilience territoriale, l'orientation des systèmes agri-alimentaires vers la satisfaction des besoins des populations locales apparaît comme une priorité. Conjuguée à la nécessité d'une transition agroécologique et bioéconomique des modes de production, l'innovation en milieu agricole doit répondre à ces différents challenges. Organisés en réseau au sein du projet Cambionet, les scientifiques de la région développent la mise en place de living labs multisites au sein desquels les communautés d'agriculteurs et autres parties prenantes du secteur agricole, peuvent concevoir à partir des enjeux et contraintes auxquels elles sont confrontés, les choix opérationnels à privilégier dans l'évolution des agrosystèmes.  Les résultats préliminaires de cette approche originale entamée en 2021, montrent l'intérêt de la démarche collaborative d'où émergent des living labs organisés sur un nexus commun "agroécologie-bioéconomie-adaptation au changement climatique-nutrition", en déclinant dans chaque contexte des spécificités qui les rendent complémentaires, pour en faire des pôles d’attractivité à fort potentiel pour une mobilité des acteurs dans la région.

Plusieurs industries œuvrant dans la transformation sont aux prises avec un problème commun, soit la variabilité de leurs matières premières. Elle est problématique puisqu’elle se propage tout au long du procédé rendant l’atteinte des seuils de qualité plus ardue et une production moins uniforme. Pour minimiser l’impact de cette variabilité, il est nécessaire de faire un meilleur contrôle de qualité des matières premières. Il faut détecter à la source les lots de matières inadéquats. L’usage de spécifications univariées multiples est une pratique courante, mais elle comporte des inconvénients lorsque les propriétés utilisées sont corrélées entre elles.

L’usage de spécifications multivariées s’avère une meilleure option puisqu’elles tiennent compte de cette corrélation. La méthode standard vise à propager les seuils de qualité d’un produit fini jusqu’aux matières premières à l’aide de modèle à variables latentes afin de définir une zone d’acceptabilité sur ces dernières. L’inversion du modèle est une autre option.

Les travaux présentés visent à fournir une comparaison des deux approches. Afin d’assurer une répétabilité du processus et une connaissance exacte des relations, un jeu de données est bâti à partir de relations mathématiques. Il sert à construire le modèle de régression des moindres carrés partiels commun utilisé pour tester les deux approches. Les résultats obtenus sont comparés sur le plan des performances en classification et de la taille de la zone d’acceptabilité.

Les complexes de cuivre avec les acides aminés sont utilisés dans divers processus biologiques et peuvent être efficaces pour le traitement des différentes maladies.

L'objectif de ce projet est de développer des complexes de cuivre coordinés avec divers ligands (L-sérine, L-histidine) etétudier leurs propriétés antioxydantes. Les complexes ainsi préparés seront formulés pour l'administration orale visant entre autres le traitement de troubles neurologiques.

La synthèse, purification des complexes et leur caractérisation structurale ont été suivies par des méthodes FTIR, UV-Vis absorption, diffractions par rayons X et l'analyse élémentaire. La capacité antioxydante a été évaluée en utilisant différentes méthodes pour doser l’activité de piégeage de radicaux libres (HO., O2.) ou la décomposition de H2O2

Les complexes Cu(Ser)2 et [Cu(His)2Cl2] sont stables dans différent milieux  intestinal et physiologique. Les deux complexes sont des piégeurs efficaces des espèces radicalaires (HO., O2.) et ils ont la capacité de décomposer H2O2. Le [Cu(His)2Cl2] présente une plus forte activité d'élimination des radicaux libres par rapport au complexe Cu(Ser)2. Les évaluation de l’activité antioxydante permettent de définir la spécificité de chaque méthode utilisée et aussi proposer le mécanisme d’action des complexes étudiés. On peut envisager l’utilisation des complexes à cuivre étudiés comme agents thérapeutiques pour les maladies neurodégénératives ou comme agents antioxydants.



Le génie tissulaire propose une alternative pour la construction d’un substitut à la valve aortique lors des chirurgies de remplacement. Comme les propriétés mécaniques de ce type de substituts peuvent être optimisées par le biais d’un conditionnement mécanique, un bioréacteur a été conçu afin de soumettre la valve produite par génie tissulaire aux conditions de débit et de pression auxquelles la valve aortique est soumise in vivo. Le système conçu est un circuit hydraulique reproduisant les caractéristiques mécaniques principales de la circulation systémique. Le débit dans le système est produit par une pompe à diaphragme, actionnée par une servovalve, qui simule l’action de pompage du cœur. L’innovation apportée par ce système repose sur la précision de la reproduction des conditions physiologiques, obtenue grâce au contrôle du système effectué par un réseau de neurones artificiels. Le contrôleur consiste en un modèle de la dynamique inverse du système, soit, dans un premier temps, la relation entre la commande à envoyer à la servovalve pour produire le débit désiré dans le système. Une phase d’apprentissage a permis d’établir un modèle initial du contrôleur qui a ensuite été raffiné par un apprentissage en cours d’utilisation. Le contrôleur final a permis de déterminer une commande produisant un débit dont la corrélation est très élevée avec le débit physiologique. La suite des travaux prévoit l’implantation d’un contrôleur pour la reproduction de l’onde de pression.

Les défis urbains et environnementaux, exacerbés par les changements climatiques, requièrent des méthodes innovantes pour la planification urbaine. La cartographie actuelle des arbres urbains reste incomplète et difficile à maintenir. Les arbres en domaine privé sont d'autant plus victimes de ce problème par leur difficulté d'accès malgré leur grande contribution à la biomasse urbaine.

Ce projet propose une solution automatisée pour la caractérisation des arbres en domaine privé par des techniques de traitement d'image utilisant les images capturées par drone. Il étend les méthodologies existantes de cartographie par LIDAR en incorporant des analyses d'images à haute résolution en comparaison à des images satellites.

Les images acquises par drone sont traitées pour obtenir un nuage de point permettant la création de cartes de hauteurs et d'orthophotos géoréférencées. Ces images sont ensuite découpées en tuiles permettant l'extraction des objets y étant contenue. Un modèle d'apprentissage machine aidé par d'autres outils ouverts permet ensuite d'identifier les arbres et de les caractériser.

Les résultats préliminaires indiquent une précision d'identification élevée permettant la caractérisation de la position, de la hauteur et de la superficie de la canopée des arbres. Les données pourront être intégrées sur la plateforme de SylvCiT offrant un accès libre aux données. Le projet offre une méthode de cartographie rapide permettant une planification plus précise et éclairée.

La synergie musculaire est considérée comme une approche pouvant être utilisée par le cerveau pour efficacement activer plusieurs muscles impliqués dans un mouvement. Ici il est question de la synergie du biceps brachial, un muscle multifonctionnel. On a analysé des ensembles de 8 signaux électromyographiques captés au-dessus du muscle de 10 sujets alors que leur main droite était en pronation ou en supination et qu’ils étaient assis avec le coude plié ou debout le bras étendu horizontalement. La valeur quadratique moyenne de ces signaux a été obtenue et avec un algorithme de factorisation matriciel non négatif, 3 synergies musculaires d’une durée de 4,2 s ont été identifiées. À partir des 3 coefficients obtenus, une fenêtre de 0,2 s est initialement utilisée pour entrainer un classifieur bayésien qui, sur les 0,2 s suivantes estime pour chacun des 400 échantillons qu’elle contient la probabilité (entre 0 et 1) que la main soit dans une position donnée. Ceci se répète à tous les 0,2 s et à la fin une courbe de 7600 valeurs (couvrant 3,8 s) est obtenue. Avec la main en pronation ou supination, la valeur moyenne des 3 ou 4 essais de chaque sujet a variée entre 0,53 et 0,98. Comme toute valeur >0,5 indique une bonne classification, le classifieur bayésien peut donc être utilisé pour détecter la posture de la main. Une classification en temps réel sera bientôt effectuée avec un filtre de Kalman sur des signaux du biceps alors que la main alterne entre pronation et supination.

Les parcelles agricoles présentent certaines variabilités intra-parcellaires au niveau de la croissance des plantes qui influence la rendement des cultures. Il est nécessaire dans un premier temps connaître, d'identifier et de localiser cette variabilité (grid-sampling, imagerie aérienne, conductivité de sols,…) pour dans un second temps, en comprendre l’origine et savoir si elle est intrinsèque au sol ou si des opérations peuvent en modifier la fertilité. L'étude présentée ne cherche pas à apporter de réponse sur la cause d'un éventuel dérèglement des sols, mais bien de démonter que l'imagerie aérienne multispectrale permet de localiser les irrégularités de croissance. Pour cela, l'équipe de recherche a calculé la corrélation entre la biomasse aérienne évaluée par l'imagerie multispectrale grâce à l'indice de végétation normalisé (NDVI) et la présence réelle de trèfle sur le terrain (biomasse et chlorophylle). Les résultats obtenus ont permis de répondre de manière très satisfaisante à l'hypothèse de recherche selon laquelle l'imagerie multispectrale serait un bon outil d'analyse et de diagnostic de la productivité du sol. Cette méthodologie d'acquisition de données aériennes pourrait être utilisée dans un contexte concret d'agriculture de précision pour effectuer des suivis multi-date tout au long de la saison afin de pouvoir surveiller l'évolution de la croissance des cultures et pourvoir ainsi, le cas échéant, prendre des dispositions en cours de saison.

Un biocapteur à effet de champ novateur a récemment été développé pour mesurer la cinétique de protéines et d’acides nucléiques, en mode molécule unique, sur des échelles de temps étendues, ce qui est difficile à faire avec les dispositifs actuels. Ses avantages distinctifs émergent du nanomatériau en son cœur, soit un nanotube de carbone sur lequel on vient greffer la biomolécule d’intérêt. En effet, l’expérience montre que le courant électrique traversant le nanotube est directement influencé par les variations du potentiel électrostatique à sa surface lorsque l’état de la biomolécule change. Les mécanismes moléculaires en jeu ne sont cependant pas complètement bien cernés.

Nous avons donc effectué des simulations sur deux systèmes biomoléculaires typiques, soit une protéine (ici, le lysozyme) et un acide nucléique (ici, un 10-nt d’ADN), liés à un nanotube de carbone, tel que précédemment fait en laboratoire avec le biocapteur. Nos dynamiques moléculaires lèvent le voile sur : (1) les interactions en jeu entre la biomolécule et le nanotube et (2) sur la dépendance du potentiel électrostatique à la surface du nanotube envers la structure de la biomolécule. Dans le cas du lysozyme, ces résultats permettent de bien expliquer les variations de courant électrique observées expérimentalement. Dans le cas du 10-nt d’ADN, nous observons des particularités qui soulèvent des questions intéressantes sur les mécanismes réellement en jeu en cœur de ce biocapteur.