Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Les constructions en glace fascinent, particulièrement au Québec. Au cours des dernières années, une équipe de recherche de l'Université McGill a mis au point des systèmes de prototypage rapide, aussi nommé impression en 3 D, pour construire des structures de glace. Au moyen d'un robot Cobra 600 d'Adept Technology, un système a été conçu et mis au point, capable de fabriquer un objet de n'importe quelle forme, de dimensions maximales d'environ 300 x 300 x 200 mm, en utilisant un fichier d'entrée de format STL. La précision du système est voisine de 0,5 mm, la vitesse de construction d'environ un litre par jour. Le processus d'adaptation du robot passe par la mise au point de plusieurs sous-systèmes importants. Celui de distribution d'eau est constitué d'un ensemble valve-buse, l'eau étant fournie par des réservoirs pressurisés à l'air. Un matériel d'échafaudage à base d'huile, qui s'adapte aux changements de phase et ne se dégrade pas au contact de la glace, a été développé. Des adaptations étaient également nécessaires sur le plan logiciel. Des algorithmes de tranchage de l'objet 3 D STL, de commande de la trajectoire du robot, et de détection et correction d'erreurs géométriques ont été mis au point.  Ces algorithmes contribuent à l'avancement des connaissances ; ils peuvent également être appliqués à d'autres domaines, comme le traitement de signaux et la fabrication.


Le projet s’intéresse à l’étude et la compréhension des dunes sous-marines présentes sur le fond marin du Saint-Laurent. La compréhension des dunes et de leur détection contribuent directement à la sécurisation des voies navigables. De plus, la compréhension de ces dunes est associée à d’autres enjeux tels que: l’apport sédimentaire du Fleuve, la manutention des chenaux de navigation par le dragage, ou bien encore l’élaboration de modèles de simulation servant à établir des risques d’inondation des zones côtières. L’objectif du projet est d’identifier et de classifier les dunes à partir des surfaces numériques représentant le fond marin, tout en considérant la qualité des données utilisées pour leur génération. La nouvelle approche d’identification proposée est innovante. Elle s’appuie sur une démarche orientée objet qui considère la dune comme une entité en soi, contrairement aux méthodes conventionnelles qui extraient les dunes en utilisant des mesures géométriques dissociées de leur représentation surfacique, ce qui limite l’analyse morphologique subséquente des dunes. À partir des dunes identifiées, le projet vise à proposer une classification adaptée au contexte fluviomarin de la Traverse Nord. Les classifications des dunes sont peu nombreuses et elles ont été proposées seulement en contexte marin ou fluvial, sans considérer les particularités d’une zone dynamique. Ce projet vise donc à introduire une nouvelle typologie de classes de dunes adaptée au Saint-Laurent.

Les technologies quantiques actuelles, comme les ordinateurs quantiques, nécessitent des méthodes statistiques avancées à des fins de calibration et de validation de performance. Cependant, ces outils deviennent rapidement impraticables à mesure que la taille des systèmes quantiques augmente. Les dispositifs des prochaines générations requerront alors une nouvelle approche pour réaliser cette tâche. Les algorithmes d’apprentissage machine constituent une avenue prometteuse pour résoudre ce problème. Le but de notre recherche est donc d’élaborer une architecture d’apprentissage profond permettant d’inférer la dynamique d’un système quantique de manière efficace et consistante à partir de données expérimentales mesurées sur celui-ci. Afin de développer cette approche, les connaissances physiques du système issues de la mécanique quantique sont exploitées de manière à conditionner l’apprentissage de l’algorithme vers des solutions réalistes. Nous étudions ainsi l’influence des différentes structures de l’algorithme sur l’apprentissage de données. De plus, nous présentons des applications de cette méthode sur la calibration et la caractérisation de dispositifs quantiques supraconducteurs. Cette étude unie donc deux domaines de recherche en plein essor; soient l’intelligence artificielle et l’informatique quantique, afin d’appuyer les efforts techniques visant à concevoir de nouvelles technologies quantiques.

De nos jours, l’application des méthodes d’optimisation topologique permet d’améliorer de manière significative le processus global de Conception Assistée par Ordinateur (CAO). Dans ce contexte, le projet présenté ici s’inscrit dans la continuité des travaux de notre équipe de recherche qui développe, depuis maintenant quelques années, des outils permettant d’améliorer l’intégration des méthodes d’optimisation topologique de pièces et structures au sein du processus de développement de produits. Notre objectif est de reconstruire, de manière automatique, un modèle CAO à partir d’un résultat d’optimisation. Pour ce faire, l’objet initial, modélisé dans un logiciel de CAO, est tout d’abord maillé automatiquement à l’aide de tétraèdres. L’optimisation est ensuite réalisée à l’aide de la méthode SIMP qui consiste globalement à déterminer une répartition optimale de densité d’un matériau fictif poreux. Cette méthode est couplée à un raffinement adaptatif du maillage suivant le gradient de la densité. Ce raffinement permet de définir l’enveloppe de la forme optimale plus clairement. La forme optimisée est extraite par élimination des parties de matière les plus poreuses. Cette forme est ensuite automatiquement lissée puis convertie en un squelette afin d’en déduire une structure de poutres (lorsque le résultat tend vers une structure). Cette structure est finalement validée par éléments finis.

La conception des évaporateurs à effets multiples repose sur des heuristiques d'ingénierie pour déterminer le nombre optimal d'effets pour obtenir les performances souhaitées. Une première heuristique indique que l'économie de vapeur augmente d'un facteur constant de 0.8 à mesure que le nombre d'effets augmente. La deuxième heuristique tient compte de l'impact de l'élévation du point d'ébullition (EPE). Pour une EPE faible, le nombre optimal d'effets se situe entre 8 et 10 alors que pour une EPE plus significative, le nombre optimal d'effets est de 6 ou moins.

 

L'objectif de cette étude était de valider ces deux heuristiques de la conception d’un système d’évaporateurs. Pour atteindre ces objectifs, un VBA a été rédigé pour calculer la quantité de vapeur nécessaire pour vaporiser la quantité désirée d'eau ou de solvant, les débits de vapeur et de liquide émanant de chaque effet, la surface de transfert de chaleur, et enfin l'économie de vapeur (EV). Une analyse des coûts, d'investissement et d'exploitation, a ensuite été effectuée afin de quantifier la manière dont l’EPE agit comme facteur de contrôle dans le choix du nombre optimal d'effets.

 

Les résultats indiquent que pour la première heuristique, l’EV pour des évaporateurs à un ou deux effets est la même et suit l’heuristique. Au-delà de deux effets, l’EV augmente à un rythme plus lent que le facteur de 0.8 pour chaque effet. Pour la seconde heuristique, l'heuristique donne une estimation raisonnable du nombre d'effets.

           Dans notre exposé, nous présentons une nouvelle formulation de la méthode Smoothed Particle Hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Notre approche utilise un schéma à pas fractionnaire d'ordre deux qui, dans un premier temps, calcule une vitesse intermédiaire en ignorant la contrainte d'incompressibilité. Cette vitesse intermédiaire est ensuite projetée dans l'espace des champs vectoriels incompressibles, afin de trouver la vitesse et la pression à la fin du pas de temps via une équation de Poisson sur une fonction scalaire qu'il faudra déterminer pendant ce pas de temps.

           Notre modèle est ensuite testé à la résolution d'un écoulement cisaillé simple de Poiseuille; nos résultats sont ensuite comparés avec ceux qui existent dans la littérature.

          Nous nous servons par la suite de notre modèle pour simuler la dynamique d'une membrane immergée dans un fluide visqueux et incompressible. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans celle-ci est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane, sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide ainsi obtenue est interpolée sur l'interface, afin de déterminer son déplacement.



La radiothérapie à très haut débit de dose est une modalité émergente de traitement du cancer qui permet de protéger davantage les tissus sains lors des traitements, tout en permettant d’administrer une dose très élevée aux cellules cancéreuses en moins d’une seconde. L’instrumentation permettant de mesurer les doses de radiation pour ce type de modalité doit fournir des mesures précises afin d’assurer la justesse des traitements. Les dosimètres à scintillation, qui sont composés de fibre optique émettant de la lumière lorsqu’irradiée, permettent des mesures simples, précises et en temps réel. L’objectif de ce projet est d’étudier les dommages causés par la radiation à très haut débit de dose sur les fibres optiques utilisées dans ces dosimètres.

Quatre différents échantillons de fibre optique de 1,5 cm de longueur ont été irradiés au PTB, en Allemagne, sous un faisceau possédant un très haut débit de dose de radiation, pour des doses environ 1000 fois plus grandes que celles d’un traitement conventionnel. Suite à ces irradiations, l’efficacité de transmission et de scintillation des fibres optiques est mesurée avant et après l’irradiation. Les résultats obtenus montrent une baisse de l’efficacité de scintillation allant jusqu’à 50%, mais ne semble pas affecter la transmission de la lumière dans ces fibres au-delà des incertitudes de mesures. Cette caractérisation permet de planifier la conception d’une nouvelle génération de dosimètre utilisable à très haut débit de dose.

L’érosion externe est l’un des principaux agents de destruction du réseau routier québécois, en particulier les routes non revêtues. Sous l'action de l'eau, il est possible d’observer la migration de particules, l'apparition de petits dommages ou même la ruine complète d'une route. Afin de présenter une alternative aux solutions traditionnelles contre l’érosion (injections, ajouts de liants, etc…), ce projet introduit deux techniques d'amélioration des sols granulaires dans le domaine de la géotechnique routière: 1 – La calcification biologique ou précipitation de calcite induite par l'activité métabolique de la bactérie Sporosarcina pasteurii (MICP en anglais) ; 2 – La calcification chimique ou précipitation de carbonates de calcium suite à l’injection des solutions de Na2CO3 et CaCl2. Pour ce faire, le projet a commencé par une étape de laboratoire avec percolation de solution chimiques et biologiques sur de petits échantillons de matériaux de fondation, qui a démontré le potentiel de la technique. Par la suite, nous prévoyons la même procédure sur le terrain, à grande échelle. Des essais seront ainsi effectués pour quantifier la précipitation des carbonates de calcium et évaluer la variation de l'érosion externe avant et après chaque type de calcification. Après les essais de terrain, un rapport de faisabilité technique, économique et environnementale sera préparé pour les deux processus de calcification de manière expliquer leur applicabilité à l'industrie du génie civil.

L’inspection automatique de pièces flexibles à l’état libre permet d’augmenter la performance et la rapidité de détection des défauts sur ce type de pièces et d’en diminuer considérablement le coût. Cesdéfauts peuvent êtreévaluésen comparant le résultat du scan de la pièce avec le modèle géométrique provenant de la conception assistée par ordinateur (CAO). On utilise classiquementdesgabaritssophistiquéset dispendieuxdurant l'inspection de ces pièces pour compenser leur déformation. Nous proposons une méthode d’inspection automatique sans gabarit (à l’état libre) basée sur un recalage non rigide avec filtration des points de correspondance. Des points de correspondance (échantillons) entre le modèle CAO et le modèle scanné sont d’abord générés sur chaque modèle puis utilisés pour déformer le modèle CAO vers le modèle scanné en utilisant les éléments finis.Afind’assurer la précision de l’inspection, les échantillons susceptibles d’être situés à proximité des défauts sont filtrés. Ce filtrage est basé sur l’analyse locale des courbures et sur l’analyse locale des contraintes de Von-Mises associées au recalage non-rigide. L’efficacité et larobustesse de la méthodesont illustréessur différents exemples. Sur ces exemples, on montre notamment l’effet de l’amplitude du bruit de mesure sur la précision d’identification des défauts. Nous présentons également une approche d’analyse des efforts requis lors de l’assemblage de ces pièces.

Les résidus agro-alimentaires de l’industrie sont des biomasses qui sont convoités pour leur valorisation en extraits ayant des propriétés antioxydant, antimicrobien ou anti-inflammatoire. Le marc résultant du pressage du jus est le plus souvent constitué de la pelure, des pépins et de la pulpe qui contiennent une quantité importante de polyphénols, des pigments responsables de la coloration des fruits ou des légumes.

Le procédé d'extraction par eau subcritique des polyphénols utilise de l’eau à température et à pression élevés en dessous du point critique du diagramme de phase. Sous ces conditions, les propriétés diélectriques de l’eau permettent d’atteindre une polarité comparable à celle d’un solvant organique tel que l’éthanol, mais en utilisant seulement de l’eau. Ce procédé en semi-continue offre une solution environnementale et économique à la valorisation du marc de canneberges.

La masse exacte des molécules est obtenue par Quadrupole Time-of-Flight, Q-TOF LC/MS. Une base de données interne (Personal Compound Database Library) de composés phénoliques est généré à partir de bases de données en ligne telle que Phenol-Explorer, et sert à interroger les profils obtenus par Q-TOF. Des analyses multivariées, Principal Component Analysis (PCA), sont utilisées pour mettre en évidence les différences entre les différentes conditions d'extraction.

Ce document traite du problème de renouvellement d’une flotte hétérogène de véhicules dans le contexte d’une gestion efficace. Une analyse de différents facteurs qui peuvent accélérer ou retarder le renouvellement est effectuée. Par l’intermédiaire d’une analyse documentaire, nous présentons un cadre de référence sur les principaux modèles de sélection de véhicules à changer pour aboutir à une méthode basée sur des critères économiques et environnementaux. Des outils sont
présentés pour l’établissement d’une politique appropriée qui comprend entre autres, les stratégies pour remplacer les vieux véhicules par des nouveaux. Une partie est consacrée aux coûts et aux besoins de financement du remplacement. En fin, différents concepts reliés au système global de gestion sont présentés, étant donné l’impact de la gestion sur le renouvellement.

Les plasmas, générés en fournissant de l’énergie électrique à un gaz, sont aujourd’hui au cœur des nouveaux développements industriels éco-responsables. La possibilité de les opérer à pression atmosphérique est particulièrement propice au traitement industriel, par exemple pour les polymères. Cependant les mécanismes régissant ces technologies plasma et notamment les interactions avec le substrat demeurent mal comprises. Dans ce contexte, ce projet vise à caractériser un plasma utilisé pour la modification de surface de fluoropolymères, tout en améliorant ou en développant des méthodes de diagnostics afin d’améliorer la compréhension de ces procédés.

L’analyse électrique constitue le moyen de diagnostic le plus simple et rapide du plasma. Elle permet, entre autres, de mesurer la puissance fournie au gaz en utilisant des figures de Lissajous, qui correspondent à des courbes charge-tension. Le présent travail démontre la possibilité de suivre l’évolution de température du procédé à l’aide d’analyses électriques indirectes. En effet, un lien a été établi entre l’augmentation de la puissance mesurée sans décharge à faible tension et l’augmentation de température au cours du temps. L’utilisation d’un signal modulé permet de gérer les temps de décharges, et semble être le paramètre clef dans l’élévation de température.

Cette méthode innovante est très intéressante et prometteuse d’un point de vue industriel car elle permet un suivi de la température de manière non intrusive.

Les modèles probabilistes de la demande sismique et l'analyse de la fragilité sont des éléments clés du génie parasismique basé sur la performance. L'évaluation de la performance des systèmes structuraux à composants multiples, comme les ponts routiers, est facilitée par la prise en compte de l'interaction entre les composants. Les formulations analytiques classiques capables d'incorporer cette caractéristique et de gérer les incertitudes reposent sur des hypothèses communes : la demande sismique suit une loi log-normale et la dépendance linéaire entre les réponses des composantes structurelles. Néanmoins, ces hypothèses ne sont pas toujours valides. Une méthodologie est donc proposée pour la construction de modèles probabilistes de demande sismique basés sur l'analyse à bandes multiples (MSA) et sur des modèles de mélange gaussien (GM). Cette méthode s'appelle MSA-GM et est plus flexible que les autres stratégies classiques par rapport aux hypothèses généralement adoptées. Une étude de cas sur un pont au Québec est présentée pour analyser, dans un premier temps, la validité des hypothèses sur la demande sismique, et, plus tard, leur impact sur les courbes de fragilité (voir la figure attachée). Les avantages de la méthodologie proposée sont mis en évidence tout au long de ces analyses.

La navigation par résonance magnétique (NRM) est une technologie permettant de déplacer des particules médicamenteuses dans le corps humain à l’aide d’un scanner d’imagerie par résonance magnétique (IRM). L’application privilégiée de la NRM est le traitement de cancer du foie, seconde cause de mortalité chez les patients atteints par un cancer. La réussite d’une telle technologie nécessite une connaissance approfondie de la géométrie vasculaire et des caractéristiques dynamiques du flot sanguin dans l’organe. Une des problématiques auxquelles nous sommes confrontés est la vitesse trop élevée du sang dans le foie (au-delà de 40 cm/s). Par pallier à ce problème, nous souhaitons mettre en place une approche par flot bloqué qui consiste à réduire le flot sanguin dans l’organe à l’aide d’un cathéter ballon. Cette approche a déjà fait l’objet d’études cliniques dont les résultats sont encourageants. Nos premières expériences ont montré des réductions drastiques de flot (plus de 800% de réduction), accompagnés par une élimination de la pulsation artérielle. Parce qu’il est difficile de mesurer des flots lents, nous utilisons plusieurs modalités d’imagerie (IRM, ultrasons, et angiographie) afin de conclure sur l’approche la plus robuste. Cette technologie de navigation magnétique a le potentiel de transformer la façon dont certaines procédures médicales sont actuellement réalisées et pourrait, à terme, rendre ces interventions plus efficaces et moins invasives.



L’ATP extracellulaire peut réguler des fonctions du poumon, comme la clairance muco-ciliaire. Sous des conditions physiologiques, les cellules libèrent l’ATP, mais ce mécanisme est peu connu. Nos travaux ont démontré que l’ATP est libérée en réponse à des contraintes mécaniques, dont l’étirement. L’objectif est donc d’étudier les mécanismes physiologiques du relargage d’ATP induit par l’étirement dans les cellules alvéolaires de rat.

Des cellules alvéolaires de type II (ATII) de rat sont fixées sur une chambre en silicone. Celles-ci sont baignées dans du DMEM avec de la luciférine-luciférase (LL) et sont soumises à un étirement de 1 s de 7-49%. Un système de lentilles à grand champ de vision favorisant l’apport de lumière était conçu pour visualiser l’ATP. La bioluminescence de la réaction ATP-LL est capturée en temps réel avec une caméra EMCCD.

Le nombre de cellules répondant au stimulus et la quantité d’ATP libérée sont proportionnels à l’intensité de l’étirement. 100 µM de carbenoxolone ou 2,5 mM de probénécide n’affecte pas la sécrétion d’ATP par rapport aux contrôles, ce qui suggère que ce processus n’implique pas les voies conductrices (pannexines) dans les cellules ATII.

Nos résultats démontrent l’importance du relargage d’ATP induit par l’étirement dans l’alvéole. Une meilleure compréhension de la signalisation purinergique fournira de nouvelles approches thérapeutiques pour les complications respiratoires, telles que les lésions pulmonaires induites par la ventilation.

* Lalla Samira TOUHAMI, * Daoud AIT-KADI, **Med Anouar JAMALI

Ingénierie du système de gestion de la maintenance dans un contexte distribué

Les coûts associés à la maintenance des biens d'une entreprise ne cessent de croitre. Ceci est dû à la complexité des biens à entretenir, aux coûts de la main d'œuvre, des pièces de rechange, des pénalités de retards occasionnés par la fréquence des défaillances aléatoires, aux durées d'inactivité et aux prestations externes.

La maintenance a toujours été considérée comme centre de coût. La maintenance productive totale (TPM) et le Lean maintenance préconisent des démarches structurées pour réduire les sources de gaspillage. Ceci exigeune cartographie des processus, des outils de modélisation, d’évaluation et d’amélioration des performances de chaque processus.

Pour la démarche proposée, chaque processus est décomposé en activités. A chaque activité on associe des ressources, des objectifs, une durée, un coût et une méthodologie d’évaluation.

Le processus de réingénierie de la maintenance repose sur l'évaluation des impacts techniques, économiques, stratégiques, sociaux et environnementaux de chaque activité. À l’issue de cet exercice, le mode de réalisation à l’interne, conjointement ou en totalité par des prestataires externes sera défini.

Dans cette communication, nous ferons état de la méthodologie proposée et des outils développés.

* Département Génie mécanique Université Laval G1V 0A6 Québec

** R&D ESITH Route d’El Jadida Km8 Maroc



Le glioblastome multiforme (GBM) représente la forme de cancer du cerveau la plus agressive avec un taux de survie inférieur à 5% au-delà de 5 ans. La principale cause d’échec des traitements actuels est la migration des cellules cancéreuses de la tumeur vers le  tissu cérébral avoisinant. La stratégie proposée consiste à inverser la direction de la migration des cellules GBM, via un gradient de chimioattractant (CXCL12), vers une zone confinée (gliotrappe) dans laquelle elles peuvent être éliminées par radiothérapie localisée Cette gliotrappe combine un hydrogel poreux avec des nanoparticules (NPs)  chargées de CXCL12 dans le but de favoriser sa libération contrôlée. Pour optimiser la gliotrappe, il est nécessaire de développer un modèle in vitro qui prend en compte le flux de liquide cérébral, un facteur pouvant influencer de manière significative la libération du CXCL12 en fonction de l’emplacement de la tumeur. Dans le cadre de ce projet de recherche, un bioréacteur à perfusion mimant la dynamique de l'écoulement du flux du liquide cérébral interstitiel a été développé afin de valider et d’optimiser cette technologie innovante. Tout d’abord, les cinétiques de libération de CXCL12 à partir des différents constituants de la gliotrappe ont été caractérisées et modélisées mathématiquement en conditions statiques. L’effet de la perfusion à différents débits retrouvés dans le cerveau a ensuite été évaluée, permettant d’émettre des recommandations sur la technologie proposée.

La formulation conventionnelle de la physique est est caractérisée par le fait que les équations du mouvement d'un système physique sont déterminées indépendamment des quantités conservées. Dans cette approche, on détermine d'abord, à l'aide du principe de moindre action, les équations du mouvement, puis, en faisant appel à certaines propriétés de l'espace-temps, on démontre que certaines quantités, comme l'énergie, l'impulsion et le moment cinétique, sont conservées. Il est proposé dans cette communication une approche différente, fondée sur la propriété de réversibilité des groupes, qui donne accès à la connaissance, et sur un autre principe d'invariance qui permet d'établir simultanément et en concordance les équations du mouvement et celles de conservation. Dans cette nouvelle approche, on ne considère pas le système physique comme évoluant dans un espace-temps préexistant; au contraire, non seulement le construction est corrélative à l'organisation du champ spatio-temporel, mais elle précède logiquement. L'espace-temps apparaît comme une propriété de l'objet. Cette nouvelle mécanique conduit à des résultats inattendus; en autres, elle permet d'inscrire dans le formalisme de la relativité restreinte le principe d'indétermination de Heisenberg, tout en établissant un lien entre indétermination, causalité et singularité.



Introduction : Touchant environ 4% de la population, l'anévrisme de l'aorte abdominale (AAA) est une dilatation localisée de l'aorte abdominale, souvent asymptomatique. En cas de rupture, la mortalité et la morbidité peuvent atteindre 80%, soit la 15e cause de mortalité aux USA. L'utilisation du couplage entre la mécanique des fluides et les données cliniques de suivi morphologique permettra une meilleure compréhension des mécanismes de croissance en jeu dans l’aorte et vise à définir des nouveaux critères pour l'aide à la planification interventionnelle personnalisée.
Méthodes : (i) extraction des AAAs de suivi (ii) Calcul de l’écoulement par volumes finis (validé par IRM) (iii) Extraction des Structures Lagrangiennes Cohérentes (SLC) de l'écoulement pour quantifier la topologie du transport dynamique.
Résultats : l'IRM a permis de valider la topologie de l'écoulement ainsi que le choix des conditions limites. Le transport, donnée complexe à visualiser et quantifier dans un écoulement instationnaire, est observé via les SLC elliptiques. Celles-ci forment des domaine fermés présentant peu de déformation au cours du temps.
Discussion : Si les relations entre croissance locale et écoulement sont établies dans les AAAs, les composantes de celui-ci ayant un rôle sont encore méconnus. Notre étude vise à les extraire et quantifier leur impact par des méthodes numériques innovantes.

Image: évolution des zones de stagnation du sang dans un AAA en 2006, 2009 et 2012.

L’Échelle d’Estime de Soi de Rosenberg (EES) est un instrument unidimentionnel, de 10 items, largement utilisé depuis presque 50 ans. La littérature suggère qu’à chaque 5 ans, on revérifie les qualités métriques des instruments pour s’assurer de pertinence leur mesure. C’est dans cette optique que cette étude, menée auprès d’un échantillon composé de 83 étudiant-e-s universitaires âgés de 19 à 50 ans recueilli en 2012, teste des propriétés psychométriques de l’EES. Les corrélations inter-items (0,34<r<0,81) suggèrent la présence d’un construit unidimensionnel. Les corrélations items-total (0,60 < rc < 0,82) et les alphas de Cronbach en cas de suppression des items (0,90 < α < 0,92) réitèrent que le modèle testé est unidimensionnel. Finalement, une analyse en composantes principales (0,66 < Satf < 0,87), qui explique 61% de la variance, ainsi que les qualités de représentation (0,44 < h² < 0,75), viennent confirmer l’unidimensionnalité du modèle en 10 items. En ce qui a trait à la fidélité de la mesure (α = 0,92), l’instrument présente une consistance interne très satisfaisante. La principale conclusion est que l’EES-10 est un instrument remplissant les critères psychométriques les plus répandus et qu’on peut continuer à l’utiliser sans craindre qu’il ait perdu de ses qualités. Les répercussions théorique et pratique seront discutées. D’autres populations, de même que d’autres qualités métriques, devront être explorées par de nouvelles études.

Plusieurs facteurs contribuent à accroître l’intérêt pour une utilisation accrue de la motricité électrique et des technologies des véhicules autonomes en agriculture : rareté croissante de la main-d’œuvre agricole qualifiée, augmentation de la production alimentaire à l’échelle mondiale, législations et réglementations visant la durabilité de la production agricole. Les technologies relatives aux piles à combustible (FC), aux véhicules électriques (EV) et aux véhicules autonomes et connectés (CAV) sont adaptées avec succès pour se conformer aux exigences liées aux déplacements routiers et aux applications hors route. Cette communication présente une analyse de faisabilité portant sur l’intégration des technologies FC, EV et CAV sur des unités motrices pour la réalisation d’opérations agricoles autonomes. De telles unités motrices agricoles autonomes de taille réduite (AAPU)  pourraient opérer des machines et équipements agricoles variés en fonction des différentes productions et  divers types de pratiques culturales. 

Dans le présent article l’intérêt de notre travail de recherche porte sur la compréhension des phénomènes mis en jeu dans la formation et l’oxydation des polluants dans une flamme Propane/Air de diffusion laminaire et turbulente soumise à un champ électrique. En effet, de nouvelles technologies pour assister la combustion connaissent un véritable essor : c’est l’utilisation de systèmes de contrôle actif comme : le champ électrique, le champ magnétique, le champ électromagnétique et/ou une excitation acoustique. Plusieurs études et travaux sur les plasmas froids appliqués aux flammes ont démontré des effets intéressants sur la réactivité chimique des radicaux et des espèces formées au sein du plasma pour transformer (oxyder) les molécules polluantes en molécules inoffensives. Grâce à l’application d’un champ électrique, les collisions ioniques et électroniques avec des molécules de gaz neutres influencent la forme de la flamme, l'intensité de combustion, les émissions de particules, la formation de suie et le taux de production d'ions. Des résultats très intéressants ont été obtenus sur notre montage expérimental lorsqu'un champ électrique a été généré.

Les tests ELISA (Enzyme-Linked ImunoSorbent Assay) sont communément utilisés pour détecter et quantifier des protéines dans des solutions complexes. Dans sa version standard dite « en sandwich », des anticorps de capture capables de fixer spécifiquement l’antigène recherché sont adsorbés au fond des puits d’une microplaque. Les plaques sont ensuite bloquées par incubation d’albumine sérique bovine (BSA) avant l’incubation du ligand à détecter et des autres réactifs du test (A). La réalisation d’un test ELISA peut sembler fastidieuse et longue (environ 16 h, incluant l’adsorption de l’anticorps primaire durant une nuit).

Le présent travail propose différentes alternatives aux tests standard. La première approche consiste à greffer chimiquement une couche de polymère aux propriétés anti-adhésives pour le matériel biologique (Dextran). Cette couche a permis de réduire drastiquement le temps de préparation des tests ELISA grâce à la suppression de l’étape de blocage à la BSA et à l’attache chimique de l’anticorps de capture au fond des puits, réalisée en 15 min (B). La deuxième approche repose sur l’interaction non-covalente, réversible et stable entre deux peptides K et Ecoil. Les plaques recouvertes de Kcoils attachés chimiquement ont démontrés leurs capacités à recruter spécifiquement des ligands étiquetés Ecoil (C). La stabilité et la capacité de régénération des nouvelles constructions ainsi qu’une comparaison avec les tests ELISA standard seront présentés. 

La Caraïbe a été au cours des siècles derniers le siège d'économies coloniales. Ce n'est qu'à la marge d'un développement tourné vers l'approvisionnement de métropoles européennes que des systèmes agricoles dédiés à l'approvisionnement du marché intérieur ont pu voir le jour. Aujourd'hui dans un souci d'accroissement de la résilience territoriale, l'orientation des systèmes agri-alimentaires vers la satisfaction des besoins des populations locales apparaît comme une priorité. Conjuguée à la nécessité d'une transition agroécologique et bioéconomique des modes de production, l'innovation en milieu agricole doit répondre à ces différents challenges. Organisés en réseau au sein du projet Cambionet, les scientifiques de la région développent la mise en place de living labs multisites au sein desquels les communautés d'agriculteurs et autres parties prenantes du secteur agricole, peuvent concevoir à partir des enjeux et contraintes auxquels elles sont confrontés, les choix opérationnels à privilégier dans l'évolution des agrosystèmes.  Les résultats préliminaires de cette approche originale entamée en 2021, montrent l'intérêt de la démarche collaborative d'où émergent des living labs organisés sur un nexus commun "agroécologie-bioéconomie-adaptation au changement climatique-nutrition", en déclinant dans chaque contexte des spécificités qui les rendent complémentaires, pour en faire des pôles d’attractivité à fort potentiel pour une mobilité des acteurs dans la région.

Plusieurs industries œuvrant dans la transformation sont aux prises avec un problème commun, soit la variabilité de leurs matières premières. Elle est problématique puisqu’elle se propage tout au long du procédé rendant l’atteinte des seuils de qualité plus ardue et une production moins uniforme. Pour minimiser l’impact de cette variabilité, il est nécessaire de faire un meilleur contrôle de qualité des matières premières. Il faut détecter à la source les lots de matières inadéquats. L’usage de spécifications univariées multiples est une pratique courante, mais elle comporte des inconvénients lorsque les propriétés utilisées sont corrélées entre elles.

L’usage de spécifications multivariées s’avère une meilleure option puisqu’elles tiennent compte de cette corrélation. La méthode standard vise à propager les seuils de qualité d’un produit fini jusqu’aux matières premières à l’aide de modèle à variables latentes afin de définir une zone d’acceptabilité sur ces dernières. L’inversion du modèle est une autre option.

Les travaux présentés visent à fournir une comparaison des deux approches. Afin d’assurer une répétabilité du processus et une connaissance exacte des relations, un jeu de données est bâti à partir de relations mathématiques. Il sert à construire le modèle de régression des moindres carrés partiels commun utilisé pour tester les deux approches. Les résultats obtenus sont comparés sur le plan des performances en classification et de la taille de la zone d’acceptabilité.