Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Un biocapteur à effet de champ novateur a récemment été développé pour mesurer la cinétique de protéines et d’acides nucléiques, en mode molécule unique, sur des échelles de temps étendues, ce qui est difficile à faire avec les dispositifs actuels. Ses avantages distinctifs émergent du nanomatériau en son cœur, soit un nanotube de carbone sur lequel on vient greffer la biomolécule d’intérêt. En effet, l’expérience montre que le courant électrique traversant le nanotube est directement influencé par les variations du potentiel électrostatique à sa surface lorsque l’état de la biomolécule change. Les mécanismes moléculaires en jeu ne sont cependant pas complètement bien cernés.

Nous avons donc effectué des simulations sur deux systèmes biomoléculaires typiques, soit une protéine (ici, le lysozyme) et un acide nucléique (ici, un 10-nt d’ADN), liés à un nanotube de carbone, tel que précédemment fait en laboratoire avec le biocapteur. Nos dynamiques moléculaires lèvent le voile sur : (1) les interactions en jeu entre la biomolécule et le nanotube et (2) sur la dépendance du potentiel électrostatique à la surface du nanotube envers la structure de la biomolécule. Dans le cas du lysozyme, ces résultats permettent de bien expliquer les variations de courant électrique observées expérimentalement. Dans le cas du 10-nt d’ADN, nous observons des particularités qui soulèvent des questions intéressantes sur les mécanismes réellement en jeu en cœur de ce biocapteur.

Introduction : Touchant environ 4% de la population, l'anévrisme de l'aorte abdominale (AAA) est une dilatation localisée de l'aorte abdominale, souvent asymptomatique. En cas de rupture, la mortalité et la morbidité peuvent atteindre 80%, soit la 15e cause de mortalité aux USA. L'utilisation du couplage entre la mécanique des fluides et les données cliniques de suivi morphologique permettra une meilleure compréhension des mécanismes de croissance en jeu dans l’aorte et vise à définir des nouveaux critères pour l'aide à la planification interventionnelle personnalisée.
Méthodes : (i) extraction des AAAs de suivi (ii) Calcul de l’écoulement par volumes finis (validé par IRM) (iii) Extraction des métriques d'intérêt : cisaillement pariétal, topologie du transport dynamique (utilisation des Structures Lagrangiennes Cohérentes). Estimation des croissances locales de paroi entre 2 examens consécutifs, épaisseur de thrombus et activité métabolique.
Résultats : l'IRM a permis de valider la topologie de l'écoulement ainsi que le choix des conditions limites. Le transport, donnée complexe à visualiser et quantifier dans un écoulement instationnaire, est analysé au cours de la croissance de l'AAA de manière fortement automatisée.
Discussion : Si les relations entre croissance locale et écoulement sont établies dans les AAAs, les composantes de celui-ci ayant un rôle sont encore méconnus. Notre étude vise à les extraire et quantifier leur impact par des méthodes numériques innovantes.

Dans un robot de traite, la localisation des trayons et le positionnement des gobelets de traite est très important. La technologie de positionnement des robots de traite n'a pas évoluée depuis une dizaine d'année et est basée principalement sur un profil laser qui donne les positions approximatives des trayons. Or cette technologie atteint ces limites et ne permet pas un positionnement optimal des gobelets.

Pour pallier à ces limites, nous avons développé un nouveau système basé sur la vision 3D et capable d'orienter efficacement les gobelets de traite. Un prototype du système intelligent pour le positionnement en temps-réel d'un robot de traite a été construit et testé dans diverses conditions sur des modèles de trayons (statiques et en mouvement).

Des tests expérimentaux ont été effectués avec des caméras 3D TOF (Temps de vol) et RGBD (Kinect). Les algorithmes développés permettent de segmenter les trayons, de les identifier et de calculer leur position 3D. Cette information est ensuite envoyée au robot de traite qui positionne les gobelets sous les trayons. Le système de vision fonction en mode suivi en continu et contrôle le positionnement optimal des gobelets même en présence du mouvement.

Les résultats démontrent l’efficacité du système de vision proposé. Les meilleurs résultats ont été obtenus avec des caméras RGBD qui ont des plus hautes résolutions que les caméras TOF.

Les isocyanates sont des composés réactifs et toxiques contenant un ou plusieurs groupes fonctionnels NCO. Appliqués par pulvérisation, ils existent sous forme de vapeur et d'aérosols difficiles à mesurer, dans un contexte d’exposition professionnelle, nonobstant l’utilisation des méthodes standardisées. Ils constituent l'une des principales causes d'asthme professionnel au Québec. Cette étude présente la validation en laboratoire d’un système de génération d’isocyanates par pulvérisation afin d’améliorer la compréhension du comportement de ces émissions semi-volatiles au sein des dispositifs d’échantillonnage d’air. Ce système comprenait une chambre de pulvérisation munie d’un pistolet générant une pulvérisation d’un vernis contenant du diisocyanate d’hexaméthylène (HDI) et ses oligomères et une chambre d’exposition à plusieurs points d’échantillonnage. Les paramètres de débit, d'hygrométrie et de température étaient contrôlés. Le HDI prélevé sur filtre imprégné était analysé par chromatographie liquide ultraviolet et/ou spectrométrique de masse. La granulométrie du HDI et de ses oligomères a été mesurée par un impacteur à cascade et d’un impacteur électrique à basse pression. Le diamètre aérodynamique massique médian était de 4 µm. Le système a été capable de générer des niveaux de concentration de HDI et d’isocyanurate allant de 0,030 à 0,057 mg/m3 et de 0,428 à 1,313 mg/m3 avec une variabilité intratest de 5,8% et de 16,5%, respectivement.

Cette recherche évalue le risque associé à la consommation d’aliments préemballés avec étiquetage de précaution (EDP) pour le lait, les arachides, les œufs et les noisettes et simule l’utilisation de doses déclenchantes pour 1% (ED01) et 5% (ED05) de la population allergique comme outils de gestion de risque. Les données utilisées sont la prévalence et la concentration d’allergène dans des produits avec EDP (Manny et al.), les données de consommation des aliments (ESSAC 2015) et la courbe dose-réponse des allergènes (Houben et al.). Ces données ont été utilisées pour estimer le risque et simuler l’utilisation des seuils avec une simulation de Monte-Carlo. La majorité des combinaisons allergène-aliment ne présentent pas un risque important pour les consommateurs allergiques (< 10 réactions allergiques par 10 000 occasions). La contamination du lait présente le plus grand risque pour le nombre de réactions allergiques et pour le nombre de combinaisons à haut risque. L’utilisation de ED01 et de ED05 pour développer des seuils d’application d’EDP pourrait diminuer le risque lorsqu’il y a contamination importante d’allergène. Ces seuils d’étiquetage pourraient aussi être bénéfiques en réduisant le nombre de produits avec EDP sans augmenter le nombre de réactions allergiques causées. Cette recherche met en valeur les bénéfices potentiels de l’utilisation de seuils pour la gestion des EDP comme méthode de standardisation et comme outil de gestion réglementaire canadien.

Riches en minéraux, polysaccharides, oligoéléments et fibres, les macroalgues du Québec sont encore sous-utilisées dans l’alimentation humaine et animale.

Deux variétés d’algues brunes du genre Fucus vesiculosus et Ascophyllum nodosum (récoltées à Saint-Fabien sur mer, Québec) ont été séchées par air chaud (AC) et lyophilisation (L). Le séchoir AC opérait avec flux transversal (0.5 m/s) ou parallèle (1.5 m/s) à 52oC. Le lyophilisateur avait une température de tablette de 20oC et 30 mTorr de vide. La cinétique de séchage a été déterminée durant la déshydratation. La composition globale, la teneur en composés phénoliques et minéraux, et le compte bactérien ont été évalués avant et après le séchage.

Les deux variétés d’algues ont été relativement faciles à sécher par AC, avec un temps de 150 et 65 min (parallèle) ou 140 et 50 min (transversal) pour Ascophyllum et Fucus, respectivement. Ascophyllum sèche plus lentement que Fucus notamment à cause de la présence de vésicules d'air et ce tant par AC que par L (25 h vs 13 h, respectivement). La lyophilisation aide à conserver la quasi-totalité des composés phénoliques initiaux (2 mg GAE/g sur une base sèche). En contrepartie, la température élevée de l’AC permettrait une diminution marquée des comptes bactériens initiaux.

L'étude approfondie du séchage de macroalgues du Québec contribuera à leur valorisation comme ingrédients fonctionnels concentrés et stables, ainsi qu'à ouvrir des voies de transformation encore inexplorées.

Au Québec, les PME représentent 96 % des entreprises et 88 % de la population y travaille. Leurs performances en SST sont inférieures à celles des grandes entreprises et on y compte plus d’accidents (+50 %). Dans le cas des mutuelles de prévention, les préventionnistes peinent à répondre aux demandes des PME. Notre projet de recherche tente d’améliorer le travail des préventionnistes en mettant en place un outil novateur d’évaluation de la performance en SST. Aucun autre outil développé pour les préventionnistes dans le milieu des PME n’a été recensé dans la littérature.

Le projet de recherche, réalisé en partenariat avec une mutuelle de prévention, s’est articulé autour de trois activités principales. La première activité a été consacrée à la recension des écrits et des faits d’expérience relative aux méthodes pour évaluer la performance des entreprises. La deuxième activité a été dédiée à l’élaboration d’un outil d’aide à la décision basé sur un ensemble d’indicateurs de performance en SST. Enfin, la troisième activité a été consacrée à l’expérimentation de l’outil afin de le rendre plus adapté à la réalité des PME québécoises.

Ce projet a permis d’élaborer un outil d’aide à la décision utilisé par notre partenaire. Les données recueillies jusqu’à présent montrent des résultats prometteurs et mettent en lumière des pistes d’amélioration. L’outil développé aura l’avantage d’être facilement adaptable à de différentes tailles d’entreprises industrielles.

Les biocapteurs basés sur la résonance plasmonique de surface (SPR) sont utilisés couramment pour l’étude des interactions entre biomolécules. Les tests SPR consistent à fixer une molécule, le ligand,  à la surface d’un biocapteur et à suivre le changement d’indice de réfraction quand le partenaire biologique, l’analyte, est injecté en flux continu sur cette surface. Le changement d’indice de réfraction permet de détecter les interactions ligand/analytes sur la surface du biocapteur. Les utilisateur de la SPR procèdent à plusieurs cycles (5-10) d’injections d’analyte à différentes concentrations, à différents temps d’association et de dissociation. L’analyse des données par un modèle mathématique permet l’identification des paramètres cinétiques avec une confiance convenable. Cependant, il a été démontré que 2 injections correctement choisies permettent l’identification des paramètres avec une confiance adéquate. Pour sélectionner ces injections notre laboratoire a développé un algorithme basé sur l’optimisation sous contraintes et le design expérimental. Ce dernier réduit considérablement le temps d’expérience et la consommation de matériel tout en gardant une confiance satisfaisante. Cet algorithme a été consolidé avec un nouveau mode expérimental qui consiste en l’injection simultanée de deux analytes. L’adaptation de l’algorithme d’optimisation et son application à ce mode opératoire, permet une réduction drastique du temps d’expérience.

La malnutrition protéique (PM) associé au traitement antibiotique entraine une altération morphologique et fonctionnelle de la muqueuse intestinale et sur la fonction immunitaire intestinale. L’apport de probiotiques oligosaccharide (POS) restaure la morphologie et la fonction de l'intestin. Le but de cette étude est de vérifié l'effet du POS sur la restructuration intestinale et la régulation des lymphocytes intra épithéliaux (LIE) induite par la PM associée au métronidazole (MTZ).

40 jeunes rats sont répartis au hasard en 04 groupes. Groupe 1 témoins alimenté avec un régime standard, groupe 2 malnutris (Mal) alimenté avec du maïs pauvre en acides aminé, la moitié du groupe malnutri sont réalimentés avec un régime enrichi en POSavec (MTZ), l’autre moitiésont réalimenté avec un régime enrichi en POS sansMTZ.Après étude histologique, nous avons noté une diminution de la hauteur des villosités intestinales et une augmentation des LIE dans le groupe malnutris et Mal/(MTZ). En phase de réalimentation, nous avons noté une amélioration de la hauteur des villosités intestinale et une réduction du nombre de LIE dans le groupe réalimenté avec le  POS par rapport au groupe malnutris et Mal/(MTZ). Le POS exerce un effet fonctionnel positif sur l'intégrité de la barrière muqueuse et l'amélioration des défenses anti inflammatoires non spécifiques. Il pourrait jouer un rôle d’adjuvant nutritionnel dans la prévention et/ou le traitement contre certaines maladies intestinales.

La numérisation 3D permet actuellement d’obtenir des informations métrologiques très précises en ce qui concerne la surface numérisée. Ce type d’information permet d’effectuer un contrôle dimensionnel et de détecter des défauts de surface. Cependant, ce type de système ne permet pas la détection de défauts cachés (dans ou derrière la matière). Ce type d’information utilise des approches de contrôle non destructif basées sur les ultrasons ou l’imagerie infrarouge.

Dans ce travail nous présentons un nouveau système permettant de combiner ces deux types d’analyses (Contrôle dimensionnel (CD) et Contrôle non destructif (CND)). La fusion des images 3D et infrarouges sera utilisée afin de permettre une modélisation hybride pour une inspection dimensionnelle et de défauts cachés. Une nouvelle approche est proposée, elle utilise la diffusion thermique de la pièce projetée sur un modèle 3D et permet de visualiser des défauts de structure non apparents dans un espace tridimensionnel.

Grâce à leur efficacité énergétique et leur flexibilité, les turbines à gaz contribueront à la transition vers une production d’énergie décarbonée et complémenteront les énergies renouvelables. Dans le but de réduire leurs émissions polluantes, notamment les oxydes d’azote, certaines turbines à gaz utilisent un pré-mélangeur permettant le mélange du carburant et de l’air en amont de la chambre de combustion. Aux conditions d’opération de la turbine à gaz, le mélange avec certains combustibles alternatifs peut s’autoallumer et une flamme peut se stabiliser dans le pré-mélangeur et ainsi l'endommager. Dans ce cadre-là, la simulation numérique de combustion en écoulement turbulent, et en particulier la simulation numérique directe (SND), permet d'obtenir précisément des détails à petites échelles sur l'interaction entre la turbulence et la combustion qui ne peuvent pas être mesurés expérimentalement. Des SND existent dans des configurations simples pour étudier les aspects fondamentaux de ces interactions, mais aucune ne concerne des configurations complexes et représentatives d’un pré-mélangeur. Ainsi, des SND de l'autoallumage dans un tel système sont présentées. Les résultats montrent que l'auto-allumage est retardé par la turbulence, mais lorsque les flammes se forment, la turbulence facilite leur stabilisation. Des flammes prémélangées et des flammes non prémélangées sont observées simultanément et leur mode de propagation, par auto-allumage ou diffusion, est analysé.

La dynamique des engins spatiaux autour des petits corps, tels les astéroïdes et les comètes est un sujet qui repousse les barrières de l’exploration spatiale. Les connaissances actuelles sur le sujet ont permis les missions NEAR Shoemaker, Hayabusa I, Hayabusa II et Dawn. Les astéroïdes binaires formant environ 16% des astéroïdes proches de la Terre, il est fort possible que de futures missions soient dirigées vers l’un d’eux. L’environnement gravitationnel d’un astéroïde diffère grandement de celui d’une planète à cause de sa forme irrégulière et de sa petite taille. Ce qui est considéré comme simple perturbation ou négligeable autour d’une planète comme la Terre devient alors partie intégrale du modèle gravitationnel. Une de ces perturbations est le couplage de la dynamique de l’attitude et de la dynamique orbitale de l’engin spatial. L’importance de ce couplage sur le comportement de l’engin spatial dépend du ratio entre sa grosseur et le rayon d’orbite, ce qui augmente son importance près de petits corps comme les astéroïdes. L’investigation qui est présentée ici porte sur l’effet de ce couplage dans le développement de la dynamique orbitale des missions autour d’astéroïdes binaires.

Le développement durable représente un cadre de travail à la fois pour encourager l’émergence et l’application de technologies relatives aux défis de cette vision de durabilité et pour inciter la mise en œuvre de divers ajustements nécessaires à cette perspective de développement, y compris les sociaux. L’élaboration des technologies et la création des rapports entre les intervenants, à l’égard des possibilités qui s’offrent à eux pour l’adoption de celles-ci, sont autant d’éléments constitutifs de cette complexité. Des appels à stimuler les réponses technologiques et à mobiliser les acteurs révèlent des enregistrements récents dans ce cadre de référence. Les résultats de cette communication font partie d’une recherche motivée par une quête de savoir sur les particularités des efforts de soutient déployés au Canada qui sont annoncés comme des initiatives essentielles pour les parcours vers les nouvelles trajectoires. Nous voyons de quelle manière des engagements au niveau national visent la configuration de dynamiques technologiques et sociales qui semblent suivre une approche potentiellement systémique. En ce sens, ce travail apporte une contribution d’un point de vue empirique à une meilleure compréhension de la mise en place et l’opération de programmes agissant comme des instruments de politique de développement durable ainsi qu’à mieux discerner des interactions entre technologies, agents sociaux et préoccupations environnementales.

L'échographie est une technique d'imagerie médicale qui, parce qu'elle est non invasive, portative et abordable, est de plus en plus utilisée. Cette communication porte sur l'échographie 3D main libre, qui permet d'acquérir des données 3D par le balayage manuel d'un organe à l'aide d'une sonde 2D conventionnelle.

La reconstruction 3D d'une séquence d'échographie main libre requiert la connaissance des positions et orientations des images 2D. Ces données sont obtenues via un capteur de position attaché à la sonde. Ce projet vise à valider l'utilisation, encore rare, d'un capteur optique entièrement passif pour l'échographie 3D main libre. Le capteur choisi est abordable et précis tout en étant peu encombrant. À l'aide d'une caméra stéréo, ce capteur mesure la position et l'orientation d'un marqueur fixé sur la sonde.

Pour permettre la reconstruction 3D, un calibrage du système est réalisé avec des algorithmes puisés dans la littérature. Ce calibrage vise à synchroniser les deux sources de données (calibrage temporel) et à estimer la géométrie liant le marqueur au repère de la sonde (calibrage spatial). La reproductibilité du calibrage temporel, évaluée sur des données synthétiques et réelles, est satisfaisante. Des essais préliminaires sur des données synthétiques donnent des résultats encourageants pour le calibrage spatial, suggérant que le capteur optique passif est une technologie prometteuse pour l'échographie 3D main libre.

Les feux de forêt représentent un risque majeur pour de nombreux pays dans le monde. Il existe dans la recherche et dans la lutte contre les feux de forêt un besoin de métrologie pour estimer les caractéristiques géométriques de feux de végétation en propagation. Dans le cadre de cette étude, nous avons développé un dispositif de stéréovision composé de deux caméras JAI AD080GE rigidement fixées avec une distance inter-caméra de 1 m. Ces caméras produisent à partir du même faisceau de lumière deux images : l’une dans le visible et l’autre dans le proche infrarouge. Dans un premier temps, une étude a été menée afin de déterminer si l’utilisation du proche infrarouge permettait de résoudre la problématique du masquage des zones de feu par les fumées qui limite le traitement des images dans le domaine uniquement visible. Une procédure a ensuite été développée permettant l’estimation de caractéristiques géométriques d’un feu en propagation sur une surface de 5 m sur 10 m. Les caractéristiques estimées sont la position, la vitesse, la surface, la hauteur et l’inclinaison du front de feu. L’obtention de ces données nécessite des informations tridimensionnelles qui seront calculées à l’aide du système de stéréovision.

L’assemblage avec gabarit est un processus coûteux surtout dans le contexte de pièces produites en petite série ou de pièces à large volume. L’avancée des outils de mesure 3D sans contact permet d’obtenir des informations sur la position et l’orientation des pièces en temps quasi réel, dans l’environnement de production. L’utilisation de ces données pour automatiser des tâches d’assemblage précis permet d’accroître la flexibilité des chaînes de production et de réduire les délais. On parle donc d’assemblage assisté par métrologie 3D.  

Les capacités en matière de précision et de répétabilité (de position et d’orientation) de ces types d’assemblages robotisés ne sont pas bien maîtrisées. Il est donc essentiel de les étudier et estimer pour permettre leur déploiement dans l’industrie. Les chaînes d’incertitudes complexes de ces systèmes ne permettent pas leur analyse par les méthodes traditionnelles de propagation d’incertitudes.  

Cette étude présente le développement d’un banc de tests utilisant la technologie iGPS (Indoor Global Positioning System) comme instrument de mesure externe, pour positionner et orienter une pièce manipulée par un robot industriel, sans faire recours à un gabarit. Les résultats expérimentaux présentés permettent de quantifier l’incertitude de positions et d’orientation en précision et répétabilité du procédé robotisé d’assemblage.   

La diversité des équipements miniers complexifie la prise de décision sur les volets de maintenance et de gestion de flotte. Aujourd’hui, une problématique importante pour la gestion de la flotte dans le domaine minier est de déterminer, pour un risque donné, si un équipement mobile en activité et nécessairement usé peut encore répondre aux exigences en termes de fiabilité attendue et de taux de disponibilité comme établi par la production. Le projet présente une méthodologie qui permet de déterminer le temps optimal pour remplacer un équipement. En effet, un équipement remplacé trop tard pour des raisons d’amortissement financier peut engendrer des pertes de production considérables et des coûts de maintenance élevés. Au contraire, on risque d’obtenir un temps d’indisponibilité élevé si un équipement est souvent en arrêts pour de la maintenance.

Le but de ce projet de recherche est de proposer des outils d’aide à la décision aux gestionnaires, pour une flotte d’équipement ou d’un équipement minier spécifique. Pour développer ce type d’outil, nous explorons les données provenant de la maintenance et des opérations minières. Plus spécifiquement, les données de la maintenance de l’équipement combinées aux coûts d’indisponibilité permettent de quantifier un modèle probabiliste de fiabilité de l’équipement et les coûts qui y sont attachés. Les données des opérations minières récoltées permettront de compléter l'outil de la prise de décision avec les prévisions de la production.

Les transferts aériens interhospitaliers d’urgence sont des opérations critiques qui permettent à de nombreux patients en régions éloignées de recevoir des soins spécialisés dans de grands centres, le tout entouré d'une équipe médicale adaptée à leur condition et à leur niveau d'urgence. Cette recherche vise à proposer des recommandations concrètes à l'aide d'un outil de simulation afin de mesurer l'impact de différents types d'avions et de pratiques sur le niveau de service offert aux patients.

La simulation à évènements discrets est un outil adapté à cette problématique, puisqu’il n’est évidemment pas possible de faire de tests avec de vrais avions, et qu’elle permet de prendre en considération la variabilité présente dans ce type de transfert. Elle met également en lumière les arbitrages clés dans le fonctionnement stratégique et opérationnel d'un service d'évacuation aéromédicale, tels que la vitesse, la capacité et l’accessibilité des appareils.

La collaboration étroite avec le ministère de la Santé et des Services sociaux du Québec permet de bâtir le modèle sur des données réelles et d’offrir des recommandations spécifiques au territoire et à la demande québécoise. La méthodologie pourrait quant à elle être reprise pour différentes régions autour du globe ou pour d'autres types d’évacuations aériennes.  

Au Mexique, 1.5 millions d’enfants souffrent de malnutrition étant les protéines les macronutriments les moins accessibles pour la consommation. Dans les temps préhispanique, les aztèques utilisés la cyanobactérie Arthrospira platensis recueilli du lac de Texcoco, comme une source de protéines, grâce au contenu de ce nutriment (60-70% base sèche).

Dans cette étude, une souche d’A. platensis native du lagon de Sayula, Jalisco, a été isolée afin d’évaluer deux systèmes de culture de type air-lift, avec (0.48 Lmin-1 avec un flux de photons de 97.2 µmol m-2s-1) et sans recirculation, et de mesurer l’effet sur la croissance de ces cyanobactéries. Les conditions d’opération des deux systèmes étaient une photopériode de 16h lumière/8h obscurité et mise à l'échelle de 2.5 fois aux 3 jours, jusqu’atteindre un volume de 3L, dans un milieu Zarrouk. Les propriétés thermiques des micro-algues séchées par de différentes méthodes, seront évaluées avec un calorimètre différentiel-DSC. Les algues seront introduites dans de différents matrix alimentaires pour évaluer son acceptation.

Le système de culture avec recirculation a atteint une production de biomasse de 1.59 gL-1 dans 8 jours, contrairement à celui sans recirculation, lequel a atteint  0.76 gL-1, dans la même période.

L’évaluation des différents systèmes de culture et de séchage de micro-algues ainsi comme de son adéquation au matrix alimentaires, nous donneront alternatives pour aider à combattre la malnutrition au Mexique.

A présent, l'aviation civile représente 20% des émissions mondiales de CO2. Dès lors, le transport aérien est en passe de devenir l'un des principaux responsables du réchauffement. Le recours aux biofuels ou bio-kérosène comme carburants alternatifs utilisés en lieu et place du kérosène(l'essence d'avion). Selon l'Organisation Internationale de  l'Aviation Civile(OACI), plus de 1700 vols commerciaux ont permis d'effectuer de nombreux trajets grâce au bio-kérosène, à l'initiative d'une vingtaine des compagnies aériennes. Et donc, la conformité du bio-kérosène aux exigences aéronautiques a ainsi été démontrée. Ainsi, pour faire face aux défis climatiques, le recours aux biofuels est l'une des solutions extrêmement intéressant dans la réduction des émissions de gaz à effet de serre. C'est le résumé de notre proposition de communication que nous soumettons à l'appréciation du comité scientifique de l'Association Francophone pour le Savoir en vue de son approbation.

Mots Clés: Contribution, transport aérien, réduction, émissions de gaz à effet de serre, utilisation, biofuels

Les nouveaux matériaux polymères sont de plus en plus utilisés dans l’industrie comme éléments porteurs. Peu coûteux à produire, ils tendent à remplacer les matériaux comme l’acier lors de la fabrication de divers objets, comme les armes à feu ou certaines pièces de véhicules automobiles. À des fins de sécurité, des inscriptions, ou numéros de série, sont marquées dans le matériau. Cela induit des déformations mécaniques dans la structure du composé autour des inscriptions. Parfois, même si les numéros ne sont plus visibles, les déformations induites lors du processus de marquage restent présentes. Si des techniques expérimentales permettent la révélation de numéros de série oblitérés dans les métaux, elles ne sont pas  directement transférables aux polymères. Nos travaux visent à développer une méthode de révélation des numéros de série oblitérés dans les polymères. Notre approche consiste à démontrer qu’il est possible de monitorer les contraintes induites dans le matériau lors du marquage à l’aide de techniques d’imagerie spectrales telles que la spectroscopie Raman ou la spectroscopie infrarouge à transformée de Fourier (FTIR). Ces méthodes sont sensibles aux énergies de vibration des liaisons chimiques et donc à l’observation des déformations dans les matériaux, ce qui permettrait de retracer des marques oblitérées dans un support polymère, un processus qui trouverait des applications directes dans le domaine de la criminalistique.

Depuis le 1er janvier 2009, les organisations municipales sont dans l’obligation d’imposer aux exploitants de carrières et de sablières une taxe sur l'extraction de matériaux. Les exploitants doivent fournir à la municipalité des rapports indiquant les quantités extraites sur chaque site. Les organisations municipales doivent, de leur côté, se doter d'un mécanisme de contrôle et de validation des informations transmises par les exploitants. Dans le cadre d'un projet PART, le CGQ, en collaboration avec deux autres CCTT et une entreprise privée, a développé un système d'évaluation volumétrique par corrélation tridimensionnel à partir d'images aériennes. Le procédé comprend l'adaptation et la configuration d'un système de caméra, les méthodologies d'acquisition des images et les relevés terrains et la validation des résultats par post-traitement tridimensionnel. Les résultats obtenus par cette méthode ont été comparés à des relevés conventionnels sur le terrain avec des appareils de haute précision (RTK et Trimble VX) et il s'est avéré que le procédé mis en place par le CGQ permet d'estimer un volume extrait avec une marge extrêmement faible. L'avantage de ce procédé est donc que pour un résultat très proche de ceux obtenus par les méthodes conventionnelles, le coût et le temps d'acquisition de la donnée ainsi le temps de traitement s'en trouve considérablement réduit.

Le fonctionnement des organismes vivants est encodé, en partie, dans leurs génomes. Depuis quelques années, des instruments de laboratoire appelés «séquenceurs d'ADN à haut débit» permettent de décoder l'ADN à une vitesse fulgurante. Ceux-ci fonctionnent en lisant beaucoup de molécules en parallèle. Ces avancées ont ouvert la porte à l'étude du microbiome -- l'ensemble des organismes présents dans une niche écologique. Pour ce faire, le «méta-génome» est décodé. Au même moment, les super ordinateurs sont de plus en plus accessibles aux universités, gouvernements, et compagnies. Le volume de données générées par ces séquenceurs nécessite des super ordinateurs qui sont parallèles. Il y a un manque de logiciels d'analyse en génomique qui sont autant parallèles que les séquenceurs d'ADN ou que les super ordinateurs. Nous avons développé le logiciel Ray, qui est massivement parallèle. Celui-ci fonctionne en utilisant le passage de messages entre des ordinateurs distribués. Il est donc désormais possible d'analyser les méta-génomes en utilisant notre logiciel. Ray peut faire l'assemblage de novo -- qui correspond à reconstruire les méta-genomes à partir des millions de segments d'ADN lus par les séquenceurs. Ray peut aussi détecter les formes de vie présentes ainsi que leurs fonctions.

Référence: Boisvert et al. (2012) Genome Biology, manuscrit accepté.


L’incidence annuelle des lésions traumatiques du rachis cervical, causées par les accidents de la circulation, est de 4 à 17 / 100 000. Ces lésions sont la principale cause de paralysie chez les victimes, mais le manque de données expérimentales sur les mouvements intervertébraux lors d'un traumatisme limite la compréhension des mécanismes lésionnels. Cependant, instrumenter un rachis cadavérique avec des marqueurs cutanés ou des capteurs inertiels pour évaluer sa cinématique biaise celle-ci. Sans instrumentation du rachis, filmer la cinématique par ciné-radiographie n’offre qu’un suivi 2D des mouvements intervertébraux, rendant ambiguë l’évaluation des mouvements hors plan. Cette étude présente une méthode d’estimation 3D des mouvements intervertébraux. Elle consiste en un recalage 2D/3D entre la séquence d’images ciné-radiographiques (2D) et un modèle volumétrique du rachis utilisé pour créer un jumeau numérique (3D). L’estimation de la position des vertèbres est réalisée en minimisant l’erreur quadratique entre les images (réelle et jumeau numérique), au moyen de la fonction objectif adaptative de la matrice de covariance. Les résultats préliminaires obtenus ont une erreur moyenne en rotation hors plan de 1 degré. À terme, cette méthode permettra de caractériser in vitro les mouvements complexes des vertèbres lors de traumatismes, permettant de mieux comprendre les dommages mécaniques subis par les vertèbres dans des cas réels et d'améliorer la prise en charge des victimes.

L'imagerie ultrasonore est la méthode d’imagerie la plus fréquemment utilisée en clinique grâce à son faible coût, sa grande profondeur de pénétration et sa capacité d’imagerie en temps réel sans ionisation. La possibilité d’obtenir des images en 3D pourrait la rendre encore plus performante et reproductible. Toutefois, la technologie actuelle pour obtenir de telles images est complexe et surtout coûteuse. Pour ce projet, plutôt que d’utiliser des milliers d’éléments comme pour une sonde ultrasonore conventionnelle, nous visons à obtenir le même résultat avec un seul élément. La particularité de ce dernier : un quartz y est apposé pour transformer le signal reçu en un signal en apparence complètement aléatoire. Pour une même position, le signal reçu est toujours le même, mais pour une position différente, un signal complètement différent est obtenu. En créant un dictionnaire de signaux correspondant à toutes les positions possibles, une image peut être formée en temps réel en corrélant le dictionnaire aux nouveaux signaux entrants. Grâce à cette méthode, il est possible de conserver une bonne qualité d’image tout en réduisant de 10 à 100 fois le nombre d’éléments utilisés, réduisant de façon équivalente le coût de la sonde, mais également la quantité de données à sauvegarder, transmettre et analyser. Une telle méthode ouvrirait donc la voie à des applications novatrices telles que de l’imagerie ultrasonore sans fil qui pourrait tenir dans la poche d’un médecin.