Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

La technologie d’électrodialyse avec membrane de filtration (EDMF) a été appliquée avec succès à la séparation de peptides bioactifs provenant de diverses sources naturelles. Parmi les paramètres qui influent ce procédé, on peut mentionner le pH, la force de champ électrique, le matériau de membrane, la taille des pores ainsi que la surface d’échange. Dans la présente étude, l’impact de la configuration membranaire d’ÉDMF sur les paramètres électrodialytiques a été étudié pendant un traitement de 6 heures. Il ressort de cette étude, que la configuration 1 a conduit à un taux de migration de peptides de 5.20 ± 0.10 g/(h.m2), supérieur à celui obtenu avec la configuration 2 (4.41 ± 0.20 g/(h.m2).  Il apparaît cependant que dans la configuration 1, le champ électrique local appliqué dans le compartiment d’hydrolysat ait diminué de façon linéaire durant le traitement d’ÉDMF limitant ainsi la migration des peptides après deux heures. Les analyses d’acides aminés démontrent que seuls les acides aminés anioniques principalement Glu, Tau, Met et Phe ont été concentrés dans les compartiments de récupération de la configuration 1 alors que ce sont les acides aminés cationiques tels que l’Arg et la Lys qui ont été principalement concentrés dans le compartiment de récupération peptidique de la configuration 2.

Les biocapteurs basés sur la résonance plasmonique de surface (SPR) sont utilisés couramment pour l’étude des interactions entre biomolécules. Les tests SPR consistent à fixer une molécule, le ligand,  à la surface d’un biocapteur et à suivre le changement d’indice de réfraction quand le partenaire biologique, l’analyte, est injecté en flux continu sur cette surface. Le changement d’indice de réfraction permet de détecter les interactions ligand/analytes sur la surface du biocapteur. Les utilisateur de la SPR procèdent à plusieurs cycles (5-10) d’injections d’analyte à différentes concentrations, à différents temps d’association et de dissociation. L’analyse des données par un modèle mathématique permet l’identification des paramètres cinétiques avec une confiance convenable. Cependant, il a été démontré que 2 injections correctement choisies permettent l’identification des paramètres avec une confiance adéquate. Pour sélectionner ces injections notre laboratoire a développé un algorithme basé sur l’optimisation sous contraintes et le design expérimental. Ce dernier réduit considérablement le temps d’expérience et la consommation de matériel tout en gardant une confiance satisfaisante. Cet algorithme a été consolidé avec un nouveau mode expérimental qui consiste en l’injection simultanée de deux analytes. L’adaptation de l’algorithme d’optimisation et son application à ce mode opératoire, permet une réduction drastique du temps d’expérience.

En milieu urbain, le trafic automobile représente une des principales sources de polluants atmosphériques. Afin d’améliorer l’efficacité des plans de lutte contre la pollution atmosphérique, il apparaît nécessaire d’étudier la variabilité des émissions automobiles en détails, c’est-à-dire à l’échelle du véhicule.

Cette communication explore les analyses qui sont rendues possibles par l’accessibilité grandissante aux données télématiques. Elle porte en particulier sur l’analyse de données anonymisées prélevées pendant un an sur près de 16 000 trajets effectués par une flotte de véhicules particuliers à Sheffield, au Royaume-Uni.

Les résultats montrent que l’heure de la journée et le type de journée (jour normal de semaine, de fin de semaine, ou de vacances) influent sur les émissions automobiles jusqu’à 30% et 57% respectivement. Il apparaît également que de mauvaises conditions météorologiques induisent des émissions jusqu’à 27% plus faibles. Par ailleurs, la conduite à la lumière du jour correspond à des émissions 9% plus faibles que la conduite de nuit.

L’analyse de données télématiques anonymisées nous confronte à des défis méthodologiques nombreux et importants, mais nous offre des perspectives nouvelles et prometteuses face à des problèmes jusqu’ici inextricables. Ainsi, les résultats révèlent certaines sources des variations des émissions automobiles qu’il apparaît primordial de considérer dans les modèles de prévision de la qualité de l’air.

L’assemblage avec gabarit est un processus coûteux surtout dans le contexte de pièces produites en petite série ou de pièces à large volume. L’avancée des outils de mesure 3D sans contact permet d’obtenir des informations sur la position et l’orientation des pièces en temps quasi réel, dans l’environnement de production. L’utilisation de ces données pour automatiser des tâches d’assemblage précis permet d’accroître la flexibilité des chaînes de production et de réduire les délais. On parle donc d’assemblage assisté par métrologie 3D.  

Les capacités en matière de précision et de répétabilité (de position et d’orientation) de ces types d’assemblages robotisés ne sont pas bien maîtrisées. Il est donc essentiel de les étudier et estimer pour permettre leur déploiement dans l’industrie. Les chaînes d’incertitudes complexes de ces systèmes ne permettent pas leur analyse par les méthodes traditionnelles de propagation d’incertitudes.  

Cette étude présente le développement d’un banc de tests utilisant la technologie iGPS (Indoor Global Positioning System) comme instrument de mesure externe, pour positionner et orienter une pièce manipulée par un robot industriel, sans faire recours à un gabarit. Les résultats expérimentaux présentés permettent de quantifier l’incertitude de positions et d’orientation en précision et répétabilité du procédé robotisé d’assemblage.   

Grâce à leur efficacité énergétique et leur flexibilité, les turbines à gaz contribueront à la transition vers une production d’énergie décarbonée et complémenteront les énergies renouvelables. Dans le but de réduire leurs émissions polluantes, notamment les oxydes d’azote, certaines turbines à gaz utilisent un pré-mélangeur permettant le mélange du carburant et de l’air en amont de la chambre de combustion. Aux conditions d’opération de la turbine à gaz, le mélange avec certains combustibles alternatifs peut s’autoallumer et une flamme peut se stabiliser dans le pré-mélangeur et ainsi l'endommager. Dans ce cadre-là, la simulation numérique de combustion en écoulement turbulent, et en particulier la simulation numérique directe (SND), permet d'obtenir précisément des détails à petites échelles sur l'interaction entre la turbulence et la combustion qui ne peuvent pas être mesurés expérimentalement. Des SND existent dans des configurations simples pour étudier les aspects fondamentaux de ces interactions, mais aucune ne concerne des configurations complexes et représentatives d’un pré-mélangeur. Ainsi, des SND de l'autoallumage dans un tel système sont présentées. Les résultats montrent que l'auto-allumage est retardé par la turbulence, mais lorsque les flammes se forment, la turbulence facilite leur stabilisation. Des flammes prémélangées et des flammes non prémélangées sont observées simultanément et leur mode de propagation, par auto-allumage ou diffusion, est analysé.

Le but de ce projet était de quantifier l'acide beta-hydroxybutyrique (BHB) dans le sang ante/post-mortem et le liquide oculaire. Une extraction par précipitation des protéines suivie d'une dérivation et analyse par GC-MS est utilisée. En tant que biomarqueur pour l’acidocétose diabétique ou alcoolique, les niveaux de BHB, en conjonction avec d'autres paramètres biochimiques, permettent aux toxicologues d'expliquer les circonstances d'un événement. Cette méthode a également été validée pour l'analyse qualitative du BHB dans des échantillons d'urine.

Le standard interne (25 uL de BHB-d4 à 400 ug/ml) est mélangé avec 50 uL d'échantillon. Les protéines sont précipitées par addition de 225 uL d'acétonitrile et vortexées immédiatement. Après centrifugation (7 minutes à 9600xg), 100 ul de surnageant est évaporé à sec sous azote, reconstitué dans 250 uL d'éthanol et de nouveau évaporé à sec pour éliminer toute trace d'eau qui interfère avec la dérivation. L'extrait final est reconstitué dans 70 uL d'acétate d'éthyle et dérivé par ajout de 70 uL de BSTFA avec 1% TMCS. Les échantillons sont analysés par GC-MS.

La méthode a été validée selon la norme ISO 17025 et les critères du SWG-TOX. L'étalonnage a été déterminé linéaire de 50 à 500 ug/mL. Le biais et la précision ont été évalués aux niveaux des CQ (100, 250 et 400 ug/ml). Le biais maximal observé est de 3,9% et la valeur maximale de la précision est de 1,3%. Le BHB est stable dans le sang à 4°C et -20°C pendant au moins un mois.

Ces dernières années ont vue croître l’utilisation de matériaux intelligents dans le but de faire des systèmes mécaniques autonomes et performants. Parmi ces matériaux, les fluides magnétorhéologiques  (MRF) on fait l’objet de plusieurs recherches quant à leur utilisation possible au court des dernières années, notamment dans le domaine des amortisseurs intelligents et de la transmission de puissance. Bien que leur utilisation par l’industrie comme amortisseurs variables soit relativement répandu, la mise en marché d’embrayages MRF compacts et performants tarde à voir le jour. Ce retard provient principalement de la faible capacité de transmission de couple des MRF tel qu’ils sont utilisé dans les conceptions conventionnelles.

Cette présentation se veut une introduction aux mécanismes internes qui créent l’effet magnétorhéologique, c’est-à-dire le passage d’un état fluide à semi-solide avec l’application d’un champ magnétique. Des solutions possibles pour rendre les embrayages MRF compétitifs par rapport aux embrayages conventionnels, tels que le recourt à des embrayages multi-disques et la compression de la couche de fluide seront également suggérées. Cet effet de compression qui peut résulter en une augmentation de 1500% de la capacité de couple sera présenté plus en détails et mis en liens avec les mécanismes internes expliqués précédemment. Ces mécanismes seront appuyés par une simulation numérique particulaire. 

L'échographie est une technique d'imagerie médicale qui, parce qu'elle est non invasive, portative et abordable, est de plus en plus utilisée. Cette communication porte sur l'échographie 3D main libre, qui permet d'acquérir des données 3D par le balayage manuel d'un organe à l'aide d'une sonde 2D conventionnelle.

La reconstruction 3D d'une séquence d'échographie main libre requiert la connaissance des positions et orientations des images 2D. Ces données sont obtenues via un capteur de position attaché à la sonde. Ce projet vise à valider l'utilisation, encore rare, d'un capteur optique entièrement passif pour l'échographie 3D main libre. Le capteur choisi est abordable et précis tout en étant peu encombrant. À l'aide d'une caméra stéréo, ce capteur mesure la position et l'orientation d'un marqueur fixé sur la sonde.

Pour permettre la reconstruction 3D, un calibrage du système est réalisé avec des algorithmes puisés dans la littérature. Ce calibrage vise à synchroniser les deux sources de données (calibrage temporel) et à estimer la géométrie liant le marqueur au repère de la sonde (calibrage spatial). La reproductibilité du calibrage temporel, évaluée sur des données synthétiques et réelles, est satisfaisante. Des essais préliminaires sur des données synthétiques donnent des résultats encourageants pour le calibrage spatial, suggérant que le capteur optique passif est une technologie prometteuse pour l'échographie 3D main libre.

Les microalgues possèdent un fort potentiel de valorisation dans plusieurs domaines, dont l’alimentation, les nutraceutiques et les biocarburants. Ce potentiel est toutefois sous-utilisé faute notamment de méthodes efficaces, économiques et propres pour récolter la biomasse microalgale à grande échelle. La microfiltration tangentielle (MT) est un procédé prometteur pour cette application, mais la plupart des études se sont limitées à l’utilisation de membranes organiques testées à échelle de laboratoire. La présente étude visait à évaluer l’intérêt de la MT sur membrane céramique hydrophile à vitesse tangentielle relativement élevée (5 m/s) pour la récolte des microalgues de petite taille à l’échelle pilote. Elle a été réalisée avec une membrane en alumine et trois espèces d’algues (Chlorella vulgaris, Tisochrysis lutea et Porphyridium cruentum) afin d’évaluer l’influence du type de biomasse sur la performance de filtration. La meilleure performance a été obtenue avec la chlorelle. Les flux de perméation moyens obtenus avec cette algue allaient de 441 à 73 L/m2/h selon la concentration initiale de biomasse (0,25 à 1 g/L). Le dosage des macromolécules et la détermination des résistances spécifiques contribuant à la résistance hydraulique de la membrane ont permis d’inférer des mécanismes de colmatage distincts selon la biomasse considérée. Les résultats indiquent que la MT sur membrane céramique est une option intéressante pour récolter certaines microalgues dont la chlorelle.

La diversité des équipements miniers complexifie la prise de décision sur les volets de maintenance et de gestion de flotte. Aujourd’hui, une problématique importante pour la gestion de la flotte dans le domaine minier est de déterminer, pour un risque donné, si un équipement mobile en activité et nécessairement usé peut encore répondre aux exigences en termes de fiabilité attendue et de taux de disponibilité comme établi par la production. Le projet présente une méthodologie qui permet de déterminer le temps optimal pour remplacer un équipement. En effet, un équipement remplacé trop tard pour des raisons d’amortissement financier peut engendrer des pertes de production considérables et des coûts de maintenance élevés. Au contraire, on risque d’obtenir un temps d’indisponibilité élevé si un équipement est souvent en arrêts pour de la maintenance.

Le but de ce projet de recherche est de proposer des outils d’aide à la décision aux gestionnaires, pour une flotte d’équipement ou d’un équipement minier spécifique. Pour développer ce type d’outil, nous explorons les données provenant de la maintenance et des opérations minières. Plus spécifiquement, les données de la maintenance de l’équipement combinées aux coûts d’indisponibilité permettent de quantifier un modèle probabiliste de fiabilité de l’équipement et les coûts qui y sont attachés. Les données des opérations minières récoltées permettront de compléter l'outil de la prise de décision avec les prévisions de la production.

Les transferts aériens interhospitaliers d’urgence sont des opérations critiques qui permettent à de nombreux patients en régions éloignées de recevoir des soins spécialisés dans de grands centres, le tout entouré d'une équipe médicale adaptée à leur condition et à leur niveau d'urgence. Cette recherche vise à proposer des recommandations concrètes à l'aide d'un outil de simulation afin de mesurer l'impact de différents types d'avions et de pratiques sur le niveau de service offert aux patients.

La simulation à évènements discrets est un outil adapté à cette problématique, puisqu’il n’est évidemment pas possible de faire de tests avec de vrais avions, et qu’elle permet de prendre en considération la variabilité présente dans ce type de transfert. Elle met également en lumière les arbitrages clés dans le fonctionnement stratégique et opérationnel d'un service d'évacuation aéromédicale, tels que la vitesse, la capacité et l’accessibilité des appareils.

La collaboration étroite avec le ministère de la Santé et des Services sociaux du Québec permet de bâtir le modèle sur des données réelles et d’offrir des recommandations spécifiques au territoire et à la demande québécoise. La méthodologie pourrait quant à elle être reprise pour différentes régions autour du globe ou pour d'autres types d’évacuations aériennes.  

Dans cette étude, on traitera le développement d’un vortex sur un bout d’aile NACA0012. Des mesures expérimentales par fils chauds ainsi que par vélocimétrie laser seront effectuées. La problématique des vortex de bout d’ailes est majeure dans l’industrie aéronautique comme elle est la cause de trainée supplémentaire qui influe sur les performances en vol ainsi que la sécurité.

Pour cela, on construira un dispositif expérimental qui permettra d’étudier l’effet de cette dernière sur la génération et le développement du vortex. La variation du nombre de Reynolds est aussi un autre paramètre à considérer lors de cette étude.

La compagne d’essais sera réalisée sur deux régions du sillage, proche et lointaine. De la vélocimétrie par imagerie de particules à haute fréquence et tomographique seront réalisées respectivement pour les deux régions étudiées. 

A présent, l'aviation civile représente 20% des émissions mondiales de CO2. Dès lors, le transport aérien est en passe de devenir l'un des principaux responsables du réchauffement. Le recours aux biofuels ou bio-kérosène comme carburants alternatifs utilisés en lieu et place du kérosène(l'essence d'avion). Selon l'Organisation Internationale de  l'Aviation Civile(OACI), plus de 1700 vols commerciaux ont permis d'effectuer de nombreux trajets grâce au bio-kérosène, à l'initiative d'une vingtaine des compagnies aériennes. Et donc, la conformité du bio-kérosène aux exigences aéronautiques a ainsi été démontrée. Ainsi, pour faire face aux défis climatiques, le recours aux biofuels est l'une des solutions extrêmement intéressant dans la réduction des émissions de gaz à effet de serre. C'est le résumé de notre proposition de communication que nous soumettons à l'appréciation du comité scientifique de l'Association Francophone pour le Savoir en vue de son approbation.

Mots Clés: Contribution, transport aérien, réduction, émissions de gaz à effet de serre, utilisation, biofuels

L’inéluctable augmentation du nombre de cas de cancers encourage le développement de nouveaux traitements médicaux plus ciblés et plus efficaces. Le guidage magnétique de particules thérapeutiques est un domaine de recherche en pleine expansion. Notre approche s'appuie sur le scanner d'Imagerie par Résonance Magnétique pour déplacer des vecteurs thérapeutiques dans le corps humain. Cette technologie, dite de Navigation par Résonance Magnétique (NRM), pourrait transformer la façon dont certaines interventions endovasculaires oncologiques — comme la chimiothérapie — sont actuellement réalisées. Très récemment, nous avons montré la possibilité de déplacer une bille le long de quatre canaux consécutifs in vitro, ouvrant ainsi la voie à un ciblage plus en profondeur. Nous présentons maintenant les résultats obtenus avec un cathéter d'injection magnétique, capable de capturer et de détecter des billes en série, étape indispensable la navigation magnétique sur plusieurs bifurcations. Cette nouvelle technologie ouvre la voie à des expériences de NRM in-vivo le long de plusieurs vaisseaux sanguins consécutifs et permettra de cibler plus précisément les zones malades d'un organe. La NRM, qui a l’énorme avantage de s’appuyer sur un appareil déjà implanté dans la majorité des institutions médicales dans le monde, pourrait significativement améliorer la qualité de vie ainsi que les soins de personnes atteintes par le cancer.

L’informatique évolue rapidement. L'émergence des objets intelligents pose de nombreux défis pour les systèmes informatiques actuels devant interagir avec ces nouveaux objets. Dans le cadre de ma thèse, je m'attaque aux défis de la quantité d'information à traiter et de l'établissement des réseaux d'objets.

Mon approche consiste à proposer un nouveau mode de communication basé sur la distance entre les objets plutôt que sur leurs adresses IP actuelles. La distance de propagation du message est décidée par son émetteur. Il donne aussi un temps de vie au message afin qu'il puisse s'autodétruire lorsque son contenu devient obsolète, idéalement au moment où l'émetteur prévoit offrir une mise à jour du message. Ce protocole de communication est donc conçu pour que des objets intelligents puissent diffuser de l'information d'intérêt général autour d'eux. L'idée générale est que chaque objet n'ait en sa possession que l'information courante nécessaire à son travail. La communication basée sur une distance permet aussi de totalement effacer les notions de réseau et de routage de message.

Mon protocole, nommé BMP (Bounded Message Protocol) ne permet pas d'envoyer un message à un seul objet spécifiquement. Toutes les communications sont ouvertes et tout objet situé à l'intérieur du rayon y a accès. BMP est d'abord appliqué au contexte d'une intersection intelligente, dans le but d'offrir des fonctionnalités similaires à ce que les réseaux 5G et C-V2X promettent pour les années à venir.

Introduction : Touchant environ 4% de la population, l'anévrisme de l'aorte abdominale (AAA) est une dilatation localisée de l'aorte abdominale, souvent asymptomatique. En cas de rupture, la mortalité et la morbidité peuvent atteindre 80%, soit la 15e cause de mortalité aux USA. L'utilisation du couplage entre la mécanique des fluides et les données cliniques de suivi morphologique permettra une meilleure compréhension des mécanismes de croissance en jeu dans l’aorte et vise à définir des nouveaux critères pour l'aide à la planification interventionnelle personnalisée.
Méthodes : (i) extraction des AAAs de suivi (ii) Calcul de l’écoulement par volumes finis (validé par IRM) (iii) Extraction des métriques d'intérêt : cisaillement pariétal, topologie du transport dynamique (utilisation des Structures Lagrangiennes Cohérentes). Estimation des croissances locales de paroi entre 2 examens consécutifs, épaisseur de thrombus et activité métabolique.
Résultats : l'IRM a permis de valider la topologie de l'écoulement ainsi que le choix des conditions limites. Le transport, donnée complexe à visualiser et quantifier dans un écoulement instationnaire, est analysé au cours de la croissance de l'AAA de manière fortement automatisée.
Discussion : Si les relations entre croissance locale et écoulement sont établies dans les AAAs, les composantes de celui-ci ayant un rôle sont encore méconnus. Notre étude vise à les extraire et quantifier leur impact par des méthodes numériques innovantes.

Depuis le 1er janvier 2009, les organisations municipales sont dans l’obligation d’imposer aux exploitants de carrières et de sablières une taxe sur l'extraction de matériaux. Les exploitants doivent fournir à la municipalité des rapports indiquant les quantités extraites sur chaque site. Les organisations municipales doivent, de leur côté, se doter d'un mécanisme de contrôle et de validation des informations transmises par les exploitants. Dans le cadre d'un projet PART, le CGQ, en collaboration avec deux autres CCTT et une entreprise privée, a développé un système d'évaluation volumétrique par corrélation tridimensionnel à partir d'images aériennes. Le procédé comprend l'adaptation et la configuration d'un système de caméra, les méthodologies d'acquisition des images et les relevés terrains et la validation des résultats par post-traitement tridimensionnel. Les résultats obtenus par cette méthode ont été comparés à des relevés conventionnels sur le terrain avec des appareils de haute précision (RTK et Trimble VX) et il s'est avéré que le procédé mis en place par le CGQ permet d'estimer un volume extrait avec une marge extrêmement faible. L'avantage de ce procédé est donc que pour un résultat très proche de ceux obtenus par les méthodes conventionnelles, le coût et le temps d'acquisition de la donnée ainsi le temps de traitement s'en trouve considérablement réduit.

 

L’industrie laitière québécoise est en pleine mutation. Elle fait face à de nombreux défis, tant sur le plan économique qu’environnemental.  La mise en application de nouveaux accords de libre-échange et la crise du lait diafiltré fragilisent la structure économique du système et diminue sa performance environnementale. Or, compte-tenu de la contribution significative de l’industrie laitière aux changements climatiques, il faut s’attendre à un renforcement de la réglementation environnementale à l’échelle internationale. La pérennité de la filière québécoise dépendra donc de sa capacité à s’adapter à ces enjeux. Dans ce contexte, la mise en œuvre du principe d’éco-efficience, pour mesurer conjointement la performance économique et environnementale d’un système, pourrait permettre de faire émerger des solutions de compromis afin d’améliorer sa compétitivité. 

Nos travaux visent à développer un outil de mesure d’éco-efficience, basé sur l’approche cycle de vie, permettant de corréler la performance des transformateurs laitiers québécois en matière d’éco-efficience, à celle de leur chaîne de valeur et de leur filière. Notre approche est innovante dans le sens où elle propose une évaluation polysémique de la valeur afin de favoriser la création de valeur partagée entre producteurs, transformateurs et consommateurs. Dans une perspective plus générale, ce projet vise à participer au développement de solutions de mise en œuvre du développement durable dans l’industrie laitière.

L’incidence annuelle des lésions traumatiques du rachis cervical, causées par les accidents de la circulation, est de 4 à 17 / 100 000. Ces lésions sont la principale cause de paralysie chez les victimes, mais le manque de données expérimentales sur les mouvements intervertébraux lors d'un traumatisme limite la compréhension des mécanismes lésionnels. Cependant, instrumenter un rachis cadavérique avec des marqueurs cutanés ou des capteurs inertiels pour évaluer sa cinématique biaise celle-ci. Sans instrumentation du rachis, filmer la cinématique par ciné-radiographie n’offre qu’un suivi 2D des mouvements intervertébraux, rendant ambiguë l’évaluation des mouvements hors plan. Cette étude présente une méthode d’estimation 3D des mouvements intervertébraux. Elle consiste en un recalage 2D/3D entre la séquence d’images ciné-radiographiques (2D) et un modèle volumétrique du rachis utilisé pour créer un jumeau numérique (3D). L’estimation de la position des vertèbres est réalisée en minimisant l’erreur quadratique entre les images (réelle et jumeau numérique), au moyen de la fonction objectif adaptative de la matrice de covariance. Les résultats préliminaires obtenus ont une erreur moyenne en rotation hors plan de 1 degré. À terme, cette méthode permettra de caractériser in vitro les mouvements complexes des vertèbres lors de traumatismes, permettant de mieux comprendre les dommages mécaniques subis par les vertèbres dans des cas réels et d'améliorer la prise en charge des victimes.

L'imagerie ultrasonore est la méthode d’imagerie la plus fréquemment utilisée en clinique grâce à son faible coût, sa grande profondeur de pénétration et sa capacité d’imagerie en temps réel sans ionisation. La possibilité d’obtenir des images en 3D pourrait la rendre encore plus performante et reproductible. Toutefois, la technologie actuelle pour obtenir de telles images est complexe et surtout coûteuse. Pour ce projet, plutôt que d’utiliser des milliers d’éléments comme pour une sonde ultrasonore conventionnelle, nous visons à obtenir le même résultat avec un seul élément. La particularité de ce dernier : un quartz y est apposé pour transformer le signal reçu en un signal en apparence complètement aléatoire. Pour une même position, le signal reçu est toujours le même, mais pour une position différente, un signal complètement différent est obtenu. En créant un dictionnaire de signaux correspondant à toutes les positions possibles, une image peut être formée en temps réel en corrélant le dictionnaire aux nouveaux signaux entrants. Grâce à cette méthode, il est possible de conserver une bonne qualité d’image tout en réduisant de 10 à 100 fois le nombre d’éléments utilisés, réduisant de façon équivalente le coût de la sonde, mais également la quantité de données à sauvegarder, transmettre et analyser. Une telle méthode ouvrirait donc la voie à des applications novatrices telles que de l’imagerie ultrasonore sans fil qui pourrait tenir dans la poche d’un médecin.

La  capacité  à  reconnaître  les  intentions  sous-jacentes derrière  le  comportement  d'un  agent  observé  est  une aptitude fondamentale pour les agents intelligents dans plusieurs domaines. Le problème est le suivant: un agent observe   d'autres   agents   et   essaie  de   prédire   leurs intentions.   Dans   de   nombreuses   applications,   il   est impossible de déterminer toutes les actions que l'agent effectue. Il peut avoir certaines actions qui ne sont pas observées  ou  qui  le  sont  partiellement  ou  qui  sont bruitées. La capacité à gérer l'observabilité partielle est donc l'un des défis les plus importants dans la reconnaissance de plan. Ce problème a une très grande variété d’applications. Par exemple dans les jeux de stratégie en temps réel, connaitre les intentions de son adversaire permettra à une intelligence artificielle de contrer ses actions futures. En domotique, on voudrait une maison capable de comprendre et anticiper les désirs de ses habitants pour maximiser leur confort et les assister dans leurs activités quotidiennes. Dans le domaine de la sécurité informatique, un outil sophistiqué de détection des intrus devrait pouvoir observer les actions des usagers du réseau et déceler ceux qui ont des intentions malveillantes. Nous voulons résoudre ce problème sous observabilité partielle en adaptant les méthodes utilisées dans l'analyse probabiliste grammaticale.

Les technologies d’assistance sont de plus en plus utilisées pour améliorer le soutien 24/7 aux personnes sujettes aux troubles cognitifs. Cependant, dans un contexte de réadaptation, il faut s’assurer que l’assistance technologique est adaptée au profil cognitif de la personne assistée, afin de ne pas se retrouver dans une situation de sur-assistance ou de sous-assistance. Nous proposons un modèle d’assistance cognitive dans les maisons connectées, qui formalise la pratique clinique, où des interventions spécifiques de type guidage sont utilisées pour pallier aux troubles de l’attention, de la mémoire et du fonctionnement exécutif, entre autres. Notre modèle d’assistance est constituée d’une ontologie formelle et des règles de raisonnement qui décrivent les stratégies cognitives (métacognition, compensation, etc) et des interventions (rappels, checklists, etc) révélées efficaces en réhabilitation cognitive. Ces interventions pourront être déclenchées dans une maison connectée sous forme de messages audio, vidéo ou même lumineux en fonction du contexte également modélisé dans l’ontologie. Nous utilisons la théorie des actes de langage pour formaliser la force incitative des messages d’assistance, qui contribue à faire faire l’utilisateur en le poussant à accomplir au mieux ses activités par lui même. Le modèle cible est réutilisable par des équipes multidisciplinaires de thérapeutes et d'informaticiens pour créer des systèmes d'assistance cognitive dans des maisons connectées

La malnutrition protéique (PM) associé au traitement antibiotique entraine une altération morphologique et fonctionnelle de la muqueuse intestinale et sur la fonction immunitaire intestinale. L’apport de probiotiques oligosaccharide (POS) restaure la morphologie et la fonction de l'intestin. Le but de cette étude est de vérifié l'effet du POS sur la restructuration intestinale et la régulation des lymphocytes intra épithéliaux (LIE) induite par la PM associée au métronidazole (MTZ).

40 jeunes rats sont répartis au hasard en 04 groupes. Groupe 1 témoins alimenté avec un régime standard, groupe 2 malnutris (Mal) alimenté avec du maïs pauvre en acides aminé, la moitié du groupe malnutri sont réalimentés avec un régime enrichi en POSavec (MTZ), l’autre moitiésont réalimenté avec un régime enrichi en POS sansMTZ.Après étude histologique, nous avons noté une diminution de la hauteur des villosités intestinales et une augmentation des LIE dans le groupe malnutris et Mal/(MTZ). En phase de réalimentation, nous avons noté une amélioration de la hauteur des villosités intestinale et une réduction du nombre de LIE dans le groupe réalimenté avec le  POS par rapport au groupe malnutris et Mal/(MTZ). Le POS exerce un effet fonctionnel positif sur l'intégrité de la barrière muqueuse et l'amélioration des défenses anti inflammatoires non spécifiques. Il pourrait jouer un rôle d’adjuvant nutritionnel dans la prévention et/ou le traitement contre certaines maladies intestinales.

Riches en minéraux, polysaccharides, oligoéléments et fibres, les macroalgues du Québec sont encore sous-utilisées dans l’alimentation humaine et animale.

Deux variétés d’algues brunes du genre Fucus vesiculosus et Ascophyllum nodosum (récoltées à Saint-Fabien sur mer, Québec) ont été séchées par air chaud (AC) et lyophilisation (L). Le séchoir AC opérait avec flux transversal (0.5 m/s) ou parallèle (1.5 m/s) à 52oC. Le lyophilisateur avait une température de tablette de 20oC et 30 mTorr de vide. La cinétique de séchage a été déterminée durant la déshydratation. La composition globale, la teneur en composés phénoliques et minéraux, et le compte bactérien ont été évalués avant et après le séchage.

Les deux variétés d’algues ont été relativement faciles à sécher par AC, avec un temps de 150 et 65 min (parallèle) ou 140 et 50 min (transversal) pour Ascophyllum et Fucus, respectivement. Ascophyllum sèche plus lentement que Fucus notamment à cause de la présence de vésicules d'air et ce tant par AC que par L (25 h vs 13 h, respectivement). La lyophilisation aide à conserver la quasi-totalité des composés phénoliques initiaux (2 mg GAE/g sur une base sèche). En contrepartie, la température élevée de l’AC permettrait une diminution marquée des comptes bactériens initiaux.

L'étude approfondie du séchage de macroalgues du Québec contribuera à leur valorisation comme ingrédients fonctionnels concentrés et stables, ainsi qu'à ouvrir des voies de transformation encore inexplorées.

L'évaluation motrice est essentielle en réadaptation pour adapter et personnaliser les thérapies. La cinématique 3D permet la caractérisation des capacités motrices des membres supérieurs, offrant des données quantitatives précieuses pour bonifier les évaluations. Les systèmes de capture de mouvements actuels, nécessitant des marqueurs, sont complexes à mettre en place, coûteux et inadaptés pour les personnes tétraplégiques. L'objectif est de développer un système de capture de mouvement sans marqueur pour évaluer la récupération chez des personnes tétraplégiques.

Méthode
Environ une quinzaine de participants neurotypiques, et entre cinq et dix participants avec une tétraplégie sont recrutés. Nous utilisons deux caméras synchronisées pour capturer la tâche de boire à partir d’un verre. La détection de mouvement est faite avec un modèle DeepLabCut et une reconstruction 3D, préalablement entraînés sur les participants neurotypiques.

Résultats
Les participants présentent une variété d'atteintes motrices. À partir des données vidéos, les caractéristiques cinématiques spatiales et temporelles sont extraites. Chez les participants tétraplégiques, la vitesse des mouvements est réduite par rapport aux participants neurotypiques. L'analyse des paramètres cinématique est en cours. Des informations sur le modèle seront offertes.

Conclusion
La mise en place d’un système d’analyse de mouvement sans marqueurs permet de quantifier la récupération motrice durant la thérapie.