Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Les changements climatiques provoquent des phénomènes extrêmes de plus en plus fréquents, qui nécessitent un renforcement de notre résilience. Face à ce constat, l'Expédition 20 Parallèles a été organisée pour étudier l'impact des changements climatiques sur la viti-viniculture et examiner les stratégies d'adaptation développées par des vignerons au Maroc, en Espagne et en France. Le projet cherchait à inventorier les actions concrètes des viti-viniculteurs face aux changements climatiques et à en évaluer les répercussions sur les pratiques agricoles. Par ailleurs, l'expédition visait également à tester une méthode de traitement des sols, développée à Polytechnique Montréal, susceptible de limiter l'érosion et l'acidification des sols agricoles tout en stockant du carbone.

Conçue dans une perspective carboneutre, cette initiative a été réalisée essentiellement à vélo, avec un parcours de plus de 2 300 km reliant les régions viticoles historiques et de nouvelles exploitations créées dans le nord de la France à la faveur des changements climatiques!

En parcourant avec nous les latitudes les plus propices à la viticulture dans l'hémisphère nord, entre les 30e et 50e parallèles, vous en apprendrez plus sur les moyens mis en œuvre par les viticulteurs et les vignerons pour augmenter leur résilience face aux changements climatiques. Vous découvrirez également les défis de réalisation d’une expédition scientifique en vélo... et en famille où le mot résilience a pris tout son sens!

L’impact sur l'environnement de la production et de la gestion des batteries montre que le développement de technologies de recyclage, tels que les procédés hydrométallurgiques sont nécessaires. Des analyses préliminaires ont montré que les piles alcalines contiennent jusqu'à 78% (p/p) de « blackmass » (BM), qui est un mélange de matériaux broyés provenant de l'anode et de la cathode. La BM contient principalement Mn2O3, Mn3O4, MnO2, ZnO et KOH.

La première étape d’un procédé hydrométallurgique de recyclage de batteries est l'extraction des cations (K, Zn, Mn). Par une lixiviation neutre, on enlève la majorité du KOH. Après, presque tout le zinc (Zn) et un peu du manganèse (Mn) sont extraits lors d’une lixiviation acide. Finalement presque tout le Mn restant est récupéré lors d’une lixiviation acide-réductrice, grâce à l’effet d'un agent réducteur (H2O2). Ces deux dernières unités de lixiviation ont été réalisées sous 200 rpm et un ratio solide/liquide de 1/20. Trois acides, HNO3, H2SO4 et HCl, ont été testés à trois concentrations (1M, 2M et 4M). L'effet de la température sur l'extraction du Zn et du Mn a été analysé, fixant la température à 25, 40 et 60 °C. La concentration des métaux dans les phases liquide et solide a été déterminée par spectrométrie à plasma à couplage inductif. Les résultats préliminaires montrent que l’utilisation de H2SO4 2M à 25 °C représente la meilleure option coût-bénéfice pour extraire le Zn et le Mn.

Les sols de buttes de tir à l’arme légère sont très contaminés par du Pb,  Sb, Cu et Zn. Un procédé de lixiviation acide et saline a été appliqué, pour traiter la fraction fine des sols provenant de deux buttes de tir. D'après les résultats obtenus, la LC  en présence de H2SO4 et de NaCl s’est avérée très efficace pour l'élimination des métaux. Des essais ont été effectués à 25°C pour traiter 2 kg de sol, avec une densité de pulpe fixée à 10%. Le procédé de décontamination consiste en trois étapes de lixiviation (0,125 M de H2SO4 + 4 M NaCl, t=1 h) suivies d'un rinçage à l'eau. Des rendements d'élimination de 93%, 97%, 89% et 70% ont été obtenus pour le Cu, le Pb, le Sb et le Zn, respectivement pour le sol Batoche. Plus de 85% du Cu, 96% du Pb, 59% du Sb et 49% du Zn ont été enlevés du sol Normandie. Ces métaux (Cu, Pb, Sb et Zn) ont été concentrés dans les lixiviats. Le traitement des lixiviats par précipitation-coagulation à pH 9 a permis d’éliminer près de 99% du Cu, 99,9% du Pb, 95% du Sb et 99,9% du Zn. Ces résultats mettent en évidence que le processus de LC développé à l'échelle pilote peut être utilisé avec succès en mode contre-courant sans affecter les performances du processus pour éliminer les métaux présents dans les sols contaminés. Le coût du procédé de décontamination développé est de 267 US$ t-1, ce qui est compétitif par rapport aux modes de gestion actuels. Ces résultats encourageants favorisent l’application de ce processus à une échelle industrielle.

 

La radioactivité naturelle dans l’industrie pétrolière et gazière: La radioactivité advenant naturellement, désignée communément par l’acronyme NORM (Naturally Occurring Radioactive Materials) est omniprésente dans l’industrie extractive, comme le pétrole et le gaz.  Dans l’industrie pétrolière et gazière, les NORM se forment dans le dépôt qui s’accumule au niveau des équipements et des installations de surface. La problématique des NORM pose des risques radiologiques à l’environnement, aux travailleurs et à la gestion des déchets générés.  Ce travail porte sur l’examen de la situation des NORM dans l’industrie pétrolière et gazière. La méthodologie d’approche comprend trois parties : le terrain pour l'echantionnage et le scanning, le laboratoire pour les analyses, et le calcul  dosimétrique pour l'impact radiologique.  Le scanning et les analyses révèlent, respectivement, la présence significative de NORM et les radionucléides d’intérêts (ex. le radium, et ses descendants). Le calcul dosimétrique montre des valeurs de doses inférieures aux limites recommandées en la matière. La situation des NORM dans l’industrie pétrolière est plus prononcée que dans celle gazière.   La communication va décrire et illustrer de manière explicite la problématique des NORM, la méthodologie utilisée, les résultats obtenus, ainsi que les conclusions qui en découlent.  

Le milieu de moyenne montagne des climats tempérés froids? est un environnement complexe compte tenu des interactions entre l'héritage glaciaire Pléistocène, le dynamisme des processus géomorphologiques sur les versants raides et le climat avoisinant les conditions périglaciaires. Ces facteurs, couplés à la fragmentation des habitats alpins, contribuent à augmenter la diversité topographique et floristique de ces milieux dans le Nord-Est nord-américain. Cette synthèse de la dynamique postglaciaire des environnements alpins du Nord-Est nord-américain prend en considération les interactions entre la géosphère, l'atmosphère et la biosphère afin de démontrer la complexité de la mise en place de ces paysages. Bien que la colonisation ait suivi le même patron régional que le retrait de l'inlandsis Laurentidien, l'interaction de facteurs locaux en termes de déglaciation, de forçage climatique et de processus paraglaciaire ont influencé l'occurrence et la durée des différents stades de végétation. La présentation de cas d'études appuie trois caractéristiques de cette complexité: 1) l'élasticité du temps paraglaciaire et son impact sur les paysages alpins; 2) les effets de synergie entre les changements climatiques et les perturbations écologiques, et 3) la sensibilité et la résilience de ces milieux.

Les réseaux d’eaux industrielles sont conçus avec une procédure d’ optimisation multi-objectif, où les débits de l’eau fraîche consommée ainsi que le nombre de connexions de réseau (variables entières) sont minimisés simultanément. En exprimant les équations de bilans en termes de flux de matières partiels, le problème peut être formulé comme un problème de programmation linéaire avec variables mixtes (MILP), résolu par la méthode de ε-contrainte. La stratégie MILP est mise en œuvre pour la conception d'un éco parc industriel  impliquant trois entreprises. Trois scénarii sont considérés : un éco parc sans unité de régénération de l’eau polluée, un éco parc où chaque société est propriétaire de son unité de régénération et enfin un éco parc où les trois entreprises partagent des unités de régénération. Trois unités de régénération possible peuvent être choisies en fonction de la concentration de polluant, et la procédure MILP est résolue selon  deux types de conditions : nombre limité ou non de connexions, des gains identiques ou différents pour chaque entreprise. Tous ces cas sont comparés selon le coût équivalent exprimé en eau douce et en tenant également compte de la complexité du réseau à travers le nombre de connexions. La meilleure solution  pour les trois entreprises peut être déterminée dans le cadre d’un éco parc industriel.

Les ressources en eau de surface sont essentielles pour une vaste gamme d'activités humaines, telles que l'approvisionnement en eau municipale, la pêche, la navigation, l'irrigation et l'hydroélectricité. Leur régime est lié à la durabilité environnementale, aux risques liés à l'eau, à la santé humaine et à divers services écosystémiques. Il est prévu que le changement climatique modifie la disponibilité, la qualité et la répartition de l'eau de surface. Ainsi, il est important que les communautés planifient et s'adaptent aux impacts du changement climatique. Le bassin du Congo, qui abrite 75 millions de personnes, est soumis à des inondations et à des sécheresses récurrentes, qui s'aggravent en raison du changement climatique. Cette étude vise à évaluer les modifications futures du régime hydrologique du bassin et les impacts socioéconomiques de ces changements projetés pour trois périodes futures allant jusqu’à 2100. Un modèle SWAT du bassin a été développé, calibré et validé et les résultats de dix modèles climatiques régionaux ont été utilisés pour obtenir des séries chronologiques climatiques futures. Les changements du débit ont été évalués dans toutes les parties du bassin du Congo. Les résultats suggèrent des changements relatifs allant de -31,8 % à +9,2 % sous RCP 4.5 et de -42,5 % à +55,5 % sous RCP 8.5 (RCP pour Representative Concentration Pathway en anglais traduit par trajectoires représentatives de concentration en français). Les résultats indiquent également une diminution du débit dans le centre et le sud du bassin et des augmentations dans les parties nord-ouest et sud-est du bassin.

Les concentrations atmosphériques de CO2 ont largement augmenté depuis l’ère préindustrielle diminuant le pH océanique de 0,1 unité, représentant déjà une augmentation de l’acidité de 30%. Dans l’estuaire du Saint-Laurent, la situation est différente puisque les remontées d’eaux hypoxiques et les apports d’eau douce peuvent faire fluctuer de façon rapide le pH au-delà des prévisions océaniques de 2100. De plus, l’augmentation de la température prévue d’ici la fin du siècle représente un facteur de stress supplémentaire pour l’écosystème estuarien. Une expérience en mésocosme, regroupant une quinzaine de chercheurs du Québec, a eu lieu entre le 28 septembre et le 16 octobre 2014 afin d’étudier pleinement l’impact qu’auront ces changements sur la communauté planctonique de l’estuaire du Saint-Laurent. De l’eau estuarienne fut recueillie et soumise à une augmentation de 5°C sous un gradient de pH et fut échantillonnée quotidiennement afin de caractériser plusieurs processus biologiques planctoniques. Les résultats préliminaires indiquent qu’il y a diminution du taux de croissance phytoplanctonique et de la biomasse face à l’acidification, mais une augmentation de ces valeurs suite à l’augmentation de température. Les analyses à venir permettront de déterminer plus en détail les causes de ces variations, de même que l’impact de ces changements environnementaux sur le reste des processus étudiés, en plus d’en apprendre davantage sur l’effet synergétique de la température et du pH

Au Canada, 12 millions de tonnes d’aliments sont jetées à chaque année, dont 13% sont générées par les hôtels, les restaurants et les institutions (HRI). Cette quantité pourrait augmenter alors que les Canadiens dépensent une proportion croissante de leur budget alimentaire hors foyer. Ainsi, des stratégies de réduction du gaspillage alimentaire (GA) doivent être implantées dans ce secteur afin de contribuer aux avancées vers un système alimentaire plus durable. Toutefois, il y a un manque important d'informations sur les impacts économiques et environnementaux du GA et des stratégies visant leur réduction, en restauration notamment. Ainsi, les restaurateurs peuvent difficilement évaluer la faisabilité de ces stratégies et y adhérer. L'objectif de cette étude est de modéliser la mise en place de stratégies de réduction du GA et étudier leur impact sur l'éco­-efficience (valeur économique/impact environnemental) d’un restaurant. Pour y parvenir, les coûts reliés au GA ainsi que leur impact environnemental ont été estimés suite à une période de caractérisation des déchets alimentaires. Ensuite, les bénéfices nets des stratégies de réduction du GA ont été modélisés d’un point de vue de l’éco-efficience à l’aide d’une analyse de cycle de vie et de données de facturation. Les résultats indiquent que le temps suivant l’implantation des stratégies, leur taux d’efficacité et la quantité de gaspillage sur laquelle elles ont une influence ont un grand impact sur l’éco-efficience.

Depuis le 20ème siècle, l’Amérique du Nord a connu trois périodes de grande sécheresse survenues durant les décennies 1930, 1950 et 2000. Les deux objectifs de cette étude étaient de rechercher les empreintes de ces périodes sèches et de déterminer leurs impacts sur la tendance à long-terme et la stationnarité des niveaux d’eau moyens annuels et saisonniers du fleuve Saint-Laurent au Québec (station de Sorel) et du lac Ontario au moyen de plusieurs méthodes statistiques d’analyse des données temporelles. L’analyse de la succession des périodes sèches et humides a révélé les empreintes des périodes sèches des décennies 1930 et 1950 sur les niveaux d’eau du lac Ontario et celles des périodes sèches des décennies 1950 et 2000 sur les niveaux d’eau du fleuve Saint-Laurent. La variabilité interannuelle des niveaux du lac Ontario est caractérisée par une tendance à long-terme positive et celle du fleuve Saint-Laurent, par une tendance à long-terme négative. En ce qui concerne la stationnarité, seule la sécheresse de la décennie 1930 a provoqué deux ruptures de la moyenne des niveaux d’eau du lac Ontario. La construction des barrages et des écluses pendant la seconde moitié de la décennie 1950 serait à l’origine de la diminution significative de la variance des niveaux d’eau du lac Ontario observée entre 1958 et 1966 d’une part, et celle de la moyenne des niveaux d’eau printaniers du fleuve Saint-Laurent survenue en 1955-1956, d’autre part.

À ce jour, peu d’études sur l’aléa d’érosion côtière tiennent compte de la géomorphologie de l’estran. Son influence sur la vitesse de recul de la côte n’a jamais été quantifiée au Québec. L’objectif principal de cette étude est de déterminer si l’une ou plusieurs des caractéristiques géomorphologiques principales de l’estran (largeur, pente, rugosité et structure) ont une influence significative sur la vitesse de recul de la côte et ce, pour les différents types de côtes retrouvés entre Rimouski et Sainte-Anne-des-Monts. D’abord, afin de segmenter le terrain d’étude, une typologie d’estran regroupant neuf catégories a été établie en fonction des caractéristiques géomorphologiques et des éléments pouvant affecter l’hydrodynamique des vagues. Pour chaque segment uniforme, des profils d’estran ont été générés à partir de données LiDAR. Chacun des profils a été caractérisé notamment en calculant différentes pentes, la largeur de l’estran et un indice de rugosité, ainsi qu’en notant le type de substrat et sa structure. Ces différentes caractéristiques ont ensuite été comparées avec les taux d’érosion de la ligne de rivage pour chaque type de côte (terrasse de plage, falaise meuble ou rocheuse) afin de souligner les corrélations existantes entre ce taux de recul et le type d’estran ou une variable morphologique commune à plusieurs types d’estran. Les conclusions de ces analyses contribueront à améliorer la cartographie des risques d’érosion sur les côtes du Québec maritime.



Le projet SABRE a pour objectif de déterminer la capacité filtrante et la rentabilité des bandes riveraines de Salix arbustif en milieu agricole. Deux sites expérimentaux bordant des champs de soya résistant à l’herbicide glyphosate ont été implantés en 2009 et instrumentalisés en 2011 à Boisbriand et à St-Roch-de-l’Achigan.  Conformément à la Politique de protection des rives, du littoral et des plaines inondables du Québec, les bandes riveraines étudiées ont une largeur de 3m; une largeur insuffisante selon certains scientifiques. Un contrôle composé de végétation indigène est comparé à deux bandes de Salix miyabeana SX64 hypothétiquement supérieurs à la friche pour atténuer la pollution diffuse de source agricole. Des échantillons de sol et d’eau (ruissellement, percolation, nappe phréatique) ont été collectés aux champs, en amont et en aval des bandes riveraines pour y quantifier le carbone organique, les nitrites-nitrates, l’ammoniaque, le phosphate, quelques métaux et la concentration en glyphosate (l’herbicide le plus vendu au monde). Une caractérisation physique du milieu a été entreprise afin d’évaluer les variables qui pourraient affecter les paramètres physico-chimiques suivis dans l’eau et le sol. Des résultats préliminaires sur la variation de la pollution diffuse au passage à travers les bandes riveraines seront aussi présentés.

L'utilisation croissante de combustibles fossiles a causé de nombreux problèmes environnementaux périlleux tels que les précipitations acides, la pollution de l'air et certains changements climatiques. Plus de 50 % de l'énergie utilisée dans le monde est dissipée sous forme de chaleur perdue ou perdue. L'utilisation de systèmes de récupération de chaleur perdue a été essentielle comme l'un des principaux domaines de recherche pour réduire la consommation de carburant, réduire les émissions nocives et améliorer l'efficacité de la production. Trois groupes de technologies principalement appliquées dans le WHR industriel sont la réduction, le recyclage et la récupération de chaleur. Parmi les technologies non encore développées, le Cycle de Brayton Inversé (IBC) est pris en compte dans cette étude comme une solution possible afin de récupérer la chaleur perdue pour la convertir en énergie électrique. L'IBC peut fonctionner en utilisant des gaz chauds à des pressions aussi basses que la pression atmosphérique ou inférieures. Les objectifs de cette recherche sont de présenter les principes de base du cycle de Brayton inversé incluant les composants, la modélisation thermodynamique, les applications et les critères de performance. De plus, une revue des études à la fois théoriques et expérimentales sur l'utilisation des IBC pour la récupération de la chaleur perdue sera présentée.

La photolyse des nitrates est une source étonnament importates des NOx qui émannent du couvert nival au printemps polaire. Utilisant diverses techniques spectroscopiques avancées, nous démontrons que la photolyse hétérogène des nitrates adsorbés sur la glace est beaucoup plus efficace que celle des nitrates dissous dans la glace. Nous décrirons nos efforts récents vers la détermination des paramètres physico-chimiques qui caractérisent ce phénomène afin d'améliorer notre compréhension fondamentale et notre description de l'intensité des flux photochimques dans le milieu naturel.

Les propriétaires de parcs éoliens reconnaissent l’importance d’une maintenance préventive pour éviter les pertes de production causées par des bris mécaniques ou électriques inattendus. Dans le cas des entretiens de longue durée, il est crucial pour les producteurs de connaître les conditions de vent au-delà de quelques semaines pour prendre des décisions optimales dans la planification des interventions. Les prévisions saisonnières, maintenant émises par plusieurs organisations météorologiques, répondent à ce besoin, mais ont-elles réellement un pouvoir prédictif (EN : predictive skill) : voici la question à laquelle nous comptons répondre dans cette contribution !

D’abord, nous démontrerons que, pour une période d’arrêt de plusieurs semaines, les gains sont considérables lorsque celle-ci est choisie de façon optimale plutôt que décidée aléatoirement. Ensuite, nous présenterons notre module de prévisions à long terme (1 an) détaillant l’évolution des moyennes mensuelles du vent, de la production énergétique et de la température pour un parc éolien à partir des résultats des modèles prévisions numériques du temps produites par Environnement Canada.

Pour vérifier l’utilité de ces prévisions, les données générées seront supportées par une analyse de précision qui permet de déterminer le pouvoir prédictif des prévisions saisonnières et ce, sur un ensemble de données historiques de 30 ans (1980 à 2010) ainsi que sur des historiques de production de parcs éoliens existants.

Le développement soutenable des milieux urbains est un des enjeux majeurs de nos sociétés. Une des dimensions associées au développement de ces milieux résulte de l'intensité d'occupation du territoire en regard de la consommation des ressourcesnaturelles et la génération de déchets. L’analyse émergétique (mémoire énergétique) est une méthode pour évaluer la performance environnementale des territoires. Elle permet d’intégrer sur une base commune (équivalent d’énergie solaire, seJ) les flux qui interviennent dans le système urbain.

Une analyse émergétique a été réalisée pour Montréal et les résultats ont été comparés à neuf autres villes du monde. L’émergie totale pour Montréal est de 1,153x1023 seJ. Par comparaison avec les autres villes, Montréal se distingue par la part du bilan associé aux matières résiduelles (9% du bilan émergétique) qui est le taux le plus élevé des villes comparées ainsi que le pourcentage d’utilisation de ressources renouvelables (3,2% du bilan) qui est le deuxième taux le plus élevé.

Ces résultats spécifiques permettent, entre autre, d’identifier les secteurs sur lesquels il est possible et nécessaire d’agir afin d’améliorer le bilan environnemental global. Par ailleurs, l’émergie se présente comme une approche méthodologique afin de soutenir la planification des milieux urbain, en particulier dans les projets de revitalisation des quartiers en identifiant les secteurs les plus propices à minimiser l’intensité d’utilisation des ressources.

L'essor des véhicules électriques bouleverse l'industrie automobile, sur les plans de la conception et de la fabrication, mais également en fin de cycle de vie. Les méthodes traditionnelles de désassemblage deviennent ainsi obsolètes, révélant un besoin d'innovation. En effet, ces véhicules contiennent des composants à grande valeur, tels que les batteries lithium-ion, nécessitant des procédures de désassemblage spécifiques en matière de sécurité et d’impact environnemental.

Cette revue consiste à recenser les pratiques de désassemblage actuelles, identifier les lacunes et évaluer les stratégies existantes dans la littérature pour optimiser le processus de désassemblage des composants. La recherche documentaire a été réalisée par consultation des bases de données Compendex et Scopus des six dernières années, en français et en anglais. La recherche a été complétée par effet boule de neige.

L'état de l'art montre que les pratiques actuelles peinent à répondre aux exigences des véhicules électriques. Le démontage des batteries, par exemple, est long, dangereux et coûteux en main-d'œuvre spécialisée. De plus, la diversité des architectures des véhicules ainsi que l’état variable d’endommagement des composants rendent les processus et les tâches complexes.

Les ateliers/usines de désassemblage de véhicules font face à des défis de taille. La numérisation des processus s’avère une piste de solution prometteuse.

L’antimoine (Sb) et le fer (Fe) sont des métaux très utilisés dans des alliages, notamment avec le plomb (Pb). On les retrouve dans des plaques d’accumulateurs plomb-acide, des alliages pour soudure, des semi-conducteurs et des revêtements avec d’autres métaux.

Il est bien connu que les métaux lourds tels que le Pb(Ⅱ), le Fe(Ⅱ) et le Sb(Ⅱ) sont toxiques pour les êtres humains et les organismes vivants en général, quand leur concentration dépasse les limites de tolérance. Ces métaux lourds peuvent entrer dans l’environnement par les rejets non traités des eaux usées provenant des industries. Il y a une diversité de technologies pour l’enlèvement des métaux lourds. Parmi eux, le plus flexible et utilisé est l’adsorption avec du charbon activé, mais ce matériel est couteux. Une option très prometteuse consiste à développer et valider des adsorbants simples, performants, respectueux de l’environnement et peu coûteux, tels que les bioadsorbants.

La présente étude consiste à utiliser des résidus agricoles comme bioadsorbants pour le contrôle des émissions des métaux lourds, plus spécifiquement les feuilles d'olivier. L’étude des principaux paramètres qu’influencent l’adsorption de ces métaux sur les feuilles d’olivier tel que pH, la température, le ratio masse adsorbant/volume de solution à traiter, le temps de contact et les concentrations initiales de ces métaux a été réalisé.

Mot clé : Bioadsorption, Adsorption, Feuilles d’olivier, Métaux lourds, Plomb, Fer, Antimoine.

La laitue (Latuca sativa L.) est sensible aux carences en azote. Les pratiques actuelles de fertilisation dépassent largement la capacité du sol à retenir l’azote et contribuent à l’eutrophisation des eaux de surface. Des réponses de rendement de la laitue peuvent être calibrées contre les analyses de sol pour déterminer les apports d’engrais nécessaires selon les teneurs en éléments fertilisants disponibles dans le sol. Comme les données du sol sont de compositionnelles, un test de l’azote du sol STN peut être élaboré en utilisant des outils d'analyse compositionnelle. Le rapport logarithmique isométrique (ILR) est une technique de transformation qui équilibre la teneur du sol en C avec N et les autres composants calculées par différence comme une valeur de remplissage (Fv) afin de produire une distance de Mahalanobis (M2) comme STN. Notre objectif était de procéder à une méta-analyse des essais azotés pluriannuels et multi-sites sur la réponse de la laitue à l’ajout de N suivant un gradient de M2, afin de développer un modèle de recommandation de N pour la laitue. Vingt-quatre essais de fertilisation azotée ont été menés de 2002 à 2006. Chaque culture a reçu quatre doses de N de zéro à 120-150 kg N ha-1 appliquées avant le semis ou fractionnées. Trois classes de fertilité STN étaient délimitées par valeurs de M2 de 1 et 5.5 jusqu'à 8.9. Le modèle de recommandation de N était quadratique, que la laitue soit ensemencée ou transplantée, avec une valeur de R2 près de 1. 

Les scénarios sont des descriptions plausibles du futur. Ils peuvent servir, entre autres, à prédire les impacts de pressions environnementales sur les écosystèmes et les communautés qui en dépendent, et à guider les prises dedécision à différents niveaux politiques, aussi bien les instances locales qu’internationales, en termes de développement durable. Dans cette recherche, une approche participative a été utilisée pour produire des scénarios socio-écologiques – c’est-à-dire qui considèrent les écosystèmes, les sociétés, et les liens qui les unissent – d’une région marine arctique en plein changement. Plus précisément, les scénarios dépeignent ce à quoi la région du Kitikmeot au Nunavut pourrait ressembler en 2050 selon différentes tendances de développements maritimes, de gouvernance, et de changements climatiques, mais aussi ce que les communautés souhaitent pour le futur de leur région. Le projet a culminé avec un atelier participatif regroupant des experts Inuit, des scientifiques et des gestionnaires pour explorer le futur de cette région. L’exercice était transdisciplinaire, associant différents types de connaissances, soit autochtones, locales et scientifiques, et combinant des activités autant scientifiques qu’artistiques. Entre autres, les scénarios se sont inspirés d’initiatives existantes qui contribuent déjà à un avenir durable. En résumé, les scénarios visent à anticiper les défis environnementaux à venir et fournissent des pistes pour mieux s’y préparer.

Des études ultérieures se sont intéressées aux représentations sociales de l’environnement de dirigeants d’entreprises et d’élus provinciaux québécois (Gendron, 2001, 2006, 2012) et à celles de fonctionnaires et d’employés ministériels français en charge de l’environnement (Jodelet et Scipion, 1992). Ces études uniques en leur genre, montraient l’importance de s’intéresser aux représentations sociales de l’environnement des personnes travaillant dans le domaine ou ayant une importance influence sur la société car les représentations sociales sont le reflet de leur discours et ce que disent ou pensent ces gens influencent leur action et modifient leur comportement (Jodelet, Abric, Moscovici). Dans cette communication, nous nous intéressons aux représentations sociales de l’environnement et du développement durable d’Élus municipaux montréalais. En effet, la moitié de la population mondiale vit dans des villes, ce qui n’est pas sans conséquence car le mode de vie urbain aggrave certaines problématiques comme la pollution liée aux transports individuels ou la pollution des eaux et représente des défis considérables en matière de gestion des déchets, de pollution, de gestion de l’eau, d’énergie et de changements climatiques. La ville de Montréal n'échappe pas à cette réalité. Nous allons présenter leurs représentations sociales de l’environnement et du développement durable et réfléchir aux conséquences que celles-ci peuvent avoir sur la gestion municipale de l’environnement.

Les dendrimères de type polyamidoamine (PAMAM) sont étudiés pour de nombreuses applications biomédicales ou pharmaceutiques. Le risque toxicologique associé aux composés dérivés des PAMAM reste cependant peu connu. Dans cette étude, nous avons évalué la toxicité d’un nanocomposite or-PAMAM pour quatre modèles cellulaires représentant différents types d’organismes. La toxicité des nanoparticules or-PAMAM a été évaluée pour deux lignées cellulaires animales, Véro et Neuro-2A, pour l’algue verte Chlamydomonas reinhardtii et la bactérie Vibrio fischeri. Les nanoparticules or-PAMAM ont une faible toxicité pour les cellules animales tandis que les cellules algales et bactériennes étaient sensibles, avec une concentration efficace 50 (CE50) de 0.114 et 0.117 mg ml-1, respectivement, après 30 minutes d’exposition. Nos résultats montrent également que les interactions entre les nanoparticules or-PAMAM et le milieu de culture peuvent fortement influencer leur toxicité. Ces interactions peuvent être associées à la faible sensibilité des cellules animales aux effets des nanoparticules or-PAMAM. Pour un développement sécuritaire des nanotechnologies dérivées des PAMAM, les effets du milieu et la toxicité spécifique au type d’organisme considéré devront être mieux évalués afin de bien gérer les risques toxicologiques de ces nouveaux matériaux.



L'exploitation des sables bitumineux est associée à une importante production d'acide naphténique (AN), qui est un produit nocif pour l’environnement. En effet, la présence de l’AN provenant de la biodégradation du pétrole, altère la qualité de l'eau et engendre une modification importante des écosystèmes aquatiques. Ainsi, il est primordial de trouver des solutions pour réduire son impact néfaste sur l’environnement. Dans notre présentation, nous faisons part des résultats des analyses de données métagénomiques de plusieurs millions de gènes provenant des sables bitumineux afin d’évaluer le pouvoir protecteur des plantes CAREX aquatilis à réduire le taux d’AN dans l’eau. Les données génomiques présentent à la fois une variabilité plus importante que la moyenne avec une forte présence de zéro. L’étude des liens entre la concentration d’acide naphténique et les données métagénomiques est rarement mise avant, mais prometteuse pour comprendre les mécanismes moléculaires. Nous présenterons explicitement les détails de l’expérience de cette étude et les défis associés à l’analyse de ces données volumineuses en passant par les méthodes d'apprentissage machine. Ensuite nous présenterons nos résultats finaux de la première étape et nous discuterons des prochaines étapes.

Ce projet consiste à analyser le cadre légal canadien entourant la protection des espèces en péril, plus précisément la Loi sur les espèces en péril (LC 2002, ch 29) (Loi), afin de déterminer si celle-ci remplit réellement ses objectifs.

Avec la mise en œuvre de cette loi, les législateurs souhaitaient établir un processus permettant de prévenir la disparition des espèces, de favoriser leur rétablissement et de bien gérer les espèces préoccupantes afin d’éviter qu’elles ne deviennent elles aussi des espèces menacées ou en voie de disparition. 

La mise en œuvre de la loi a-t-elle réellement permis l’accomplissement de ces objectifs? En comparant la Loi canadienne sur les espèces en péril  et  le « Endangered Species Act » des États-Unis, nous mettrons en parallèle les procédés américains et canadiens mis en œuvre pour redresser la situation. Ceci nous permettra de mettre en lumière les méthodes les plus efficaces dans l’atteinte des objectifs visés et de constater si on peut observer une réelle amélioration du statut des espèces ou non.

Nous étudierons plus particulièrement le processus d’inscription, de rétablissement, d’efficacité à établir une séparation claire entre les sciences et la politique (neutralité du processus) ainsi que les  résultats observés. 

Afin de réduire l’utilisation des pesticides chimiques, de nouvelles méthodes phytosanitaires sont requises. Dans ce contexte, le recours aux trichogrammes pour le contrôle de la pyrale du maïs, principal ravageur du maïs sucré, représente une alternative économiquement viable aux insecticides. Toutefois, l’utilisation de ce prédateur naturel est limitée par la pénurie de main-d’œuvre et le temps requis pour l’installation manuelle de trichocartes: cartons contenants les œufs parasités. Pour remédier à ce problème, la distribution des pupes de trichogrammes à grande échelle a été mécanisée grâce à une approche innovante de pulvérisation. À l’aide d’un prototype de pulvérisation, conçu et fabriqué au Département des Sols et de génie Agroalimentaire de l’Université Laval, la pulvérisation de pupes a été comparée à un traitement témoin sous trois lâchers effectués à intervalle de sept jours selon un plan en bloc complet. Les résultats indiquent une efficacité de plus de 80% du système de pulvérisation qui réduit de 17,37% l’émergence des trichogrammes pulvérisés. De plus, la viabilité au champ des trichogrammes pulvérisés a été démontrée par un parasitisme significatif (18,54±4,38%) des masses sentinelles comparativement aux parcelles témoins (0%). Des essais visant à réduire de moitié le temps et le taux d’application sont envisagés. Cette technologie simple, accessible et facile d’utilisation est transférable à toute culture victime de la pyrale autant au champ qu’en serre!