Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Depuis plusieurs années, le succès de reproduction de fou de Bassan est médiocre. L’hypothèse principale pouvant expliquer cet état de fait est relié à une diminution de la disponibilité des proies (influencée soit par des modifications dans l’abondance ou dans la répartition horizontale ou verticale des espèces de poissons consommées). Le comportement alimentaire des fous de Bassan a donc été étudié pendant la période de reproduction afin de comparer les individus qui ont réussi à nourrir un poussin jusqu'à l'envol en comparaison avec ceux qui n'ont pas eu de succès. Afin de répondre à cette problématique, des GPS et des consignateurs de plongée ont été utilisés afin de caractériser les voyages de pêche effectués par les adultes pour capturer les proies nécessaires à l'alimentation de leur poussin. Les proies rapportées au poussin, en comparaison avec les stocks de poisson disponibles dans le golfe du Saint-Laurent, ont également été analysées afin de déterminer les proies préférentielles. Cette communication est le fruit du travail réalisé à l’hiver 2015 par des étudiants collégiaux et universitaires dans le cadre d’une étude portant sur une espèce sentinelle de l'écosystème marin québécois

Les rendements de deux cultivars de blé de printemps, Triticum æstivum L. var. Major et T. aestivum L. var. Fuzion, ont été comparés en agriculture conventionnelle et biologique. Les cultures ont été faites sur deux sites situés dans deux régions agricoles différentes, soit Nicolet (zone 2) et Saint-Hyacinthe (zone 1) en 2016 et 2017. Le DON, le pourcentage de protéines, le poids de 1 000 grains, l’indice de chute, le glutopeak et le poids spécifique ont été mesurés. Ces variables ont été utilisées pour deux analyses, l'arbre de régression multivariable (groupement sous contrainte) et la MANOVA par analyse de redondance (ordination canonique). En 2016, une année sèche et favorable, il y a autant d'hétérogénéité entre les types d'agriculture qu'entre les sites d'un même type d'agriculture et entre les cultivars, ce qui rend difficile un avis sur la valeur comparée de l'une ou l'autre méthode, ou de l'un ou l'autre des cultivars. On remarque toutefois que pour les sites non perturbés par les mauvaises herbes le rendement en culture bio est aussi bon qu'en conventionnel. En 2017, année pluvieuse marquée par des infestations à la fusariose, en condition de compétition intensive d’adventice en culture biologique, la variété Major offre un meilleur résultat que la variété Fuzion pour le glutopeak, le pourcentage de protéine et le poids de 1000g, mais non pour l’indice de chute, le rendement au m2 ni pour le poids spécifique, qui sont semblables pour les deux cultivars.

Le développement du concept écologique du « régime des débits naturels » a permis l’application de plusieurs méthodes multidimensionnelles pour analyser la relation entre les débits et les indices climatiques. Toutefois, les méthodes couramment utilisées dans la littérature scientifique (analyse en composantes principales, analyse canonique des corrélations et régression multiple) ne permettent pas d’analyser simultanément les cinq caractéristiques fondamentales des débits (magnitude, période d’occurrence, durée, variabilité et fréquence) mesurées à de nombreuses stations et les indices climatiques.  Pour surmonter cette difficulté, on propose d’appliquer la méthode canonique de redondance qui tolère la redondance de données de certaines variables. Elle a été appliquée pour analyser la relation entre les caractéristiques de crues printanières (d’avril à juin) et cinq indices climatiques au Québec pendant la période 1934-2004. Il ressort de cette analyse que la seule caractéristique des débits  qui présente une cohérence spatio-temporelle est la période d’occurrence des crues printanières. Cette variable est en effet significativement corrélée aux indices climatiques d’oscillation nord atlantique et d’oscillation atlantique multi-décennale en rive nord et en rive sud au nord du 47ème parallèle. Cette étude démontre que la méthode canonique de redondance constitue une solution pour résoudre le problème de redondance de données en hydroclimatologie. 

Plusieurs communautés côtières du Nouveau-Brunswick sont déjà aux prises avec des impacts liés aux inondations et à l’érosion des côtes. Notre recherche s’inscrit dans un contexte d’adaptation au changement climatique et des actions de la gouvernance locale appropriées sur le littoral acadien du N.-B. Il s’agit d’une étude de cas dans trois (3) territoires interdépendants, reliés par le partage du bassin versant de la rivière Cocagne de  à savoir : Cocagne, Grande-Digue et Dundas (ou Notre-Dame). Elle s’intéresse à l’organisation du territoire, c’est-à-dire que nous voulons  comprendre comment les territoires locaux s’organisent, participent et se mettent en réseau pour faire face aux défis d’adaptations au changement climatique.Nous avons comme objectif non seulement de comprendre le processus de mobilisation en vue de renforcer  la résilience et la capacité d’adaptation aux changements climatiques des communautés côtières dans une démarche de recherche action-participative. Mais aussi nous voulons comprendre les facteurs qui permettent à ces collectivités de se mobiliser afin de réduire leur vulnérabilité face aux impacts du changement climatique en territoire côtier.Cette étude est basée sur la méthodologie de la recherche-action  participative qui consiste à un partenariat entre le chercheur et  les acteurs sociaux (le groupe de développement durable des pays de Cocagne) dans la résolution des problèmes.

La préservation de la biodiversité est un enjeu essentiel du développement durable. Au-delà des engagements étatiques, sa protection ne peut être assurée que par l’acquisition soutenue de connaissances sur les divers processus régissant son maintien et sa restauration. Cette étude vise ainsi à déterminer comment la végétation des sous-bois de peuplements de peupliers faux-trembles (Populus tremuloides Michx.) est influencée par le régime des feux et le climat dans la forêt boréale du Canada. Elle cherche à discerner l’importance des processus déterministes dans l’assemblage des végétaux, telle que la compétition pour l’utilisation des ressources, et celle des processus stochastiques, tels que les feux de forêt, qui surviennent aléatoirement dans l’environnement. Dans cette optique, la végétation de sous-bois de 33 peupleraies a été échantillonnée le long d’un gradient longitudinal de précipitations et de régimes de feux s’étendant de l’ouest à l’est du Canada. L’équitabilité des espèces serait ainsi 12,5 % plus élevée à l’ouest, caractérisé par des précipitations plus faibles et un cycle de feux plus court, qu’à l’est du pays qui bénéficie de plus de précipitations et d’un cycle de feux plus long. Cependant, les richesses spécifiques sont similaires entre ces grandes régions et ce paramètre ne semble pas corrélé aux variables considérées. Ces résultats préliminaires laissent déjà supposer une similarité inhérente aux peuplements de peupliers faux-trembles en forêt boréale.

Les systèmes vivants sont en dialogue constant avec le monde naturel (Richter, 1978). L’architecture actuelle s’inspire de cette idée et se traduit par le concept de l’architecture sensible et adaptive (Beesley, 2006). Cette recherche propose un milieu virtuel comme un dispositif de représentation morphologique des ambiances lumineuses générées par une structure adaptative et dynamique, mettant en relation le rapport entre l’extérieur et l’intérieur à l’étape de conception architecturale. L’outil développé appelé DARMIN, « Daylight Adaptive aRchitecture Modeling INterface », devient l’inducteur exploratoire de la démarche de création, grâce à son système interactif. Le concepteur, en situation d’exploration typologique formelle, exploite les potentialités et les qualités de l’espace architectural que l’ambiance lumineuse recèle. De cette façon, la recherche proposée offre la possibilité de l'émergence de nouvelles réponses morphologiques complexes soutenant la démarche du design. Elle permet en outre aux concepteurs d’expérimenter un large éventail de solutions possibles dans un laboratoire virtuel, un environnement de conception contrôlée qui renforce la créativité de l’architecte. Ainsi, la recherche présentée s’intéresse particulièrement à montrer le potentiel d’une structure architecturale adaptative qui bonifie quantitativement et qualitativement l’expérience de l’espace interne et externe, à travers la nature dynamique de l’ambiance lumineuse.

L'essor des véhicules électriques bouleverse l'industrie automobile, sur les plans de la conception et de la fabrication, mais également en fin de cycle de vie. Les méthodes traditionnelles de désassemblage deviennent ainsi obsolètes, révélant un besoin d'innovation. En effet, ces véhicules contiennent des composants à grande valeur, tels que les batteries lithium-ion, nécessitant des procédures de désassemblage spécifiques en matière de sécurité et d’impact environnemental.

Cette revue consiste à recenser les pratiques de désassemblage actuelles, identifier les lacunes et évaluer les stratégies existantes dans la littérature pour optimiser le processus de désassemblage des composants. La recherche documentaire a été réalisée par consultation des bases de données Compendex et Scopus des six dernières années, en français et en anglais. La recherche a été complétée par effet boule de neige.

L'état de l'art montre que les pratiques actuelles peinent à répondre aux exigences des véhicules électriques. Le démontage des batteries, par exemple, est long, dangereux et coûteux en main-d'œuvre spécialisée. De plus, la diversité des architectures des véhicules ainsi que l’état variable d’endommagement des composants rendent les processus et les tâches complexes.

Les ateliers/usines de désassemblage de véhicules font face à des défis de taille. La numérisation des processus s’avère une piste de solution prometteuse.

Le Chitosane (CTS) est un adsorbant bien connu pour sa capacité à capter les métaux lourds en solution dans l’eau. Cet amino-carbohydrate est dérivé de la chitine, un produit naturel retrouvé majoritairement dans les carapaces des crustacés. Le CTS est généralement disponible sous forme de poudre, de flocons ou de billes. Pourtant après plus de 20 ans de recherche, les applications industrielles faisant appel au CTS pour le traitement des métaux lourds sont encore rares. Ceci provient du fait que son conditionnement et la configuration du réacteur utilisé affectent sa vitesse et sa capacité d’absorption ainsi que leur reproductibilité. Par exemple, conditionné en bille, la quantité d’ions absorbés est presque doublée à concentration égale par rapport à du CTS en poudre. Dans ce travail, le traitement des solutions contaminées avec des ions métalliques ont été effectuées en plongeant des sacs poreux remplis de chitosane dans un réacteur agité. Cette approche simple est moins efficace, mais a le mérite d’être reproductible. Ensuite, le même patron de réacteurs a été conservé pour régénérer le chitosane en milieu sulfurique. Un rendement de désorption de 90 % a été obtenu sur au moins 10 cycles pour le CTS en poudre et en flocons. Avec les billes, l’usure due à leur fragilité les rendent moins performantes. La présentation fera état des avantages et des inconvénients des formes du CTS sur les rendements d’adsorption et de désorption avec cette configuration de réaction en sac.

Depuis le 20ème siècle, l’Amérique du Nord a connu trois périodes de grande sécheresse survenues durant les décennies 1930, 1950 et 2000. Les deux objectifs de cette étude étaient de rechercher les empreintes de ces périodes sèches et de déterminer leurs impacts sur la tendance à long-terme et la stationnarité des niveaux d’eau moyens annuels et saisonniers du fleuve Saint-Laurent au Québec (station de Sorel) et du lac Ontario au moyen de plusieurs méthodes statistiques d’analyse des données temporelles. L’analyse de la succession des périodes sèches et humides a révélé les empreintes des périodes sèches des décennies 1930 et 1950 sur les niveaux d’eau du lac Ontario et celles des périodes sèches des décennies 1950 et 2000 sur les niveaux d’eau du fleuve Saint-Laurent. La variabilité interannuelle des niveaux du lac Ontario est caractérisée par une tendance à long-terme positive et celle du fleuve Saint-Laurent, par une tendance à long-terme négative. En ce qui concerne la stationnarité, seule la sécheresse de la décennie 1930 a provoqué deux ruptures de la moyenne des niveaux d’eau du lac Ontario. La construction des barrages et des écluses pendant la seconde moitié de la décennie 1950 serait à l’origine de la diminution significative de la variance des niveaux d’eau du lac Ontario observée entre 1958 et 1966 d’une part, et celle de la moyenne des niveaux d’eau printaniers du fleuve Saint-Laurent survenue en 1955-1956, d’autre part.

L'exploitation des sables bitumineux est associée à une importante production d'acide naphténique (AN), qui est un produit nocif pour l’environnement. En effet, la présence de l’AN provenant de la biodégradation du pétrole, altère la qualité de l'eau et engendre une modification importante des écosystèmes aquatiques. Ainsi, il est primordial de trouver des solutions pour réduire son impact néfaste sur l’environnement. Dans notre présentation, nous faisons part des résultats des analyses de données métagénomiques de plusieurs millions de gènes provenant des sables bitumineux afin d’évaluer le pouvoir protecteur des plantes CAREX aquatilis à réduire le taux d’AN dans l’eau. Les données génomiques présentent à la fois une variabilité plus importante que la moyenne avec une forte présence de zéro. L’étude des liens entre la concentration d’acide naphténique et les données métagénomiques est rarement mise avant, mais prometteuse pour comprendre les mécanismes moléculaires. Nous présenterons explicitement les détails de l’expérience de cette étude et les défis associés à l’analyse de ces données volumineuses en passant par les méthodes d'apprentissage machine. Ensuite nous présenterons nos résultats finaux de la première étape et nous discuterons des prochaines étapes.

Résumé : Résultats d’une étude auprès des arpenteurs-géomètres quant à leurs intérêts/actions en développement durable

L’objectif de développement durable n°11 est de bâtir des villes durables1. Par ailleurs, les arpenteurs-géomètres sont des acteurs importants de l’aménagement du territoire. En effet, «l'arpenteur-géomètre a l'exclusivité des actes d'arpentage et de cartographie et agit à titre de conseiller dans la gestion intégrée du territoire »2. Au vu de son rôle, il devrait être un acteur actif qui pose des actions concrètes de développement durable dans ses activités professionnelles. Ces dernières sont entre autres, les plans de lotissement, les implantations ou encore les certificats de localisations. Cependant, est-ce bien le cas ? Pour y répondre, nous avons effectué un sondage et des entrevues pour évaluer la prise en compte des principes de développement durable auprès des arpenteurs-géomètres du Québec. Nous souhaitons présenter les résultats de cette étude qui a permis de sensibiliser les arpenteurs-géomètres sur leurs possibilités d’interventions afin de contribuer de manière plus substantielle au développement durable.

 

1- http://www.undp.org/content/undp/fr/home/sdgoverview/post-2015-development-agenda.html

2- Ordre des Arpenteurs Géomètres de Québec, Encyclopédie de l’Agora, http://agora.qc.ca/dossiers/Arpenteur-geometre

 

Afin de réduire l’utilisation des pesticides chimiques, de nouvelles méthodes phytosanitaires sont requises. Dans ce contexte, le recours aux trichogrammes pour le contrôle de la pyrale du maïs, principal ravageur du maïs sucré, représente une alternative économiquement viable aux insecticides. Toutefois, l’utilisation de ce prédateur naturel est limitée par la pénurie de main-d’œuvre et le temps requis pour l’installation manuelle de trichocartes: cartons contenants les œufs parasités. Pour remédier à ce problème, la distribution des pupes de trichogrammes à grande échelle a été mécanisée grâce à une approche innovante de pulvérisation. À l’aide d’un prototype de pulvérisation, conçu et fabriqué au Département des Sols et de génie Agroalimentaire de l’Université Laval, la pulvérisation de pupes a été comparée à un traitement témoin sous trois lâchers effectués à intervalle de sept jours selon un plan en bloc complet. Les résultats indiquent une efficacité de plus de 80% du système de pulvérisation qui réduit de 17,37% l’émergence des trichogrammes pulvérisés. De plus, la viabilité au champ des trichogrammes pulvérisés a été démontrée par un parasitisme significatif (18,54±4,38%) des masses sentinelles comparativement aux parcelles témoins (0%). Des essais visant à réduire de moitié le temps et le taux d’application sont envisagés. Cette technologie simple, accessible et facile d’utilisation est transférable à toute culture victime de la pyrale autant au champ qu’en serre!

La fusariose de
l’épi du blé est une maladie fongique qui affecte les céréales à paille et le
maïs  et qui cause des pertes économiques
année après année. La perte de rendement associée au faible poids des grains infectés
et la perte de qualité due au désoxynivalénol  (DON) sont des problèmes pour les producteurs
et les transformateurs. Pour gérer les risques associés à cette maladie,
plusieurs pays ont développé des modèles prévisionnels.

L’objectif
principal de ce projet est de mettre en place un maximum de facteurs permettant
de moduler les risques d’infection de la fusariose de l’épi chez le blé, afin de comparer les performances de modèles
prévisionnels qui ont été développés hors des conditions du Québec.

L’évaluation des prédictions des modèles
a été réalisée à quatre sites expérimentaux répartis dans trois zones de production de blé au Québec en 2011 et 2012.
En 2011, l’application d’un fongicide à base de prothioconazole et de
tébuconazole a diminué le pourcentage de grains fusariés et la teneur en DON
des grains, en plus de procurer une augmentation de rendement à deux sites sur
quatre. La performance des modèles prévisionnels sera évaluée avec différentes
analyses statistiques pendant l’hiver 2013 afin de vérifier la
précision des prédictions par rapport aux observations de fusariose au champ.

Le modèle le mieux adapté pourra
ensuite être utilisé dans une démarche de lutte intégrée et sera la
première étape vers l’implantation d’un modèle prévisionnel québécois.

Les entreprises manufacturières subissent de plus en plus de pressions de la part des consommateurs pour divulguer l’empreinte environnementale de leur produit. Pour quantifier ces impacts, l'analyse du cycle de vie (ACV) est une méthode reconnue et normalisée par ISO (série 14044). Toutefois, la collecte de données nécessaires à une ACV est la partie la plus laborieuse et prend beaucoup de temps aux analystes. Pour répondre à ce besoin, le cégep de Saint-Félicien a donc initié le projet «Inventaire du cycle de vie des produits du bois» en 2010, sachant que la nécessité de réaliser ce type de recherche au Canada a clairement été identifiée. Les objectifs étaient : 1) rendre disponibles aux entreprises forestières des outils en ligne permettant la saisie de données, 2) de calculer l’empreinte carbone, 3) enrichir les bases de données en ICV. Une 1ière phase a permis de collecter les données de forêt à 1ère transformation au Saguenay-Lac-Saint-Jean. Des 78 entrepreneurs ayant répondu favorablement aux sollicitations, plus de 42 ont complété le formulaire. Cette méthode, validée par le CIRAIG, pourrait aussi s’appliquer à d’autres secteurs d’activités tels que l’agroalimentaire et les mines. Ainsi, les entreprises québécoises pourraient bénéficier d’un avantage concurrentiel par la valeur environnementale ajoutée à leurs produits. De plus, le développement d’une formation collégiale en ICV pourrait répondre aux besoins des entreprises visant la réduction de l’empreinte carbone.



L'utilisation croissante de combustibles fossiles a causé de nombreux problèmes environnementaux périlleux tels que les précipitations acides, la pollution de l'air et certains changements climatiques. Plus de 50 % de l'énergie utilisée dans le monde est dissipée sous forme de chaleur perdue ou perdue. L'utilisation de systèmes de récupération de chaleur perdue a été essentielle comme l'un des principaux domaines de recherche pour réduire la consommation de carburant, réduire les émissions nocives et améliorer l'efficacité de la production. Trois groupes de technologies principalement appliquées dans le WHR industriel sont la réduction, le recyclage et la récupération de chaleur. Parmi les technologies non encore développées, le Cycle de Brayton Inversé (IBC) est pris en compte dans cette étude comme une solution possible afin de récupérer la chaleur perdue pour la convertir en énergie électrique. L'IBC peut fonctionner en utilisant des gaz chauds à des pressions aussi basses que la pression atmosphérique ou inférieures. Les objectifs de cette recherche sont de présenter les principes de base du cycle de Brayton inversé incluant les composants, la modélisation thermodynamique, les applications et les critères de performance. De plus, une revue des études à la fois théoriques et expérimentales sur l'utilisation des IBC pour la récupération de la chaleur perdue sera présentée.

L’ammoniac, l’espèce azotée la plus réduite, est présent en solution sous la forme d’ions ammonium (NH4+) qui proviennent principalement de la décomposition de la matière organique. Ils sont très solubles et donc difficiles à extraire ou à précipiter. Leur extraction est toutefois possible en utilisant un contacteur liquide-liquide. La mise en application consiste alors à faire circuler le liquide chargé en NH3 (NH4+) dans un faisceau de fibres creuses qui trempent dans une solution acide circulant à contre-courant. La faible taille des pores et la nature hydrophobe des fibres en polypropylène empêchent les liquides de se mélanger. Les taux d’extraction en NH3 sont de l’ordre de 95% à 99%. Ces modules peuvent traiter des volumes allant de quelques millilitres à plusieurs mètres cubes par minute. Pour éviter le colmatage, l’effluent doit être préfiltré sur une membrane de 10 microns et pour induire le transfert, le pH de la solution à traiter doit être supérieur à 9,25. Pour que le déplacement s’effectue à une vitesse intéressante, l’acide doit aussi être maintenu à un pH inférieur à 2. La neutralisation du gaz est immédiate et le demeure aussi longtemps que l’acide n’est pas saturé. Sa capacité de neutralisation est la force motrice de l’échange et de sa réussite. Le procédé peut être opéré à 40-50°C pour améliorer le dégazage. Ces systèmes sont idéaux pour traiter des solutions dont la concentration en ammoniaque est supérieure à 500 mg/L (mais ce n’est pas limitant).

 

 

Les nanoparticules d'or sont des bons catalyseurs hétérogènes, mais elles ont tendance à s'agréger et sont difficiles à manipuler. Afin de résoudre cette problématique, les nanoparticules Yolk-Shell, de configuration Au@vide@PDEAEMA ont été synthétisées (PDEAEMA est le poly (N,N- diéthylaminoéthyle méthacrylate)). En raison de sa structure spécifique, la coque en polymère empêche l'agrégation des nanoparticules d'or tout en laissant sa surface accessible aux réactifs. La vitesse de la réaction catalytique peut être davantage régulée en contrôlant la diffusion des molécules à travers la coque PDEAEMA CO2-sensible par commutation de cette dernière entre un état hydrophile en bullant le CO2, et un état hydrophobe en bullant le N2. En plus, sous son état hydrophobe, les nanoparticules s’agglomèrent ce qui permet un recyclage facile. La synthèse de la coque de polymère a été réalisée par polymérisation par précipitation en utilisant des nanoparticules Au@SiO2 comme matrice. Ensuite, une élimination sélective de la coque interne en silice produit la nanoparticule Yolk-Shell Au@vide@PDEAEMA. La forme et la taille des nanoparticules ont été caractérisés en MET, le comportement CO2-sensible de la couche externe a été caractérisé par la spectrométrie UV-Vis, la zêtamétrie et la DLS. Une comparaison de l’efficacité catalytique sera faite entre les nanoparticules d’or, les nanoparticules Au@PDEAEMA, et les nanoparticules Yolk-Shell synthétisées, en utilisant une réaction modèle.

Les estuaires figurent parmi les écosystèmes les plus productifs sur Terre, mais leur productivité varie selon des facteurs météorologiques et territoriaux d’une manière encore mal définie. Aux États-Unis, il est possible d’estimer la productivité primaire  à partir de la biomasse des algues planctoniques, de l’intensité lumineuse et du coefficient d’absorption de la lumière par l’eau. Ici, nous analysons la productivité primaire de quatre estuaires oligotrophes du nord-est du N-B échantillonnés à l’amont  et à l’aval, au printemps et à l’été sur une période de trois ans (2010-2012) pour cerner les facteurs de variabilité les plus importants (spatio-temporels, liés aux usages du territoire ou aux conditions météorologiques). La productivité primaire brute (0 à 88 μg O2 L‑1 h-1) a varié surtout entre les quatre bassins versants ou entre saisons plutôt qu’entre les années ou entre les positions amont-aval. De plus, la productivité primaire brute était plus fortement corrélée à la biomasse algale qu’à l’intensité lumineuse ou au coefficient d’absorption. Sur ce plan, les estuaires du Nouveau-Brunswick se comportent aujourd’hui comme certains estuaires des États-Unis pendant les années 1980, avant d’importantes perturbations causées possiblement par la présence d’espèces invasives, de pesticides ou d’apports accrus en nutriments. L’influence relative des caractéristiques territoriales (par ex. couverture agricole) et météorologiques sur la productivité sera également présentée.

Le recyclage de l’aluminium a de multiples effets positifs sur l’économie et l’environnement. Il aide à conserver les ressources, réduire les dépenses d’énergie et le coût de l’aluminium. Aujourd’hui, le recyclage est une composante majeure de l’industrie de l’aluminium. En général, on effectue la refonte des canettes de boisson, la catégorie de recyclables la plus importante en quantité et en qualité, dans les fours à puits latéral. Ces fours sont composés de deux parties : un puits latéral dans lequel les copeaux de canettes sont alimentés et une chambre principale dans laquelle la chaleur est introduite. La performance d’un four de refonte peut être caractérisée par le rendement énergétique et le taux de refonte.

L’industrie du recyclage croît très rapidement, et pour demeurer compétitive, elle doit optimiser son efficacité en diminuant les coûts d’énergie et maximisant la productivité. Dans cette optique, un projet a été entrepris pour le développement des modèles pour améliorer et optimiser le design et l’opération des fours à puits latéral. Dans cet article, l’approche utilisée dans la modélisation mathématique de ces fours sera décrite et certains résultats seront présentés.

Au Québec, les pluies hivernales  jouent un rôle majeur sur la variabilité interannuelle des débits des cours d’eau. En hiver, les pluies hivernales influencent les crues et les étiages. Au printemps, la fonte de la neige hivernale  influence la  variabilité des crues. En été, les eaux provenant de la fonte de neige tombée en hiver constituent la principale source des eaux de  recharge des nappes aquifères qui alimentent les débits d’étiages. Cependant, malgré ce rôle hydrologique, il n’existe encore aucune étude systématique sur la variabilité interannuelle des précipitations (neiges et pluies) en hiver. Pour combler cette lacune, on a analysé la variabilité interannuelle des précipitations hivernales (de janvier à mars) de 16 stations réparties régulièrement dans le Québec méridional au moyen des méthodes de Pettitt et de Lombard pendant la période 1950-2010. Cette analyse avait pour objectif de vérifier si la quantité de pluies tombées en hiver a significativement augmenté en raison de la hausse de la température. L’analyse a révélé que la hausse de la quantité de pluies en hiver a été observée seulement à deux stations et celle de la neige à 6 stations. La moitié de ces six dernières stations sont situées au nord du 47°N. Ce résultat suggère que le changement des précipitations hivernales n’est pas encore généralisé à l’échelle du Québec méridional malgré la hausse de la température observée depuis la décennie 1970.

En montagne, la ligne pluie-neige est la région qui délimite la neige à haute altitude et la pluie à basse altitude. La phase de la précipitation a un impact majeur sur la ressource en eau, surtout au printemps, comme lors de l’inondation de Calgary en 2013. La fonte de la neige qui tombe amène un refroidissement de l’environnement qui déplace la ligne pluie-neige vers le bas et peut amener une inversion de l’écoulement du vent dans une vallée. La présente étude cherche à déterminer si la ligne pluie-neige se retrouve à 0 °C sur la pente est des Rocheuses canadiennes ainsi que l’importance de la sublimation et de l’accrétion sur les conditions météorologiques. Des simulations numériques sont utilisées pour étudier des transitions pluie-neige observées lors d’une campagne de terrain au printemps 2015 dans la vallée de Kananaskis en Alberta. Cette région est associée avec des conditions atmosphériques relativement sèches à cause de l’effet du Chinook, un vent chaud et sec qui descend la pente est des montagnes Rocheuses. Les résultats préliminaires démontrent que la sublimation de la neige a un plus grand impact sur la tendance de la température et la direction du vent, comparée à la fonte de la neige par exemple. Il est aussi démontré que la ligne pluie-neige se retrouve parfois à des températures supérieures à 0 °C dans cette région. Cette étude contribuera à mieux comprendre les processus physiques pouvant mener à des épisodes météorologiques extrêmes en terrain montagneux.

En 2011, 542 000 tonnes de papier et carton ont été éliminés au Québec. Car certains d’entre eux ne peuvent être recyclés, il est donc considéré judicieux de rechercher des techniques de valorisation énergétique permettant non seulement une meilleure gestion de ces rebuts mais également d’en produire de l’énergie.

Pour cela, une caractérisation élémentaire et une étude de son comportement thermique a été menée par analyse thermogravimétrique (TGA) et thermogravimétrie dérivée (DTG). Cette analyse dans son ensemble présente aussi l’outil principal de calcul des paramètres cinétiques. L’échantillon de carton a également été étudié par la technique de calorimétrie différentielle à balayage (DSC).

La TGA permet de déterminer l’intervalle de température effectif à sa dégradation massique (T entre 203 et 436ºC) correspondant à la formation de biochar. D’autrepart, le traçage de la courbe de DSC montre que les transformations du carton (Déshydration du carton-Volatilisation et perte massique- Transformation lente du biochar) correspondent bien à des pics endothermiques. Enfin, une détermination des paramètres cinétiques a bien été réalisée en traçant la courbe ln[g(α)/T2] en fonction de 1/T.

Les données récoltées de TGA, DTG et DSC permettent d’avoir une vue générale permettant de valoriser le carton en biochar. Une pyrolyse des déchets sera faite en variant deux principaux paramètres à savoir la température et le temps de
réaction afin de maximiser le rendement en biochar.



Dans la perspective du Schéma National d’Aménagement du Territoire en Algérie pour l’horizon 2025 les pouvoirs publics ont enfin compris que la route pour le développement passe par le développement de la route. Ils ont ainsi accordé un intérêt considérable à l’extension et la gestion des infrastructures routières et surtout leur rentabilité pour répondre aux besoins du développement économique et social du pays. C’est dans cette dynamique qu’est né le projet de l’autoroute Est-Ouest qui va relier les frontières marocaine et tunisienne  en traversant toute la région tellienne au Nord du pays  . Financée entièrement sur le budget de l’Etat, l’autoroute Est -Ouest est un projet infrastructurel grandiose  à dimension maghrébine , dont les études durent depuis plus de deux décennies et la réalisation pratiquement en voie d’achèvement avec la fin de l’année 2014.

Si ce programme ambitieux va certainement accentuer le développement et corriger les disparités économiques et spatiales, il commence déjà à avoir des incidences socio-économiques et environnementales négatives qui seraient peut être difficiles à corriger.

Le but de cette recherche est d’essayer d’aborder les caractéristiques, les spécificités et surtout les principaux impacts de ce « projet du siècle » sur l’espace et la société  notamment sur le tracé traversant toute la vallée du Chéliff .

 Mots clés : Réseau urbain , disparités spatiales , désenclavement , agriculture , polluants, biodiversité, impacts .

La désinfection par chloration est très fréquente lors de la dernière étape du traitement d’un réseau d’eau potable. Certains sous-produits de chloration, tels les acides haloacétiques (AHA), peuvent avoir des effets néfastes sur la santé. Après chloration, les AHA voient leur concentration diminuer lors de leur acheminement dans le réseau d’eau potable. La formation d’un biofilm dans les réseaux d’eau potable pourrait être la cause de cette diminution. Parmi les souches bactériennes composant ce biofilm, il est possible que plusieurs d’entre elles soient en mesure de dégrader les AHA. Dans cette étude, un système de traitement des eaux relié à l’eau de la ville de Québec a été construit en laboratoire afin de pouvoir en retirer les bactéries du biofilm formé à la fin du réseau. La culture en milieu solide et liquide a été utilisée pour déterminer la tolérance et la capacité de biodégradation des bactéries cultivables présentes dans le biofilm. Les souches de divers genres tels Pseudomonas, Cupriavidus, Microbacterium et Sphingomonas sont tolérantes à des concentrations d’AHA nettement plus élevées que ce que l’on retrouve dans les réseaux. La présence potentielle d’une déhalogénase chez le genre Cupriavidus pourrait expliquer le fait que certaines souches de ce genre arrivent à dégrader cet acide. Présentement, une analyse génomique afin de confirmer la présence d’une déhalogénase et des tests cinétiques de la biodégradation des AHA sont en cours.



L’influence relative des conditions météorologiques et des transformations territoriales sur la productivité primaire et la biodiversité des estuaires est difficile à quantifier en partie parce que la variabilité temporelle à long terme des écosystèmes est généralement mal connue. Dans cette étude paléoécologique, nous rapportons les concentrations de plusieurs pigments algaux extraits d’une carotte de sédiment prélevée à l'aval d’un estuaire du nord-est du Nouveau-Brunswick. La datation au plomb révèle que les sédiments se sont déposés entre 1868 à 2004. La bêta-carotène et la cantaxanthine montrent une importante diminution près de la surface, laissant penser que les algues en général et les cyanobactéries en particulier ont diminué depuis la moitié du XXe siècle. Parallèlement à ces changements de productivité primaire, nous documentons la variabilité centenaire des transformations territoriales à l’échelle du bassin versant (superficie des terres humides et agricoles) ainsi que la variabilité météorologique.  A  l’aide d’analyses de corrélation, nous tenterons de déterminer si  la variabilité temporelle de la  productivité  primaire des estuaires est plutôt reliée aux changements territoriaux ou plutôt à la variabilité météorologique ou à un mélange des deux.