Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.
Claude Villeneuve, Université du Québec à Chicoutimi
Si vous croyez avoir vu le climat dans tous ses états, les décennies qui viennent vous réservent sans doute des surprises. Malheureusement, la science ne peut qu’apporter un éclairage à la prise de décision. Il ne suffit pas de la rendre intelligible, il faudrait que la culture scientifique de notre société lui permette de saisir là où se trouve son réel intérêt.

La dernière décennie a été fertile en rebondissements dans le domaine climatique. On a observé des extrêmes tant atmosphériques que sociopolitiques. Mais par-delà ces fluctuations, un constat est clair : le climat se réchauffe.

Pourtant, certains doutent encore de cette réalité; par naïveté, aveuglement, idéologie, ou encore, par intérêt. Ainsi, quand un flou semble apparaître du côté des données scientifiques,  la machine à rumeur s’emballe à nouveau.

Ce fut le cas avec cette apparence de plafonnement des températures moyennes planétaires depuis 1998. Les négationnistes se sont déchaînés sur Internet et dans les médias populaires où ils sévissent habituellement. Et comme peu de gens consultent ne serait-ce que le résumé à l’intention des décideurs du dernier rapport du GIEC, de « fausses » controverses continuent de brouiller les esprits. Pourtant, il est établi que malgré ce hiatus, l’évidence de la contribution anthropique au réchauffement observé depuis un siècle n’est pas remise en cause.

De fait, ce « plafonnement » est un phénomène assez normal, mais difficilement prévisible, de l’avis des chercheurs, et il ne contredit nullement les tendances à long terme. Le cinquième rapport du GIEC, présenté en septembre 2013, en rend compte avec moult détails1.

Le climat est un système complexe où s’inter-influencent tous les sous-systèmes planétaires, les océans comme les forêts, la terre comme l’air, les civilisations humaines comme le plancton. Et cette histoire de plafonnement est un bel exemple pour illustrer cette complexité, mais aussi pour commenter les outils avec lesquels se fait cette science.

Les températures de surface : un plafonnement temporaire

Pendant la période 1998-2012, on note que l’augmentation des températures moyennes (+0,04 °C/décade) est plus faible que la moyenne des décennies 1951-2012 (+0,11 °C/décade). Pour sa part, la moyenne des températures de la période 1998-2012 demeure la plus élevée observée depuis 1850, et 2013 se situe aussi dans cette catégorie. Cela oblige donc à se poser deux questions : 1) Quels sont les facteurs qui expliquent cette pause dans le réchauffement? et 2) Pourquoi les simulateurs du climat planétaire n’ont-ils pas prévu ce phénomène?

  • 1) Quels sont les facteurs qui expliquent cette pause dans le réchauffement?

Dans les observations des 150 dernières années comme dans les simulations, on remarque couramment des « plateaux » de 15 ans pendant lesquels les moyennes interannuelles ( mesure concernant plusieurs années) connaissent une faible variabilité. Et hormis ces plateaux, on observe des séquences où la variabilité est plus accentuée et montre des tendances à la hausse ou à la baisse. C'est la variabilité naturelle du climat, influencée par plusieurs facteurs.

La moyenne des températures de la période 1998-2012 demeure la plus élevée observée depuis 1850.

De fait, les interactions entre les déterminants des températures de surface sont multiples; par exemple, les phénomènes El Niño-la Niña, des épisodes de volcanisme, des variations de la vitesse et du positionnement du courant-jet polaire. De plus, ces  déterminants s’annulent ou s’amplifient selon des successions d’évènements non déterministes. C’est pourquoi les « sorties » des modèles ne sont jamais considérées individuellement, mais seulement en groupes.

Prenons, par exemple, les sorties du modèle HadCRU4 alimenté par le scénario RCP4.5.

Un mot d’abord pour éclaircir le jargon du milieu. Le HadCRU4 est la 4e version du modèle global du Climate Research Unit de l’Université East Anglia; un modèle global prend pour objet l’ensemble de la planète avec des cellules de 400 X 300 km, par opposition, par exemple, à un modèle régional, qui couvre des régions beaucoup plus petites avec des cellules qui peuvent aller jusqu’à une résolution aussi fine que 400 km2.

Pour sa part, le RCP4.5 est un scénario correspondant à l’évolution probable des concentrations de gaz à effet de serre dans l’atmosphère. Ce type de scénario est appelé Representative Concentration Pathway. Le chiffre correspond au forçage radiatif. Ainsi, RCP4.5 représente un forçage de 4,5 W/m2 (watts par mètre carré). Un tel forçage signifie que pour une surface de 1 km2, la chaleur retenue dans le système atmosphérique correspondra à 4,5 MW/h (mégawatts-heures) d’énergie supplémentaire. Ce scénario correspond à une stabilisation de la concentration de CO2 autour de 480 parties par million alors qu’elle est actuellement de 400 parties par million.

Reprenons.

On sait que 111 des 134 sorties du modèle HadCRU4 alimenté par le scénario RCP4.5, prévoyaient pour la période 1998-2012 un réchauffement plus considérable que celui observé dans la réalité. De fait, la « réalité » s’est tout simplement retrouvée dans la marge inférieure des probabilités d’une distribution normale autour de la moyenne. Cela ne veut absolument pas dire que le forçage radiatif lié aux activités humaines est mal évalué. Il y a sans cesse des périodes plus chaudes ou plus froides que la moyenne dite « normale » en météo. C’est la nature même de l’état de l’atmosphère que d’être variable. C’est pourquoi les moyennes climatiques de référence doivent être calculées sur 30 ans.

L’océan, en raison de la capacité calorifique de l’eau, a un comportement thermique beaucoup plus prévisible que celui de la surface terrestre. L’augmentation de la température océanique s’est poursuivie pendant la période 1998-2010 et la hausse du niveau de l’océan qui y est associée a continué à peu près au même rythme que dans les décennies précédentes.

Donc, il est possible, tout comme pour la température exceptionnellement chaude de l’année 1998 en raison d’un très fort El Niño, que ce soit une phase négative de l’oscillation interdécennale du Pacifique qui explique la différence entre les prédictions des modèles et les observations des températures de surface.

Il faut aussi noter que les facteurs naturels de forçage climatique ont été au plus bas pendant la période du hiatus. L’activité faible des taches solaires et plusieurs petites éruptions volcaniques ont contribué à limiter l’énergie incidente (qui tombe sur une surface réfléchissante). 

  • 2) Pourquoi les simulateurs du climat planétaire n’ont-ils pas prévu ce phénomène?

Qu’en est-il de la possibilité d’une mauvaise programmation des modèles? On estime que certains d'entre eux peuvent surestimer la réponse du climat de surface à l’augmentation du forçage climatique. Cela pourrait représenter une surestimation de l’ordre de 10 %. On incrimine aussi le manque de connaissances permettant de bien modéliser l’effet de la vapeur d’eau en haute atmosphère comme une source d’imprécision possible des modèles pour prédire correctement l’évolution des températures de surface. Il y a des réglages à effectuer, mais les équipes de modélisateurs s’y emploient.

En gros, il est vrai que fameux hiatus n’a pas été correctement anticipé par la moyenne des sorties des modèles. En revanche, comme on vient de le voir, il s’explique sans remettre en question les fondements de la théorie et la valeur des modèles. De plus, cela permet au Groupe de travail 1 du GIEC de prédire avec un haut degré de confiance que les prochaines décennies connaîtront des périodes de réchauffement plus prononcé que la période 1998-2012, sauf s’il y a des éruptions volcaniques majeures.

Le réel plafonnement est politique

En 1997, les pays membres de la Convention-cadre des Nations unies sur les changements climatiques ont imaginé le Protocole de Kyoto, dont la première période de référence s’est terminée en 2012.

Depuis la signature du Protocole, les représentations acharnées des lobbies de l’énergie fossile auprès des politiciens et des médias de tout acabit ont nui à la lutte aux changements climatiques d’une manière déterminante. Ainsi, malgré le travail légitime des scientifiques et l’accumulation d’évidences dans la littérature révisée par les pairs, rien n’a été fait concrètement pour limiter l’augmentation de la concentration des gaz à effet de serre dans l’atmosphère, principal facteur de forçage climatique.

Nous sommes actuellement sur la pire des trajectoires.

Nous sommes actuellement sur la pire des trajectoires. Et l’avenir des négociations internationales pour un accord post-2020 n’est pas rose. Les principaux blocages n’ont pas été levés à Varsovie, et l’accord anticipé à Paris en 2015 est encore très loin d’avoir des dents. Nous émettons aujourd’hui de l’ordre de 50 milliards de tonnes de CO2 équivalent par année et il est probable que ces émissions dépasseront 55, voire 58 milliards de tonnes en 2020, comme le rappelle le rapport du PNUE sur le fossé des émissions (Emission Gap Report) en 2013. Pour espérer limiter la température planétaire à une augmentation de 2 degrés à l’horizon 2100, il faudrait émettre moins de 30 milliards de tonnes de CO2 en 2020 et plus du tout à la fin du siècle.

Si vous croyez avoir vu le climat dans tous ses états, les décennies qui viennent vous réservent sans doute des surprises. Malheureusement, la science ne peut qu’apporter un éclairage à la prise de décision. Il ne suffit pas de la rendre intelligible, il faudrait que la culture scientifique de notre société lui permette de saisir là où se trouve son réel intérêt. Les coûts de la lutte et de l’adaptation croissent de façon exponentielle à mesure qu’on retarde la mise en œuvre des mesures appropriées.

Note :

  • 1. Chapitre 9, pages 769 à 772, du rapport technique du groupe 1, spécialisé en science physique du climat.

  • Claude Villeneuve
    Université du Québec à Chicoutimi

    Claude Villeneuve est professeur titulaire au Département des sciences fondamentales de l’Université du Québec à Chicoutimi, et il dirige la Chaire en éco-conseil depuis sa création en 2003. Cela fait 35 ans qu’il partage sa carrière entre la recherche, l’enseignement supérieur et les activités de terrain en sciences de l’environnement. Il a publié 13 livres, dont Est-il trop tard? Le point sur les changements climatiques, paru en septembre 2013 aux éditions Multimondes. Il est membre du comité scientifique du Consortium OURANOS et du Comité d’orientation de l’Institut du développement durable de la Francophonie. Vulgarisateur bien connu, il a prononcé plus de 500 conférences et publié des chroniques dans plusieurs médias grand public.

     

    Note de la rédaction : Les textes publiés et les opinions exprimées dans Découvrir n’engagent que les auteurs, et ne représentent pas nécessairement les positions de l’Acfas.

Vous aimez cet article?

Soutenez l’importance de la recherche en devenant membre de l’Acfas.

Devenir membre Logo de l'Acfas stylisé

Commentaires