RealClimate logo


11ºC de réchauffement, une crise climatique dans 10 ans ?

Classé dans: — gavin @ 29 janvier 2005 - (English)
  • SumoMe

par Gavin Schmidt et Stefan Rahmstorf (traduit par Thibault de Garidel et Gilles Delaygue)

Deux travaux sortis cette semaine, un papier publié dans Nature (Stainforth et al., 2005) décrivant des résultats préliminaires de l’expérience climateprediction.net, et le rapport Meeting the Climate Challenge d’un groupe politique, ont mené à des titres catastrophistes dans les médias. Sur l’article de Nature, BBC on line indique que les “températures globales pourraient s’élever de près de 11ºC”; sur le second rapport il est écrit: “Une crise climatique proche pour dans 10 ans”. [N-d-T. : Voir également Le Monde : Un réchauffement climatique de plus de 6ºC n’est plus à exclure ; Libération : Prédire chez soi]. Cela signifie-t-il que de nouvelles preuves montrent un changement climatique plus sérieux que précédemment estimé ? Nous ne le pensons pas.

(suite…)

Ces deux papiers touchent la question de l’incertitude, en particulier de l’incertitude sur la sensibilité climatique globale.

Il est important de savoir à peu près quelle est la sensibilité climatique de la Terre. Il existe différentes manières de la déterminer, en utilisant des modèles numériques du climat, des données ou enfin une combinaison des deux. A partir des premières expériences, les estimations de la sensibilité par les modèles ont été de 2 à 5°C (pour 2xCO2 – doublement de la concentration en CO2). La gamme la plus citée vient du rapport de Charney, publié en 1979. Dans ce rapport, deux modèles avaient été employés (par Suki Manabe et Jim Hansen) donnant respectivement une sensibilité de 2 et 4°C. Jule Charney avait ajouté un demi degré d’incertitude aux extrémités basses et hautes transformant ainsi la gamme de 1,5 à 4,5°C. Cette fourchette reposait donc sur une base plutôt instable. Cette estimation de la sensibilité a été utilisée pendant un nombre surprenant d’années; les résultats de travaux postérieurs ne les modifiant pas, et ne réduisant pas non plus la gamme d’incertitude. Les évaluations postérieures de la sensibilité à partir des modèles tombent pour la plupart dans ces limites, même si le prochain rapport du GIEC (IPCC), le plus à la pointe, fournit une fourchette de 2,6 à 4,1°C.

(Il faut noter que la gamme de sensibilité climatique de la Terre est différente de la température projetée en 2100, 1,4 à 5,8°C, qui inclut également l’incertitude sur les émissions de carbone liées a l’activité humaine. L’incertitude due purement à la sensibilité climatique pour n’importe quel scénario d’émission représente environ la moitié de cette gamme.)

La sensibilité climatique a également été estimée à partir d’observations. Le scénario idéal pour l’estimer serait une période de temps avec un climat à l’équilibre, de bonne connaissances des forçages maintenant cet état, et de bonnes données indicatrices du changement de la température moyenne globale. Le 20ième siècle a les meilleures estimations des changements de température moyennes globales, mais le climat n’a pas été à l’équilibre (comme le montre la hausse de la quantité de chaleur contenue dans les océans). En outre, en raison de la multiplicité d’effets liés à l’action humaine et ceux naturels sur le climat pendant le 20ième siecle (c.-à-d. les aérosols, changement d’utilisation du sol, gaz à effet de serre, ozone, forçages solaires, volcaniques, etc) il est difficile de définir exactement la part relative des différents forçages. Ainsi les évaluations basées sur le 20ième siecle n’ont pas assez de précision pour être utiles. Par exemple, le total des forçages depuis 1850 est autour de 1,6±1 W/m2 , le changement de température globale est de 0,7±0,1 °C et le taux actuel de réchauffement de l’océan (afin de corriger les conditions hors équilibre) est autour de ~0,75 W/m2 . Tout ceci implique une sensibilité de 0,8 ±1 °C/W/m2 équivalent à 3,2±4°C pour 2xCO2. Des méthodes plus sophistiquées d’analyse des données modernes ne fournissent pas plus de contraintes (c.-à-d. Forrest et coll., 2002; Knutti et coll., 2002) (cette forte incertitude est essentiellement due à l’incertitude sur le forçage lié aux aérosols; c’est également la raison principale pour laquelle l’importance d’un ‘obscurcissement global’ (“global dimming”) a peu ou pas d’implication sur la sensibilité du climat).

Quid des paléoclimats ? Une analyse de régression des données issues des carottes de glace de Vostok (Lorius et coll., 1990), a permis d’estimer la sensibilité du climat à 3-4ºC. La meilleure période pour ces estimations est le dernier maximum glaciaire. C’était une période pendant laquelle le climat était relativement stable (pendant plusieurs milliers années, il y a 20000 ans), et une période pour laquelle nous avons des évaluations fiables du forçage radiatif (changements d’albédo liés aux calottes de glace et à la végétation, concentrations en gaz à effet de serre –issues des carottes de glace– et augmentation de la charge atmosphérique en poussières) ainsi que des changements de température. Les forçages sont estimés à 6,6±1,5 W/m2 (approximativement pour moitié à cause des changements de l’albédo, et pour une petite moitié à cause des gaz à effet de serre – CO2, CH4, N2O). Les changements de température globale sont estimés à environ 5,5±0.5°C (par rapport au climat pré-industriel). Cette évaluation donne alors une sensibilité de 0,8±0.2°C/(W/m2), équivalent à ~3±1°C pour 2xCO2 . C’est une contrainte réellement très forte, comme on va le voir.

A partir de ces connaissances, que tirer des résultats de climateprediction.net ? Ils prouvent que la sensibilité à 2xCO2 d’un large ‘ensemble’ de simulations, multi-modèles, et avec différents paramètres, s’étend de 2 à 11°C. Ceci prouve qu’il est possible de construire des modèles avec des comportement extrêmes – que ces modèles soient réalistes est une autre question. Pour déterminer leur réalisme, les modèles doivent être comparés aux données. Stainforth et al. comparent leurs modèles à de très faibles contraintes issues des données, à savoir uniquement aux moyennes annuelles du climat moderne. Comme ceci n’inclut aucune variation climatique (à commencer par le cycle saisonnier), et encore moins une période de test du modèle avec une concentration différente en CO2, cette validation par les données ne permet pas de contraindre la limite supérieure de la sensibilité climatique. Le fait que même des versions de modèle avec de fortes valeur de sensibilité climatique réussissent le test de validation ne prouve pas que la Terre ait une telle sensibilité climatique élevée, cela prouve simplement que le test de validation des modèles n’est pas très sélectif. Notre sentiment est qu’une fois que la validation sera plus complète, la plupart des cas de sensibilité extrêmement élevée échoueront (en particulier sur le cycle saisonnier, qui détermine des variations plutôt que juste une moyenne).

Un test encore plus rigoureux pour une sensibilité climatique réaliste serait l’application d’un modèle à des climats avec différents niveaux de CO2. Considérons l’implication pour le climat glaciaire d’une sensibilité double de la valeur le plus probable de 3°C, c.-à-d. 6°C. Ceci impliquerait soit que les forçages glaciaires étaient la moitié de ce que nous pensions, ou que les changements de température sont doubles de ce que nous estimons. Cela serait extrêmement difficile à concilier avec les paléo-données. Evidemment cette situation devient encore plus difficilement tenable avec les paléo-données pour des valeurs de sensibilité plus grandes (>6°C). Par conséquent, nous estimons que le résultat le plus important de l’étude de Stainforth et al. est que de loin la majorité des modèles indiquent une sensibilité du climat comprise entre 2ºC et 4ºC, confortant la gamme largement admise. Le fait que certains des modèles indiquent des sensibilités beaucoup plus élevées ne devrait pas être sur-interprété.

Le rapport ‘Meeting the Climate Challenge’ a essayé de quantifier ce qui est signifié par interférence ‘dangereuse’ du climat. Tous les pays, les USA et l’Australie compris, ont signé la Convention-Cadre sur le Changement Climatique qui les oblige à prévenir toute interférence ‘dangereuse’ avec le système climatique. En fait quantifier ce seuil est assez délicat. Pour différentes raisons (bien que certaines subjectives), ils proposent qu’un réchauffement global supérieur à 2°C (par rapport à la période pré-industrielle) deviendra de plus en plus dangereux. Le problème réside dans la limitation de ce réchauffement étant données les incertitudes sur la sensibilité climatique.

L’analyse utilisée dans ce rapport se fonde sur une étude de Baer et Athanasiou. Ils effectuent un calcul de probabilité en supposant que chaque valeur de sensibilité dans la gamme du GIEC (IPCC) est équiprobable. C’est une hypothèse relativement basse (puisqu’elle n’inclut pas les sensibilités très élevées qui sont –comme nous l’avons montré– infirmées par les paléo-données). ces résultats suggèrent qu’afin d’éviter un changement ‘dangereux’ du climat avec une probabilité raisonnable (>90%), le forçage maximum permis se situe autour de 2 W/m2 au dessus des niveaux pré-industriels. Ce forçage correspond à une concentration atmosphérique d’environ 400 ppm de CO2, en supposant tous les autres forçages à leur niveau pré-industriel. Cette limite est dans une certaine mesure subjective, mais semblable (bien que légèrement inférieure) au niveau proposé par Jim Hansen.

Il est à noter que ceci n’est pas équivalent à simplement atteindre ce niveau de 400 ppmv de CO2 (qui devrait très probablement être atteint d’ici 10 à 15 ans). Ceci tient au fait que les autres forçages (aérosols surtout) ont diminué collectivement le forçage total jusqu’à maintenant. Le niveau actuel est d’environ 1,6 W/m2. Si nous atteindrons, et quand, un forçage total de 2 W/m2 est fonction des changements de nombreux différents forçages. Les CFCs doivent diminuer à l’avenir et le CH4 est actuellement stabilisé (et probablement pourrait être réduit), mais les taux de croissance des aérosols sont tout à fait incertains.

Existe-t-il un “point de non retour” ou “un seuil critique” qui sera franchi quand les forçages excèderont ce niveau, comme rapporté dans quelques médias ? Nous ne croyons pas qu’il y ait de base scientifique à cette hypothèse. Cependant, comme cela a été précisé l’année dernière à Beijing dans un colloque international à ce sujet par Carlo Jaeger : fixer une limite est une manière sensée de traiter collectivement un risque. Une limite de vitesse est un exemple typique. Quand nous fixons une limite de vitesse à 130 km/h, il n’y a aucun “seuil critique” – rien de terrible ne se produit si vous allez à 140 ou 150 km/h. Mais peut-être à 160 km/h les morts excèderaient clairement les niveaux acceptables. Fixer une limite au réchauffement global à 2ºC de plus que la température pré-industrielle est l’objectif politique officiel de l’Union Européenne, et c’est probablement une limite sensée. Mais, comme pour les limites de vitesse, il peut être difficile d’y souscrire.

L’incertitude sur la sensibilité du climat ne va pas disparaître bientôt, et devrait donc être implémentée dans les évaluations du climat futur. Cependant, ce n’est pas une variable complètement libre, et les valeurs extrêmement élevées discutées dans les médias au cours des deux dernières semaines ne sont pas scientifiquement crédibles.


51 Responses to “11ºC de réchauffement, une crise climatique dans 10 ans ?”

  1. 51
    david jones says:

    Thanks all for an excellent thread.

    I have a couple of question relating to the exact meaning of “radiative forcing”.

    I have always understood this to be a forcing acting on the surface, so the current +1.6W/M^2 means that there is effectively an additional 1.6W/M^2 of down radiation at the earth’s surface. Is this correct?

    If so, then the Stefan-Boltzmann equation applied to the observed temperature change (and projected temperature change under double CO2) should approximately tell you the total forcing incorporating climate system feedbacks? Then, one can presumably decompose this “total forcing” into its components which might include WV feedbacks, cloud feedbacks, surface albedo feedbacks etc. If there a fault in this logic, and can anyone point to a comprehensive analysis in the literature along these lines?

    Cheers,

    DJ

    [Response: The radiative forcings are strictly defined at the tropopause, not at the surface. The impact of various forcings and the decomposition of the impacts due to various feedbacks can be found in any number of papers, of which Hansen et al (1997) or Hansen et al (2002) (and references therein) are good starts. -gavin]


Switch to our mobile site