• Skip to primary navigation
  • Skip to main content
  • Skip to primary sidebar
  • Skip to footer

RealClimate

Climate science from climate scientists...

  • Start here
  • Model-Observation Comparisons
  • Miscellaneous Climate Graphics
  • Surface temperature graphics
You are here: Home / Climate Science / Climate modelling / 11ºC warming, climate crisis in 10 years? 11ºC de réchauffement, une crise climatique dans 10 ans ?

11ºC warming, climate crisis in 10 years? 11ºC de réchauffement, une crise climatique dans 10 ans ?

29 Jan 2005 by Gavin

by Gavin Schmidt and Stefan Rahmstorf

Two stories this week, a paper in Nature (Stainforth et al, 2005) describing preliminary results of the climateprediction.net experiments, and the Meeting the Climate Challenge report from a high level political group have lead to dramatic headlines. On the Nature paper, BBC online reported that “temperatures around the world could rise by as much as 11ºC “; on the latter report it headlined: “Climate crisis near ‘in 10 years’”. Does this mean there is new evidence that climate change is more serious than previously thought? We think not.


par Gavin Schmidt et Stefan Rahmstorf (traduit par Thibault de Garidel et Gilles Delaygue)

Deux travaux sortis cette semaine, un papier publié dans Nature (Stainforth et al., 2005) décrivant des résultats préliminaires de l’expérience climateprediction.net, et le rapport Meeting the Climate Challenge d’un groupe politique, ont mené à des titres catastrophistes dans les médias. Sur l’article de Nature, BBC on line indique que les “températures globales pourraient s’élever de près de 11ºC”; sur le second rapport il est écrit: “Une crise climatique proche pour dans 10 ans”. [N-d-T. : Voir également Le Monde : Un réchauffement climatique de plus de 6ºC n’est plus à exclure ; Libération : Prédire chez soi]. Cela signifie-t-il que de nouvelles preuves montrent un changement climatique plus sérieux que précédemment estimé ? Nous ne le pensons pas.

(suite…)


Both issues touch on the issue of uncertainty, in particular, the uncertainty in the global climate sensitivity.

It is important to know roughly what the climate sensitivity of the planet is. There are a number of ways to do this, using either climate models or data or a combination of both. From the earliest experiments model estimates have ranged from around 2 to 5°C (for 2xCO2). The most quoted range comes from the 1979 Charney report. There, two models were looked at (from Suki Manabe and Jim Hansen) which had a 2 and 4°C sensitivity, respectively. Jule Charney added a half a degree uncertainty at the low and high end and thus the range became 1.5 to 4.5°C. Thus, this early range stood on rather shaky grounds. It has lasted for a surprisingly long time, with subsequent results neither challenging it, nor being able to narrow it down further. Subsequent model estimates have pretty much fallen within those limits, though the actual range for the state-of-the-art models being analysed for the next IPCC report is 2.6 to 4.1°C. (Note that the range of climate sensitivity is not the same as the temperature range projected for 2100 (1.4 to 5.8°C), which also includes uncertainty in projected emissions. The uncertainty due purely to the climate sensitivity for any one scenario is around half that range.)

Attempts have also been made to constrain climate sensitivity from observations. Ideally, we would need a time when the climate was at an equilibrium state, and with good estimates of the forcings that maintained that state, and good data for the global mean temperature change. The 20th Century has the best estimates of the global mean temperature changes but the climate has not been in equilibrium (as shown by the increasing heat content of the oceans). Also, due to the multiplicity of anthropogenic and natural effects on the climate over this time (i.e. aerosols, land-use change, greenhouse gases, ozone changes, solar, volcanic etc.) it is difficult to accurately define the forcings. Thus estimates based purely on the modern period do not have enough precision to be useful. For instance, total forcings since 1850 are around 1.6+/-1 W/m2, the temperature change is around 0.7+/-0.1 °C and the current rate of warming of the ocean (to correct for the non-equilibrium conditions) is around ~0.75 W/m2. Together, that implies a sensitivity of 0.8 +/- 1 °C/W/m2 or 3.2+/-4°C for 2xCO2). More sophisticated methods of looking at the modern data don’t provide more of a constraint either (i.e. Forest et al., 2002; Knutti et al. 2002). (This large uncertainty essentially due to the uncertainty in the aerosol forcing; it is also the main reason why the magnitude of global dimming has little or no implication for climate sensitivity).

What about paleo-climate? An early attempt to use the Vostok ice core data in a regression analysis (Lorius et al., 1990) resulted in a climate sensitivity of 3-4ºC. The best period for these purposes is the last glacial maximum. This was a relatively stable climate (for several thousand years, 20,000 years ago), and a period where we have reasonable estimates of the radiative forcing (albedo changes from ice sheets and vegetation changes, greenhouse gas concentrations (derived from ice cores) and an increase in the atmospheric dust load) and temperature changes. A reasonable estimate of the forcings is 6.6+/-1.5 W/m2 (roughly half from albedo changes, slightly less than half from greenhouse gases – CO2, CH4, N2O). The global temperature changes were around 5.5 +/-0.5°C (compared to pre-industrial climate). This estimate then gives 0.8 +/- 0.2°C/(W/m2), or ~3+/-1°C for 2xCO2. This is actually quite a strong constraint, as we will see.

With this background, what should one make of the climateprediction.net results? They show that the sensitivity to 2xCO2 of a large multi-model ensemble with different parameters ranges from 2 to 11°C. This shows that it is possible to construct models with rather extreme behavior – whether these are realistic is another matter. To test for this, the models must be compared with data. Stainforth et al. subject their resulting models only to very weak data constraints, namely only to data for the annual-mean present-day climate. Since this does not include any climatic variations (not even the seasonal cycle), let alone a test period with a different CO2 level, this data test is unable to constrain the upper limit of the climate sensitivity range. The fact that even model versions with very high climate sensitivities pass their test does not show that the real world could have such high climate sensitivity; it merely shows that the test they use is not very selective. Our feeling is that once the validation becomes more comprehensive, most of the extremely high sensitivity examples will fail (particularly on the seasonal cycle, which tests for variations rather than just a mean).

A yet more stringent test for realistic climate sensitivity is the application of a model to a climate with different CO2 levels. Consider the implications for glacial climate of a sensitivity of twice the most likely value of 3°C, i.e. 6°C. This would imply that either the glacial forcings were only half what we thought, or that the temperature changes were twice what we infer. This would be extremely difficult to square with the paleo-data. Obviously the situation becomes even more untenable for the larger values (>6°C). Hence, we feel that the most important result of the study of Stainforth et al. is that by far most of the models had climate sensitivities between 2ºC and 4ºC, giving additional support to the widely accepted range (Update: As mentioned in the follow up post, this clustering is mainly a function of the sensitivity of the original model and the random nature of the perturbations). The fact that some of the models had much higher sensitivities should not be over-interpreted.

The ‘Meeting the Climate Challenge’ report tried to quantify what is meant by ‘dangerous’ interference in climate. All countries including the US and Australia have signed the Framework Convention on Climate Change which obligates them to prevent ‘dangerous’ interference with the climate system. Actually quantifying what this means is rather tricky. For various reasons (although some are subjective) they suggest that any global warming above 2°C (above the pre-industrial) is likely to be increasingly dangerous. The issue is how one prevents such an outcome given the uncertainty in the climate sensitivity.

The analysis used in this report is based on a study by Baer and Athanasiou. They perform a probability calculation assuming that any of the climate sensitivities in the IPCC range are equally likely. This is a relatively conservative assumption (since it does not include the really high sensitivities that we argued above are ruled out by paleo-data). The results suggest that in order to avoid ‘dangerous’ climate change with a reasonable probability (>90%), the maximum forcing that could be allowed is around 2 W/m2 over pre-industrial levels. This corresponds to a CO2 level of around 400 ppm, assuming all other forcings were at pre-industrial levels. This limit is to some extent subjective, but it is similar (though a little lower) than the level proposed by Jim Hansen.

Note that this is not the same as simply reaching the 400 ppmv CO2 level (which is highly likely to happen over the next ten to 15 years). The reason is because the other forcings (aerosols mostly) have collectively diminished the total forcing up to now. Currently this is about 1.6 W/m2. Whether and when we reach 2 W/m2 total forcing is a function of the changes in many different forcings. CFCs are projected to decline in the future and CH4 is currently steady (and possibly could be reduced), however aerosol growth rates are quite uncertain.

Is there a “point of no return” or “critical threshold” that will be crossed when the forcings exceed this level, as reported in some media? We don’t believe there is scientific evidence for this. However, as was pointed out at an international symposium on this topic last year in Beijing by Carlo Jaeger: setting a limit is a sensible way to collectively deal with a risk. A speed limit is a prime example. When we set a speed limit at 60 mph, there is no “critical threshold” there – nothing terrible happens if you go to 65 or 70 mph, say. But perhaps at 90 mph the fatalities would clearly exceed acceptable levels. Setting a limit to global warming at 2ºC above pre-industrial temperature is the official policy target of the European Union, and is probably a sensible limit in this sense. But, just like speed limits, it may be difficult to adhere to.

Uncertainty in climate sensitivity is not going to disappear any time soon, and should therefore be built into assessments of future climate. However, it is not a completely free variable, and the extremely high end values that have been discussed in media reports over the last couple of weeks are not scientifically credible.


Ces deux papiers touchent la question de l’incertitude, en particulier de l’incertitude sur la sensibilité climatique globale.

Il est important de savoir à peu près quelle est la sensibilité climatique de la Terre. Il existe différentes manières de la déterminer, en utilisant des modèles numériques du climat, des données ou enfin une combinaison des deux. A partir des premières expériences, les estimations de la sensibilité par les modèles ont été de 2 à 5°C (pour 2xCO2 – doublement de la concentration en CO2). La gamme la plus citée vient du rapport de Charney, publié en 1979. Dans ce rapport, deux modèles avaient été employés (par Suki Manabe et Jim Hansen) donnant respectivement une sensibilité de 2 et 4°C. Jule Charney avait ajouté un demi degré d’incertitude aux extrémités basses et hautes transformant ainsi la gamme de 1,5 à 4,5°C. Cette fourchette reposait donc sur une base plutôt instable. Cette estimation de la sensibilité a été utilisée pendant un nombre surprenant d’années; les résultats de travaux postérieurs ne les modifiant pas, et ne réduisant pas non plus la gamme d’incertitude. Les évaluations postérieures de la sensibilité à partir des modèles tombent pour la plupart dans ces limites, même si le prochain rapport du GIEC (IPCC), le plus à la pointe, fournit une fourchette de 2,6 à 4,1°C.

(Il faut noter que la gamme de sensibilité climatique de la Terre est différente de la température projetée en 2100, 1,4 à 5,8°C, qui inclut également l’incertitude sur les émissions de carbone liées a l’activité humaine. L’incertitude due purement à la sensibilité climatique pour n’importe quel scénario d’émission représente environ la moitié de cette gamme.)

La sensibilité climatique a également été estimée à partir d’observations. Le scénario idéal pour l’estimer serait une période de temps avec un climat à l’équilibre, de bonne connaissances des forçages maintenant cet état, et de bonnes données indicatrices du changement de la température moyenne globale. Le 20ième siècle a les meilleures estimations des changements de température moyennes globales, mais le climat n’a pas été à l’équilibre (comme le montre la hausse de la quantité de chaleur contenue dans les océans). En outre, en raison de la multiplicité d’effets liés à l’action humaine et ceux naturels sur le climat pendant le 20ième siecle (c.-à-d. les aérosols, changement d’utilisation du sol, gaz à effet de serre, ozone, forçages solaires, volcaniques, etc) il est difficile de définir exactement la part relative des différents forçages. Ainsi les évaluations basées sur le 20ième siecle n’ont pas assez de précision pour être utiles. Par exemple, le total des forçages depuis 1850 est autour de 1,6±1 W/m2 , le changement de température globale est de 0,7±0,1 °C et le taux actuel de réchauffement de l’océan (afin de corriger les conditions hors équilibre) est autour de ~0,75 W/m2 . Tout ceci implique une sensibilité de 0,8 ±1 °C/W/m2 équivalent à 3,2±4°C pour 2xCO2. Des méthodes plus sophistiquées d’analyse des données modernes ne fournissent pas plus de contraintes (c.-à-d. Forrest et coll., 2002; Knutti et coll., 2002) (cette forte incertitude est essentiellement due à l’incertitude sur le forçage lié aux aérosols; c’est également la raison principale pour laquelle l’importance d’un ‘obscurcissement global’ (“global dimming”) a peu ou pas d’implication sur la sensibilité du climat).

Quid des paléoclimats ? Une analyse de régression des données issues des carottes de glace de Vostok (Lorius et coll., 1990), a permis d’estimer la sensibilité du climat à 3-4ºC. La meilleure période pour ces estimations est le dernier maximum glaciaire. C’était une période pendant laquelle le climat était relativement stable (pendant plusieurs milliers années, il y a 20000 ans), et une période pour laquelle nous avons des évaluations fiables du forçage radiatif (changements d’albédo liés aux calottes de glace et à la végétation, concentrations en gaz à effet de serre –issues des carottes de glace– et augmentation de la charge atmosphérique en poussières) ainsi que des changements de température. Les forçages sont estimés à 6,6±1,5 W/m2 (approximativement pour moitié à cause des changements de l’albédo, et pour une petite moitié à cause des gaz à effet de serre – CO2, CH4, N2O). Les changements de température globale sont estimés à environ 5,5±0.5°C (par rapport au climat pré-industriel). Cette évaluation donne alors une sensibilité de 0,8±0.2°C/(W/m2), équivalent à ~3±1°C pour 2xCO2 . C’est une contrainte réellement très forte, comme on va le voir.

A partir de ces connaissances, que tirer des résultats de climateprediction.net ? Ils prouvent que la sensibilité à 2xCO2 d’un large ‘ensemble’ de simulations, multi-modèles, et avec différents paramètres, s’étend de 2 à 11°C. Ceci prouve qu’il est possible de construire des modèles avec des comportement extrêmes – que ces modèles soient réalistes est une autre question. Pour déterminer leur réalisme, les modèles doivent être comparés aux données. Stainforth et al. comparent leurs modèles à de très faibles contraintes issues des données, à savoir uniquement aux moyennes annuelles du climat moderne. Comme ceci n’inclut aucune variation climatique (à commencer par le cycle saisonnier), et encore moins une période de test du modèle avec une concentration différente en CO2, cette validation par les données ne permet pas de contraindre la limite supérieure de la sensibilité climatique. Le fait que même des versions de modèle avec de fortes valeur de sensibilité climatique réussissent le test de validation ne prouve pas que la Terre ait une telle sensibilité climatique élevée, cela prouve simplement que le test de validation des modèles n’est pas très sélectif. Notre sentiment est qu’une fois que la validation sera plus complète, la plupart des cas de sensibilité extrêmement élevée échoueront (en particulier sur le cycle saisonnier, qui détermine des variations plutôt que juste une moyenne).

Un test encore plus rigoureux pour une sensibilité climatique réaliste serait l’application d’un modèle à des climats avec différents niveaux de CO2. Considérons l’implication pour le climat glaciaire d’une sensibilité double de la valeur le plus probable de 3°C, c.-à-d. 6°C. Ceci impliquerait soit que les forçages glaciaires étaient la moitié de ce que nous pensions, ou que les changements de température sont doubles de ce que nous estimons. Cela serait extrêmement difficile à concilier avec les paléo-données. Evidemment cette situation devient encore plus difficilement tenable avec les paléo-données pour des valeurs de sensibilité plus grandes (>6°C). Par conséquent, nous estimons que le résultat le plus important de l’étude de Stainforth et al. est que de loin la majorité des modèles indiquent une sensibilité du climat comprise entre 2ºC et 4ºC, confortant la gamme largement admise. Le fait que certains des modèles indiquent des sensibilités beaucoup plus élevées ne devrait pas être sur-interprété.

Le rapport ‘Meeting the Climate Challenge’ a essayé de quantifier ce qui est signifié par interférence ‘dangereuse’ du climat. Tous les pays, les USA et l’Australie compris, ont signé la Convention-Cadre sur le Changement Climatique qui les oblige à prévenir toute interférence ‘dangereuse’ avec le système climatique. En fait quantifier ce seuil est assez délicat. Pour différentes raisons (bien que certaines subjectives), ils proposent qu’un réchauffement global supérieur à 2°C (par rapport à la période pré-industrielle) deviendra de plus en plus dangereux. Le problème réside dans la limitation de ce réchauffement étant données les incertitudes sur la sensibilité climatique.

L’analyse utilisée dans ce rapport se fonde sur une étude de Baer et Athanasiou. Ils effectuent un calcul de probabilité en supposant que chaque valeur de sensibilité dans la gamme du GIEC (IPCC) est équiprobable. C’est une hypothèse relativement basse (puisqu’elle n’inclut pas les sensibilités très élevées qui sont –comme nous l’avons montré– infirmées par les paléo-données). ces résultats suggèrent qu’afin d’éviter un changement ‘dangereux’ du climat avec une probabilité raisonnable (>90%), le forçage maximum permis se situe autour de 2 W/m2 au dessus des niveaux pré-industriels. Ce forçage correspond à une concentration atmosphérique d’environ 400 ppm de CO2, en supposant tous les autres forçages à leur niveau pré-industriel. Cette limite est dans une certaine mesure subjective, mais semblable (bien que légèrement inférieure) au niveau proposé par Jim Hansen.

Il est à noter que ceci n’est pas équivalent à simplement atteindre ce niveau de 400 ppmv de CO2 (qui devrait très probablement être atteint d’ici 10 à 15 ans). Ceci tient au fait que les autres forçages (aérosols surtout) ont diminué collectivement le forçage total jusqu’à maintenant. Le niveau actuel est d’environ 1,6 W/m2. Si nous atteindrons, et quand, un forçage total de 2 W/m2 est fonction des changements de nombreux différents forçages. Les CFCs doivent diminuer à l’avenir et le CH4 est actuellement stabilisé (et probablement pourrait être réduit), mais les taux de croissance des aérosols sont tout à fait incertains.

Existe-t-il un “point de non retour” ou “un seuil critique” qui sera franchi quand les forçages excèderont ce niveau, comme rapporté dans quelques médias ? Nous ne croyons pas qu’il y ait de base scientifique à cette hypothèse. Cependant, comme cela a été précisé l’année dernière à Beijing dans un colloque international à ce sujet par Carlo Jaeger : fixer une limite est une manière sensée de traiter collectivement un risque. Une limite de vitesse est un exemple typique. Quand nous fixons une limite de vitesse à 130 km/h, il n’y a aucun “seuil critique” – rien de terrible ne se produit si vous allez à 140 ou 150 km/h. Mais peut-être à 160 km/h les morts excèderaient clairement les niveaux acceptables. Fixer une limite au réchauffement global à 2ºC de plus que la température pré-industrielle est l’objectif politique officiel de l’Union Européenne, et c’est probablement une limite sensée. Mais, comme pour les limites de vitesse, il peut être difficile d’y souscrire.

L’incertitude sur la sensibilité du climat ne va pas disparaître bientôt, et devrait donc être implémentée dans les évaluations du climat futur. Cependant, ce n’est pas une variable complètement libre, et les valeurs extrêmement élevées discutées dans les médias au cours des deux dernières semaines ne sont pas scientifiquement crédibles.

Filed Under: Climate modelling, Climate Science, Greenhouse gases, Paleoclimate

About Gavin

Reader Interactions

51 Responses to "11ºC warming, climate crisis in 10 years? 11ºC de réchauffement, une crise climatique dans 10 ans ?"

Comments pagination

« Previous 1 2
  1. david jones says

    22 Feb 2005 at 6:19 PM

    Thanks all for an excellent thread.

    I have a couple of question relating to the exact meaning of “radiative forcing”.

    I have always understood this to be a forcing acting on the surface, so the current +1.6W/M^2 means that there is effectively an additional 1.6W/M^2 of down radiation at the earth’s surface. Is this correct?

    If so, then the Stefan-Boltzmann equation applied to the observed temperature change (and projected temperature change under double CO2) should approximately tell you the total forcing incorporating climate system feedbacks? Then, one can presumably decompose this “total forcing” into its components which might include WV feedbacks, cloud feedbacks, surface albedo feedbacks etc. If there a fault in this logic, and can anyone point to a comprehensive analysis in the literature along these lines?

    Cheers,

    DJ

    [Response: The radiative forcings are strictly defined at the tropopause, not at the surface. The impact of various forcings and the decomposition of the impacts due to various feedbacks can be found in any number of papers, of which Hansen et al (1997) or Hansen et al (2002) (and references therein) are good starts. -gavin]

« Older Comments

Primary Sidebar

Search

Search for:

Email Notification

get new posts sent to you automatically (free)
Loading

Recent Posts

  • Unforced Variations: Dec 2025
  • Who should pay?
  • Site updates etc.
  • Raising Climate Literacy
  • Unforced variations: Nov 2025
  • High-resolution ‘fingerprint’ images reveal a weakening Atlantic Ocean circulation (AMOC)

Our Books

Book covers
This list of books since 2005 (in reverse chronological order) that we have been involved in, accompanied by the publisher’s official description, and some comments of independent reviewers of the work.
All Books >>

Recent Comments

  • Susan Anderson on Unforced Variations: Dec 2025
  • One Anonymous Bloke on Unforced Variations: Dec 2025
  • Susan Anderson on Unforced Variations: Dec 2025
  • Piotr on Unforced Variations: Dec 2025
  • zebra on Who should pay?
  • Ray Ladbury on Who should pay?
  • Tomáš Kalisz on Unforced Variations: Dec 2025
  • Ray Ladbury on Who should pay?
  • Nigelj on Who should pay?
  • Nigelj on Raising Climate Literacy
  • Barry E Finch on Unforced Variations: Dec 2025
  • Ken Towe on Who should pay?
  • Atomsk’s Sanakan on Unforced variations: Nov 2025
  • patrick o twentyseven on Who should pay?
  • Atomsk’s Sanakan on Raising Climate Literacy
  • Atomsk’s Sanakan on Raising Climate Literacy
  • Susan Anderson on Who should pay?
  • Susan Anderson on Raising Climate Literacy
  • Radge Havers on Who should pay?
  • One Anonymous Bloke on Unforced Variations: Dec 2025
  • Ron R.. on Who should pay?
  • JCM on Raising Climate Literacy
  • Barry E Finch on Unforced Variations: Dec 2025
  • Barry E Finch on Unforced Variations: Dec 2025
  • Barton Paul Levenson on Raising Climate Literacy
  • Barton Paul Levenson on Who should pay?
  • MA Rodger on Unforced Variations: Dec 2025
  • zebra on Unforced Variations: Dec 2025
  • zebra on Unforced Variations: Dec 2025
  • ozajh on Who should pay?

Footer

ABOUT

  • About
  • Translations
  • Privacy Policy
  • Contact Page
  • Login

DATA AND GRAPHICS

  • Data Sources
  • Model-Observation Comparisons
  • Surface temperature graphics
  • Miscellaneous Climate Graphics

INDEX

  • Acronym index
  • Index
  • Archives
  • Contributors

Realclimate Stats

1,389 posts

15 pages

248,798 comments

Copyright © 2025 · RealClimate is a commentary site on climate science by working climate scientists for the interested public and journalists.