Is Climate Modelling Science?

The 20th Century though still provides the test that appears to be most convincing. That is to say, the models are run over the whole period, with our best guesses for what the forcings were, and the results compared to the observed record. If by leaving out the anthropogenic effects you fail to match the observed record, while if you include them, you do, you have a quick-and-dirty way to do ‘detection and attribution’. (There is a much bigger literature that discusses more subtle and powerful ways to do D&A, so this isn’t the whole story by any means). The most quoted example of this is from the Stott et al. (2000) paper shown in the figure. Similar results can be found in simple models (Crowley, 2000) and in more up to date models (Meehl et al, 2004).

It’s important to note that if the first attempt to validate the model fails (e.g. the signal is too weak (or too strong), or the spatial pattern is unrealistic), this leads to a re-examination of the physics of the model. This may then lead to additional changes, for example, the incorporation of ozone feedbacks to solar changes, or the calculation of vegetation feedbacks to orbital forcing – which in each case improved the match to the observations. Sometimes though it is the observations that turn out to be wrong. For instance, for the Last Glacial Maximum, model-data mis-matches highlighted by Rind and Peteet (1985) for the tropical sea surface temperatures, have subsequently been more or less resolved in favour of the models.

So, in summary, the model results are compared to data, and if there is a mismatch, both the data and the models are re-examined. Sometimes the models can be improved, sometimes the data was mis-interpreted. Every time this happens and we get improved matches between them, we have a little more confidence in their projections for the future, and we go out and look for better tests. That is in fact pretty close to the textbook definition of science.

Je vous l’accorde, l’auteur de la déclaration en question a très peu idée de ce qu’est la modélisation climatique, ou de comment et à quoi elle sert. Pourtant, que sa déclaration puisse être rapportée dans un grand journal américain en dit beaucoup sur le niveau de connaissance du public du changement climatique et des modèles utilisés pour tenter de le comprendre. Ainsi je vais essayer ici de démontrer comment fonctionne la science de la modélisation climatique, et, effectivement, pourquoi elle est un peu différente d’autres types de sciences (sans qu’il y ait quoi que soit d’anormal à cela !).

Le climat est complexe. Comme les climatologues n’ont pas accès à des centaines de Terre pour les observer et faire des expériences, ils ont besoin de laboratoires virtuels permettant de tester des idées de façon controlée. L’immense palette de processus physiques impliqués est encapsulée dans ce que l’on appelle les modèles de circulation générale (ou MCG). Ces modèles sont constitués de modules connectés traitant du transfert radiatif, de la circulation de l’atmosphère et des océans, de la physique de la convection humide et de la formation des nuages, de la glace de mer, humidité du sol et ainsi de suite. Ils contiennent notre meilleure compréhension actuelle de l’interaction des processus physiques (par exemple, comment l’évaporation dépend du vent et de la température de surface, ou comment les nuages dépendent de l’humidité et du mouvement vertical), en conservant les quantités de base telles que l’énergie, la masse et le moment. Ces estimations sont basées sur des théories physiques ainsi que des observations empiriques réalisées partout dans le monde. Néanmoins, certains processus interviennent à des échelles trop petites pour être décrits avec la taille de grille disponible dans ces modèles (nécessairement globaux). Ces processus ‘sous-échelles’ nécessitent ainsi d’être ‘paramétrisés’.

Page 3 of 5 | Previous page | Next page