La modélisation climatique est-elle de la science?

Alors qu’il y a de bonnes données sur le dernier siècle, il y a eu plusieurs changements différents de l’équilibre radiatif de la planète (gaz à effet de serre, aérosols, forçage solaire, volcans, changements de l’utilisation du sol, etc), certains d’entre eux étant difficiles à quantifier (par exemple l’effet indirect des aérosols) et dont l’histoire n’est pas bien connue. Les périodes plus anciennes, disons de 1850 aux années 1500 à peu près, ont une couverture raisonnable par des données liés à des paléo-proxies, et ont seulement un forçage solaire et volcanique. Dans le travail de mon propre groupe, nous avons utilisé les structures spatiales issues des reconstructions de cette période basées sur des proxies, pour regarder à la fois les forçages solaire et volcanique de la période pré-industrielle. Dans les deux cas, malgré des incertitudes (particulièrement sur l’amplitude du forçage solaire), les comparaisons sont encourageantes.

Des éruptions volcaniques récentes, également, ont fourni de très bons tests des rétroactions de la vapeur d’eau des modèles (Soden et al, 2002), des rétroactions dynamiques (Graf et al., 1994; Stenchikov et al., 2002), et du refroidissement global complet (Hansen et al, 1992). En fait, l’article de Hansen et al. (1992) prédisait vraiment l’impact en température du Pinatubo (environ 0,5 ºC) avant qu’il soit mesuré.

L’Holocène moyen (il y a 6000 ans) et le dernier maximum glaciaire (il y a ~20 000 ans) sont aussi des objectifs attractifs de validation des modèles, et tandis que certains succès sont à noter (c’est–à-dire Joussaume et al, 1999, Rind et Peteet, 1985) il y a encore des incertitudes sur les forçages et les réponses. D’autres périodes comme l’événement à 8200 ans, ou le maximum thermique Paléocène-Eocène, sont aussi utiles, mais clairement plus on remonte loin dans le temps, plus le test devient incertain.

Le 20ie siècle, cependant, fournit toujours le test apparaissant comme le plus convaincant. C’est-à-dire que les modèles tournent sur toute la période, avec nos meilleures estimations des forçages, et les résultats sont comparés avec les enregistrements d’observations. Si en excluant les effets anthropogéniques vous n’arrivez pas à reproduire les observations, tandis qu’en les incluant, vous y arrivez, vous avez un moyen simple et grossier de faire de la ‘détection et attribution’. (Il y a une beaucoup plus grosse littérature discutant de meilleures et plus puissantes façons de faire de la D&A, donc ce n’est pas du tout l’histoire complète.)

L’exemple le plus cité là-dessus est dans l’article de Stott et al. (2000), montré sur la figure. Des résultats similaires peuvent être trouvés avec des modèles simples (Crowley, 2000) et dans des modèles plus à jour (Meehl et al., 2004).

Il est important de noter que si le premier essai de validation du modèle échoue (par ex. le signal est trop faible –ou trop fort–, ou la structure spatiale n’est pas réaliste), ceci amène à un ré-examen de la physique du modèle. Ceci peut alors amener à quelques changements, par exemple l’incorporation de rétroactions entre ozone et insolation, ou le calcul de rétroactions entre forçage orbital et végétation –qui dans les deux cas améliorent la reproduction des observations. Parfois, cependant, ce sont les observations qui s’avèrent fausses. Par exemple, pour le dernier maximum glaciaire, la différence entre modèles et données soulignée par Rind et Peteet (1985) sur les températures de surface de l’océan tropical, a été par la suite plus ou moins résolue en faveur des modèles.

Page 3 of 4 | Previous page | Next page