Quelques questions de nature statistique liées au débat sur le climat

El 26 septiembre 2010  - Escrito por  Paul Deheuvels Ver los comentarios (26)

Problèmes liés à la modélisation des phénomènes.

Les climatologues introduisent des modèles mathématiques simplifiés pour décrire des phénomènes très complexes. Ils se servent ensuite de ces modèles pour prédire les grandes évolutions des masses terrestres, atmosphériques et océaniques, soumises aux influences de leurs différents composants chimiques et de l’irradiation solaire. Le but du texte présent n’est pas de passer en revue les dits modèles, divers et variés (et pouvant être, d’ailleurs d’une grande sophistication mathématique), mais plutôt de questionner leur adéquation avec la réalité. Une conclusion déduite d’un modèle mathématique peut être très éloignée du phénomène physique qu’elle est sensée décrire. Elle peut être vraie sur le plan mathématique, tout en étant fausse dans la réalité. J’ai souvent entendu l’affirmation, au sujet des modèles climatiques, que certaines conclusions qui pourraient en être déduites doivent être vraies, puisque tous les modèles mathématiques connus aboutissent au même résultat. Ce n’est pas une démarche scientifique. Tout au plus, pourrait-on parler de présomption de vérité dans un tel cas. Il convient toujours de distinguer la vérité mathématique des modèles et la vérité physique des phénomènes qu’ils représentent. En permanence, il importe de confronter les modèles à la réalité pour discerner expérimentalement leur capacité à fournir de bonnes interprétations. On fait emploi, à cet effet, de méthodes statistiques, visant à déterminer l’adéquation des approximations à la réalité. Le principe de base qu’il faut d’adopter est que :

(A) Les modèles mathématiques de description de phénomènes climatiques ne constituent pas la réalité, mais plutôt une approximation de celle-ci, obtenue en simplifiant la représentation des objets concernés, au point d’en permettre le traitement numérique. Leurs conclusions n’ont pas de valeur si leur cohérence avec les phénomènes réels n’est pas expérimentalement démontrée.

Pour faire en sorte qu’un modèle fournisse des résultats réalistes, on l’affine, typiquement, à l’aide de techniques d’ajustement statistique, où un paramètre est choisi de telle sorte qu’il minimise un écart entre la valeur prévue par le modèle et la valeur observée.

Imaginons, à titre d’exemple, que la variable d’intérêt soit la température mesurée à l’instant t dans une station climatique. Les variables d’entrée pourront prendre en compte l’heure et le jour d’observation (pour prendre en compte les variations saisonnières), aussi bien que (par exemple) la teneur en CO2 de l’atmosphère et l’intensité de l’irradiation solaire. Chacune de ces quantités peut être observée, mais avec une précision très variable suivant la période étudiée. L’ajustement statistique du paramètre revient à minimiser les écarts entre les valeurs prévues par le modèle et les valeurs exactes, mais ceci n’a de sens que sur la période d’observation. Le procédé aboutit, par construction à une bonne qualité apparente de la modélisation, mais celle-ci n’est plus nécessairement valable en dehors de la période ayant servi à cet ajustement. On en retiendra le principe suivant :

(B) Une modélisation effectuée par ajustement des paramètres à partir des observations dans une période donnée ne fournit généralement pas nécessairement une représentation fidèle des phénomènes en dehors de cette période. En conséquence, elle ne peut fournir des prévisions réellement fiables à long terme.

Une autre formulation de ce principe est qu’il est toujours dangereux d’extrapoler des ajustements très au delà de la période d’observation. L’histoire de la statistique abonde d’exemples où la prévision de séries chronologiques à partir de leur observation sur une courte période s’est trouvée mise en défaut à long terme. En gros, le risque de défaut d’adéquation du modèle au-delà de la période d’ajustement rend de telles prévisions, pour le moins, sujettes à caution.

La littérature scientifique fournit de nombreux exemples où les prévisions issues de modèles se sont avérées, ainsi, inexactes à moyen ou à long terme. Par exemple, plusieurs auteurs ont signalé le fait que, de 1999 à 2010, l’élévation de température, observée dans l’hémisphère nord, restait très en deçà de ce que prévoyaient les modèles basés sur l’influence de l’augmentation de la teneur en CO2 dans l’atmosphère. Comme celle-ci augmente avec un rythme constant, il serait cohérent avec les modèles concernés de voir un phénomène identique pour les températures. Comme ce n’est pas le cas, cela met ipso facto en défaut le caractère interprétatif des modèles concernés.

L’exemple des cours de valeurs financières illustre bien ce principe. S’il était possible de prévoir leurs cours de manière précise, et à long terme, à partir de modèles simplifiés basés sur l’observation des chroniques de bourse, il y a longtemps que le procédé serait mis en œuvre et appliqué avec profit. Or tel n’est pas réellement le cas, même en ayant une connaissance approfondie des structures des entreprises concernées, et compte tenu de la complexité des marchés financiers.

Le défaut d’adéquation des prévisions issues de représentations mathématiques avec la réalité fait donc partie des dangers structurels de la modélisation. Cela ne veut pas dire non plus que le problème soit sans issue. L’exemple des sciences physiques montre que les efforts visant à construire des modèles mathématiques de plus en plus précis peuvent aboutir à des résultats excellents (par exemple, en physique des particules, mais au bout de quelques siècles d’efforts…). Par contre, il ne faut jamais prendre les modèles mathématiques pour plus qu’ils ne sont, et ne les accepter que dans la mesure où leur valeur prédictive est clairement établie.

Pour des questions aussi sérieuses et graves que celles du climat, où les décisions politiques découlant des conclusions des climatologues sont de nature à influencer durablement la législation interne des Etats, ainsi que le commerce international, il semble qu’on ne s’entoure pas des garanties les plus élémentaires pour vérifier les hypothèses avancées. L’une d’entre elles est le caractère, anthropique (ou non), du réchauffement climatique. On a longtemps parlé de la fameuse « courbe en crosse de hockey » de Mann, Bradley et Hughes (1998), complaisamment reprise par le GIEC en 2001, qui a été démontrée comme fausse, et relevant d’une mauvaise analyse statistique par McIntyre et McKitrick (2003, 2005), leurs conclusions étant reprises dans le rapport Wegman de la National Academy of Sciences des USA, en 2006. Il s’avère que la période connue sous le nom d’ « optimum médiéval » aurait connu vers l’an 1200 des températures moyennes de l’ordre de 2°C supérieures aux températures actuelles. Si tel était bien le cas, la conclusion naturelle qui en découlerait pourrait être de rejeter les prévisions les plus catastrophiques sur une augmentation comparable de la température, au cours des siècles à venir, tout autant que l’interprétation, dite « carbocentique » de l’influence du CO2 sur le climat (qui attribue au CO2 issu des activités humaines une part prépondérante sur l’évolution climatique). Celle-ci pourrait être, ainsi, d’une ampleur bien moins grande que celle prévue par les rapports du GIEC. Mais alors, ne faudrait-il pas revoir les dispositions prises par les Etats pour réduire les rejets de CO2 dans l’atmosphère ?

Nous ne prenons aucunement parti pour l’une ou l’autre de ces hypothèses. Les faits se chargeront bien de les départager. Par contre, nous insistons sur le fait, exemplaire de notre point de vue, que la « courbe en crosse de hockey » de Mann et al. (1998), est passée en moins de 10 ans (de 1998 à 2006), du niveau de vérité incontestable à celui d’erreur manifeste. Or, la dite courbe constituait l’un des principaux arguments de ceux qui prédisaient un emballement du réchauffement climatique. Il serait naturel de recommander aux décideurs davantage de prudence, en leur suggérant d’interpréter le contenu d’articles scientifiques, comme celui de Mann et al. (1998), sur un plan davantage conjecturel que factuel. Il semble, à ce sujet, que le GIEC établisse ses « vérités » en faisant voter les articles scientifiques, une opinion devenant « vraie » lorsqu’elle recueille la majorité des suffrages. Une telle démarche est, pour le moins imprudente, car chacun sait que les votes varient en fonction d’opinions fluctuantes. Une vérité d’aujourd’hui peut très bien ainsi devenir l’erreur de demain. La « courbe en crosse de hockey » illustre parfaitement ce principe.

L’exemple de la pharmacologie, où l’influence thérapeutique de molécules nouvelles est vérifiée avec précaution, devrait être repris par les climatologues. Ceux-ci se devraient d’analyser clairement le risque de leurs modèles par des méthodes statistiques reproductibles. L’un des principes les plus importants à suivre est la nécessité de rendre publiques les données sur lesquelles s’appuient leurs analyses. Le défaut de suivre cette règle laisse le champ libre aux soupçons de manipulation.

Problèmes de causalité

L’exemple de l’influence présumée de la teneur en CO2 de l’atmosphère sur la température globale de la planète me remplit de perplexité. Plusieurs auteurs ont analysé des chroniques comparant les variations de la teneur en CO2 de l’atmosphère aux variations de température. Certains d’entre eux font état d’une faible corrélation de ces variables observées au même instant, mais d’un excellent ajustement des chroniques si on les décale dans le temps. Pour faire simple, les variations du CO2 sembleraient suivre les variations de la température, mais avec un décalage temporel de plusieurs centaines d’années (certains auteurs avancent un ordre de grandeur de 800 ans). En gros, lorsque la température moyenne de la planète (en admettant que cette notion ait un sens…) augmente ou diminue, le taux de CO2 ferait de même, mais 800 ans plus tard.

Si ce phénomène était avéré, cela serait une forte présomption du fait que la variation du taux de CO2 dans l’atmosphère serait davantage un effet de la variation des températures, que la cause de celle-ci.

Il ne s’agit pas pour nous de prendre partie dans ce débat, à défaut avoir traité nous-mêmes les chroniques correspondantes. Toutefois, il nous faut mettre la communauté scientifique en garde contre l’un des problèmes les plus délicats de la statistique, à savoir l’établissement de relations causales entre variables, à partir des observations. On se sert souvent à cet effet des mesures de corrélation :

(C) La corrélation entre variables est l’outil de base pour mesurer leur dépendance. Toutefois, cette mesure traite les grandeurs de manière symétrique, et n’est pas adaptée à l’établissement de relations de causalité.

En gros, si deux variables sont corrélées, on peut en déduire qu’elles sont dépendantes, mais on ne peut pas conclure que la variation de l’une implique strictement la variation de l’autre (ou l’inverse). On peut, d’ailleurs, observer des quantités physiques qui sont dépendantes, mais sans être corrélées. L’établissement de relations de causalité entre variables est toujours très difficile. Il faut aussi introduire la notion de concomitance, faisant que des variables, n’ayant a priori aucun rapport l’une avec l’autre, varient dans le même sens. Il est courant d’observer des variations concomitantes de variables, qui ne sont pas liées entre elles. D’une manière générale :

(D) Il est difficile de distinguer la dépendance, la corrélation, la causalité et la concomitance pour des variables physiques, à partir des observations.

Conclusion.

Pour un statisticien, les querelles présentes, et largement médiatisées, au sein de la climatologie, notamment celles qui consistent à discuter de l’origine des variations climatiques (CO2, irradiation solaire, origine humaine ou naturelle, etc.), paraissent souvent relever davantage de parti-pris que de science véritable. Les modèles sur lesquels s’appuient la plupart des conclusions des climatologues paraissent ajustés de manière assez sommaire, et sur des données, le plus souvent indisponibles. Leurs conclusions sont présentées par des organismes officiels, tel que le GIEC, comme vérité d’Evangile, sans que de telles affirmations soient systématiquement assises sur des vérifications statistiques crédibles.

Personnellement, la seule conclusion que j’en retire est qu’il serait utile que l’on s’appuie davantage sur des statisticiens professionnels pour départager les hypothèses avancées par les uns comme par les autres. Il est anormal qu’on investisse, parfois, des sommes considérables dans l’industrie pharmaceutique pour établir expérimentalement l’efficacité statistique d’un nouveau traitement, alors que la validation statistique de l’hypothèse anthropique du réchauffement climatique semble laissée à des jugements de nature politique, pour ne pas dire, d’actes de foi, s’apparentant quasiment à des croyances religieuses. Les conséquences économiques du débat sur le climat paraissent d’une ampleur justifiant davantage de rigueur scientifique que celle qui prévaut aujourd’hui.

Il ne faut affirmer que des choses clairement vérifiées et établies. La vérité n’est pas affaire de votes ou de majorité des opinions du moment. Elle doit être poursuivie avec objectivité et patience. On peut croire à une hypothèse, mais il dangereux d’affirmer qu’elle est vraie sans s’être entouré d’un luxe de précautions. La statistique, science du traitement et de l’interprétation des données d’observation, devrait être davantage utilisée pour valider les conjectures des uns, ou infirmer celle des autres.

Comparte este artículo

Para citar este artículo:

Paul Deheuvels — «Quelques questions de nature statistique liées au débat sur le climat » — Images des Mathématiques, CNRS, 2010

Comentario sobre el artículo

Voir tous les messages - Retourner à l'article

  • Quelques questions de nature statistique liées au débat sur le climat

    le 26 de septiembre de 2010 à 21:47, par parisse

    Cet article est très tendancieux, et il est vraiment dommage que son auteur ne se soit pas un peu mieux documenté avant de reprendre de la prose climato-sceptique de tout poil.
    Le seul élément correct concerne l’erreur sur l’interprétation de la crosse de hockey de Mann (corrigé depuis). Mais je n’ai jamais vu d’article indiquant que les températures vers 1200 étaient supérieures de 2 degrés à la température actuelle, certainement pas globalement, et même localement: il semble bien que la température au Moyen Age était supérieure en Europe aux températures connues pendant le petit age glaciaire, mais pas toujours à la même époque, et pas avec 2 degrés de plus qu’aujourd’hui (cf. par exemple Leroy-Ladurie qui estime ces températures moins élevées que les actuelles) et on ne sait pas grand chose ailleurs qu’en Europe.
    Pour le reste:

    • le réchauffement climatique (RC) du à l’effet de serre n’est pas une théorie principalement fondée sur des séries et corrélations statistiques. Aucun physicien ne conteste que l’effet de serre du au CO2 existe, la loi est d’ailleurs logarithmique en la concentration, et donne une augmentation de 5.3*ln(2) W/m^2 au niveau du sol pour un doublement de CO2. Ce qui est incertain aujourd’hui, c’est l’ampleur des rétroactions, sachant que sans rétroaction, un doublement du CO2 provoquerait une hausse d’un peu plus de 1 degré (5.3*ln(2)/200/4*300, où 200W/m^2 représente le rayonnement moyen au niveau du sol (1360 perpendiculairement au Soleil hors de l’atmosphère, mais il faut diviser par 4 pour tenir compte du rapport entre surface et section d’une sphère, ainsi que de l’écran de l’atmosphère), la division par 4 vient de la loi en T^4 de la puissance de radiation en fonction de la température, et 300K est la température absolue). Avec rétroaction, on estime la sensibilité climatique entre 2.5 et 4 degrés pour un doublement du CO2. L’incertitude principale concerne la rétroaction de l’eau (en particulier les nuages peuvent refroidir ou réchauffer selon l’endroit). Mais ce n’est pas la cause principale de l’incertitude sur la hausse de température à attendre au cours de ce siècle, qui dépend au moins autant de l’incertitude sur les réserves de combustibles fossiles qui seront brulées, sachant que les signes que l’on atteigne le maximum de production de pétrole durant cette décennie se multiplient et que le maximum de production de gaz et charbon suivra inéluctablement au cours des décennies qui suivent.
    • il est exact que l’étude des paléoclimats montre que la hausse de température précède la hausse de CO2. En effet, la solubilité du CO2 dans l’eau de mer diminue lorsque la température augmente. Mais c’est une rétroaction, la causalité marche dans les 2 sens, une hausse de T provoque une hausse de concentration en CO2 qui provoque à son tour une hausse de T, etc. Sinon, il est impossible d’expliquer l’ampleur des glaciations (9 ou 10 degrés en région polaire, 4 à 5 degrés globalement). La théorie de Milankovitch explique en effet la variation initiale de la température par les variations des paramètres de l’orbite terrestre. Globalement si on néglige les rétroactions (en particulier celle de la cryosphère), seul la variation de l’excentricité e a un effet, proportionnel à 1/2*e^2, comme e varie entre 0 et 0.07, la variation de la constante solaire atteint 2.5 pour mille, environ 4 fois moins que l’effet de serre du au CO2 sans rétroactions (avec une concentration de CO2 variant entre 180 en période glaciaire et 280 ppm en-dehors). La rétroaction de la cryosphère varie également en fonction de l’inclinaison de l’orbite terrestre, et de la précession des équinoxes. L’étude des paléoclimats est d’ailleurs un élément important de vraissemblance de l’estimation de la sensibilité climatique.
    • la discussion sur la variation de température sur la période 1999-2010 est sans intérêt car à cette échelle, elle est trop influencée par les cycles solaires (on notera d’ailleurs que le Soleil est en période historiquement faible d’activité, puisqu’on parle de nouveau minimum de Maunder, qui a certainement été une des causes majeures du petit age glaciaire), des cycles océaniques courts (comme par exemple l’El Nino exceptionnel de 1998), ou des éruptions volcaniques majeures (ce qui n’est pas le cas pour cette période).
    • la discussion sur les méthodes du GIEC semble confondre les différents groupes de travail, le WG1 qui travaille sur l’état de la science n’a pas les mêmes métgodes que celui qui donne des recommandations et est influencé par les politiques.
      En conclusion, s’il est tout-à-fait légitime de s’interroger sur les processus du GIEC et l’état des sciences liées au climat, encore faut il le faire à bon escient. En particulier, je ne rejoins aboslument pas les sous-entendus de l’article visant à ne pas suivre les recommandations du GIEC de diminuer nos émissions de gaz à effet de serre. En effet, même si les incertitudes sur la sensibilité climatique vont dans le sens des climato-sceptiques (ce qui encore une fois n’a rien d’évident, comme le montre par exemple l’état de la banquise en Arctique à la fin de l’été ces 4 dernières années), les mesures de limitation d’émissions de CO2 sont presque toujours les mêmes que celles qui nous permettront d’économiser les combustibles fossiles dont le maximum de production est en passe d’être atteint pour le pétrole. C’est cela l’urgence qui doit nous pousser à agir dès aujourd’hui pour éviter d’être pris au dépourvu lorsque la production commencera à baisser de peut-être 2% par an, et si en plus on y gagne sur l’ampleur du RC, même plus faible que prévu par le GIEC aujourd’hui, je ne vois pas où est le problème.
    Répondre à ce message

Dejar un comentario

Registros

Este artículo es parte del registro «Mathématiques de la planète Terre» consulte el registro
La traducción del sitio del francés al castellano se realiza gracias al apoyo de diversas instituciones de matemáticas de América Latina.