Quelques questions de nature statistique liées au débat sur le climat

Tribune libre
Écrit par Paul Deheuvels
Publié le 26 septembre 2010

Problèmes liés à la modélisation des phénomènes.

Les climatologues introduisent des modèles mathématiques simplifiés pour décrire des phénomènes très complexes. Ils se servent ensuite de ces modèles pour prédire les grandes évolutions des masses terrestres, atmosphériques et océaniques, soumises aux influences de leurs différents composants chimiques et de l’irradiation solaire. Le but du texte présent n’est pas de passer en revue les dits modèles, divers et variés (et pouvant être, d’ailleurs d’une grande sophistication mathématique), mais plutôt de questionner leur adéquation avec la réalité. Une conclusion déduite d’un modèle mathématique peut être très éloignée du phénomène physique qu’elle est sensée décrire. Elle peut être vraie sur le plan mathématique, tout en étant fausse dans la réalité. J’ai souvent entendu l’affirmation, au sujet des modèles climatiques, que certaines conclusions qui pourraient en être déduites doivent être vraies, puisque tous les modèles mathématiques connus aboutissent au même résultat. Ce n’est pas une démarche scientifique. Tout au plus, pourrait-on parler de présomption de vérité dans un tel cas. Il convient toujours de distinguer la vérité mathématique des modèles et la vérité physique des phénomènes qu’ils représentent. En permanence, il importe de confronter les modèles à la réalité pour discerner expérimentalement leur capacité à fournir de bonnes interprétations. On fait emploi, à cet effet, de méthodes statistiques, visant à déterminer l’adéquation des approximations à la réalité. Le principe de base qu’il faut d’adopter est que :

(A) Les modèles mathématiques de description de phénomènes climatiques ne constituent pas la réalité, mais plutôt une approximation de celle-ci, obtenue en simplifiant la représentation des objets concernés, au point d’en permettre le traitement numérique. Leurs conclusions n’ont pas de valeur si leur cohérence avec les phénomènes réels n’est pas expérimentalement démontrée.

Pour faire en sorte qu’un modèle fournisse des résultats réalistes, on l’affine, typiquement, à l’aide de techniques d’ajustement statistique, où un paramètre est choisi de telle sorte qu’il minimise un écart entre la valeur prévue par le modèle et la valeur observée.

Imaginons, à titre d’exemple, que la variable d’intérêt soit la température mesurée à l’instant t dans une station climatique. Les variables d’entrée pourront prendre en compte l’heure et le jour d’observation (pour prendre en compte les variations saisonnières), aussi bien que (par exemple) la teneur en CO2 de l’atmosphère et l’intensité de l’irradiation solaire. Chacune de ces quantités peut être observée, mais avec une précision très variable suivant la période étudiée. L’ajustement statistique du paramètre revient à minimiser les écarts entre les valeurs prévues par le modèle et les valeurs exactes, mais ceci n’a de sens que sur la période d’observation. Le procédé aboutit, par construction à une bonne qualité apparente de la modélisation, mais celle-ci n’est plus nécessairement valable en dehors de la période ayant servi à cet ajustement. On en retiendra le principe suivant :

 

B) Une modélisation effectuée par ajustement des paramètres à partir des observations dans une période donnée ne fournit généralement pas nécessairement une représentation fidèle des phénomènes en dehors de cette période. En conséquence, elle ne peut fournir des prévisions réellement fiables à long terme.

Une autre formulation de ce principe est qu’il est toujours dangereux d’extrapoler des ajustements très au delà de la période d’observation. L’histoire de la statistique abonde d’exemples où la prévision de séries chronologiques à partir de leur observation sur une courte période s’est trouvée mise en défaut à long terme. En gros, le risque de défaut d’adéquation du modèle au-delà de la période d’ajustement rend de telles prévisions, pour le moins, sujettes à caution.

La littérature scientifique fournit de nombreux exemples où les prévisions issues de modèles se sont avérées, ainsi, inexactes à moyen ou à long terme. Par exemple, plusieurs auteurs ont signalé le fait que, de 1999 à 2010, l’élévation de température, observée dans l’hémisphère nord, restait très en deçà de ce que prévoyaient les modèles basés sur l’influence de l’augmentation de la teneur en CO2 dans l’atmosphère. Comme celle-ci augmente avec un rythme constant, il serait cohérent avec les modèles concernés de voir un phénomène identique pour les températures. Comme ce n’est pas le cas, cela met ipso facto en défaut le caractère interprétatif des modèles concernés.

L’exemple des cours de valeurs financières illustre bien ce principe. S’il était possible de prévoir leurs cours de manière précise, et à long terme, à partir de modèles simplifiés basés sur l’observation des chroniques de bourse, il y a longtemps que le procédé serait mis en œuvre et appliqué avec profit. Or tel n’est pas réellement le cas, même en ayant une connaissance approfondie des structures des entreprises concernées, et compte tenu de la complexité des marchés financiers.

Le défaut d’adéquation des prévisions issues de représentations mathématiques avec la réalité fait donc partie des dangers structurels de la modélisation. Cela ne veut pas dire non plus que le problème soit sans issue. L’exemple des sciences physiques montre que les efforts visant à construire des modèles mathématiques de plus en plus précis peuvent aboutir à des résultats excellents (par exemple, en physique des particules, mais au bout de quelques siècles d’efforts…). Par contre, il ne faut jamais prendre les modèles mathématiques pour plus qu’ils ne sont, et ne les accepter que dans la mesure où leur valeur prédictive est clairement établie.

Pour des questions aussi sérieuses et graves que celles du climat, où les décisions politiques découlant des conclusions des climatologues sont de nature à influencer durablement la législation interne des Etats, ainsi que le commerce international, il semble qu’on ne s’entoure pas des garanties les plus élémentaires pour vérifier les hypothèses avancées. L’une d’entre elles est le caractère, anthropique (ou non), du réchauffement climatique. On a longtemps parlé de la fameuse « courbe en crosse de hockey » de Mann, Bradley et Hughes (1998), complaisamment reprise par le GIEC en 2001, qui a été démontrée comme fausse, et relevant d’une mauvaise analyse statistique par McIntyre et McKitrick (2003, 2005), leurs conclusions étant reprises dans le rapport Wegman de la National Academy of Sciences des USA, en 2006. Il s’avère que la période connue sous le nom d’ « optimum médiéval » aurait connu vers l’an 1200 des températures moyennes de l’ordre de 2°C supérieures aux températures actuelles. Si tel était bien le cas, la conclusion naturelle qui en découlerait pourrait être de rejeter les prévisions les plus catastrophiques sur une augmentation comparable de la température, au cours des siècles à venir, tout autant que l’interprétation, dite « carbocentique » de l’influence du CO2 sur le climat (qui attribue au CO2 issu des activités humaines une part prépondérante sur l’évolution climatique). Celle-ci pourrait être, ainsi, d’une ampleur bien moins grande que celle prévue par les rapports du GIEC. Mais alors, ne faudrait-il pas revoir les dispositions prises par les Etats pour réduire les rejets de CO2 dans l’atmosphère ?

Nous ne prenons aucunement parti pour l’une ou l’autre de ces hypothèses. Les faits se chargeront bien de les départager. Par contre, nous insistons sur le fait, exemplaire de notre point de vue, que la « courbe en crosse de hockey » de Mann et al. (1998), est passée en moins de 10 ans (de 1998 à 2006), du niveau de vérité incontestable à celui d’erreur manifeste. Or, la dite courbe constituait l’un des principaux arguments de ceux qui prédisaient un emballement du réchauffement climatique. Il serait naturel de recommander aux décideurs davantage de prudence, en leur suggérant d’interpréter le contenu d’articles scientifiques, comme celui de Mann et al. (1998), sur un plan davantage conjecturel que factuel. Il semble, à ce sujet, que le GIEC établisse ses « vérités » en faisant voter les articles scientifiques, une opinion devenant « vraie » lorsqu’elle recueille la majorité des suffrages. Une telle démarche est, pour le moins imprudente, car chacun sait que les votes varient en fonction d’opinions fluctuantes. Une vérité d’aujourd’hui peut très bien ainsi devenir l’erreur de demain. La « courbe en crosse de hockey » illustre parfaitement ce principe.

L’exemple de la pharmacologie, où l’influence thérapeutique de molécules nouvelles est vérifiée avec précaution, devrait être repris par les climatologues. Ceux-ci se devraient d’analyser clairement le risque de leurs modèles par des méthodes statistiques reproductibles. L’un des principes les plus importants à suivre est la nécessité de rendre publiques les données sur lesquelles s’appuient leurs analyses. Le défaut de suivre cette règle laisse le champ libre aux soupçons de manipulation.

Problèmes de causalité

L’exemple de l’influence présumée de la teneur en CO2 de l’atmosphère sur la température globale de la planète me remplit de perplexité. Plusieurs auteurs ont analysé des chroniques comparant les variations de la teneur en CO2 de l’atmosphère aux variations de température. Certains d’entre eux font état d’une faible corrélation de ces variables observées au même instant, mais d’un excellent ajustement des chroniques si on les décale dans le temps. Pour faire simple, les variations du CO2 sembleraient suivre les variations de la température, mais avec un décalage temporel de plusieurs centaines d’années (certains auteurs avancent un ordre de grandeur de 800 ans). En gros, lorsque la température moyenne de la planète (en admettant que cette notion ait un sens…) augmente ou diminue, le taux de CO2 ferait de même, mais 800 ans plus tard.

Si ce phénomène était avéré, cela serait une forte présomption du fait que la variation du taux de CO2 dans l’atmosphère serait davantage un effet de la variation des températures, que la cause de celle-ci.

Il ne s’agit pas pour nous de prendre partie dans ce débat, à défaut avoir traité nous-mêmes les chroniques correspondantes. Toutefois, il nous faut mettre la communauté scientifique en garde contre l’un des problèmes les plus délicats de la statistique, à savoir l’établissement de relations causales entre variables, à partir des observations. On se sert souvent à cet effet des mesures de corrélation :

(C) La corrélation entre variables est l’outil de base pour mesurer leur dépendance. Toutefois, cette mesure traite les grandeurs de manière symétrique, et n’est pas adaptée à l’établissement de relations de causalité.

En gros, si deux variables sont corrélées, on peut en déduire qu’elles sont dépendantes, mais on ne peut pas conclure que la variation de l’une implique strictement la variation de l’autre (ou l’inverse). On peut, d’ailleurs, observer des quantités physiques qui sont dépendantes, mais sans être corrélées. L’établissement de relations de causalité entre variables est toujours très difficile. Il faut aussi introduire la notion de concomitance, faisant que des variables, n’ayant a priori aucun rapport l’une avec l’autre, varient dans le même sens. Il est courant d’observer des variations concomitantes de variables, qui ne sont pas liées entre elles. D’une manière générale :

(D) Il est difficile de distinguer la dépendance, la corrélation, la causalité et la concomitance pour des variables physiques, à partir des observations.

Conclusion.

Pour un statisticien, les querelles présentes, et largement médiatisées, au sein de la climatologie, notamment celles qui consistent à discuter de l’origine des variations climatiques (CO2, irradiation solaire, origine humaine ou naturelle, etc.), paraissent souvent relever davantage de parti-pris que de science véritable. Les modèles sur lesquels s’appuient la plupart des conclusions des climatologues paraissent ajustés de manière assez sommaire, et sur des données, le plus souvent indisponibles. Leurs conclusions sont présentées par des organismes officiels, tel que le GIEC, comme vérité d’Evangile, sans que de telles affirmations soient systématiquement assises sur des vérifications statistiques crédibles.

Personnellement, la seule conclusion que j’en retire est qu’il serait utile que l’on s’appuie davantage sur des statisticiens professionnels pour départager les hypothèses avancées par les uns comme par les autres. Il est anormal qu’on investisse, parfois, des sommes considérables dans l’industrie pharmaceutique pour établir expérimentalement l’efficacité statistique d’un nouveau traitement, alors que la validation statistique de l’hypothèse anthropique du réchauffement climatique semble laissée à des jugements de nature politique, pour ne pas dire, d’actes de foi, s’apparentant quasiment à des croyances religieuses. Les conséquences économiques du débat sur le climat paraissent d’une ampleur justifiant davantage de rigueur scientifique que celle qui prévaut aujourd’hui.

Il ne faut affirmer que des choses clairement vérifiées et établies. La vérité n’est pas affaire de votes ou de majorité des opinions du moment. Elle doit être poursuivie avec objectivité et patience. On peut croire à une hypothèse, mais il dangereux d’affirmer qu’elle est vraie sans s’être entouré d’un luxe de précautions. La statistique, science du traitement et de l’interprétation des données d’observation, devrait être davantage utilisée pour valider les conjectures des uns, ou infirmer celle des autres.

ÉCRIT PAR

Paul Deheuvels

Professeur à Sorbonne Université - Membre de l'Académie des sciences.

Partager