Les modèles sont-ils des outils de prévision ?
La puissance des ordinateurs n’apporte en définitive pas grand-chose à la compréhension des mécanismes qui gouvernent la nature, et elle n’en sera jamais un substitut.
C’est l’enseignement principal qu’on peut tirer de l’étude que vient de publier Craig Loehle.
Un article publié récemment par Craig Loehle dans le journal "Atmospheric Environment" jette - indirectement - un sérieux pavé dans la mare des "modèles", et plus précisément de la pauvreté de leur puissance prédictive.
La référence exacte de l’article est
The estimation of historical CO2 trajectories is indeterminate : Comment on "A new look at atmospheric carbon dioxide" (L’estimation des trajectoires historiques de CO2 est indéterminée : Commentaire sur "Un nouveau regard sur le dioxyde de carbone atmosphérique")
L’article de Loehle est disponible sur le site internet du NCASI ("National Council for Air and Stream Improvement Inc")
L’article de Loehle est une critique d’un article d’un article de Hofmann et al. dans le même journal : "A new look at atmospheric carbon dioxide", article qui extrapolait les taux futurs de CO2, sur la base d’un modèle exponentiel ajusté aux données historiques des taux de CO2 mesurés à l’observatoire de Mauna Loa.
La projection du modèle de Hofmann sur 2100 aboutissait à un taux de CO2 très proche de la valeur de référence sur laquelle le GIEC a bâti les prévisions qui ont servi de base à la terreur climatique, et qui est utilisée pour son entretien.
Traduction du résumé de l’article de Loehle :
"Un article de Hofmann et al (2009, ce même journal) est critiqué. Nous montrons que leur modèle exponentiel pour caractériser les trajectoires historiques du CO2 n’est pas estimé convenablement. Un modèle exponentiel est estimé correctement et on démontre qu’il s’adapte aux données disponibles sur l’entière période de 51 ans. De plus, le problème des modèles d’estimation pour les données historiques de CO2 est démontré mal posé parce que des modèles alternatifs s’adaptent aussi bien aux données.
Pour illustrer ce point, les 51 ans de données CO2 ont été analysées en utilisant trois modèles différents d’évolution qui capturent l’allure des accroissements historiques de CO2. Les trois modèles s’ajustent aveec un R2 > 0.98, sont visuellement in distinguables lorsque superposés, et s’adaptend les uns aux autres avec un R2 >0.999. Projeté à 2100, le modèle exponentiel donne un résultat très proche de la meilleure estimation du GIEC de 836 ppm. Les deux autres modèles donnent des valeurs largement inférieures aux estimations du GIEC. Le problème de la caractérisation des données historiques de niveaux de CO2 est donc indéterminé puisque des modèles multiples collent aux données de la même façon, tout en prédisant des trajectoires futures très différentes."
Les grandes lignes de la démonstration
Le modèle de Hofmann, qui avait été calibré sur les seules 14 années les plus récentes, donnait la formule
ppm = 280+36,2exp(0,693(T-1958)/32.5
Confronté aux 51 ans de données disponibles, la formule donne la courbe :
La correspondance est bonne, mais visiblement moins sur les années antérieures à 1980, ce qui n’est pas étonnant car les données correspondantes n’étaient pas prises en compte. Pour mémoire, le coefficient de corrélation R2 est 0,987, ce qui est en général considéré comme "très bon" (le coefficient de corrélation est une mesure de la qualité de l’ajustement du modèle à ses données. Il ne peut dépasser 1, plus il est proche de 1, meilleure est la qualité).
Loehle considère alors un modèle exponentiel et deux autres modèles alternatifs :
Un modèle exponentiel : ppm = a + b*exp(ct)
Un modèle quadratique : ppm = a +b*t +c*t**2
Un modèle dit "de saturation" : ppm = c + a*(1-exp(b*(t-d)))**2
Ces trois modèles ont été "ajustés" aux 51 années de données Mauna Loa ("ajuster" signifie - en langage de modélisation - déterminer les valeurs des paramètres qui permettent de "faire coller" au plus près la courbe du modèle aux observations mesurées).
Tous les "ajustements" ont été faits en utilisant les données brutes, sans aucun lissage.
Les modèles de Loehle "collent" tous trois très bien entre eux et avec les données historiques. Lorsqu’on les superpose, cela donne :
Fait remarquable : Il est impossible de voir les différences entre les trois courbes issues des modèles, après ajustement aux données d’observations disponibles.
Les coefficients de corrélation correspondant aux trois modèles sont :
- Pour le modèle exponentiel : R2 = 0,9892
- Pour le modèle quadratique : R2 = 0,9894
- Pour le modèle "saturation" : R2 = 0,9895
Tous encore meilleurs que celui de Haufmann. Loehle fait d’ailleurs remarquer au passage qu’un simple modèle linéaire a déjà un coefficient de 0,924
Chacun des trois modèles de Loehle donne une "explication" presque parfaite du passé. Si j’osais, je dirais qu’ils "prévoient" tous très bien ... le passé.
Qu’en est-il de leur capacité à prévoir ... le futur ?
Projetées sur la période allant de 2010 à 2100, les courbes donnent la figure suivante :
Le modèle exponentiel donne pour 2100 une prédiction de 845 ppm, très proche de la meilleure estimation du GIEC (836 ppm).
Le modèle quadratique donne pour 2100 une prédiction de 672 ppm, sensiblement inférieure (-20%) à la meilleure estimation du GIEC.
Le modèle "saturation" donne pour 2100 une prédiction de 570 ppm, largement inférieure (-32%) à la meilleure estimation du GIEC.
La conclusion de Loehle est
Dans la mesure où les projections du climat futur dépendent des niveaux futurs du CO2 (et d’autres gaz à effet de serre), une valeur future inférieure aux estimations basses du GIEC invaliderait les prévisions les plus extrêmes faites par le GIEC.
Quelles leçons tirer de cette expérience ?
Loehle se garde bien de conclure au-delà du problème de la prévision des taux de CO2 futurs. Mais il est permis de réinterpréter sa démonstration, car elle va bien au delà de ce problème de CO2 somme toute assez mineur.
L’exemple que développe Loehle est une démonstration - sur un exemple d’une simplicité extrême - du fait que la parfaite adaptation d’un "modèle" mathématique aux données passées ne préjuge en rien de sa capacité à "prédire" le futur.
Von Neumann, le génial mathématicien/physicien/économiste ... , contributeur majeur de l’informatique aurait dit (rapporté par Enrico Fermi) :
"Avec quatre paramètres, je modélise un éléphant, et avec un cinquième paramètre je lui fais remuer la trompe"
L’aphorisme de Von Neumann est que l’on peut toujours "adapter" beaucoup de modèles différents à des données existantes, avec une précision aussi bonne que l’on veut, si on dispose de suffisamment de paramètres.
C’est d’ailleurs la principale activité que l’on confie à ces gigantesques ordinateurs que l’on bourre de données, et qui sont en charge de faire gigoter les paramètres jusqu’à ce que, éventuellement par le simple fait du hasard, tombe la "corrélation" miraculeuse dont on prétend ensuite qu’elle "valide" le modèle.
Les poubelles de l’histoire de la modélisation statistique sont pleines à ras bord de ces "corrélations fallacieuses" (en anglais "spurious correlation"), grâce auxquelles on peut vous faire avaler n’importe quoi, en prétendant "faire de la Science". Deux jolis petits exemples, juste pour rire ::
- La cause du réchauffement est le prix du timbre poste .
- La puissance des microprocesseurs explique le réchauffement climatique.
Lorsque l’on n’arrive pas à "faire coller" un modèle à la réalité, cela invalide le modèle. A l’inverse, parvenir à "faire coller" ne prouve rien du tout. Un "scientifique" qui ne saurait pas cela, serait un scientifique ignare. Un scientifique qui le sait et qui vous fait croire le contraire abuse de votre crédulité, je vous laisse le choix du qualificatif idoine.
La seule validation d’un modèle serait sa mise à l’épreuve des faits qui n’ont pas été pris en compte dans sa construction. Un modèle de comportement temporel par exemple, qui aurait été "calibré" sur le passé, sera d’autant plus "validé" qu’il parviendra à résister à la confrontation avec le futur.
Et c’est bien ce qui commence à gêner avec les modèles climatiques, qui nous avaient tous il y a quinze ans, avec un bel ensemble, promis la friture si nous continuions à émettre du CO2, et qui ont bien du mal à résister à l’épreuve des faits.
En effet, le monde a, chaque année, émis de plus en plus de CO2 alors que, de l’aveu même de Phil Jones - le chef de bande réchauffiste - le réchauffement depuis 15 ans n’est pas statistiquement significatif.
En conclusion
La puissance des ordinateurs n’apporte en définitive pas grand-chose à la compréhension des mécanismes qui gouvernent la nature, et elle n’en sera jamais un substitut. C’est pour avoir dit cela qu’Hendryk Tennekes a été, il y a 20 ans, mis à pied de sa fonction de Directeur à l’Institut Météorologique Hollandais.
Note : merci à WattsUpWithThat d’avoir présenté l’article de Loehle.
31 réactions à cet article
Ajouter une réaction
Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page
Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.
FAIRE UN DON