• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Accueil du site > Actualités > Technologies > Les modèles sont-ils des outils de prévision ?

Les modèles sont-ils des outils de prévision ?

La puissance des ordinateurs n’apporte en définitive pas grand-chose à la compréhension des mécanismes qui gouvernent la nature, et elle n’en sera jamais un substitut.

C’est l’enseignement principal qu’on peut tirer de l’étude que vient de publier Craig Loehle.

Les taux de CO2 à l'horizon 2100Un article publié récemment par Craig Loehle dans le journal "Atmospheric Environment" jette - indirectement - un sérieux pavé dans la mare des "modèles", et plus précisément de la pauvreté de leur puissance prédictive.

La référence exacte de l’article est

The estimation of historical CO2 trajectories is indeterminate : Comment on "A new look at atmospheric carbon dioxide" (L’estimation des trajectoires historiques de CO2 est indéterminée : Commentaire sur "Un nouveau regard sur le dioxyde de carbone atmosphérique")

L’article de Loehle est disponible sur le site internet du NCASI ("National Council for Air and Stream Improvement Inc")

L’article de Loehle est une critique d’un article d’un article de Hofmann et al. dans le même journal : "A new look at atmospheric carbon dioxide", article qui extrapolait les taux futurs de CO2, sur la base d’un modèle exponentiel ajusté aux données historiques des taux de CO2 mesurés à l’observatoire de Mauna Loa.

La projection du modèle de Hofmann sur 2100 aboutissait à un taux de CO2 très proche de la valeur de référence sur laquelle le GIEC a bâti les prévisions qui ont servi de base à la terreur climatique, et qui est utilisée pour son entretien.

 

Traduction du résumé de l’article de Loehle :

"Un article de Hofmann et al (2009, ce même journal) est critiqué. Nous montrons que leur modèle exponentiel pour caractériser les trajectoires historiques du CO2 n’est pas estimé convenablement. Un modèle exponentiel est estimé correctement et on démontre qu’il s’adapte aux données disponibles sur l’entière période de 51 ans. De plus, le problème des modèles d’estimation pour les données historiques de CO2 est démontré mal posé parce que des modèles alternatifs s’adaptent aussi bien aux données.

Pour illustrer ce point, les 51 ans de données CO2 ont été analysées en utilisant trois modèles différents d’évolution qui capturent l’allure des accroissements historiques de CO2. Les trois modèles s’ajustent aveec un R2 > 0.98, sont visuellement in distinguables lorsque superposés, et s’adaptend les uns aux autres avec un R2 >0.999. Projeté à 2100, le modèle exponentiel donne un résultat très proche de la meilleure estimation du GIEC de 836 ppm. Les deux autres modèles donnent des valeurs largement inférieures aux estimations du GIEC. Le problème de la caractérisation des données historiques de niveaux de CO2 est donc indéterminé puisque des modèles multiples collent aux données de la même façon, tout en prédisant des trajectoires futures très différentes."

 

Les grandes lignes de la démonstration

Le modèle de Hofmann, qui avait été calibré sur les seules 14 années les plus récentes, donnait la formule

ppm = 280+36,2exp(0,693(T-1958)/32.5

Confronté aux 51 ans de données disponibles, la formule donne la courbe :

 

La correspondance est bonne, mais visiblement moins sur les années antérieures à 1980, ce qui n’est pas étonnant car les données correspondantes n’étaient pas prises en compte. Pour mémoire, le coefficient de corrélation R2 est 0,987, ce qui est en général considéré comme "très bon" (le coefficient de corrélation est une mesure de la qualité de l’ajustement du modèle à ses données. Il ne peut dépasser 1, plus il est proche de 1, meilleure est la qualité).

Loehle considère alors un modèle exponentiel et deux autres modèles alternatifs :

Un modèle exponentiel : ppm = a + b*exp(ct)

Un modèle quadratique : ppm = a +b*t +c*t**2

Un modèle dit "de saturation" : ppm = c + a*(1-exp(b*(t-d)))**2

Ces trois modèles ont été "ajustés" aux 51 années de données Mauna Loa ("ajuster" signifie - en langage de modélisation - déterminer les valeurs des paramètres qui permettent de "faire coller" au plus près la courbe du modèle aux observations mesurées).

Tous les "ajustements" ont été faits en utilisant les données brutes, sans aucun lissage.

Les modèles de Loehle "collent" tous trois très bien entre eux et avec les données historiques. Lorsqu’on les superpose, cela donne :

 

 

Fait remarquable : Il est impossible de voir les différences entre les trois courbes issues des modèles, après ajustement aux données d’observations disponibles.

Les coefficients de corrélation correspondant aux trois modèles sont :

  • Pour le modèle exponentiel : R2 = 0,9892
     
  • Pour le modèle quadratique : R2 = 0,9894
     
  • Pour le modèle "saturation" : R2 = 0,9895

Tous encore meilleurs que celui de Haufmann. Loehle fait d’ailleurs remarquer au passage qu’un simple modèle linéaire a déjà un coefficient de 0,924

Chacun des trois modèles de Loehle donne une "explication" presque parfaite du passé. Si j’osais, je dirais qu’ils "prévoient" tous très bien ... le passé.

Qu’en est-il de leur capacité à prévoir ... le futur ?

Projetées sur la période allant de 2010 à 2100, les courbes donnent la figure suivante :

 

 

Le modèle exponentiel donne pour 2100 une prédiction de 845 ppm, très proche de la meilleure estimation du GIEC (836 ppm).

Le modèle quadratique donne pour 2100 une prédiction de 672 ppm, sensiblement inférieure (-20%) à la meilleure estimation du GIEC.

Le modèle "saturation" donne pour 2100 une prédiction de 570 ppm, largement inférieure (-32%) à la meilleure estimation du GIEC.

La conclusion de Loehle est

Dans la mesure où les projections du climat futur dépendent des niveaux futurs du CO2 (et d’autres gaz à effet de serre), une valeur future inférieure aux estimations basses du GIEC invaliderait les prévisions les plus extrêmes faites par le GIEC.

 

Quelles leçons tirer de cette expérience ?

Loehle se garde bien de conclure au-delà du problème de la prévision des taux de CO2 futurs. Mais il est permis de réinterpréter sa démonstration, car elle va bien au delà de ce problème de CO2 somme toute assez mineur.

L’exemple que développe Loehle est une démonstration - sur un exemple d’une simplicité extrême - du fait que la parfaite adaptation d’un "modèle" mathématique aux données passées ne préjuge en rien de sa capacité à "prédire" le futur.

Von Neumann, le génial mathématicien/physicien/économiste ... , contributeur majeur de l’informatique aurait dit (rapporté par Enrico Fermi) :

"Avec quatre paramètres, je modélise un éléphant, et avec un cinquième paramètre je lui fais remuer la trompe"

L’aphorisme de Von Neumann est que l’on peut toujours "adapter" beaucoup de modèles différents à des données existantes, avec une précision aussi bonne que l’on veut, si on dispose de suffisamment de paramètres.

C’est d’ailleurs la principale activité que l’on confie à ces gigantesques ordinateurs que l’on bourre de données, et qui sont en charge de faire gigoter les paramètres jusqu’à ce que, éventuellement par le simple fait du hasard, tombe la "corrélation" miraculeuse dont on prétend ensuite qu’elle "valide" le modèle.

Les poubelles de l’histoire de la modélisation statistique sont pleines à ras bord de ces "corrélations fallacieuses" (en anglais "spurious correlation"), grâce auxquelles on peut vous faire avaler n’importe quoi, en prétendant "faire de la Science". Deux jolis petits exemples, juste pour rire ::

Lorsque l’on n’arrive pas à "faire coller" un modèle à la réalité, cela invalide le modèle. A l’inverse, parvenir à "faire coller" ne prouve rien du tout. Un "scientifique" qui ne saurait pas cela, serait un scientifique ignare. Un scientifique qui le sait et qui vous fait croire le contraire abuse de votre crédulité, je vous laisse le choix du qualificatif idoine.

La seule validation d’un modèle serait sa mise à l’épreuve des faits qui n’ont pas été pris en compte dans sa construction. Un modèle de comportement temporel par exemple, qui aurait été "calibré" sur le passé, sera d’autant plus "validé" qu’il parviendra à résister à la confrontation avec le futur.

Et c’est bien ce qui commence à gêner avec les modèles climatiques, qui nous avaient tous il y a quinze ans, avec un bel ensemble, promis la friture si nous continuions à émettre du CO2, et qui ont bien du mal à résister à l’épreuve des faits.

En effet, le monde a, chaque année, émis de plus en plus de CO2 alors que, de l’aveu même de Phil Jones - le chef de bande réchauffiste - le réchauffement depuis 15 ans n’est pas statistiquement significatif.

 

En conclusion

La puissance des ordinateurs n’apporte en définitive pas grand-chose à la compréhension des mécanismes qui gouvernent la nature, et elle n’en sera jamais un substitut. C’est pour avoir dit cela qu’Hendryk Tennekes a été, il y a 20 ans, mis à pied de sa fonction de Directeur à l’Institut Météorologique Hollandais.

Note : merci à WattsUpWithThat d’avoir présenté l’article de Loehle.


Moyenne des avis sur cet article :  4.67/5   (12 votes)




Réagissez à l'article

31 réactions à cet article    


  • voxagora voxagora 3 avril 2010 09:02

    Article très interessant, merci à vous.
    Les modèles, les sondages, les moyennes ...
    Autant de données virtuelles peut-être intéressantes pour les indications
    qu’elles peuvent donner, mais parmi d’autres indications.
    Alors qu’aujourd’hui elles servent un scientisme effréné
    qui n’a d’autre but que de commercialiser des publications.


    • PapyJako PapyJako 3 avril 2010 09:31

      Merci à vous !...


    • PapyJako PapyJako 3 avril 2010 10:47

      @Tall
      « ... il existe de nombreux domaines où les quantités de paramètres à gérer sont tellement grandes que même des modèles sophistiqués ne peuvent donner que des caricatures assez imprécises de la réalité ... »

      => Voici au moins un point d’accord. Le climat est d’ailleurs un de ces « nombreux domaines », peut-être l’un des plus complexes et des moins connus.

      « ... en ce qui concerne l’application au réchauffement climatique, l’auteur raconte des conneries ... »

      => L’imprécation ne saurait tenir lieu d’argumentation, mais est plus facile.


    • PapyJako PapyJako 3 avril 2010 13:12

      à propos des interventions de Waldgänger

      Tout le monde peut constater que les interventions de ce Monsieur esquivent soigneusement le débat.

      S’il avait un argument, il le présenterait,

      Mais il n’a même pas la décence de se taire.

      Il faut bien qu’il prétende exister.


    • PapyJako PapyJako 3 avril 2010 13:19

      @Tall

      qui dit

      " .. le fait d’avoir passé sous silence ma dernière phrase ... 
      le réchauffement actuel est tout-à-fait significatif et on ne connaît pas de cause + plausible que l’énorme production humaine de gaz à effet de serre qui a commencé déjà ya + d’un siècle montre que vous êtes de totale mauvaise foi et ne méritez donc pas le moindre débat sérieux ...

      Où avez vous vu du « sérieux » dans un membre de phrase non argumenté et de plus sans rapport avec le sujet ?

      Réciter son catéchisme n’est pas une argumentation, c’est une prière.

    • Le péripate Le péripate 3 avril 2010 14:50

      C’est assez amusant de voir comment le dépit de ne pouvoir argumenter intelligemment transforme des gens à priori normalement constitués en coquettes exhibant le vide et l’absence comme preuve de leur supériorité. Ou le je ne dirais rien donc j’ai raison.


    • ZEN ZEN 3 avril 2010 12:31

      Modéliser l’hypercomplexité est en effet un exercice à haut risque, quoique nécessaire
      La confrontation des modèles , si elle est permanente et de bonne foi ,hors de toute pression lobbyiste, peut amener à établir une « vérité approchée » (comme disait Bachelard) de plus en plus fine
      Il y a encore du chemin à faire pour y voir un peu plus clair en matière de projection climatique et de détermination des causes du réchauffement global, qui, lui, me semble indubitable


      • joletaxi 3 avril 2010 13:02

        tiens les abonnés de RealClimate et de manicore se sont donnés rendez-vous.Nul doute qu’avec eux là, on va pouvoir débattre....


        • Olivier Bach 3 avril 2010 14:59

          A l’auteur,

          Merci de publier ces informations et j’espère que vous ne vous arrêterez pas là. L’inculture dans ces domaines est un véritable problème et surtout elle permet à trop de scientifiques, qui n’en sont pas vraiment, d’abuser ceux qui cherchent à s’informer.

          Il existe actuellement une culture de la peur qui fait beaucoup de dégâts et empêche le développement des connaissances et des techniques dans de nombreux domaines. Ceux qui ont peur de tout ne représentent certainement pas plus de 10% des populations mais ils ont une capacité de nuisance largement supérieure et influencent les politiques de manière considérable. Il suffit de se rappeler que le principe de précaution est inscrit dans la constitution. Ainsi ne pas être guidé par la peur et ne se déterminer que par les faits est devenu illégal.


          • PapyJako PapyJako 3 avril 2010 15:33

            @Olivier Bach

            Merci !... Il est bien entendu dans mon intention de continuer. Outre les articles que je présente de temps à autre à Agoravox (je ne le fais pas toujours car on ne sait jamais où ils vont atterrir. Ici, la rubrique « Technologies », pourquoi ?), j’ai publié des tas d’articles sur « Le Post ».

            Pour ce qui est du « principe de précaution », Chirac peut-être fier d’avoir accroché une drôle de casserole à la France !... On n’a pas fini de le payer.


            • zozolekivi zozolekivi 3 avril 2010 15:49

              Entre :
              - la dénonciation des modèles n’incorporant pas assez de considérations, paramètres et d’informations pertinentes pour valider l’exactitude de l’analyse ;
              - et la dénonciation des dérives industrielles et indirectes ayant un impact néfaste sur la qualité de vie urbaine ;
              ça aura au moins le mérite de faire savoir aux néo, aux incultes et aux insouciants qu’il y a des gens qui s’interrogent.

              Au-delà des querelles de clochers, vous avez des gens qui ne suivent que leur intuition : on respire mal sur certains périphs, on voit comme un nuage noir, où sont tous ces poissons d’antan ?

              Ces préoccupations de modélisation je les prends comme une volonté de vouloir comprendre les soubresauts climatiques pour les recouper avec d’autres mesures sur un autre système et mesurer la capacité de migration... ?

              Alors oui pourquoi pas des outils de prévision mais que cela ne tourne pas à la bourse parce que j’imagine déjà d’avance les fluctuations virtuelles.


              • zozolekivi zozolekivi 3 avril 2010 15:54

                Oui pardon les modèles sont des outils de prévision tout simplement parce que ce sont d’abord des données statistiques et ensuite des données extrapolées.

                Il faudrait un fort degré d’inexactitude pour tromper son monde.
                Mais se tromper sur la convergence c’est possible : ce qui est équivalent à reconnaître un modèle insuffisant.
                :D


                • andqui 3 avril 2010 17:01

                  On remplace « a » par « ro » dans Tall et ça donne troll, et vous respirez la trollerie (et pas du tout la drôlerie !) Nous serions enchanté que vous nous donniez des explications sur vos affirmations ou que vous citiez vos sources.
                  Le débat sur le réchauffement prend ces temps-ci une tournure extraordinaire : d’abord il y a débat, ce qui était encore exclu il y a trois mois ; ensuite, le camps réchauffiste, ou plutôt « carbocentriste » perd pied et cela le rend agressif et vindicatif et c’est illustré par la récente et abérante pétition contre Allègre et Courtillot.
                  Nous sommes en train de rejoindre les pays anglo-saxons où ce débat est déjà largement ouvert et c’est très bien.


                • PapyJako PapyJako 3 avril 2010 17:31
                  @Tall

                  « ... si vous ignorez ça, c’est que vous n’êtes pas le statisticien que vous prétendez être dans votre cv ... »

                  Je n’ignore pas cela, et je crois qu’aucun scientifique ne l’ignore. Malheureusement, l’argument « regardez comment le modèle colle bien avec les données » est trop suivant utilisé pour faire croire au gens que cela établit la correction du modèle.

                  Ceux qui utilisent cet argument sont soit par des gens qui « savent » - et alors ils sont malhonnêtes - soit par des gens qui ne "savent pas - et alors ils sont ignorants.

                  J’ai pensé que l’article de Loehle était une excellente - parce que simple - occasion de vacciner le grand public, au travers d’un média qui leur est destiné.

                  « ... et dans ce cas vous seriez un vulgaire menteur indigne du moindre intérêt ... »

                  Les attaques personnelles ne sont qu’un révélateur de la vacuité des arguments, et l’insulte le degré zéro du débat.

                  « ... votre article n’infirme pas le modèle giec ... »

                  Mon article n’a pas la prétention d’infirmer le modèle GIEC. Les faits s’en chargent très bien tout seuls ... et le GIEC est assez grand pour se déconsidérer tout seul, sans mon aide. C’est probablement cela qui vous rend si agressif ?

                  Je vous plains.

                • PapyJako PapyJako 3 avril 2010 18:36
                  @Tall
                  « ... maintenant, par rapport au climat, vu que vous niez même le réchauffement ... hein ? bon ... faudrait peut-être pas pousser non plus ... »

                  Y a-t-il quelqu’un ici qui « nie le réchauffement » ?

                  Pas moi en tout cas. Voici, sur le sujet, une liste exhaustive de ce que je nie :

                  Je nie que le réchauffement soit sans précédent
                  Je nie que le réchauffement soit important
                  Je nie que le réchauffement soit inquiétant
                  Je nie que le réchauffement soit une priorité
                  Je nie qu’on puisse attribuer le réchauffement à l’homme
                  Je nie que l’homme puisse quelque chose au réchauffement

                  Sur chacun de ces points, on peut entamer un débat, mais il y a plein de posts pour cela. Celui-ci est consacré à un sujet plus ciblé.


                • rocla (haddock) rocla (haddock) 3 avril 2010 18:41

                  Je ni le réchauffement ni le refroidissement


                • Francis, agnotologue JL 3 avril 2010 18:42

                  Bien au contraire !  smiley


                • PapyJako PapyJako 3 avril 2010 20:00

                  @Tall

                  « ... je parlais à andqui et ça concernait un de ses posts d’avant ( voir sa fiche ) où il nie le réchauffement ... »

                  Pour « parler à andqui », pourquoi venez-vous, sur ce post ci, polluer la discussion avec des considérations qui n’ont rien à y faire ?

                  Le post d’andqui serait mieux approprié.



                • PapyJako PapyJako 3 avril 2010 20:12

                  @Waldgänger

                  « ... je vais dans des contrées plus réelles et plus gratifiantes ... »

                  Vous allez nous manquer, surtout pour la puissance de vos analyses ... Que deviendrons nous sans vous ?


                • herbe herbe 3 avril 2010 16:45

                  Il y a des choses justes dans cet article mais malheureusement il jette le bébé avec l’eau du bain.

                  Un seul exemple est que vous pouvez tous vérifier certaines prédictions météorologique sur le court terme venant de modèles (aidés aussi par l’observation).
                  Si mes souvenirs sont bons c’est de moins en moins juste quand on a un « horizon éloigné » mais tout le travail est justement d’améliorer les modèles donc la précisions de prédictions en faisant reculer « le mur » ...

                  Pour info, Il existe une méthode particulièrement adaptée à la complexité ( dans pas mal de domaines...) il s’agit de la MCR :

                  en voici une bonne introduction avec application au changement climatique, il introduit une notion de modélisation relativisée bien utile pour éviter les querelles de clocher...

                  http://www.automatesintelligents.com/echanges/2009/mar/mcr.html

                  Cette lecture ( prévoir un peu de temps) a des chance d’être très fructueuse pour qui veut bien en récolter les fruits ...


                  • PapyJako PapyJako 3 avril 2010 17:34

                    @herbe
                    J’ai toujours considéré l’intelligence artificielle comme un très mauvais sustitut à la bêtise naturelle.

                    ... mais cela n’engage que moi, et nous éloigne du débat.


                  • herbe herbe 3 avril 2010 17:52

                    Non en l’occurrence même si ce site traite aussi d’IA, là il ne s’agit pas d’un article sur le sujet IA.

                    Si vous ne l’avez pas encore lu, prenez donc le temps, vous vous en ferez une idée par vous même du potentiel de cette méthode, c’est révolutionnaire en effet ( mais pas au sens de Tall amha).
                    De plus elle colle parfaitement bien au sujet de votre article mais pas seulement (voir la conclusion de l’article du lien...


                  • herbe herbe 3 avril 2010 18:40

                    Tall,

                    le scope de cette méthode est très large.
                    Elle est sur ce site d’IA qui a l’habitude de traiter des sujets variés de science et même de politique (d’ailleurs regardez le thème catégorie de l’article en haut à gauche).

                    Je sais que l’IA vous passionne et est aussi votre domaine d’expertise mais ce serait dommage de faire une réduction.

                    Cette méthode se propose justement d’être je cite l’article : "un outil particulièrement performant pour l’ensemble des disciplines scientifiques" ....Cet article vise à montrer comment MCR, convenablement appliquée, pourrait éclaircir considérablement les discours scientifiques et politiques relatifs à la grande crise systémique que nous subissons actuellement. Le champ retenu est celui du réchauffement climatique, mais on verra que de nombreux autres domaines aussi sensibles pourraient être abordés......"
                    Je me permets d’insister car ce serais dommage de passer à coté d’un outil méthodologique révolutionnaire dans ce qu’elle offre comme possibilité de meta representation...et dont je pense que nous avons cruellement besoin ...


                  • PapyJako PapyJako 3 avril 2010 20:05

                    @Tall 
                    « ... une tentative partielle de formalisation épistémologique où l’on essaye de limiter le parasitage conceptuel intuitif ... »

                    Ah bon !... il suffisait de le dire !... maintenant je comprend tout smiley

                    Je vais faire un poster avec cette phrase et l’afficher dans mon entrée, pour que tout le monde puisse constater à quel point je suis intelligent smiley


                  • PapyJako PapyJako 3 avril 2010 21:14

                    @Tall
                    Mais oui, mais oui !...


                  • herbe herbe 3 avril 2010 21:29

                    Tall,

                    ça y est je pense que vous voyez bien de quoi il s’agit.
                    Pour le caractère brumeux vous reconnaitrez avec moi que pour ce type de méthode ça peut être dur d’en avoir une description synthétique et vulgarisable en sachant d’où elle prend ses racines.
                    cela d’ailleurs vous (nous) arrive aussi de ne pas arriver à vous (nous) faire comprendre en une seule phrase d’après un exemple récent smiley).
                    Cependant cet article s’y essaye avec une application concrète à la climatologie comme vous avez pu le voir.

                    Sinon d’autres sources sont données en lien pour approfondir dans l’article lui même ( notes et pour en savoir plus).

                    Sinon un autre exemple appliqué au chômage peut se trouver ici :

                    http://philoscience.over-blog.com/article-1542920-6.html

                    J’espère que le vœu de l’auteur de pouvoir vulgariser sera exaucé comme qu’il l’énonce :
                    "Les processus de la MQ étant encore mal connus du grand public, proposons au lecteur une application simplifiée de MCR, en nous situant dans le champ des connaissances ordinaires afin d’éviter de laisser croire qu’elle n’intéressera que les physiciens."


                  • herbe herbe 3 avril 2010 21:32

                    Au fait Tall pourquoi êtes vous si dur avec l’auteur ?
                    Son article est intéressant, il permet de discuter sur des thèmes intéressants et on peut donc avoir un dialogue apaisé non ? même si on est pas d’accord sur tout... c’est pas grave... on en discute ...


                  • Le péripate Le péripate 3 avril 2010 22:57

                    Ramène de la confiture. Pour faire plaisir à ta tartine épistémologique qui est un peu maigrelette, la confiture y est trop étalée pour tout dire.
                     smiley


                  • Le péripate Le péripate 3 avril 2010 23:15

                    Mais je le sais. C’est pas un peu dommage ça de garder votre science pour vous ?

                    Mais pour moi il est tard, même si demain est férié.


                  • herbe herbe 4 avril 2010 10:43

                    @Tall et Le Péripate,

                    Bonjour ! eh ça a moinssé sec ici !

                    Bon pas rancunier quand même voici le Chokola qui devrait faire plaisir à l’auteur ( et pas forcément qu’à lui d’ailleurs, c’est de saison le chocolat...) :

                    http://www.youtube.com/watch?v=iDW-jGeZeWQ

                    ah oui Le péripate je partage avec vous ce souci de liberté (je vous l’ai déjà dit je crois) y compris celle des échanges en sciences ou ailleurs ...


                    • epapel epapel 5 avril 2010 00:25

                      L’auteur tombe dans le travers qu’il critique : il exhibe des modèles alternatifs et extrapole sans tenir compte des données physiques, en l’occurrence le scénario d’émission de CO2.

                      Le GIEC ne prétend pas que le taux de CO2 dans l’atmosphère sera de 836ppm en 2100, il dit seulement que ce taux sera atteint avec un scénario d’émission « business as usual » c’est à dire avec un taux de croissance de émissions de CO2 de 1,5% par an.

                      Il est évident qu’à un scénario d’émission à croissance exponentielle, la réponse de l’atmosphère soit un accroissement exponentiel de la concentration résultante. Pas besoin de modélisation pour arriver à cette conclusion, un cerveau en bon état de fonctionnement suffit. Dans ce contexte une modélisation basée sur la « saturation » n’a aucun sens puisqu’il n’y a pas de limite à la concentration de CO2 dans l’atmosphère.
                       
                      Ceci étant dit, le GIEC ne se contente pas d’un seul scénario d’émission, avec les variantes il en propose une dizaine qui vont d’une stabilisation du taux de CO2 en 2100 à moins de 500ppm (division par 2 des émissions en 2050) jusqu’à un taux dépassant 1000ppm (taux de croissance des émissions de 2% par an). Ce qui veut dire que le GIEC couvre largement les valeurs indiquées dans l’article qui donc ne nous apprend rien.

Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON






Les thématiques de l'article


Palmarès