Réchauffement climatique, gaz à effet de serre et patin couffin
Les mesures terrestres de température réalisées au cours du XXe siècle montrent une élévation de la température moyenne de la planète. Ce réchauffement se serait déroulé en deux phases, la première de 1910 à 1945, la seconde de 1976 à aujourd'hui.
Le début de ce « réchauffement climatique » (1910) commence à la fin de ce qu’on a appelé le « petit âge glaciaire » qui a démarré pendant la guerre de 100 ans pour finir au début du XXe siècle. Pendant cette période de 6 siècles, la température moyenne a diminué d’environ 8°C. Plusieurs théories probables sont avancées pour expliquer ce phénomène de glaciation. La première, difficilement vérifiable serait l’activité solaire et la seconde un peu plus probable serait l’activité volcanique importante qui a expulsé une quantité non négligeable de gaz aérosol (Dioxyde de carbone ou de soufre). Un aérosol est un gaz mélangé à des particules liquides ou solides (nuage de cendre). Il peut avoir des effets directs et indirects sur le climat en empêchant le rayonnement du soleil de traverser la couche la plus basse de l'atmosphère (la troposphère), diminuant ainsi les températures. Une ou plusieurs explosions volcaniques de grande puissance proche de l’équateur ont permis la diffusion de ces aérosols en grande quantité dans la haute atmosphère provoquant ce phénomène physique avéré est appelé forçage volcanique ou hiver volcanique.
Ces deux phases (1910-1945 et 1976 à maintenant) sont séparées par une période de léger refroidissement qui n’est pour l’instant pas expliqué. Ce phénomène d'augmentation de la température moyenne des océans et de l'atmosphère terrestre, mesuré à l'échelle mondiale sur plusieurs décennies, et qui traduit une augmentation de la quantité de chaleur de la surface terrestre depuis le début du XXe siècle est appelé « Réchauffement climatique »
En 1988, l'ONU crée le groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) chargé de faire une synthèse des études scientifiques sur cette question. Plus de 2 500 scientifiques de 130 pays participent à l’étude en compilant et comparant des simulations issues de vingt modèles informatiques différents et des informations provenant des observations satellites, de 1500 stations de mesures terrestres réparties sur le globe et de 1300 bouées météorologiques reparties sur les océans de la planète. Il conclue que les changements de température de la troposphère et de la stratosphère sont bien réels et qu'ils sont très probablement dus à l'augmentation des gaz à effet de serre d'origine anthropique c’est à dire liées aux activités humaines
Les gaz à effet de serre (GES) sont des composants gazeux qui absorbent le rayonnement infrarouge émis par la surface terrestre et contribuant à l'effet de serre. Les principaux gaz à effet de serre qui existent naturellement dans l'atmosphère sont : la vapeur d'eau pour 72%, le dioxyde de carbone pour 21% et le méthane, le protoxyde d'azote, l'ozone pour les 7% restant. Sous l'effet des gaz à effet de serre, l'atmosphère terrestre se comporte en partie comme la vitre d'une serre, laissant entrer une grosse partie du rayonnement solaire, mais retenant le rayonnement infrarouge réémis. L'effet de serre porte la température moyenne à la surface de la Terre de −18 °C (ce qu'elle serait en son absence) à +15 °C.
En prenant comme hypothèse de base que le réchauffement climatique est dû à l’augmentation des gaz à effet de serres et plus particulièrement du CO2 issue du rejet des énergies fossiles et de l’activité de l’homme, le GIEC affirment que la température de surface du globe est susceptible d'augmenter de 1,1 à 6,4 °C supplémentaires au cours du XXIe siècle. D’après le GIEC, les incertitudes sur la hausse de température globale moyenne subsistent du fait de la précision des modélisations employées, et des comportements étatiques et individuels présents et futurs. C’est à dire que (d’après le GIEC) la variation est autant due à l’imprécision des calculs, qu’à la volonté humaine de diminuer ou pas la quantité de CO2 dans l’air.
Pour résumer, nous avons un organisme composé d’une pléthore de scientifiques, qui affirme que le réchauffement climatique actuel mesuré par lui-même dans des conditions très approximatives (mais nous y reviendrons plus tard), serait probablement dû à l’émission de CO2 (qui représente en tout et pour tout 21% des gaz à effet de serre), que la probable augmentation de température sur 1 siècle se situerait entre 1,1 à 6,4 °C. Les 6.4°C étant la valeur maximum si les paramètres utilisés sont corrects et si nous ne faisons rien pour influer sur le CO2. Les conclusions du GIEC ont été approuvées par plus de quarante sociétés scientifiques et académies des sciences, y compris l'ensemble des académies nationales des sciences des grands pays industrialisés. Les recommandations du GIEC partent d’un constat simple : « puisqu’il y a réchauffement climatique et que le réchauffement climatique est dû aux gaz à effet de serre et que le CO2 produit par l’homme est l’un de ces gaz, il suffit de réduire la consommation d’énergie fossile, pour réduire la production de CO2 et donc lutter contre ce réchauffement climatique ». Cette décision a un impact fort sur l'état de notre économie et sur notre mode de vie, car tous les domaines sont concernés : les transports, l'habitat, l'énergie, etc. et les enjeux économiques, politiques, sociaux, environnementaux, voire moraux sont majeurs. Ce qui suscite de nombreux débats et controverses à l'échelle internationale. Derrière ses décisions et réglementation dans le but de réduire le CO2 se cache un crédo de base relayé par tous les lobbys et organisations écologiques : il faut réduire l'impact de l'homme sur la planète.
A l’aube du COP21 qui doit se réunir à paris du 30 novembre au 11 décembre 2015, la croisade pour maintenir le réchauffement climatique mondial en deçà des 2°C a envahi tous les domaines et tous les esprits : la lutte contre le CO2 est devenue une priorité nationale. Comment en sommes-nous arrivés là, dans un pays qui se veut cartésien ? Pour répondre à cette question, je vais tenter de répondre à 3 interrogations à savoir :
-
Est-ce que les prévisions du GIEC sont fiables ?
-
Dans l’hypothèse où il y a vraiment un réchauffement climatique, avec toutes les conséquences économiques, sociologiques, environnementales voire géopolitiques qu’il engendrerait, est-ce que la réduction des émissions de CO2 est la réponse la plus adaptée ?
-
Dans l’hypothèse où la réduction des émissions de CO2 est la réponse la plus adaptée, sommes-nous capable à l’échelle de la planète de les réduire et combien cela va nous couter ?
1- Est-ce que les prévisions du GIEC sont fiables ?
L’histoire de la météorologie remonte à l’Antiquité, avec la publication des Météorologiques d’Aristote au 4e siècle avant JC. Cependant, la compréhension des grandeurs physiques associées à la météorologie date du 17e siècle, avec l’invention du thermomètre à mercure et du baromètre.
Les premières mesures réellement exploitables en Europe datent des années 1850, avec une centaine de points de mesures répartis sur tout le continent, et depuis 1880 pour les Etats-Unis.
La technologie pour mesurer la température au niveau du sol est relativement basique ; les thermomètres utilisés il y a plus de 100 ans peuvent être considérés comme fiables. La mesure des températures en altitude date de 1892 avec l’invention du ballon-sonde. Les sociétés météorologiques comme Météo France ont réalisé un maillage sur tout le territoire avec des stations météorologiques tous les 30 km. Il en est de même pour les autres pays industriels avec au total plus de 6000 stations météorologiques. Il n’y a cependant que très peu de capteurs dans des zones telles que le Groenland, le Nord du Canada, l’Afrique centrale, l’Australie, et globalement, les zones difficiles d’accès comme les zones de haute montagne, les déserts et les forêts. Les satellites mesurant la température par infrarouge pourraient estimer la température au sol, mais cette technologie dépend énormément des conditions locales (temps clair au moment du relevé, absence d’arbres, etc.) et la course de ces satellites n’est pas programmée pour des lieus désertiques en manque de stations météo. De toute façon le GIEC n’utilise que 1500 points de contrôle sur les plus de 6000 à sa disposition, de ce fait, le sous-échantillonnage est criant.
Suite à la tempête du 14 novembre 1854 qui a détruit les flottes françaises, anglaises et turques en Mer Noire, un réseau de mesures avec 59 stations de mesures à travers l’Europe et destiné à avertir les marins de l’arrivée des tempêtes a été créé en 1865. En 1873, l'Organisation Météorologique Internationale (OIM) a été fondée à Vienne par les pays ayant un service météorologique. 226 stations enregistrent depuis plus de 150 ans, majoritairement en Europe, et 1 656 stations sont utilisées depuis plus de 100 ans. Le GIEC utilise 1285 bouées météorologiques réparties en Europe, dans le Golfe du Mexique, sur les Côtes Est et Ouest des États-Unis et sur la jonction pacifique entre l’Alaska et le japon. Les Océans Atlantique et Indien, tout comme les pôles ne sont pas fournis en bouées. De plus, la NOAA chargée de collecter les informations pour le GIEC utilise de moins en moins de stations pour établir le profil mondial de température, justifiant cela par l’avancée des technologies et la difficulté d’accès aux données des vieilles stations.
La Terre possédant une superficie totale d’environ 500 millions de km², une analyse globale pertinente nécessiterait alors au moins 5 millions de capteurs, soit 1 600 fois plus que les 3 000 stations utilisées actuellement. Et encore ne s'agit-il que d'un calcul de surface ; il faut répéter ceci pour toutes les couches de l'atmosphère et toutes les profondeurs des océans.
Ce simple calcul montre bien que le nombre de stations est insuffisant pour reconstituer la température de la surface du globe, et les satellites ne peuvent remplacer les stations. La diminution observée du nombre des capteurs est fondamentalement malsaine : la température varie d'un point à un autre, d'une heure à l'autre et cette variabilité naturelle ne peut être mise en évidence que par un réseau de capteurs très dense.
Si vous regardez un histogramme des températures moyennes annuelles depuis 20 ans, de 1995 à 2014, vous constaterez que, d'une année sur l'autre, les températures moyennes calculées sont différentes. Or l'action du soleil et la géothermie sont à peu près constantes. Ces inégalités tiennent au fait que les capteurs sont inégalement répartis et que, d'une année sur l'autre, il fait plus chaud ici ou là. Nous avons donc ainsi une preuve que le nombre de capteurs est insuffisant. Dans ces conditions, on ne peut conclure à une évolution du climat, dans un sens ou dans un autre, car tout ce que nous enregistrons, aujourd'hui et plus encore hier, ne sont que des variations qui résultent simplement de l'insuffisance des observations.
Sur la plupart des rapports et compte rendu évoquant le réchauffement climatique, on trouve des données relatives aux températures. Cependant le paramètre pris en compte n’est pas la température elle-même mais « l’anomalie de température », c’est-à-dire un écart de température par rapport à la moyenne d’une période de référence qui est 1951-1980 pour la NASA et 1961-1990 pour la NOAA. L’explication donnée est la suivante :
« Les températures absolues sont difficiles à utiliser pour plusieurs raisons. Certaines régions n’ont que peu de stations de mesure et des interpolations doivent être faites sur de vastes étendues. Dans les régions montagneuses, la plupart des observations proviennent de vallées inhabitées, ainsi l’altitude doit être prise en compte dans la moyenne des températures d’une région. Par exemple, un mois d’été peut être plus froid que d’habitude dans une région, à la fois au sommet d’une montagne et dans la vallée à proximité, mais les températures absolues seront très différentes d’un endroit à l’autre. L’utilisation des anomalies montrera dans ce cas que les températures sont en-dessous de la moyenne pour les deux endroits. »
Ceci implique de toute façon d’avoir des stations de mesure dans les deux endroits, en l’occurrence au sommet de la montagne et dans la vallée. Ce traitement de données brutes est pour le moins imprécis et s’il y a une erreur dans une valeur de température, elle se répercutera nécessairement sur l ‘anomalie.
La NASA utilise une période de référence de 30 ans et uniquement sur des mesures faites le territoire américain. Comme les données météorologique américaines sont de bonnes qualités depuis 1880, pourquoi ne pas utiliser la période de référence la plus étendue possible (1880-2001) pour affiner ces anomalie ? Nous retrouvons le même cas de figure pour l’Europe, qui dispose de données de bonne qualité remontant à 1850, alors que la NOAA choisit une période de référence 1961-1990. Et comment voulez-vous aboutir à des résultats à peu près cohérents si les 2 organismes chargés de collecter les données et de calculer les écarts type de températures ont des périodes de références différentes ? La présentation par « anomalie », qui n'est en rien justifiée scientifiquement, est tendancieuse et prépare aux conclusions relatives au réchauffement climatique.
Pour établir la moyenne de référence, les organismes internationaux utilisent la moyenne arithmétique. Autrement dit on prend la sommes de toutes les températures à l’instant T et on fait la moyenne. Cela peut donner un résultat certes approximatif, mais approchant pour des régions surreprésentées en stations, mais à l ‘échelon mondial les données seront forcément fausses, car on touche à un phénomène physique connus de tous : l’air chaud et l’air froid ne se mélange pas. Prenons le cas de 2 pièces A et B de même volume, séparées par une porte. Ces pièces sont bien isolées et il n’y a pas d’échange thermique avec l’extérieur. La pièce A contient un climatiseur la refroidissant à 10°C et la pièce B contient un radiateur la chauffant à 30°C. La moyenne arithmétique des 2 pièces si la porte est ouverte devrait être de 20°C ((10 + 30)/2). La physique nous dit qu’il se passera un long moment avant que la température des 2 pièces atteigne 20°C. Déterminer une moyenne de température sur un système aussi complexe que la Terre, qui est tout sauf une pièce fermée et qui est sujette au climat et à des différences de pression constantes, n’a pas de sens physique. Sur une zone bien localisé et munie de suffisamment de capteur, comme l’Europe et les Etats-Unis cela peut nous renseigner sur une variation local du climat, mais pas à l’échèle de la planète.
Nous constatons donc qu’il n’y a pas assez de capteurs et que ces derniers sont mal répartis pour nous donner une idée de la température du globe. De plus, personne ne sait pas, par principe, ce qu'une telle température pourrait signifier car on ne parvient pas à lui donner un sens physique précis.
Ce qui est le plus troublant est que sur le plan de la méthodologie fondamentale, le travail du GIEC est entièrement défectueux, puisqu'il ignore les variations naturelles des quantités qu'il cherche à analyser (température, précipitations, concentration en CO2, etc.). Le GIEC raisonne comme si le globe terrestre était naturellement dans un état permanent et stable, que seules les activités humaines viendraient perturber.
Le GIEC choisit par principe les données, ou les jeux de données, qui appuient ses thèses, en éliminant tous les autres, qui sont purement et simplement passés sous silence. Ce travail très orienté idéologiquement n'obéit à aucune des règles fondamentales de la recherche scientifique et ne pourrait en aucune façon être publié dans une revue scientifique avec comité de lecture.
2-Dans l’hypothèse où il y a vraiment un réchauffement climatique, avec toutes les conséquences économiques, sociologiques, environnementales voire géopolitiques qu’il engendrerait, est-ce que la réduction des émissions de CO2 est la réponse la plus adaptée ?
En Grèce au 4e siècle avant jésus Chris, des savants et philosophes s’étaient penché sur la question de savoir si la terre était ronde ou plate. Personne n’arrivait vraiment réponde à cette question, mais une majorité penchait pour l’idée que la terre était plate. Socrate n’était pas cet avis, mais ne pouvait, avec le matériel qu’il avait à sa disposition, prouver que la terre était ronde. Un jour sur la plage il interrogeât un pécheur. L’homme qui vit sur la plage et dans son bateau, est inculte. Socrate lui dit : « Toi qui est toujours sur la mer, est-ce que la terre est ronde ou plate ? ». L’homme est surpris par la question et lui répond : « Bien sûr qu’elle est ronde, regarde le bateau qui arrive à l’horizon. On ne voie que le bout de son mat et bientôt on verra sa coque. Ça veut dire que d’ici au bateau c’est courbe et comme c’est courbe de partout, ça veut dire que la terre est une boule ». Socrate est surpris de la réponse, car il comprend que pour répondre à cette question, le ressenti de l’homme est plus fiable que toutes les études faites par les plus grands savants du moment. Pour ce qui concerne le réchauffement climatique, personne ne peut dire si c’est une réalité ou seulement une impression.
On argumente ce ressenti par :
-
L’augmentation de catastrophes naturelles comme les tempêtes et les cyclones. Pourtant en analysant les données brutes, il en résulte clairement, contrairement à ce qu'on lit partout, qu'il n'y a aucune augmentation du nombre des cyclones depuis 1970, y compris ceux qui n’atteignent jamais les côtes et se perdent en mer. Il y a cependant il y une faible augmentation du nombre des cyclones dans les catégories 4 et 5 (les plus fortes) au détriment des autres plus faibles, tout simplement dû à des modifications dans la comptabilité et à des techniques plus pointues pour les détecter. De 1970 à 1980 il y a eu 200 cyclones dont 5 de catégories 4 et 5. De 2000 à 2010, il y a eu 175 cyclones dont 35 de catégories 4 et 5.
-
Des épisodes de sécheresse plus fréquents. Hors, depuis 1900, les années des sécheresses en France sont par ordre d’importance, 1934, 1939, 1921, 1944, 1957, 1976, 2011, 1955, 1989. Ces périodes de sécheresse ont été préjudiciables pour nos cultures. 2003 a connu une période de forte chaleur qui a été une catastrophe humaine, mais n’a pas été préjudiciable pour l’agriculture, car elle a durée très peu de jours. Cela nous fait 9 périodes de sécheresses pour 115 ans soit un peu moins d’une tous les 10 ans, avec un intermède de 22 ans entre 1989 et 2011 (période où la température moyenne est sensée augmenter).
Il est évident qu’à cause des déforestations massives, l’homme contribue à rendre des sols arides les transformant en déserts, mais il ne faut pas confondre l’aridité d’un sol avec la sécheresse qui correspond à un manque d'eau, sur une période significativement longue et temporaire pour qu'elle ait des impacts sur la flore naturelle ou cultivée, la faune sauvage ou les animaux d'élevage.
-
Le niveau de la mer s’élève. Le niveau de la mer, qui s‘est élevé de 120 m en 18 000 années (source IFREMER), soit 6,6 mm par an, ne s’élève plus que de 1,2 mm par an (source Service hydrographique et océanographique de la Marine), depuis 1800 et il n’y a aucune accélération récente. Les 120 m en 18000 ans sont sujet à caution, car le niveau de l’eau n’augmente pas partout pareil et on ne sait pas dire si le volume de l'Océan Pacifique était plus ou moins important qu'aujourd'hui, et on ne sait pas dire, aujourd'hui, comment il évolue. Je sens que certains d’entre vous son dubitatif « L’eau est horizontale et quand ça augmente d’un côté ça augmente de l’autre ». Oui mais dans le cas qui nous préoccupe, est-ce que c’est la terre qui baisse ou l’eau qui monte ? Parce que la terre n’a pas un solide indéformable. Elle se déforme avec la dilatation, en fonction des températures ambiantes. Elle se déforme aussi à cause de l’attraction de la lune. Et se déforme encore à cause de la tectonique des plaques. Ces phénomènes de déformation conjugués permettent de bien comprendre l'élévation du niveau de la mer, qui résulte simplement de la poussée d'Archimède. Là où les masses sont importantes (les terres), le niveau s'enfoncera et là où les masses sont plus faibles (les mers), le niveau s'élèvera.
La fonte des glace est un faux problème car pour le pôle nord, la banquise peut fondre ça n’augmentera pas le niveau des océans (cf. le glaçon dans un verre remplit à ras bord). Et pour ce qui concerne le pôle sud, si jamais la température au pôle sud baisse de 10°C (et c’est loin d’être le cas, car depuis 20 ans les températures au pôle sud auraient plutôt tendance à baisser), ça passera la température moyenne de -40°C à -30°C, pas suffisant pour que la glace fonde. L’augmentation infime mais sensible du niveau de la mer n’est pas dû à la fonte des glaces et l’homme ne peut vraiment rien faire contre ce phénomène qui est 100% naturel.
Mais revenons à notre CO2 qui serait en théorie responsable de ce « réchauffement climatique » si réchauffement il y a. Les facteurs qui font qu’un gaz influe sur le réchauffement climatique sont : sa capacité à s’échauffer en absorbant les rayons infrarouges provenant du soleil et de la terre, son temps de vie et sa concentration dans l’atmosphère. Le CO2 est l’un de ces gaz et il représente 21% de la somme de tous les gaz qui influe sur le réchauffement climatique. Par rapport aux autres gaz à effet de serre, le CO2 a une particularité non négligeable : Il participe au « cycle carbone », c’est à dire que le CO2 relâché dans l’air par les volcans, les incendies, l’activité humaine etc. est absorbé par les plantes (photosynthèse) qui avec l’aide du soleil le transforment en oxygène. Il est aussi absorbé par les océans où il se dilue ou par les planctons et certains animaux (fabrication de coquilles en autre). A cause du cycle du carbone, il est difficile de déterminer le temps de vie du CO2 dans l’atmosphère. C’est pour cette raison que les scientifiques s’intéressent plus à sa concentration. Afin d’obtenir une mesure qui ne dépende pas de paramètres tels que la pression atmosphérique, la température, la dilution dans les autres gaz, on mesure le nombre de molécules de CO2 dans 1 million de molécules d’air sec, soit en ppm (partie par million). Pour calculer cette concentration de CO2 dans l’air les scientifiques ont plusieurs points de captation :
Des mesures de surface (au niveau du sol) réalisées par plus de 100 laboratoires répartis sur les différents continents et aussi sur des navires océanographies.
Des mesures au niveau de la troposphère (+8000m) réalisées par des avions au-dessus de l’Amérique du Nord uniquement
Des mesures à 500m d’altitude réalisées par des tours réparties sur les Etats-Unis
Des mesures réalisées par des laboratoires qui sont isolés de la civilisation, permettant de mesurer quotidiennement une atmosphère qui n’est pas "faussée" par une pollution extérieure. Il y en a six : Barrow (Alaska), Summit (Groenland), Trinidad Head (Californie), Mauna Laua (Hawaii), American Samoa, Pôle sud (Antarctique).
Parmi ces 5 laboratoires, seul celui de Mauna Laua au Sud-Ouest de l’ile d’Hawaï est en capacité de mesurer le CO2 en haute altitude et plus particulièrement dans la stratosphère. C’est la seule station fournissant des données en haute altitude. Ce laboratoire est isolé sur une île et situé en dessous du cratère d’un volcan en activité, à une altitude de 3 397 mètres au-dessus du niveau de la mer. Il est entouré par des kilomètres de surface volcanique sans aucune végétation aux alentours. La journée, l’air chaud monte très haut emportant avec lui une grande quantité de CO2 issue des rejets gazeux du volcan. Cependant la nuit, la température plus froide fait redescendre l’air des hautes couches atmosphérique emportant avec lui les rejets gazeux du volcan. La moyenne des mesures prises toutes les heures du jour et de la nuit pourrait pondérer le calcul et donnerait un résultat plus précis de la concentration de CO2 dans l’atmosphère. Mais seules quelques heures dans la journée sont finalement retenues par le NOAA pour calculer la moyenne journalière des concentrations en CO2. On aurait pu aussi comparer les données de Mauna Laua avec des données d’autres stations de mesures sur une période plus longue puisque ce laboratoire existe depuis 1958, mais cela n’a jamais été fait. Et ce sont les données de ce seul laboratoire qui sert à définir la concentration de CO2 dans l’atmosphère de toute la planète.
Un exemple suffit à démonter qu’une théorie est fausse. Pour ce qui concerne l’augmentation de la concentration de CO2 sur la planète, prenons les données de 3 laboratoires : le plateau Assy au Kazakhstan, Kaashidhoo aux Maldives et l’Iles du Crozet proche de l’Antarctique. Ces trois laboratoires ont la particularité d’être sur à peu près la même longitude. Nous constatons qu’il y a d’énorme oscillation entre l’été et l’hiver (photosynthèse oblige) pour le laboratoire du plateau d’Assy situé dans l’hémisphère Nord. Que la courbe pour le laboratoire des Maldives, situé proche de l’équateur, présente 2 pics important en Avril Mai et Octobre Novembre pendant la période des tempêtes. Que la concentration de CO2 n’augmente pas au laboratoire du Crozet, proche du pôle sud. A partir de là comment juger fiable les données prélevées par un carottage de la glace et qui ne peuvent donner qu’une information à l’endroit précis où l’on a extrait la carotte mais qui ne peuvent pas extrapoler l’information à l’ensemble de la planète. Par son manque de capteurs repartis pour 80% d’entre eux sur une seule partie du globe (Etats-Unis Europe), par la méthode mise en œuvre pour définir analyser ce phénomène ne nous permet pas de réfléchir en tout objectivité et encore moins prendre des décisions importantes sur les bases de ces observations pour le moins suspectes.
Malgré qu’il existe un consensus au sein d’une certaine communauté scientifique pour confirmer que la « CO2 anthropique » est responsable de tous les maux de la terre, à la question : « Dans l’hypothèse où il y a vraiment un réchauffement climatique est-ce que l’augmentation de la concentration de CO2 est la principale cause de ce réchauffement ? » La réponse est : « On en sait rien ! »
Le CO2 existe indépendamment de l'homme. Si on veut incriminer les activités humaines, il faut parvenir à dégager la notion de « CO2 anthropique ». Cet exercice de style est difficile, parce que les responsables n'incluent pas le CO2 produit par la respiration humaine (l'homme, comme tout animal, produit du CO2 par sa respiration), mais uniquement le CO2 produit par les activités humaines. Pour parvenir à chiffrer le CO2 anthropique, les responsables découpent les activités humaines en domaines distincts (transports, énergie, etc.) et tentent de chiffrer, par pays, les rejets de CO2 liés à chacune de ces activités. Ensuite, ils tentent de démontrer que, depuis l'âge industriel, la quantité de CO2 dans l'atmosphère a considérablement augmenté : la tentation est donc grande d'établir une causalité entre les rejets industriels et l'augmentation du taux de CO2. En réalité, la teneur en CO2 varie constamment, et il est faux qu'un maximum soit lié aux activités industrielles. Ensuite, le CO2 produit par l'homme ne se distingue en rien du « CO2 ordinaire » ; il est comme lui absorbé par les plantes, les océans, etc. Considérer que le « CO2 anthropique » vient grossir la teneur atmosphérique et viendrait s’ajouter à l’existant est une absurdité, car elles participent au cycle du carbone, comme les autres. C’est le même principe que pour le cycle de l’eau : ajoutons un seau d’eau dans un lac de montagne, le volume de ce lac ne va pas augmenter d'autant, car ce lac est constamment alimenté par des rivières, des torrents, auxquels notre seau viendra s'ajouter, et il est constamment sollicité par l'évaporation, la vie des plantes, les rivières qui s'y alimentent, etc.
Donc est-ce que la réduction des émissions de CO2 est la réponse la plus adaptée ? Tout dépend de l’ampleur des moyens à mettre en place pour réduire ce CO2 et tout dépend aussi de la quantité de CO2 que l’on peut réduire à notre échelle. Ce qui nous amène au chapitre 3
3-Dans l’hypothèse où la réduction des émissions de CO2 est la réponse la plus adaptée, sommes-nous capable à l’échelle de la planète de les réduire et combien cela va nous couter ?
C'est en 1997, dans le cadre du protocole de Kyoto, que la Communauté européenne ainsi que l'Australie, la Norvège, la Suisse, l'Ukraine, la Biélorussie, le Kazakhstan, le Liechtenstein et Monaco.
Se sont engagés à réduire ses émissions de Gaz à Effet de Serre (GES) entre 2008 et 2020. C'est dans ce contexte que le Paquet Énergie-Climat (PEC) a vu le jour. Dans le but de lutter contre le réchauffement climatique, le Paquet énergie-climat vise trois objectifs, appelés les "trois fois vingt", à atteindre d'ici 2020 :
-
Réduire de 20 % les émissions de GES par rapport à 1990 ;
-
Développer les Énergies Renouvelables (EnR) au niveau de 20 % de la consommation d'énergie totale ;
-
Augmenter l'efficacité énergétique de 20 %. C’est à dire développer des systèmes pour optimiser les consommations d'énergie est la minimisée à service rendu identique. L'efficacité énergétique concerne le domaine du transport motorisé ou encore les métiers du bâtiment (construction, rénovation, etc.).
Le but premier de ce dispositif est de réduire sur une durée de 30 ans 20% des GES et notamment et uniquement le CO2 rendu principalement responsable des maux du 21ème siècle, qui serait due uniquement à l’action de l’homme et qui ne représente que 21% de la totalité des GES. Autrement dit le panel de mesure ne vise qu’à réduire de 4% sur 30 ans la totalité des gaz à effet de serre de la planète.
Mais avant de savoir combien cela coute, occupons nous de savoir quelle quantité de CO2 le français rejette dans l’atmosphère et quelle est la part de la France dans les émissions de GES mondiales ?
En 2010, la France a émis 347 Mt de CO2 sans tenir compte de la respiration humaine. Pour la même année, au niveau mondial, les émissions anthropiques totales de CO2 étaient de 30,6 Gt, (donnée GIEC COP21). La part de la France dans les émissions mondiales de CO2 est de : 347/30600, soit 1,13 %.
D’après les calculs qui sont fait par le GIEC, le CO2 représente 40 % de l’ensemble des gaz à effet de serre. En effet leur théorie est, comme d’habitude, très simple : Comme le CO2 est le GES qui dont la concentration augmente le plus, il représentera en extrapolant 40% au lieu des 21% observé. Ne soyons pas pingre prenons comme hypothèse de calcul la limite haute : 40%
Les données scientifiques donnent, en 1750, une concentration de CO2 dans l'atmosphère de 280
ppm, alors qu’elle est de 350 en 2004, soit une augmentation de 25 %. On peut donc estimer que le CO2 anthropique représente environ 25% du CO2 total.
La part du CO2 dû à l’activité française dans les émissions de gaz à effet de serre mondiales sera donc au total : 347/30600x0.4x0.25 soit 0.113% de la quantité totale des GES.
Puisque la part du CO2 dans l'atmosphère est 0,04 %. La part du « CO2 anthropique » français représente 347/30600x0.04x0.25 soit pas plus d’un millionième de la composition atmosphérique de la planète. Nous sommes là dans la gestion purement comptable de la part de la France dans la composition atmosphérique de notre planète, car les lois de la physique et le cycle carbone aidant, cette teneur en CO2 varie constamment de de beaucoup plus que d’un millionième. Autrement dit, si nous cessions complètement toute émission de CO2 par nos industries, variation dans la composition atmosphérique ne serait même pas décelable.
Bien que les émissions françaises de « CO2 anthropique » ne soient qu'une goutte d'eau dans l'océan, la France a décidé de lutter contre cette goutte. C'est pourquoi elle a adopté en 2008 une politique ambitieuse et contraignante avec l’application du Paquet Énergie-Climat cité plus haut.
D’après ses différents rapports, la cours des comptes estiment que l’état français a dépensé pour la mise en place du PEC et depuis la signature des accords de Kyoto, 37 milliards d’euro rien que pour les investissements énergétiques. Ces 37 milliards sont répartis comme suit : 4.7M€ pour le logement et le tertiaire, 4.9M€ pour les transports, 0.5M€ pour l’industrie, 0.05M€ pour l’agriculture et le reste soit 26.85M€ pour les énergies renouvelables. Mais une analyse plus poussée nous montre ces estimations sont beaucoup moins importantes que la réalité. Car à cela il faut rajouter :
-
la TVA à taux réduit sur les travaux d’amélioration de l’habitat (2 milliard d’euro depuis 2005)
-
le crédit d’impôt développement durable (8 milliard d’euro depuis 2005),
-
le Soutien à la recherche et à l’innovation (2 milliard d’euro depuis 2005)
-
la taxe CSPE, payée par le consommateur et destinée à compenser les surcoûts liés aux dispositifs de soutien aux énergies renouvelables payés par EDF (19.4 milliard d’euro depuis 2005).
Cela nous amène à un coût des dépenses à environ 70 milliards d’euro pour 9 ans. Et ce n’est pas fini, car les estimations jusqu’à 2020 serait d’après EDF, l’ADEME et autres organismes, de l’ordre de 210 milliards d’euro. Ces sommes sont directement prélevées chez le contribuable sous formes d’impôts ou de taxe, ce qui impact fortement notre pourvoir d’achat (que ce soit celui du particulier ou celui des entreprises) la croissance et influe considérablement sur notre économie. Comme aucune civilisation ne peut se développer en économisant l'énergie, la nôtre a cessé de se développer. De plus toutes les activités jugées « polluantes » ont été délocalisées. Ces mêmes productions se font désormais dans des pays beaucoup moins respectueux de l'environnement, et nous avons perdu les emplois correspondants.
Et pourtant nous remarquons tous que les glaciers, que ce soit au Groenland, dans le Nord Canada, sur le Kilimandjaro ou partout en montage, fondent bien et se réduise. Donc il se passe quelque chose qui influe dans le sens du réchauffement de la planète. Puisque la seule étude réalisée sur ce phénomène et celle du GIEC et qu’elle est sujette à caution. A supposer qu’il y a bel et bien un changement climatique, sous forme d'une élévation des températures, quelles en seraient les conséquences ?
L’impact sera très inégal selon les pays, en fonction de leur situation géographique et de leur développement économique. Dans des régions désertiques ou tropicales, où le poids de l’activité agricole dans l’économie est prépondérant, un réchauffement climatique aura des conséquences désastreuses. A l'inverse, dans les régions nordiques, telles que les pays scandinaves, le Canada ou la Russie, ce même réchauffement aura des conséquences positives. Cela engendrera forcément des migrations humaines vers les régions qui ne sont pas perturbées par le changement climatique. Si on assiste à une fonte partielle des neiges et des glaces, cala aura pour conséquences, une modification des ruissellements et des ressources en eau : la fonte des glaces en montagne entraînera une augmentation de la quantité d’eau dans les ruisseaux, une modification du débit et une transformation de la géographie des deltas qui, doit-on le rappeler, sont les zones les où la population humaine est la plus importante. La gestion des ressources en eau potable sera le plus important problème due au réchauffement climatique. Ce problème est aussi conjugué avec l’accroissement de la population. Les conséquences sanitaires d’un réchauffement climatiques seront un déplacement de certaines maladies dans des régions préservées jusque-là. En France, on observe déjà l’apparition de nouvelles pathologies consécutives à une migration d’insectes porteurs de maladies, et aussi à l’apparition de nouveaux ravageurs caractéristiques des climats chauds comme les termites ou les sauterelles.
En conclusion et pour nous préparer de façon sérieuse pour affronter les conséquences d’un réchauffement climatique, ce n’est pas de réduire notre « emprunte carbone », mais de nous préparer à une pénurie d’eau potable et aider habitants des poches de pauvreté existantes et futurs en allouant ce budget pour lutter contre la pauvreté dans les zones désertiques et tropicales tels que l’Afrique, l’Asie et l’Amérique du Sud.
S’il y a un réchauffement climatique dans un futur proche, je ne pense pas qu’en France nous aurons à nous en plaindre
40 réactions à cet article
Ajouter une réaction
Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page
Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.
FAIRE UN DON