Un article de Roy Clark traduit par Camille Veyres.
Source : Understanding The Seven Major Errors In Climate Models – Climate Change Dispatch
[Note du traducteur : cette présentation résume un article de 73 pages publié par la revue Science of Climate Change.
Il y a au moins sept erreurs majeures dans les modèles climatiques. Cinq d’entre elles proviennent d’idées trop simplifiées sur la façon dont l’énergie se déplace. Une autre implique des erreurs qui s’accumulent lors de la résolution d’équations complexes sur le comportement de l’air et de l’eau. La dernière erreur est de supposer qu’une température moyenne mondiale est une bonne mesure du changement climatique.
Je détaille ces erreurs dans mon article « A Nobel Prize for Climate Modeling Errors » (Un prix Nobel pour les erreurs de modélisation climatique), Science of Climate Change 4(1) pp. 1-73 (2024). Les références à des sections spécifiques de cet article, identifiées par C24, sont fournies dans la discussion.
Les trois premières erreurs dans la simplification du transfert d’énergie proviennent de l’article de Manabe et Wetherald publié en 1967, intitulé « Thermal equilibrium of the atmosphere with a given distribution of relative humidity » [MW67].
Dans cet article, ils ont utilisé un modèle radiatif-convectif unidimensionnel (1-D RC) avec une colonne d’air en état stationnaire et une distribution fixe de l’humidité relative (voir C24, section 3.1).
1) L’hypothèse d’un état stationnaire crée artificiellement dans le calcul un réchauffement avec l’augmentation des niveaux de CO2.
2) L’hypothèse d’une humidité relative fixe conduit à une « rétroaction de la vapeur d’eau » qui amplifie cet artefact de réchauffement initial.
3) Leur méthode d’intégration temporelle permet à de minuscules augmentations de température de s’accumuler au fil du temps, ce qui ne se produirait pas dans l’atmosphère réelle, car ces petits changements sont masqués par les variations normales des températures sur 24 heures ou sur l’année.
Lorsque MW67 double la concentration de CO2 de 300 à 600 ppm, ces erreurs de modélisation amènent une augmentation de la température de surface de 2,9 °C par ciel clair et de 2,4 °C pour une couverture nuageuse moyenne. Cette erreur a jeté les bases de la fraude climatique massive que nous connaissons aujourd’hui.
Les affirmations sur le réchauffement climatique étant devenues une source lucrative de financement de la recherche, il n’y avait plus de retour en arrière possible. À partir de ce moment, tous les modèles climatiques devaient montrer un réchauffement similaire pour un « doublement du CO2 ». Aujourd’hui, ce phénomène est connu sous le nom de sensibilité climatique à l’équilibre (ECS).
Manabe et Wetherald ont passé les huit années suivantes à intégrer les erreurs de leur modèle de 1967 dans un « modèle de circulation générale » (GCM, General Circulation Model) « hautement simplifié » [MW75]. Ce nouveau modèle a une ECS de 2,9 °C, contre 2,4 °C avec une couverture nuageuse moyenne dans MW67. MW75 a établi la référence en matière de réchauffement pour les futurs GCM climatiques.
Manabe et Stouffer ont introduit la quatrième erreur en 1979 avec leur algorithme représentant l’océan comme une dalle ou une plaque [d’épaisseur 68 m]. Ils ont négligé la manière dont l’énergie est transférée à la surface, ce qui conduit leur modèle océanique à se réchauffer en raison de l’augmentation du CO2 atmosphérique. Lorsqu’ils ont quadruplé les niveaux de CO2 de 300 à 1 200 ppm, cela a provoqué un artefact de réchauffement de la surface de 4,1 °C.
Le transfert de chaleur le plus important et variable venant de l’évaporation due au vent a éclipsé le rayonnement infrarouge thermique [dit à ondes longues LWIR] qui pénètre à moins de 100 microns dans la surface de l’océan. La faible augmentation du flux LWIR descendant due au CO2 n’était pas suffisante pour augmenter de manière significative les températures de surface de l’océan (voir C24, section 4.3).
Des événements extérieurs ont également commencé à influencer le développement des modèles climatiques. Alors que le programme Apollo (alunissage) touchait à sa fin en 1972, il y a eu un « glissement de mission ». Le groupe chargé de l’atmosphère planétaire à la NASA, dont faisait partie le jeune James Hansen, a reçu pour instruction de se tourner vers des applications terrestres (Hansen et al, 2000 (chapitre 4)).
En 1976, ils ont copié le modèle MW67 1-D RC pour la « nébulosité moyenne » et ont créé des artefacts de réchauffement pour dix espèces mineures, dont le méthane (CH4) et l’oxyde nitreux (N2O) (Wang et al, 1976). Puis, en 1981, ils ont ajouté un modèle océanique à deux couches à leur version du MW67 (Hansen et al, 1981 (H81)).
À l’aide des stations météorologiques disponibles et des données connexes, ils ont fabriqué une série historique de valeurs de la température moyenne mondiale. Cependant, ils ont dans leur série historique de températures ignoré le pic, pourtant évident vers 1940, pic dû à la phase de réchauffement de l’oscillation multi-décennale atlantique (AMO).
En ajustant la concentration de CO2, l’intensité solaire et l’effet des aérosols volcaniques au fil du temps, ils ont pu « affiner » leur modèle RC 1-D modifié afin d’obtenir un résultat ressemblant à leur série historique des « températures moyennes mondiales ».
H81 a jeté les bases de la pseudoscience des forçages radiatifs, des rétroactions et de la sensibilité climatique que l’on retrouve encore aujourd’hui dans les modèles climatiques. Ceci est illustré par la figure 1 (voir C24, sections 3.3 et 4.5).

H81 a supposé que les changements de température créés par les artefacts mathématiques dans un modèle climatique de type RC 1D étaient réels et qu’un ajustement artificiel à la série historique de la température moyenne mondiale était en quelque sorte une mesure du changement climatique.
La température est une propriété thermodynamique intensive, et les moyennes de température sur des systèmes thermodynamiques indépendants ne sont que des chiffres sans signification physique (Essex et al, 2006). Le changement climatique devrait être défini en termes de changements des limites des zones climatiques, telles que celles utilisées dans la classification de Köppen ou dans des classifications connexes (Kottek et al, 2006) (voir C24, section 5).
À mesure que le financement des programmes nucléaires diminuait, la dérive des missions s’est étendue à la Commission de l’énergie atomique, qui avait en 1977 rejoint le ministère américain de l’Énergie (DOE). Le programme de recherche climatique du DOE s’est concentré sur la comparaison des modèles, dans le cadre de laquelle les chercheurs comparent les résultats de modèles imparfaits sans tenir compte de la réalité physique.
Le programme CMIP (Coupled Model Intercomparison Program) a débuté en 1996 (Meehl et al, 1997). Les différentes phases de ce programme ont fourni une grande partie des résultats climatiques douteux utilisés par le Groupe intergouvernemental sur l’évolution du climat (IPCC, PGIEC) des Nations unies (Stouffer et al, 2017, Hausfather, 2019).
À mesure que la technologie informatique s’est améliorée, les modèles climatiques sont devenus plus complexes. Les chercheurs ont ajouté davantage d’agents de forçage et ajusté les changements au fil du temps afin que les enregistrements de la température moyenne mondiale générés par les modèles correspondent à ceux des données des stations météorologiques.
Les premiers modèles 1D ont été remplacés par des GCM (modèles de circulation générale) atmosphériques, suivis par des GCM à océan-atmosphère couplés. Aujourd’hui, les chercheurs développent des modèles exascale qui combinent des scénarios d’émissions avec des GCM. Cependant, tous ces modèles à grande échelle reposent sur les fondements erronés établis par MW67 et H81.
L’hypothèse d’un état stationnaire des modèles 1D a été remplacée par un bilan énergétique mondial fictif. Cette nouvelle hypothèse est que le forçage radiatif des gaz à effet de serre ou diminution du rayonnement infrarouge thermique (OLR, Outgoing Longwave Radiation) sortant du sommet de l’atmosphère (TOA) modifie le bilan énergétique de la Terre.
Selon cette hypothèse, la température de surface augmenterait jusqu’à ce que l’équilibre du flux au sommet de l’atmosphère soit rétabli (Knutti et Hegerl, 2008). Au lieu de cela, la petite quantité de chaleur supplémentaire libérée dans la troposphère est renvoyée dans l’espace sous forme d’émission d’infrarouge thermique LWIR à large bande, ce qui n’entraîne pratiquement aucun changement dans le bilan énergétique de la Terre (voir C24, section 4.1).
En outre, les GCM nécessitent la résolution d’un très grand nombre d’équations non linéaires couplées. Les erreurs associées à la résolution de ces équations augmentent avec le temps et peuvent devenir instables. Les modèles de prévision météorologique sont limités à des prévisions pour disons les prochains 12 jours. Les modèles climatiques GCM ne peuvent pas fournir des prévisions aux échelles de temps requises pour des études climatiques [Lorenz, 1963 ; 1973].
La cinquième erreur est apparue dans le troisième rapport d’évaluation du GIEC sur le climat (TAR) en 2001. Ce rapport a manipulé une série chronologique [ou « historique »] de forçages radiatifs pour créer l’illusion qu’elle correspondait aux données historiques sur la température moyenne mondiale.
Ce rapport a divisé ces forçages en contributions « naturelles » et contributions « anthropiques », comme le montre la figure 2a. Les chercheurs ont ensuite relancé les modèles climatiques pour générer des résultats distincts pour la « base de référence naturelle » et la « contribution anthropique », illustrés dans les figures 3b, 3c et 3d.
Un argument statistique vague, basé sur les changements de la distribution normale de la température, a relié les forçages « anthropiques » à l’augmentation de la fréquence et de l’intensité des « événements météorologiques extrêmes », comme le montre la figure 2e. La figure 2a est tirée de Tett et al, 2000. Les figures 2b à 2e sont tirées du TAR (l’AR3 est utilisé à la place du TAR dans la figure 3). Ce rapport a ignoré le pic évident des années 1940 lié aux phases de réchauffement de l’AMO.
Cette « attribution des phénomènes météorologiques extrêmes » a fourni une justification pseudoscientifique au contrôle politique de la combustion des combustibles fossiles, conduisant à la politique problématique du zéro net à laquelle nous sommes confrontés aujourd’hui (voir C24, section 3.5).

Divers groupes politiques et environnementaux ont commencé à exploiter les artefacts de réchauffement créés par les modèles climatiques pour faire avancer leurs programmes politiques. Un événement clé a été la conférence de 1975 intitulée « The Atmosphere Endangered and Endangering » (L’atmosphère en danger et menaçante), organisée par l’anthropologue Margaret Mead (Hecht, 2007). L’objectif de M. Mead était d’utiliser la pollution atmosphérique, réelle ou imaginaire, pour justifier le contrôle des naissances et limiter la croissance démographique.
Le GIEC a été créé en 1988, et le Programme américain de recherche sur le changement global (USGCRP) a été créé à l’initiative du président des USA en 1989 et mandaté par le Congrès en 1990. Le Hadley Climate Centre au Royaume-Uni a également été fondé en 1990.
La mission du GIEC est « d’évaluer les informations scientifiques, techniques et socio-économiques pertinentes pour la compréhension atmosphérique du risque de changement climatique induit par l’homme». Cette mission repose sur l’hypothèse que les activités humaines sont à l’origine d’un réchauffement climatique par le CO2.
L’USGCRP vise à « coordonner la recherche et les investissements fédéraux afin de comprendre les forces qui façonnent l’environnement mondial, tant humaines que naturelles, et leurs impacts sur la société ». Cependant, il n’a pas réussi à remplir cette mission car il a négligé les causes naturelles du changement climatique.
Les inondations, les sécheresses, les incendies de forêt et autres « phénomènes météorologiques extrêmes » résultent de conditions météorologiques naturelles, telles que des vents descendants, les dômes de haute pression et les oscillations océaniques, conditions météorologiques naturelles qui ne sont pas affectées par l’augmentation des concentrations de gaz à effet de serre (voir C24, sections 4.6 et 5.1).
L’USGCRP a accepté sans critique les méthodes pseudoscientifiques de modélisation climatique utilisées par le GIEC sans faire aucun effort pour valider indépendamment ces modèles.
Le cinquième rapport national d’évaluation climatique (NCA5), publié par l’USGCRP en 2023, met en évidence le caractère pseudoscientifique de ses conclusions.
Les figures 3.1, 3.2 et 3.3 du chapitre 3, « Earth System Processes » (Processus du système terrestre), illustrent les forçages radiatifs, les rétroactions et les sensibilités climatiques utilisés dans les modèles climatiques qui justifient à tort les affirmations relatives aux conditions météorologiques extrêmes présentées dans le NCA5. Ces figures, adaptées du sixième rapport d’évaluation climatique du GIEC (AR6, 2021), apparaissent sous les numéros 3a, 3b et 3c.
La figure 3a retrace les « facteurs climatiques » en remontant dans le temps aux artefacts mathématiques des premiers modèles climatiques. MW67 a lancé le concept du réchauffement dû au CO2. Wang et al (1976) ont introduit les effets de réchauffement du CH4, du N2O et des gaz halogénés. H81 a utilisé les aérosols volcaniques pour « affiner » le modèle.
Le troisième rapport d’évaluation du GIEC sur le climat (2001) a mis l’accent sur l’influence humaine et son lien invalide avec des phénomènes météorologiques extrêmes. MW67 a également introduit la rétroaction de la vapeur d’eau illustrée à la figure 3b.

Pendant 200 ans, les scientifiques ont ignoré les travaux de Fourier sur le décalage temporel entre le pic du flux solaire et la réponse de la température de surface (Fourier, 1824). Ces variations quotidiennes et saisonnières montrent clairement une réponse thermique non équilibrée au flux solaire (Clark, 2023).
Nous devons considérer les changements de flux comme des changements dans la vitesse à laquelle un réservoir thermique se réchauffe ou se refroidit. (Clark et Rörsch, 2023). Le doublement de la concentration de CO2 de 300 à 600 ppm entraîne une augmentation du refroidissement de la troposphère par le rayonnement infrarouge thermique fourni au cosmos (LWIR) de +0,08 K par jour (Iacono et al, 2008).
Pour un gradient de température de -6,5 K km-1, une variation de +0,08 K équivaut à une diminution d’altitude de 12 mètres, soit environ l’équivalent d’une descente de quatre étages en ascenseur (voir C24, section 4.2).
Actuellement, l’augmentation annuelle moyenne du CO2 atmosphérique est d’environ 2,4 ppm, ce qui entraîne une augmentation de 34 milliwatts par mètre carré du flux infrarouge thermique LWIR descendant de la basse troposphère vers la surface. Ce changement est trop faible pour être mesuré par rapport aux variations quotidiennes normales de température et d’humidité. Il ne peut pas avoir d’incidence sur les phénomènes météorologiques extrêmes, ce qui signifie qu’il n’y a pas de « signal CO2 » détectable dans les archives climatiques (voir CR24, section 4.5).
La communauté des modélisateurs climatiques n’a pas réussi à corriger les erreurs de ses modèles. Les modélisateurs climatiques, qui sont davantage des mathématiciens appliqués et des programmeurs informatiques que des scientifiques, se concentrent sur la résolution d’équations complexes et la sécurisation de leurs salaires.
Ils ont ignoré les erreurs fondamentales de leurs modèles. Les minuscules changements de température et d’humidité prévus par ces modèles ne peuvent, dans le monde réel, pas s’accumuler au fil du temps.
Le réchauffement supposé induit par les gaz à effet de serre et la rétroaction de la vapeur d’eau ne sont que des artefacts mathématiques issus des hypothèses simplificatrices des modèles, établies avant même que le moindre code informatique ne soit écrit.
Tout modèle climatique dont la sensibilité climatique à l’équilibre est supérieure à « trop faible pour être mesurée » est intrinsèquement frauduleux. Il n’est pas nécessaire de poursuivre l’enquête.
La modélisation climatique est passée d’une recherche scientifique à ce qui ressemble à un culte impérial de l’apocalypse du réchauffement climatique. [Imperial Cult of the Global Warming Apocalypse]. La croyance dans les résultats des modèles a remplacé le raisonnement fondé sur des preuves. Les modélisateurs climatiques sont devenus les prophètes de ce Culte.
La fraude dans la modélisation climatique est évidente dans la littérature. Ces questions ne sont pas scientifiques, mais nécessitent des mesures politiques et juridiques pour résoudre les nombreux problèmes.
Roy Clark est un ingénieur à la retraite qui a plus de 40 ans d’expérience dans l’optique, la spectroscopie et le développement de nouveaux produits.