Les modèles climatiques : artefacts trompeurs ?

Pascal Blamet

Le 5 octobre 2020, le journal Les Echos publiait une courbe issue de travaux de modélisation de l’Institut Pasteur prévoyant pour l’ Île-de-France à la mi-novembre une deuxième vague épidémique de COVID 19 particulièrement violente avec une prévision de 2140 lits occupés en réanimation et une pente exponentielle.

COVID 19 : les chiffres issus de la modélisation retenus par les décideurs étaient surévalués.

À la date dite, le taux d’occupation des lits de réanimation de la région s’élevait en réalité aux environs de 50% de la valeur annoncée  (données Santé publique France) avec une pente de croissance, linéaire et de l’ordre de 70% plus faible que prévu.

Dans le même temps, au plan national, le président Macron, décidait d’un second confinement pour éviter l’effondrement du système hospitalier, affirmant le 28 octobre :

« À ce stade, nous savons que quoi que nous fassions, près de 9000 patients seront en réanimation à la mi-novembre, soit la quasi-totalité des capacités françaises. »

En réalité, le seuil d’occupation n’a pas dépassé, lors de cette deuxième vague d’automne 2020,  les 5000 lits de soins intensifs en France.

Sans sous-estimer l’ampleur de l’épidémie et la difficulté de sa gestion, les chiffres qu’ont retenus les décideurs, issus de modèles de simulation, étaient très largement surévalués.   

Qu’en est-il pour le climat et sa modélisation, autrement plus complexe ?

Neutralité Carbone en 2050 et nous pouvons espérer maintenir le réchauffement moyen mondial sous les 2°C à l’horizon 2100.  

Telle est, en France et en Europe,  « l’équation » désormais imposée à laquelle les politiques réagissent par des décisions majeures, d’une brutalité industrielle inouïe, là encore fondées sur des modélisations mathématiques.

Il est vrai que compte tenu de la complexité de l’atmosphère et de la multiplicité des phénomènes physico-chimiques à prendre en compte pour la représenter, les seuls outils susceptibles d’aboutir dans ce domaine à des résultats quantifiés sont les modèles numériques de simulation, destinés justement à intégrer l’ensemble des facteurs en jeu.

Mais s’ils en sont destinés, en sont-ils capables ? Cette question majeure, complètement passée sous silence, apparaît iconoclaste, mais elle se pose bel et bien.

Le point de vue  d’un ingénieur ayant pratiqué la modélisation numérique.

Concrètement, la capacité des modèles à reproduire avec précision la réalité repose sur de nombreux éléments, dont la compréhension de la phénoménologie, la qualité des équations mathématiques qui la représentent, la connaissance de leurs paramètres directeurs qui sont essentiels, sans oublier les conditions de flux aux limites de l’espace modélisé.

Dans les cas complexes et en particulier dans le cas de la modélisation de la géosphère,  les équations sont pour partie des approximations et surtout les paramètres directeurs ne sont pas mesurables. On tente de les ajuster comme on peut : c’est le « réglage » du modèle, passage obligé, très loin d’être simple. C’est ce qui a fait défaut dans le cas du Covid car cet ajustement des paramètres directeurs est  d’autant plus incertain que l’objet modélisé est complexe.

Or c’est bien le cas de l’atmosphère qui est un milieu très volatil avec de la convection horizontale et verticale, des échanges avec d’autres milieux (terre, eau, glace), de la thermodynamique complexe, des changements de phase, du rayonnement et des interactions de toutes natures !

Sans compter des éléments spécifiques comme par exemple les nuages, qui  jouent un rôle majeur sur l’équilibre thermique de l’atmosphère, et dont il est très difficile de rendre compte numériquement.

Le climat, un système chaotique.

Bref, on peut difficilement imaginer milieu plus compliqué…  qualifié par certains de chaotique.

Le plus souvent, dans ces cas complexes, les modèles ne sont que des outils d’aide à l’analyse scientifique : ils fournissent une représentation partielle et souvent subjective de ce qu’ils simulent car contrairement à ce qu’on pense, les domaines où ils sont en mesure de représenter avec précision et fiabilité la réalité sont limités.

C’est le cas par exemple du calcul de structure dans le domaine technique des matériaux, parce que  les lois physiques et comportementales sont bien  identifiées et les paramètres des équations connus et mesurables.

Dans le cas des milieux naturels, ces calculs ne sont en fait que des « simulations » ; le terme de « modèle » n’est pas du tout synonyme d’exactitude, ni de presse bouton mais relève au contraire d’un art très difficile, souvent biaisé et qui peut conduire à beaucoup de contorsions et à énormément d’incertitudes.

Pour s’en convaincre, sur ce sujet aussi central qu’ignoré, un article collectif international est paru dans le Bulletin of the American Meteorological Society de mars 2017, coordonné par un chercheur français, Frédéric Hourdin du laboratoire de météorologie dynamique de l’Université P. et M. Curie et du CNRS (1).

Avec ses collègues internationaux tout à fait reconnus par le GIEC,  il a entrepris une étude des différents modèles, dans le cadre d’un travail d’inter comparaison parfaitement officiel, il faut le souligner.

Concernant le réglage, voici un extrait de l’article :

« Les choix et les compromis effectués au cours de l’exercice de réglage peuvent affecter de manière significative les résultats du modèle et influencer les évaluations…Bien que le besoin de réglage des paramètres ait été reconnu dans des travaux de modélisation…Il est souvent ignoré lors de l’examen des performances des modèles climatiques…En fait, la stratégie de réglage ne faisait même pas partie de la documentation requise des simulations CMIP phase 5…Pourquoi un tel manque de transparence? Cela peut être dû au fait que le réglage est souvent considéré comme une partie inévitable mais sale de la modélisation du climat, plus d’ingénierie que de science, un acte de bricolage qui ne mérite pas d’être enregistré dans la littérature scientifique… Le réglage peut en effet être considéré comme un moyen indescriptible de compenser les erreurs de modèle… »

Cette dernière phrase est particulièrement bien choisie quand on découvre par ailleurs qu’un modèle, mis en œuvre au sein du très sérieux Institut Max Planck de climatologie en Allemagne, conduisait à une sensibilité climatique de 7°K jugée irréaliste. Un paramètre de réglage de la convection atmosphérique a dû être multiplié par 10   par rapport à la valeur initialement estimée, pour corriger la chose et aboutir à une sensibilité plus acceptable de 3°K.

Comme tant d’autres, le modèle conduisait à une surchauffe aberrante qu’il fallait impérativement réduire pour se retrouver dans la gamme des températures attendues (2 et 3 p. 86).

On ne peut que s’interroger sur la pertinence physique de ce « réglage » de circonstance, mais surtout sur l’intérêt de « résultats » obtenus dans de telles conditions.

Car sauf erreur, la sensibilité climatique, c’est-à-dire le réchauffement estimé pour un doublement de la teneur en CO2 est bien le résultat majeur attendu d’un modèle de ce type. Peut-on encore appeler « résultat» une valeur fixée d’avance et considérée comme un objectif ?  

Les paramètres sont ajustés pour obtenir les propriétés souhaitées. 

Cet exemple est  une parfaite illustration du fait que les paramètres de ces modèles sont en général ajustés  pour obtenir les « propriétés souhaitées »,  comme le note explicitement l’article.  

Ces pratiques traduisent une grande faiblesse face à la complexité du sujet car les numériciens le savent bien : on peut toujours parvenir à des ajustements numériques mais si fonctions ou paramètres ne sont pas représentatifs de la phénoménologie modélisée, les calculs ne valent rien ; de la même façon que les corrélations statistiques sans causalité sont de purs sophismes.

Malgré toute la puissance de calcul disponible, ces modèles sont en réalité eux-mêmes des objets de recherche mais certainement pas des outils d’ingénierie prédictive.

C’est d’autant plus vrai qu’en plus,  les flux et les écarts supposés produits par l’effet de serre anthropique sont minuscules par rapports aux phénomènes naturels dans lesquels ils s’intègrent. On parle d’un déséquilibre énergétique de l’ordre de grandeur du Watt par m² (forçage radiatif ) à la surface de l’atmosphère, soit quelques pour mille de l’irradiation solaire moyenne, un ordre de grandeur également comparable ou inférieur à la précision des mesures satellitaires. En d’autres termes, ces calculs portent sur « l’épaisseur de trait », sans doute plus fin que l’incertitude elle-même.

Quelle crédibilité accorder alors à ces outils sur qui sont pourtant fondées les énormes décisions politiques actuelles qui structurent « la transition écologique » : qui se pose la question, qui même s’en préoccupe ?

Certainement pas le GIEC qui, vis-à-vis des décideurs, s’appuie au contraire sur ces calculs dans une forme de déni par omission de leurs limites et de leurs lacunes (résumé technique du rapport IPCC AR6 WG1 – TS1.2.2 p.16 : performance des modèles climatiques), illustration de l’écart entre la pratique scientifique et son instrumentalisation.

Ces points ne sont pas non plus discutés publiquement par la communauté scientifique climatique pour une raison simple : elle n’est globalement pas compétente en matière de modélisation numérique.  

On veut faire dire aux modèles climatiques ce qu’ils ne peuvent pas dire.

La simulation numérique est en effet une discipline scientifique en soi : le domaine confidentiel, hermétique (et inexistant sur le plan médiatique) des numériciens,  infime minorité de chercheurs discrets et hyper spécialisés dont l’objectif est d’abord que leur modèle aboutisse à des résultats stables numériquement et plausibles physiquement.  

Quant à la « communauté scientifique climatique »,  elle relève pour l’essentiel d’une juxtaposition de disciplines distinctes souvent naturalistes et attachées à des objets spécifiques  (glaciologie, océanographie, météorologie, thermodynamique, astronomie, hydrologie,  etc.).

Il est frappant de noter que ces scientifiques observent, mesurent (ce qui n’est déjà pas simple) mais, faute de capacité d’interprétation globale, se retranchent derrière le préambule rituel du GIEC de la  « faute au CO2 » et la nécessité d’en « sauver la planète ».   

C’est tout simplement oublier que la recherche ne relève pas des bonnes intentions, mais d’une démarche intellectuelle où la liberté, la controverse,  et surtout la raison critique (exact inverse du complotisme) sont bien sûr primordiales.

En climatologie, sans que cela heurte qui que ce soit, cette dernière a manifestement disparu de la sphère publique, comme si la thermodynamique atmosphérique avait la simplicité et la reproductibilité de la bille qui tombe sous l’effet de la pesanteur !  

Ce qui explique sans doute que seuls des professeurs émérites et des scientifiques à la retraite se considèrent en situation de pouvoir émettre des avis critiques : ils sont désormais quasiment les seuls à avoir la liberté de le faire, avec courage d’ailleurs compte tenu de l’ostracisme dont ils font l’objet, malgré leur expérience.

Il faut lire à ce propos le récent livre (paru cette année aux  États-Unis) de Steven Koonin, ancien sous-secrétaire d’état à la science du département de l’énergie de l’administration Obama (3).

Physicien de formation et spécialiste des modèles numériques, il montre, sur la base d’un travail approfondi, l’immaturité de la science climatique et les manipulations dont elle fait l’objet dans le sens systématique du catastrophisme.

L’écart abyssal entre la complexité des mécanismes atmosphériques et le simplisme de la « faute au CO2 » devrait nous alerter mais la sacralisation du GIEC a donné à cet organisme un pouvoir exorbitant.

Cette  réalité est aussi le reflet de l’affaissement général de la raison critique et de la connaissance, au profit d’une pensée sommaire, rabâchée en boucle et devenant ainsi vérité exclusive.

Compte tenu des enjeux, c’est sans doute désormais aux numériciens eux-mêmes, soucieux de transparence, de sortir de l’anonymat des publications confidentielles et de s’expliquer publiquement.

Car manifestement, tout repose sur des modèles à qui on fait dire ce qu’ils ne peuvent pas dire.


(1) Fréderic Hourdin et all : The art and science of climate model tuning » – BAMS mars 2017 Vol. 98, n ° 3 , pp. 589-606 .

(2) Thorsten Mauritsen et all : Developpements in the MPI-M earth system model – version 1.2 (MPI-ESM1.2) and its  response  to increasing  CO2Journal of advances in modelling earth systems – 13 janvier 2019.

(3) Steven Koonin :  Unsettled ? What Climate science tells us, what it doesn’t and why it matters – 2021.

Partager

18 réflexions au sujet de « Les modèles climatiques : artefacts trompeurs ? »

    • Bonjour,
      je pense qu’il est une chose d’observer des changements et qu’il en est une autre d’en comprendre l’origine. C’est sur second point que les modèles n’apparaissent pas convaincants.
      Je ne suis pas un expert en glaciologie , mais les glaciers sont très sensibles aux évolutions climatiques. Emmanuel Leroy Ladurie indique, dans son Histoire du climat depuis l’an mil, que la mer de glace a reculé de 750 m entre 1860 et 1870.

  1. Le GIEC ne recale pas ses modèles sur les valeurs expérimentales (recueillies par ballons sondes et satellites). Tout physicien sait dès sa première année d’études qu’un modèle doit être validé et que pour cela il doit être recalé sur les points expérimentaux, et s’il s’en écarte, il doit être rejeté et les études afférentes, a fortiori quand elles se risquent à des extrapolations, faire l’objet, par précaution, d’un classement vertical direct à la corbeille.

    • Ben, l’article ci-dessus parle justement du calage (“tuning”) des modèles et fait quasiment l’éloge d’un article co-écrit par des auteurs du GIEC.

      On ne peut pas reprocher aux modélisateurs de caler les paramètres des modèles et, en même temps, leur reprocher de ne pas le faire. Il faudra qu’on choisisse. En tout cas, moi je suis maintenant un peu perdu. Il me semble que les climato-sceptiques “professionnels” devraient choisir des points d’attaque cohérents. Là, ce n’est pas le cas…

      • Le problème est que le GIEC entretient une confusion sur ce qu’il est réellement.
        Il y a “l’institution GIEC” à proprement parler qui est en réalité une structure politique intergouvernementale, avec un nombre limité de permanents.
        Et il y a la grande masse des scientifiques internationaux qui travaillent et publient dans leur discipline climatique mais dont on ne peut pas dire qu’ils appartiennent à “l’institution GIEC”: ils relèvent chacun de leur propre institution et le GIEC fait des rapports sur la base de leurs publications.
        Le rapport du GIEC qui compte vraiment est le rapport dit “pour les décideurs” , rédigé à la base par ces permanents du GIEC.
        Mais manifestement ils en tirent une synthèse très sélective et c’est là le problème.
        Les publications que je cite et qui me paraissent essentielles pour mesurer l’état réel de la science sont écrits par des scientifiques parfaitement honnêtes, mais il faut chercher en profondeur pour les trouver et surtout “l’institution GIEC” n’en tire pas , de mon point de vue, les enseignements qu’il convient.
        Il ne faut pas oublier à ce propos que le réchauffement climatique du à l’homme est explicitement dans les statuts de “l’institution GIEC”. C’est donc sa raison d’être en quelque sorte.
        Pour terminer, je ne suis pas un “climato-sceptique professionnel” juste un ingénieur et un ancien scientifique qui connaît un peu le sujet très technique de la simulation numérique appliquée aux sciences de la terre et qui estime utile de faire partager sont point de vue.
        Bien cordialement.

  2. Article d’une absolue limpidité et transparence, pas comme les “modèles climatiques” !
    Surtout envoyez-le en recommandé à qui vous savez : il pourrait le convaincre peut-être de sa fausse route, si la raison profonde de ses “choix” n’avait d’autres motifs que surtout politiques ou économiques, et non scientifiques…
    On sait depuis longtemps que l’on fait dire aux chiffres ce que l’on veut, et que “l’opinion publique” est un artefact sociologique construit par les enquêtes, les sondages et la propagande (le matraquage ?) médiatique au service de l’ Etat, il n’est que d’écouter France-Infaux le matin et de regarder “La 2” le soir, entre autres, pour s’en convaincre ! Bonne soirée.

  3. Le livre de Steven Koonin est probablement ce qui a été écrit de mieux sur ce sujet (modélisation mathématique appliquée au climat), par un spécialiste indiscutable, Pensez vous qu’il sera un jour traduit en Français pour que les politiques de notre pays (mal à l’aise avec l’anglais) dispose d’une explication claire de ce sujet, écrite par un ancien conseiller du Président Obama, habituellement bien vu dans les milieux français bien pensant?

  4. Seuls les metaphysiciens pensent le “pourquoi”, les physiciens étudient le “comment” à partir de leurs observations et, entre les deux, les numericiens, qui voudraient passer inaperçus, traduisent en données prétendument objectives les injonctions des metaphysiciens pour orienter la recherche des physiciens.
    Le CO2, donné comme cause métaphysique unique du réchauffement par le GIEC (dans le rôle du metaphysicien), fonctionne -à l’instar de l’âme, du monde et de Dieu dans d’autres domaines- comme l’une de ces idées de la raison pure qui peuvent aider à unifier la recherche et à la faire avancer à condition de bien la comprendre comme un “point de fuite”, un “focus imaginarius” à toujours soumettre à l’expérience, et non comme une réalité en soi, bref tout le contraire de ce qui est fait actuellement dans une attitude fondamentalement idéologique et dogmatique, ou bien alimentée par la peur des représailles.

  5. Une précision à propos des modèles climatiques, ce sont des modèles de circulation générale (GCM). Ils ne sont pas des modèles de l’effet de serre. La physique de l’effet de serre, en fait la thermodynamique de l’effet de serre, n’est pas modélisable car beaucoup trop complexe. Inutile donc de demander aux GCM ce qu’ils ont à dire sur l’effet du CO2, ils ne sont pas conçus pour répondre à cette question.

    On trouvera, par exemple chez Ramanathan 1979, la façon dont sont paramétrés les flux thermiques dans les modèles et donc comment est introduit arbitrairement dans le calcul l’impact du CO2 sur les températures.

  6. La réalité c’est que les Allemands et les Chinois vont développer massivement le véhicule électrique, non pas pour éviter le CO2 émis par leurs centrales électriques alimentées par le charbon ou le lignite, mais pour diminuer la dépendance au pétrole qui ajoute du déficit à leurs balances commerciales ! Les modèles ajustés ou non ne sont pas leurs problèmes !

    • “… non pas pour éviter le CO2 émis par les voitures thermiques sachant que leurs centrales électriques alimentées par le charbon ou le lignite émettront encore plus de CO2 qu’avant pour recharger le parc automobile , …

    • Pour cela certes… et aussi, de manière plus agressive, pour bien se placer dans la féroce course mondiale qui s’annonce sur le créneau, et tout ça dans une entente historique entre les écolos, les patrons, l’Etat, les citoyens et en sus, si je puis dire, la bénédiction du pape dans leur défense de la “vertitude” qui se voudrait vertu : du vrai pain bénit, que cette convergence des luttes, non ? Enfin une industrie qui va dans le sens de la morale : le kwh a remplacé la croix… Qui a parlé d’ecolo-nialisme ? Pauvre Afrique !

      • Oui , cette industrie automobile produit comme résultat l’inverse du but recherché par rapport au raisonnement de base de cette morale ( bonne ou mauvaise), tout celà s’appelle ” la folie ” et ses adeptes des fous , mais entre fous tout est normal et cohérent !

  7. Avec les 1 800 milliards de barils de pétrole et les 200 000 milliards de mètres cubes de gaz en stock sous terre , soit 50 ans, au rythme actuel, de consommation pour chacun de ces fossiles, nous n’avons pas fini d’entendre parler du CO2 anthropique rajouté dans l’atmosphère !

  8. J’approuve pleinement ce qu’a écrit Pascal Blamet. J’ai moi-même été confronté aux ajustement des paramètres du modèle de turbulence k-epsilon pour la simulation des caractéristiques de vol d’un avion et effectivement ça tient de l’irrationnel… jusqu’a atteindre un consensus et un savoir faire pour l’usage du modèle dans un cadre précis. Même dans un cas aussi simple, au regard de l’ajustement d’un modèle pour le climat, dès que l’on sort des conditions d’usage standard on ne sait pas si ce qu’on calcul est vrai, il faut retourner à l’expérimentation.
    On peut donc penser qu’un modèle pour le climat peut être fiable dans un voisinage des conditions physiques pour les quelles il a été calibré mais douter fortement qu’on puisse en déduire quelque chose quand les conditions changent trop, comme par exemple un bouleversement du cycle des courants marins.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

captcha