Températures satellitaires versus températures de surface

Par Andy May

Un article initialement publié le 12 mars 2022 sur le site co2coalition.org.


Le grand débat sur le changement climatique entre les professeurs David Karoly et Will Happer (auquel s’est joint Glenn Tamblyn après le retrait de David Karoly) a donné lieu à un échange de points de vue intéressants sur la qualité des mesures de température par satellite versus les mesures de surface. Voici l’avis de Glenn Tamblyn :

« La compilation des données brutes relevées par plusieurs satellites est un processus très complexe. Il s’ensuit que les ensembles de données satellitaires sont beaucoup moins précis que les ensembles de données de température de surface…L’accent mis par le professeur Happer sur les mesures de température par satellite ne concorde pas avec l’opinion des experts en la matière.

(Tamblyn, 2021b, p. 7-8)

Les satellites mesurent le rayonnement micro-ondes émis par les molécules d’oxygène présentes dans l’atmosphère et estiment une température de « luminosité » qui peut ensuite être convertie en une température atmosphérique réelle. Aucun calibrage avec d’autres mesures n’est requise. La luminosité mesurée est comparée à la température de luminosité de l’espace lointain (-455 ° F) et à une cible de température connue à l’intérieur du satellite pour calculer la température réelle dans l’atmosphère. [1]

En raison des interférences et des nuages, cette technique ne fonctionne pas près de la surface, de sorte que les températures atmosphériques des satellites ne peuvent pas être directement comparées aux mesures de surface. Les mesures par satellite sont les meilleures pour mesurer les températures de l’air dans la moyenne troposphère et la basse stratosphère.

Le Hadley Center estime l’incertitude de la température moyenne mensuelle mondiale de surface (Sea Surface Temperature) entre 2000 et 2021 à ± 0,033 °C et David Karoly a donné une estimation de ± 0,1 ° C. La précision est inférieure à celle estimée par Roy Spencer et John Christy pour leurs mesures par satellite qui est de ± 0,011 ° C en moyenne mensuelle. [1]

Compte tenu de ces analyses peer-reviewed (révisées par les pairs), nous pouvons raisonnablement supposer que les données satellitaires sont au moins aussi précises que les données de surface, sinon plus précises. En outre, les données satellitaires couvrent un plus grand volume d’atmosphère et mesurent uniformément une plus grande partie du globe que les données de surface.

Tamblyn semble penser que les données utilisées pour créer les mesures par satellite provenant de plusieurs satellites, cela implique nécessairement que les températures issues des mesures satellitaires sont moins précises. Ceci est incorrect car les données issues des divers satellites sont fusionnées selon une procédure précise décrite par John Christy. [2]

Il faut aussi rappeler que les mesures de surface sont sujettes à une plus grande volatilité et à d’importantes variations diurnes, tandis que les mesures des satellites sont faites à une altitude plus élevée dans l’atmosphère, dans un environnement plus stable, et sont mieux adaptées à l’estimation du changement climatique que les relevés météorologiques de surface.

Figure 1. Comparaison des températures HadSST (surface de la mer) en gris, HadCRUT (terre et surface de la mer) en orange et UAH (terre plus océan)

Dans la figure 1 ci-dessus représente l’évolution des températures de la basse troposphère (centrées à une altitude d’environ 10 000 pieds [3 000 mètres] ) issues des mesures satellitaires UAH (courbe bleu clair). Elle est comparée à celle des températures HadSST4 de la surface de la mer du Hadley Center (courbe grise) et aux températures HadCRUT5, ensemble des données de température de surface sur les terres et les océans ( courbe orange).

Will Happer indique de façon claire que les satellites mesurent une température différente avec une couverture constante et quasiment mondiale. Les mesures au sol, en revanche, sont rares, espacées dans le temps et effectuées avec de nombreux appareils différents. 

Sur la figure 1, nous pouvons voir que les tendances au réchauffement de la basse troposphère données par les satellites HadSST et UAH sont identiques (0,14°C par décennie). La principale différence est que les phénomènes El Niño et La Niña sont plus intenses dans la basse troposphère qu’en surface. Les deux El Niño de forte intensité (1998 et 2016) sont visibles, de même que les forts événements La Niña de 2008 et 2011.

Les températures HadCRUT sont bien inférieures aux HadSST et UAH au début de la période et supérieures à la fin. Elles donnent un taux de réchauffement de 0,19°C par décennie, soit de 36% supérieures. Cette différence dans les taux de réchauffement s’explique par l’ajout aux SST (Température de surface de la mer) des températures de surface au-dessus des terres, même si celles-ci ne représentent que moins de 30 % de la surface de la Terre.

La figure 1 nous amène aux trois conclusions importantes suivantes : 

  1. Lors des années El Niño, une température de surface plus chaude conduit à plus d’évaporation, qui transporte la chaleur de la surface de l’océan vers la basse troposphère. Lorsque l’eau évaporée se condense en gouttelettes, généralement dans les nuages, elle libère la chaleur d’évaporation dans l’air ambiant. Les températures UAH de la basse troposphère tracée à la figure 1, sont les plus sensibles aux températures autour de 10 000 pieds [3 000 mètres], bien qu’elles englobent certaines émissions à une altitude inférieure à 6 500 pieds [3 000 mètres], une altitude où se trouvent les nuages ​​​.
  2. Étant donné que le taux global de réchauffement des données HadSST est à peu près le même que le réchauffement de la basse troposphère UAH, cela suggère que le réchauffement supplémentaire enregistré par les données terrestres et océaniques HadCRUT5 est suspect.
  3. Enfin, si les données HadCRUT5 étaient correctes, cela voudrait dire que la surface se réchauffe plus rapidement que la troposphère inférieure et moyenne. Si cela est vrai, les modèles utilisés par le GIEC dans ses rapports suggèrent que ce réchauffement n’est pas dû aux gaz à effet de serre (GES). Il se pourrait que le réchauffement additionnel de la troposphère au-dessus de 6 500 pieds [3 000 mètres], soit dû aux phénomènes El Niño et non aux GES. Il est difficile d’admettre que les courbes de la figure 1 soient à la fois exactes et cohérentes avec l’idée que les GES provoquent le réchauffement de la surface. Pour une discussion plus approfondie de la relation entre les GES et l’écart entre le réchauffement de surface et celui de la troposphère moyenne, on pourra se référer à l’un de mes précédents articles.

En résumé, les deux méthodes courantes utilisées pour la détermination de la température moyenne mondiale (satellite et surface), sont probablement précises au dixième de degré près, comme le suggère Karoly. Ces deux méthodes montrent que le monde se réchauffe, mais l’estimation du réchauffement de surface HadCRUT5 de 0,19°C par décennie est significativement plus élevé que celui de la basse troposphère satellitaire estimé à 0,14°C par décennie. Le réchauffement plus important de la surface est un artefact des mesures des températures de la surface terrestre ou de leurs ajustements. Les ajustements apportés aux mesures de température de la surface terrestre CRUTEM5 et au réseau mondial de climatologie historique (GHCN) ou similaire, sont importants et controversés, comme l’expliquent Peter O’Neill et une liste impressionnante de coauteurs. Pour être clair, O’Neill, et al. ont évalué les données du Global Historical Climatology Networket (GHCN) et non celles du CRUTEM5, mais les ajustements apportés à chacun de ces jeux de données sont similaires et ils ont tous les deux les mêmes faiblesses. L’explication d’un écart de 36% entre le réchauffement de l’océan et celui de la terre plus océan n’est pas claire et suggère un problème avec les données CRUTEM5 de la température terrestre.


Téléchargez la bibliographie ici .

  1. (Spencer & Christy, 1990)
  2. (Christy, Spencer et Braswell, 2000) 
  3. (Kennedy, Rayner, Atkinson et Killick, 2019) et (Karl, Williams, Young et Wendland, 1986) 
  4. (GIEC, 2021, pp. Figure 3-10, page 3-162) et (GIEC, 2013, pp. Figure 10.8, page 892). La dépendance de la tendance au réchauffement de la haute troposphère sur l’effet de serre du CO2 est plus facilement visible dans le rapport AR5 2013 puisqu’ils présentent le réchauffement naturel en bleu et le réchauffement par effet de serre en vert dans leur figure. 
  5. (O’Neill, et al., 2022) 

Partager

9 réflexions au sujet de « Températures satellitaires versus températures de surface »

  1. Article remarquable.

    Quelques remarques :

    1. Il y a polémique sur l’amplitude des ajustements effectués sur les données des stations météos. Ces ajustements sont par exemple très faibles pour BEST. Le problème est en fait méthodologique. BEST comme CRUTem et les autres fournisseurs cherchent à conserver les tendances à courts termes des tronçons homogènes. La seule manière efficace d’évaluer le biais méthodologique induit est de calculer les tendances à longs termes des longues séries brutes. Pour tous les fournisseurs, on obtient un biais méthodologique d’au moins 0.07 °C par décennie sur la seconde moitié du XXème siècle.

    2. Si le réchauffement de la basse troposphère était réelement inférieur à celui de la surface, cela signifierait que l’on ne comprend strictement rien à la physique de l’atmosphère. C’est très improbable.

    3. May ne parle malheureusement pas du phénomène d’amplification troposphérique. Si les données satellitaires sont correctes, et tout porte à le penser, on peut, en tenant compte de l’amplification troposphérique, obtenir une évolution plus fiable des températures de surface (voir ici : https://www.zupimages.net/up/22/16/804k.png).

  2. Juste une remarque ironique:
    Concernant l’évolution des températures globales, le GIEC préfère écarter les données satellitaires UAH et RSS parce que pas assez catastrophiques et difficiles à “ajuster” (disons plutôt “manipuler”).
    C’est bien le contraire avec l’évolution du niveau marin: Le GIEC se fie aveuglément aux données satellitaires nettement plus catastrophiques, outre leur incohérence, que les données de centaines de marégraphes installés pour certains depuis des décennies, voire même près de deux siècles (celui de Brest) un peu partout à travers le monde. L’association de ces derniers avec des balises altimetriques GPS a permis d’améliorer leur precision de façon considérable.

  3. Les appareils embarqués reçoivent un signal provenant de toute la colonne atmosphérique. Il est dit que que l’information est “centrée autour de 3000 m”. Pouvez-vous préciser comment ce “centrage” est effectué ? Je suppose qu’il y a de la modélisation en jeu, car le gradient de température dans la troposphère varie de 9°C/km pour de l’air sec à 6,5°C/km pour de l’air humide.
    “Centré autour de 3000 m” signifie que le signal provient d’altitudes plus basses et plus hautes, avec une distribution ?
    Comment établit-on, dans ces conditions, une correspondance avec des mesures directes au niveau du sol ?? .
    Merci de vos précisions.

    • La sélection des altitudes se fait sur la base de l’opacité aux différentes longueurs d’ondes utilisées. Vous avez là un schéma montrant les poids pour les différents produits :
      https://bobtisdale.files.wordpress.com/2014/04/tlt-tmt-tls-weighting.png

      Il n’y a pas de conversion directe possible entre TLT et mesures de surface. C’est un point qui est très généralement oublié et les deux grandeurs sont trop souvent représentées sur les mêmes graphiques sans précaution.

      Dans mon précédent message ci-dessus, j’ai montré comment on pouvait comparer les TLT aux T2m.

      • Je vois que la fonction de poids (weighting function) pour la basse troposphère tient compte des températures sur environ 10 km de hauteur. C’est sans doute la raison pour laquelle il n’y a pas de conversion directe possible entre TLT et températures de surface (TS), Comment peut-on alors critiquer les TS au nom des TLT ?
        Quelle incertitude existe sur la fonction de poids ?
        Ne faudrait-il pas assortir la valeur trouvée pour la variation de T par décennie d’une incertitude ?

        • “Comment peut-on alors critiquer les TS au nom des TLT ?”

          A moins que les bases de la physique de l’atmosphère soient erronées mais c’est très peu probable, il faut bien constater une grave incohérence entre ces deux variables. L’une ou l’autre est assurément fausse, peut-être les deux.

          Cette seule comparaison ne permet de conclure. On peut raisonnablement supposer que ce sont les Ts qui sont déficientes parce qu’elles sont incohérentes avec à peu près toutes les variables connues dépendants de la température comme le niveau des océans, la fonte des glaciers, l’enneigement et autres proxies de la température. De plus, certaines caractéristiques propres aux mesures de surface et aux méthodes de traitement des données laissent fortement supposer un biais important dans les tendances à long terme. A priori, les TLT ne sont pas concernées par ces faiblesses spécifiques.

          La divergence entre les deux grandeurs est d’environ 0.1 °C par décennie soit à peu près la même valeur qu’entre les Ts et les autres variables climatiques citées plus haut.

  4. Bonjour,

    Je ne vois pas cette “grave incohérence” que vous mentionnez, mais peut-être faites-vous allusion à d’autres données que celles montrées sur la figure de l’article. Les fluctuations se situent aux mêmes endroits, seules leurs amplitudes diffèrent.
    Mais je réitère ma question : quelle incertitude sur la valeur de la pente de chaque série de données ?
    Remarque : il est normal que la pente des données de la seule surface des océans soit inférieure à celle qui tient compte aussi des terres.

  5. Quand les températures augmentent, l’humidité absolue augmente ce qui provoque une diminution du lapse rate. Donc, il y a amplification des variations de température dans la troposphère par rapport à la surface. Cette amplification est parfaitement visible dans les fréquences moyennes sur le graphique de l’article et elle vaut à peu près 1.5. Elle devrait nécessairement se retrouver dans les tendances à longs termes or elle en est absente ici et il y aurait même une atténuation troposphérique sur les continents.

    Il y a donc quelque chose de faux soit dans notre compréhension de la physique de l’atmosphère soit dans l’un ou l’autre de ces jeux de données.

    Pour ce qui est de l’incertitude, il n’y a rien de plus incertain que son évaluation.

    Finalement, je ne crois pas que la divergence de l’évolution des températures sur les continents par rapport aux océans soit normale. Phil Jones pensait qu’elle révélait un problème dans les mesures et je suis du même avis.

  6. Vous allez trop vite pour moi.
    Lapse rate ?
    “Fréquences moyennes” de quoi ? Vous voulez parler de l’amplitude de fluctuations ?
    “Se retrouver dans les tendances à long terme” : c’est-à-dire ?
    Si l’on ne peut caractériser les incertitudes, on ne peut rien dire de la comparaison des valeurs absolues
    T(continent) versus T(océan) : un simple effet de chaleur spécifique ? Le sable peut-être brûlant au bord de la mer, l’eau ne l’est pas souvent…

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

captcha