Climat: Témoignage de John R. Christy devant la Chambre des Représentants des États-Unis.

Ce témoignage date de 2016. Il est, selon la formule consacrée, plus que jamais d’actualité, maintenant que nos amis du FEM – et la majorité des gouvernements – ont décidé de tout miser sur « l’urgence climatique », pour passer à la moulinette élevage, alimentation, industrie, énergie, transports et liberté individuelle. Il complète la série de John Dee sur la mesure des températures au Royaume-Uni, que j’avais commencé à traduire et publier puis interrompue vu le manque d’intérêt des lecteurs – dommage. Je vous invite vivement à lire celui-ci, quitte à survoler les passages plus techniques (qui ne sont pas inabordables), et à en retirer le principe général. On y retrouve les méthodes classiques de modélisation frauduleuse, bidouillage des mesures et censure des scientifiques indépendants, mises en oeuvre pour le Covid et ses produits dérivés.

Comme il est question ici de « consensus scientifique », considérez ceci comme le deuxième volet de la série d’articles que j’ai commencée il y a quelque temps.

Les principales abréviations utilisées ici sont:

  • LT: basse troposphère (low troposphere)
  • MT: troposphère moyenne (mid-troposphere)
  • GIEC: Groupe d’experts Intergouvernemental sur l’Evolution du Climat
  • UAH: Université d’Alabama à Huntsville
  • NMAT: Température nocturne de l’air marin (Night Marine Air Temperature)
  • NOAA: Agence américaine d’observation océanique et atmosphérique (National Oceanic and Atmospheric Administration)
  • NCEI: Centres nationaux d’information sur l’environnement (National Centers for Environmental Information)
  • APE: Agence pour la Protection de l’Environnement américaine (Environment Protection Agency – EPA)
  • UKMet: Service national britannique de météorologie

Source.


Traduction

Commission des sciences, de l’espace et de la technologie de la Chambre des Représentants des États-Unis

2 février 2016

Témoignage de John R. Christy

Université d’Alabama à Huntsville.

Je m’appelle John R. Christy, Professeur émérite en Sciences de l’Atmosphère, Climatologue d’État de l’Alabama et Directeur du Centre des Sciences du Système Terrestre à l’Université d’Alabama à Huntsville. J’ai été auteur principal, auteur collaborateur et réviseur des évaluations du GIEC des Nations Unies, j’ai reçu la médaille de la NASA pour réalisations scientifiques exceptionnelles et, en 2002, j’ai été élu membre de l’American Meteorological Society.

C’est un privilège pour moi d’offrir mon analyse de la situation actuelle concernant (1) les ensembles de données de température utilisés pour étudier le climat, (2) notre compréhension fondamentale du changement climatique et (3) l’effet que des réglementations, telles que l’accord de Paris, pourraient avoir sur le climat. J’ai également joint un extrait de mon témoignage au Sénat en décembre dernier, dans lequel j’aborde (1) la notion populaire selon laquelle les événements climatiques extrêmes augmentent en raison du changement climatique d’origine humaine (ce n’est pas le cas), et (2) la direction malheureuse prise par la recherche dans ce domaine.

La meilleure façon de décrire mon domaine de recherche est de dire qu’il s’agit de construire des ensembles de données à partir de rien pour mieux comprendre ce que fait le climat et pourquoi il le fait – une activité que j’ai commencée adolescent il y a plus de 50 ans. J’ai utilisé des observations de surface traditionnelles ainsi que des mesures effectuées par des ballons et des satellites pour documenter l’histoire du climat. Un grand nombre de nos ensembles de données UAH sont utilisés pour tester des hypothèses sur la variabilité et le changement climatiques.

(1.1) Données de température de la couche supérieure de l’air provenant de satellites et de ballons

Je commencerai par une discussion qui a été suscitée par une campagne de plus en plus active d’affirmations négatives faites à l’encontre des observations, c’est-à-dire des données, des températures de l’air supérieur. La Figure 1, en particulier, a attiré une attention considérable de la part de ceux qui considèrent que le système climatique subit une transformation rapide, causée par l’homme, vers un climat auquel les gens auront beaucoup de mal à s’adapter. Ce simple graphique montre que la projection moyenne du modèle, sur laquelle se fondent leurs craintes (ou leurs espoirs?), est médiocre en ce qui concerne la mesure fondamentale de la température censée être la plus sensible aux gaz à effet de serre supplémentaires – la température atmosphérique globale de la couche située entre la surface et 15 000 mètres. [La couche représentée est connue sous le nom de troposphère moyenne ou MT et est utilisée parce qu’elle chevauche la région de l’atmosphère tropicale qui présente la plus grande signature anticipée de la réponse à l’effet de serre par masse globale – entre 6 000 et 15 000 mètres]. Le graphique indique que la théorie sur la façon dont les changements climatiques se produisent, et l’impact associé des gaz à effet de serre supplémentaires, n’est pas suffisamment bien comprise pour reproduire le climat passé [voir la partie (2)]. En effet, les modèles surchauffent clairement l’atmosphère. Le problème qui se pose pour le Congrès est que des projections de modèles aussi manifestement déficientes sont utilisées pour élaborer des politiques.

Fig. 1: Valeurs moyennes sur cinq ans de la température globale annuelle moyenne (1979-2015) (appelée « troposphérique moyenne » ou « MT ») telle que représentée par la moyenne des 102 modèles climatiques CMIP5 du GIEC (rouge), la moyenne de 3 ensembles de données satellitaires (vert – UAH, RSS, NOAA) et 4 ensembles de données par ballon (bleu, NOAA, UKMet, RICH, RAOBCORE).

Ce résultat remettant en cause la théorie actuelle du réchauffement par effet de serre de manière relativement directe, plusieurs attaques bien financées ont été lancées contre ceux d’entre nous qui éloaborent et utilisent ces ensembles de données et contre les ensembles de données eux-mêmes. En tant que climatologue, je me suis retrouvé, avec des collègues partageant les mêmes idées, projeté dans un monde plus étroitement associé à la diffamation et à la diversion, que l’on trouve par exemple dans la politique de Washington, plutôt qu’à un discours objectif et dépassionné communément admis dans le domaine scientifique. Les enquêtes menées sur nous par le Congrès et les médias sont motivées par l’idée que quiconque n’est pas d’accord avec le point de vue de l’establishment climatique sur le dangereux changement climatique doit être à la solde d’organisations calomnieuses ou être mentalement déficient.

C’est également dans ce milieu qu’est propagé le matériel promotionnel, c’est-à-dire la propagande, qui tente de discréditer ces données (et les chercheurs) par des allégations qui ne mènent à rien.

Plusieurs de ces allégations contre les données sont apparues il y a quelques semaines sous la forme d’une vidéo bien ficelée. J’aborderai ses principales affirmations avec le matériel suivant, qui, sous une forme similaire, est apparu dans la littérature évaluée par les pairs au fil des ans.

La vidéo en question a été promue par un groupe de pression sur le changement climatique (Yale Climate Connections, http://www.yaleclimateconnections.org/2016/01/over-reliance-on-satellite-data-alone-criticized/) dans laquelle des scientifiques renommés font des affirmations pour la plupart dénuées de sens ou complètement fausses par rapport aux preuves de la Fig. 1. Je souhaite faire quatre remarques concernant cette vidéo et démontrer la tactique de diversion pour laquelle ce genre de vidéos orientées, ainsi que les médias qui les imitent joyeusement, se sont rendus célèbres.

Premièrement, il est affirmé que les satellites ne mesurent pas la température. En réalité, les capteurs des satellites mesurent la température par les radiations émises – la même méthode qu’un médecin utilise pour mesurer la température corporelle avec une grande précision à l’aide d’une sonde auriculaire. L’oxygène atmosphérique émet des micro-ondes, dont l’intensité est directement proportionnelle à la température de l’oxygène, et donc de l’atmosphère. Le fait que les satellites mesurent la température est évident dans le graphique suivant, qui compare les données satellitaires de l’UAH aux températures calculées à partir des thermistances des ballons. Soit dit en passant, la plupart des mesures de la température de surface sont indirectes et utilisent une résistance électronique.

Fig. 2: Variations moyennes de température mesurées dans 59 stations de radiosondage aux États-Unis (fabricant VIZ) et en Australie.

Deuxièmement, les scientifiques affirment que la chute verticale (décroissance orbitale) des satellites due à la friction atmosphérique provoque un refroidissement parasite dans le temps. Cette chute verticale a un impact non mesurable sur la couche (MT) utilisée ici et constitue donc une affirmation dénuée de sens. Dans des versions beaucoup plus anciennes d’un autre produit de couche (LT ou Basse Troposphère), ce problème existait, mais il a été facilement corrigé il y a près de 20 ans. Ainsi, le fait de soulever des problèmes qui affectaient une variable différente qui, de toute façon, a été corrigée il y a de nombreuses années est une manœuvre de diversion évidente qui, à mon avis, démontre la faiblesse de leur position.

Troisièmement, les scientifiques parlent des faux changements de température qui se produisent lorsque les satellites dérivent dans la direction est-ouest, le problème dit de la dérive diurne (que nous avons été les premiers à détecter et à prendre en compte). Ils parlent d’une erreur de signe dans la procédure de correction qui a modifié la tendance. Encore une fois, cette erreur n’était pas un facteur dans la couche MT de la Fig. 1, mais pour la couche LT, qui est différente. Et, encore une fois, cette question a été traitée pour la LT il y a 10 ans.

Enfin, bien que cela ne soit pas spécifiquement mentionné dans cette vidéo, certains de ces scientifiques prétendent que la Fig. 1 ci-dessus est en quelque sorte manipulée, dans le but de cacher leur croyance dans les prouesses et la validité des modèles climatiques. À cela, au contraire, je réponds que nous avons présenté les données de la manière la plus significative possible. Il s’agit ici du taux de réchauffement de l’atmosphère globale, c’est-à-dire de la tendance. Cette mesure nous indique à quelle vitesse la chaleur s’accumule dans l’atmosphère – la mesure fondamentale du réchauffement climatique. Pour représenter visuellement ce phénomène, j’ai ajusté tous les ensembles de données afin qu’ils aient une origine commune. Pensez à cette analogie: j’ai participé à plus de 500 courses au cours des 25 dernières années et, à chaque fois, tous les coureurs partent du même endroit au même moment dans le simple but de déterminer qui est le plus rapide, et de combien, à l’arrivée. Il est évident que la vitesse globale relative des coureurs est déterminée par leur position au moment où ils franchissent la ligne d’arrivée, mais ils doivent tous partir ensemble.

De la même manière, j’ai construit le graphique de façon à ce que la ligne de tendance de toutes les séries chronologiques de température commence au même point en termes d’amplitude et de temps (valeur zéro en 1979) afin que le lecteur puisse voir l’ampleur de l’écart à la ligne d’arrivée (2015). Un aperçu de cette méthode est illustré à la Fig. 3 où je présente ce qui est vu à la Fig. 1, sauf qu’il s’agit uniquement de la ligne de tendance sans les variations qui se produisent chaque année en raison des volcans et autres facteurs. Cela revient à tracer la vitesse moyenne globale d’un coureur le long du parcours, même s’il a probablement couru plus lentement dans les montées et plus vite dans les descentes.

Cette image indique que les modèles, en moyenne, réchauffent cette couche globale environ 2,5 fois plus vite que ce que les observations indiquent. Il s’agit d’une différence significative non expliquée, qui indique que la théorie de l’impact de l’effet de serre sur la température atmosphérique n’est pas suffisamment connue pour même reproduire ce qui s’est déjà produit. Nous ne parlons pas ici de 10 ou 15 ans, mais de 37 ans – bien plus d’un tiers de siècle. Le fait que deux types de systèmes de mesure très indépendants (ballons et satellites) construits par une variété d’institutions (gouvernement, université, privé) montrent tous un taux de réchauffement beaucoup plus lent donne une grande confiance dans leur résultat. Ainsi, les preuves suggèrent fortement que la théorie, telle qu’elle est incarnée dans les modèles, va beaucoup trop loin en forçant l’atmosphère à retenir la chaleur alors qu’en réalité, l’atmosphère a les moyens d’évacuer cette chaleur et se réchauffe donc à un rythme beaucoup plus lent.

Fig. 3: La ligne de tendance linéaire sur la période 1979-2015. Les couleurs représentent les mêmes données sources que dans la Fig. 1.

J’ai montré ici que pour l’atmosphère globale, les modèles surchauffent l’atmosphère d’un facteur d’environ 2,5. Par ailleurs, si on se concentre sur les tropiques, les modèles montrent un réchauffement par effet de serre encore plus important dans cette couche. Cependant, un calcul similaire avec les observations présentées à la Fig. 3 indique que les modèles surchauffent l’atmosphère tropicale d’un facteur d’environ 3, (modèles +0,265, satellites +0,095, ballons +0,073 °C/décennie), ce qui indique à nouveau que la théorie actuelle est en contradiction avec les faits. (voir à nouveau la section 2).

C’est une stratégie téméraire, à mon avis, que de promouvoir activement les résultats des modèles climatiques théoriques tout en attaquant les multiples lignes de preuves issues d’observations. Il convient de noter qu’aucun des ensembles de données d’observation n’est parfait et qu’il est sain de continuer à les examiner, mais lorsque de multiples groupes indépendants génèrent les ensembles de données et que les résultats de deux systèmes totalement indépendants (ballons et satellites) concordent étroitement et sont en désaccord avec les résultats du modèle, on ne peut que se poser des questions sur la décision de lancer une offensive contre les données. Cela n’a d’après moi aucun sens scientifique.

(1.2) Questions relatives à la température de surface

Il existe plusieurs problèmes concernant les ensembles de données sur la température de surface qui sont trop complexes pour être abordés dans ce document. Je me concentrerai sur quelques points qui me sont familiers et sur lesquels j’ai publié.

(1.2.a) La température de surface comme mesure pour détecter l’influence de l’augmentation des concentrations de gaz à effet de serre

L’un de mes nombreux centres d’intérêt en matière de climat est la manière dont les températures de surface sont mesurées et dont elles sont affectées par leur environnement, en particulier au-dessus des terres. Dans plusieurs articles (Christy et al. 2006 J. Climate, Christy et al. 2009 J. Climate, Christy 2013 J. Appl. Meteor. Clim. et Christy et al. 2016 J. Appl. Meteor. Clim.) j’ai examiné de près les stations individuelles dans différentes régions et je suis arrivé à la conclusion que l’ampleur du signal relativement faible que nous recherchons dans le changement climatique d’origine humaine est susceptible d’être faussé par la croissance de l’infrastructure autour des stations thermométriques et la variété des changements que ces stations subissent au fil du temps, ainsi que la variabilité des hauts et des bas naturels du climat. Il est difficile d’ajuster ces facteurs de contamination afin d’extraire un ensemble de données pures pour la détection de l’effet de serre, car souvent, l’influence non climatique se manifeste très progressivement, exactement comme on l’attendrait des réactions à une intensification de l’effet de serre.

En examinant les températures de l’océan (Christy et al. 2001, Geophys. Res. Lett.), j’ai découvert que les tendances de la température de l’eau (1m de profondeur) ne suivent pas bien celles de la température de l’air juste au-dessus de l’eau (3m), même si les deux sont mesurées sur la même bouée pendant 20 ans. Ceci est important pour la discussion ci-dessous où la NOAA a utilisé les températures de l’air marin pour ajuster les mesures de la température de l’eau à partir de navires.

Il existe de nombreux autres facteurs qui rendent les ensembles de données sur la température de surface peu efficaces pour la détection d’un réchauffement accru dû à l’effet de serre, (a) le manque de couverture géographique systématique dans le temps, (b) les méthodes et instruments de mesure non systématiques dans le temps et l’espace, (c) la mesure ponctuelle représente au mieux une zone locale minuscule et (d) est facilement affectée par de légers changements dans l’environnement, qui peuvent se produire par exemple lorsqu’une station se déplace. Des efforts considérables ont été déployés pour essayer d’ajuster les données brutes de surface afin d’obtenir une série chronologique qui représenterait celle d’un environnement vierge, et j’ai dirigé ou participé à certains de ces efforts (par exemple pour la Californie centrale dans Christy et al. 2006 et pour l’Afrique de l’Est dans Christy et al. 2009 et Christy 2013).

Ainsi, fort d’une expérience dans la construction d’ensembles de données de température de surface, par satellite et par ballon, et en tenant compte du signal que nous recherchons pour détecter une intensification de l’effet de serre, il me semble que l’utilisation des mesures atmosphériques globales offre la meilleure opportunité de répondre aux questions sur la réaction du climat à ce changement de composition atmosphérique induit par l’homme. L’atmosphère profonde est beaucoup plus cohérente dans l’espace et dans le temps en termes de variations. Elle n’est pas affectée par le développement humain à la surface. Elle est mesurée systématiquement. Certes, les températures mesurées par satellite et par ballon nécessitent leurs propres ajustements et ne peuvent être considérées comme « parfaites », mais elles offrent une indépendance l’une par rapport à l’autre qui permet des études de comparaison directe. En ce qui concerne la détection de l’intensification de l’effet de serre, il se trouve que la troposphère, comme l’indiquent les modèles, est la région atmosphérique qui réagit le plus, c’est-à-dire qui se réchauffe le plus rapidement, et constitue donc, à mon avis, une mesure qui offre un meilleur moyen de détecter l’influence humaine sur le climat.

(1.2.b) Le nouveau jeu de données sur les températures de surface de la NOAA

Une série d’articles a été publiée l’année dernière (notamment Huang et al. 2015 J. Climate, Karl et al. 2015 Science) décrivant un nouvel ensemble de données sur la température de surface élaboré par la NOAA qui indique un réchauffement un peu plus important au cours des 10 à 25 dernières années que les versions précédentes. Le principal changement concernait les températures de l’eau de mer dans l’ensemble de données désormais connu sous le nom de ERSSTv4. Ce changement a introduit un réchauffement supplémentaire dans les données à partir de 1990 environ. La principale raison de ce nouveau réchauffement, comme le notent les auteurs, est l’ajustement appliqué aux données des bouées, ajoutant environ +0,12 °C aux relevés des bouées. En 1980, seuls 10% environ des rapports de données provenaient de bouées, mais en 2000, 90% environ étaient des données de bouées. Ainsi, étant donné que l’influence des données des bouées a augmenté de manière significative au fil du temps, le simple ajout d’un biais à toutes les bouées dès le début a créé une tendance plus chaude à mesure qu’elles devenaient la principale source d’information.

Un certain contexte est nécessaire. Contrairement aux ensembles de données des satellites et des ballons qui mesurent une quantité systématique (essentiellement la température de l’air atmosphérique), les ensembles de données sur la température de surface sont un mélange de températures de l’air (sur terre) et de l’eau (sur l’océan) mesurées à l’aide d’une gamme considérable d’instruments, d’expositions et de méthodes. Sur terre, les stations météorologiques mesurent la température de l’air dans différents types d’abris pour instruments et par différentes techniques à un niveau d’environ 1,5m au-dessus du sol. Au-dessus de l’océan, cependant, la température utilisée est celle de l’eau elle-même, et non celle de l’air au-dessus, de sorte que les ensembles traditionnels de données sur la surface du globe ne mesurent pas un paramètre physique homogène sur terre et dans l’océan. En outre, la profondeur à laquelle est mesurée la température de l’eau est très variable, de 0,6 à 15 mètres environ, et les méthodes utilisées vont des seaux remontés sur le pont dans lesquels on insère un thermomètre aux températures de l’admission du moteur, beaucoup plus profondes dans l’eau, en passant par les bouées, dérivantes ou amarrées au fond. Le fait que la température varie en fonction de la profondeur est donc un problème à résoudre avant de pouvoir tenter de construire un ensemble de données systématique. De plus, les mesures ne sont pas cohérentes dans l’espace et dans le temps, et de grandes régions, comme l’Afrique et les océans du Sud, ne sont pas mesurées.

N’oubliez pas que même si la tendance de cet ensemble de données de la NOAA est devenue plus positive au cours des 10 à 20 dernières années, elle reste inférieure aux projections des modèles climatiques à long terme. Pour les périodes plus longues, comme la période depuis 1979, date à laquelle les satellites ont commencé à mesurer les températures atmosphériques globales, le nouvel ensemble de données mondiales est similaire à celui du Centre Hadley (1979-2015: NOAA +0,155 °C/décennie, Centre Hadley UKMet, +0,165 °C/décennie). Cependant, des questions subsistent concernant le nouvel ensemble de données sur l’eau de mer de la NOAA, notamment sur la manière dont il indique un réchauffement plus important que les autres au cours des 20 dernières années. La Figure 4 présente les tendances océaniques pour la région 20S à 60N (c’est-à-dire les océans tropicaux et de l’hémisphère nord – il y avait trop peu de données au sud du 20S pour y générer des températures de l’air proche de la surface). Quatre ensembles de données sont représentés: NOAA (NOAA, rouge), Centre Hadley (HadCRUT4, orange), une température préliminaire de l’air proche de la surface sur les océans par mon étudiant diplômé Rob Junod (jaune) et la température de l’air de la couche profonde de l’UAH provenant des satellites (bleu). Les données NOAA et HadCRUT4 sont des températures de l’eau de mer près de la surface, elles devraient donc être identiques.

La NOAA a utilisé une curieuse variable de référence pour calibrer les températures de l’eau mesurées à partir des prises d’eau des navires – la température de l’air marin nocturne (NMAT). C’est curieux car les NMAT elles-mêmes nécessitent des ajustements considérables, c’est-à-dire des corrections pour la hauteur du pont du navire, etc. Quoi qu’il en soit, à partir de là, les données des bouées ont ensuite été ajustées pour correspondre aux données des navires. Il semble donc que le processus d’ajustement fondamental dépende des NMAT pour ajuster les données des navires et ensuite ajuster les données des bouées. Le produit final de la NOAA mélange toutes ces données, et comme la représentation géographique des différents systèmes a changé de façon spectaculaire (comme on l’a noté, d’environ 10% de bouées et 90% de navires en 1980 à 90% de bouées et 10% de navires aujourd’hui – Huang et al. 2015), un ajustement appliqué aux bouées influencera automatiquement la tendance.

Je suis conscient que le Comité a cherché à obtenir des informations sur ce curieux processus et a demandé à la NOAA de générer des ensembles de données basés uniquement sur des systèmes de mesure cohérents, c’est-à-dire des navires seuls, des bouées seules et des NMATs seuls, afin de voir si l’un des systèmes aurait pu influencer les tendances de manière inappropriée en raison des changements de distribution. La NOAA n’a pas été en mesure de répondre à cette demande. En même temps, j’ai demandé à mon étudiant diplômé, Rob Junod, de faire le travail pour le NMAT. Ce qui est présenté ici est préliminaire, mais suit une grande partie des travaux précédents sur les NMAT (développés au National Oceanographic Centre et au Centre Hadley au Royaume-Uni) avec l’avantage supplémentaire d’être mis à jour en 2014. La meilleure couverture géographique des données a été trouvée entre 20°S et 60°N. Cette zone a donc également été appliquée aux autres ensembles de données pour une comparaison entre éléments identiques. Les résultats sont présentés à la Figure 4, dans laquelle toutes les tendances se terminent en 2014 mais couvrent des périodes par tranches de deux ans, de 20 ans à 10 ans.

Figure 4. Tendances décennales (°C/décennie) de quatre ensembles de données de température sur les océans de 20°S à 60°N pour des périodes variables se terminant en 2014. Le rouge et l’orange sont des ensembles de données sur la température de l’eau de mer en surface provenant de la NOAA et du Centre Hadley (HadCRUT4). Le jaune est un ensemble de données de température de l’air proche de la surface (Night Marine Air Temperature) construit par l’UAH (préliminaire). Le bleu est la tendance de la température de l’atmosphère profonde (de la surface à 10 000 mètres ou basse troposphère) à partir des émissions de micro-ondes captées par les satellites (également UAHv6.0b5).

Un certain nombre d’observations sautent aux yeux dans la Fig. 4. (1) En termes de tendance de température, les températures de l’air sont inférieures à celles de l’eau (comme indiqué dans mon étude de 2001 mentionnée ci-dessus.) (2) NOAA réchauffe le plus rapidement dans toutes les périodes. (3) Au cours des 10 à 14 dernières années, les tendances de l’HadCRUT4 concordent mieux avec la série de données sur la température de l’air proche de la surface (étant proche de zéro et soutenant la notion de hiatus) qu’avec les tendances de sa quantité physiquement identique de la NOAA. (4) L’ampleur des tendances des NMAT se situe entre les tendances de l’atmosphère profonde et de l’eau de mer.

Cette figure génère également un certain nombre de questions sur la qualité des données. (1) Si les NMAT ont été utilisées pour calibrer les températures des navires, puis les navires pour calibrer les températures des bouées, pourquoi la série de données de la NOAA diffère-t-elle autant de son point de référence de base – les NMAT? (2) A quoi ressemblent les séries temporelles et quelles sont les tendances de la sous-période pour l’eau de mer lorsque seuls les navires et/ou les bouées sont utilisés pour construire l’ensemble de données pour les 20-25 dernières années? (3) Que montre la série chronologique de la série de données NMAT de la NOAA (c’est-à-dire leur référence)?

Les véritables questions scientifiques ici sont celles qui ont une importance significative pour la compréhension de la façon dont les gaz à effet de serre supplémentaires pourraient affecter le climat, comme le montre la section suivante.

(2) Dans quelle mesure comprenons-nous le changement climatique?

L’un des objectifs scientifiques essentiels de notre époque est de déterminer si les émissions dues aux activités humaines ont un impact sur le climat et, si oui, dans quelle mesure. Cette tâche est d’autant plus difficile que nous savons que le système climatique est déjà soumis à des changements importants sans l’influence de l’homme. Étant donné qu’il n’existe pas de dispositif de mesure qui détermine explicitement la cause des changements climatiques que nous pouvons mesurer, comme la température, notre science doit adopter une approche différente pour chercher à comprendre ce qui cause les changements, c’est-à-dire quelle part est naturelle et quelle part est induite par l’homme. L’approche de base aujourd’hui utilise des modèles climatiques. (Les projections de ces modèles sont également utilisées pour les politiques en matière de carbone).

Il est important de comprendre que les résultats de ces modèles (c’est-à-dire les projections du climat futur et le lien spécifique que l’augmentation du CO2 pourrait avoir sur le climat) sont définis comme des hypothèses ou des affirmations scientifiques – les résultats des modèles ne peuvent être considérés comme une preuve des liens entre les variations climatiques et les gaz à effet de serre. Ces modèles sont des programmes informatiques complexes qui tentent de décrire, à l’aide d’équations mathématiques, le plus grand nombre possible de facteurs affectant le climat et d’estimer ainsi comment le climat pourrait évoluer à l’avenir. On espère que le modèle fournira des réponses précises aux variables climatiques, comme la température, lorsque des gaz à effet de serre supplémentaires sont inclus dans le modèle. Cependant, les équations de presque tous les processus climatiques importants ne sont pas exactes et représentent les meilleures approximations que les modélisateurs peuvent concevoir et que les ordinateurs peuvent gérer à ce stade.

Un aspect fondamental de la méthode scientifique est que si nous affirmons comprendre un système (tel que le système climatique), nous devons être en mesure de prédire son comportement. Si nous sommes incapables de faire des prédictions précises, c’est qu’au moins certains des facteurs du système ne sont pas bien définis ou peut-être même manquants. [Notez toutefois que le fait de reproduire le comportement du système (c’est-à-dire de reproduire « ce » que fait le climat) ne garantit pas que la physique fondamentale est bien connue. En d’autres termes, il est possible d’obtenir la bonne réponse pour les mauvaises raisons, c’est-à-dire obtenir le « quoi » du climat mais manquer le « pourquoi »].

Comprenons-nous comment les gaz à effet de serre affectent le climat, c’est-à-dire le lien entre les émissions et les effets climatiques? Comme indiqué plus haut, une mesure très élémentaire pour les études climatiques est la température de la couche atmosphérique principale appelée troposphère, qui s’étend en gros de la surface à une altitude de 15 000 mètres. Il s’agit de la couche qui, selon les modèles, devrait se réchauffer de manière significative avec l’augmentation du CO2, et même plus rapidement que la surface. Contrairement à la température de surface, cette température globale nous renseigne sur le nœud de la question du réchauffement climatique: quelle quantité de chaleur s’accumule dans l’atmosphère mondiale? Et, selon les modèles, ce réchauffement causé par le CO2 devrait être facilement détectable à l’heure actuelle. Il s’agit d’un bon test de notre compréhension du système climatique, car depuis 1979, nous disposons de deux moyens indépendants pour surveiller cette couche: les satellites depuis le ciel et les ballons équipés de thermomètres lâchés depuis la surface.

J’ai pu accéder à 102 simulations de modèles climatiques CMIP-5 rcp4.5 (representative concentration pathways) des températures atmosphériques pour la couche troposphérique et générer des températures globales à partir des modèles pour une comparaison entre éléments identiques avec les observations des satellites et des ballons. Ces modèles ont été développés dans des institutions du monde entier et utilisés dans l’évaluation scientifique du GIEC AR5 (2013).

Ci-dessus: Variations de la température moyenne mondiale de la troposphère moyenne (moyennes sur 5 ans) pour 32 modèles (lignes) représentant 102 simulations individuelles. Les cercles (ballons) et les carrés (satellites) représentent les observations. Le modèle russe (INM-CM4) était le seul modèle proche des observations.

Les informations contenues dans cette figure montrent clairement que les modèles ont une forte tendance à surchauffer l’atmosphère par rapport aux observations réelles. En moyenne, les modèles réchauffent l’atmosphère mondiale à un rythme 2,5 fois supérieur à celui du monde réel. Il ne s’agit pas d’un épisode à court terme, spécialement sélectionné, mais d’une période de 37 ans, soit plus d’un tiers de siècle. C’est également la période où la concentration de gaz à effet de serre est la plus élevée, et donc celle où la réaction devrait être la plus importante.

Si l’on suit la méthode scientifique consistant à confronter les affirmations aux données, on peut conclure que les modèles ne représentent pas fidèlement au moins certains des processus importants qui influent sur le climat, car ils n’ont pas été en mesure de « prévoir » ce qui s’est déjà produit. En d’autres termes, ces modèles ont échoué au simple test consistant à nous dire « ce qui » s’est déjà produit, et ne seraient donc pas en mesure de nous donner une réponse fiable à la question de savoir « ce qui » pourrait se produire à l’avenir et « pourquoi ». En tant que tels, ils seraient d’une valeur très discutable pour déterminer une politique qui devrait dépendre d’une compréhension très sûre du fonctionnement du système climatique.

Il existe une mesure climatique connexe qui utilise également la température atmosphérique qui, dans les modèles, a une réaction encore plus importante que celle de la moyenne mondiale présentée ci-dessus. Cette mesure constitue donc un test plus solide pour comprendre la performance des modèles en ce qui concerne spécifiquement les gaz à effet de serre. Dans les modèles, l’atmosphère tropicale se réchauffe de manière significative en réponse à l’ajout de gaz à effet de serre – plus que la température atmosphérique moyenne mondiale.

Ci-dessus: Variations de la température moyenne de la troposphère moyenne tropicale (moyennes sur 5 ans) pour 32 modèles (lignes) représentant 102 simulations individuelles. Les cercles (ballons) et les carrés (satellites) représentent les observations.

Dans la comparaison tropicale présentée ici, la disparité entre les modèles et les observations est encore plus grande, les modèles réchauffant en moyenne cette région atmosphérique d’un facteur trois plus important que dans la réalité. Un tel résultat renforce l’implication ci-dessus que les modèles ont encore beaucoup d’améliorations à faire avant que nous puissions avoir confiance qu’ils fourniront des informations sur ce que le climat peut faire dans le futur ou même pourquoi le climat varie comme il le fait. Pour la question qui nous occupe, les estimations de la manière dont la température mondiale pourrait être affectée par les réductions d’émissions prévues par les réglementations seraient exagérées et non fiables.

(3) L’impact climatique des réglementations (c.-à-d. Paris) ne sera pas attribuable ou détectable

Personne ne connaît l’impact climatique des réductions d’émissions de carbone proposées et convenues à Paris. La principale raison en est que les pays disposent d’une grande latitude pour en faire autant ou aussi peu qu’ils le souhaitent. Si l’on examine l’histoire des émissions mondiales de carbone, il est clair que les pays, en particulier les pays en développement, continueront à chercher à développer l’utilisation de l’énergie par la combustion du carbone en raison de son caractère abordable et des avantages considérables qu’il procure à leurs citoyens.

Dans tous les cas, l’impact sur la température mondiale des réductions actuelles et proposées des gaz à effet de serre sera, au mieux, minuscule. Pour le démontrer, supposons, par exemple, que les émissions totales des États-Unis soient réduites à zéro, à partir du 13 mai 2015 dernier (date d’une audience à laquelle j’ai témoigné). En d’autres termes, à partir de ce jour et à l’avenir, il n’y aurait plus d’industrie, plus de voitures, plus de services publics, plus de personnes – c’est-à-dire que les États-Unis cesseraient d’exister à partir de ce jour. Les réglementations, bien sûr, ne réduiront les émissions que dans une faible mesure, mais pour montrer à quel point l’impact de la réglementation sera minuscule, nous allons tout simplement aller au-delà de la réalité et faire disparaître les États-Unis. Nous tenterons ainsi de répondre à la question de l’impact du changement climatique dû à la réduction des émissions.

À l’aide de l’outil d’impact du GIEC de l’ONU connu sous le nom de Modèle d’évaluation des changements climatiques induits par les gaz à effet de serre ou MAGICC [Model for the Assessment of Greenhouse-gas Induced Climate Change], Rob Junod, étudiant diplômé, et moi-même avons réduit la croissance prévue des émissions mondiales totales en fonction de la contribution des émissions américaines à partir de cette date. Nous avons également utilisé la valeur de la sensibilité du climat d’équilibre déterminée par des techniques empiriques, soit 1,8°C. Après 50 ans, l’impact tel que déterminé par ces calculs de modèle ne serait que de 0,05 à 0,08°C – une quantité inférieure à celle de la fluctuation de la température mondiale d’un mois à l’autre. [Ces calculs ont utilisé les scénarios d’émissions A1B-AIM et AIF-MI, les émissions américaines représentant 14% à 17% des émissions mondiales de 2015. Il existe des preuves que la sensibilité du climat est inférieure à 1,8°C, ce qui diminuerait encore ces projections].

Comme indiqué, l’impact sur les émissions mondiales et le climat mondial des récents accords de Paris concernant les émissions mondiales n’est pas exactement quantifiable. Il est pratiquement impossible de prévoir le comportement de chaque pays en matière d’émissions, sans compter qu’il est impossible de savoir comment les systèmes énergétiques eux-mêmes évolueront dans le temps.

Étant donné que l’arrêt des émissions de l’ensemble de notre pays aurait un impact calculé si minime sur le climat mondial, il est évident que des réductions fractionnées des émissions par le biais de la réglementation produiraient des résultats imperceptibles. En d’autres termes, il n’y aurait aucune preuve à l’avenir pour démontrer qu’un impact climatique particulier a été induit par les réglementations proposées et promulguées. Ainsi, les réglementations n’auront aucune conséquence significative ou utile sur le système climatique physique – même si l’on croit que les modèles climatiques sont des outils de prédiction utiles.

Résumé

Le changement climatique est un sujet très vaste qui présente de nombreuses difficultés. Nos connaissances de base sur l’évolution du climat (c’est-à-dire les mesures) sont entachées d’incertitudes. Dans mon témoignage d’aujourd’hui, j’ai montré que la température atmosphérique globale est suffisamment bien mesurée pour démontrer que notre compréhension de la façon dont les gaz à effet de serre affectent le climat est nettement insuffisante pour expliquer le climat depuis 1979. En particulier, le changement réel de la mesure fondamentale de la signature du réchauffement par effet de serre – la température atmosphérique globale où les modèles indiquent que la preuve la plus directe du réchauffement par effet de serre devrait se trouver – est considérablement déformé par les modèles. Bien qu’aucun ensemble de données ne soit parfait, la manière dont les ensembles de données de surface ont été élaborés laisse de nombreuses questions sans réponse, en particulier pour la récente mise à jour de la NOAA qui montre un réchauffement plus important que les autres. Enfin, les réglementations déjà appliquées ou en cours de proposition, telles que celles de l’Accord de Paris, n’auront pratiquement aucun impact sur l’évolution du climat.

Annexe A

Cette annexe est un extrait de mon témoignage écrit présenté lors de l’audience suivante:

Comité du Sénat américain sur le commerce, les sciences et les transports

Sous-comité sur l’espace, la science et la compétitivité

8 déc. 2015

Témoignage de John R. Christy

Université d’Alabama à Huntsville.

Impacts présumés des changements climatiques d’origine humaine concernant les événements extrêmes.

Une grande partie de la préoccupation liée à l’augmentation des concentrations de gaz à effet de serre s’est reportée, au cours de la dernière décennie, des changements de température globale aux changements dans les événements extrêmes, c’est-à-dire les événements qui ont généralement un impact négatif sur l’économie. Ces événements peuvent être des vagues de chaleur, des inondations, des ouragans, etc.

En ce qui concerne les vagues de chaleur, voici le nombre de jours de 100°F observés aux États-Unis à partir d’un ensemble contrôlé de stations météorologiques. Non seulement il est clair que le nombre de jours de chaleur n’a pas augmenté, mais il est intéressant de constater qu’au cours des dernières années, on en a observé une relative rareté.

Ci-dessus: Nombre moyen de jours par station dans chaque année atteignant ou dépassant 100°F dans 982 stations de la base de données USHCN (NOAA/NCEI, préparé par JRChristy).

Les incendies de forêt et les feux de friches sont documentés pour les États-Unis. Les données ci-dessous indiquent qu’il n’y a pas eu de changement dans la fréquence des incendies de forêt. La superficie (non représentée) montre également peu de changement.

Ci-dessus: Nombre d’incendies de forêt aux États-Unis. La gestion de ces événements change, et donc leur nombre également, mais le nombre d’événements depuis 1985 est resté constant. (National Interagency Fire Center https://www.nifc.gov/fireInfo/nfn.htm)

Ci-dessus: Nombre d’incendies de forêt aux États-Unis par an depuis 1965.

Les deux chiffres ci-dessus montrent que la fréquence des incendies n’a pas augmenté aux États-Unis au cours des dernières décennies.

Les affirmations selon lesquelles les sécheresses et les inondations sont en augmentation peuvent également être examinées à la lumière des données d’observation.

Ci-dessus: Étendue surfacique mondiale de cinq niveaux de sécheresse pour 1982-2012 où la sécheresse est indiquée en rangs percentiles avec D0 < 30, D1 < 20, D2 < 10, D3 < 5 et D4 < 2 percentiles de la disponibilité moyenne de l’humidité. (Hao et al. 2014)

Ci-dessus: Fraction surfacique de la zone contiguë des États-Unis dans des conditions très humides (bleu) ou très sèches (rouge). NOAA/NCEI.

Les deux figures ci-dessus montrent que les conditions d’humidité n’ont pas montré de tendance à la baisse (plus de sécheresse) ou à la hausse (plus d’humidité à grande échelle). Ces informations sont rarement consultées lorsqu’il est plus commode de faire des affirmations non fondées selon lesquelles les extrêmes d’humidité, c’est-à-dire les sécheresses et les inondations (qui ont toujours existé), deviennent en quelque sorte encore plus extrêmes. Sur des périodes plus courtes et dans certains endroits, il est prouvé que les précipitations les plus fortes ont tendance à être plus importantes. Il ne s’agit pas d’un phénomène universel et il n’a pas été établi que ces changements puissent être dus à des modifications des concentrations de gaz à effet de serre, comme cela a été démontré précédemment, car les projections des modèles sont incapables de reproduire les mesures les plus simples.

Ci-dessus: Production mondiale de céréales 1961-2012. Organisation des Nations Unies pour l’alimentation et l’agriculture [FAO – Food and Agriculture Organization].

Il est facile de trouver des documents attestant de l’augmentation constante de la production de céréales. On peut s’interroger sur l’allégation du Conseil Fédéral de la Qualité de l’Environnement selon laquelle le changement climatique induit par l’homme a causé un « préjudice à l’agriculture », car si l’on considère la croissance totale de la production, qui semble s’accélérer, on pourrait supposer qu’aucun « préjudice » n’a été causé pendant une période d’augmentation des gaz à effet de serre.

Au vu des preuves fournies dans les exemples ci-dessus, il est évidemment difficile d’établir les affirmations concernant la détérioration des conditions dues au changement climatique d’origine humaine, ou plus généralement que tout changement pourrait être directement lié à l’augmentation du CO2. Ce point est également lié à la question de la capacité des modèles climatiques mentionnée précédemment. Il est clair que les modèles climatiques ne sont pas à la hauteur sur certaines questions très fondamentales de la variabilité climatique, étant incapables de reproduire « ce qui » s’est passé en matière de température globale, et donc de savoir « pourquoi » cela s’est produit. Il est donc prématuré d’affirmer que l’on connaît les causes des changements de diverses mesures exotiques du temps, telles que l’intensité des précipitations sur de courtes périodes, qui ne sont même pas explicitement générées dans les résultats des modèles climatiques.

Le décevant processus scientifique

J’ai beaucoup écrit, lors de précédentes audiences du Congrès et à d’autres occasions, sur l’incapacité de la communauté scientifique à aborder objectivement l’étude du climat et du changement climatique. (Voir l’annexe) La science du climat est une science obscure comportant de grandes incertitudes sur de nombreux éléments critiques tels que la répartition des nuages et les échanges thermiques de surface. Comme nous l’avons mentionné plus haut, il n’existe pas d’instrumentation objective qui puisse nous dire « pourquoi » les changements se produisent. Cela étant, il ne nous reste que des hypothèses (affirmations) à avancer, puis à tester. Les informations fournies ci-dessus montrent clairement, selon moi, que la compréhension théorique actuelle du « pourquoi » des changements climatiques, telle qu’incarnée dans les modèles (et sur laquelle la politique actuelle est basée), échoue à ces tests. En effet, le point de vue théorique (modèle) tel qu’il est exprimé dans le RE5 du GIEC a dans tous les cas surestimé la réaction de la température atmosphérique tropicale globale aux gaz à effet de serre supplémentaires (voir ci-dessus et la figure 10.SM.1 du matériel supplémentaire du GIEC), ce qui indique que la compréhension théorique de la réaction du climat est trop sensible aux gaz à effet de serre.

L’un des problèmes de notre science est lié au processus de financement des études climatiques, dont la grande majorité est assurée par des agences fédérales. Les décisions de financement sont prises par des personnes, et ces personnes ont des préjugés. Notre science a également connu une évolution vers une science de « consensus », où l' »accord » entre les personnes et les groupes est considéré comme supérieur à une enquête déterminée et objective. La triste progression des événements ici a même conduit à des enquêtes du Congrès destinées à faire taire (avec un certain succès) ceux dont les voix, y compris la mienne, ont contesté les points de vue politiquement corrects sur le climat (c’est-à-dire l’enquête du Congrès par le représentant Grijalva, 22 février 2015, http://www.scribd.com/doc/256811029/Letter-to-UAH-re-John-Christy).

Aujourd’hui, les décisions de financement sont prises par des comités d’examen. Dans ce processus, de nombreuses propositions de financement sont soumises aux agences, mais ces dernières ne disposent que d’une fraction des fonds disponibles pour soutenir les propositions, de sorte que seules quelques propositions peuvent être financées et celles-ci sont sélectionnées par les comités. Dans le domaine du climat, il est clair que les agences sont convaincues de la vision consensuelle d’un changement climatique dangereux, comme l’indiquent leurs diverses déclarations et communiqués de presse sur la question. Par conséquent, lorsqu’une proposition contraire est soumise, qui cherche à découvrir d’autres explications possibles que les gaz à effet de serre pour les petits changements que nous observons actuellement, ou une proposition qui cherche à examiner rigoureusement et objectivement les résultats des modèles climatiques, elle n’a pratiquement aucune chance d’être financée. Cela se produit parce que le comité détermine par un vote majoritaire qui financer, et avec une concurrence serrée, tout parti pris de quelques membres du comité contre une proposition contraire est suffisant pour être rejeté. Bien sûr, les agences prétendront que tout est fait en toute objectivité, mais ce serait précisément la réponse attendue d’une personne faisant déjà partie du « consensus » et dont l’agence a déclaré sa position sur le changement climatique. Ceci m’amène au « consensus scientifique ».

L’expression « consensus scientifique » est souvent invoquée dans les débats sur le changement climatique pour étayer une affirmation. Il s’agit d’une forme d' »argument d’autorité ». Le consensus est toutefois une notion politique, et non une notion scientifique. Comme j’ai témoigné devant l’Inter-Academy Council en juin 2010, comme je l’ai écrit dans Nature la même année (Christy 2010), et comme je l’ai documenté dans mon témoignage écrit pour plusieurs audiences du Congrès (par exemple, House Space, Science and Technology, 31 mars 2011), le GIEC et d’autres évaluations similaires ne représentent pas pour moi un consensus de beaucoup plus que le consensus de ceux qui sont sélectionnés pour être d’accord avec un consensus particulier.

Le contenu de ces rapports sur le climat est en fait sous le contrôle d’un nombre relativement restreint d’individus – je les appelle souvent « l’establishment du climat » – qui, au fil des ans, en sont venus, à mon avis, à agir comme des gardiens de l’opinion et de l’information scientifiques, plutôt que comme des intermédiaires. Les voix de ceux d’entre nous qui s’opposent à certaines déclarations et à certaines emphases dans ces évaluations sont, dans l’ensemble, rejetées plutôt que prises en compte. Cet establishment inclut les mêmes personnes qui deviennent les « experts » appelés à promouvoir les affirmations du GIEC dans les rapports gouvernementaux tels que la conclusion de mise en danger par l’Agence de Protection de l’Environnement.

Comme je l’ai souligné dans mes précédents témoignages, ces « experts » deviennent les auteurs et les évaluateurs de leurs propres recherches par rapport aux recherches qui remettent en cause leur travail. Cela devient un conflit d’intérêt évident. Mais avec le luxe d’avoir le « dernier mot » en tant qu’auteurs « experts » des rapports, les opinions alternatives disparaissent. Ce n’est pas un processus qui fournit les meilleures informations aux représentants du peuple. Le Congrès américain doit disposer de l’ensemble des points de vue sur des questions telles que le changement climatique qui sont (a) caractérisées par une ambiguïté considérable (voir les résultats des modèles) (b) utilisées pour promouvoir des actions réglementaires qui seront économiquement préjudiciables au peuple américain et, le plus ironique, (c) n’auront aucun impact sur ce que fera le climat.

J’ai souvent déclaré que la science du climat est une science « obscure ». Nous ne disposons pas de méthodes de laboratoire pour tester nos hypothèses, contrairement à de nombreuses autres sciences. Par conséquent, ce qui passe pour de la science inclut l’opinion, les arguments d’autorité, les communiqués de presse spectaculaires et les notions floues de consensus générées par des groupes présélectionnés. Ce n’est pas de la science.

Nous savons, grâce aux courriels du Climategate et à de nombreuses autres sources, que le GIEC a eu des problèmes avec ceux qui adoptent des positions sur le changement climatique différentes de celles qu’il promeut. Il existe cependant une autre façon de traiter ce problème. Puisque l’activité du GIEC et la recherche sur le climat en général sont financées par les contribuables américains, je propose que cinq à dix pour cent des fonds soient alloués à un groupe de scientifiques reconnus pour produire une évaluation qui exprime des hypothèses alternatives légitimes qui ont été (à leur avis) marginalisées, déformées ou ignorées dans les rapports précédents du GIEC (et donc dans l’Endangerment Finding de l’APE et les National Climate Assessments).

De telles activités sont souvent appelées rapports « Red Team » [équipes rouges] et sont largement utilisées par le gouvernement et l’industrie. Les décisions relatives au financement des « Red Teams » ne devraient pas être confiées à l' »establishment » actuel, mais à des panels composés de scientifiques accrédités ayant l’expérience de l’examen de ces questions. Certains efforts dans ce sens ont été déployés par le secteur privé (par exemple, le Groupe d’Experts Non-gouvernemental International sur l’Evolution du Climat, à l’adresse http://nipccreport.org/ et Michaels (2012) ADDENDUM: Global Climate Change Impacts in the United States). Je pense que les décideurs politiques, avec l’argent du public, devraient soutenir activement la collecte de toutes les informations essentielles pour aborder cette science trouble et vicieuse, puisque le public paiera en fin de compte le coût de toute législation censée agir sur le climat.

Les sujets à aborder dans cette évaluation de la « Red Team » seraient, par exemple, les suivants : (a) les preuves d’une faible sensibilité du climat à l’augmentation des gaz à effet de serre, (b) le rôle et l’importance de la variabilité naturelle et imprévue, (c) une évaluation rigoureuse et indépendante des résultats des modèles climatiques, (d) une discussion approfondie de l’incertitude, (e) l’accent mis sur les paramètres les plus directement liés au taux d’accumulation de chaleur dans le système climatique, (f) l’analyse des nombreuses conséquences, y compris les avantages, qui résultent de l’augmentation du CO2, et (g) l’importance d’une énergie abordable et accessible pour la santé et le bien-être de l’homme.

L’objectif de cette proposition est de fournir au Congrès et aux autres décideurs une évaluation parallèle, scientifiquement fondée, de l’état de la science du climat, qui aborde des questions qui n’ont pas été ou ont été sous-représentées dans les rapports précédents sur le climat, financés par les contribuables et dirigés par le gouvernement. En d’autres termes, nos décideurs politiques ont besoin de voir l’ensemble des découvertes concernant le changement climatique.

Résumé de l’extrait

Les messages des deux points soulignés dans l’extrait ci-dessus sont les suivants: (1) les affirmations concernant l’augmentation de la fréquence et de l’intensité des événements extrêmes ne sont généralement pas étayées par des observations réelles et, (2) les informations officielles sur la science du climat sont largement contrôlées par les agences par le biais (a) des choix de financement de la recherche et (b) de la sélection minutieuse (c’est-à-dire biaisée) des auteurs de rapports tels que l’Endangerment Finding de l’APE et le National Climate Assessment.


Texte original

U.S. House Committee on Science, Space & Technology

2 Feb 2016

Testimony of John R. Christy

University of Alabama in Huntsville.

I am John R. Christy, Distinguished Professor of Atmospheric Science, Alabama’s State Climatologist and Director of the Earth System Science Center at The University of Alabama in Huntsville. I have served as Lead Author, Contributing Author and Reviewer of United Nations IPCC assessments, have been awarded NASA’s Medal for Exceptional Scientific Achievement, and in 2002 was elected a Fellow of the American Meteorological Society.

It is a privilege for me to offer my analysis of the current situation regarding (1) the temperature datasets used to study climate, (2) our basic understanding of climate change and (3) the effect that regulations, such as the Paris agreement, might have on climate. I have also attached an extract from my Senate Testimony last December in which I address (1) the popular notion that extreme climate events are increasing due to human-induced climate change (they are not), and (2) the unfortunate direction research in this area has taken.

My research area might be best described as building datasets from scratch to advance our understanding of what the climate is doing and why – an activity I began as a teenager over 50 years ago. I have used traditional surface observations as well as measurements from balloons and satellites to document the climate story. Many of our UAH datasets are used to test hypotheses of climate variability and change.

(1.1) Upper air temperature data from satellites and balloons

I shall begin with a discussion that was precipitated by an increasingly active campaign of negative assertions made against the observations, i.e. the data, of upper air temperatures. Figure 1 in particular has drawn considerable attention from those who view the climate system as undergoing a rapid, human-caused transformation into a climate to which people would have great difficulty adapting. This simple chart tells the story that the average model projection, on which their fears (or hopes?) are based, does poorly for the fundamental temperature metric that is allegedly the most responsive to extra greenhouse gases – the bulk atmospheric temperature of the layer from the surface to 50,000ft. [The layer shown is known as the mid-troposphere or MT and is used because it overlaps with the region of the tropical atmosphere that has the largest anticipated signature of the greenhouse response by bulk mass – between 20,000 and 50,000 feet.] The chart indicates that the theory of how climate changes occur, and the associated impact of extra greenhouse gases, is not understood well enough to even reproduce the past climate [much more in section (2)]. Indeed, the models clearly over-cook the atmosphere. The issue for congress here is that such demonstrably deficient model projections are being used to make policy.

Fig. 1: Five-year averaged values of annual mean (1979-2015) global bulk (termed “mid-tropospheric” or “MT”) temperature as depicted by the average of 102 IPCC CMIP5 climate models (red), the average of 3 satellite datasets (green – UAH, RSS, NOAA) and 4 balloon datasets (blue, NOAA, UKMet, RICH, RAOBCORE).

Because this result challenges the current theory of greenhouse warming in relatively straightforward fashion, there have been several well-funded attacks on those of us who build and use such datasets and on the datasets themselves. As a climate scientist I’ve found myself, along with fellow like-minded colleagues, tossed into a world more closely associated with character assassination and misdirection, found in Washington politics for example, rather than objective, dispassionate discourse commonly assumed for the scientific endeavor. Investigations of us by congress and the media are spurred by the idea that anyone who disagrees with the climate establishment’s view of dangerous climate change must be on the payroll of scurrilous organizations or otherwise mentally deficient.

Also thrust into this milieu is promotional material, i.e., propaganda, attempting to discredit these data (and researchers) with claims that amount to nothing.

Several of these allegations against the data appeared a few weeks ago in the form of a well-made video. I shall address the main assertions with the following material, which in similar form has appeared in the peer-reviewed literature through the years.

The video of interest was promoted by a climate change pressure group (Yale Climate Connections, http://www.yaleclimateconnections.org/2016/01/over-reliance-on-satellite-data-alone-criticized/) in which well-known scientists make claims that are mostly meaningless or completely wrong relative to the evidence in Fig. 1. I wish to make four points regarding the video and demonstrate the misdirection for which such agendized videos, along with a happily mimicking media, are so famous.

First, the claim is made the satellites do not measure temperature. In reality, the sensors on satellites measure temperature by emitted radiation – the same method that a physician uses to measure your body temperature to high precision using an ear probe. Atmospheric oxygen emits microwaves, the intensity of which is directly proportional to the temperature of the oxygen, and thus the atmosphere. That the satellites measure temperature is evident by the following chart which compares our UAH satellite data with temperatures calculated from balloon thermistors. As an aside, most surface temperature measurements are indirect, using electronic resistance.

Fig. 2: Average temperature variations measured at 59 radiosonde stations in the U.S. (VIZ manufacturer) and Australia.

Secondly, the scientists claim that the vertical drop (orbital decay) of the satellites due to atmospheric friction causes spurious cooling through time. This vertical fall has an immeasurable impact on the layer (MT) used here and so is a meaningless claim. In much earlier versions of another layer product (LT or Lower Troposphere), this was a problem, but was easily corrected almost 20 years ago. Thus, bringing up issues that affected a different variable that, in any case, was fixed many years ago is a clear misdirection that, in my view, demonstrates the weakness of their position.

Thirdly, the scientists speak of the spurious temperature changes that occur as the satellites drift in the east-west direction, the so-called diurnal drift problem (which was first detected and accounted for by us). They speak of a sign error in the correction procedure that changed the trend. Again, this error was not a factor in the MT layer in Fig. 1, but for the different LT layer. And, again, this issue was dealt with for LT 10 years ago.

Finally, though not specifically mentioned in this video, some of these scientists claim Fig. 1 above is somehow manipulated to hide their belief in the prowess and validity of the climate models. To this, on the contrary, I say that we have displayed the data in its most meaningful way. The issue here is the rate of warming of the bulk atmosphere, i.e., the trend. This metric tells us how rapidly heat is accumulating in the atmosphere – the fundamental metric of global warming. To depict this visually, I have adjusted all of the datasets so that they have a common origin. Think of this analogy: I have run over 500 races in the past 25 years, and in each one all of the runners start at the same place at the same time for the simple purpose of determining who is fastest and by how much at the finish line. Obviously, the overall relative speed of the runners is most clearly determined by their placement as they cross the finish line – but they must all start together.

In the same way I constructed the chart so that the trend line of all of the temperature time series starts at the same point in magnitude and time (zero value at 1979) so the viewer may see how wide the spread is at the finish line (2015). One way to look at this is seen in Fig. 3 where I provide what is seen in Fig. 1 except this is only the trend line without the variations that occur from year due to volcanoes and such. This is analogous to plotting the overall average speed of a runner along the course even though they likely ran slower on an uphill, and faster on a downhill.

This image indicates the models, on average, warm this global layer about 2.5 times faster than the observations indicate. This is a significant difference that has not beenexplained and indicates the theory of greenhouse impact on atmospheric temperature is not sufficiently known to even reproduce what has already happened. We are not talking about 10 or 15 years here, but 37 years – well over a third of a century. That two very independent types of measuring systems (balloons and satellites) constructed by a variety of institutions (government, university, private) all showing the much slower rate of warming gives high confidence in its result. Thus, the evidence here strongly suggests the theory, as embodied in models, goes much too far in forcing the atmosphere to retain heat when in reality the atmosphere has a means to relinquish that heat and thus warms at a much slower rate.

Fig. 3: The linear trend line over the period 1979-2015. The colors represent the same source data as in fig. 1.

I’ve shown here that for the global bulk atmosphere, the models overwarm the atmosphere by a factor of about 2.5. As a further note, if one focuses on the tropics, the models show an even stronger greenhouse warming in this layer. However, a similar calculation with observations as shown in Fig. 3 indicates the models over-warm the tropical atmosphere by a factor of approximately 3, (Models +0.265, Satellites +0.095, Balloons +0.073 °C/decade) again indicating the current theory is at odds with the facts. (again, see section 2.)

It is a bold strategy in my view to actively promote the output of theoretical climate models while attacking the multiple lines of evidence from observations. Note that none of the observational datasets are perfect and continued scrutiny is healthy, but when multiple, independent groups generate the datasets and then when the results for two completely independent systems (balloons and satellites) agree closely with each other and disagree with the model output, one is left scratching one’s head at the decision to launch an offensive against the data. This doesn’t make scientific sense to me.

(1.2) Surface temperature issues

There are several issues regarding surface temperature datasets that are too involved to discuss in this material. I shall focus on a few points with which I am familiar and on which I have published.

(1.2.a) Surface temperature as a metric for detecting the influence of the increasing concentrations of greenhouse gases

One of my many climate interests is the way surface temperatures are measured and how surface temperatures, especially over land, are affected by their surroundings. In several papers (Christy et al. 2006 J. Climate, Christy et al. 2009 J. Climate, Christy 2013 J. Appl. Meteor. Clim., Christy et al. 2016 J. Appl. Meteor. Clim.) I closely examined individual stations in different regions and have come to the conclusion that the magnitude of the relatively small signal we seek in human-induced climate change is easily convoluted by the growth of infrastructure around the thermometer stations and the variety of changes these stations undergo through time, as well as the variability of the natural ups and downs of climate. It is difficult to adjust for these contaminating factors to extract a pure dataset for greenhouse detection because often the non-climatic influence comes along very gradually just as is expected of the response to the enhanced greenhouse effect.

In examining ocean temperatures (Christy et al. 2001, Geophys. Res. Lett.) I discovered that the trends of the water temperature (1m depth) do not track well with those of the air temperature just above the water (3m), even if both are measured on the same buoy over 20 years. This is important for the discussion below where NOAA used marine air temperatures to adjust water temperature measurements from ships.

There are many other factors that render surface temperature datasets to be of low effectiveness for the detection of enhanced greenhouse warming, (a) lack of systematic geographical coverage in time, (b) unsystematic measuring methods and instrumentationin time and space, (c) the point measurement represents at best a tiny, local area and (d) is easily impacted by slight changes in the surroundings, which can occur for example when a station moves. There have been huge efforts to try and adjust the raw surface data to give a time series that would represent that of a pristine environment, and I have led or been a part in some of these (e.g. for Central California in Christy et al. 2006 and East Africa in Christy et al. 2009 and Christy 2013).

Thus, having experience in building surface, satellite and balloon temperature datasets, and taking into account the signal we are looking for to detect the enhanced greenhouse effect, the evidence suggests to me that utilizing the bulk atmospheric measurements provides the best opportunity to answer questions about the climate’s response to this human-induced change in atmospheric composition. The deep atmosphere is much more coherent in space and time in terms of its variations. It is not affected by human development at the surface. It is measured systematically. To be sure, satellite and balloon temperatures require their own adjustments and cannot be considered “perfect”, but do offer an independence from one another to allow direct comparison studies. Regarding the detection of the enhanced greenhouse effect, the troposphere, as indicated by models, happens to be the atmospheric region that will respond the most, i.e. warm the fastest, and thus, in my view, is a metric that provides a better way to detect human influence on the climate.

(1.2.b) The new NOAA surface temperature dataset

A series of papers appeared last year (including Huang et al. 2015 J. Climate, Karl et al. 2015 Science) describing a new surface temperature dataset constructed by NOAA which indicated a bit more warming in the past 10 to 25 years than the previous versions. The key change dealt with seawater temperatures in the dataset now known as ERSSTv4. This change introduced an additional warming into the record from about 1990 onward. The main reason for this new warming, as the authors note, was the adjustment applied to buoy data, adding about +0.12 °C to the buoy readings. In 1980, only about 10 percent of the data reports were from buoys, but by 2000 about 90 percent were buoy data. Thus, because the influence of the buoy data grew significantly through time, the simple addition of a bias to all the buoys from the beginning created a warmer trend as they became the dominate source of information.

Some background is necessary. Unlike satellite and balloon datasets which measure a systematic quantity (essentially atmospheric air temperature), surface temperature datasets are a mixture of air (over land) and water (over ocean) temperatures measured over a considerable range of instruments, exposures and methods. Over land, weather stations measure the temperature of the air in varying types of instrument shelters and by varying techniques at a level about 5 ft above the ground. Over the ocean, however, the temperature utilized is that of the water itself, not the air above, so traditional global surface datasets do not measure a homogenous physical parameter over land versus ocean. Further, the depth of the water temperature measurement is quite varied from 2 ft to 50 ft or so, by methods that range from buckets drawn up on deck into which a thermometer is inserted to engine-intake temperatures much deeper in the water and to buoys, drifting or moored to the bottom. So the fact temperature varies by depth is an issue to tackle before the possibility of constructing a systematic dataset may be attempted. Then too, the measurements are not spatially or temporally consistent with large regions, such as Africa and the southern oceans, unmeasured.

Keep in mind that even though the trend of this NOAA dataset became more positive in the past 10 to 20 years, it is still below climate model projections over the longer term. For longer periods, such as the period since 1979 when satellites began measuring bulk atmospheric temperatures, the new global dataset is similar to that of the Hadley Centre (1979-2015: NOAA +0.155 °C/decade, Hadley Centre UKMet, +0.165 °C/decade). However, there are questions that remain concerning the new NOAA seawater dataset, especially how it indicates more warming in the last 20 years than others. Figure 4 displays the ocean trends for the region 20S to 60N (i.e. tropical and northern hemisphere oceans – there was too little data south of 20S for generating near-surface air temperatures there). There are 4 datasets represented, NOAA (NOAA, red), Hadley Centre (HadCRUT4, orange), a preliminary near-surface air temperature over the oceans by my graduate student Rob Junod (yellow) and the UAH deep layer air temperature from satellites (blue). Both NOAA and HadCRUT4 are temperatures of the seawater near the surface, so should be the same.

NOAA used a curious reference variable to calibrate the water temperatures measured from ship intakes – the Night Marine Air Temperature (NMAT). This is curious because there are considerable adjustments required for the NMATs themselves, i.e. corrections for height of ship deck, etc. In any case, from this, the buoy data were then adjusted to match the ship data. It appears, then, that the foundational adjustment process depends on NMATs to adjust the ship data to then adjust the buoy data. The final product from NOAA mixes all of these together, and because the geographic representation of the different systems changed dramatically (as noted, from approximately 10% buoys and 90% ships in 1980 to 90% buoys and 10% ships today – Huang et al. 2015), an adjustment applied to the buoys will automatically influence the trend.

I’m aware that the Committee sought information about this curious process and asked NOAA to generate datasets based only on consistent measuring systems, i.e. ships alone, buoys alone and NMATs alone, to see if one system might have impacted the trends improperly due to distribution changes. NOAA was unable to accommodate this request. At the same time I asked my graduate student, Rob Junod, to do the work for NMAT. What is presented here is preliminary, but follows much of the previous work on NMATs (developed at the National Oceanographic Centre and the Hadley Centre in the UK) with that added advantage of being updated to 2014. The best geographical data coverage was found to be 20°S to 60°N, so this area was also applied to the other datasets for an apples to apples comparison. The results are shown in Fig. 4 in which all trends end in 2014 but cover periods in two-year increments from 20 years to 10 years.

Figure 4. Decadal trends (°C/decade) of four temperature datasets over the oceans from 20°S to 60°N for varying periods ending in 2014. Red and orange are surface seawater temperature datasets from NOAA and the Hadley Centre (HadCRUT4). Yellow is a near-surface air temperature dataset (Night Marine Air Temperature) built by UAH (preliminary). Blue is the temperature trend of the deep atmosphere (surface to 35,000 ft or Lower Troposphere) from microwave emissions captured by satellites (also UAHv6.0b5.)

A number of observations are evident in Fig. 4. (1) In terms of the temperature trend, the air temperatures are less than those of the water (as indicated in my 2001 study mentioned above.) (2) NOAA warms the fastest in all periods. (3) In the past 10-14years, the trends of the HadCRUT4 agree better with the near-surface air temperature dataset (being near zero and supporting the notion of a hiatus) than with the trends from its physically-identical quantity from NOAA. (4) The magnitude of the NMAT trends lies between the trends of the deep atmospheric and sea water.

This figure generates a number of data quality questions too. (1) If NMATs were used to calibrate the ship temperatures and then the ships were used to calibrate the buoy temperatures, why does the NOAA dataset differ so much from its basic reference point – NMATs? (2) What do the time series look like and what are the sub-period trends for seawater under the condition that only ships and/or only buoys are used to build the dataset for the past 20-25 years? (3) What does the time series of NOAA’s NMAT (i.e. their reference) dataset show?

The real science questions here are those which have significant importance to the understanding of how extra greenhouse gases might affect the climate as shown in the following section.

(2) How well do we understand climate change?

A critical scientific goal in our era is to determine whether emissions from human activities impact the climate and if so by how much. This is made especially difficult because we know the climate system already is subject to significant changes without the influence of humans. Because there is no measuring device that explicitly determines the cause of the climate changes we can measure, such as temperature, our science must take a different approach to seek understanding as to what causes the changes, i.e. how much is natural and how much is human induced. The basic approach today utilizes climate models. (The projections of these models are being utilized for carbon policies as well.)

It is important to understand that output from these models, (i.e. projections of the future climate and the specific link that increasing CO2 might have on the climate) are properly defined as scientific hypotheses or claims – model output cannot be considered as providing proof of the links between climate variations and greenhouse gases. These models are complex computer programs which attempt to describe through mathematical equations as many factors that affect the climate as is possible and thus estimate how the climate might change in the future. The model, it is hoped, will provide accurate responses of the climate variables, like temperature, when extra greenhouse gases are included in the model. However, the equations for nearly all of the important climate processes are not exact, representing the best approximations modelers can devise and that computers can handle at this point.

A fundamental aspect of the scientific method is that if we say we understand a system (such as the climate system) then we should be able to predict its behavior. If we are unable to make accurate predictions, then at least some of the factors in the system are not well defined or perhaps even missing. [Note, however, that merely replicating the behavior of the system (i.e. reproducing “what” the climate does) does not guarantee that the fundamental physics are well-known. In other words, it is possible to obtain the right answer for the wrong reasons, i.e. getting the “what” of climate right but missing the “why”.]

Do we understand how greenhouse gases affect the climate, i.e. the link between emissions and climate effects? As noted above, a very basic metric for climate studies is the temperature of the bulk atmospheric layer known as the troposphere, roughly from the surface to 50,000 ft altitude. This is the layer that, according to models, should warm significantly as CO2 increases – even faster than the surface. Unlike the surface temperature, this bulk temperature informs us about the crux of the global warming question – how much heat is accumulating in the global atmosphere? And, this CO2- caused warming should be easily detectible by now, according to models. This provides a good test of how well we understand the climate system because since 1979 we have had two independent means of monitoring this layer – satellites from above and balloons with thermometers released from the surface.

I was able to access 102 CMIP-5 rcp4.5 (representative concentration pathways) climate model simulations of the atmospheric temperatures for the tropospheric layer and generate bulk temperatures from the models for an apples-to-apples comparison with the observations from satellites and balloons. These models were developed in institutions throughout the world and used in the IPCC AR5 Scientific Assessment (2013).

Above: Global average mid-tropospheric temperature variations (5-year averages) for 32 models (lines) representing 102 individual simulations. Circles (balloons) and squares (satellites) depict the observations. The Russian model (INM-CM4) was the only model close to the observations.

The information in this figure provides clear evidence that the models have a strong tendency to over-warm the atmosphere relative to actual observations. On average the models warm the global atmosphere at a rate 2.5 times that of the real world. This is not a short-term, specially-selected episode, but represents the past 37 years, over a third of a century. This is also the period with the highest concentration of greenhouse gases and thus the period in which the response should be of largest magnitude.

Following the scientific method of testing claims against data, we would conclude that the models do not accurately represent at least some of the important processes that impact the climate because they were unable to “predict” what has already occurred. In other words, these models failed at the simple test of telling us “what” has already happened, and thus would not be in a position to give us a confident answer to “what” may happen in the future and “why.” As such, they would be of highly questionable value in determining policy that should depend on a very confident understanding of how the climate system works.

There is a related climate metric that also utilizes atmospheric temperature which in models has an even larger response than that of the global average shown above. This metric, then, provides a stronger test for understanding how well models perform regarding greenhouse gases specifically. In the models, the tropical atmosphere warms significantly in response to the added greenhouse gases – more so than that of the global average atmospheric temperature.

Above: Tropical average mid-tropospheric temperature variations (5-year averages) for 32 models (lines) representing 102 individual simulations. Circles (balloons) and squares (satellites) depict the observations.

In the tropical comparison here, the disparity between models and observations is even greater, with models on average warming this atmospheric region by a factor of three times greater than in reality. Such a result re-enforces the implication above that the models have much improvement to undergo before we may have confidence they will provide information about what the climate may do in the future or even why the climate varies as it does. For the issue at hand, estimates of how the global temperature might be affected by emission reductions from regulations would be exaggerated and not reliable.

(3) Climate Impact of Regulations (i.e. Paris) Will Not Be Attributable or Detectable

No one knows the climate impact of the proposed carbon emission reductions agreed to in Paris. The main reason for this is that there is considerable latitude for countries to do as little or as much as they desire. Examining the history of global carbon emissions, it is clear that countries, especially developing countries, will continue to seek to expand energy use through carbon combustion because of their affordability in providing considerable positive benefits to their citizens.

In any case, impact on global temperature for current and proposed reductions in greenhouse gases will be tiny at best. To demonstrate this, let us assume, for example, that the total emissions from the United States were reduced to zero, as of last May 13th, 2015 (the date of a hearing at which I testified). In other words as of that day and going forward, there would be no industry, no cars, no utilities, no people – i.e. the United States would cease to exist as of that day. Regulations, of course, will only reduce emissions a small amount, but to make the point of how minuscule the regulatory impact will be, we shall simply go way beyond reality and cause the United States to vanish. With this we shall attempt to answer the question of climate change impact due to emissions reductions.

Using the U.N. IPCC impact tool known as Model for the Assessment of Greenhouse-gas Induced Climate Change or MAGICC, graduate student Rob Junod and I reduced the projected growth in total global emissions by U.S. emission contribution starting on this date and continuing on. We also used the value of the equilibrium climate sensitivity as determined from empirical techniques of 1.8 °C. After 50 years, the impact as determined by these model calculations would be only 0.05 to 0.08 °C – an amount less than that which the global temperature fluctuates from month to month. [These calculations used emission scenarios A1B-AIM and AIF-MI with U.S. emissions comprising 14 percent to 17 percent of the 2015 global emissions. There is evidence that the climate sensitivity is less than 1.8 °C, which would further lower these projections.]

As noted, the impact on global emission and global climate of the recent agreements in Paris regarding global emissions is not exactly quantifiable. Knowing how each country will behave regarding their emissions is essentially impossible to predict besides the added issue of not knowing how energy systems themselves will evolve over time.

Because halting the emissions of our entire country would have such a tiny calculated impact on global climate, it is obvious that fractional reductions in emissions through regulation would produce imperceptible results. In other words, there would be no evidence in the future to demonstrate that a particular climate impact was induced by the proposed and enacted regulations. Thus, the regulations will have no meaningful or useful consequence on the physical climate system – even if one believes climate models are useful tools for prediction.

Summary

Climate change is a wide-ranging topic with many difficulties. Our basic knowledge about what the climate is doing (i.e. measurements) is plagued by uncertainties. In my testimony today I have given evidence that the bulk atmospheric temperature is measured well-enough to demonstrate that our understanding of how greenhouse gases affect the climate is significantly inadequate to explain the climate since 1979. In particular, the actual change of the fundamental metric of the greenhouse warming signature – the bulk atmospheric temperature where models indicate the most direct evidence for greenhouse warming should lie – is significantly misrepresented by the models. Though no dataset is perfect, the way in which surface datasets have been constructed leaves many unanswered questions, especially for the recent NOAA update which shows more warming than the others. Finally, regulations already enforced or being proposed, such as those from the Paris Agreement, will have virtually no impact on whatever the climate is going to do.

Appendix A

This appendix is an extract from my written testimony presented at the following Hearing:

U.S. Senate Committee on Commerce, Science, & Transportation

Subcommittee on Space, Science and Competitiveness

8 Dec 2015

Testimony of John R. Christy

University of Alabama in Huntsville.

Alleged impacts of human-induced climate changes regarding extreme events

Much of the alarm related to increasing greenhouse gas concentrations shifted in the past decade from global temperature changes to changes in extreme events, i.e. those events which typically have a negative impact on the economy. These events may be heat waves, floods, hurricanes, etc.

In terms of heat waves, below is the number of 100°F days observed in the U.S. from a controlled set of weather stations. It is not only clear that hot days have not increased, but it is interesting that in the most recent years there has been a relative dearth of them.

Above: Average number of days per-station in each year reaching or exceeding 100°F in 982 stations of the USHCN database (NOAA/NCEI, prepared by JRChristy).

Forest and wild fires are documented for the US. The evidence below indicates there has not been any change in frequency of wildfires. Acreage (not shown) shows little change as well.

Above: Number of U.S. wildfires. As the management of these events changes, and thus the number also changes, but the number of events since 1985 has remained constant. (National Interagency Fire Center https://www.nifc.gov/fireInfo/nfn.htm)

Above: Number of U.S. forest fires per year since 1965.

The two figures above demonstrate that fire events have not increased in frequency in the United States during the past several decades.

The claims that droughts and floods are increasing may be examined by the observational record as well.

Above: Global areal extent of five levels of drought for 1982-2012 where dryness is indicated in percentile rankings with D0 < 30, D1 < 20, D2 < 10, D3 < 5 and D4 < 2 percentile of average moisture availability. (Hao et al. 2014)

Above: Areal fraction of conterminous U.S. under very wet (blue) or very dry (red) conditions. NOAA/NCEI.

The two figures above demonstrate that moisture conditions have not shown a tendency to have decreased (more drought) or increased (more large-scale wetness). Such information is rarely consulted when it is more convenient simply to make unsubstantiated claims that moisture extremes, i.e. droughts and floods (which have always occurred), are somehow becoming even more extreme. Over shorter periods and in certain locations, there is evidence that the heaviest precipitation events are tending to be greater. This is not a universal phenomenon and it has not been established that such changes may be due to changes in greenhouse gas concentrations as demonstrated earlier because the model projections are unable to reproduce the simplest of metrics.

Above: World grain production 1961-2012. U.N. Food and Agriculture Organization.

It is a simple matter to find documentation of the ever-rising production of grains. One wonders about the Federal Council on Environmental Quality’s allegation that there has been “harm to agriculture” from human-induced climate change because when viewing the total growth in production, which appears to be accelerating, one would assume no “harm” has been done during a period of rising greenhouse gases.

With the evidence in these examples above, it is obviously difficult to establish the claims about worsening conditions due to human-caused climate change, or more generally that any change could be directly linked to increasing CO2. This point also relates to the issue of climate model capability noted earlier. It is clear that climate models fall short on some very basic issues of climate variability, being unable to reproduce “what” has happened regarding global temperature, and therefore not knowing “why” any of it happened. It is therefore premature to claim that one knows the causes for changes in various exotic measures of weather, such as rainfall intensity over short periods, which are not even explicitly generated in climate model output.

The Disappointing Scientific Process

I have written much for previous congressional hearings and other venues about the failure of the scientific community to objectively approach the study of climate and climate change. (See Appendix) Climate science is a murky science with large uncertainties on many critical components such as cloud distributions and surface heat exchanges. As mentioned above, there is no objective instrumentation that can tell us “why” changes occur. That being the case, we are left with hypotheses (claims) to put forward and then to test. The information given above, in my view, is clear evidence that the current theoretical understanding of “why” the climate changes, as embodied in models (and on which current policy is based), fails such tests. Indeed, the theoretical (model) view as expressed in the IPCC AR5 in every case overestimated the bulk tropical atmospheric temperature response of extra greenhouse gases (see above and IPCC Supplementary Material Figure 10.SM.1) indicating the theoretical understanding of the climate response is too sensitive to greenhouse gases.

One problem with our science relates to the funding process for climate studies, the vast majority of which is provided through federal agencies. Funding decisions are decided by people, and people have biases. Our science has also seen the move toward “consensus” science where “agreement” between people and groups is elevated above determined, objective investigation. The sad progression of events here has even led to congressional investigations designed to silence (with some success) those whose voices, including my own, have challenged the politically-correct views on climate (i.e. congressional investigation by Rep. Grijalva, 22 Feb 2015, http://www.scribd.com/doc/256811029/Letter-to-UAH-re-John-Christy.)

Today, funding decisions are made by review panels. In this process, many proposals for funding are submitted to the agencies, but the agencies only have a fraction of the funds available to support the proposals, so only a few proposals can be funded and these are selected by panels. In the area of climate, it is clear the agencies are convinced of the consensus view of dangerous climate change as indicated by their various statements and press releases on the issue. Therefore, when a contrarian proposal is submitted that seeks to discover other possible explanations besides greenhouse gases for the small changes we now see, or one that seeks to rigorously and objectively investigate climate model output, there is virtually no chance for funding. This occurs because the panel determines by majority vote whom to fund, and with tight competition, any bias by just a couple of panel members against a contrarian proposal is sufficient for rejection. Of course, the agencies will claim all is done in complete objectivity, but that would be precisely the expected response of someone already within the “consensus” and whose agency has stated its position on climate change. This brings me to “consensus science.”

The term “consensus science” will often be appealed to regarding arguments about climate change to bolster an assertion. This is a form of “argument from authority.” Consensus, however, is a political notion, not a scientific notion. As I testified to the Inter-Academy Council in June 2010, wrote in Nature that same year (Christy 2010), and documented in my written testimony for several congressional hearings (e.g., House Space, Science and Technology, 31 Mar 2011) the IPCC and other similar Assessments do not represent for me a consensus of much more than the consensus of those selected to agree with a particular consensus.

The content of these climate reports is actually under the control of a relatively small number of individuals – I often refer to them as the “climate establishment” – who through the years, in my opinion, came to act as gatekeepers of scientific opinion and information, rather than brokers. The voices of those of us who object to various statements and emphases in these assessments are by-in-large dismissed rather than accommodated. This establishment includes the same individuals who become the “experts” called on to promote IPCC claims in government reports such as the endangerment finding by the Environmental Protection Agency.

As outlined in my previous testimonies, these “experts” become the authors and evaluators of their own research relative to research which challenges their work. This becomes an obvious conflict of interest. But with the luxury of having the “last word” as “expert” authors of the reports, alternative views vanish. This is not a process that provides the best information to the peoples’ representatives. The U.S. Congress must have the full range of views on issues such as climate change which are (a) characterized by considerable ambiguity (see model results) (b) used to promote regulatory actions which will be economically detrimental to the American people and, most ironically, (c) will have no impact on whatever the climate will do.

I’ve often stated that climate science is a “murky” science. We do not have laboratory methods of testing our hypotheses as many other sciences do. As a result what passes for science includes, opinion, arguments-from-authority, dramatic press releases, and fuzzy notions of consensus generated by preselected groups. This is not science.

We know from Climategate emails and many other sources that the IPCC has had problems with those who take different positions on climate change than what the IPCC promotes. There is another way to deal with this however. Since the IPCC activity and climate research in general is funded by U.S. taxpayers, then I propose that five to ten percent of the funds be allocated to a group of well-credentialed scientists to produce an assessment that expresses legitimate, alternative hypotheses that have been (in their view) marginalized, misrepresented or ignored in previous IPCC reports (and thus the EPA Endangerment Finding and National Climate Assessments).

Such activities are often called “Red Team” reports and are widely used in government and industry. Decisions regarding funding for “Red Teams” should not be placed in the hands of the current “establishment” but in panels populated by credentialed scientists who have experience in examining these issues. Some efforts along this line have arisen from the private sector (i.e. The Non-governmental International Panel on Climate Change at http://nipccreport.org/ and Michaels (2012) ADDENDUM:Global Climate Change Impacts in the United States). I believe policymakers, with the public’s purse, should actively support the assembling all of the information that is vital to addressing this murky and wicked science, since the public will ultimately pay the cost of any legislation alleged to deal with climate.

Topics to be addressed in this “Red Team” assessment, for example, would include (a) evidence for a low climate sensitivity to increasing greenhouse gases, (b) the role and importance of natural, unforced variability, (c) a rigorous and independent evaluation of climate model output, (d) a thorough discussion of uncertainty, (e) a focus on metrics that most directly relate to the rate of accumulation of heat in the climate system, (f) analysis of the many consequences, including benefits, that result from CO2 increases, and (g) the importance that affordable and accessible energy has to human health and welfare.

What this proposal seeks is to provide to the Congress and other policymakers a parallel, scientifically-based assessment regarding the state of climate science which addresses issues which here-to-for have been un- or under-represented by previous tax-payer funded, government-directed climate reports. In other words, our policymakers need to see the entire range of findings regarding climate change.

Summary of Extract

The messages of the two points outlined in the extract above are: (1) the claims about increases in frequency and intensity of extreme events are generally not supported by actual observations and, (2) official information about climate science is largely controlled by agencies through (a) funding choices for research and (b) by the carefully-selected (i.e. biased) authorship of reports such as the EPA Endangerment Finding and the National Climate Assessment.

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s