Le bilan environnemental destructeur de RFK Jr – par Fox Green.

Comme mes lecteurs le savent, je tente de dénoncer systématiquement l’opposition contrôlée. Ils savent aussi que, contrairement à Miles Mathis, autre pourfendeur de spooks (agents), je me sers quand même de certaines de leur publications – Whitney Webb, Matthew Ehret, Robert Malone, etc. – selon le principe des 80/20 (80% de faits, 20% d’enfumage ou en plus imagé, bullshit). C’est donc dans les 80% que je puise et je stoppe net quand je vois poindre les autres 20%.

Question « vaccins », RFK Jr a fourni un énorme boulot, et donné une tribune à pas mal de gens intéressants – notamment Sasha Latypova, Catherine Austin Fitts et JJ Couey – sur sa plateforme de Children’s Health Defense. Je l’ai publié plusieurs fois, transcrit et traduit ses discours, ce que je ne regrette aucunement. Mais…

Il se présente maintenant aux élections présidentielles américaines de 2024 et certains pensent qu’il pourrait bien les gagner. RFK Jr a commencé sa carrière comme avocat « environnementaliste », premier « drapeau rouge » majeur brièvement abordé ci-dessous. J’avais prédit un retour des Républicains (Trump ou un autre, DeSantis) pour achever le repli américain de la scène internationale, mais la réthorique de RFK Jr sur la « Paix » ferait aussi bien le boulot, tout en mettant officiellement le pays sous tutelle « environnementaliste » financière, un business qui représente des centaines de trillions de dollars – et la faillite assurée. Voir l’Allemagne

Je publierai sur le bonhomme un deuxième article également (très) à charge, de Sage Hana, ainsi qu’un autre du même auteur (qui est en fait un mec) sur Robert Malone (qui envisage également de se lancer en politique), ainsi qu’un à moi – si j’arrive à le boucler – qui devrait rhabiller tout ce petit monde pour l’hiver. Me voilà donc tenu de continuer ce blog.

Et pour que ce soit bien clair, je boycotte à la fois les entreprises « neutres en carbone » et l’agriculture industrielle – en résumé, je boycotte à peu près tout. J’y reviendrai.

Source.


Le bilan environnemental destructeur de RFK Jr.

Fox Green

21 avril

Je me suis réveillé ce matin avec une alerte de découvert de ma banque: 295$ de paiement automatique pour ma facture d’électricité de Central Hudson. Nous remboursons lentement la facture de 1 000 dollars que nous avons reçue en février 2022. Et nous avons été parmi les plus chanceux. De nombreux habitants de la région de la vallée du Mid-Hudson à New York ont reçu des factures de plus de 5 000 dollars. Central Hudson a systématiquement cité la fermeture de la centrale nucléaire d’Indian Point comme l’une des principales raisons de la montée en flèche de nos factures d’électricité.

Les factures d’énergie élevées semblent être le nouveau normal pour les New-Yorkais. Dans un communiqué de presse datant d’octobre 2022, Central Hudson a énuméré « plusieurs facteurs internationaux, nationaux et régionaux » contribuant à l’augmentation des factures d’électricité:

  • Au niveau local, la fermeture d’Indian Point l’année dernière a accru la dépendance de la région à l’égard du gaz naturel pour la production d’électricité.
  • Les contraintes liées à l’approvisionnement et aux gazoducs de transport dans le nord-est continuent de faire grimper les prix en période de forte demande.
  • Les troubles en Europe de l’Est continuent d’avoir un impact significatif sur les marchés de l’énergie dans le monde entier.

Alors que les pays occidentaux de l’OTAN continuent de mener une guerre par procuration contre la Russie en Ukraine, l’Américain moyen est contraint de payer la facture. Non seulement Biden donne des millions de dollars [NdT. des dizaines de milliards d’argent « blanchi »] de nos impôts durement gagnés aux néo-nazis ukrainiens, mais les sanctions, les troubles et la destruction manifeste des infrastructures des gazoducs [NdT. ma traduction ici] ont créé un scénario de fausse pénurie et, en conséquence, une hausse des prix des carburants et de l’électricité. Il devient moins risqué pour les voix traditionnelles de s’opposer au conflit et d’appeler à la paix. L’une de ces voix est celle de Robert Kennedy Jr. qui vient d’annoncer sa candidature à la 47e présidence des États-Unis.

L’une des priorités de son site web est la Paix:

Robert F. Kennedy renouera avec un courant perdu de la politique étrangère américaine, celui défendu par son oncle, John F. Kennedy, qui, au cours de ses 1000 jours au pouvoir, était devenu un anti-impérialiste convaincu… Il voulait faire revivre l’impulsion de Roosevelt de dissoudre l’empire britannique plutôt que de s’en emparer.

[…]

Notre priorité ne sera rien de moins que de restaurer notre leadership moral. Nous donnerons l’exemple. Lorsqu’une nation impériale belliqueuse désarme de son propre chef, elle établit un modèle pour la paix partout dans le monde. Il n’est pas trop tard pour que nous abandonnions volontairement l’empire et que nous servions la paix, en tant que nation forte et saine.

C’est ça le type de politique qu’un véritable dirigeant américain devrait mettre en avant et, à juste titre, Kennedy gagne rapidement un grand soutien populaire. Malgré cela, j’ai toujours très, très peur de ce à quoi ressemblerait une présidence de Robert Kennedy Jr. RFK n’a jamais exercé de fonction, mais son influence est indéniable. Ses actions, ses plaidoyers et sa rhétorique, ainsi que leurs résultats, méritent d’être réexaminés.

Zélote de l’environnement

RFK Jr. a joué un rôle majeur dans la fermeture du complexe nucléaire d’Indian Point.

« Personne n’a été plus important pour Riverkeeper que Bobby Kennedy », a déclaré Paul Gallay, président de Riverkeeper. En 2017, Spectrum News rapportait que « Kennedy a joué un rôle influent dans le travail visant à fermer Indian Point d’ici 2021″.

« L’accord sur la fermeture d’Indian Point est en quelque sorte le point culminant de sa carrière ici à Riverkeeper », a déclaré Gallay. « Il a déployé des efforts considérables pour fermer Indian Point et soutenir Riverkeeper. Je pense qu’après avoir obtenu ce résultat, il s’est dit que c’était peut-être le bon moment pour se concentrer sur d’autres sujets ».

M. Kennedy a déclaré que la fermeture d’Indian Point constituait une étape importante dans sa carrière. Les responsables de Riverkeeper ont déclaré qu’ils poursuivraient leur travail et feraient de leur mieux pour aller de l’avant sans M. Kennedy.

Pendant plus de 30 ans, M. Kennedy a servi le Natural Resources Defense Council (NRDC) et Hudson Riverkeeper en tant qu’avocat principal et membre du conseil d’administration. Ces organisations sont connues pour être deux des organisations environnementales les plus procédurières et les plus destructrices sur le plan industriel de tout le pays. En 1999, Kennedy a fondé sa propre ONG, Waterkeeper Alliance, et Keeper Springs, une société d’embouteillage d’eau dont les bénéfices sont reversés à Riverkeeper et à ses organisations affiliées.

Kennedy, qui s’est rendu tristement célèbre par ses coups de gueule, a déclaré à plusieurs reprises que les « négationnistes du climat » et les « climato-sceptiques » devraient être envoyés en prison.

En 2014, il a abordé et défendu ses déclarations controversées dans un article pour EcoWatch intitulé Jailing Climate Deniers (emprisonner les négationnistes du climat), dans lequel il a clarifié les choses, affirmant qu’il pensait que les entreprises, et non les individus, devaient être punies, « la peine de mort pour les entreprises » comme il l’appelle:

Je soutiens le Premier Amendement, qui permet à tout citoyen de proférer, même sciemment, des mensonges bien plus ignobles sans conséquence juridique.

Je pense toutefois que les entreprises qui soutiennent délibérément, intentionnellement, malicieusement et systématiquement les mensonges sur le climat devraient être condamnées à la peine de mort. Cela peut se faire par le biais d’une procédure juridique existante connue sous le nom de « révocation de la charte ». Les procureurs généraux des États peuvent invoquer ce recours chaque fois qu’une entreprise fait passer ses profits avant le « bien-être public ».

Cela donne un tour beaucoup plus noble à sa rhétorique, mais que se passerait-il si nous appliquions cette notion de punition aux entités qui promeuvent des « mensonges climatiques »? Dans le communiqué de presse de 2017 qui annonçait la fin de la bataille de plusieurs décennies pour la fermeture d’Indian Point, Paul Gallay, président de Riverkeeper, déclarait: « Une fois Indian Point fermé, nous n’aurons plus besoin de compter sur les combustibles fossiles pour compenser son énergie. » Le communiqué indiquait également que les réacteurs devaient cesser leurs activités dans les quatre ans à venir. Quatre ans plus tard, en 2021, le New York Times titrait sans ambages: « Indian Point ferme. Cela signifie davantage de combustibles fossiles« . Aux yeux de M. Kennedy, s’agit-il d’un « mensonge climatique » passible d’une mort organisationnelle?

Curriculum vitae politique

Bien que RFK Jr. n’ait jamais exercé de fonctions officielles, il n’est pas étranger à la machine politique. En 1999, avec Lawrence Rockefeller [Ndt. !!!], Kennedy a soutenu Al Gore pour sa candidature à l’élection présidentielle de 2000. « Il est notre dernière chance de sauver la planète », a déclaré Kennedy.

Clip d’Al Gore acceptant un prix lors du gala « Ripple of Hope » 2011

Kennedy a également entretenu des relations étroites avec le gouverneur de l’État de New York, Andrew Cuomo [NdT. responsable de la contamination au Covid de milliers de résidents de maisons de repos dans son État], tout au long de la procédure de fermeture d’Indian Point. Theresa Knickerbocker, maire de Buchanan, dans l’État de New York, a parlé de « trois hommes dans une pièce » lors d’un entretien avec Robert Bryce.

« Trois personnes ont pris la décision de fermer Indian Point: le gouverneur Cuomo, Riverkeeper et Entergy. L’ancien gouverneur Andrew Cuomo a été marié pendant 15 ans à Kerry, la sœur de Kennedy, ce qui signifie qu’ils étaient beaux-frères. Cette relation étroite explique également pourquoi M. Kennedy a fait partie de la commission de M. Cuomo sur la fracturation, ce qui a conduit à l’interdiction de la fracturation dans l’État de New York en 2013, et pourquoi il a décidé de ne pas se présenter contre son beau-frère en 2005 pour le poste de Procureur général de l’État de New York.

En 2008, le président élu Barack Obama a inscrit M. Kennedy sur sa liste de candidats présélectionnés pour diriger l’Agence de Protection de l’Environnement. Il n’a finalement pas été retenu, probablement en raison de ses déclarations controversées, de son casier judiciaire pour possession d’héroïne et de sa position hypocrite de « NIMBY » des énergies renouvelables [NdT. NIMBY, également orthographié Nimby, en anglais Not in My Backyard, une expression familière signifiant l’opposition d’une personne à l’implantation d’un objet considéré comme indésirable dans son quartier]. M. Kennedy s’est autrefois opposé à la construction d’un parc éolien au large de la côte de Cape Cod, qui aurait gâché la vue depuis sa maison de vacances.

Programme environnemental malthusien

En 2021, sur les conseils de l’écologiste indienne Vandana Shiva, le Sri Lanka a interdit tous les engrais chimiques au profit de méthodes « biologiques », avec des résultats désastreux. Le faible rendement des récoltes a entraîné une hausse des prix et des pressions économiques qui se sont traduites par un « effondrement » et des manifestations. Shiva est régulièrement qualifiée de vendeuse de pseudo-science et de rabatteuse d’ONG. Elle qualifie les engrais pétrochimiques de « poison ».

Le #SriLanka a déjà banni tous les produits chimiques et annoncé une transition vers un Sri Lanka 100% biologique.
Joignons-nous au Sri Lanka, à la Suisse et à toutes les communautés qui prennent des mesures en faveur d’un monde sans poison et sans cartel du poison, pour notre santé et celle de la planète.

« C’est mon héroïne, Vandana Shiva, que je connais depuis de très nombreuses années et qui a été un modèle pour moi, vraiment », dit Kennedy en présentant Shiva en tant que toute première invitée de son podcast en 2021. Shiva a participé trois fois au podcast de Kennedy depuis sa création, et chaque épisode fait référence à la longue et étroite amitié que les deux entretiennent. En effet, Kennedy soutient la croisade de Shiva pour une « agriculture sans poison et sans énergie fossile », et a participé à un panel lors d’un événement portant ce titre en 2019.

Capture d’écran d’un livre hébergé sur le site de l’organisation de Shiva, Navdanya International.

Si l’on examine de plus près la politique environnementale sur le site Internet de la campagne présidentielle actuelle de Kennedy, on peut lire ce qui suit:

Tout d’abord, nous modifierons les subventions agricoles afin d’encourager les pratiques régénératrices. Aujourd’hui, une nouvelle génération d’agriculteurs et d’éleveurs reconstitue les sols, réalimente les nappes phréatiques et détoxifie les terres, tout en produisant autant de nourriture que les agriculteurs traditionnels et en gagnant décemment leur vie.

Soit M. Kennedy n’a pas lu les nouvelles concernant le Sri Lanka, soit il est conscient de l’effet des méthodes agricoles biologiques, anti-scientifiques et à faible rendement de Shiva, et il soutient ces méthodes délibérément pour leurs faibles résultats.

Pour en savoir plus sur l'importance des combustibles fossiles pour l'agriculture, écoutez notre dernier entretien podcast avec Jusper Machogu, ingénieur agronome et agriculteur au Kenya - épisode 031 Africa Needs Fossil Fuel.

Bien que Kennedy n’ait jamais parlé ouvertement de la surpopulation, il ne faut pas chercher bien loin pour trouver dans son camp des personnes puissantes qui sont des malthusiens. Fred Stanback Jr, héritier de l’entreprise d’aspirine de son père et de son oncle, a eu la chance d’investir très tôt dans Berkshire Hathaway parce qu’il était le colocataire de Warren Buffett à Harvard. Stanback a utilisé sa fortune pour faire des dons à des organisations de contrôle de la population telles que Population Connection – l’organisation anciennement connue sous le nom de « Zero Population Growth » fondée en 1968 par Paul Ehrlich, néo-malthusien tristement célèbre et auteur de The Population Bomb (La bombe démographique). Stanback a donné des millions de dollars à la Waterkeeper Alliance de Kennedy, ce qui fait de lui l’un des principaux donateurs de l’organisation, si ce n’est le plus important.

Les rapports annuels de la Waterkeeper Alliance de 2012 à 2022 mentionnent Stanback comme donateur dans la fourchette de 499 999 à 200 000 dollars en 2012, 500 000 dollars et plus en 2013, 1 000 000 dollars et plus en 2014 et 2015. Chaque année depuis 2016, la Foundation for the Carolines figure dans la catégorie supérieure des 1 000 000 $ et plus. La Foundation for the Carolines est bien connue en tant que fondation de passage pour les dons philanthropiques de Fred Stanback, Jr.

Anti-impérialiste ou impérialiste vert?

Kennedy diffuse un message anti-impérialiste. Il est clairement contre la guerre chaude. Mais représente-t-il réellement l’impérialisme vert du soft power? À la suite de la fermeture par l’Allemagne de ses dernières centrales nucléaires, il semble que les esprits les plus sains au sein du mouvement écologiste commencent à réaliser à quel point le fanatisme antinucléaire a été un faux pas. La fermeture d’Indian Point a rendu le réseau énergétique de New York moins fiable, plus carboné et plus coûteux. Il s’agit clairement d’une politique désastreuse aux répercussions extrêmement négatives, dont les New-Yorkais paient aujourd’hui le prix.

Si Kennedy a des remords au sujet d’Indian Point, il ne les a pas encore exprimés. L’Amérique a-t-elle la marge nécessaire pour absorber d’autres bévues industrielles de cette ampleur? Et il ne s’agit pas seulement d’erreurs passées, Kennedy semble porter en haute estime une femme qui porte une grande part de responsabilité dans l’effondrement du Sri Lanka du fait d’une politique agricole pseudo-scientifique.

Ou bien tout cela est-il délibéré? Faut-il examiner de plus près les penchants malthusiens de l’un des principaux bailleurs de fonds de Kennedy? Y a-t-il un agenda caché derrière la personnalité sincère et véridique de Kennedy? Je suis heureux qu’un message anti-impérialiste, anti-guerre et pro-souveraineté soit porté sur la plus haute scène politique du pays à ce moment de l’histoire. Mettre fin à la guerre en Ukraine et désamorcer la menace d’une troisième guerre mondiale nucléaire est la question la plus importante à laquelle nous sommes confrontés en ce moment en tant que communauté mondiale [NdT. pas vraiment]. Mais nous devons nous méfier de ceux qui essaient d’échanger une guerre militaire chaude contre une guerre économique éco-malthusienne contre les nations les plus pauvres, les plus affamées et les moins développées.

Modulation des âges glaciaires – sans CO2 – Article invité de Ralph Ellis.

Pour changer un peu des divagations du GIEC et couper l’herbe sous le pied de la catastrophe économique qu’ils promeuvent (voir article précédent), voici de la vraie science climatique. La conclusion est assez étonnante.

Source.


Modulation des âges glaciaires – sans CO2 – Article invité de Ralph Ellis

William M Briggs

6 mai

Ellis m’a envoyé son article intitulé « Modulation of Ice-ages via Precession and Dust-Albedo Feedbacks » (La modulation des périodes glaciaires par la précession et les rétroactions poussières-albédo) dans Geoscience Frontiers, et je l’ai trouvé assez intriguant. Pour simplifier à l’extrême: le CO2 est bon pour nous et il va faire très froid dans peu de temps. Je lui ai demandé de rédiger un résumé, que vous trouverez ci-dessous, mais utilisez l’article lui-même pour toute critique intelligente.

Voici une énigme intéressante: les climatologues prétendent que la science qui sous-tend le climat terrestre est établie. Pourtant, on découvre simultanément qu’il n’y a pas d’explication claire aux changements climatiques qui se produisent pendant les périodes glaciaires. On suppose un rôle aux cycles orbitaux et au CO2, mais on n’a jamais expliqué pourquoi certains de ces cycles orbitaux produisent des périodes glaciaires et interglaciaires, alors que d’autres n’en produisent pas du tout. Pourquoi donc un système climatique serait-il sélectif dans sa réponse aux cycles orbitaux?

Les quatre cycles orbitaux impliqués dans la paléoclimatologie sont: la précession axiale, la précession apsidale, l’obliquité axiale et l’excentricité orbitale. Ces cycles se combinent pour modifier la quantité de lumière solaire (insolation) qui atteint les hautes latitudes de la Terre. Cette oscillation induite par l’orbite est connue sous le nom de cycle de Milankovitch (au singulier), qui a une périodicité d’environ 22 millénaires, et les modifications de l’ensoleillement aux latitudes supérieures qu’il induit peuvent être très importantes.

La figure 1 montre le cycle de Milankovitch en bleu, tandis que la réponse de la température aux latitudes plus élevées est en rouge. Comme on peut le voir, certains des pics du cycle de Milankovitch en bleu (c’est-à-dire l’insolation supplémentaire aux latitudes élevées) n’entraînent aucune variation de température. Ce qui est étrange et ne peut s’expliquer par la théorie de la rétroaction du CO2.

Fig. 1. Graphique des cycles de Milankovitch (bleu) par rapport aux températures de l’Antarctique (rouge). Chaque pic bleu représente une augmentation de l’insolation dans l’hémisphère nord à haute latitude. Chaque pic rouge représente un réchauffement interglaciaire, qui se produit environ tous les 80 ou 100 millénaires. Il convient de noter que certains pics d’insolation n’entraînent aucune réaction de la température. Sources: Laskar 2004, cycles orbitaux, et données de température de la carotte glaciaire Epica3.

En fait, les problèmes liés aux rétroactions et à la modulation des périodes glaciaires sont multiples. Il y a aussi le problème que pendant les périodes glaciaires, un taux élevé de CO2 coïncide avec un refroidissement, tandis qu’un faible taux de CO2 coïncide avec un réchauffement. Il s’agit là d’une réponse très contradictoire par rapport à la théorie standard de la rétroaction du CO2. De plus, tous les réchauffements interglaciaires coïncident avec les cycles de Milankovitch de l’hémisphère nord, plutôt qu’avec leurs équivalents de l’hémisphère sud.

Là encore, il s’agirait d’une réponse hémisphérique asymétrique inhabituelle pour une rétroaction globale telle que le CO2. Enfin, le CO2 est une rétroaction très faible pendant le réchauffement interglaciaire, lorsqu’il est calculé sur une base annuelle ou décennale, alors que la véritable rétroaction doit être assez puissante pour faire fondre les vastes nappes glaciaires du Nord en seulement 5 000 ans.

Le résultat de cette brève analyse est que le CO2 ne peut pas être le système de rétroaction qui assiste le cycle de Milankovitch et qui contrôle donc la modulation interglaciaire. Pourtant, nous savons qu’il doit y avoir un mécanisme de rétroaction quelconque pour expliquer les interglaciaires manquants (la réponse intermittente de la température à l’augmentation de l’insolation à haute latitude). Les exigences de ce nouveau système de rétroaction proposé sont donc particulières: il doit être basé dans l’hémisphère nord; il doit se réchauffer lorsque le taux de CO2 est faible; il doit être très puissant; et pourtant, il doit être intermittent – ne fonctionnant qu’une fois tous les 80 ou 100 millénaires. Il s’agit là d’un mécanisme de rétroaction très étrange.

Pouvons-nous donc trouver un mécanisme de rétroaction aussi particulier, fort et intermittent? Un mécanisme passé inaperçu dans la science du climat depuis des décennies?

Comme je l’explique en détail dans mon article sur le paléoclimat, la réponse est intrigante: il s’agit de la poussière. Oui, de modestes poussières tombant sur les calottes glaciaires et assombrissant leur surface – ou « réduisant leur albédo », dans le jargon scientifique. La neige fraîche sur les calottes polaires peut avoir un albédo très élevé, réfléchissant jusqu’à 90% de la lumière solaire entrante vers l’espace, ce qui peut avoir un effet de refroidissement régional considérable sur le climat. Cela explique le problème des périodes interglaciaires manquantes, car cette glace très réfléchissante peut rejeter une quantité d’insolation telle que certains cycles de Milankovitch n’ont aucun effet, comme le montre la figure 1.

Si un albédo élevé constitue un début prometteur dans cette quête, cette modeste poussière peut également expliquer toutes les autres particularités requises par notre nouvel agent de rétroaction hypothétique. La poussière est en effet originaire de l’hémisphère nord, puisqu’il a été établi que la poussière du Groenland provient du haut plateau de Gobi. La poussière peut avoir une très forte influence sur le réchauffement de la calotte glaciaire, en augmentant l’absorption de la lumière solaire jusqu’à 215 W/m^2, soit 50% de la lumière solaire moyenne totale disponible.

Enfin, les poussières trouvées dans les carottes de glace polaire sont effectivement intermittentes et ne se produisent que tous les 80 ou 100 millénaires, juste avant chaque période de réchauffement interglaciaire. Voir la corrélation spectaculaire entre la poussière et le CO2 dans la figure 2. N’oubliez pas que le CO2 est également proportionnel à la température, de sorte que la poussière présente également une bonne corrélation avec la température.

Fig. 2. Graphique du CO2 (bleu) par rapport à la poussière (vert). Notez la bonne corrélation entre le CO2 et la poussière (et donc entre la température et la poussière). Notez que le graphique des poussières est inversé et logarithmique. Source: Données de carottes de glace Epica3 2007.

Dans ce cas, nous avons peut-être découvert le véritable agent et mécanisme de rétroaction de la température à l’ère glaciaire: il s’agit de l’albédo de la couche de glace recouverte de poussière plutôt que du CO2. Cependant, pourquoi la poussière présenterait-elle cette étrange intermittence, pour n’arriver sous forme de vastes nuages de poussière que tous les 80 ou 100 millénaires? Et, je le rappelle aux lecteurs, juste avant chaque période de réchauffement interglaciaire.

Pour trouver la réponse à cette énigme climatique, nous devons regarder bien au-delà des contraintes étouffantes de la science climatique standard et nous rappeler que le CO2 est la nourriture des plantes, et donc le gaz le plus essentiel de l’atmosphère. Sans CO2, toute vie sur Terre disparaîtrait.

Mais en raison du refroidissement des océans pendant les périodes glaciaires, et donc de l’absorption du CO2 par les océans, les concentrations atmosphériques de CO2 sont réduites pendant la période glaciaire et finissent par atteindre 180 ppm. Ce niveau est dangereusement bas pour une grande partie de la flore mondiale, en particulier en altitude où les concentrations peuvent atteindre l’équivalent de 150 ppm à la surface. Or, 150 ppm se situe bien en deçà de la zone mortelle pour la plupart des plantes en C3. [NdT. pour info, « Les plantes en C3 … représentent encore aujourd’hui environ 95 % de la biomasse végétale. »; voir sur Wiki]

En raison de cette faible teneur en CO2, le plateau de Gobi, situé à haute altitude, se transforme en un désert de CO2. Il s’agit d’un nouveau type de désert causé par un manque de CO2 plutôt que par un manque de pluie – un phénomène qui passe largement inaperçu dans la science du climat. La poussière de surface de ce nouveau et vaste désert de sable en mouvement est emportée vers l’est par les vents dominants, formant le plateau de Loess poussiéreux en Chine et recouvrant de poussière les inlandsis laurentidien et eurasien. Et comme ces nouveaux déserts de CO2 sont causés par des océans froids au plus profond d’une période glaciaire, ces tempêtes de poussière, principalement dans l’hémisphère nord, ne peuvent se produire qu’au moment du maximum glaciaire.

En d’autres termes, ces tempêtes de poussière sont intermittentes et se produisent juste avant chaque période chaude interglaciaire. Et cette relation est causale, plutôt que coïncidente. C’est la poussière qui réduit l’albédo des calottes glaciaires, permettant ainsi une plus grande absorption de la lumière du soleil, ce qui entraîne la fonte des calottes glaciaires et le réchauffement interglaciaire. Nous nous trouvons actuellement dans une période chaude de ce type – l’interglaciaire de l’Holocène – et nous devrions connaître une nouvelle période glaciaire dans 500 à 1 000 ans. Bien que les cycles orbitaux initiateurs soient faibles à l’heure actuelle, en raison de la faible excentricité, il n’est pas certain que le cycle de refroidissement orbital actuel soit suffisamment puissant pour engendrer une véritable période glaciaire.

La réjouissante conclusion de cette étude est donc que pendant les périodes glaciaires, ce sont les faibles concentrations de CO2 dans l’atmosphère qui provoquent le réchauffement de la planète.

Fig. 3. Graphique récapitulatif de tous les facteurs qui jouent un rôle dans la modulation glaciaire.

  • Les calottes glaciaires (bleu clair et gris) s’étendent, forçant la température (rouge) à baisser.
  • Le CO2 (jaune) diminue avec la température (rouge), en raison de l’absorption océanique.
  • Lorsque le CO2 atteint 180 ppm, on assiste à l’apparition de déserts de CO2 et de tempêtes de poussière (violet).
  • Lorsque le cycle orbital suivant (onde sinusoïdale bleue) arrive, les couches de glace et de poussière peuvent fondre et la planète se réchauffe (pics rouges).

Une vaste cabale climatique financée depuis l’étranger, à l’emprise politique mortelle, est en train de détruire la République fédérale d’Allemagne dans une guerre à mort, et personne ne peut rien y faire – par eugyppius.

«La France ne le sait pas, mais nous sommes en guerre avec l’Amérique. Oui, une guerre permanente, une guerre vitale, une guerre économique, une guerre sans mort apparemment. Oui, ils sont très durs les Américains, ils sont voraces, ils veulent un pouvoir sans partage sur le monde. C’est une guerre inconnue, une guerre permanente, sans mort apparemment et pourtant une guerre à mort.»

François Mitterand

Tiens, tiens, une main américaine derrière le programme de suicide « vert » allemand. Le même pouvoir américain, qui voulait depuis longtemps découpler l’industrie allemande des sources d’énergie russes, et y a finalement réussi sous couvert de « sanctions » – et plus

C’est, comme je l’écris depuis avant le conflit Russie-Ukraine, une guerre contre l’Europe. Et comme l’expliquait Mitterand, une guerre à mort.

L’Allemagne est tombée. Ne comptez pas trop sur moi pour les plaindre. Ils paient enfin le prix de leurs amitiés et de leur mégalomanie.

Si elle ne sort pas vite de l’étau « européen » – donc, américain – La France sera la suivante.

Source.


Une vaste cabale climatique financée depuis l’étranger, à l’emprise politique mortelle, est en train de détruire la République fédérale d’Allemagne dans une guerre à mort, et personne ne peut rien y faire

Réflexions sur la catastrophe en cours de la politique énergétique allemande et sur ses causes

eugyppius

12 mai

La presse internationale maintient un silence quasi total sur l’escalade de démence dans laquelle est plongée l’Allemagne. Les médias qui célèbrent quotidiennement les progrès de l’Allemagne en matière de transition énergétique se gardent bien de vous dire que la puissance industrielle dominante de l’Europe est entrée dans une spirale politique et administrative profondément destructrice, dont elle ne se remettra sans doute jamais. La faute en incombe aux politiques énergétiques autodestructrices et inapplicables qui enserrent dans un étau mortel non seulement le gouvernement Scholz, mais aussi l’ensemble de l’État administratif. Après avoir finalisé la sortie du nucléaire en pleine crise énergétique et évité une catastrophe hivernale grâce au simple hasard d’un temps clément, nos gouvernants imposent maintenant des réformes dévastatrices à la loi sur l’énergie dans les bâtiments (Gebäudeenergiegesetz), [NdT. des mesures comparables se mettent progressivement en place dans l’Amérique maoïste, notamment dans l’État de New York] qui réglemente la consommation d’énergie dans les structures résidentielles et commerciales.

Tout ça peut paraître fade et ennuyeux, mais ce n’est pas le cas. Ce dernier tour de vis a pour objectif d’éliminer progressivement le chauffage traditionnel au gaz et au fioul, par l’obligation pour tous les nouveaux systèmes de chauffage installés après 2024 d’utiliser au moins 65% d’énergie renouvelable. Dans la plupart des cas, cet objectif ne peut être atteint qu’en installant des pompes à chaleur électriques. Les coûts de rénovation qui en résulteront seront catastrophiques, en particulier pour de nombreux bâtiments anciens, et, à moins d’une révision radicale, ces règles ne feront que bouleverser le marché du logement et détruire une grande partie de la richesse des particuliers. Par ailleurs, le réseau électrique ne pourra en aucun cas alimenter ces nouvelles sources de chaleur, que ce soit aujourd’hui ou à l’avenir.

Face à l’inquiétude croissante et à l’apparente futilité de toute opposition, même certains médias de l’establishment allemand ont commencé à exprimer leur malaise. Aujourd’hui, Der Spiegel (étonnant de la part de ce magazine) a publié un long article sur les origines, le financement et la montée en puissance de l' »Eco Network » actuellement aux manettes de la politique énergétique allemande, et je voudrais ici en parler plus en détail, parce qu’il est très révélateur de nombre de choses. Cela permettra de faire le lien entre de nombreux éléments et de montrer comment prennent naissance et se mettent en place des politiques mégalomanes dans les États gestionnaires modernes, et comment celles-ci sont imperméables et même opposées à l’opinion publique, y compris dans des systèmes prétendument démocratiques.

Le reportage du Spiegel examine de près la carrière de plusieurs personnages clés de la transition énergétique, dont le politicien vert Rainer Baake et le bras droit de Robert Habeck, Patrick Graichen, impliqué dans des scandales, qui est le cerveau politique à l’origine de la quasi totalité de la folie actuelle.

La montée en puissance des écologistes au sein du Ministère de l’Économie a commencé il y a une dizaine d’années. On a longtemps considéré que l’État devait imposer le moins de règles possible au secteur des entreprises… Selon cette logique, l’environnementalisme et la politique économique étaient considérés comme presque mutuellement exclusifs. Ce n’est qu’en 2013 que la domination des fonctionnaires partisans de l’économie de marché a commencé à s’effriter.

C’est à cette époque que Sigmar Gabriel, du SPD, est devenu Ministre de l’économie et a nommé un secrétaire d’État à l’énergie inhabituel1: Rainer Baake … Cette nomination a surpris, car Baake n’est pas un social-démocrate, mais un écologiste. … En tant que secrétaire d’État au Ministère de l’Environnement … Baake a contribué à orchestrer la première législation sur la sortie du nucléaire en Allemagne. …

En 2012, M. Baake a fondé Agora Energiewende, probablement le groupe de réflexion le plus influent du monde politique allemand en faveur d’une société neutre en carbone. Patrick Graichen était déjà à l’époque le protégé de Baake. …

À mesure que les fonctionnaires de la bureaucratie allemande favorables à l’industrie prenaient leur retraite, M. Baake confiait leurs postes à des technocrates verts dans la mesure du possible, de sorte que lorsque le contrôle du Ministère est passé aux mains de la CDU de centre-droit en 2018, le mal était déjà fait. La dynamique institutionnelle s’était déjà orientée vers le changement climatique et avait commencé à se renforcer sous sa propre impulsion. Le mot d’ordre du projet politique de M. Baake était l’instauration d’un prétendu « monde du tout électrique », dans lequel un réseau entièrement alimenté par des énergies renouvelables permettrait de faire rouler les voitures (véhicules électriques), de chauffer les bâtiments (pompes à chaleur) et même de faire tourner l’industrie (bien que les solutions soient beaucoup plus floues dans ce cas).

Durant son mandat de cinq ans en tant que secrétaire d’État, Baake nomma Graichen à la tête du groupe de réflexion Agora, qui s’est mis à publier des documents de stratégie politique, à parrainer des recherches scientifiques vertes et à rallier un nombre sans cesse croissant de partisans et de technocrates loyaux. Cela a porté ses fruits:

Chaque fois qu’il était question d’énergie et de climat à Berlin [dans les années qui ont suivi la démission de Baake du Ministère de l’Économie en 2018], le nom de Graichen revenait, brandissant souvent des termes compliqués dont seuls les experts comprennent le sens. Le « principe de l’ordre des mérites », par exemple, ou l' »effet de verrouillage ». L’homme aux cheveux roux et à la voix sonore savait mieux que quiconque naviguer dans ce monde de spécialistes. …

Cette capacité semble lui être venue naturellement. Sa mère travaillait au Ministère du Développement, son père pendant un certain temps au Ministère des Transports. Il s’était lui-même impliqué dans le domaine de l’environnement dès l’école, d’abord au sein de l’organisation de jeunesse BUND. En 1993, il entama des études à l’université de Heidelberg. En 1996, il rejoignit le parti des Verts. En 2001, il devint consultant pour la protection internationale du climat… et participa à l’élaboration du protocole de Kyoto.

Graichen est tout droit issu de l’establishment politique allemand, et sa génération est la première à avoir vu une pénétration significative des Verts vers le tournant du millénaire. Nous assistons à présent à l’aboutissement d’un activisme environnemental de longue haleine, qui remonte aux années 1970.

En 2020, Baake … a fondé la Fondation pour la Neutralité Climatique (Stiftung Klimaneutralität) et s’est mis à rédiger des études sur la transition énergétique. Dans leurs articles, Baake et Graichen couvrent presque tous les sujets liés au climat. Ils parlent de la restructuration de l’industrie, de l’expansion de l’énergie éolienne et de la transition du chauffage.

Leurs travaux ont été financés en arrière-plan par deux hommes: Bernhard Lorentz, qui, en tant que directeur de la Fondation Mercator, a contribué à la naissance du groupe de réflexion Agora. Et Hal Harvey, un lobbyiste américain qui a financé des organisations écologistes et climatiques dans le monde entier pendant près de trois décennies, aidé entre autres par les milliards philanthropiques de familles comme les Hewletts.

Ce n’est pas la première fois que l’on découvre d’improbables activistes et philanthropes américains à l’oeuvre derrière l’activisme climatique européen, et plus particulièrement allemand. Le Spiegel explique, non sans inquiétude, que « Harvey considère l’Europe comme la clé de voûte de la préparation d’un avenir climatiquement neutre » et que c’est la raison pour laquelle « il consacre des millions […] à soutenir des personnalités telles que Baake et Graichen ». Cet homme, qui n’apparaît pratiquement pas dans les médias anglophones et n’a même pas de page Wikipedia en anglais, a été baptisé par Die Zeit « l’homme politique vert le plus puissant du monde« .

M. Harvey s’appuie en particulier sur des groupes de réflexion pour élaborer ses politiques et soutenir des candidats politiques lorsqu’ils ne sont pas au pouvoir, et ses activités de lobbying, extrêmement bien financées, sont capables à elles seules de dominer le discours politique des petits pays, ce qui explique sans doute pourquoi il s’intéresse tant à l’Europe.

Les groupes de réflexion allemands tels qu’Agora … ou la Fondation pour la Neutralité Climatique … recrutent des chercheurs grâce aux millions donnés par leurs sponsors et consolident progressivement l’influence de leurs experts. Ils façonnent la perception de la protection de l’environnement et du climat par le monde politique et la société – et truffent leurs études de propositions juridiques qui promeuvent les solutions qu’ils privilégient. …

L’influence des organisations de soutien aux Verts est incontestable. Elles ont donné au parti un avantage considérable en matière de protection du climat. Et grâce à ces connaissances, l’attrait du parti en tant que solution à l’une des plus grandes crises de notre temps s’est accru. … Les autres partis ont longtemps négligé ce domaine.

Le terme « connaissances » n’est évidemment pas approprié. « Prescriptions politiques » serait beaucoup plus adéquat, et si Der Spiegel n’était pas aussi obnubilé par ses propres préconceptions idéologiques, il en parlerait avec plus de clarté. Il s’agit d’un processus en trois étapes. 1) Les activistes et les scientifiques approuvés par le régime identifient et expriment haut et fort les problèmes qui se profilent, puis 2) les groupes de réflexion rédigent des tonnes de solutions législatives et réglementaires pour y remédier. Tout cela se passe en grande partie en coulisses, jusqu’à ce que 3) les politiciens répondent à la demande suscitée par la branche militante, et n’ayant eux-mêmes aucune expertise ou compréhension réelle de quoi que ce soit, ils n’ont pas d’autre choix que d’adopter les propositions que des gens comme Graichen leur donnent à entendre.

Voici donc l’explication de l’idiotie obstinée de Robert Habeck depuis l’automne dernier. Dès que les Verts sont entrés au gouvernement, il a fait de Graichen son secrétaire d’État à l’Énergie, et c’est Graichen et l’armée de technocrates qu’il commande qui sont à l’origine de tous les désastres politiques survenus depuis lors. La réponse grotesque à la crise de l’énergie, qui a obligé ces personnes à agir au mépris de leurs principes et à acheter d’énormes quantités de charbon (en provenance de Russie, rien de moins); la sortie du nucléaire, bâclée mais néanmoins accomplie; et, enfin, les changements catastrophiques apportés à la Loi sur l’Énergie dans le Bâtiment, qui plongeront dans la misère des millions d’Allemands sans avoir la moindre incidence sur la température de la Terre.

Les échecs de Graichen lui ont valu de nombreux ennemis, ce qui explique notamment qu’il soit actuellement embourbé dans un scandale de népotisme. Pourtant, tous les gros titres à charge seront impuissants à changer quoi que ce soit à la folie qui nous guette, pour la simple raison qu’il n’y a pas d’autres politiques à mettre en œuvre ni d’autres solutions scientifiques ou technocratiques vers lesquelles se tourner. Graichen et ses riches bailleurs de fonds ont passé dix ans à alimenter tous les circuits politiques et intellectuels des problèmes et des solutions qui les intéressent.

C’est de cette manière que l’on parvient à mettre en place un programme depuis le sommet jusqu’à la base, et c’est un point essentiel qui différencie la farce Corona de la farce du changement climatique. Pendant de nombreuses années, la brigade climatique s’est efforcée de saturer le monde universitaire et la bureaucratie de ses idées et de ses partisans. Ils ont profité du changement de génération et des départs à la retraite pour positionner leur personnel, et ils ont attendu une élection pour amener les politiciens adéquats au pouvoir et boucler la boucle. Les pandémistes ont bien sûr suivi le même chemin, mais leurs solutions modérées et surtout intéressées ont été abandonnées au dernier moment au profit de mesures de confinement de masse beaucoup plus sévères et dangereuses. L’emballement pour cette réponse inédite n’était pas le résultat de décennies du travail de philanthropes illuminés et de groupes de réflexion, mais provenait de l’intérieur même de la bureaucratie. Cela a conféré au coup d’État Corona beaucoup plus de pouvoir sur le moment, mais en l’absence de soutien institutionnel ou idéologique plus large, les pires volets du régime de suppression du virus se sont effondrés tout aussi rapidement et sont aujourd’hui discrètement répudiés dans le monde entier.

Les fanatiques verts n’ont jamais manifesté un tel enthousiasme messianique, mais pour la même raison, ils seront beaucoup, beaucoup plus difficiles à déloger.

(1): Les Staatssekretäre, ou secrétaires d’État, sont les fonctionnaires les plus haut placés dans les ministères fédéraux allemands et dépendent directement de leurs ministres respectifs. C’est là que le bras politique et l’establishment bureaucratique se chevauchent.

Les énergies renouvelables ne sont pas durables – par David Turver.

Un article invité, de haute qualité, d’un auteur anglais. Il en a également écrit un qui fait éclater la bulle de l’hydrogène et mériterait d’être traduit – j’y pense. Vous aurez compris que je ne relaie pas celui-ci pour faire la promotion du nucléaire, quoique tout ce qui est dit ici est exact, mais pour démonter l’arnaque du renouvelable tel qu’on veut nous le vendre.

Vous lirez que l’auteur utilise ici comme critère de comparaison les émissions de CO2. Je ne pense pas qu’il soit dupe de la fable du changement climatique anthropocentrique mais qu’il s’en sert pour prendre les promoteurs d’éolien/solaire à leur propre piège. C’est également ma méthode pour contrer l’installation, proche de mon village, d’éoliennes dont personne ne veut.

Note: je n’ai pas traduit le texte (pas très difficile) qui figure sur les tableaux mais je le ferai sur demande.

Source.


Les énergies renouvelables ne sont pas durables

L’écoblanchiment permanent ne suffit pas à cacher que l’éolien et le solaire sont des sources d’énergie médiocres et néfastes pour l’environnement

David Turver

19 mars 2023

Résumé

Le gouvernement et l’opposition veulent tous deux que nous décarbonisions notre système électrique et que nous dépensions encore davantage de milliards dans les technologies éoliennes et solaires renouvelables. Ils le justifient en invoquant leurs basses émissions de CO2, même s’il a été démontré que leur coût prétendument faible n’était qu’un fantasme.

Cependant, le CO2 n’est pas le seul critère à l’aune duquel on devrait mesurer la durabilité ou l’opportunité des technologies énergétiques. Il convient également d’examiner le retour sur investissement de l’énergie, l’utilisation des terres, les besoins en minéraux et la mortalité globale.

L’énergie éolienne et l’énergie solaire obtiennent de mauvais résultats en ce qui concerne le rendement énergétique, l’utilisation des terres et les besoins en minerais

Cette analyse montre que le rendement énergétique de l’énergie investie dans l’éolien, le solaire et la biomasse est inférieur à celui nécessaire au fonctionnement d’une économie moderne [voir également la mise à jour ci-dessous]. En effet, la bioénergie avec capture [et stockage] du carbone (BECSC) constitue probablement un gouffre énergétique net. Si nous ne pouvons même pas maintenir, et encore moins augmenter, le niveau de vie grâce à ces technologies, nous condamnons nos enfants à un avenir de privations. Cela seul est une raison suffisante pour mettre fin aux subventions et aux investissements dans ces technologies. L’éolien et le solaire sont également très gourmands quant à l’utilisation des terres (jusqu’à 300 fois plus que le nucléaire), terres qui pourraient être utilisées pour cultiver des plantes ou faire paître des animaux destinés à l’alimentation. La biomasse nécessite l’abattage de milliers d’hectares d’arbres pour alimenter des centrales électriques inefficaces, tout en prétendant qu’elles n’émettent pas de CO2.

L’énergie éolienne et solaire engloutit également 10 à 20 fois plus de minéraux essentiels que les autres technologies, ce qui a des répercussions sur le nombre de mines nécessaires dans le monde. En outre, l’éolien et le solaire sont des sources intermittentes qui nécessitent un soutien soit par des combustibles fossiles, soit par des batteries. Elles n’obtiennent de bons résultats que sur le plan de la mortalité.

Il est temps de conclure que les énergies renouvelables éoliennes, solaires et de biomasse ne sont pas vertes, qu’elles ne sont pas durables et qu’elles sont incapables de soutenir une économie moderne. L’hydroélectricité obtient de bons résultats, mais son utilité est limitée par la géographie. La seule source de production d’électricité à faible teneur en carbone, évolutive, durable et répartissable est le nucléaire.

Introduction

Le gouvernement et l’opposition continuent de polir leur réputation en matière d’environnement en faisant des déclarations de plus en plus farfelues sur la décarbonisation du système électrique. Le gouvernement s’est fixé comme objectif de réaliser cette ambition d’ici 2035 en investissant massivement dans les énergies renouvelables. Le gouvernement veut que le Royaume-Uni devienne l’Arabie saoudite de l’énergie éolienne. Le Parti Travailliste, dans l’opposition, s’est lancé dans la course aux énergies renouvelables en s’engageant à mettre fin à l’utilisation des combustibles fossiles dans le système électrique d’ici 2030 et à faire de notre pays une superpuissance de l’énergie propre. Cependant, son porte-parole Jon Ashworth n’a pas été en mesure de répondre à la question de savoir d’où viendrait l’électricité si le vent ne soufflait pas ou si le soleil ne brillait pas (à partir de 28:20).

Il est temps de se pencher sur les principales technologies renouvelables afin de déterminer dans quelle mesure elles sont réellement respectueuses de l’environnement. Ces technologies sont acclamées parce qu’elles émettent prétendument peu de CO2 pour produire de l’électricité. Cependant, le CO2 n’est pas le seul critère à l’aune duquel nous devrions mesurer le respect de l’environnement ou la durabilité des sources d’énergie. Selon Wikipedia, « l’énergie est durable si elle répond aux besoins du présent sans compromettre la capacité des générations futures à répondre à leurs propres besoins ». Nous devrions donc prendre en compte pour ces technologies d’autres facteurs tels que le retour sur investissement de l’énergie, l’utilisation des terres, les minéraux nécessaires et la mortalité.

Émissions de gaz à effet de serre par source d’énergie

Commençons par l’indicateur le plus souvent utilisé pour déterminer le caractère écologique d’une source d’énergie donnée. Les mesures varient, certaines ne prennent en compte que le CO2, d’autres d’autres gaz à effet de serre (GES) et, bien sûr, les méthodologies varient. Cependant, toutes les méthodologies donnent une image globalement similaire. Pour les besoins de cet article, j’ai choisi la CEE-ONU comme source (p73) et j’ai pris leurs chiffres médians pour les technologies représentatives (voir figure 1).

Figure 1 – Émissions de GES par source d’énergie (gCO2e par kWh)

Comme on pouvait s’y attendre, le charbon arrive en tête avec 903 gCO2e/kWh et le gaz naturel avec 449 gCO2e/kWh. L’énergie solaire, l’énergie hydraulique, l’énergie nucléaire et l’énergie éolienne ont des émissions 10, 20 ou près de 40 fois inférieures à celles du gaz naturel. La CEE-ONU ne couvre pas la biomasse dans son analyse. La biomasse, en particulier sous la forme de la combustion d’arbres à la centrale électrique de Drax, mérite une attention particulière.

Biomasse – Brûler des arbres à Drax n’est pas vert

Au Royaume-Uni, le plus gros producteur de biomasse est la centrale électrique de Drax, près de Selby. La biomasse est le terme euphémique utilisé pour décrire le fait de brûler des arbres pour produire de l’électricité. Des millions de tonnes d’arbres sont abattus en Amérique du Nord, dépulpés, séchés (ce qui nécessite de l’énergie) et expédiés sur des navires utilisant des combustibles fossiles jusqu’au Royaume-Uni où ils sont brûlés dans la centrale électrique de Drax. En 2022, Drax a produit 3,9 millions de tonnes de pellets de bois. Selon le rapport annuel de Drax, la centrale a reçu en 2021 un total de 893 millions de livres sterling de subventions, dont 658 millions de livres sterling de certificats d’obligation renouvelable provenant de la production (note 3.3) et 235 millions de livres sterling de paiements CfD (note 2.2) [NdT. Le système des contrats pour la différence (« Contracts for Difference » ou CfD) est le principal mécanisme mis en place par le gouvernement pour soutenir la production d’électricité à faible émission de carbone] pour brûler les pellets de bois. Sans ces subventions, elles auraient enregistré des pertes massives.

Le problème est que les pellets de bois ont une densité énergétique inférieure à celle du charbon. La densité énergétique du bois est d’environ 16 MJ/kg et celle du charbon utilisé pour la production d’électricité de 17 à 24 MJ/kg. Cela signifie que les granulés de bois produisent plus de CO2 par MWh d’électricité que la combustion du charbon. Drax a également été critiquée pour la quantité de particules nocives émises par sa centrale.

Bien que Drax soit le plus gros émetteur de CO2 du pays, on permet à cette entreprise d’appeler cette énergie « verte » en prétendant que le CO2 émis par la combustion des arbres n’existe pas. La figure 2 ci-dessous présente un extrait de son rapport annuel sur les émissions de carbone.

Figure 2 – Émissions de dioxyde de carbone de la biomasse de Drax

Comme on peut le voir, en 2021, ils affirment que leurs émissions de production n’étaient « que » de 525ktCO2 en 2021. Cependant, les 13 415ktCO2e de « carbone biologiquement séquestré » ne sont pas inclus dans le calcul des émissions du groupe par GWh d’électricité produite. Si c’était le cas, les émissions seraient multipliées par plus de 10, passant de 78 tCO2e/GWh à plus de 900 tCO2e/GWh, soit un niveau similaire à celui des centrales au charbon.

Ils se targuent d’être verts, car ils partent du principe que les arbres qu’ils ont brûlés repousseront, séquestrant ainsi le CO2 émis. Cependant, cela prendra environ 50 ans, c’est-à-dire la période pendant laquelle nous sommes censés nous préoccuper le plus des émissions de CO2.

Il est difficile de comprendre comment le fait de couper à blanc des milliers d’hectares de forêt, de les brûler pour produire plus de CO2 et de particules que la combustion du charbon peut être considéré comme vert ou comme étant de quelque manière que ce soit durable ou respectueux de l’environnement.

Rendement énergétique de l’énergie investie (EROEI) par source d’énergie

Comparons maintenant le rendement énergétique de l’énergie investie (EROEI, parfois simplement EROI) [NdT. EROEI, «Energy Returned On Energy Invested», ou EROI, «Energy Return On Investment» – taux de retour énergétique] pour une série de technologies différentes. Cette mesure compare la quantité d’énergie nécessaire pour extraire les minéraux, construire les centrales électriques, produire le combustible, etc. à la quantité d’énergie utile restituée. En bref, il s’agit du rapport entre l’énergie produite et l’énergie consommée. Plusieurs tentatives ont été faites pour comparer l’EROEI de différentes technologies. La référence semble être cet article de Weissbach datant de 2013, auquel la plupart des autres études, y compris Wikipedia, se réfèrent. L’Association Nucléaire Mondiale cite Weissbach et une série d’autres sources dans ses travaux sur le sujet. La figure 3 présente les résultats sous forme de graphique (crédit Energy Transition).

Figure 3 – Comparaison de l’EROI par source d’énergie

Les barres bleues montrent le calcul « brut » de l’EROI. Les barres jaunes tiennent compte de l’intermittence des énergies renouvelables telles que le vent et le soleil, en tenant compte du fait qu’une certaine forme de stockage ou de tampon sera nécessaire pour maintenir la stabilité du réseau, ce qui nécessitera davantage d’énergie.

[Mise à jour: depuis que j’ai rédigé cet article, je suis tombé sur ce document qui montre que les systèmes photovoltaïques aux latitudes allemandes et suisses ont un EROEI de 0,82 ou, comme ils le décrivent, sont « un gouffre d’énergie non durable »].

Comme on peut le voir, le nucléaire et l’hydroélectricité arrivent en tête avec un EROI de 75 et 35 (tamponné) respectivement. Le gaz et le charbon s’en sortent bien avec des valeurs similaires de 28 à 30. L’énergie solaire concentrée dans le désert, avec un EROI tamponné de 9, permet tout juste de dépasser le seuil économique. En revanche, la biomasse de maïs et l’énergie éolienne et solaire tamponnée se situent bien en deçà de ce seuil avec des EROI de 3,5, 3,9 et 1,6 respectivement.

Le seuil économique reflète le fait que la société moderne ne peut se permettre de consacrer qu’une certaine quantité d’efforts et d’argent à la production d’énergie. Weissbach conclut que pour maintenir nos modes de vie, nous avons besoin de sources d’énergie qui rapportent au moins 7 fois plus que l’énergie investie dans la création de la source. Même ce chiffre représente une réduction substantielle par rapport à la situation actuelle.

Euan Mears résume parfaitement cette situation en parlant d’une Falaise Énergétique Nette (voir figure 4).

Figure 4 – La Falaise Énergétique Nette lorsque l’EROI devient trop faible

En résumé, la société a besoin pour fonctionner d’une énergie fiable à haute densité dont l’EROI doit être supérieur à 7. Une société moderne ne peut pas fonctionner au gré des vicissitudes météorologiques. Cela exclut l’énergie solaire photovoltaïque aux latitudes allemandes et plus élevées, la biomasse à base de maïs et l’énergie éolienne. Même l’énergie solaire à concentration (ESC) est proche de la limite si l’on tient compte de l’effet tampon.

La Royal Society of Chemistry a effectué une analyse de l’EROI de la biomasse et en particulier de l’EROI de la bioénergie avec captage et stockage du carbone (BECSC). Elle aboutit à une fourchette de <2 pour les granulés de biomasse nord-américains utilisés pour produire de l’électricité. Ce chiffre est inférieur à celui de l’analyse de Weissbach. Cependant, ils estiment que la BECSC pourrait avoir un EROI inférieur à 1 et constituer une menace pour la sécurité énergétique (voir la figure 5).

Figure 5 – Royal Society of Chemistry – Les pellets de bois de Louisiane et la BECSC sont un gouffre d’énergie net)

En d’autres termes, la BECSC pourrait représenter un gouffre énergétique net, en particulier lorsqu’elle repose sur l’importation de pellets de Louisiane, aux États-Unis. Elle se situe non seulement au bas de la falaise énergétique, mais carrément sous terre. Il va sans dire que Drax, qui possède des forêts dans le Mississippi, en Louisiane et au Canada, vante les mérites de cette technologie comme moyen de parvenir à des émissions de CO2 négatives. Le gouvernement britannique a lancé une consultation sur la meilleure façon de subventionner la BECSC. Il s’agit d’une proposition visant à subventionner l’abattage d’encore plus d’arbres et à consommer plus d’énergie que l’énergie utile produite au cours du processus. C’est de la pure folie.

Besoins en terres par source d’énergie

L’utilisation des terres, ou la quantité d’énergie produite par mètre carré de terre nécessaire, est une mesure dont il importe de tenir compte. En tant qu’espèce, nous avons besoin de terres pour produire la nourriture nécessaire à la survie de la population. Nous avons également besoin de terres pour nos loisirs et pour profiter de la nature. Plus globalement, d’autres espèces ont besoin de terres pour vivre et chasser pour se nourrir. Plus nous prenons de terres pour notre production d’énergie, plus nous risquons d’avoir un effet négatif sur l’ensemble de l’écosystème.

Our World in Data a produit un tableau utile utilisant les données de la CEE-ONU (2021) pour comparer l’utilisation des terres pour les principales sources d’énergie (voir figure 6), à l’exclusion de la biomasse.

Figure 6 – Our World in Data – Occupation des sols par source d’énergie en m2 par MWh

Dans leur analyse, les petites centrales hydroélectriques sont les plus mal placées en raison de l’énorme quantité de terres occupées par les réservoirs nécessaires pour faire fonctionner les turbines. Les centrales solaires à concentration viennent ensuite, suivies par le charbon avec capture du carbone. Le charbon est mal classé en raison des dégâts causés aux terres par les mines à ciel ouvert et de l’espace supplémentaire nécessaire pour capturer le CO2 émis. L’utilisation des sols par l’énergie solaire photovoltaïque varie considérablement selon qu’elle est installée sur le sol à l’échelle du réseau ou sur les toits à plus petite échelle. L’énergie solaire photovoltaïque à l’échelle du réseau consomme beaucoup d’espace (19 m2/MWh), mais les installations à petite échelle sur les toits sont très compétitives. L’énergie éolienne varie également en fonction de la façon dont l’espace entre les turbines est traité et selon qu’il s’agit d’une éolienne onshore ou offshore. Si l’on suppose que l’espace entre les turbines est utilisable, l’énergie éolienne est très compétitive, sinon elle ne l’est pas. L’éolien en mer est plus complexe, en fonction de la manière dont l’espace entre les turbines est traité. Certains pays comme la Belgique et l’Allemagne traitent les parcs éoliens offshore comme des zones d’exclusion, tandis que d’autres pays comme le Royaume-Uni et le Danemark sont plus indulgents. Pour les besoins de l’analyse, j’ai utilisé la médiane de 99m2/MWh dans le graphique ci-dessus, car l’utilisation de la terre ou de la mer autour des parcs éoliens est assurément restreinte. L’énergie nucléaire et les centrales au gaz sont invariablement de bons élèves avec des scores de 0,3-1,0m2/MWh, soit une utilisation des sols de 19 à 300 fois inférieure à celle de l’énergie solaire ou éolienne.

L’analyse de Our World in Data n’inclut pas la biomasse. Cependant, Freeing Energy a réalisé une analyse (voir figure 7) qui inclut la biomasse.

Figure 7 – Freeing Energy – Comparaison de l’utilisation des terres pour la biomasse en acres par GWh et par an

Ils utilisent une méthodologie et des unités différentes. Ils obtiennent 3 acres/GWh pour l’énergie solaire et 0,06 acres/GWh pour l’énergie nucléaire. Cela donne 12m2/MWh pour le solaire et 0,24m2/MWh pour le nucléaire. Ces deux chiffres sont légèrement inférieurs à ceux de Our World in Data pour le nucléaire et les installations photovoltaïques au sol en silicium, mais ils se situent dans une fourchette similaire. La conversion de leurs 188 acres/GWh pour la biomasse donne un résultat de 760m2/MWh, ce qui est près d’un ordre de grandeur supérieur à la valeur médiane pour l’éolien. Ainsi, malgré les différences de méthodologie, nous pouvons affirmer sans risque de nous tromper que la biomasse est très mal placée dans les calculs d’utilisation des terres, en raison des milliers d’hectares d’arbres qui doivent être abattus.

Intensité minérale par source d’énergie

L’intensité minérale est un autre indicateur clé permettant de mesurer les différentes sources d’énergie. Plus la quantité de minéraux nécessaires est importante, plus l’impact sur l’environnement est grand, car il faut excaver davantage de terre pour extraire les minéraux requis. Il existe plusieurs façons d’envisager cette question. La première concerne les matières critiques telles que le cuivre, le cobalt, le nickel et les terres rares. La seconde concerne les matériaux en vrac tels que le béton, l’acier et l’aluminium.

Minéraux critiques par source d’énergie

L’Association Internationale de l’Énergie (AIE) a réalisé un travail important sur les matériaux critiques, comme le montre la figure 8, mise à jour en octobre 2022.

Figure 8 – AIE – Besoins en matériaux critiques en kg par MW de capacité nominale

Cela montre que l’éolien et le solaire ont des besoins en minéraux critiques beaucoup plus importants que le nucléaire, le charbon ou le gaz naturel. Cependant, le défaut de cette analyse est qu’elle ne tient compte que des besoins en matériaux par MW de capacité nominale. Elle ne tient pas compte du facteur de charge ni de la durée de vie de la centrale. L’Association Nucléaire Mondiale a réanalysé les données de l’AIE pour les présenter sous forme de tonnes de minéraux critiques par TWh d’électricité produite, comme le montre la figure 9.

Figure 9 – Besoins en minéraux critiques par technologie de production en tonnes par TWh

Le résultat est similaire, mais l’écart entre l’éolien et le solaire et le reste est beaucoup plus important car la durée de vie des installations et le facteur de charge de l’éolien et du solaire sont généralement beaucoup plus faibles que ceux du nucléaire, du charbon ou du gaz. En tonnes par TWh, l’éolien (200t/TWh) et le solaire (124t/TWh) nécessitent au moins un ordre de grandeur de minéraux critiques de plus que le nucléaire (12t/TWh). Le charbon (7t/TWh) et le gaz (8t/TWh) font encore mieux que le nucléaire à cet égard. L’hydroélectricité n’est pas incluse dans l’analyse de l’AIE ni dans celle de l’ANM, mais Glex a néanmoins estimé qu’elle consomme 6,4 t/kWh.

Utilisation de matériaux bruts par source d’énergie

Bright New World a étudié l’utilisation des matériaux bruts par source d’énergie et les résultats sont présentés dans la figure 10 ci-dessous. Pour les besoins de cette analyse, j’ai exclu le cuivre car il est inclus dans l’analyse des minéraux critiques ci-dessus.

Figure 10 – Utilisation de matériaux bruts par source d’énergie en tonnes par TWh

Selon cette mesure, l’hydroélectricité est une valeur marginale en raison de tout le béton nécessaire à la construction des barrages. Cependant, l’éolien et le solaire ne font pas bonne figure par rapport au nucléaire, au charbon ou au gaz. L’éolien consomme 5 931 tonnes de matériaux bruts par TWh et le solaire 2 441, soit beaucoup plus que le charbon, le gaz ou le nucléaire. La durée de vie de 30 ans supposée pour l’éolien et le solaire est probablement en deçà des performances réelles, mais la durée de vie de 60 ans supposée pour le gaz et le charbon est probablement trop élevée aussi.

Mortalité par source d’énergie

Il serait négligent de ne pas examiner la mortalité humaine due aux différentes sources d’énergie. Heureusement, Glex s’est penché sur la question et un résumé de ses conclusions est présenté dans la figure 11.

Figure 11 – Décès par rapport aux émissions par source d’énergie (Glex)

Le nucléaire, l’éolien et le solaire sont de loin les sources d’énergie les plus sûres, avec des moyennes de décès par TWh de 0,04, 0,1 et 0,23 respectivement. L’hydroélectricité fait un peu moins bien avec 0,71 décès par TWh. Le gaz naturel arrive à 3,4 et la biomasse à 14,3 décès par TWh. Le charbon est de loin le combustible le plus meurtrier avec 64,4 décès par TWh d’électricité produite.

Impact des améliorations de l’efficacité des énergies renouvelables

Les partisans des énergies renouvelables s’empressent toujours de souligner que l’efficacité des énergies renouvelables s’améliore constamment et que, par conséquent, toutes les analyses ci-dessus sont dépassées. Ils agissent ainsi pour tenter de présenter les énergies renouvelables sous un meilleur jour. Analysons cela un peu plus en détail.

Prenons tout d’abord la biomasse. La culture et la combustion d’arbres pour produire de l’énergie utilisent des processus matures qui ont été développés au cours de nombreuses décennies. Il y a sans aucun doute des améliorations progressives à apporter à l’efficacité des chaudières et des turbines, mais elles ne produiront pas une différence significative en termes d’utilisation des sols ou d’émissions de CO2.

Deuxièmement, examinons l’énergie éolienne. On a beaucoup parlé de l’amélioration des facteurs de charge par l’utilisation de turbines plus grandes et le gouvernement a supposé des augmentations significatives des facteurs de charge dans ses estimations des coûts futurs de l’énergie éolienne. Cependant, les chiffres du gouvernement (tableau ET6.1) sur les facteurs de charge effectivement atteints ne montrent qu’une légère augmentation de l’éolien en mer, qui reste inférieure aux niveaux prévus, et une diminution réelle des facteurs de charge de l’éolien terrestre (voir figure 12). Ces améliorations n’auront pas d’impact significatif sur l’EROEI, l’utilisation des sols ou l’utilisation des ressources minérales.

Figure 12 – Facteurs de charge des parcs éoliens offshore et terrestres au Royaume-Uni 2011-2021

Venons-en maintenant à l’énergie solaire. Il est vrai que l’efficacité des panneaux solaires a augmenté au fil du temps et que les calculs EROI de Weissbach ont été effectués il y a une dizaine d’années. On pourrait s’attendre à ce que la mesure EROEI se soit améliorée depuis 2013. Cependant, Lafayette a compilé un graphique (voir Figure 13) à partir des données du NREL qui montre que les améliorations de l’efficacité des modules photovoltaïques en silicium cristallin n’ont pas été particulièrement importantes depuis 2010, et semblent proches d’un plafonnement.

Figure 13 – Efficacité des systèmes photovoltaïques au fil du temps (Lafayette)

Une amélioration d’un ordre de grandeur ou d’un facteur 10 serait nécessaire pour aligner l’utilisation des matériaux critiques sur les autres technologies. Les rendements de l’énergie solaire photovoltaïque tamponnée devraient être multipliés par 5 pour dépasser le seuil économique de l’EROEI.

En outre, comme le montre la figure 14, tirée de Mining Intelligence, la teneur de nouvelles exploitation de matériaux critiques tels que le cuivre est en baisse.

Figure 14 – Diminution de la teneur des gisements de cuivre (Mining Intelligence)

À mesure que les teneurs en minerai diminuent, l’énergie nécessaire pour extraire le matériau requis augmente de manière exponentielle (voir figure 15), comme l’explique cet article de Calvo et Mudd.

Figure 15 – La consommation d’énergie augmente de façon exponentielle en fonction de la diminution de la teneur (Calvo et Mudd)

Cela aura pour effet d’aggraver considérablement les calculs de l’EROEI et de l’utilisation des sols (davantage de mines nécessaires) pour les technologies à forte intensité de matériaux telles que l’éolien et le solaire.

Qu’en est-il des déchets?

Comme le montre la figure 16 (crédit pour les images utilisées ici, ici et ici), chaque source d’énergie pose un problème de déchets.

Figure 16 – Déchets provenant de différentes sources d’énergie

La source d’énergie la plus souvent critiquée pour son problème de déchets est le nucléaire. Il convient toutefois de relativiser ce problème. Par exemple, tous les assemblages de combustible nucléaire usé jamais produits aux États-Unis, conditionnés dans des châteaux secs en béton, pourraient être empilés sur 135 mètres de haut et stockés sur une surface équivalente à celle d’un terrain de football américain. Les déchets nucléaires constituent donc un problème, mais pas un problème insurmontable. Le stockage en couches géologiques profondes est également une option, la Finlande montrant la voie avec son dépôt géologique profond d’Onkalo.

En outre, le combustible nucléaire usé contient encore environ 90% de matières utilisables. Il peut être retraité et réutilisé dans des réacteurs nucléaires sous forme de combustible MOX, ce qui permet de fermer le cycle du combustible. C’est ce que fait actuellement la France et la quantité beaucoup plus faible de déchets résiduels est vitrifiée dans du verre borosilicaté. Les réacteurs surgénérateurs constituent une autre option pour boucler le cycle du combustible et les déchets restants sont beaucoup moins dangereux.

En revanche, le charbon produit des cendres toxiques qui sont souvent mises en décharge. Il n’est pas rentable de recycler la plupart des panneaux solaires actuels et ils finissent également dans les décharges bien qu’ils contiennent des matériaux toxiques tels que le plomb et le cadmium. Les éoliennes contiennent du chrome et la plupart des pales sont fabriquées à partir de matériaux composites qui ne sont pas recyclables et qui finissent également dans les décharges. Toutefois, Siemens Gamesa et Vestas travaillent sur des pales recyclables qui pourraient atténuer ce problème.

Conclusion: Les énergies renouvelables ne sont ni vertes ni durables

Si l’on limite l’évaluation aux seules émissions de CO2 ou, plus généralement, de GES, les énergies renouvelables (hydroélectricité, énergie éolienne et énergie solaire) obtiennent de bons résultats par rapport à toutes les autres sources d’énergie. Cependant, la biomasse n’obtient de bons résultats que si l’on ignore les émissions réelles de la combustion du bois, ce qui semble pervers, d’autant plus que des particules nocives accompagnent le CO2.

Cependant, nous devons considérer des mesures plus larges lorsque nous évaluons la durabilité et les références vertes des technologies de production. Les résultats de l’analyse ci-dessus sont résumés dans la figure 17 ci-dessous. La biomasse, l’énergie éolienne et l’énergie solaire obtiennent de très mauvais résultats par rapport aux autres technologies.

Figure 17 – Résumé de l’empreinte environnementale par source de production d’électricité

En ce qui concerne le rendement énergétique de l’énergie investie, l’énergie éolienne et l’énergie solaire se situent en dessous du seuil économique lorsque l’on tient compte de la nécessité d’un tampon pour faire face à leur intermittence inhérente. La biomasse se situe également en dessous du seuil économique et, si les propositions de la BECSC sont mises en œuvre, elle deviendra en fait un gouffre énergétique net. Pour cette seule raison, l’éolien, le solaire et la biomasse ne devraient plus bénéficier de subventions ou de développement.

L’éolien et le solaire nécessitent 10 à 300 fois plus d’espace que le nucléaire ou le gaz et plus que l’hydroélectricité. Ils nécessitent également 10 à 20 fois plus de minéraux critiques par unité d’électricité que toutes les autres sources de production d’électricité et plusieurs fois plus de matériaux bruts que toutes les autres sources, à l’exception de l’hydroélectricité.

L’hydroélectricité, l’énergie éolienne et l’énergie solaire affichent de très bons résultats en matière de mortalité, mais pas autant que l’énergie nucléaire. La biomasse obtient de moins bons résultats que le gaz, mais c’est le charbon qui est le plus meurtrier.

L’amélioration de l’efficacité des éoliennes et des panneaux solaires ne suffira pas à combler ces énormes écarts de performance, et elle ne résoudra jamais le problème fondamental de l’intermittence. Le soleil se lèvera toujours le matin et se couchera toujours le soir. Le vent continuera à se lever et à se coucher de manière imprévisible.

L’hydroélectricité est performante dans tous les domaines, à l’exception des matériaux bruts. Cependant, l’hydroélectricité est limitée par la géographie, et il semble donc peu probable qu’elle joue un rôle clé dans la satisfaction de nos besoins énergétiques futurs. La seule technologie capable de fournir une énergie fiable, évolutive et durable avec une faible empreinte carbone est le nucléaire.

L’inconvénient du nucléaire, ce sont les déchets. Cependant, la plupart des sources d’énergie ont un problème de déchets. Dans le cas du nucléaire, ce problème est important, mais il peut être géré grâce au stockage en fûts, au stockage en couches géologiques profondes et au recyclage du combustible.

Solutions artificielles.

Commençons par lire la traduction de cet appel.

Il faut interrompre les expériences géantes en matière d’IA: Lettre ouverte

Nous demandons à tous les laboratoires d’IA d’interrompre immédiatement, pour une durée d’au moins six mois, la formation de systèmes d’IA plus puissants que le GPT-4

Les systèmes d’IA dotés d’une intelligence rivalisant avec celle de l’homme représentent des risques profonds pour la société et l’humanité, comme le montrent des recherches avancées[1] et comme le reconnaissent les principaux laboratoires d’IA[2]. Comme l’indiquent les principes d’Asilomar sur l’IA, universellement reconnus, l’IA avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre, et devrait être planifiée et gérée avec le soin et les ressources nécessaires. Malheureusement, ce niveau de planification et de gestion est absente, alors que les laboratoires d’IA se sont lancés ces derniers mois dans une course incontrôlée pour développer et déployer des intelligences numériques de plus en plus puissantes que personne – pas même leurs créateurs – ne parvient à comprendre, à prédire ou à contrôler de manière fiable.

Les systèmes d’IA contemporains rivalisent à présent avec les humains dans la réalisation de tâches courantes[3], et nous devons nous poser la question suivante: allons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges? Allons-nous automatiser tous les emplois, y compris ceux qui sont valorisants? Allons-nous développer des esprits non humains qui pourraient un jour nous surpasser en nombre, en intelligence, nous rendre obsolètes et nous remplacer? Allons-nous prendre le risque de perdre le contrôle de notre civilisation? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Nous ne devrions développer des systèmes d’IA performants que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être solidement justifiée et elle doit être proportionnelle à l’ampleur des effets potentiels d’un système. La récente déclaration de l’OpenAI concernant l’intelligence artificielle générale indique qu' »à un moment donné, il pourrait être important de faire appel à des experts indépendants avant de commencer à former les futurs systèmes, et pour les travaux les plus avancés, d’accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles ». Nous sommes d’accord. C’est maintenant qu’il faut agir.

C’est pourquoi nous demandons à tous les laboratoires d’IA d’interrompre immédiatement, pendant au moins six mois, la formation de systèmes d’IA plus puissants que le GPT-4. Cette pause devrait être visible et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements doivent intervenir et instaurer un moratoire.

Les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour élaborer et mettre en œuvre conjointement un ensemble de protocoles de sécurité communs pour la conception et le développement de l’IA avancée, rigoureusement contrôlés et supervisés par des experts externes indépendants. Ces protocoles devraient garantir la sûreté des systèmes qui y adhèrent au-delà de tout doute raisonnable[4], ce qui ne signifie pas une pause dans le développement de l’IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîte noire de plus en plus grands et imprévisibles, dotés de capacités émergentes.

La recherche et le développement dans le domaine de l’IA devraient être recentrés sur l’amélioration de la précision, de la sécurité, de l’interprétabilité, de la transparence, de la robustesse, de l’alignement, de la fiabilité et de la loyauté des systèmes puissants et à la pointe de la technologie d’aujourd’hui.

Parallèlement, les développeurs d’IA doivent collaborer avec les décideurs politiques pour accélérer considérablement le développement de systèmes robustes de gouvernance de l’IA. Ceux-ci devraient au minimum comprendre: de nouvelles autorités réglementaires compétentes dédiées à l’IA; la surveillance et le suivi des systèmes d’IA hautement performants et des grands pools de capacité de calcul; des systèmes de traçabilité et de filigrane pour aider à distinguer le réel du synthétique et à repérer les fuites de modèles; un écosystème robuste d’audit et de certification; un régime de responsabilité pour les dommages causés par l’IA; un financement public robuste pour la recherche technique sur la sécurité de l’IA; et des institutions dotées de ressources suffisantes pour faire face aux perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera.

L’humanité pourrait connaître un avenir florissant grâce à l’IA. Après être parvenus à créer des systèmes d’IA puissants, nous pouvons maintenant profiter d’un « été de l’IA » au cours duquel nous récolterons les fruits de nos efforts, nous concevrons ces systèmes pour le plus grand bénéfice de tous et nous donnerons à la société une chance de s’adapter. La société a mis en pause d’autres technologies aux effets potentiellement catastrophiques pour elle[5], et nous pouvons faire de même ici. Profitons d’un long été de l’IA et ne nous précipitons pas sans préparation vers l’automne.

C’est signé par un collectif de 1 300 professionnels, enseignants et experts dans le domaine. Après ces trois dernières années, voir des « parties prenantes » d’une nouvelle technologie émettre des soucis en matière d’éthique a de quoi surprendre, d’autant qu’on trouve dans la liste des signataires des personnages tels que Elon Musk, dont le projet Neurolink est de connecter votre cerveau au réseau – un des axes du transhumanisme – et dans la même veine, Yuval Noah Harari, l’Igor du FEM qui nous explique que les humains non transformés seront les nouveaux chimpanzés. Alors, qu’y a-t-il derrière ce soudain accès de bienveillance de ces pseudo-Frankenstein digitaux?

Pour ne pas changer, c’est de la normalisation. Un des objectifs est de vendre l’IA comme nécessaire et inévitable. Nous allons voir qu’il n’en est rien.

Décortiquons quelques passages:

« [des IA] que personne – pas même leurs créateurs – ne parvient à comprendre, à prédire ou à contrôler de manière fiable »

Autrement dit, c’est de la camelote, ils le savent et doivent ajuster leur stratégie.

« […] allons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges? »

L’IA puisant ses sources sur le Net, la propagande et les mensonges sont déjà bien établis, l’IA ne fera que les régurgiter.

« Allons-nous automatiser tous les emplois, y compris ceux qui sont valorisants? »

Faux problème et fausse question, les emplois n’ont fait que « s’automatiser » depuis l’invention des premiers outils. La vraie question est le choix politique et économique de création future de nouveaux secteurs d’activités utiles. Sur ce plan, les projets du FEM et du Green New Deal sont totalement déconnectés du réel. Ce sont des opérations autoritaires et dangereuses de mainmise et de contrôle financier, et ce sont les premiers promoteurs de l’IA.

« Allons-nous prendre le risque de perdre le contrôle de notre civilisation? »

Je l’ai déjà écrit, cette civilisation était condamnée depuis son dérapage vers une modèle de croissance infinie à base de monnaie créée par l’endettement, sous contrainte souterraine du monde anglo-saxon protestant et plus ouvertement, des entreprises militaires États-Uniennes appuyées sur la Fed (la phrase est trop longue, sorry). La dette n’étant pas remboursable, on crée une nouvelle fuite en avant, technocratique, sur le même schéma, confondre le moyen avec l’objectif, qui donnera le même résultat: la faillite. On ne fait que remplacer de l’artificiel monétaire par de l’artificiel virtuel, comme pour les monnaies digitales. Ça fonctionnera jusqu’à ce que ça ne fonctionne plus.

L’Occident, jugé incapable de rembourser son crédit, jouera officiellement le rôle de nouveau Tiers-Monde dans le prochain modèle choisi par la Banque, où domineront la Russie et la Chine, qui disposent d’un Parti qui élabore différentes politiques là où l’Occident dispose de différents partis qui élaborent tous la même politique – désastreuse. Si l’Occident veut échapper à ce triste destin, leurs peuples doivent commencer par s’affranchir de leurs élites monomaniaques – financières et politiques – et revenir à leur vocation première de pôle de civilisation aux valeurs chrétiennes. Comment, j’y reviens en fin d’article.

« Nous ne devrions développer des systèmes d’IA performants que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. »

L’IA n’est qu’un outil de plus dans le système, une pièce rapportée qui ne changera rien au problème de fond que je viens de décrire.

Cerise sur le gâteau:

« L’humanité pourrait connaître un avenir florissant grâce à l’IA. »

Nous voici de retour au fantasme futuriste de la voiture volante et des vacances sur Mars, remis au goût du jour pour les naïfs. Les lendemains qui chantent grâce à l’IA ne sont rien d’autre que la version high-tech de la doctrine du « bien commun », du communisme déguisé en futurisme – et aucun des deux ne fonctionne. On est juste passés de la politique-fiction à la science-fiction.

À propos de science-fiction, je vous recommande une très amusante nouvelle sur le sujet, écrite par Robert Sheckley en 1971, « Cruelles équations » (« Cruel equations »), qui met en scène un malheureux cosmonaute face à un robot-gardien particulièrement obtus. J’ai aussi publié ceci, qui donne une image réaliste de ce qu’est vraiment l’IA aujourd’hui. Les deux démontrent que, comme tout système, l’IA n’est jamais aussi bonne que ce qu’on y met. Or, la version publique de l’IA qu’on tente de nous fourguer est essentiellement une machine à calculer qui agence et régurgite les « informations » de la pire source imaginable: Internet. Une version adulte de ceci:

Je plains les pauvres gosses, dont je fais partie, qui ont dû se coltiner cette daube.

La version militarisée servira dans le domaine civil à gérer les zetabytes de données récoltées via smartphones, réseaux sociaux et Internet – un outil de surveillance et de contrôle du troupeau, sous tous ses aspects – biologiques, commerciaux, sociaux… Je rappelle qu’en anglais, intelligence désigne aussi les services de Renseignement. Prétendre que l’IA supplantera l’être humain dans le domaine de l’intelligence est un fantasme, une fable, et accessoirement une projection de l’ego de ses concepteurs et de ses commanditaires, qui brandissent un peu tôt des scénarios à la Terminator ou Robocop alors qu’on en est même pas à HAL 9000.

Alors pourquoi recommandent-ils de « nous asseoir calmement, prendre une pilule contre le stress et réfléchir à tout cela? » La froide réalité du terrain, c’est que le réseau de surveillance à base de 5g (et bientôt de 6g?) qui fera de nous tous des esclaves demandera un apport d’énergie irréalisable maintenant – on est encore loin de l’Internet des Corps, même si Amazon fait un test de réseau grandeur nature. C’est là une des vraies raison de la promotion tout azimut de la construction de centrales nucléaires. Le très servile Oliver Stone s’est d’ailleurs fendu d’un documentaire à ce sujet, sous alibi « climatique » évidemment. L’autre solution sera de nous priver d’énergie autant que possible et de nous parquer, histoire aussi de nous avoir sous la main, dans des « villes de 15 minutes », version actualisée du Projet Vénus, ce que je rappelais ici il y a bientôt trois ans. Je rappelle aussi qu’avant que les technocrates s’emparent du concept, ce genre de structure existait sous forme durable et portait un nom: un village.

L’autre froide réalité est que la majorité des start-ups de recherche ne parviendront pas à rentabiliser leurs investissements. Elles seront absorbées par quelques méga-sociétés de commerce et traitement des données, qui forment déjà un partenariat privé/gouvernements, sur le même modèle que Big Pharma/Ministère de la Défense. La faillite de la Silicon Valley Bank en était peut-être l’événement annonciateur.

24/04: j’ajoute à ce sujet ce courrier d’un auditeur de NoAgenda n°1549:

Salut Adam, je voulais juste te donner un aperçu des raisons pour lesquelles tout le monde croit à l’IA en tant que bouleversement de la technologie et du travail. S’il te plaît, ne mentionne pas mon nom si tu décides de lire ceci dans l’émission.

En bref, ils sont obligés d’y croire.

Toutes ces entreprises technologiques ont été gavées d’argent frais pendant la période du COVID, elles ont trop embauché et le regain d’activité de courte durée qu’elles ont connu pendant cette période est en train de se tarir.

Elles ont vu les vents contraires de l’économie et se sont accrochées à tout ce qui semblait être une solution. Tous ces nouveaux outils d’IA ont été lancés au moment précis où tout le monde cherchait une solution.

Aujourd’hui, le secteur est rempli de cadres intermédiaires qui n’ont jamais utilisé ces outils pour accomplir quoi que ce soit, mais qui croient au boniment parce que leur avenir financier en dépend. Ils pensent que cela permettra de décupler la productivité parce qu’ils ont besoin de quelque chose pour décupler la productivité de leurs employés.

Ce qui m’a fait prendre conscience de cette réalité, c’est qu’au cours d’une récente réunion au sein de mon entreprise, on a demandé au PDG à quoi lui servaient les outils d’IA. Il n’avait pas de réponse. En bref, il a joué avec ces outils en posant le même genre de questions inutiles que tout le monde, mais rien n’a été intégré dans son travail quotidien.

Nous avons ensuite eu une autre réunion dirigée par l’un des chefs de division, à qui l’on a demandé quelles étaient ses suggestions pour que les employés intègrent les outils dans leur travail. Il n’avait pas grand-chose à suggérer, si ce n’est de les utiliser pour reformuler des documents ou de s’en servir comme d’une sorte de filtre d’assurance qualité lors des interactions avec les clients.

En réalité, ces outils ne sont pas très utiles, surtout pour les employés compétents qui rédigent mieux que la moyenne. Du moins, je n’ai pas vu de preuve qu’ils le soient.

Vu tous les efforts déployés pour essayer de les intégrer dans notre travail, je suis sûr qu’il y aura des applications. Mais elles ne se traduiront jamais par les augmentations de productivité par 10 que tant de gens croient possibles.


Tout cela signifie-t-il qu’il faut lutter contre toute forme de surveillance, au nom de la « liberté »?

Pas du tout.

Désolé de contredire à peu près tous mes collègues anti-NOM mais à moins de la décentraliser complètement, cette société ne peut pas fonctionner sans un niveau élevé de surveillance. En réalité, aucun groupe humain ne peut s’en passer. Dans une tribu de taille naturelle (environ cinquante personne) cette surveillance fait partie intégrante du mode de vie: tout le monde connaît tout le monde – encore une fois, comme dans un village. La vraie question est de savoir qui surveille qui, et dans quel but. Comme je l’ai déjà maintes fois répété, la strate supérieure du pouvoir est majoritairement occupée par des paranoïaques incompétents, dont l’idée maîtresse est de maintenir au plus bas le niveau de maturité politique et économique du petit peuple.

Le véritable enjeu n’est donc pas l’intelligence de la machine mais, et ce n’est pas nouveau, l’idiotie humaine1, le manque d’autonomie et la servilité qui en résultent inevitablement. Si on veut revenir à la simplicité qui rendrait ce monde vivable, il faut se passer de ceux qui créent de faux problèmes pour nous fourguer leurs solutions: pandémie/vaccins, inflation/monnaies digitales, « urgence climatique »/privations, guerre/changement géopolitique, etc. Pour y arriver, il faut cesser de les aider, ce qui veut dire stopper la machine. Ne plus participer. C’est bien ce qui se profile en France et ailleurs en Europe mais comme le disait ce célèbre philosophe français, « On gueulait ‘Ce n’est qu’un début, continuons le combat!’ mais en fait, ce n’était qu’un combat, il fallait continuer le début. »

Son contemporain Gébé avait articulé autrement cette très bonne idée: on arrête tout et on réfléchit. Un moratoire de six mois? Ok, mais un moratoire de tout ce bordel, le temps de faire le tri.

Et de redevenir, nous, intelligents.


(1): J’ai à ce sujet deux études à traduire – à l’usage d’une éducatrice mais dont je vous ferai profiter – qui décrivent un danger bien concret, que Taiwan a d’ailleurs tenté de règlementer en 2015: les jeunes enfants développent des symptômes du spectre autiste lorsqu’ils sont trop exposés à des écrans. Eh oui, comme pour les « vaccins ».

Le « Communisme de la Décroissance » : le communisme vert dont le but explicite est la destruction de l’économie – par Eric Worrall.

Source.


Le « Communisme de la Décroissance » : le communisme vert dont le but explicite est la destruction de l’économie

Essai d’Eric Worrall

5 mars

Ces gens enseignent à nos enfants: le chercheur suédois Timothée Parrique chante les louanges d’une nouvelle souche virulente de l’idéologie communiste universitaire.

La croissance économique alimente le changement climatique – un nouveau livre propose le « communisme de décroissance » comme solution

Timothée Parrique
Chercheur en économie écologique, Université de Lund
3 mars 2023 17.09pm AEDT

On me dit souvent que la décroissance, c’est-à-dire la réduction planifiée de la production et de la consommation afin de diminuer la pression sur les écosystèmes de la Terre, n’est pas facile à vendre. Mais un professeur agrégé de 36 ans de l’université de Tokyo s’est fait un nom en soutenant que le « communisme de la décroissance » pourrait mettre un terme à l’escalade de l’urgence climatique.

Kohei Saito, auteur du best-seller « Le Capital dans l’Anthropocène », revient avec un nouveau livre: « Marx dans l’Anthropocène: vers la notion de communisme de décroissance« . Le livre est dense, surtout pour ceux qui ne maîtrisent pas le jargon marxiste et qui, je suppose, se soucient peu de savoir si Karl Marx s’était ou non mis à se préoccuper de la nature à la fin de sa vie.

Pourtant, la façon dont Saito mobilise la théorie marxiste pour plaider en faveur de « l’abondance de la richesse dans le communisme de décroissance » (titre du dernier chapitre de son livre) est aussi précise que captivante. C’est ce qui a attiré mon attention en tant qu’économiste travaillant sur la décroissance: les tentatives de Saito pour réconcilier le marxisme avec des idées plus récentes sur les alternatives à la croissance économique pourraient amener les critiques du capitalisme à un niveau de popularité sans précédent.

La croissance économique crée la pénurie

Saito retourne le concept de croissance économique. Nombreux sont ceux qui pensent que la croissance nous rend plus riches, mais si c’était exactement le contraire?

[…]

Suite de l’article: https://theconversation.com/economic-growth-is-fuelling-climate-change-a-new-book-proposes-degrowth-communism-as-the-solution-199572

J’ai toujours pensé que le communisme, avec ses famines, ses purges et ses abus, était sans doute le pire système de gouvernement que l’on puisse infliger à un peuple.

Aujourd’hui, ça me semble encore plus clair.

Avant de rejeter la notion de communisme de décroissance comme trop absurde pour gagner du terrain, considérez sa capacité à réconcilier certaines contradictions politiques majeures au sein de l’aile gauche radicale de la politique.

Nous aimons tous nous moquer des Verts en les qualifiant de pastèques [NdT. verts à l’extérieur, rouges à l’intérieur], mais le mouvement ouvrier communiste de l’ère soviétique, qui mettait l’accent sur la production industrielle et le bien-être matériel des travailleurs (du moins selon le prospectus), n’a jamais réussi son mariage avec le mouvement des Verts.

On retrouve aujourd’hui cette tension dans la politique australienne, dans la lutte entre le gouvernement travailliste australien, qui veut préserver les emplois des travailleurs syndiqués dans les mines de charbon, et ses partenaires de la coalition junior du Parti Vert, qui veulent fermer les industries extractives qu’ils considèrent comme contribuant au changement climatique.

Les Verts ont longtemps caressé l’idée d’un féodalisme médiéval déguisé en socialisme à l’échelle d’un village, mais ils n’ont jamais réussi à établir un lien solide, une voie de succession directe depuis les mouvements idéologiques de la gauche du 20e siècle. Un tel lien aurait pu fournir aux Verts la base électorale nécessaire à la matérialisation de leurs visions.

Le Communisme de la Décroissance est peut-être le chaînon manquant qu’ils recherchent, le pont permettant de relier les jeunes verts radicaux à leurs parents militants syndicaux de la gauche radicale. Son principal argument, à savoir que la croissance économique est une tromperie qui a appauvri les gens ordinaires, est conçu pour séduire les personnes de tous âges, pour attiser le ressentiment de ceux qui estiment ne pas recevoir leur juste part de la manne sociétale.

Les partisans du Communisme de la Décroissance prétendent s’appuyer sur certains des derniers écrits de Karl Marx, dans lesquels Marx aurait exprimé son désarroi face aux dégâts écologiques causés par le Capitalisme, et exprimé l’espoir que le Communisme pourrait être plus respectueux de la nature – ce qui fournit la voie de succession, le pont idéologique qui relie le mouvement vert du 21ème siècle aux mouvements radicaux travaillistes du 20ème siècle.

Attendez-vous à entendre parler de plus en plus du « Communisme de la Décroissance » dans les années à venir, je ne pense pas que cette idée soit sur le point de disparaître. Si les partisans du Communisme de la Décroissance réussissent à réimaginer la gauche, s’ils parviennent à renouveler la gauche radicale en réconciliant l’activisme industriel radical avec le communisme vert, ils pourraient devenir encore plus forts.

Le projet Cumulus et la tragédie du Devon sont liés à la manipulation de la météo – par Naked Emperor.

Vous vous souviendrez que j’avais promis de revenir sur l’inondation que nous avons subie en juillet 2021. Nous avons été sinistrés, 190 tonnes d’eau dans la cave, et les dégâts qui vont avec. On a bossé comme des dingues pendant plus de deux mois et on a fini par sauver la maison.

J’avais aussi écrit à l’époque être persuadé que c’était l’effet d’une arme climatique, sujet sur lequel j’ai pas mal potassé et que j’avais promis de traiter. Comme vous savez, il s’est passé depuis énormément de choses, sur lesquelles j’ai publié en priorité, en courant après le temps et en mettant de côté ce sujet. J’en suis navré, parce que je vois qu’il est très peu documenté et que la majorité ne se rend pas compte à quel point ces armes sont dangereuses, et surtout, au point.

Je tombe hier sur cet article de Naked Emperor, qui fera une très bonne introduction. C’est l’histoire d’un projet militaire, infligé à une population civile, qui a fait beaucoup de morts – ce qui devrait vous évoquer quelque chose.

C’était en 1952. Imaginez ce qu’ils ont comme moyens aujourd’hui.

Source.


Le projet Cumulus et la tragédie du Devon sont liés à la manipulation de la météo

Pas d’inquiétude, ce genre de choses ne se sont produites que dans le passé

Naked Emperor

7 février

Chaque fois que je vais sur Internet, je vois des gens qui postent des photos de traînées d’avions dans le ciel et qui se demandent pourquoi elles sont si nombreuses. Certains affirment qu’il s’agit de traînées de condensation (contrails), tandis que d’autres disent qu’il s’agit de traînées chimiques (chemtrails). Bien qu’il existe des arguments très convaincants des deux côtés, il est impossible d’établir la vérité. Nous pouvons toutefois examiner ce qui s’est produit dans le passé pour accorder plus de crédibilité à une des théories.

Dans un article précédent, j’ai examiné des exemples antérieurs, documentés et déclassifiés de gouvernements, via l’armée, pulvérisant leurs propres citoyens. Tout cela dans notre meilleur intérêt bien sûr, jusqu’au jour où…

Aujourd’hui, je vais me pencher sur une histoire tragique qui s’est produite dans les années 1950 dans un village du nord du Devon appelé Lynmouth.

Lynmouth est un magnifique village situé au bord d’Exmoor en Angleterre.

Les rivières West Lyn et East Lyn descendent du village de Lynton en amont et se jettent dans la mer. Si vous visitez un jour les villages et que vous n’avez pas envie de faire une marche pentue sur la colline qui les sépare, vous pouvez voyager confortablement sur un funiculaire à eau qui fonctionne depuis 1890.

Au début des années 1950, le gouvernement britannique, en collaboration avec une équipe internationale de scientifiques, décida de se mêler de la manipulation de la météo. Le projet Cumulus fut lancé et resta opérationnel entre 1949 et 1952. Son objectif était d’expérimenter diverses techniques d’ensemencement des nuages et donc de contrôler quand et où il pleut.

Entre le 4 août et le 15 août 1952, des vols furent effectués pour mener d’autres expériences de manipulation de la météo. Cependant, le projet Cumulus s’arrêta brusquement le 15 août 1952. Par coïncidence, le même jour, une tragédie eut lieu à Lynmouth.

Pour cette vidéo et la suivante, des sous-titres traduits automatiquement sont disponibles:
Paramètres > Sous-titres > Traduire automatiquement > Français

En l’espace de quelques heures, la plus grande inondation depuis 300 ans frappa Lynmouth, détruisant des centaines de bâtiments, des ponts, des voitures et tuant malheureusement 35 personnes. 420 autres villageois se retrouvèrent sans abri. Les corps emportés par la mer ne furent jamais retrouvés. Une jeune fille interrogée à l’époque perdit six membres de sa famille et raconta comment sa mère avait identifié le corps de sa grand-mère. « Maman l’a identifiée par cette énorme verrue sur son dos parce qu’elle n’avait ni tête, ni bras, ni jambes quand ils l’ont trouvée ».

90 millions de tonnes d’eau, ainsi que des milliers de tonnes de roches s’abattirent sur le village, détruisant tout sur leur passage. Au total, ce mois-là, le North Devon, où se trouve le village, connut 250 fois plus de précipitations que la normale pour un mois d’août.

Peu après, les villageois restants demandèrent une enquête et évoquèrent des rumeurs d’avions tournant dans le ciel avant le déluge.

Cependant, le gouvernement et le Ministère de la Défense démentirent toute expérience d’ « ensemencement des nuages » et la tragédie fut considérée comme un événement de la « main de Dieu ». Toute discussion sur la manipulation des conditions météorologiques était considérée comme une théorie du complot et, aujourd’hui encore, elle est qualifiée comme telle sur Wikipedia.

Il en fut ainsi jusqu’en 2001, lorsque la BBC mena une enquête sur ces inondations et confirma que des expériences secrètes étaient à l’origine des fortes précipitations. De nombreux documents confidentiels avaient disparu, mais l’équipe de Document retrouva des journaux de bord de la RAF et des témoignages personnels.

Un pilote décrit comment, dans le cadre de l’opération Cumulus, il répandit du sel dans l’air, provoquant une forte averse à 80 km de là. D’autres vols utilisant de l’iodure d’argent eurent aussi probablement lieu.

« La pluie fut la plus forte des dernières années – et tout cela dans un ciel qui semblait estival … il n’y avait aucun moyen de dissimuler le fait que l’ensemenceur avait dit qu’il ferait pleuvoir, et il l’a fait.

« Des toasts furent portés à la météorologie et ce n’est qu’après la lecture du bulletin d’information de la BBC [sur la tragédie de Lynmouth] qu’un silence de pierre s’abattit sur la compagnie ».

Le Guardian a également relaté les événements, bien qu’ils classent maintenant l’histoire dans leur section « silly season » (saison loufoque). Il cite un navigateur de la RAF qui a déclaré: « Nous avons volé directement à travers le sommet du nuage, nous avons versé de la glace sèche dans le nuage. Nous sommes descendus pour voir si de la pluie sortait du nuage. C’est ce qui s’est passé environ 30 minutes plus tard, et nous avons tous applaudi ».

Le British Geological Survey examina les sédiments du sol dans le district de Lynmouth pour voir s’il restait des résidus d’argent ou d’iodure. Les tests furent limités en raison des restrictions mises en place à cause de la fièvre aphteuse, et ils ne sont pas concluants. Cependant, des résidus d’argent furent découverts dans les eaux de captage de la rivière Lyn.

L’enquête de la BBC a donné lieu à une émission de Radio 4 intitulée « The Day They Made it Rain » (Le jour où ils ont fait pleuvoir), dans laquelle il est suggéré que le Ministère de l’Air et le Trésor étaient conscients que ces expériences causaient des dommages aux civils.

Selon des compte-rendus déclassifiés, le bureau de la guerre était intéressé par la possibilité de renforcer la pluie et la neige par des moyens artificiels pour un certain nombre de raisons, notamment:

  • embourber les mouvements de l’ennemi;
  • augmenter le débit des rivières et des ruisseaux pour gêner ou arrêter les traversées de l’ennemi;
  • dissiper le brouillard sur les aérodromes; et
  • faire exploser une arme atomique dans un nuage pour produire une zone de contamination radioactive beaucoup plus large que lors d’une explosion atomique normale.

Mais rappelez-vous, ces types d’expériences n’ont eu lieu que dans le passé. Votre gouvernement vous aime maintenant et ne ferait jamais rien de tel de nos jours.

Pourquoi la politisation de la science est dangereuse – par Michael Crichton.

J’avais trouvé le texte sur le site officiel de Crichton il y a une semaine. Il a disparu depuis. Étonnant, non? Il est heureusement très facile à trouver sur le Net, j’ai utilisé cette source. C’est un extrait de son bouquin « Etat d’urgence » (« State of Fear« ), de 2004. En plus d’être captivants, tous les livres de Crichton contiennent un message très important, y compris « Jurassic Park » – lisez le bouquin, évitez sa lamentable adaptation cinématographique. Il était en quelque sorte un épistémologue qui écrivait des romans.

Puisqu’il est ici question de Lysenko, je suis avec un article du Dr Gary Levy sur le sujet, puis un nouvel article de Miles Mathis, qui traite du « grand empoisonnement » évoqué notamment ici par Catherine Austin Fitts.


Pourquoi la politisation de la science est dangereuse

par Michael Crichton

Imaginez qu’il existe une nouvelle théorie scientifique qui prévient d’une crise imminente et indique une solution.

Cette théorie bénéficie rapidement du soutien de scientifiques de premier plan, de politiciens et de célébrités du monde entier. La recherche est financée par d’éminents organismes philanthropiques et menée dans des universités prestigieuses. La crise est fréquemment rapportée dans les médias. La science est enseignée dans les classes des collèges et des lycées.

Je ne parle pas du réchauffement de la planète. Je parle d’une autre théorie, qui a pris de l’importance il y a un siècle.

Parmi ses partisans figuraient Theodore Roosevelt, Woodrow Wilson et Winston Churchill. Elle fut approuvée par les juges de la Cour suprême Oliver Wendell Holmes et Louis Brandeis [NdT. le « héros juridique » de Reiner Fuellmich], qui se prononcèrent en sa faveur. Parmi les personnalités célèbres qui la soutenaient figuraient Alexander Graham Bell, inventeur du téléphone, la militante Margaret Sanger, le botaniste Luther Burbank, Leland Stanford, fondateur de l’université de Stanford, le romancier H.G. Wells, le dramaturge George Bernard Shaw et des centaines d’autres. Des lauréats du prix Nobel y apportèrent leur soutien. La recherche fut soutenue par les fondations Carnegie et Rockefeller. L’Institut Cold Springs Harbor fut construit pour mener à bien ces recherches, mais des travaux importants furent également réalisés à Harvard, Yale, Princeton, Stanford et Johns Hopkins. Des lois visant à résoudre cette crise furent adoptées dans des États allant de New York à la Californie.

Ces efforts reçurent le soutien de l’Académie Nationale des Sciences, de l’Association Médicale Américaine et du Conseil National de la Recherche. On a dit que si Jésus était vivant, il aurait soutenu ces efforts.

Au total, la recherche, la législation et la formation de l’opinion publique autour de cette théorie durèrent près d’un demi-siècle. Ceux qui s’opposèrent à cette théorie furent traités de réactionnaires, d’aveugles ou tout simplement d’ignorants. Mais avec le recul, ce qui est surprenant, c’est que si peu de gens s’y opposèrent.

Aujourd’hui, nous savons que cette fameuse théorie, qui obtint tant de soutien, était en fait une pseudo-science. La crise qu’elle revendiquait était inexistante. Et les actions prises au nom de cette théorie étaient moralement et criminellement mauvaises. Au final, elles ont conduit à la mort de millions de personnes.

Cette théorie, c’est l’eugénisme, et son histoire est si épouvantable – et, pour ceux qui y ont été mêlés, si gênante – qu’on en parle rarement aujourd’hui. Mais c’est une histoire qui devrait être bien connue de chaque citoyen, afin que ses horreurs ne se répètent pas.

La théorie de l’eugénisme postulait une crise du patrimoine génétique conduisant à la détérioration de la race humaine. Les meilleurs êtres humains ne se reproduisaient pas aussi rapidement que les êtres inférieurs – les étrangers, les immigrants, les Juifs, les dégénérés, les inaptes et les « faibles d’esprit ». Francis Galton, un respectable scientifique britannique, fut premier à spéculer dans ce domaine, mais ses idées furent reprises bien au-delà de ses intentions. Elles furent adoptées par des Américains épris de science, ainsi que par ceux qui s’intéressaient peu à la science mais s’inquiétaient de l’immigration de races inférieures au début du vingtième siècle – de « dangereux parasites humains » qui constituaient « la marée montante des imbéciles » et polluaient la meilleure partie de la race humaine.

Les eugénistes et les immigrationnistes unirent leurs forces pour mettre un terme à cette situation. Le plan consistait à identifier les individus faibles d’esprit – il était admis que les Juifs étaient en grande partie faibles d’esprit, mais c’était également le cas de nombreux étrangers, ainsi que des Noirs – et à les empêcher de se reproduire en les isolant dans des institutions ou en les stérilisant.

Comme l’a dit Margaret Sanger, « Encourager les bons à rien aux dépens des bons est une cruauté extrême… il n’y a pas de plus grande malédiction pour la postérité que celle de lui léguer une population croissante d’imbéciles ». Elle parlait du fardeau que représentait la prise en charge de « ce poids mort de déchets humains ».

Ces opinions étaient largement partagées. H.G. Wells s’éleva contre « les nuées insuffisamment formées de citoyens inférieurs ». Theodore Roosevelt déclara que « la société n’a pas à permettre aux dégénérés de se reproduire. » Luther Burbank: « Ne permettez plus aux criminels et aux faibles de se reproduire. » George Bernard Shaw affirmait que seul l’eugénisme pouvait sauver l’humanité.

Le racisme était ouvertement présent dans ce mouvement, comme en témoignent des textes tels que The Rising Tide of Color Against White World Supremacy [La marée montante des gens de couleur contre la suprématie du monde blanc], de l’auteur américain Lothrop Stoddard. Mais, à l’époque, le racisme était considéré comme un aspect anodin de l’entreprise d’un objectif admirable – l’amélioration de l’humanité future. C’est cette notion avant-gardiste qui attira les esprits les plus libéraux et progressistes d’une génération. La Californie n’était que l’un des vingt-neuf États américains à avoir adopté des lois autorisant la stérilisation, mais elle se révéla la plus avant-gardiste et la plus enthousiaste – davantage de stérilisations furent pratiquées en Californie que partout ailleurs en Amérique.

La recherche eugénique était financée par la Fondation Carnegie, et plus tard par la Fondation Rockefeller. Cette dernière était si enthousiaste que même après que le centre de la politique eugéniste se soit déplacé en Allemagne et qu’elle ait impliqué le gazage d’individus provenant d’institutions psychiatriques, la Fondation Rockefeller continua à financer à un niveau très élevé les chercheurs allemands. (La fondation est restée discrète à ce sujet, mais elle finançait toujours la recherche en 1939, quelques mois seulement avant le début de la Seconde Guerre mondiale).

Depuis les années 1920, les eugénistes américains étaient jaloux parce que les Allemands leur avaient confisqué la direction du mouvement. Les Allemands furent admirablement progressistes. Ils installèrent des maisons d’apparence ordinaire où les « déficients mentaux » étaient amenés et interrogés un par un, avant d’être conduits dans une pièce annexe, qui était en fait une chambre à gaz. Là, ils étaient gazés au monoxyde de carbone, et leurs corps étaient éliminés dans un crématorium situé sur la propriété.

Par la suite, ce programme fut étendu à un vaste réseau de camps de concentration situés près des lignes de chemin de fer, permettant le transport et la mise à mort efficaces de dix millions d’indésirables.

Après la Seconde Guerre mondiale, plus personne n’était eugéniste, et personne ne l’avait jamais été. Les biographes des célébrités et des puissants ne s’attardaient pas sur l’attirance de leurs sujets pour cette philosophie, et ne la mentionnaient parfois pas du tout. L’eugénisme cessa d’être un sujet pour les salles de classe des universités, bien que certains affirment que ses concepts sont toujours d’actualité sous une forme déguisée.

Mais avec le recul, trois points ressortent. Premièrement, malgré la construction du Cold Springs Harbor Laboratory, malgré les efforts des universités et les plaidoiries des avocats, l’eugénisme n’avait aucune base scientifique. En fait, personne à cette époque ne savait ce qu’était réellement un gène. Le mouvement put se développer parce qu’il utilisait des termes vagues, jamais rigoureusement définis. Le terme « faible d’esprit » pouvait signifier n’importe quoi, de la pauvreté et de l’analphabétisme à l’épilepsie. De même, il n’existe pas de définition claire de « dégénéré » ou « inapte ».

Deuxièmement, le mouvement eugénique était en réalité un programme social déguisé en programme scientifique. Il était motivé par les préoccupations liées à l’immigration, au racisme et à l’arrivée de personnes indésirables dans un quartier ou un pays. Une fois encore, une terminologie vague permit de dissimuler ce qui se passait réellement.

Troisièmement, et c’est le plus affligeant, l’establishment scientifique, tant aux États-Unis qu’en Allemagne, ne mena aucune protestation sérieuse. Bien au contraire. En Allemagne, les scientifiques s’alignèrent rapidement sur le programme. Des chercheurs allemands modernes sont remontés dans le passé pour examiner des documents nazis des années 1930. Ils s’attendaient à trouver des directives indiquant aux scientifiques quelles recherches devaient être effectuées. Mais aucune ne fut nécessaire. Selon Ute Deichman, « les scientifiques, y compris ceux qui n’étaient pas membres du parti [nazi], contribuèrent à obtenir le financement de leurs travaux en modifiant leur comportement et en coopérant directement avec l’État. » Deichman parle du « rôle actif des scientifiques eux-mêmes en matière de politique raciale nazie… lorsque [la recherche] visait à confirmer la doctrine raciale… on ne trouve aucune trace de pression extérieure. » Les scientifiques allemands adaptèrent leurs intérêts de recherche aux nouvelles politiques. Et les rares qui ne s’adaptèrent pas disparurent.

Il existe un deuxième exemple de science politisée, de caractère tout à fait différent, mais qui illustre les dangers du contrôle du travail scientifique par l’idéologie gouvernementale et celui de la promotion de faux concepts par des médias dénués d’esprit critique. Trofim Denisovich Lysenko était un paysan qui se vantait d’avoir, disait-on, « résolu le problème de la fertilisation des champs sans engrais ni minéraux ». En 1928, il prétendait avoir inventé une procédure appelée vernalisation, par laquelle les graines étaient humidifiées et refroidies pour améliorer la croissance ultérieure des cultures.

Les méthodes de Lysenko ne furent jamais soumises à un test rigoureux, mais son affirmation selon laquelle ses graines traitées transmettaient leurs caractéristiques à la génération suivante représentait un renouveau des idées lamarckiennes à une époque où le reste du monde adoptait la génétique mendélienne. Josef Staline était attiré par les idées lamarckiennes, qui impliquaient un avenir libéré des contraintes héréditaires; il voulait également améliorer la production agricole. Lysenko promettait les deux, et devint la coqueluche des médias soviétiques à l’affût d’histoires de paysans intelligents qui avaient mis au point des procédures révolutionnaires.

Lysenko fut dépeint comme un génie, et il exploita sa célébrité à fond. Il était particulièrement habile pour dénoncer ses adversaires. Il eut recours à des questionnaires d’agriculteurs pour prouver que la vernalisation augmentait le rendement des cultures, et évita ainsi tout test direct. Porté par une vague d’enthousiasme cautionnée par l’État, son ascension fut rapide. En 1937, il était membre du Soviet Suprême.

A cette époque, Lysenko et ses théories dominaient la biologie russe. Il en résulta des famines qui tuèrent des millions de personnes [NdT. en Ukraine, voir ici] et des purges qui envoyèrent des centaines de scientifiques soviétiques dissidents dans les goulags ou devant des pelotons d’exécution. Lysenko attaqua agressivement la génétique, qui fut finalement interdite en tant que « pseudo-science bourgeoise » en 1948. Les idées de Lysenko n’ont jamais été fondées, et pourtant il contrôla la recherche soviétique pendant trente ans. Le lysenkoïsme a pris fin dans les années 1960, mais la biologie russe ne s’est toujours pas entièrement remise de cette époque.

Aujourd’hui, nous sommes en proie à une nouvelle grande théorie qui, une fois de plus, s’est attirée le soutien de politiciens, de scientifiques et de célébrités du monde entier. Une fois encore, la théorie est promue par de grandes fondations. Une fois encore, la recherche est menée dans des universités prestigieuses. Une fois encore, des lois sont adoptées et des programmes sociaux préconisés en son nom. Une fois encore, les critiques sont peu nombreux et traités sans ménagement.

Une fois encore, les mesures préconisées ne sont étayées ni par les faits ni par la science. Une fois encore, des groupes poursuivant d’autres objectifs se cachent derrière un mouvement aux allures nobles. Une fois encore, des revendications de supériorité morale sont utilisées pour justifier des actions extrêmes. Une fois encore, le fait que certaines personnes soient lésées est ignoré parce qu’une cause abstraite est censée être plus importante que toute conséquence humaine. Une fois encore, des termes vagues comme la durabilité et la justice générationnelle – des termes sans définition commune – sont employés au service d’une nouvelle crise.

Je ne prétends pas que le réchauffement climatique est identique à l’eugénisme. Mais les similitudes ne sont pas superficielles. Et j’affirme que la discussion ouverte et franche des données et des problèmes est empêchée. Des revues scientifiques de premier plan ont pris des positions éditoriales fermes en faveur du réchauffement climatique, ce qu’elles ne devraient pas faire, selon moi. Dans ces circonstances, tout scientifique qui nourrit des doutes comprend clairement qu’il serait sage de mettre en sourdine leur expression.

Une preuve de cette suppression est le fait qu’un grand nombre des détracteurs du réchauffement climatique sont des professeurs à la retraite. Ces personnes ne sont plus à la recherche de subventions et n’ont plus à faire face à des collègues dont les demandes de subventions et l’avancement de leur carrière risquent d’être compromis par leurs critiques.

En science, les vieux ont généralement tort. Mais en politique, les vieux sont sages, conseillent la prudence et, en fin de compte, ont souvent raison.

L’histoire passée de la croyance humaine est un récit édifiant. Nous avons tué des milliers de nos semblables parce que nous pensions qu’elles avaient signé un pacte avec le diable et étaient devenues des sorcières. Nous tuons encore plus de mille personnes chaque année pour sorcellerie. À mon avis, il n’y a qu’un seul espoir pour l’humanité de sortir de ce que Carl Sagan appelait « le monde hanté par les démons » de notre passé. Cet espoir, c’est la science.

Mais comme l’a dit Alston Chase, « lorsque la recherche de la vérité est confondue avec le plaidoyer politique, la poursuite de la connaissance se résume à la quête du pouvoir ».
C’est le danger auquel nous sommes aujourd’hui confrontés. Et c’est pourquoi le mélange de la science et de la politique est une mauvaise association, au passé très sombre. Nous devons nous souvenir de l’histoire et nous assurer que ce que nous présentons au monde en tant que connaissance est désintéressé et honnête.

Climat: Témoignage de John R. Christy devant la Chambre des Représentants des États-Unis.

Ce témoignage date de 2016. Il est, selon la formule consacrée, plus que jamais d’actualité, maintenant que nos amis du FEM – et la majorité des gouvernements – ont décidé de tout miser sur « l’urgence climatique », pour passer à la moulinette élevage, alimentation, industrie, énergie, transports et liberté individuelle. Il complète la série de John Dee sur la mesure des températures au Royaume-Uni, que j’avais commencé à traduire et publier puis interrompue vu le manque d’intérêt des lecteurs – dommage. Je vous invite vivement à lire celui-ci, quitte à survoler les passages plus techniques (qui ne sont pas inabordables), et à en retirer le principe général. On y retrouve les méthodes classiques de modélisation frauduleuse, bidouillage des mesures et censure des scientifiques indépendants, mises en oeuvre pour le Covid et ses produits dérivés.

Comme il est question ici de « consensus scientifique », considérez ceci comme le deuxième volet de la série d’articles que j’ai commencée il y a quelque temps.

Les principales abréviations utilisées ici sont:

  • LT: basse troposphère (low troposphere)
  • MT: troposphère moyenne (mid-troposphere)
  • GIEC: Groupe d’experts Intergouvernemental sur l’Evolution du Climat
  • UAH: Université d’Alabama à Huntsville
  • NMAT: Température nocturne de l’air marin (Night Marine Air Temperature)
  • NOAA: Agence américaine d’observation océanique et atmosphérique (National Oceanic and Atmospheric Administration)
  • NCEI: Centres nationaux d’information sur l’environnement (National Centers for Environmental Information)
  • APE: Agence pour la Protection de l’Environnement américaine (Environment Protection Agency – EPA)
  • UKMet: Service national britannique de météorologie

Source.


Traduction

Commission des sciences, de l’espace et de la technologie de la Chambre des Représentants des États-Unis

2 février 2016

Témoignage de John R. Christy

Université d’Alabama à Huntsville.

Je m’appelle John R. Christy, Professeur émérite en Sciences de l’Atmosphère, Climatologue d’État de l’Alabama et Directeur du Centre des Sciences du Système Terrestre à l’Université d’Alabama à Huntsville. J’ai été auteur principal, auteur collaborateur et réviseur des évaluations du GIEC des Nations Unies, j’ai reçu la médaille de la NASA pour réalisations scientifiques exceptionnelles et, en 2002, j’ai été élu membre de l’American Meteorological Society.

C’est un privilège pour moi d’offrir mon analyse de la situation actuelle concernant (1) les ensembles de données de température utilisés pour étudier le climat, (2) notre compréhension fondamentale du changement climatique et (3) l’effet que des réglementations, telles que l’accord de Paris, pourraient avoir sur le climat. J’ai également joint un extrait de mon témoignage au Sénat en décembre dernier, dans lequel j’aborde (1) la notion populaire selon laquelle les événements climatiques extrêmes augmentent en raison du changement climatique d’origine humaine (ce n’est pas le cas), et (2) la direction malheureuse prise par la recherche dans ce domaine.

La meilleure façon de décrire mon domaine de recherche est de dire qu’il s’agit de construire des ensembles de données à partir de rien pour mieux comprendre ce que fait le climat et pourquoi il le fait – une activité que j’ai commencée adolescent il y a plus de 50 ans. J’ai utilisé des observations de surface traditionnelles ainsi que des mesures effectuées par des ballons et des satellites pour documenter l’histoire du climat. Un grand nombre de nos ensembles de données UAH sont utilisés pour tester des hypothèses sur la variabilité et le changement climatiques.

(1.1) Données de température de la couche supérieure de l’air provenant de satellites et de ballons

Je commencerai par une discussion qui a été suscitée par une campagne de plus en plus active d’affirmations négatives faites à l’encontre des observations, c’est-à-dire des données, des températures de l’air supérieur. La Figure 1, en particulier, a attiré une attention considérable de la part de ceux qui considèrent que le système climatique subit une transformation rapide, causée par l’homme, vers un climat auquel les gens auront beaucoup de mal à s’adapter. Ce simple graphique montre que la projection moyenne du modèle, sur laquelle se fondent leurs craintes (ou leurs espoirs?), est médiocre en ce qui concerne la mesure fondamentale de la température censée être la plus sensible aux gaz à effet de serre supplémentaires – la température atmosphérique globale de la couche située entre la surface et 15 000 mètres. [La couche représentée est connue sous le nom de troposphère moyenne ou MT et est utilisée parce qu’elle chevauche la région de l’atmosphère tropicale qui présente la plus grande signature anticipée de la réponse à l’effet de serre par masse globale – entre 6 000 et 15 000 mètres]. Le graphique indique que la théorie sur la façon dont les changements climatiques se produisent, et l’impact associé des gaz à effet de serre supplémentaires, n’est pas suffisamment bien comprise pour reproduire le climat passé [voir la partie (2)]. En effet, les modèles surchauffent clairement l’atmosphère. Le problème qui se pose pour le Congrès est que des projections de modèles aussi manifestement déficientes sont utilisées pour élaborer des politiques.

Fig. 1: Valeurs moyennes sur cinq ans de la température globale annuelle moyenne (1979-2015) (appelée « troposphérique moyenne » ou « MT ») telle que représentée par la moyenne des 102 modèles climatiques CMIP5 du GIEC (rouge), la moyenne de 3 ensembles de données satellitaires (vert – UAH, RSS, NOAA) et 4 ensembles de données par ballon (bleu, NOAA, UKMet, RICH, RAOBCORE).

Ce résultat remettant en cause la théorie actuelle du réchauffement par effet de serre de manière relativement directe, plusieurs attaques bien financées ont été lancées contre ceux d’entre nous qui éloaborent et utilisent ces ensembles de données et contre les ensembles de données eux-mêmes. En tant que climatologue, je me suis retrouvé, avec des collègues partageant les mêmes idées, projeté dans un monde plus étroitement associé à la diffamation et à la diversion, que l’on trouve par exemple dans la politique de Washington, plutôt qu’à un discours objectif et dépassionné communément admis dans le domaine scientifique. Les enquêtes menées sur nous par le Congrès et les médias sont motivées par l’idée que quiconque n’est pas d’accord avec le point de vue de l’establishment climatique sur le dangereux changement climatique doit être à la solde d’organisations calomnieuses ou être mentalement déficient.

C’est également dans ce milieu qu’est propagé le matériel promotionnel, c’est-à-dire la propagande, qui tente de discréditer ces données (et les chercheurs) par des allégations qui ne mènent à rien.

Plusieurs de ces allégations contre les données sont apparues il y a quelques semaines sous la forme d’une vidéo bien ficelée. J’aborderai ses principales affirmations avec le matériel suivant, qui, sous une forme similaire, est apparu dans la littérature évaluée par les pairs au fil des ans.

La vidéo en question a été promue par un groupe de pression sur le changement climatique (Yale Climate Connections, http://www.yaleclimateconnections.org/2016/01/over-reliance-on-satellite-data-alone-criticized/) dans laquelle des scientifiques renommés font des affirmations pour la plupart dénuées de sens ou complètement fausses par rapport aux preuves de la Fig. 1. Je souhaite faire quatre remarques concernant cette vidéo et démontrer la tactique de diversion pour laquelle ce genre de vidéos orientées, ainsi que les médias qui les imitent joyeusement, se sont rendus célèbres.

Premièrement, il est affirmé que les satellites ne mesurent pas la température. En réalité, les capteurs des satellites mesurent la température par les radiations émises – la même méthode qu’un médecin utilise pour mesurer la température corporelle avec une grande précision à l’aide d’une sonde auriculaire. L’oxygène atmosphérique émet des micro-ondes, dont l’intensité est directement proportionnelle à la température de l’oxygène, et donc de l’atmosphère. Le fait que les satellites mesurent la température est évident dans le graphique suivant, qui compare les données satellitaires de l’UAH aux températures calculées à partir des thermistances des ballons. Soit dit en passant, la plupart des mesures de la température de surface sont indirectes et utilisent une résistance électronique.

Fig. 2: Variations moyennes de température mesurées dans 59 stations de radiosondage aux États-Unis (fabricant VIZ) et en Australie.

Deuxièmement, les scientifiques affirment que la chute verticale (décroissance orbitale) des satellites due à la friction atmosphérique provoque un refroidissement parasite dans le temps. Cette chute verticale a un impact non mesurable sur la couche (MT) utilisée ici et constitue donc une affirmation dénuée de sens. Dans des versions beaucoup plus anciennes d’un autre produit de couche (LT ou Basse Troposphère), ce problème existait, mais il a été facilement corrigé il y a près de 20 ans. Ainsi, le fait de soulever des problèmes qui affectaient une variable différente qui, de toute façon, a été corrigée il y a de nombreuses années est une manœuvre de diversion évidente qui, à mon avis, démontre la faiblesse de leur position.

Troisièmement, les scientifiques parlent des faux changements de température qui se produisent lorsque les satellites dérivent dans la direction est-ouest, le problème dit de la dérive diurne (que nous avons été les premiers à détecter et à prendre en compte). Ils parlent d’une erreur de signe dans la procédure de correction qui a modifié la tendance. Encore une fois, cette erreur n’était pas un facteur dans la couche MT de la Fig. 1, mais pour la couche LT, qui est différente. Et, encore une fois, cette question a été traitée pour la LT il y a 10 ans.

Enfin, bien que cela ne soit pas spécifiquement mentionné dans cette vidéo, certains de ces scientifiques prétendent que la Fig. 1 ci-dessus est en quelque sorte manipulée, dans le but de cacher leur croyance dans les prouesses et la validité des modèles climatiques. À cela, au contraire, je réponds que nous avons présenté les données de la manière la plus significative possible. Il s’agit ici du taux de réchauffement de l’atmosphère globale, c’est-à-dire de la tendance. Cette mesure nous indique à quelle vitesse la chaleur s’accumule dans l’atmosphère – la mesure fondamentale du réchauffement climatique. Pour représenter visuellement ce phénomène, j’ai ajusté tous les ensembles de données afin qu’ils aient une origine commune. Pensez à cette analogie: j’ai participé à plus de 500 courses au cours des 25 dernières années et, à chaque fois, tous les coureurs partent du même endroit au même moment dans le simple but de déterminer qui est le plus rapide, et de combien, à l’arrivée. Il est évident que la vitesse globale relative des coureurs est déterminée par leur position au moment où ils franchissent la ligne d’arrivée, mais ils doivent tous partir ensemble.

De la même manière, j’ai construit le graphique de façon à ce que la ligne de tendance de toutes les séries chronologiques de température commence au même point en termes d’amplitude et de temps (valeur zéro en 1979) afin que le lecteur puisse voir l’ampleur de l’écart à la ligne d’arrivée (2015). Un aperçu de cette méthode est illustré à la Fig. 3 où je présente ce qui est vu à la Fig. 1, sauf qu’il s’agit uniquement de la ligne de tendance sans les variations qui se produisent chaque année en raison des volcans et autres facteurs. Cela revient à tracer la vitesse moyenne globale d’un coureur le long du parcours, même s’il a probablement couru plus lentement dans les montées et plus vite dans les descentes.

Cette image indique que les modèles, en moyenne, réchauffent cette couche globale environ 2,5 fois plus vite que ce que les observations indiquent. Il s’agit d’une différence significative non expliquée, qui indique que la théorie de l’impact de l’effet de serre sur la température atmosphérique n’est pas suffisamment connue pour même reproduire ce qui s’est déjà produit. Nous ne parlons pas ici de 10 ou 15 ans, mais de 37 ans – bien plus d’un tiers de siècle. Le fait que deux types de systèmes de mesure très indépendants (ballons et satellites) construits par une variété d’institutions (gouvernement, université, privé) montrent tous un taux de réchauffement beaucoup plus lent donne une grande confiance dans leur résultat. Ainsi, les preuves suggèrent fortement que la théorie, telle qu’elle est incarnée dans les modèles, va beaucoup trop loin en forçant l’atmosphère à retenir la chaleur alors qu’en réalité, l’atmosphère a les moyens d’évacuer cette chaleur et se réchauffe donc à un rythme beaucoup plus lent.

Fig. 3: La ligne de tendance linéaire sur la période 1979-2015. Les couleurs représentent les mêmes données sources que dans la Fig. 1.

J’ai montré ici que pour l’atmosphère globale, les modèles surchauffent l’atmosphère d’un facteur d’environ 2,5. Par ailleurs, si on se concentre sur les tropiques, les modèles montrent un réchauffement par effet de serre encore plus important dans cette couche. Cependant, un calcul similaire avec les observations présentées à la Fig. 3 indique que les modèles surchauffent l’atmosphère tropicale d’un facteur d’environ 3, (modèles +0,265, satellites +0,095, ballons +0,073 °C/décennie), ce qui indique à nouveau que la théorie actuelle est en contradiction avec les faits. (voir à nouveau la section 2).

C’est une stratégie téméraire, à mon avis, que de promouvoir activement les résultats des modèles climatiques théoriques tout en attaquant les multiples lignes de preuves issues d’observations. Il convient de noter qu’aucun des ensembles de données d’observation n’est parfait et qu’il est sain de continuer à les examiner, mais lorsque de multiples groupes indépendants génèrent les ensembles de données et que les résultats de deux systèmes totalement indépendants (ballons et satellites) concordent étroitement et sont en désaccord avec les résultats du modèle, on ne peut que se poser des questions sur la décision de lancer une offensive contre les données. Cela n’a d’après moi aucun sens scientifique.

(1.2) Questions relatives à la température de surface

Il existe plusieurs problèmes concernant les ensembles de données sur la température de surface qui sont trop complexes pour être abordés dans ce document. Je me concentrerai sur quelques points qui me sont familiers et sur lesquels j’ai publié.

(1.2.a) La température de surface comme mesure pour détecter l’influence de l’augmentation des concentrations de gaz à effet de serre

L’un de mes nombreux centres d’intérêt en matière de climat est la manière dont les températures de surface sont mesurées et dont elles sont affectées par leur environnement, en particulier au-dessus des terres. Dans plusieurs articles (Christy et al. 2006 J. Climate, Christy et al. 2009 J. Climate, Christy 2013 J. Appl. Meteor. Clim. et Christy et al. 2016 J. Appl. Meteor. Clim.) j’ai examiné de près les stations individuelles dans différentes régions et je suis arrivé à la conclusion que l’ampleur du signal relativement faible que nous recherchons dans le changement climatique d’origine humaine est susceptible d’être faussé par la croissance de l’infrastructure autour des stations thermométriques et la variété des changements que ces stations subissent au fil du temps, ainsi que la variabilité des hauts et des bas naturels du climat. Il est difficile d’ajuster ces facteurs de contamination afin d’extraire un ensemble de données pures pour la détection de l’effet de serre, car souvent, l’influence non climatique se manifeste très progressivement, exactement comme on l’attendrait des réactions à une intensification de l’effet de serre.

En examinant les températures de l’océan (Christy et al. 2001, Geophys. Res. Lett.), j’ai découvert que les tendances de la température de l’eau (1m de profondeur) ne suivent pas bien celles de la température de l’air juste au-dessus de l’eau (3m), même si les deux sont mesurées sur la même bouée pendant 20 ans. Ceci est important pour la discussion ci-dessous où la NOAA a utilisé les températures de l’air marin pour ajuster les mesures de la température de l’eau à partir de navires.

Il existe de nombreux autres facteurs qui rendent les ensembles de données sur la température de surface peu efficaces pour la détection d’un réchauffement accru dû à l’effet de serre, (a) le manque de couverture géographique systématique dans le temps, (b) les méthodes et instruments de mesure non systématiques dans le temps et l’espace, (c) la mesure ponctuelle représente au mieux une zone locale minuscule et (d) est facilement affectée par de légers changements dans l’environnement, qui peuvent se produire par exemple lorsqu’une station se déplace. Des efforts considérables ont été déployés pour essayer d’ajuster les données brutes de surface afin d’obtenir une série chronologique qui représenterait celle d’un environnement vierge, et j’ai dirigé ou participé à certains de ces efforts (par exemple pour la Californie centrale dans Christy et al. 2006 et pour l’Afrique de l’Est dans Christy et al. 2009 et Christy 2013).

Ainsi, fort d’une expérience dans la construction d’ensembles de données de température de surface, par satellite et par ballon, et en tenant compte du signal que nous recherchons pour détecter une intensification de l’effet de serre, il me semble que l’utilisation des mesures atmosphériques globales offre la meilleure opportunité de répondre aux questions sur la réaction du climat à ce changement de composition atmosphérique induit par l’homme. L’atmosphère profonde est beaucoup plus cohérente dans l’espace et dans le temps en termes de variations. Elle n’est pas affectée par le développement humain à la surface. Elle est mesurée systématiquement. Certes, les températures mesurées par satellite et par ballon nécessitent leurs propres ajustements et ne peuvent être considérées comme « parfaites », mais elles offrent une indépendance l’une par rapport à l’autre qui permet des études de comparaison directe. En ce qui concerne la détection de l’intensification de l’effet de serre, il se trouve que la troposphère, comme l’indiquent les modèles, est la région atmosphérique qui réagit le plus, c’est-à-dire qui se réchauffe le plus rapidement, et constitue donc, à mon avis, une mesure qui offre un meilleur moyen de détecter l’influence humaine sur le climat.

(1.2.b) Le nouveau jeu de données sur les températures de surface de la NOAA

Une série d’articles a été publiée l’année dernière (notamment Huang et al. 2015 J. Climate, Karl et al. 2015 Science) décrivant un nouvel ensemble de données sur la température de surface élaboré par la NOAA qui indique un réchauffement un peu plus important au cours des 10 à 25 dernières années que les versions précédentes. Le principal changement concernait les températures de l’eau de mer dans l’ensemble de données désormais connu sous le nom de ERSSTv4. Ce changement a introduit un réchauffement supplémentaire dans les données à partir de 1990 environ. La principale raison de ce nouveau réchauffement, comme le notent les auteurs, est l’ajustement appliqué aux données des bouées, ajoutant environ +0,12 °C aux relevés des bouées. En 1980, seuls 10% environ des rapports de données provenaient de bouées, mais en 2000, 90% environ étaient des données de bouées. Ainsi, étant donné que l’influence des données des bouées a augmenté de manière significative au fil du temps, le simple ajout d’un biais à toutes les bouées dès le début a créé une tendance plus chaude à mesure qu’elles devenaient la principale source d’information.

Un certain contexte est nécessaire. Contrairement aux ensembles de données des satellites et des ballons qui mesurent une quantité systématique (essentiellement la température de l’air atmosphérique), les ensembles de données sur la température de surface sont un mélange de températures de l’air (sur terre) et de l’eau (sur l’océan) mesurées à l’aide d’une gamme considérable d’instruments, d’expositions et de méthodes. Sur terre, les stations météorologiques mesurent la température de l’air dans différents types d’abris pour instruments et par différentes techniques à un niveau d’environ 1,5m au-dessus du sol. Au-dessus de l’océan, cependant, la température utilisée est celle de l’eau elle-même, et non celle de l’air au-dessus, de sorte que les ensembles traditionnels de données sur la surface du globe ne mesurent pas un paramètre physique homogène sur terre et dans l’océan. En outre, la profondeur à laquelle est mesurée la température de l’eau est très variable, de 0,6 à 15 mètres environ, et les méthodes utilisées vont des seaux remontés sur le pont dans lesquels on insère un thermomètre aux températures de l’admission du moteur, beaucoup plus profondes dans l’eau, en passant par les bouées, dérivantes ou amarrées au fond. Le fait que la température varie en fonction de la profondeur est donc un problème à résoudre avant de pouvoir tenter de construire un ensemble de données systématique. De plus, les mesures ne sont pas cohérentes dans l’espace et dans le temps, et de grandes régions, comme l’Afrique et les océans du Sud, ne sont pas mesurées.

N’oubliez pas que même si la tendance de cet ensemble de données de la NOAA est devenue plus positive au cours des 10 à 20 dernières années, elle reste inférieure aux projections des modèles climatiques à long terme. Pour les périodes plus longues, comme la période depuis 1979, date à laquelle les satellites ont commencé à mesurer les températures atmosphériques globales, le nouvel ensemble de données mondiales est similaire à celui du Centre Hadley (1979-2015: NOAA +0,155 °C/décennie, Centre Hadley UKMet, +0,165 °C/décennie). Cependant, des questions subsistent concernant le nouvel ensemble de données sur l’eau de mer de la NOAA, notamment sur la manière dont il indique un réchauffement plus important que les autres au cours des 20 dernières années. La Figure 4 présente les tendances océaniques pour la région 20S à 60N (c’est-à-dire les océans tropicaux et de l’hémisphère nord – il y avait trop peu de données au sud du 20S pour y générer des températures de l’air proche de la surface). Quatre ensembles de données sont représentés: NOAA (NOAA, rouge), Centre Hadley (HadCRUT4, orange), une température préliminaire de l’air proche de la surface sur les océans par mon étudiant diplômé Rob Junod (jaune) et la température de l’air de la couche profonde de l’UAH provenant des satellites (bleu). Les données NOAA et HadCRUT4 sont des températures de l’eau de mer près de la surface, elles devraient donc être identiques.

La NOAA a utilisé une curieuse variable de référence pour calibrer les températures de l’eau mesurées à partir des prises d’eau des navires – la température de l’air marin nocturne (NMAT). C’est curieux car les NMAT elles-mêmes nécessitent des ajustements considérables, c’est-à-dire des corrections pour la hauteur du pont du navire, etc. Quoi qu’il en soit, à partir de là, les données des bouées ont ensuite été ajustées pour correspondre aux données des navires. Il semble donc que le processus d’ajustement fondamental dépende des NMAT pour ajuster les données des navires et ensuite ajuster les données des bouées. Le produit final de la NOAA mélange toutes ces données, et comme la représentation géographique des différents systèmes a changé de façon spectaculaire (comme on l’a noté, d’environ 10% de bouées et 90% de navires en 1980 à 90% de bouées et 10% de navires aujourd’hui – Huang et al. 2015), un ajustement appliqué aux bouées influencera automatiquement la tendance.

Je suis conscient que le Comité a cherché à obtenir des informations sur ce curieux processus et a demandé à la NOAA de générer des ensembles de données basés uniquement sur des systèmes de mesure cohérents, c’est-à-dire des navires seuls, des bouées seules et des NMATs seuls, afin de voir si l’un des systèmes aurait pu influencer les tendances de manière inappropriée en raison des changements de distribution. La NOAA n’a pas été en mesure de répondre à cette demande. En même temps, j’ai demandé à mon étudiant diplômé, Rob Junod, de faire le travail pour le NMAT. Ce qui est présenté ici est préliminaire, mais suit une grande partie des travaux précédents sur les NMAT (développés au National Oceanographic Centre et au Centre Hadley au Royaume-Uni) avec l’avantage supplémentaire d’être mis à jour en 2014. La meilleure couverture géographique des données a été trouvée entre 20°S et 60°N. Cette zone a donc également été appliquée aux autres ensembles de données pour une comparaison entre éléments identiques. Les résultats sont présentés à la Figure 4, dans laquelle toutes les tendances se terminent en 2014 mais couvrent des périodes par tranches de deux ans, de 20 ans à 10 ans.

Figure 4. Tendances décennales (°C/décennie) de quatre ensembles de données de température sur les océans de 20°S à 60°N pour des périodes variables se terminant en 2014. Le rouge et l’orange sont des ensembles de données sur la température de l’eau de mer en surface provenant de la NOAA et du Centre Hadley (HadCRUT4). Le jaune est un ensemble de données de température de l’air proche de la surface (Night Marine Air Temperature) construit par l’UAH (préliminaire). Le bleu est la tendance de la température de l’atmosphère profonde (de la surface à 10 000 mètres ou basse troposphère) à partir des émissions de micro-ondes captées par les satellites (également UAHv6.0b5).

Un certain nombre d’observations sautent aux yeux dans la Fig. 4. (1) En termes de tendance de température, les températures de l’air sont inférieures à celles de l’eau (comme indiqué dans mon étude de 2001 mentionnée ci-dessus.) (2) NOAA réchauffe le plus rapidement dans toutes les périodes. (3) Au cours des 10 à 14 dernières années, les tendances de l’HadCRUT4 concordent mieux avec la série de données sur la température de l’air proche de la surface (étant proche de zéro et soutenant la notion de hiatus) qu’avec les tendances de sa quantité physiquement identique de la NOAA. (4) L’ampleur des tendances des NMAT se situe entre les tendances de l’atmosphère profonde et de l’eau de mer.

Cette figure génère également un certain nombre de questions sur la qualité des données. (1) Si les NMAT ont été utilisées pour calibrer les températures des navires, puis les navires pour calibrer les températures des bouées, pourquoi la série de données de la NOAA diffère-t-elle autant de son point de référence de base – les NMAT? (2) A quoi ressemblent les séries temporelles et quelles sont les tendances de la sous-période pour l’eau de mer lorsque seuls les navires et/ou les bouées sont utilisés pour construire l’ensemble de données pour les 20-25 dernières années? (3) Que montre la série chronologique de la série de données NMAT de la NOAA (c’est-à-dire leur référence)?

Les véritables questions scientifiques ici sont celles qui ont une importance significative pour la compréhension de la façon dont les gaz à effet de serre supplémentaires pourraient affecter le climat, comme le montre la section suivante.

(2) Dans quelle mesure comprenons-nous le changement climatique?

L’un des objectifs scientifiques essentiels de notre époque est de déterminer si les émissions dues aux activités humaines ont un impact sur le climat et, si oui, dans quelle mesure. Cette tâche est d’autant plus difficile que nous savons que le système climatique est déjà soumis à des changements importants sans l’influence de l’homme. Étant donné qu’il n’existe pas de dispositif de mesure qui détermine explicitement la cause des changements climatiques que nous pouvons mesurer, comme la température, notre science doit adopter une approche différente pour chercher à comprendre ce qui cause les changements, c’est-à-dire quelle part est naturelle et quelle part est induite par l’homme. L’approche de base aujourd’hui utilise des modèles climatiques. (Les projections de ces modèles sont également utilisées pour les politiques en matière de carbone).

Il est important de comprendre que les résultats de ces modèles (c’est-à-dire les projections du climat futur et le lien spécifique que l’augmentation du CO2 pourrait avoir sur le climat) sont définis comme des hypothèses ou des affirmations scientifiques – les résultats des modèles ne peuvent être considérés comme une preuve des liens entre les variations climatiques et les gaz à effet de serre. Ces modèles sont des programmes informatiques complexes qui tentent de décrire, à l’aide d’équations mathématiques, le plus grand nombre possible de facteurs affectant le climat et d’estimer ainsi comment le climat pourrait évoluer à l’avenir. On espère que le modèle fournira des réponses précises aux variables climatiques, comme la température, lorsque des gaz à effet de serre supplémentaires sont inclus dans le modèle. Cependant, les équations de presque tous les processus climatiques importants ne sont pas exactes et représentent les meilleures approximations que les modélisateurs peuvent concevoir et que les ordinateurs peuvent gérer à ce stade.

Un aspect fondamental de la méthode scientifique est que si nous affirmons comprendre un système (tel que le système climatique), nous devons être en mesure de prédire son comportement. Si nous sommes incapables de faire des prédictions précises, c’est qu’au moins certains des facteurs du système ne sont pas bien définis ou peut-être même manquants. [Notez toutefois que le fait de reproduire le comportement du système (c’est-à-dire de reproduire « ce » que fait le climat) ne garantit pas que la physique fondamentale est bien connue. En d’autres termes, il est possible d’obtenir la bonne réponse pour les mauvaises raisons, c’est-à-dire obtenir le « quoi » du climat mais manquer le « pourquoi »].

Comprenons-nous comment les gaz à effet de serre affectent le climat, c’est-à-dire le lien entre les émissions et les effets climatiques? Comme indiqué plus haut, une mesure très élémentaire pour les études climatiques est la température de la couche atmosphérique principale appelée troposphère, qui s’étend en gros de la surface à une altitude de 15 000 mètres. Il s’agit de la couche qui, selon les modèles, devrait se réchauffer de manière significative avec l’augmentation du CO2, et même plus rapidement que la surface. Contrairement à la température de surface, cette température globale nous renseigne sur le nœud de la question du réchauffement climatique: quelle quantité de chaleur s’accumule dans l’atmosphère mondiale? Et, selon les modèles, ce réchauffement causé par le CO2 devrait être facilement détectable à l’heure actuelle. Il s’agit d’un bon test de notre compréhension du système climatique, car depuis 1979, nous disposons de deux moyens indépendants pour surveiller cette couche: les satellites depuis le ciel et les ballons équipés de thermomètres lâchés depuis la surface.

J’ai pu accéder à 102 simulations de modèles climatiques CMIP-5 rcp4.5 (representative concentration pathways) des températures atmosphériques pour la couche troposphérique et générer des températures globales à partir des modèles pour une comparaison entre éléments identiques avec les observations des satellites et des ballons. Ces modèles ont été développés dans des institutions du monde entier et utilisés dans l’évaluation scientifique du GIEC AR5 (2013).

Ci-dessus: Variations de la température moyenne mondiale de la troposphère moyenne (moyennes sur 5 ans) pour 32 modèles (lignes) représentant 102 simulations individuelles. Les cercles (ballons) et les carrés (satellites) représentent les observations. Le modèle russe (INM-CM4) était le seul modèle proche des observations.

Les informations contenues dans cette figure montrent clairement que les modèles ont une forte tendance à surchauffer l’atmosphère par rapport aux observations réelles. En moyenne, les modèles réchauffent l’atmosphère mondiale à un rythme 2,5 fois supérieur à celui du monde réel. Il ne s’agit pas d’un épisode à court terme, spécialement sélectionné, mais d’une période de 37 ans, soit plus d’un tiers de siècle. C’est également la période où la concentration de gaz à effet de serre est la plus élevée, et donc celle où la réaction devrait être la plus importante.

Si l’on suit la méthode scientifique consistant à confronter les affirmations aux données, on peut conclure que les modèles ne représentent pas fidèlement au moins certains des processus importants qui influent sur le climat, car ils n’ont pas été en mesure de « prévoir » ce qui s’est déjà produit. En d’autres termes, ces modèles ont échoué au simple test consistant à nous dire « ce qui » s’est déjà produit, et ne seraient donc pas en mesure de nous donner une réponse fiable à la question de savoir « ce qui » pourrait se produire à l’avenir et « pourquoi ». En tant que tels, ils seraient d’une valeur très discutable pour déterminer une politique qui devrait dépendre d’une compréhension très sûre du fonctionnement du système climatique.

Il existe une mesure climatique connexe qui utilise également la température atmosphérique qui, dans les modèles, a une réaction encore plus importante que celle de la moyenne mondiale présentée ci-dessus. Cette mesure constitue donc un test plus solide pour comprendre la performance des modèles en ce qui concerne spécifiquement les gaz à effet de serre. Dans les modèles, l’atmosphère tropicale se réchauffe de manière significative en réponse à l’ajout de gaz à effet de serre – plus que la température atmosphérique moyenne mondiale.

Ci-dessus: Variations de la température moyenne de la troposphère moyenne tropicale (moyennes sur 5 ans) pour 32 modèles (lignes) représentant 102 simulations individuelles. Les cercles (ballons) et les carrés (satellites) représentent les observations.

Dans la comparaison tropicale présentée ici, la disparité entre les modèles et les observations est encore plus grande, les modèles réchauffant en moyenne cette région atmosphérique d’un facteur trois plus important que dans la réalité. Un tel résultat renforce l’implication ci-dessus que les modèles ont encore beaucoup d’améliorations à faire avant que nous puissions avoir confiance qu’ils fourniront des informations sur ce que le climat peut faire dans le futur ou même pourquoi le climat varie comme il le fait. Pour la question qui nous occupe, les estimations de la manière dont la température mondiale pourrait être affectée par les réductions d’émissions prévues par les réglementations seraient exagérées et non fiables.

(3) L’impact climatique des réglementations (c.-à-d. Paris) ne sera pas attribuable ou détectable

Personne ne connaît l’impact climatique des réductions d’émissions de carbone proposées et convenues à Paris. La principale raison en est que les pays disposent d’une grande latitude pour en faire autant ou aussi peu qu’ils le souhaitent. Si l’on examine l’histoire des émissions mondiales de carbone, il est clair que les pays, en particulier les pays en développement, continueront à chercher à développer l’utilisation de l’énergie par la combustion du carbone en raison de son caractère abordable et des avantages considérables qu’il procure à leurs citoyens.

Dans tous les cas, l’impact sur la température mondiale des réductions actuelles et proposées des gaz à effet de serre sera, au mieux, minuscule. Pour le démontrer, supposons, par exemple, que les émissions totales des États-Unis soient réduites à zéro, à partir du 13 mai 2015 dernier (date d’une audience à laquelle j’ai témoigné). En d’autres termes, à partir de ce jour et à l’avenir, il n’y aurait plus d’industrie, plus de voitures, plus de services publics, plus de personnes – c’est-à-dire que les États-Unis cesseraient d’exister à partir de ce jour. Les réglementations, bien sûr, ne réduiront les émissions que dans une faible mesure, mais pour montrer à quel point l’impact de la réglementation sera minuscule, nous allons tout simplement aller au-delà de la réalité et faire disparaître les États-Unis. Nous tenterons ainsi de répondre à la question de l’impact du changement climatique dû à la réduction des émissions.

À l’aide de l’outil d’impact du GIEC de l’ONU connu sous le nom de Modèle d’évaluation des changements climatiques induits par les gaz à effet de serre ou MAGICC [Model for the Assessment of Greenhouse-gas Induced Climate Change], Rob Junod, étudiant diplômé, et moi-même avons réduit la croissance prévue des émissions mondiales totales en fonction de la contribution des émissions américaines à partir de cette date. Nous avons également utilisé la valeur de la sensibilité du climat d’équilibre déterminée par des techniques empiriques, soit 1,8°C. Après 50 ans, l’impact tel que déterminé par ces calculs de modèle ne serait que de 0,05 à 0,08°C – une quantité inférieure à celle de la fluctuation de la température mondiale d’un mois à l’autre. [Ces calculs ont utilisé les scénarios d’émissions A1B-AIM et AIF-MI, les émissions américaines représentant 14% à 17% des émissions mondiales de 2015. Il existe des preuves que la sensibilité du climat est inférieure à 1,8°C, ce qui diminuerait encore ces projections].

Comme indiqué, l’impact sur les émissions mondiales et le climat mondial des récents accords de Paris concernant les émissions mondiales n’est pas exactement quantifiable. Il est pratiquement impossible de prévoir le comportement de chaque pays en matière d’émissions, sans compter qu’il est impossible de savoir comment les systèmes énergétiques eux-mêmes évolueront dans le temps.

Étant donné que l’arrêt des émissions de l’ensemble de notre pays aurait un impact calculé si minime sur le climat mondial, il est évident que des réductions fractionnées des émissions par le biais de la réglementation produiraient des résultats imperceptibles. En d’autres termes, il n’y aurait aucune preuve à l’avenir pour démontrer qu’un impact climatique particulier a été induit par les réglementations proposées et promulguées. Ainsi, les réglementations n’auront aucune conséquence significative ou utile sur le système climatique physique – même si l’on croit que les modèles climatiques sont des outils de prédiction utiles.

Résumé

Le changement climatique est un sujet très vaste qui présente de nombreuses difficultés. Nos connaissances de base sur l’évolution du climat (c’est-à-dire les mesures) sont entachées d’incertitudes. Dans mon témoignage d’aujourd’hui, j’ai montré que la température atmosphérique globale est suffisamment bien mesurée pour démontrer que notre compréhension de la façon dont les gaz à effet de serre affectent le climat est nettement insuffisante pour expliquer le climat depuis 1979. En particulier, le changement réel de la mesure fondamentale de la signature du réchauffement par effet de serre – la température atmosphérique globale où les modèles indiquent que la preuve la plus directe du réchauffement par effet de serre devrait se trouver – est considérablement déformé par les modèles. Bien qu’aucun ensemble de données ne soit parfait, la manière dont les ensembles de données de surface ont été élaborés laisse de nombreuses questions sans réponse, en particulier pour la récente mise à jour de la NOAA qui montre un réchauffement plus important que les autres. Enfin, les réglementations déjà appliquées ou en cours de proposition, telles que celles de l’Accord de Paris, n’auront pratiquement aucun impact sur l’évolution du climat.

Annexe A

Cette annexe est un extrait de mon témoignage écrit présenté lors de l’audience suivante:

Comité du Sénat américain sur le commerce, les sciences et les transports

Sous-comité sur l’espace, la science et la compétitivité

8 déc. 2015

Témoignage de John R. Christy

Université d’Alabama à Huntsville.

Impacts présumés des changements climatiques d’origine humaine concernant les événements extrêmes.

Une grande partie de la préoccupation liée à l’augmentation des concentrations de gaz à effet de serre s’est reportée, au cours de la dernière décennie, des changements de température globale aux changements dans les événements extrêmes, c’est-à-dire les événements qui ont généralement un impact négatif sur l’économie. Ces événements peuvent être des vagues de chaleur, des inondations, des ouragans, etc.

En ce qui concerne les vagues de chaleur, voici le nombre de jours de 100°F observés aux États-Unis à partir d’un ensemble contrôlé de stations météorologiques. Non seulement il est clair que le nombre de jours de chaleur n’a pas augmenté, mais il est intéressant de constater qu’au cours des dernières années, on en a observé une relative rareté.

Ci-dessus: Nombre moyen de jours par station dans chaque année atteignant ou dépassant 100°F dans 982 stations de la base de données USHCN (NOAA/NCEI, préparé par JRChristy).

Les incendies de forêt et les feux de friches sont documentés pour les États-Unis. Les données ci-dessous indiquent qu’il n’y a pas eu de changement dans la fréquence des incendies de forêt. La superficie (non représentée) montre également peu de changement.

Ci-dessus: Nombre d’incendies de forêt aux États-Unis. La gestion de ces événements change, et donc leur nombre également, mais le nombre d’événements depuis 1985 est resté constant. (National Interagency Fire Center https://www.nifc.gov/fireInfo/nfn.htm)

Ci-dessus: Nombre d’incendies de forêt aux États-Unis par an depuis 1965.

Les deux chiffres ci-dessus montrent que la fréquence des incendies n’a pas augmenté aux États-Unis au cours des dernières décennies.

Les affirmations selon lesquelles les sécheresses et les inondations sont en augmentation peuvent également être examinées à la lumière des données d’observation.

Ci-dessus: Étendue surfacique mondiale de cinq niveaux de sécheresse pour 1982-2012 où la sécheresse est indiquée en rangs percentiles avec D0 < 30, D1 < 20, D2 < 10, D3 < 5 et D4 < 2 percentiles de la disponibilité moyenne de l’humidité. (Hao et al. 2014)

Ci-dessus: Fraction surfacique de la zone contiguë des États-Unis dans des conditions très humides (bleu) ou très sèches (rouge). NOAA/NCEI.

Les deux figures ci-dessus montrent que les conditions d’humidité n’ont pas montré de tendance à la baisse (plus de sécheresse) ou à la hausse (plus d’humidité à grande échelle). Ces informations sont rarement consultées lorsqu’il est plus commode de faire des affirmations non fondées selon lesquelles les extrêmes d’humidité, c’est-à-dire les sécheresses et les inondations (qui ont toujours existé), deviennent en quelque sorte encore plus extrêmes. Sur des périodes plus courtes et dans certains endroits, il est prouvé que les précipitations les plus fortes ont tendance à être plus importantes. Il ne s’agit pas d’un phénomène universel et il n’a pas été établi que ces changements puissent être dus à des modifications des concentrations de gaz à effet de serre, comme cela a été démontré précédemment, car les projections des modèles sont incapables de reproduire les mesures les plus simples.

Ci-dessus: Production mondiale de céréales 1961-2012. Organisation des Nations Unies pour l’alimentation et l’agriculture [FAO – Food and Agriculture Organization].

Il est facile de trouver des documents attestant de l’augmentation constante de la production de céréales. On peut s’interroger sur l’allégation du Conseil Fédéral de la Qualité de l’Environnement selon laquelle le changement climatique induit par l’homme a causé un « préjudice à l’agriculture », car si l’on considère la croissance totale de la production, qui semble s’accélérer, on pourrait supposer qu’aucun « préjudice » n’a été causé pendant une période d’augmentation des gaz à effet de serre.

Au vu des preuves fournies dans les exemples ci-dessus, il est évidemment difficile d’établir les affirmations concernant la détérioration des conditions dues au changement climatique d’origine humaine, ou plus généralement que tout changement pourrait être directement lié à l’augmentation du CO2. Ce point est également lié à la question de la capacité des modèles climatiques mentionnée précédemment. Il est clair que les modèles climatiques ne sont pas à la hauteur sur certaines questions très fondamentales de la variabilité climatique, étant incapables de reproduire « ce qui » s’est passé en matière de température globale, et donc de savoir « pourquoi » cela s’est produit. Il est donc prématuré d’affirmer que l’on connaît les causes des changements de diverses mesures exotiques du temps, telles que l’intensité des précipitations sur de courtes périodes, qui ne sont même pas explicitement générées dans les résultats des modèles climatiques.

Le décevant processus scientifique

J’ai beaucoup écrit, lors de précédentes audiences du Congrès et à d’autres occasions, sur l’incapacité de la communauté scientifique à aborder objectivement l’étude du climat et du changement climatique. (Voir l’annexe) La science du climat est une science obscure comportant de grandes incertitudes sur de nombreux éléments critiques tels que la répartition des nuages et les échanges thermiques de surface. Comme nous l’avons mentionné plus haut, il n’existe pas d’instrumentation objective qui puisse nous dire « pourquoi » les changements se produisent. Cela étant, il ne nous reste que des hypothèses (affirmations) à avancer, puis à tester. Les informations fournies ci-dessus montrent clairement, selon moi, que la compréhension théorique actuelle du « pourquoi » des changements climatiques, telle qu’incarnée dans les modèles (et sur laquelle la politique actuelle est basée), échoue à ces tests. En effet, le point de vue théorique (modèle) tel qu’il est exprimé dans le RE5 du GIEC a dans tous les cas surestimé la réaction de la température atmosphérique tropicale globale aux gaz à effet de serre supplémentaires (voir ci-dessus et la figure 10.SM.1 du matériel supplémentaire du GIEC), ce qui indique que la compréhension théorique de la réaction du climat est trop sensible aux gaz à effet de serre.

L’un des problèmes de notre science est lié au processus de financement des études climatiques, dont la grande majorité est assurée par des agences fédérales. Les décisions de financement sont prises par des personnes, et ces personnes ont des préjugés. Notre science a également connu une évolution vers une science de « consensus », où l' »accord » entre les personnes et les groupes est considéré comme supérieur à une enquête déterminée et objective. La triste progression des événements ici a même conduit à des enquêtes du Congrès destinées à faire taire (avec un certain succès) ceux dont les voix, y compris la mienne, ont contesté les points de vue politiquement corrects sur le climat (c’est-à-dire l’enquête du Congrès par le représentant Grijalva, 22 février 2015, http://www.scribd.com/doc/256811029/Letter-to-UAH-re-John-Christy).

Aujourd’hui, les décisions de financement sont prises par des comités d’examen. Dans ce processus, de nombreuses propositions de financement sont soumises aux agences, mais ces dernières ne disposent que d’une fraction des fonds disponibles pour soutenir les propositions, de sorte que seules quelques propositions peuvent être financées et celles-ci sont sélectionnées par les comités. Dans le domaine du climat, il est clair que les agences sont convaincues de la vision consensuelle d’un changement climatique dangereux, comme l’indiquent leurs diverses déclarations et communiqués de presse sur la question. Par conséquent, lorsqu’une proposition contraire est soumise, qui cherche à découvrir d’autres explications possibles que les gaz à effet de serre pour les petits changements que nous observons actuellement, ou une proposition qui cherche à examiner rigoureusement et objectivement les résultats des modèles climatiques, elle n’a pratiquement aucune chance d’être financée. Cela se produit parce que le comité détermine par un vote majoritaire qui financer, et avec une concurrence serrée, tout parti pris de quelques membres du comité contre une proposition contraire est suffisant pour être rejeté. Bien sûr, les agences prétendront que tout est fait en toute objectivité, mais ce serait précisément la réponse attendue d’une personne faisant déjà partie du « consensus » et dont l’agence a déclaré sa position sur le changement climatique. Ceci m’amène au « consensus scientifique ».

L’expression « consensus scientifique » est souvent invoquée dans les débats sur le changement climatique pour étayer une affirmation. Il s’agit d’une forme d' »argument d’autorité ». Le consensus est toutefois une notion politique, et non une notion scientifique. Comme j’ai témoigné devant l’Inter-Academy Council en juin 2010, comme je l’ai écrit dans Nature la même année (Christy 2010), et comme je l’ai documenté dans mon témoignage écrit pour plusieurs audiences du Congrès (par exemple, House Space, Science and Technology, 31 mars 2011), le GIEC et d’autres évaluations similaires ne représentent pas pour moi un consensus de beaucoup plus que le consensus de ceux qui sont sélectionnés pour être d’accord avec un consensus particulier.

Le contenu de ces rapports sur le climat est en fait sous le contrôle d’un nombre relativement restreint d’individus – je les appelle souvent « l’establishment du climat » – qui, au fil des ans, en sont venus, à mon avis, à agir comme des gardiens de l’opinion et de l’information scientifiques, plutôt que comme des intermédiaires. Les voix de ceux d’entre nous qui s’opposent à certaines déclarations et à certaines emphases dans ces évaluations sont, dans l’ensemble, rejetées plutôt que prises en compte. Cet establishment inclut les mêmes personnes qui deviennent les « experts » appelés à promouvoir les affirmations du GIEC dans les rapports gouvernementaux tels que la conclusion de mise en danger par l’Agence de Protection de l’Environnement.

Comme je l’ai souligné dans mes précédents témoignages, ces « experts » deviennent les auteurs et les évaluateurs de leurs propres recherches par rapport aux recherches qui remettent en cause leur travail. Cela devient un conflit d’intérêt évident. Mais avec le luxe d’avoir le « dernier mot » en tant qu’auteurs « experts » des rapports, les opinions alternatives disparaissent. Ce n’est pas un processus qui fournit les meilleures informations aux représentants du peuple. Le Congrès américain doit disposer de l’ensemble des points de vue sur des questions telles que le changement climatique qui sont (a) caractérisées par une ambiguïté considérable (voir les résultats des modèles) (b) utilisées pour promouvoir des actions réglementaires qui seront économiquement préjudiciables au peuple américain et, le plus ironique, (c) n’auront aucun impact sur ce que fera le climat.

J’ai souvent déclaré que la science du climat est une science « obscure ». Nous ne disposons pas de méthodes de laboratoire pour tester nos hypothèses, contrairement à de nombreuses autres sciences. Par conséquent, ce qui passe pour de la science inclut l’opinion, les arguments d’autorité, les communiqués de presse spectaculaires et les notions floues de consensus générées par des groupes présélectionnés. Ce n’est pas de la science.

Nous savons, grâce aux courriels du Climategate et à de nombreuses autres sources, que le GIEC a eu des problèmes avec ceux qui adoptent des positions sur le changement climatique différentes de celles qu’il promeut. Il existe cependant une autre façon de traiter ce problème. Puisque l’activité du GIEC et la recherche sur le climat en général sont financées par les contribuables américains, je propose que cinq à dix pour cent des fonds soient alloués à un groupe de scientifiques reconnus pour produire une évaluation qui exprime des hypothèses alternatives légitimes qui ont été (à leur avis) marginalisées, déformées ou ignorées dans les rapports précédents du GIEC (et donc dans l’Endangerment Finding de l’APE et les National Climate Assessments).

De telles activités sont souvent appelées rapports « Red Team » [équipes rouges] et sont largement utilisées par le gouvernement et l’industrie. Les décisions relatives au financement des « Red Teams » ne devraient pas être confiées à l' »establishment » actuel, mais à des panels composés de scientifiques accrédités ayant l’expérience de l’examen de ces questions. Certains efforts dans ce sens ont été déployés par le secteur privé (par exemple, le Groupe d’Experts Non-gouvernemental International sur l’Evolution du Climat, à l’adresse http://nipccreport.org/ et Michaels (2012) ADDENDUM: Global Climate Change Impacts in the United States). Je pense que les décideurs politiques, avec l’argent du public, devraient soutenir activement la collecte de toutes les informations essentielles pour aborder cette science trouble et vicieuse, puisque le public paiera en fin de compte le coût de toute législation censée agir sur le climat.

Les sujets à aborder dans cette évaluation de la « Red Team » seraient, par exemple, les suivants : (a) les preuves d’une faible sensibilité du climat à l’augmentation des gaz à effet de serre, (b) le rôle et l’importance de la variabilité naturelle et imprévue, (c) une évaluation rigoureuse et indépendante des résultats des modèles climatiques, (d) une discussion approfondie de l’incertitude, (e) l’accent mis sur les paramètres les plus directement liés au taux d’accumulation de chaleur dans le système climatique, (f) l’analyse des nombreuses conséquences, y compris les avantages, qui résultent de l’augmentation du CO2, et (g) l’importance d’une énergie abordable et accessible pour la santé et le bien-être de l’homme.

L’objectif de cette proposition est de fournir au Congrès et aux autres décideurs une évaluation parallèle, scientifiquement fondée, de l’état de la science du climat, qui aborde des questions qui n’ont pas été ou ont été sous-représentées dans les rapports précédents sur le climat, financés par les contribuables et dirigés par le gouvernement. En d’autres termes, nos décideurs politiques ont besoin de voir l’ensemble des découvertes concernant le changement climatique.

Résumé de l’extrait

Les messages des deux points soulignés dans l’extrait ci-dessus sont les suivants: (1) les affirmations concernant l’augmentation de la fréquence et de l’intensité des événements extrêmes ne sont généralement pas étayées par des observations réelles et, (2) les informations officielles sur la science du climat sont largement contrôlées par les agences par le biais (a) des choix de financement de la recherche et (b) de la sélection minutieuse (c’est-à-dire biaisée) des auteurs de rapports tels que l’Endangerment Finding de l’APE et le National Climate Assessment.


Texte original

U.S. House Committee on Science, Space & Technology

2 Feb 2016

Testimony of John R. Christy

University of Alabama in Huntsville.

I am John R. Christy, Distinguished Professor of Atmospheric Science, Alabama’s State Climatologist and Director of the Earth System Science Center at The University of Alabama in Huntsville. I have served as Lead Author, Contributing Author and Reviewer of United Nations IPCC assessments, have been awarded NASA’s Medal for Exceptional Scientific Achievement, and in 2002 was elected a Fellow of the American Meteorological Society.

It is a privilege for me to offer my analysis of the current situation regarding (1) the temperature datasets used to study climate, (2) our basic understanding of climate change and (3) the effect that regulations, such as the Paris agreement, might have on climate. I have also attached an extract from my Senate Testimony last December in which I address (1) the popular notion that extreme climate events are increasing due to human-induced climate change (they are not), and (2) the unfortunate direction research in this area has taken.

My research area might be best described as building datasets from scratch to advance our understanding of what the climate is doing and why – an activity I began as a teenager over 50 years ago. I have used traditional surface observations as well as measurements from balloons and satellites to document the climate story. Many of our UAH datasets are used to test hypotheses of climate variability and change.

(1.1) Upper air temperature data from satellites and balloons

I shall begin with a discussion that was precipitated by an increasingly active campaign of negative assertions made against the observations, i.e. the data, of upper air temperatures. Figure 1 in particular has drawn considerable attention from those who view the climate system as undergoing a rapid, human-caused transformation into a climate to which people would have great difficulty adapting. This simple chart tells the story that the average model projection, on which their fears (or hopes?) are based, does poorly for the fundamental temperature metric that is allegedly the most responsive to extra greenhouse gases – the bulk atmospheric temperature of the layer from the surface to 50,000ft. [The layer shown is known as the mid-troposphere or MT and is used because it overlaps with the region of the tropical atmosphere that has the largest anticipated signature of the greenhouse response by bulk mass – between 20,000 and 50,000 feet.] The chart indicates that the theory of how climate changes occur, and the associated impact of extra greenhouse gases, is not understood well enough to even reproduce the past climate [much more in section (2)]. Indeed, the models clearly over-cook the atmosphere. The issue for congress here is that such demonstrably deficient model projections are being used to make policy.

Fig. 1: Five-year averaged values of annual mean (1979-2015) global bulk (termed “mid-tropospheric” or “MT”) temperature as depicted by the average of 102 IPCC CMIP5 climate models (red), the average of 3 satellite datasets (green – UAH, RSS, NOAA) and 4 balloon datasets (blue, NOAA, UKMet, RICH, RAOBCORE).

Because this result challenges the current theory of greenhouse warming in relatively straightforward fashion, there have been several well-funded attacks on those of us who build and use such datasets and on the datasets themselves. As a climate scientist I’ve found myself, along with fellow like-minded colleagues, tossed into a world more closely associated with character assassination and misdirection, found in Washington politics for example, rather than objective, dispassionate discourse commonly assumed for the scientific endeavor. Investigations of us by congress and the media are spurred by the idea that anyone who disagrees with the climate establishment’s view of dangerous climate change must be on the payroll of scurrilous organizations or otherwise mentally deficient.

Also thrust into this milieu is promotional material, i.e., propaganda, attempting to discredit these data (and researchers) with claims that amount to nothing.

Several of these allegations against the data appeared a few weeks ago in the form of a well-made video. I shall address the main assertions with the following material, which in similar form has appeared in the peer-reviewed literature through the years.

The video of interest was promoted by a climate change pressure group (Yale Climate Connections, http://www.yaleclimateconnections.org/2016/01/over-reliance-on-satellite-data-alone-criticized/) in which well-known scientists make claims that are mostly meaningless or completely wrong relative to the evidence in Fig. 1. I wish to make four points regarding the video and demonstrate the misdirection for which such agendized videos, along with a happily mimicking media, are so famous.

First, the claim is made the satellites do not measure temperature. In reality, the sensors on satellites measure temperature by emitted radiation – the same method that a physician uses to measure your body temperature to high precision using an ear probe. Atmospheric oxygen emits microwaves, the intensity of which is directly proportional to the temperature of the oxygen, and thus the atmosphere. That the satellites measure temperature is evident by the following chart which compares our UAH satellite data with temperatures calculated from balloon thermistors. As an aside, most surface temperature measurements are indirect, using electronic resistance.

Fig. 2: Average temperature variations measured at 59 radiosonde stations in the U.S. (VIZ manufacturer) and Australia.

Secondly, the scientists claim that the vertical drop (orbital decay) of the satellites due to atmospheric friction causes spurious cooling through time. This vertical fall has an immeasurable impact on the layer (MT) used here and so is a meaningless claim. In much earlier versions of another layer product (LT or Lower Troposphere), this was a problem, but was easily corrected almost 20 years ago. Thus, bringing up issues that affected a different variable that, in any case, was fixed many years ago is a clear misdirection that, in my view, demonstrates the weakness of their position.

Thirdly, the scientists speak of the spurious temperature changes that occur as the satellites drift in the east-west direction, the so-called diurnal drift problem (which was first detected and accounted for by us). They speak of a sign error in the correction procedure that changed the trend. Again, this error was not a factor in the MT layer in Fig. 1, but for the different LT layer. And, again, this issue was dealt with for LT 10 years ago.

Finally, though not specifically mentioned in this video, some of these scientists claim Fig. 1 above is somehow manipulated to hide their belief in the prowess and validity of the climate models. To this, on the contrary, I say that we have displayed the data in its most meaningful way. The issue here is the rate of warming of the bulk atmosphere, i.e., the trend. This metric tells us how rapidly heat is accumulating in the atmosphere – the fundamental metric of global warming. To depict this visually, I have adjusted all of the datasets so that they have a common origin. Think of this analogy: I have run over 500 races in the past 25 years, and in each one all of the runners start at the same place at the same time for the simple purpose of determining who is fastest and by how much at the finish line. Obviously, the overall relative speed of the runners is most clearly determined by their placement as they cross the finish line – but they must all start together.

In the same way I constructed the chart so that the trend line of all of the temperature time series starts at the same point in magnitude and time (zero value at 1979) so the viewer may see how wide the spread is at the finish line (2015). One way to look at this is seen in Fig. 3 where I provide what is seen in Fig. 1 except this is only the trend line without the variations that occur from year due to volcanoes and such. This is analogous to plotting the overall average speed of a runner along the course even though they likely ran slower on an uphill, and faster on a downhill.

This image indicates the models, on average, warm this global layer about 2.5 times faster than the observations indicate. This is a significant difference that has not beenexplained and indicates the theory of greenhouse impact on atmospheric temperature is not sufficiently known to even reproduce what has already happened. We are not talking about 10 or 15 years here, but 37 years – well over a third of a century. That two very independent types of measuring systems (balloons and satellites) constructed by a variety of institutions (government, university, private) all showing the much slower rate of warming gives high confidence in its result. Thus, the evidence here strongly suggests the theory, as embodied in models, goes much too far in forcing the atmosphere to retain heat when in reality the atmosphere has a means to relinquish that heat and thus warms at a much slower rate.

Fig. 3: The linear trend line over the period 1979-2015. The colors represent the same source data as in fig. 1.

I’ve shown here that for the global bulk atmosphere, the models overwarm the atmosphere by a factor of about 2.5. As a further note, if one focuses on the tropics, the models show an even stronger greenhouse warming in this layer. However, a similar calculation with observations as shown in Fig. 3 indicates the models over-warm the tropical atmosphere by a factor of approximately 3, (Models +0.265, Satellites +0.095, Balloons +0.073 °C/decade) again indicating the current theory is at odds with the facts. (again, see section 2.)

It is a bold strategy in my view to actively promote the output of theoretical climate models while attacking the multiple lines of evidence from observations. Note that none of the observational datasets are perfect and continued scrutiny is healthy, but when multiple, independent groups generate the datasets and then when the results for two completely independent systems (balloons and satellites) agree closely with each other and disagree with the model output, one is left scratching one’s head at the decision to launch an offensive against the data. This doesn’t make scientific sense to me.

(1.2) Surface temperature issues

There are several issues regarding surface temperature datasets that are too involved to discuss in this material. I shall focus on a few points with which I am familiar and on which I have published.

(1.2.a) Surface temperature as a metric for detecting the influence of the increasing concentrations of greenhouse gases

One of my many climate interests is the way surface temperatures are measured and how surface temperatures, especially over land, are affected by their surroundings. In several papers (Christy et al. 2006 J. Climate, Christy et al. 2009 J. Climate, Christy 2013 J. Appl. Meteor. Clim., Christy et al. 2016 J. Appl. Meteor. Clim.) I closely examined individual stations in different regions and have come to the conclusion that the magnitude of the relatively small signal we seek in human-induced climate change is easily convoluted by the growth of infrastructure around the thermometer stations and the variety of changes these stations undergo through time, as well as the variability of the natural ups and downs of climate. It is difficult to adjust for these contaminating factors to extract a pure dataset for greenhouse detection because often the non-climatic influence comes along very gradually just as is expected of the response to the enhanced greenhouse effect.

In examining ocean temperatures (Christy et al. 2001, Geophys. Res. Lett.) I discovered that the trends of the water temperature (1m depth) do not track well with those of the air temperature just above the water (3m), even if both are measured on the same buoy over 20 years. This is important for the discussion below where NOAA used marine air temperatures to adjust water temperature measurements from ships.

There are many other factors that render surface temperature datasets to be of low effectiveness for the detection of enhanced greenhouse warming, (a) lack of systematic geographical coverage in time, (b) unsystematic measuring methods and instrumentationin time and space, (c) the point measurement represents at best a tiny, local area and (d) is easily impacted by slight changes in the surroundings, which can occur for example when a station moves. There have been huge efforts to try and adjust the raw surface data to give a time series that would represent that of a pristine environment, and I have led or been a part in some of these (e.g. for Central California in Christy et al. 2006 and East Africa in Christy et al. 2009 and Christy 2013).

Thus, having experience in building surface, satellite and balloon temperature datasets, and taking into account the signal we are looking for to detect the enhanced greenhouse effect, the evidence suggests to me that utilizing the bulk atmospheric measurements provides the best opportunity to answer questions about the climate’s response to this human-induced change in atmospheric composition. The deep atmosphere is much more coherent in space and time in terms of its variations. It is not affected by human development at the surface. It is measured systematically. To be sure, satellite and balloon temperatures require their own adjustments and cannot be considered “perfect”, but do offer an independence from one another to allow direct comparison studies. Regarding the detection of the enhanced greenhouse effect, the troposphere, as indicated by models, happens to be the atmospheric region that will respond the most, i.e. warm the fastest, and thus, in my view, is a metric that provides a better way to detect human influence on the climate.

(1.2.b) The new NOAA surface temperature dataset

A series of papers appeared last year (including Huang et al. 2015 J. Climate, Karl et al. 2015 Science) describing a new surface temperature dataset constructed by NOAA which indicated a bit more warming in the past 10 to 25 years than the previous versions. The key change dealt with seawater temperatures in the dataset now known as ERSSTv4. This change introduced an additional warming into the record from about 1990 onward. The main reason for this new warming, as the authors note, was the adjustment applied to buoy data, adding about +0.12 °C to the buoy readings. In 1980, only about 10 percent of the data reports were from buoys, but by 2000 about 90 percent were buoy data. Thus, because the influence of the buoy data grew significantly through time, the simple addition of a bias to all the buoys from the beginning created a warmer trend as they became the dominate source of information.

Some background is necessary. Unlike satellite and balloon datasets which measure a systematic quantity (essentially atmospheric air temperature), surface temperature datasets are a mixture of air (over land) and water (over ocean) temperatures measured over a considerable range of instruments, exposures and methods. Over land, weather stations measure the temperature of the air in varying types of instrument shelters and by varying techniques at a level about 5 ft above the ground. Over the ocean, however, the temperature utilized is that of the water itself, not the air above, so traditional global surface datasets do not measure a homogenous physical parameter over land versus ocean. Further, the depth of the water temperature measurement is quite varied from 2 ft to 50 ft or so, by methods that range from buckets drawn up on deck into which a thermometer is inserted to engine-intake temperatures much deeper in the water and to buoys, drifting or moored to the bottom. So the fact temperature varies by depth is an issue to tackle before the possibility of constructing a systematic dataset may be attempted. Then too, the measurements are not spatially or temporally consistent with large regions, such as Africa and the southern oceans, unmeasured.

Keep in mind that even though the trend of this NOAA dataset became more positive in the past 10 to 20 years, it is still below climate model projections over the longer term. For longer periods, such as the period since 1979 when satellites began measuring bulk atmospheric temperatures, the new global dataset is similar to that of the Hadley Centre (1979-2015: NOAA +0.155 °C/decade, Hadley Centre UKMet, +0.165 °C/decade). However, there are questions that remain concerning the new NOAA seawater dataset, especially how it indicates more warming in the last 20 years than others. Figure 4 displays the ocean trends for the region 20S to 60N (i.e. tropical and northern hemisphere oceans – there was too little data south of 20S for generating near-surface air temperatures there). There are 4 datasets represented, NOAA (NOAA, red), Hadley Centre (HadCRUT4, orange), a preliminary near-surface air temperature over the oceans by my graduate student Rob Junod (yellow) and the UAH deep layer air temperature from satellites (blue). Both NOAA and HadCRUT4 are temperatures of the seawater near the surface, so should be the same.

NOAA used a curious reference variable to calibrate the water temperatures measured from ship intakes – the Night Marine Air Temperature (NMAT). This is curious because there are considerable adjustments required for the NMATs themselves, i.e. corrections for height of ship deck, etc. In any case, from this, the buoy data were then adjusted to match the ship data. It appears, then, that the foundational adjustment process depends on NMATs to adjust the ship data to then adjust the buoy data. The final product from NOAA mixes all of these together, and because the geographic representation of the different systems changed dramatically (as noted, from approximately 10% buoys and 90% ships in 1980 to 90% buoys and 10% ships today – Huang et al. 2015), an adjustment applied to the buoys will automatically influence the trend.

I’m aware that the Committee sought information about this curious process and asked NOAA to generate datasets based only on consistent measuring systems, i.e. ships alone, buoys alone and NMATs alone, to see if one system might have impacted the trends improperly due to distribution changes. NOAA was unable to accommodate this request. At the same time I asked my graduate student, Rob Junod, to do the work for NMAT. What is presented here is preliminary, but follows much of the previous work on NMATs (developed at the National Oceanographic Centre and the Hadley Centre in the UK) with that added advantage of being updated to 2014. The best geographical data coverage was found to be 20°S to 60°N, so this area was also applied to the other datasets for an apples to apples comparison. The results are shown in Fig. 4 in which all trends end in 2014 but cover periods in two-year increments from 20 years to 10 years.

Figure 4. Decadal trends (°C/decade) of four temperature datasets over the oceans from 20°S to 60°N for varying periods ending in 2014. Red and orange are surface seawater temperature datasets from NOAA and the Hadley Centre (HadCRUT4). Yellow is a near-surface air temperature dataset (Night Marine Air Temperature) built by UAH (preliminary). Blue is the temperature trend of the deep atmosphere (surface to 35,000 ft or Lower Troposphere) from microwave emissions captured by satellites (also UAHv6.0b5.)

A number of observations are evident in Fig. 4. (1) In terms of the temperature trend, the air temperatures are less than those of the water (as indicated in my 2001 study mentioned above.) (2) NOAA warms the fastest in all periods. (3) In the past 10-14years, the trends of the HadCRUT4 agree better with the near-surface air temperature dataset (being near zero and supporting the notion of a hiatus) than with the trends from its physically-identical quantity from NOAA. (4) The magnitude of the NMAT trends lies between the trends of the deep atmospheric and sea water.

This figure generates a number of data quality questions too. (1) If NMATs were used to calibrate the ship temperatures and then the ships were used to calibrate the buoy temperatures, why does the NOAA dataset differ so much from its basic reference point – NMATs? (2) What do the time series look like and what are the sub-period trends for seawater under the condition that only ships and/or only buoys are used to build the dataset for the past 20-25 years? (3) What does the time series of NOAA’s NMAT (i.e. their reference) dataset show?

The real science questions here are those which have significant importance to the understanding of how extra greenhouse gases might affect the climate as shown in the following section.

(2) How well do we understand climate change?

A critical scientific goal in our era is to determine whether emissions from human activities impact the climate and if so by how much. This is made especially difficult because we know the climate system already is subject to significant changes without the influence of humans. Because there is no measuring device that explicitly determines the cause of the climate changes we can measure, such as temperature, our science must take a different approach to seek understanding as to what causes the changes, i.e. how much is natural and how much is human induced. The basic approach today utilizes climate models. (The projections of these models are being utilized for carbon policies as well.)

It is important to understand that output from these models, (i.e. projections of the future climate and the specific link that increasing CO2 might have on the climate) are properly defined as scientific hypotheses or claims – model output cannot be considered as providing proof of the links between climate variations and greenhouse gases. These models are complex computer programs which attempt to describe through mathematical equations as many factors that affect the climate as is possible and thus estimate how the climate might change in the future. The model, it is hoped, will provide accurate responses of the climate variables, like temperature, when extra greenhouse gases are included in the model. However, the equations for nearly all of the important climate processes are not exact, representing the best approximations modelers can devise and that computers can handle at this point.

A fundamental aspect of the scientific method is that if we say we understand a system (such as the climate system) then we should be able to predict its behavior. If we are unable to make accurate predictions, then at least some of the factors in the system are not well defined or perhaps even missing. [Note, however, that merely replicating the behavior of the system (i.e. reproducing “what” the climate does) does not guarantee that the fundamental physics are well-known. In other words, it is possible to obtain the right answer for the wrong reasons, i.e. getting the “what” of climate right but missing the “why”.]

Do we understand how greenhouse gases affect the climate, i.e. the link between emissions and climate effects? As noted above, a very basic metric for climate studies is the temperature of the bulk atmospheric layer known as the troposphere, roughly from the surface to 50,000 ft altitude. This is the layer that, according to models, should warm significantly as CO2 increases – even faster than the surface. Unlike the surface temperature, this bulk temperature informs us about the crux of the global warming question – how much heat is accumulating in the global atmosphere? And, this CO2- caused warming should be easily detectible by now, according to models. This provides a good test of how well we understand the climate system because since 1979 we have had two independent means of monitoring this layer – satellites from above and balloons with thermometers released from the surface.

I was able to access 102 CMIP-5 rcp4.5 (representative concentration pathways) climate model simulations of the atmospheric temperatures for the tropospheric layer and generate bulk temperatures from the models for an apples-to-apples comparison with the observations from satellites and balloons. These models were developed in institutions throughout the world and used in the IPCC AR5 Scientific Assessment (2013).

Above: Global average mid-tropospheric temperature variations (5-year averages) for 32 models (lines) representing 102 individual simulations. Circles (balloons) and squares (satellites) depict the observations. The Russian model (INM-CM4) was the only model close to the observations.

The information in this figure provides clear evidence that the models have a strong tendency to over-warm the atmosphere relative to actual observations. On average the models warm the global atmosphere at a rate 2.5 times that of the real world. This is not a short-term, specially-selected episode, but represents the past 37 years, over a third of a century. This is also the period with the highest concentration of greenhouse gases and thus the period in which the response should be of largest magnitude.

Following the scientific method of testing claims against data, we would conclude that the models do not accurately represent at least some of the important processes that impact the climate because they were unable to “predict” what has already occurred. In other words, these models failed at the simple test of telling us “what” has already happened, and thus would not be in a position to give us a confident answer to “what” may happen in the future and “why.” As such, they would be of highly questionable value in determining policy that should depend on a very confident understanding of how the climate system works.

There is a related climate metric that also utilizes atmospheric temperature which in models has an even larger response than that of the global average shown above. This metric, then, provides a stronger test for understanding how well models perform regarding greenhouse gases specifically. In the models, the tropical atmosphere warms significantly in response to the added greenhouse gases – more so than that of the global average atmospheric temperature.

Above: Tropical average mid-tropospheric temperature variations (5-year averages) for 32 models (lines) representing 102 individual simulations. Circles (balloons) and squares (satellites) depict the observations.

In the tropical comparison here, the disparity between models and observations is even greater, with models on average warming this atmospheric region by a factor of three times greater than in reality. Such a result re-enforces the implication above that the models have much improvement to undergo before we may have confidence they will provide information about what the climate may do in the future or even why the climate varies as it does. For the issue at hand, estimates of how the global temperature might be affected by emission reductions from regulations would be exaggerated and not reliable.

(3) Climate Impact of Regulations (i.e. Paris) Will Not Be Attributable or Detectable

No one knows the climate impact of the proposed carbon emission reductions agreed to in Paris. The main reason for this is that there is considerable latitude for countries to do as little or as much as they desire. Examining the history of global carbon emissions, it is clear that countries, especially developing countries, will continue to seek to expand energy use through carbon combustion because of their affordability in providing considerable positive benefits to their citizens.

In any case, impact on global temperature for current and proposed reductions in greenhouse gases will be tiny at best. To demonstrate this, let us assume, for example, that the total emissions from the United States were reduced to zero, as of last May 13th, 2015 (the date of a hearing at which I testified). In other words as of that day and going forward, there would be no industry, no cars, no utilities, no people – i.e. the United States would cease to exist as of that day. Regulations, of course, will only reduce emissions a small amount, but to make the point of how minuscule the regulatory impact will be, we shall simply go way beyond reality and cause the United States to vanish. With this we shall attempt to answer the question of climate change impact due to emissions reductions.

Using the U.N. IPCC impact tool known as Model for the Assessment of Greenhouse-gas Induced Climate Change or MAGICC, graduate student Rob Junod and I reduced the projected growth in total global emissions by U.S. emission contribution starting on this date and continuing on. We also used the value of the equilibrium climate sensitivity as determined from empirical techniques of 1.8 °C. After 50 years, the impact as determined by these model calculations would be only 0.05 to 0.08 °C – an amount less than that which the global temperature fluctuates from month to month. [These calculations used emission scenarios A1B-AIM and AIF-MI with U.S. emissions comprising 14 percent to 17 percent of the 2015 global emissions. There is evidence that the climate sensitivity is less than 1.8 °C, which would further lower these projections.]

As noted, the impact on global emission and global climate of the recent agreements in Paris regarding global emissions is not exactly quantifiable. Knowing how each country will behave regarding their emissions is essentially impossible to predict besides the added issue of not knowing how energy systems themselves will evolve over time.

Because halting the emissions of our entire country would have such a tiny calculated impact on global climate, it is obvious that fractional reductions in emissions through regulation would produce imperceptible results. In other words, there would be no evidence in the future to demonstrate that a particular climate impact was induced by the proposed and enacted regulations. Thus, the regulations will have no meaningful or useful consequence on the physical climate system – even if one believes climate models are useful tools for prediction.

Summary

Climate change is a wide-ranging topic with many difficulties. Our basic knowledge about what the climate is doing (i.e. measurements) is plagued by uncertainties. In my testimony today I have given evidence that the bulk atmospheric temperature is measured well-enough to demonstrate that our understanding of how greenhouse gases affect the climate is significantly inadequate to explain the climate since 1979. In particular, the actual change of the fundamental metric of the greenhouse warming signature – the bulk atmospheric temperature where models indicate the most direct evidence for greenhouse warming should lie – is significantly misrepresented by the models. Though no dataset is perfect, the way in which surface datasets have been constructed leaves many unanswered questions, especially for the recent NOAA update which shows more warming than the others. Finally, regulations already enforced or being proposed, such as those from the Paris Agreement, will have virtually no impact on whatever the climate is going to do.

Appendix A

This appendix is an extract from my written testimony presented at the following Hearing:

U.S. Senate Committee on Commerce, Science, & Transportation

Subcommittee on Space, Science and Competitiveness

8 Dec 2015

Testimony of John R. Christy

University of Alabama in Huntsville.

Alleged impacts of human-induced climate changes regarding extreme events

Much of the alarm related to increasing greenhouse gas concentrations shifted in the past decade from global temperature changes to changes in extreme events, i.e. those events which typically have a negative impact on the economy. These events may be heat waves, floods, hurricanes, etc.

In terms of heat waves, below is the number of 100°F days observed in the U.S. from a controlled set of weather stations. It is not only clear that hot days have not increased, but it is interesting that in the most recent years there has been a relative dearth of them.

Above: Average number of days per-station in each year reaching or exceeding 100°F in 982 stations of the USHCN database (NOAA/NCEI, prepared by JRChristy).

Forest and wild fires are documented for the US. The evidence below indicates there has not been any change in frequency of wildfires. Acreage (not shown) shows little change as well.

Above: Number of U.S. wildfires. As the management of these events changes, and thus the number also changes, but the number of events since 1985 has remained constant. (National Interagency Fire Center https://www.nifc.gov/fireInfo/nfn.htm)

Above: Number of U.S. forest fires per year since 1965.

The two figures above demonstrate that fire events have not increased in frequency in the United States during the past several decades.

The claims that droughts and floods are increasing may be examined by the observational record as well.

Above: Global areal extent of five levels of drought for 1982-2012 where dryness is indicated in percentile rankings with D0 < 30, D1 < 20, D2 < 10, D3 < 5 and D4 < 2 percentile of average moisture availability. (Hao et al. 2014)

Above: Areal fraction of conterminous U.S. under very wet (blue) or very dry (red) conditions. NOAA/NCEI.

The two figures above demonstrate that moisture conditions have not shown a tendency to have decreased (more drought) or increased (more large-scale wetness). Such information is rarely consulted when it is more convenient simply to make unsubstantiated claims that moisture extremes, i.e. droughts and floods (which have always occurred), are somehow becoming even more extreme. Over shorter periods and in certain locations, there is evidence that the heaviest precipitation events are tending to be greater. This is not a universal phenomenon and it has not been established that such changes may be due to changes in greenhouse gas concentrations as demonstrated earlier because the model projections are unable to reproduce the simplest of metrics.

Above: World grain production 1961-2012. U.N. Food and Agriculture Organization.

It is a simple matter to find documentation of the ever-rising production of grains. One wonders about the Federal Council on Environmental Quality’s allegation that there has been “harm to agriculture” from human-induced climate change because when viewing the total growth in production, which appears to be accelerating, one would assume no “harm” has been done during a period of rising greenhouse gases.

With the evidence in these examples above, it is obviously difficult to establish the claims about worsening conditions due to human-caused climate change, or more generally that any change could be directly linked to increasing CO2. This point also relates to the issue of climate model capability noted earlier. It is clear that climate models fall short on some very basic issues of climate variability, being unable to reproduce “what” has happened regarding global temperature, and therefore not knowing “why” any of it happened. It is therefore premature to claim that one knows the causes for changes in various exotic measures of weather, such as rainfall intensity over short periods, which are not even explicitly generated in climate model output.

The Disappointing Scientific Process

I have written much for previous congressional hearings and other venues about the failure of the scientific community to objectively approach the study of climate and climate change. (See Appendix) Climate science is a murky science with large uncertainties on many critical components such as cloud distributions and surface heat exchanges. As mentioned above, there is no objective instrumentation that can tell us “why” changes occur. That being the case, we are left with hypotheses (claims) to put forward and then to test. The information given above, in my view, is clear evidence that the current theoretical understanding of “why” the climate changes, as embodied in models (and on which current policy is based), fails such tests. Indeed, the theoretical (model) view as expressed in the IPCC AR5 in every case overestimated the bulk tropical atmospheric temperature response of extra greenhouse gases (see above and IPCC Supplementary Material Figure 10.SM.1) indicating the theoretical understanding of the climate response is too sensitive to greenhouse gases.

One problem with our science relates to the funding process for climate studies, the vast majority of which is provided through federal agencies. Funding decisions are decided by people, and people have biases. Our science has also seen the move toward “consensus” science where “agreement” between people and groups is elevated above determined, objective investigation. The sad progression of events here has even led to congressional investigations designed to silence (with some success) those whose voices, including my own, have challenged the politically-correct views on climate (i.e. congressional investigation by Rep. Grijalva, 22 Feb 2015, http://www.scribd.com/doc/256811029/Letter-to-UAH-re-John-Christy.)

Today, funding decisions are made by review panels. In this process, many proposals for funding are submitted to the agencies, but the agencies only have a fraction of the funds available to support the proposals, so only a few proposals can be funded and these are selected by panels. In the area of climate, it is clear the agencies are convinced of the consensus view of dangerous climate change as indicated by their various statements and press releases on the issue. Therefore, when a contrarian proposal is submitted that seeks to discover other possible explanations besides greenhouse gases for the small changes we now see, or one that seeks to rigorously and objectively investigate climate model output, there is virtually no chance for funding. This occurs because the panel determines by majority vote whom to fund, and with tight competition, any bias by just a couple of panel members against a contrarian proposal is sufficient for rejection. Of course, the agencies will claim all is done in complete objectivity, but that would be precisely the expected response of someone already within the “consensus” and whose agency has stated its position on climate change. This brings me to “consensus science.”

The term “consensus science” will often be appealed to regarding arguments about climate change to bolster an assertion. This is a form of “argument from authority.” Consensus, however, is a political notion, not a scientific notion. As I testified to the Inter-Academy Council in June 2010, wrote in Nature that same year (Christy 2010), and documented in my written testimony for several congressional hearings (e.g., House Space, Science and Technology, 31 Mar 2011) the IPCC and other similar Assessments do not represent for me a consensus of much more than the consensus of those selected to agree with a particular consensus.

The content of these climate reports is actually under the control of a relatively small number of individuals – I often refer to them as the “climate establishment” – who through the years, in my opinion, came to act as gatekeepers of scientific opinion and information, rather than brokers. The voices of those of us who object to various statements and emphases in these assessments are by-in-large dismissed rather than accommodated. This establishment includes the same individuals who become the “experts” called on to promote IPCC claims in government reports such as the endangerment finding by the Environmental Protection Agency.

As outlined in my previous testimonies, these “experts” become the authors and evaluators of their own research relative to research which challenges their work. This becomes an obvious conflict of interest. But with the luxury of having the “last word” as “expert” authors of the reports, alternative views vanish. This is not a process that provides the best information to the peoples’ representatives. The U.S. Congress must have the full range of views on issues such as climate change which are (a) characterized by considerable ambiguity (see model results) (b) used to promote regulatory actions which will be economically detrimental to the American people and, most ironically, (c) will have no impact on whatever the climate will do.

I’ve often stated that climate science is a “murky” science. We do not have laboratory methods of testing our hypotheses as many other sciences do. As a result what passes for science includes, opinion, arguments-from-authority, dramatic press releases, and fuzzy notions of consensus generated by preselected groups. This is not science.

We know from Climategate emails and many other sources that the IPCC has had problems with those who take different positions on climate change than what the IPCC promotes. There is another way to deal with this however. Since the IPCC activity and climate research in general is funded by U.S. taxpayers, then I propose that five to ten percent of the funds be allocated to a group of well-credentialed scientists to produce an assessment that expresses legitimate, alternative hypotheses that have been (in their view) marginalized, misrepresented or ignored in previous IPCC reports (and thus the EPA Endangerment Finding and National Climate Assessments).

Such activities are often called “Red Team” reports and are widely used in government and industry. Decisions regarding funding for “Red Teams” should not be placed in the hands of the current “establishment” but in panels populated by credentialed scientists who have experience in examining these issues. Some efforts along this line have arisen from the private sector (i.e. The Non-governmental International Panel on Climate Change at http://nipccreport.org/ and Michaels (2012) ADDENDUM:Global Climate Change Impacts in the United States). I believe policymakers, with the public’s purse, should actively support the assembling all of the information that is vital to addressing this murky and wicked science, since the public will ultimately pay the cost of any legislation alleged to deal with climate.

Topics to be addressed in this “Red Team” assessment, for example, would include (a) evidence for a low climate sensitivity to increasing greenhouse gases, (b) the role and importance of natural, unforced variability, (c) a rigorous and independent evaluation of climate model output, (d) a thorough discussion of uncertainty, (e) a focus on metrics that most directly relate to the rate of accumulation of heat in the climate system, (f) analysis of the many consequences, including benefits, that result from CO2 increases, and (g) the importance that affordable and accessible energy has to human health and welfare.

What this proposal seeks is to provide to the Congress and other policymakers a parallel, scientifically-based assessment regarding the state of climate science which addresses issues which here-to-for have been un- or under-represented by previous tax-payer funded, government-directed climate reports. In other words, our policymakers need to see the entire range of findings regarding climate change.

Summary of Extract

The messages of the two points outlined in the extract above are: (1) the claims about increases in frequency and intensity of extreme events are generally not supported by actual observations and, (2) official information about climate science is largely controlled by agencies through (a) funding choices for research and (b) by the carefully-selected (i.e. biased) authorship of reports such as the EPA Endangerment Finding and the National Climate Assessment.

Sur le pic pétrolier en tant que nouveau crime de tromperie infligé au monde par les banquiers centraux pour soutenir leur programme de contrôle et de mort et détourner l’opposition à ce programme – par Katherine Watt.

Une analyse du « pic pétrolier », pour complèter le papier précédent. Katherine fait partie des quelques très rares analystes à qui je fais encore confiance à ce stade, avec Sasha Latypova, Catherine Austin Fitts, John Titus, quelques médecins indépendants et bien entendu John Paul. J’avais traité du « pic pétrolier » avec notamment un papier de Gail Tverberg, qui s’appuie abondamment sur les travaux cités dans le présent article, et celui-ci de Eliott Freed, deux analyses que Katherine met ici très bien en perspective.

Vous pouvez commencer par la petite vidéo ci-dessous, très bien produite. Je ne suis pas fan de la chaîne PragerU mais il faut leur reconnaître le mérite d’être très factuels et rigoureux. C’est en anglais mais si vous activez d’abord les sous-titres, puis vous allez dans Règlages>Sous-titres>Traduire automatiquement>Français (de préférence), vous avez un sous-titrage nickel.

Source.


Sur le pic pétrolier en tant que nouveau crime de tromperie infligé au monde par les banquiers centraux pour soutenir leur programme de contrôle et de mort et détourner l’opposition à ce programme.

En plus du Covid-19, des armes biologiques injectables, des banques centrales, des monnaies fiduciaires, des programmes de géo-ingénierie et de changement climatique.

Katherine Watt

30 décembre 2022

Extrait du billet du 19 juillet 2022:

Commentaire d’un lecteur sur le billet de la semaine dernière intitulé « Thinking Through Possible Future Scenarios » [Réflexion sur les scénarios d’avenir possibles]:

L’inévitable désastre économique est-il toujours le lot des civilisations en chute libre? À la lumière de ce qui suit, veuillez commenter!

Perfect Storm, Energy, Finance and the End of Growth [Tempête parfaite, énergie, finance et fin de la croissance], rapport de Tim Morgan, Responsable Mondial de la Recherche pour le courtage Tullett Prebon, janvier 2013.

Ma réponse, légèrement étoffée:

Je l’ai téléchargé et l’ai parcouru.

Je me suis intéressée à ces questions à l’origine par le biais de la théorie du « pic pétrolier », en lisant le livre de Richard Heinberg de 2005 intitulé The Party’s Over: Oil, War and the Fate of Industrial Societies [La Fête est finie: Pétrole, guerre et destin des sociétés industrielles], qui exposait les implications des travaux du géologue et géophysicien M. King Hubbert sur les réserves de pétrole et le rendement énergétique de l’énergie investie (Energy Return on Energy Invested – EROEI).

Les travaux de Hubbert étaient liés aux effets des ressources pétrolières limitées sur les systèmes financiers et économiques qui dépendent d’un pétrole bon marché et facilement accessible pour fonctionner correctement.

Les systèmes financiers et économiques basés sur l’endettement, en particulier.

Les travaux de Hubbert et Heinberg étaient étroitement liés au rapport Limites de la Croissance publié par le Club de Rome en 1972.

De 2005 à 2020, j’ai considéré le pic pétrolier et l’EROEI comme des problèmes géochimiques et techniques qui nécessitaient une relocalisation des systèmes de prise de décision, d’alimentation, d’eau, de production économique et de distribution, en tant que réponses pratiques à la résolution des problèmes.

J’ai donc travaillé avec le Community Environmental Legal Defense Fund [Fonds de défense juridique de l’environnement communautaire] sur des projets de gouvernement local basés sur les droits, et j’ai créé et/ou soutenu plusieurs petites organisations travaillant sur le développement de systèmes alimentaires locaux, l’acquisition de compétences en homesteading et des campagnes de protection de l’approvisionnement en eau.

J’ai effectué des recherches et écrit sur ces questions dans une série de blogs destinés aux lecteurs de la communauté du New Jersey où j’ai vécu de 2002 à 2008, et de la communauté de Pennsylvanie où je vis depuis 2008. J’ai lancé Bailiwick News en 2016.

C’est dans cette arène que j’ai appris ce qu’est l’État administratif, en regardant les législateurs et les juges élus locaux se faire écraser – sans opposer beaucoup de résistance – par des administrateurs publics professionnels non élus, notamment des directeurs de canton, des avocats de canton et des directeurs de planification et de zonage, en collaboration avec des dirigeants d’entreprises privées et quasi privées, en particulier dans les domaines de l’investissement immobilier, du développement foncier et de l’ingénierie.

Cependant.

Depuis 2020, observant en temps réel la manipulation massive des données Covid pour influencer et contrôler le comportement des groupes et des individus, j’en suis arrivée à la conclusion que le rapport du Club de Rome sur les Limites de la Croissance, le mouvement du pic pétrolier, la panique de la surpopulation, la panique du changement climatique et autres, ont fait partie du même projet multigénérationnel d’opération de manipulation psychologique […] des mondialistes.

Rien que des mensonges.

Tous racontés dans le but d’obscurcir l’intellect, de désorienter, d’effrayer et de contrôler les hommes et les femmes.

Je ne connais pas le véritable état des réserves mondiales de pétrole; je sais seulement ce que l’Agence Internationale de l’Energie (créée en 1974) et d’autres institutions mondialistes capturées disent publiquement à propos des réserves de pétrole.

Il est possible que la surconsommation de ressources, l’endettement et l’effondrement économique soient toujours le lot des civilisations en chute libre, et qu’il s’agisse simplement d’un processus naturel à l’échelle mondiale, manipulé à des fins personnelles par les élites au sommet de la structure de pouvoir de la civilisation actuelle.

Mais il est également possible que cette histoire précise de surconsommation des ressources mondiales, de destruction écologique, de dette et d’effondrement économique soit créée, mise au point et/ou projetée dans l’esprit des gens du monde entier en ce moment même, par ces mêmes élites, non seulement pour leur gain personnel, mais aussi au service de Satan, dans le but de livrer les âmes humaines à la damnation éternelle en détruisant la foi en Dieu.

Aujourd’hui, je penche pour la deuxième interprétation des événements.

Le sujet du pic pétrolier est revenu récemment dans un fil de discussion sur le Substack de Sasha Latypova.

Un lecteur a commenté, adoptant la position selon laquelle les mondialistes « exterminent » les gens pour prévenir d’autres formes de chaos mortel, comme les famines, les crashs économiques et les guerres de ressources, en raison de la pénurie d’énergie fossile liée au pic pétrolier.

Il a cité ce même rapport « Perfect Storm » de 2013 de l’échange de juillet (ci-dessus) comme « le document définitif qui relie tout » et a désigné les sables bitumineux et le forage en eaux profondes comme preuves à l’appui de l’affirmation selon laquelle les limites naturelles des réserves de combustibles fossiles sont la motivation de base.

Comme je l’ai écrit en juillet, j’avais l’habitude de penser que le pic pétrolier était la clé, et j’ai travaillé principalement à partir de cette vision du monde de 2005 à 2020.

Je ne trouve plus ce cadre plausible, car je suis trop consciente de l’efficacité avec laquelle les mondialistes et leurs sbires manipulent les données, les informations et la propagande pour se rapprocher de leurs objectifs géopolitiques et autres, et de l’utilité de l’anxiété généralisée concernant le pic pétrolier et le changement climatique dans ce processus de manipulation.

Il est maintenant clair pour moi que la BRI [Banque des Règlements Internationaux] et ses propriétaires, ainsi que leurs pairs institutionnels dans d’autres organisations internationales (comme le Club de Rome/ »Limites à la Croissance« /Donella Meadows) sont en position, depuis très longtemps, de manipuler les données et les analyses produites par M. King Hubbert et d’autres géophysiciens, ainsi que des scientifiques de l’environnement/du climat, de telle sorte que « Limites à la Croissance » n’est pas un modèle basé sur des faits, mais une projection ou un plan basé sur leur intention et leur capacité à manipuler l’accès aux réserves de combustibles fossiles et à manipuler les aspects du climat, afin de soutenir leurs efforts pour centraliser le pouvoir et le contrôle.

Ils ont l’argent et la maîtrise du projet pour forer des kilomètres sous la mer à la recherche de pétrole, extraire du pétrole du sable à la vapeur et lâcher des bombes dans des trous, non pas parce que ce sont les seules sources d’approvisionnement restantes, mais simplement pour perpétuer la fraude.

C’est le même mode d’emploi que celui qu’ils utilisent pour manipuler les informations sur ce qui se passe dans le cadre du programme Covid, tuer et rendre malades des millions de personnes avec des injections d’armes biologiques, et mentir sur ce qu’ils font.

Je suis maintenant d’avis que « l’économie » n’est également qu’une fraude massive, et qu’aucun des chiffres présentés par les banquiers centraux au cours des 100 dernières années – ou plus – n’est digne de confiance ou ne devrait être utilisé pour prendre des décisions sociétales ou personnelles sur ce qu’il faut faire ensuite.

Ce ne sont que des mensonges, du début à la fin, racontés par les banquiers centraux, dans le but de centraliser le contrôle direct et quotidien de 8 milliards de personnes, tout en envoyant 7,5 milliards d’entre vers une mort prématurée à l’aide de mensonges, d’armes biologiques, de pulvérisations chimiques, de famine forcée par le biais de perturbations de l’approvisionnement alimentaire, de perturbations de l’approvisionnement énergétique, de manipulations monétaires et d’autres outils de leur arsenal.

Ils font tout cela et bien plus encore, tout en organisant des exercices de simulation séquentiels et détaillés et en publiant des plans détaillés décrivant ce qu’ils ont l’intention de faire, qui correspondent à ce qu’ils font réellement, dans le but d’humilier rituellement leurs ennemis: nous.

En conséquence, je ne crois plus qu’il existe des limites naturelles à la production et à la distribution de nourriture, ni qu’il existe des limites naturelles à l’approvisionnement en énergie fossile.

Les pénuries et les catastrophes sont orchestrées par les banquiers centraux.

Un autre intervenant dans le fil de discussion a cité d’autres sources de données et a proposé un débat, comparant le scepticisme à l’égard du pic pétrolier au déni de l’existence du 11 septembre ou de Covid-19.

J’ai examiné les données sur le pic pétrolier. Je ne fais plus confiance aux sources de ces données.

Je ne veux donc pas en débattre, car la vraie question n’est pas celle de l’information. La question est de savoir si les sources d’information sont dignes de confiance. Et je ne pense pas que nier le pic pétrolier soit comparable à nier le 11 septembre ou le Covid. Il est cohérent de penser que ces trois événements sont des manipulations, impliquant des informations et des données fabriquées, qui ont néanmoins eu et ont toujours des effets directement observables sur la vie des gens.

Le débat public sur le pic pétrolier (tel qu’il est) n’a pas vraiment d’importance, cependant.

Que vous croyiez que le pic pétrolier s’est produit en 2005 et que la pénurie d’énergie est basée sur des limites géochimiques et techniques réelles de forage, ou que vous croyiez que le pic pétrolier est une campagne de propagande et que les pénuries sont et continueront d’être fabriquées, la décentralisation de la capacité de production des produits de première nécessité, y compris les informations véridiques, et la décentralisation des systèmes de gouvernance pour maintenir l’ordre social, sont des réponses utiles aux deux interprétations des événements passés et actuels.

Même si l’approvisionnement en énergie fossile est encore abondant, les personnes qui organisent depuis longtemps les perturbations des chaînes d’approvisionnement et des systèmes financiers et monétaires seront probablement en mesure de continuer à le faire dans un avenir prévisible.

La seule différence importante entre les deux points de vue est la différence entre le niveau où on place la responsabilité.

Là encore, la déviation et la suppression de la vérité ne servent qu’à masquer le pouvoir et les actes des prédateurs-parasites mondialistes.

Les personnes qui croient à la propagande sur le pic pétrolier et le changement climatique concentrent leurs réactions sur le changement de comportement et la réduction de la liberté de mouvement des gens ordinaires qui essaient de vivre, d’apprendre, de travailler, d’adorer Dieu et d’élever des enfants.

Les personnes qui percent à jour la propagande, jusqu’aux hommes et aux femmes qui se sont positionnés pour contrôler l’accès aux informations véridiques et aux ressources nécessaires à la vie, se concentrent sur l’élargissement de notre accès aux informations véridiques, sur l’élargissement de notre amplitude de mouvement pour produire et obtenir des réserves d’eau, de nourriture et d’énergie adéquates et contrôlées localement, et sur le rétablissement ou la création de systèmes financiers et d’autorités gouvernementales légitimes.

Massacre des Saints Innocents. Peinture de Guido Reni.