D’un excellent auteur sur Substack qui publie quotidiennement – et gratuitement, lui aussi – ce genre d’article court et précis sur un large assortiment de sujets.
Outre les soucis immunitaires d’un régime non carné évoqués ici, faut-il rappeler le rôle essentiel des protéines animales dans la formation du cerveau? On nous veut donc malades et stupides.
Note de traduction: à toutes fins utiles, j’ai refait et traduit les tableaux originaux, avec la version complète du troisième (dont certains aliments mentionnés sont plus typiquement américains). Une once = 28,8g.
Dans le cadre du Grand Reset, des charlatans tels que Bill Gates voudraient que le monde entier cesse de consommer de la viande afin de pouvoir vendre aux gens des substituts de viande potentiellement dangereux. Le principal argument utilisé contre la consommation de viande est aujourd’hui le changement climatique, car l’élevage nécessite une plus grande utilisation des terres:
Intervention sur la consommation
Objectif progressif pour 2030
Objectif ambitieux pour 2030
16kg de viande par personne/an
0kg de consommation de viande
90kg de consommation de produits laitiers (lait ou dérivé équivalent) par personne/an
0kg de consommation de produits laitiers (lait ou dérivé équivalent) par personne/an
Dans ce document, publié par C40 Cities et d’autres organisations, l’objectif ambitieux est de réduire la consommation de viande à zéro, avec un objectif moins ambitieux de réduire la consommation de viande à moins de 2 onces par jour (<16 kg par an).
Mais dans les deux cas, il est pratiquement garanti que la fonction immunitaire de l’homme sera réduite, car la viande est la source la plus importante de deux facteurs immunitaires clés: le zinc biodisponible et la leucine, un acide aminé.
Le zinc
Le zinc est essentiel à l’immunité contre les maladies respiratoires aiguës, mais si la teneur en zinc en milligrammes bruts semble modérément élevée pour les aliments sources de protéines non animales tels que les lentilles …
Aliment
Milligrammes (mg) par portion
Pourcentage VQ*
Huîtres de l’Est, d’élevage, crues, 3 onces
32
291
Huîtres du Pacifique, cuites, 3 onces
28,2
256
Bœuf, bas de surlonge, rôti, 3 onces
3,8
35
Crabe bleu, cuit, 3 onces 3.2 29
3,2
29
Céréales pour petit déjeuner, enrichies de 25% de la VQ en zinc, 1 portion
2,8
25
Céréales, avoine, ordinaire et rapide, non enrichies, cuites avec de l’eau, 1 tasse
2,3
21
Graines de citrouille, grillées, 1 once
2,2
20
Porc, longe centrale (côtelettes), avec os, grillé, 3 onces
1,9
17
Poitrine de dinde, viande seulement, rôtie, 3 onces
1,5
14
Fromage, cheddar, 1,5 onces
1,5
14
Crevettes, cuites, 3 onces
1,4
13
Lentilles, bouillies, ½ tasse
1,3
12
Sardines, en conserve dans l’huile, égouttées avec l’os, 3 onces
1,1
10
Yogourt grec, nature, 6 onces
1,0
9
Lait, 1 de matière grasse, 1 tasse
1,0
9
Cacahuètes, grillées à sec, 1 once
0,8
7
Riz brun à grains longs, cuit, ½ tasse
0,7
6
Œuf, gros
0,6
5
Haricots rouges, en conserve, ½ tasse
0,6
5
Pain, blé entier, 1 tranche
0,6
5
Poisson, saumon, cuit, 3 onces
0,5
5
Brocoli, haché, cuit, ½ tasse
0,4
4
Riz blanc à grains longs, cuit, ½ tasse
0,3
3
Pain blanc, 1 tranche
0,2
2
Tomates cerises, crues, ½ tasse
0,1
1
Myrtilles, crues, ½ tasse
0,1
1
… en raison de facteurs antinutritionnels qui peuvent se lier au zinc (comme le phytate dans les céréales et les légumineuses), empêchant ainsi son absorption, même des apports élevés peuvent conduire à une carence.
Peu importe qu’une grande quantité de zinc soit consommée si elle n’est pas absorbée. De plus, le zinc sérique n’est pas une bonne mesure de la carence, raison pour laquelle une équipe de chercheurs a inventé le terme de « carence cachée en zinc ». En revanche, les aliments d’origine animale fournissent du zinc sous une forme plus biodisponible.
Même si, au niveau mondial, la viande ne fournit que 10% des calories, il se trouve qu’elle fournit plus de 30% du zinc biodisponible dans le monde. Si des gens comme Bill Gates font en sorte que le monde entier soit privé de viande, nous deviendrons de ce fait plus malades – ce qui pourrait faire partie du programme.
La leucine
Les protéines fournissent à l’organisme de l’azote, du soufre et des acides aminés essentiels. L’un des principaux acides aminés est l’acide aminé à chaîne ramifiée appelé leucine. Plus que tout autre acide aminé, la leucine peut servir de source à un autre acide aminé essentiel à la santé: la glutamine.
En cas d’infection, les cellules immunitaires dépendent de la glutamine comme source d’énergie, plus encore que du glucose, ce qui a conduit les chercheurs à surnommer la glutamine le « carburant du système immunitaire ». Mais voyez la concentration de leucine dans divers aliments:
Aliment
Leucine (g/100 g)
Protéines totales (g/100 g)
Energie (kcal/100 g)
Viande
Croupe de bovin adulte
1,894
22
111
Jambon cuit
1,695
19.8
215
Bovin, veau, 4 mois, viande maigre
1,029
20.7
92
Bovin, veau, 4 mois, viande demi-grasse
1,742
20.3
144
Bresaola
2,651
32
152
Poitrine de poulet, sans peau
1,955
23.3
100
Ailes de poulet, sans peau
1,717
20.3
193
Cerf, sans graisse visible
1,953
21
91
Poitrine de pintade sans peau
2,180
25,8
121
Cuisse de pintade, sans peau
1,829
24
127
Cheval, graisse et tissu musculaire
1,519
19,8
145
Agneau
1,532
20
159
Poulet fondant, sans peau
1,526
18.5
107
Steak de porc allégé, sans graisse visible
1,741
21.3
157
Saucisse de porc
1,241
15,4
304
Épaule de porc
1,550
19
156
Lapin, viande maigre
1,987
23.7
102
Jambon cru
2,211
26.6
284
Speck
2,326
28,3
303
Poitrine de dinde, sans peau
2,002
24
107
Cuisse de dinde, sans peau
1,438
18
113
Fromages, lait et yaourts
Asiago
2,845
31.4
359
Ricotta de lait de vache
0,997
8.8
146
Lait de vache partiellement écrémé
0,377
3.5
46
Crescenza
1,250
16.1
281
Emmenthal
2,687
28.5
403
Feta
1,531
15,6
250
Gorgonzola
1,530
19,1
324
Fromage Grana
2,820
33.9
406
Yogourt grec
0,505
6.4
115
Yogourt grec, maigre
0,707
9
51
Gruyère
3,184
30.6
389
Italico
2,071
21.2
316
Lait en flocons
0,978
9.7
115
Mozzarella
1,400
18.7
253
Parmesan
2,880
33.5
387
Robiol
1,467
20
338
Fromage à tartiner
0,933
8.6
313
Yogourt partiellement écrémé
0,268
3.4
43
Poisson et fruits de mer
Anchois
1,331
16,8
96
Palourde
0,718
10.2
72
Morue
1,484
17
71
Filet de morue
0,862
11
191
Seiche
0,985
14
72
Poisson-chien
1,300
16
80
Thon à l’huile égoutté
2,029
25.2
192
Dorade d’élevage, filets
1,557
19.7
159
Crevettes surgelées
1,179
13.6
63
Mérou
1,455
17.9
80
Hareng
1,341
16.5
216
Maquereau
1,636
17
170
Œufs de rouget
2,822
35,5
373
Moules
0,824
11,7
84
Pieuvre
0,746
10,6
57
Poisson persique
1,252
15.4
75
Saumon
1,496
18.4
185
Sardines
1,643
20,8
129
Saumon fumé
2,065
25.4
147
Morue trempée
1,886
21.6
95
Sole
1,336
16.9
86
Calmar
0,886
12,6
68
Surimi
1,204
15.2
95
Espadon
1,373
16.9
109
Truite
1,028
14.7
86
Thon
1,871
21.5
159
Légumes
Haricots
0,488
6,4
104
Haricots borlotti secs, bouillis
0,563
6,9
106
Haricots borlotti, bouillis
0,493
5,7
78
Haricots cannellins secs, cuits, bouillis
0,682
8
107
Haricots Cannellin, en conserve, égouttés
0,513
6
86
Pois chiches secs, bouillis
0,549
7
132
Lentilles en conserve, égouttées
0,417
5
91
Lentilles sèches bouillies
0,527
6,9
109
Pois secs
1,406
21,7
306
Haricots secs crus
2,119
27,2
343
Céréales
Pain
0,691
9
275
Sarrasin
0,837
12,4
329
Maïs
1,168
9,2
357
Farine de maïs
1,028
8.7
341
Millet
1,389
11,8
343
Farine d’avoine
0,920
12,6
378
Riz blanc
0,590
6,7
334
Biscottes
0,831
11,3
387
Pâtes de blé dur
1,033
13,5
341
Épautre complet, cru
1,075
14,6
353
Fruits secs
Noix de cajou
1,280
15
604
Fruit sec
0,848
12.9
660
Noisettes, séchées
0,930
13.8
625
Noix, séchées
1,011
14.3
702
Pignons de pin
2,054
31,9
604
Pistaches
1,442
20,6
570
Amandes, séchées
1,450
22
542
Fruits
Ananas
0,022
0,5
40
Pomme non épluchée
0,012
0.2
44
Abricot
0,022
0,4
28
Avocat
0,315
4.4
238
Banane
0,056
1.2
76
Cerise noire
0,023
0,8
41
Myrtille
0,054
0.9
49
Marron
0,207
3,5
189
Cerise
0,023
0,8
38
Figue
0,04
0,9
47
Raisin
0,014
0,5
61
Kiwi
0,068
1,2
44
Melon
0,028
0,8
33
Orange
0,022
0.7
37
Pêche
0,029
0,8
27
Poire
0,016
0,3
35
Framboise
0,051
1
34
Fraise
0,046
0,9
27
Légumes
Artichaut
0,196
2,7
22
Bette
0,093
1,3
17
Champignon de culture, pleurote
0,172
2,2
37
Aubergine
0,070
1,1
15
Asperge
0,210
4,6
35
Laitue fraîche
0,115
1,8
19
Tomate fraîche mûre
0,030
1
19
Haricots verts
0,147
2,1
18
Chou vert
0,113
2,1
19
Poivron
0,039
0,9
25
Champignons de Paris
0,207
3,9
27
Épinards
0,323
3,4
31
Courgettes
0,130
1,3
11
Autres
Beurre de cacahouètes
1,465
22.6
623
Beurre
0,086
0,8
758
Oeuf de poule
1,041
12.4
128
Oeuf de poule, blanc
0,862
10,7
43
Pomme de terre
0,122
2,1
85
Poudre de cacao sucrée soluble
0,273
4.5
349
Poudre de cacao non sucrée soluble
1,238
20.4
355
Toutes les bonnes sources de leucine sont les aliments d’origine animale (poulet, dinde, etc.), qui fournissent le plus de leucine par calorie. Mais les pires sources de leucine sont les céréales (farine d’avoine, riz, etc.). Obtenir la leucine dont on a besoin uniquement à partir de céréales entraînerait une telle consommation de calories qu’on deviendrait obèse.
Si des gens comme Bill Gates font en sorte que le monde entier soit privé de viande, nous deviendrons de ce fait plus malades – ce qui pourrait faire partie du programme.
Références
[les sources de protéines animales fournissent 30 % du zinc biodisponible dans le monde] — Leroy F, Smith NW, Adesogan AT, Beal T, Iannotti L, Moughan PJ, Mann N. The role of meat in the human diet: evolutionary aspects and nutritional value. Anim Front. 2023 Apr 15;13(2):11-18. doi: 10.1093/af/vfac093. PMID: 37073319; PMCID: PMC10105836. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10105836/
[la carence en zinc peut être cachée] — Sandstead HH, Freeland-Graves JH. Dietary phytate, zinc and hidden zinc deficiency. J Trace Elem Med Biol. 2014 Oct;28(4):414-7. doi: 10.1016/j.jtemb.2014.08.011. Epub 2014 Aug 29. PMID: 25439135. https://pubmed.ncbi.nlm.nih.gov/25439135/
[la leucine se transforme en glutamine en cas de besoin] — Cruzat V, Macedo Rogero M, Noel Keane K, Curi R, Newsholme P. Glutamine: Metabolism and Immune Function, Supplementation and Clinical Translation. Nutrients. 2018 Oct 23;10(11):1564. doi: 10.3390/nu10111564. PMID: 30360490; PMCID: PMC6266414. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6266414/
[la teneur en leucine des aliments] — Rondanelli M, Nichetti M, Peroni G, Faliva MA, Naso M, Gasparri C, Perna S, Oberto L, Di Paolo E, Riva A, Petrangolini G, Guerreschi G, Tartara A. Where to Find Leucine in Food and How to Feed Elderly With Sarcopenia in Order to Counteract Loss of Muscle Mass: Practical Advice. Front Nutr. 2021 Jan 26;7:622391. doi: 10.3389/fnut.2020.622391. PMID: 33585538; PMCID: PMC7874106. https://pubmed.ncbi.nlm.nih.gov/33585538/
[les sources animales de protéines sont les meilleures pour l’immunité] — Wu G. Dietary protein intake and human health. Food Funct. 2016 Mar;7(3):1251-65. doi: 10.1039/c5fo01530h. PMID: 26797090. https://pubs.rsc.org/en/content/articlelanding/2016/fo/c5fo01530h
Excellent article de Jaime Jessop, qui exprime très bien l’énervement qu’on peut éprouver devant ce genre de tocard. Le fait qu’ils soient considérés comme des interlocuteurs valables est le signe clair qu’on est déjà bien avancés dans la politique du pire. Simple avertissement…
Nouveau jour, nouvel exercice de propagande sur la « décarbonisation du réseau » par l’industrie des énergies renouvelables, alias les Profiteurs du Désastre:
Les combustibles fossiles ont battu un record minimum de 2,4% en part d’électricité en Grande-Bretagne, pendant une heure, plus tôt ce mois-ci. Jusqu’en 2022, cette part n’était jamais tombée en dessous de 5%…
Evans affirme que le fait que les combustibles fossiles aient contribué à un minimum record de 2,4% de l’énergie du réseau pendant une demi-heure le 15 avril 2024 réfuterait les arguments selon lesquels nous ne serons jamais en mesure de décarboniser complètement le réseau! C’est une affirmation ridicule, qui n’est pas étayée par les preuves tangibles. C’est de la pure propagande et Evans est le genre de parfait crétin vert qui fourre ses sales mains dans nos poches. Car plus nous nous efforcerons de décarboniser le réseau, plus l’impossibilité de ce projet deviendra évidente pour tous, mais en même temps, plus le coût sera élevé pour les contribuables et ceux qui paient leurs factures, et plus les fraudeurs qui construisent et investissent dans la technologie « verte » destructrice de l’environnement, qui ne parviendra jamais à atteindre l’utopie durable promise d’un réseau 100% sans carbone, s’enrichiront.
David Turver souligne ce qu’Evans ignore ostensiblement:
Toutefois, les pics de combustibles fossiles restent virtuellement inchangés depuis 2016.
La raison pour laquelle les pics d’utilisation des combustibles fossiles ne changent pas est simple: les bénéfices les plus faciles à obtenir à partir de 2009 ont tous été récoltés et sans stockage à l’échelle du réseau (une technologie qui n’existe pas et qui serait atrocement chère même si elle était technologiquement réalisable par l’utilisation de batteries super efficaces et à très haute capacité et/ou d’hydrogène « vert »), ils ne seront jamais en mesure d’éliminer le besoin en combustible fossile en raison de la variabilité fondamentale du climat naturel, quelle que soit la capacité qu’ils ajoutent. En effet, lorsque le soleil ne brille pas la nuit ou en hiver, on ne peut pas le faire briller et, malgré les affirmations des conspirationnistes de la géo-ingénierie, lorsque le vent ne souffle pas, il ne souffle pas, et c’est tout. Si nous disposions dès à présent de batteries à l’échelle du réseau ou d’un système de stockage d’hydrogène vert, nous aurions probablement déjà, ou très bientôt, un réseau 100% sans carbone, sans qu’il soit nécessaire de construire de nouvelles turbines et de nouveaux panneaux solaires qui détruisent les oiseaux, les baleines, les paysages naturels et les terres agricoles. Mais ils veulent en construire toujours plus, parce que cela enrichit toujours plus leurs copains capitalistes verts, tandis que nous devenons toujours plus pauvres, en faisant miroiter le mensonge selon lequel une plus grande capacité équivaut à une décarbonisation à 100% qui sauvera la planète. Ce n’est pas le cas. Ce ne sera pas le cas. Jamais. Quelques graphiques simples en illustrent la raison. Tout d’abord, la répartition de la production d’énergie pour le 15 avril:
En effet, le charbon et le gaz n’ont fourni que 6,7% de la journée, l’énergie éolienne 54,1% et l’énergie solaire 7,1%. L’hydroélectricité par pompage (PSH) n’a fourni qu’un maigre 1%. Elle ne fournit jamais beaucoup plus que cela, étant essentiellement limitée par la géographie des îles britanniques. Il n’y a même pas de catégorie pour le stockage par batterie, tant il est minuscule, et le stockage par hydrogène n’est encore qu’une promesse de conte de fées. La majeure partie de notre énergie restante provient des interconnexions et de l’énergie nucléaire. À 13h30, le solaire et l’éolien fournissaient 70,8% de l’énergie au réseau et le gaz seulement 1,8%. On se rapproche à grands pas de la décarbonisation du réseau, n’est-ce pas? Non, pas vraiment. Au cours de l’année 2023, on constate que le gaz et le charbon fournissent toujours un tiers de l’énergie du réseau:
L’éolien et le solaire représentent à peine plus: 33.9%. Il serait réaliste de penser qu’en augmentant la capacité, au prix d’énormes sacrifices pour l’environnement et d’un coût économique considérable, nous pourrons atteindre 50% dans les 5 à 10 prochaines années. Mais après cela, à moins que le stockage par batterie ne devienne magiquement beaucoup plus efficace, très bon marché et ne nécessite pas d’énormes ressources minérales extraites dans des pays lointains, nous aurons toujours besoin, en supposant que les réacteurs nucléaires modulaires ne soient pas développés assez rapidement, d’importantes quantités de gaz d’appoint pour maintenir la lumière allumée. Vous noterez également que le vent faiblit pendant les mois d’été et que le gaz prend le relais. Mais même au cœur de l’hiver, le vent peut tomber à zéro et si nous n’avons pas de capacité de production de gaz pendant ces sécheresses énergétiques, les lumières (et le chauffage) s’éteindront, des milliers de personnes mourront de froid et les retraitées suisses qui se plaignent des canicules estivales ne représenteront finalement pas un si grand problème de droits de l’homme. Prenons par exemple la période du 23 au 25 février. Simon Evans et Carbon Brief ne vous parleront pas de ces journées:
Pendant 48 heures, de la fin de l’après-midi du 23 février à la fin de l’après-midi du 25 février, le vent est tombé à presque zéro et le gaz a dû faire le gros du travail pour que les lumières restent allumées. Au plus fort de cette sécheresse énergétique, heureusement de courte durée, le gaz assurait 50% de la production d’électricité, le vent seulement 1,5% et l’énergie solaire rien du tout. De telles journées sans vent pendant l’hiver peuvent se transformer en semaines, cela s’est déjà produit. Le 2 décembre 2023 est un autre jour dont Evans ne vous parlera pas:
Au petit matin, le gaz fournissait près de 70% de notre production d’électricité, l’éolien un peu plus de 5% et le solaire, comme d’habitude, rien du tout. C’était il y a tout juste 5 mois. Alors dites-moi, quand devrions-nous nous attendre à un réseau 100% décarboné? Pas tout de suite. Pas d’ici 2030. Pas d’ici 2050. Probablement pas dans un avenir prévisible.
Mais… mais… j’ai beaucoup investi dans mon installation solaire
Blague à part, voici une autre dame ukrainienne (avec Sasha), une « climato-sceptique » célèbre, qui explique ce que vous savez déjà à propos de l’arnaque du CO2 (les habitués zapperont les passages connus) en y ajoutant de bien mauvaises nouvelles: ça va cailler dur. Voilà qui est très embêtant sous plusieurs aspects, pas seulement pour le rendement du solaire: en premier lieu, pour l’agriculture.
Je lis beaucoup d’avis sur la vraie raison de la grande opération de dépopulation en cours – le prochain article devrait dissiper vos derniers doutes sur ce fait – et sur la réduction programmée, sous prétexte de « Net Zero », de la production industrielle et agricole. Cette raison serait-elle:
démographique: pas assez de naissances pour prendre en charge une population vieillissante?
énergétique: arrivons-nous (ou avons-nous déjà dépassé) le pic pétrolier?
politique: mise en place d’un régime néo-féodal pour maintenir en place les présentes élites?
survivaliste: l’inversion des pôles provoquera-t-elle une catastrophe planétaire?
intergalactique: la Terre va être envahie mais les aliens sont allergiques au CO2?
Ou alors, climatique, mais pour la raison inverse à celle (complètement débile) qu’on nous vend?
Je ne sais pas, mais ce que je sais c’est que mon épouse a bien du mal à planter son potager cette année: le temps froid et humide persiste, les prévisions pour mai ne sont pas meilleures, et les semis pourrissent dans la terre – nous envisageons sérieusement l’achat d’une grande serre.
Maintenant, imaginez ce problème à l’échelle planétaire, qui viendrait s’ajouter au chaos qu’est devenue l’exploitation des sols, à la mainmise de grands groupes financiers sur des pans entiers de zones d’élevage et de production agricole, dans un contexte d’absence de vision à long terme, d’incompétence et de corruption institutionnelle généralisée.
Nous allons vers le Net Zero à toute vitesse. Pas celui du carbone, celui de la civilisation entière.
Le professeur Valentina Zharkova et le Petit Âge Glaciaire déjà en cours
L’astrophysicienne Valentina Zharkova explique qu’au lieu du CO2, c’est le soleil qui est à l’origine du changement climatique et qu’en raison de la baisse de son activité, nous devons nous préparer à une période plus froide.
« Le CO2 n’est pas un gaz nocif », affirme Valentina Zharkova, professeur à l’université Northumbria de Newcastle, au Royaume-Uni. Au contraire, souligne-t-elle, toutes les jardineries l’utilisent dans leurs serres pour obtenir des plantes luxuriantes et vertes. « En réalité, nous connaissons un déficit de CO2 sur la planète, trois à quatre fois inférieur à ce dont les plantes auraient besoin », note-t-elle, ajoutant que la proportion de CO2 atmosphérique a été beaucoup plus élevée au cours de l’histoire de notre planète qu’elle ne l’est aujourd’hui.
En fait, au cours des 140 derniers millions d’années, la quantité de CO2 dans l’atmosphère n’a cessé de diminuer et n’a commencé à remonter que très légèrement aujourd’hui. Elle est actuellement d’environ 420 parties par million (ppm), soit 0,042%. Il y a 140 millions d’années, elle était estimée à 2 500 ppm (0,25%), soit environ six fois plus. Cela signifiait également un monde plus vert et une plus grande biodiversité. Si le CO2 tombait en dessous de 150 ppm (0,015%), cela entraînerait la disparition de la végétation et de toute autre forme de vie. Nous avons frôlé cette situation lors du dernier maximum glaciaire, avec 182 ppm (0,018%).
Selon Mme Zharkova, la hausse actuelle des niveaux de CO2 dans l’atmosphère est bénéfique. « Il ne faut pas éliminer le CO2, en fait il nous en faudrait davantage. C’est la nourriture des plantes qui produisent l’oxygène dont nous avons besoin. Les personnes qui jugent le CO2 néfaste n’ont manifestement pas reçu d’éducation très poussée à l’université ou dans tout autre établissement d’enseignement. Seules des personnes sans éducation peuvent tenir des propos aussi absurdes sur la nécessité d’éliminer le CO2 de l’air », déclare Zharkova.
Le soleil, moteur naturel du changement climatique
En fait, le professeur Zharkova peut parler longuement de ce que fait ou ne fait pas le CO2 dans la nature et de son comportement, mais elle ne l’étudie pas directement en tant que scientifique. Mme Zharkova est une astrophysicienne originaire d’Ukraine. Elle est diplômée en mathématiques de l’université nationale de Kiev et a passé son doctorat à l’observatoire astronomique principal de Kiev, en Ukraine. Elle a travaillé et mène des recherches dans diverses universités britanniques depuis 1992 et est professeur de mathématiques à l’université de Northumbria depuis 2013, où elle enseigne les principaux modules de mathématiques et de physique.
Cependant, ses recherches se sont concentrées sur le soleil et elle peut confirmer que, contrairement au CO2, le soleil joue un rôle majeur dans le changement climatique de la Terre. À tel point que les recherches de Mme Zharkova suggèrent que nous entrons dans une période plus froide, ou plus précisément dans une petite ère glaciaire, pour les 30 prochaines années, car l’activité du soleil s’affaiblit dans le contexte du réchauffement planétaire.
En d’autres termes, il n’est pas question pour Mme Zharkova – ou tout autre scientifique sceptique à juste titre du pouvoir omnipotent de la molécule de CO2 de réchauffer l’air – de nier le changement climatique. Au contraire, le changement climatique et le refroidissement ou le réchauffement des températures sont bien réels, affirme-t-elle. Par exemple, Mme Zharkova souligne qu’en Écosse, où elle vit depuis de nombreuses années, il faisait beaucoup plus chaud il y a 2 000 ans. « Les Romains cultivaient des raisins et produisaient du vin en Écosse à cette époque, par exemple », explique-t-elle.
En revanche, entre 1645 et 1715, par exemple, période connue sous le nom de « minimum de Maunder« , lorsque l’activité du soleil s’est fortement affaiblie, les températures sont devenues beaucoup plus froides en Europe. Les grands fleuves britanniques, comme la Tamise et la Tyne, étaient praticables en patins à glace et les canaux hollandais gelaient régulièrement. Les glaciers alpins grandirent et absorbèrent de grandes surfaces de terres arables, et la masse de glace s’étendit fortement vers le sud de l’Arctique. Les températures étaient beaucoup plus basses sur l’ensemble de la planète – en Europe et en Amérique du Nord, par exemple, jusqu’à 5 à 7°C de moins par endroits. Il s’agit là d’un changement considérable.
Le professeur Zharkova affirme que les changements climatiques sont dus au soleil. Photo: avec l’aimable autorisation du professeur Zharkova.
Mme Zharkova estime, sur la base de recherches antérieures, qu’en moyenne – ce qui signifie bien sûr des variations régionales beaucoup plus importantes – la température de la Terre baissera de 1 degré Celsius au cours des 30 prochaines années, et n’augmentera pas, comme le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) des Nations Unies nous en avertit.
Elle explique que ces changements brusques dépendent des cycles d’activité solaire. Lorsque le Soleil est moins actif, la diminution de son champ magnétique entraîne une baisse de l’irradiation. Moins de rayonnement solaire signifie moins de chaleur. Selon Zharkova, un tel changement se produit tous les 350 à 400 ans (grand cycle solaire ou GSC), et elle précise que nous sommes entrés en 2020 dans l’un des grands minima solaires (GSM) qui interviennent entre les GSC. Ce grand cycle solaire se poursuivra jusqu’en 2053, après quoi l’activité solaire reviendra à la normale au cours du cycle 28.
Je ne recommanderais pas d’investir dans des panneaux solaires
Ainsi, dans un avenir proche, selon Mme Zharkova, nous ne devrions pas penser en termes de réchauffement climatique, mais plutôt à un refroidissement important, comme celui qui s’est produit au XVIIe siècle, qui aura, bien sûr, un impact direct sur notre mode de vie. Prenons l’exemple de l’énergie où, sous la bannière de la « transition verte » et du « Net Zero », l’objectif est de remplacer la capacité de production d’énergie actuelle par des énergies renouvelables, des panneaux solaires par exemple, en se détournant des combustibles fossiles. Selon Zharkova, dans une période où l’intensité solaire diminue, il serait naïf d’espérer que les panneaux solaires soient en mesure de produire une quantité significative d’énergie. « Je n’ai que de la compassion pour les personnes qui ont investi dans des panneaux solaires », déclare Mme Zharkova. Si l’on considère qu’en période de faible activité solaire, on peut s’attendre à ce que les hivers soient plus longs et qu’en Europe du Nord, il puisse même neiger en juin, comme ce fut le cas au XVIIe siècle, les perspectives des panneaux solaires ne sont pas très bonnes. « Pendant le minimum de Maunder, il y a eu des années sans aucun été – un court printemps, puis l’automne et à nouveau l’hiver. Et si vos panneaux solaires sont recouverts de neige ou si le ciel est nuageux, ils ne servent à rien », explique-t-elle. Nous pouvons également nous attendre à ce que le temps plus froid mette la production d’énergie éolienne sous pression – les exemples d’éoliennes gelées et bloquées ne manquent pas.
On pourrait aussi appeler cela du bon sens, mais les panneaux solaires ne servent pas à grand-chose s’ils sont sous la neige. Photo: Cornell Frühauf/Pixabay.
Selon Mme Zharkova, il y a lieu de s’inquiéter également de la pression qui s’exercera sur la production alimentaire en Europe à mesure que le temps se refroidira et que les récoltes risqueront d’être avariées. Cela signifie qu’il faudra chercher de meilleures conditions de production alimentaire dans le sud de l’Europe, voire en Afrique. Dans le Nord, il faut plus d’énergie pour produire des aliments, chauffer les maisons et pour tout autre type d’activité. Selon Mme Zharkova, les combustibles fossiles, qui constituent une source d’énergie fiable, sont aujourd’hui incontournables dans de telles conditions. « Si les gens ont survécu à [la période froide de] l’époque médiévale, nous devrions survivre mieux parce que nous sommes mieux équipés. Nous disposons de davantage de ressources énergétiques, à condition de les utiliser à bon escient », explique Mme Zharkova.
Le réchauffement climatique est également une réalité
Toutefois, Mme Zharkova estime qu’une période froide de quelques décennies n’est qu’un court épisode dans la longue tendance actuelle au réchauffement. Tandis que les décennies froides sont dues à la baisse d’activité du soleil, le réchauffement est lui aussi causé par le soleil – au fait qu’il se rapproche de la Terre. Là encore, un changement de position des planètes et du soleil dans l’espace, par rapport à nous, n’a rien d’inattendu. C’est également un phénomène récurrent dans notre longue histoire. Il est dû à l’attraction gravitationnelle des grosses planètes et, lorsque le Soleil se rapproche de la Terre, la température de l’air y augmente. Selon Mme Zharkova, ce cycle solaire dure de 2100 à 2300 ans et il est connu sous le nom de cycle de Hallstatt, qui décrit les variations du rayonnement solaire mesurées au cours de l’Holocène par de nombreux chercheurs sur base de la quantité de l’isotope C14 dans la biomasse terrestre. Le cycle actuel s’achèvera vers l’an 2600 et, bien qu’il se produira une autre période de faible activité solaire, ou GSM (2375-2415), au cours de laquelle il fera à nouveau plus froid, on assistera à un réchauffement constant au cours des cinq siècles suivants. D’après ses calculs, Mme Zharkova estime que la température augmentera de 3,5°C d’ici à 2600. « Bien sûr, nous ne serons plus là à ce moment-là, mais notre héritage perdurera et les gens pourront le vérifier et dire que la femme blonde ici présente disait la vérité sur le cycle de Hallstatt », plaisante-t-elle à propos d’elle-même.
Selon Mme Zharkova, dans le contexte général du lien historique entre changement climatique et CO2, il est important de comprendre que les humains sont en fait des spectateurs dans ce processus de changement. « Quoi que nous fassions sur Terre, nous ne pouvons pas modifier l’orbite du Soleil et des grandes planètes comme Jupiter, Saturne, Neptune et Uranus », explique-t-elle. « Nous ne pouvons rien y faire. »
« Comme l’Inquisition espagnole »
Or, c’est précisément le caractère naturel de ce processus que le courant dominant de la science climatique nie actuellement, estimant que la seule cause acceptable du changement climatique est l’augmentation de la proportion de CO2 d’origine anthropique dans l’atmosphère. Selon Zharkova, on ne se préoccupe pas de « détails » tels que le soleil. En effet, rappelle-t-elle, il a également été démontré scientifiquement que l’augmentation du CO2 atmosphérique suit temporellement l’augmentation de la température, et non l’inverse, mais c’est un autre point que les partisans du réchauffement climatique anthropique refusent de prendre en compte. « Cela vous donne une idée du manque d’éducation et de professionnalisme des personnes qui affirment que le CO2 entraîne une augmentation de la température », note Mme Zharkova. « Ils essaient de faire taire tous ceux qui remettent en question leurs modèles erronés », ajoute-t-elle.
Mme Zharkova a elle-même fait l’expérience de telles tentatives de musellement et de persécution. Elle cite l’exemple d’une rétractation récente, en mars 2020, de l’un de ses articles scientifiques (Zharkova et al, 2019) par le rédacteur en chef Rafal Marszalek de Nature Scientific Reports, sous la pression des partisans du réchauffement climatique anthropique, car elle avait mentionné dans l’article que la luminosité du Soleil peut changer en fonction de l’endroit exact où le Soleil se trouve par rapport à la Terre. Étant donné que l’on peut logiquement en conclure une influence solaire sur le climat de la Terre, l’article a dû être rétracté. Bien qu’elle ait publié à plusieurs reprises dans Nature, elle n’y est plus autorisée aujourd’hui.
Selon elle, cette rétractation s’applique à tous ceux qui remettent en question le réchauffement planétaire d’origine humaine et expliquent le changement climatique d’une autre manière. « Ils se comportent comme l’Inquisition espagnole pendant le minimum de Maunder », déclare Mme Zharkova à propos des partisans du réchauffement climatique anthropique, avec l’humour qui la caractérise, les appelant en plaisantant la mafia du CO2.
Un an plus tard, en avril 2021, Mme Zharkova a publié un chapitre de livre prouvant, à l’aide des éphémérides officielles des distances Soleil-Terre fournies par la NASA et l’Observatoire de Paris-Meudon, en France, que ces distances Soleil-Terre changent exactement comme décrites dans l’article rétracté. Selon elle, cela prouve que le Soleil, son activité et sa position sur l’orbite sont la source naturelle de tout changement climatique sur la Terre et sur les autres planètes.
Cet article de Miriam Anne Finch traite de la vraie raison de la soumission à la tyrannie – voir également le précédent. J’avais un article en suspens sur ce thème précis – avec, comme d’habitude, pas le temps de le finir – où j’en arrivais exactement à la même conclusion. Y’a pas de raison, je lui pique donc le sien. Comme nos pensées sont assez similaires, il y en aura d’autres.
Ce ne sont pas les armes nucléaires, les terroristes kamikazes ou les extraterrestres.
Ce n’est même pas Dieu, pas en tant que tel.
C’est la peur. C’est elle le moteur de toutes les opérations psychologiques, de toutes les supercheries et de tous les programmes obscurs qui saturent notre réalité, et c’est elle qui permet de les utiliser si efficacement comme armes contre la population.
Ce dont les gens sont amenés à avoir peur, en fin de compte, n’a pas vraiment d’importance, et fluctue avec le temps (ooh, c’est le changement climatique!) – mais le fondement psychologique reste exactement le même.
C’est pourquoi il est fondamentalement important, lorsque l’on s’attaque à la tyrannie sous toutes ses formes, de reconnaître que « le dernier truc en date » que l’on conditionne les gens à craindre (et qui est par conséquent utilisé pour modifier radicalement leur comportement), n’est pas ce sur quoi il faut se focaliser, pour la simple et évidente raison que, si on se concentre uniquement sur « le truc », et non sur la trame de la peur elle-même, la population apeurée reportera simplement sa terreur sur autre chose, et restera tout autant sous l’emprise des autorités despotiques, et de leurs diverses programmations fondées sur la peur.
Je soulève ce point aujourd’hui suite à une nouvelle dispute que j’ai eue avec la brigade « pas de virus ». Bien que je sois persuadée (comme je l’ai dit clairement à maintes reprises) que la virologie standard est erronée et que le modèle de « contagion » de la maladie n’est pas exact, je pense également que l’importance de la thèse « »pas de virus » a été largement surestimée, au point qu’elle paralyse désormais ses partisans les plus zélés et les amène à l’inaction sur tous les autres fronts, car ils pensent que « c’est la seule chose qui compte »: par exemple, en réfutant le modèle viral, c’est tout le château de cartes qui s’écroule.
Ce qui est terriblement malavisé et faux, car même si on réfute les virus en tant que responsables de problèmes de santé (et donc en tant que moyens d’effrayer les gens), les seigneurs de l’ombre disposent toujours, pour n’en citer que quelques-uns:
du cancer
du changement climatique
de la guerre nucléaire
des terroristes
des extraterrestres
de Dieu (comme dans les régimes ultra-religieux tels que l’Afghanistan qui contrôlent les populations en disant « vous devez faire telle ou telle chose ou Dieu sera en colère »).
Les classes dirigeantes n’ont pas besoin de se limiter aux virus pour susciter la peur, alors qu’elles disposent d’une large panoplie d’autres trucs hyper-terrifiants avec lesquels manipuler et contrôler les gens. Ainsi, même s’il était prouvé de manière concluante et universellement acceptée que les virus ne causent pas de maladies, cela ne mettrait nullement un terme au programme tyrannique de contrôle mondial.
En outre, comme je l’ai expliqué dans cet article, les thèses « virus » et « pas de virus » sont loin d’être aussi distinctes que certaines personnes semblent le penser, elles sont en fait extrêmement similaires, elles utilisent simplement un vocabulaire différent pour décrire la même chose; par exemple, ce que les adeptes des « virus » appellent infection, les adeptes du « pas de virus » l’appellent désintoxication; ce que les adeptes des virus appellent « contagion » (le phénomène observable de plusieurs personnes dans le même environnement qui tombent malades en même temps), les adeptes du « pas de virus » l’appellent « influence » (les corps « s’influencent » mutuellement pour accomplir certaines fonctions en même temps, comme cela se produit avec la synchronisation menstruelle), et ainsi de suite.
Au sein de la « communauté pour la vérité », où ce débat fait rage, les deux camps s’accordent à dire que ces processus – qu’on les appelle infections ou désintoxications – ne sont pas à craindre (il s’agit soit de l’élimination d’un virus par le corps, soit de la désintoxication de poisons, donc dans les deux cas, ils sont bénéfiques); qu’ils doivent être traités avec des remèdes naturels (repos, liquides, vitamine C, etc.); et, surtout, que les interventions telles que confinements, masques, tests et vaccins sont dangereuses et inutiles, et doivent être évitées à tout prix.
Ces points de vue, une fois réduits à l’essentiel, sont donc extrêmement similaires, les différences tenant davantage à la sémantique qu’à des points de vue radicalement différents.
Pour connaître mon point de vue complet sur la question, voir ici, mais ce que je veux souligner aujourd’hui, c’est qu’il est crucial de comprendre, non seulement que la question du « pas de virus » n’est pas « le point essentiel qui fera s’effondrer tout le régime », mais aussi que ce « point essentiel » n’existe pas – pas dans le sens de « si nous pouvions convaincre les gens sur ce point… » ils deviendraient soudainement invulnérables au contrôle de l’État.
En effet, même si l’on parvient à réfuter « le dernier truc en date » utilisé pour susciter la peur au sein de la population, des manipulateurs chevronnés – ce que sont assurément les classes dirigeantes – trouveront simplement (et facilement) un nouveau croquemitaine pour terroriser les gens, ce qu’ils font d’ailleurs depuis des temps immémoriaux.
Ils le font parce que la peur est connue pour être de loin le moyen le plus efficace de contrôler les gens. Peu importe de QUOI ils ont peur, ce qui compte c’est qu’ils en aient peur, de quoi dépendra largement du contexte culturel. Par exemple, si on veut (comme le font généralement les propriétaires d’esclaves) que la population se couvre le visage pour induire la mentalité dissociative de l’esclave que crée notoirement le fait de se couvrir le visage, si on préside un califat religieux strict comme l’Afghanistan, il sera alors possible de semer la peur dans la population en disant:
« Couvrez-vous le visage ou vous risquez la colère de Dieu et une damnation infernale pour l’éternité! »
En revanche, si on cherche à contrôler des Occidentaux majoritairement laïques qui en sont venus à vénérer La Science (TM), on optera pour:
« Couvrez-vous le visage parce que La Science l’a dit et que vous risquez de contracter des virus maléfiques si vous ne le faites pas! »
Le « truc » spécifique dont on dit aux gens d’avoir peur est différent (les virus, Dieu), mais la psychologie sous-jacente et le résultat final (une population craintive, docile et obéissante qui fait ce que les autorités lui disent de faire) sont exactement les mêmes.
La peur étant si extraordinairement efficace pour modifier radicalement le comportement des gens, il faut se demander de quoi, en fin de compte, les gens ont si peur.
Le « dernier truc en date » dont ils ont peur change sans arrêt – mais la peur elle-même reste exactement la même.
Pourquoi ont-ils si peur des « virus », du cancer, des divinités en colère ou de toute autre chose citée au début de cet article?
Quelle est la cause fondamentale de toute cette peur?
C’est la peur de la mort. La raison pour laquelle nous avons peur de la mort (alors que cette peur n’est pas universelle ni partagée par tous les êtres) est que l’on nous a menti de manière épique sur ce qu’elle est: nous sommes maintenus dans l’ignorance et donc terrifiés.
Imaginez, si vous le voulez bien, qu’il existe un groupe de personnes nées avec un trouble neurologique qui les empêche de dormir. Bien qu’ils n’aient jamais connu le sommeil, ils ont entendu de leurs gouvernements et de leurs écoles de sinistres histoires à ce sujet – qu’il existe un phénomène terrifiant qui peut affliger les gens, où ils perdent soudainement toute conscience pendant des heures et des heures après la tombée de la nuit. Ils deviennent aveugles, sourds et muets, et complètement vulnérables, ne se contrôlant pas et ne maîtrisant pas ce qui se passe autour d’eux.
De plus, dans cette prison sensorielle de paralysie et d’inconscience, leur cerveau commencerait à évoquer des illusions hallucinogènes toutes puissantes, des illusions parfois abjectement terrifiantes qui pousseraient la personne à crier de terreur, tandis qu’elle serait paralysée et incapable d’échapper aux horreurs de son esprit…
Pouvez-vous imaginer à quel point cette idée vous effraierait si vous n’aviez jamais connu le sommeil? A quel point ce serait hideux, à quel point ce serait pétrifiant? Comment, si un « expert » venait vous dire qu’il y a quelque chose appelé « mélatonine » qui circule dans l’air et qui peut vous « infecter » et vous faire dormir, vous feriez tout pour l’éviter? Vous seriez ridiculisé et méprisé par les « pro-sommeil » qui ne tiendraient pas compte de ces inquiétudes et insisteraient sur le fait qu’il n’y a rien à craindre du sommeil.
En réalité, nous savons tous que le sommeil est un état totalement inoffensif qui ne justifie aucune réaction de peur – même si la description qui en est faite dans le paragraphe ci-dessus est techniquement vraie. Nous sommes inconscients, nous sommes paralysés, nous sommes dans un état altéré, privés du contrôle de nous-mêmes que nous avons en état d’éveil – et pourtant nous n’en avons pas peur.
Évidemment, ce que je veux dire, c’est que nous pourrions dire la même chose de la mort, comme l’ont fait de nombreuses cultures: il n’y a rien à craindre, c’est juste un autre type d’expérience, tout comme l’expérience du sommeil est un type d’expérience différent de celui de l’éveil.
La peur de la mort – de quoi que ce soit – est basée sur l’inconnu: on a souvent dit que la peur provient de l’ignorance, ce qui ne veut pas dire de la stupidité, mais d’un manque de connaissances issu d’un manque d’expérience.
Évidemment, par définition, aucun d’entre nous n’a jamais connu la mort, mais de nombreuses personnes au cours de l’histoire ont connu des « expériences de mort imminente« , et le consensus général de ceux qui ont vécu de telles expériences est qu’il n’y a pas lieu d’avoir peur de la mort – et les seules personnes qui ont une expérience désagréable ou traumatisante de la mort sont celles qui ont mené une vie négative, au sens où elles ne respectent pas les normes morales ancestrales qui consistent à ne pas maltraiter ou exploiter autrui.
C’est à peu près ce que disent la plupart des grandes religions et des cultures avancées: il y aura des conséquences posthumes négatives pour vous si vous faites de mauvais choix dans cette vie. Je les crois: je pense simplement que les religions doivent distiller les choses en termes très simples pour plaire à un éventail de personnes aussi large que possible. Les religions doivent être accessibles à tous, et pas seulement aux penseurs profonds et brillants. Elles diront donc des choses comme « sois bon et tu iras au paradis; sois mauvais et tu iras en enfer », parce que c’est quelque chose que tout le monde peut comprendre. Je pense que ce qui se passe réellement est plus complexe et nuancé que cela, et je ne le comprends pas entièrement (je ne suis pas sûre que nous soyons censés le comprendre), mais oui, dans l’ensemble, il semble que la façon dont on fait l’expérience de la mort dépend de ce que l’on fait ici-bas.
Je ne prétends certainement pas avoir une vision unique du « sens de la vie » (bien que j’aie écrit un article portant ce titre… ma conclusion était que ça a à voir avec les chats), mais la vie semble être une sorte de test, et la façon dont on passe ce test sera examinée d’une manière ou d’une autre après la mort.
Chaque individu sera soumis à beaucoup de tests différents, et tout le monde n’est pas testé de la même manière, mais le chapitre « Covid » a été un test majeur pour chacun d’entre nous.
Les personnes qui se sont conformées aux programmes gouvernementaux fondés sur la peur exigeant des masques, des tests et des vaccinations – et en particulier celles qui ont fait pression sur les autres pour qu’elles fassent de même – ont échoué à ce test, à des degrés divers.
Si l’on extrapole, chaque fois que nous nous soumettons à un programme fondé sur la peur, quel qu’il soit – et quelle que soit la « peur du jour » vendue – nous échouons au test. Nous sommes ici pour affronter et surmonter les états limitatifs de basse vibration comme la peur, et non pour fonder notre vie sur eux. La peur, de diverses manières, nourrit nos ennemis – et ils nous le disent tout le temps (par exemple dans le film pour enfants « Monsters Inc« , étrangement révélateur, où des monstres venus d’un autre monde terrorisent des enfants pour se nourrir de leurs cris. Ce qui bloque l’approvisionnement en énergie des monstres, c’est lorsque les enfants cessent d’être effrayés et se mettent plutôt à rire).
Notez bien que la conscience pertinente d’un danger est un concept complètement différent de la peur. Je suis consciente, comme la plupart d’entre nous, que traverser une route représente un danger potentiel, et c’est pourquoi je regarde des deux côtés avant de le faire – une précaution pertinente pour atténuer le risque. Mais je n’ai pas « peur » de traverser les routes. De même, je n’ai pas « peur » des masques ou des vaccins – je ne tremble pas de terreur si je passe devant un cabinet médical où je sais qu’il y sont stockés – mais je suis consciente qu’ils sont dangereux, alors je les évite et je préviens les autres des dangers qu’ils représentent.
Bien sûr, il y a beaucoup de choses dangereuses dans le monde dont nous devons évaluer les risques avant de décider si ou comment nous allons les aborder – mais cela ne signifie jamais que nous devons en avoir peur, la peur étant l’émotion la plus inutile et la plus paralysante de toutes – et celle qui semble nourrir et enhardir les entités obscures.
La peur est bien pire que la colère (une émotion très injustement dénigrée) car, canalisée correctement, la colère peut être incroyablement galvanisante et catalyser l’action positive et le changement rationnel, alors que la peur ne fait qu’inhiber. Elle empêche la personne d’agir positivement et inhibe l’esprit rationnel – la raison précise pour laquelle les personnes craintives croient que des morceaux de mouchoirs détrempés qui claquent sur leur visage les protègent des maladies mortelles et que les fléaux virulents ne peuvent pas les atteindre s’ils se tiennent debout sur des cercles et mangent des oeufs à l’écossaise.
Ces croyances sont aussi ridicules que les absurdités superstitieuses les plus médiévales, mais les superstitions étaient très populaires à l’époque des ténèbres pour une raison bien précise: lorsque les gens sont suffisamment effrayés, ils sont prêts à croire tout ce qui peut les aider à apaiser leur peur.
Et, comme nous l’avons dit, quelle est la peur ultime? De toute évidence, c’est celle de la mort – depuis toujours.
La question que nous devons donc nous poser est la suivante: et si nous étions libérés de cette peur ultime? Et si nous ne craignions vraiment et sincèrement pas la mort?
C’est d’ailleurs la raison pour laquelle les « élites » ont tant de mal à éradiquer l’islam, ce qu’elles essaient assurément de faire par tous les moyens (elles veulent éradiquer toutes les religions, pour instaurer leur dystopie d’un monde unique « sans pays, sans possessions, sans religions »).
C’est parce que beaucoup de musulmans n’ont pas peur de la mort, croyant qu’ils seront récompensés au paradis, etc. C’est pourquoi les terroristes internationaux appelés gouvernements mondiaux qui bombardent sans cesse les pays islamiques pour les réduire en miettes n’obtiennent pas l’effet escompté de les démoraliser et de les soumettre, et l’islam reste plus fort que jamais dans le monde – parce que la menace « nous vous tuerons si vous ne vous soumettez pas » ne fonctionne pas. (C’est également la raison pour laquelle les guerres mondiales n’ont pas réussi à détruire le christianisme et que les ingénieurs sociaux ont dû se tourner vers la guerre psychologique).
Je ne suggère pas que nous devions tous devenir musulmans, ou adeptes d’une religion particulière, pour nous débarasser de notre peur de la mort, mais que les cultures qui (à juste titre) ne la craignent pas (même si leurs raisons de ne pas la craindre ne sont pas toujours exactes à 100%) sont dans une position beaucoup plus forte – beaucoup mieux immunisée contre la tyrannie de l’État – que les cultures qui la craignent.
Nos cultures laïques et athées sont absolument terrifiées par la mort, car la croyance largement répandue en Occident est que « c’est tout ce qu’il y a » – que lorsque l’on meurt, c’est comme éteindre la télévision à la fin d’un film: Fin. Le noir total. C’est terminé, les amis.
Évidemment, pour ceux qui le croient, la peur de la mort sera extraordinaire. Les classes dirigeantes ont intentionnellement conçu un modèle de la mort du style « éteindre la télé » afin d’induire une peur maximale de la mort dans la population, et ainsi réussir à mettre en œuvre toutes leurs opérations psychologiques fondées sur la peur.
Si vous ne craigniez pas la mort, si vous la considériez simplement comme faisant partie de la vie – comme le repos (ce n’est peut-être pas une coïncidence si cette expression [repos éternel] a été utilisée pendant si longtemps comme euphémisme pour désigner la mort) – comment les seigneurs de l’ombre parviendraient-ils à vous manipuler et à vous contrôler avec des virus, le cancer, le changement climatique ou quoi que ce soit d’autre?
(C’est la raison pour laquelle le fait que les gens croient ou non aux virus n’a pas d’importance, comme le pensent les partisans du « pas de virus » : ce qui compte, c’est qu’ils les craignent. De nombreuses personnes anti-restriction croient que les virus propagent des maladies, y compris certains activistes très prolifiques et louables, mais elles ne les craignent pas non plus et ne sont donc pas susceptibles d’être soumises à la tyrannie de l’État. Ce n’est pas la « croyance dans les virus » qui pousse les gens à se plier à la tyrannie, c’est la PEUR des virus. Il en va de même pour tout le reste: ce ne sont pas les croyances qui importent, mais plutôt le fait que ces croyances amènent à vivre dans la peur).
Pour en revenir au sommeil, il est remarquable de constater le peu d’attention que la culture lui accorde, alors que nous passons tant de temps à dormir. Une personne passe en moyenne vingt-six ans de sa vie à dormir.
Imaginez que vous ayez une relation qui dure vingt-six ans, un travail ou un enfant de cet âge, et que vous n’en parliez jamais?
Contrairement au travail, aux relations et à d’autres choses qui occupent une grande partie de notre temps, le sommeil n’est pas vraiment un sujet de conversation dans notre culture, ni les mystérieuses profondeurs de notre inconscient dont nous faisons l’expérience dans cet état (en particulier les expériences mystiques telles que les rêves prophétiques et lucides) – et peut-être est-ce ainsi parce que l’expérience du sommeil – être inconscient et « ne pas être soi-même » – est trop similaire à la mort. Nous ne pouvons pas expliquer le phénomène du sommeil et des rêves de manière directe et logique, en nous référant à La Science (TM), alors nous l’ignorons largement et nous l’excluons du récit culturel. Même s’il s’agit d’un aspect tout à fait normal et non-effrayant de la vie quotidienne.
La mort fait également partie de la vie quotidienne. Des milliers de personnes meurent chaque jour, nous mourrons tous, et la plupart de nos ancêtres historiques sont déjà morts. Elle ne devrait donc pas être si effrayante et perçue uniquement comme négative. Ça n’a pas de sens. Si nous ne considérons pas la naissance et la vie uniquement comme des expériences effrayantes et négatives (même si elles peuvent certainement présenter ces aspects), pourquoi verrions-nous la mort de cette manière?
Bien sûr, ne pas craindre la mort ne signifie pas s’y précipiter ou ne pas vouloir utiliser son temps ici aussi efficacement que possible – tout comme ne pas craindre le sommeil ne signifie pas que l’on veuille dormir tout le temps ou s’endormir très tôt dans la journée.
J’aime dormir et rêver (il m’arrive de faire des rêves lucides, qui sont plutôt splendides), mais ce n’est certainement pas tout ce que je veux faire (même si l’on peut pardonner à ceux qui ont vécu avec moi à l’adolescence de penser le contraire).
Je ne veux donc pas mourir maintenant, ni avant de nombreuses années, tout comme je ne veux pas m’endormir à 15 heures – il est trop tôt et il y a encore trop de choses à faire.
Et ce n’est pas parce que je sais que je finirai par être fatiguée et par m’endormir que je vis ma vie en redoutant ce moment ou en prenant des mesures extrêmes pour l’éviter.
Je pense que j’ai suffisamment martelé l’analogie entre le sommeil et la mort et que vous avez compris, mais le point essentiel que j’essaie d’illustrer est que nous devons nous concentrer sur la véritable racine de la peur des gens, qui n’est pas les virus, les extraterrestres, le changement climatique ou même Dieu – c’est la mort. Et une incompréhension fondamentale de celle-ci, créée intentionnellement et agressivement promue par les classes dirigeantes.
Comme je l’ai raconté dans mon article « Le sens de la vie« , mon merveilleux chat, Tiger, est mort il y a quelques mois. Il n’était pas âgé – il venait d’avoir neuf ans – mais il s’était blessé d’une manière ou d’une autre lorsqu’il était dehors, ce qui était évident à la manière dont il bougeait et vocalisait lorsqu’il est rentré, et il était rentré à la maison pour mourir. Je l’ai su parce qu’il s’est glissé sous l’escalier du grenier, où il faisait très sombre et très calme – ce qu’il n’avait jamais fait auparavant – et je savais que c’est ce que font les chats lorsqu’ils savent qu’ils vont mourir: trouver une cachette paisible pour passer tranquillement de vie à trépas.
Et le fait est qu’il n’a pas eu peur. Moi, oui, et je l’ai emmené d’urgence chez le vétérinaire, car être confronté à la mort est évidemment dévastateur pour ceux qui restent, mais Tiger, l’être confronté à la mort lui-même, n’était pas du tout effrayé. Il était totalement détendu et acceptait la situation, et lorsque j’ai passé la main sous l’escalier pour le caresser, il a ronronné et posé sa patte sur ma main.
Les animaux sont instinctifs et savent qu’ils n’ont pas à craindre la mort. C’est pourquoi les seigneurs de l’ombre n’ont jamais dépensé des milliards de livres sterling pour essayer de réorganiser socialement les chats et d’en faire des esclaves muselés (vous imaginez essayer de museler un chat? Mon Dieu…). Cela ne fonctionnerait pas, car il n’y a pas de peur de la mort à exploiter.
Ainsi, lorsque l’on tente de démanteler les différents récits fondés sur la peur, il faut se demander quelle est la peur sous-jacente, car elle est toujours la même: un désir désespéré de nier notre propre mortalité.
Une fois cette peur vaincue, aucune opération psychologique – peste, cancer, terroristes, extraterrestres, etc. – n’a plus le moindre pouvoir.
Il semble que les êtres humains soient piégés dans une boucle de peur depuis des millénaires, et c’est ce qui permet en fin de compte aux classes dirigeantes de continuer à exploiter, à dominer et à contrôler.
Par conséquent, la première étape pour les renverser et renverser leur emprise sur nous est d’imaginer un monde libéré de la peur ultime: que, bien que nous ne voulions pas mourir prématurément et que nous prenions des précautions raisonnables pour l’éviter (comme ne pas marcher sur la route sans regarder, ou ne pas faire confiance à des criminels en série pour nous injecter des sérums expérimentaux qu’ils ont fabriqués à la hâte), nous ne vivions pas non plus dans la peur de notre destin inévitable.
Si nous commençons à imaginer cette possibilité et à en discuter avec d’autres, nous commençons à faire de réels progrès vers un monde libre et libéré.
Il suffit de regarder les chats, les êtres libres par excellence. Ils vivent exactement comme ils l’entendent, insensibles à toute tentative de les rassembler ou de les enfermer (c’est pourquoi ceux qui ont des tendances narcissiques et contrôlantes ne les aiment pas). Et regardez comme ils ne craignent pas la mort et comme ils l’acceptent calmement lorsque leur heure est venue.
Comme toujours, nous avons beaucoup à apprendre d’eux et, comme je l’ai déjà dit, je ne sais pas quel est le sens de la vie, mais je suis presque sûre qu’il a quelque chose à voir avec les chats…
Juste pour s’amuser, on va un peu se foutre de ceux qui se foutent de nous avec tant d’abandon – surtout en ce moment, ils deviennent incontrôlables: les Experts du climat. L’article date de 2022 et reprend une liste publiée en 2000 mais peu importe, les prédictions, elles, datent bien de 1970.
Je signale au passage la sortie de « Climate: the Movie« , le nouveau et excellent film de Martin Durkin, que je vous recommande vivement. Le lien ci-dessus mène à la dernière version avec sous-titres français (ajuster les Paramètres si nécessaire). Profitez-en parce que YouTube fait le shadowbanning du film: à moins d’en entrer le titre exact, il n’apparaît pas dans les résultats 🙂
Présentation du film:
Ce film montre que l’alarme climatique est une peur inventée sans aucun fondement scientifique. Il montre que les études classiques et les données officielles ne confirment pas l’affirmation selon laquelle nous assistons à une augmentation des phénomènes météorologiques extrêmes – ouragans, sécheresses, vagues de chaleur, incendies de forêt et autres. Elles réfutent catégoriquement l’affirmation selon laquelle les températures et les niveaux actuels de CO2 dans l’atmosphère sont anormalement élevés et inquiétants. Au contraire, par rapport au dernier demi-milliard d’années de l’histoire de la Terre, les températures et les niveaux de CO2 actuels sont extrêmement et inhabituellement bas. Nous sommes actuellement dans une période glaciaire. L’étude montre également qu’il n’existe aucune preuve que l’évolution des niveaux de CO2 (qui ont changé à de nombreuses reprises) ait jamais été à l’origine d’un changement climatique dans le passé.
Pourquoi alors nous dit-on, encore et encore, que le « changement climatique catastrophique causé par l’homme » est un fait irréfutable? Pourquoi nous dit-on qu’il n’y a aucune preuve qui le contredise? Pourquoi nous dit-on que quiconque remet en question le « chaos climatique » est un « platiste » et un « négationniste de la science »?
Le film explore la nature du consensus qui sous-tend le changement climatique. Il décrit les origines du financement de la lutte contre le changement climatique et l’essor de l’industrie du climat, qui pèse des trillions de dollars. Il décrit les centaines de milliers d’emplois qui dépendent de la crise climatique. Il explique l’énorme pression exercée sur les scientifiques et autres personnes pour qu’ils ne remettent pas en question l’alarme climatique: retrait des fonds, rejet par les revues scientifiques, ostracisme social.
Mais l’alarme climatique est bien plus qu’une campagne de financement et d’emploi. Le film explore la politique du climat. Dès le début, la peur du climat a été politique. Le coupable était le capitalisme industriel de libre marché. La solution consistait à augmenter les impôts et à renforcer la réglementation. Dès le début, l’alarme climatique a attiré, et a été adoptée et promue par les groupes favorables à un renforcement de l’État.
C’est le clivage politique tacite qui se cache derrière l’alarme climatique. La campagne d’alarmisme climatique est particulièrement attrayante pour tous ceux qui font partie de l’establishment tentaculaire financé par l’État. Cela inclut l’intelligentsia occidentale, largement financée par des fonds publics, pour qui le climat est devenu une cause morale. Dans ces cercles, critiquer ou remettre en question l’alarme climatique est devenu un manquement à l’étiquette sociale.
Le film comprend des entretiens avec un certain nombre d’éminents scientifiques, dont le professeur Steven Koonin (auteur de « Unsettled », ancien doyen et vice-président de Caltech), le professeur Dick Lindzen (ancien professeur de météorologie à Harvard et au MIT), le professeur Will Happer (professeur de physique à Princeton), le Dr John Clauser (lauréat du prix Nobel de physique en 2022), le professeur Nir Shaviv (Racah Institute of Physics), le professeur Ross McKitrick (Université de Guelph), Willie Soon et bien d’autres encore.
Le film a été écrit et réalisé par le cinéaste britannique Martin Durkin et constitue la suite de son excellent documentaire de 2007 intitulé « The Great Global Warming Swindle » (La grande escroquerie du réchauffement climatique). Tom Nelson, un podcasteur qui examine en profondeur les questions liées au débat sur le climat depuis près de vingt ans, est le producteur du film.
Et maintenant, rions un peu de leurs vieilles foutaises.
18 prédictions spectaculairement erronées ont été faites à l’occasion de la première Journée de la Terre en 1970, et il faut s’attendre à ce qu’il y en ait d’autres cette année
Par Mark J. Perry
21 avril 2022
Demain c’est la Journée de la Terre 2022 et le 52e anniversaire de la Journée de la Terre. C’est donc le moment de publier mon article annuel sur les prédictions spectaculairement erronées qui ont été faites à l’époque de la première Journée de la Terre en 1970…
Dans le numéro de mai 2000 de Reason Magazine, le correspondant scientifique primé Ronald Bailey a écrit un excellent article intitulé “Earth Day, Then and Now: The planet’s future has never looked better. Here’s why” (Journée de la Terre, hier et aujourd’hui: L’avenir de la planète n’a jamais été aussi prometteur. Voici pourquoi) pour donner une perspective historique au 30e anniversaire de la Journée de la Terre. Dans cet article, Bailey note qu’à l’époque de la première Journée de la Terre, en 1970, et dans les années qui ont suivi, il y a eu un « torrent de prédictions apocalyptiques » et nombre de ces prédictions ont été reprises dans son article de Reason. Le 51e anniversaire de la Journée de la Terre est l’occasion de poser à nouveau la question que Bailey a posée il y a 21 ans: dans quelle mesure les prédictions faites à l’époque de la première Journée de la Terre, en 1970, étaient-elles exactes? La réponse: « Les prophètes de malheur ne se sont pas simplement trompés, ils se sont spectaculairement trompés », selon Bailey. Voici 18 exemples de prédictions spectaculairement erronées faites autour de 1970, lorsque la « journée sainte verte » (alias Journée de la Terre) a été lancée:
George Wald, biologiste à Harvard, estimait que « la civilisation s’éteindra d’ici 15 ou 30 ans [d’ici 1985 ou 2000] si des mesures immédiates ne sont pas prises pour résoudre les problèmes auxquels l’humanité est confrontée ».
« Nous traversons une crise environnementale qui menace la survie de cette nation et du monde en tant que lieu d’habitation humaine », écrivait Barry Commoner, biologiste à l’université de Washington, dans le numéro consacré à la Journée de la Terre par la revue scientifique Environment.
Le lendemain de la première Journée de la Terre, la page éditoriale du New York Times avertissait: « L’homme doit cesser de polluer et conserver ses ressources, non seulement pour améliorer son existence, mais aussi pour sauver la race d’une détérioration intolérable et d’une possible extinction ».
« La population dépassera inévitablement et complètement les faibles accroissements de nourriture auxquels nous parviendrons », déclarait avec assurance Paul Ehrlich dans le numéro d’avril 1970 de Mademoiselle. « Le taux de mortalité augmentera jusqu’à ce qu’au moins 100 à 200 millions de personnes par an meurent de faim au cours des dix prochaines années [d’ici 1980]. »
« La plupart des personnes qui vont mourir dans le plus grand cataclysme de l’histoire de l’homme sont déjà nées », écrivait Paul Ehrlich dans un essai de 1969 intitulé Eco-Catastrophe! « D’ici [1975], certains experts estiment que les pénuries alimentaires auront transformé le niveau actuel de faim et de disette dans le monde en famines d’une ampleur incroyable. D’autres experts, plus optimistes, pensent que l’ultime choc nourriture-population ne se produira pas avant la décennie des années 1980. »
Ehrlich esquissait son scénario le plus alarmiste pour le numéro de 1970 de The Progressive consacré à la Journée de la Terre, assurant les lecteurs qu’entre 1980 et 1989, quelque 4 milliards de personnes, dont 65 millions d’Américains, périraient dans le « Grand Dépérissement ».
« Il est déjà trop tard pour éviter une famine massive », déclarait Denis Hayes, le principal organisateur de la Journée de la Terre, dans le numéro du printemps 1970 de The Living Wilderness (La nature sauvage).
Peter Gunter, professeur à la North Texas State University, écrivait en 1970: « Les démographes s’accordent presque unanimement sur le sinistre calendrier suivant: d’ici 1975, des famines généralisées commenceront en Inde; elles s’étendront d’ici 1990 à l’ensemble de l’Inde, du Pakistan, de la Chine, du Proche-Orient et de l’Afrique. D’ici l’an 2000, ou peut-être plus tôt, l’Amérique du Sud et l’Amérique centrale vivront dans des conditions de famine….En l’an 2000, dans trente ans, le monde entier, à l’exception de l’Europe occidentale, de l’Amérique du Nord et de l’Australie, sera en proie à la famine ».
Note: La prédiction de la famine en Amérique du Sud est en partie vraie, mais seulement au Venezuela et seulement pour cause de socialisme, et non pour des raisons environnementales.
En janvier 1970, Life rapportait: « Les scientifiques disposent de preuves expérimentales et théoriques solides pour étayer […] les prédictions suivantes: dans une décennie, les citadins devront porter des masques à gaz pour survivre à la pollution de l’air… en 1985, la pollution de l’air aura réduit de moitié la quantité de lumière solaire atteignant la terre…. ».
L’écologiste Kenneth Watt déclarait au Time: « Au rythme actuel de l’accumulation d’azote, ce n’est qu’une question de temps avant que la lumière ne soit filtrée de l’atmosphère et qu’aucune de nos terres ne soit utilisable ».
Barry Commoner prévoyait que les polluants organiques en décomposition consommeraient tout l’oxygène des rivières américaines, entraînant l’asphyxie des poissons d’eau douce.
Paul Ehrlich renchérissait en prédisant en 1970 que « la pollution de l’air… coûtera certainement des centaines de milliers de vies rien qu’au cours des prochaines années ». Ehrlich esquissait un scénario dans lequel 200 000 Américains mourraient en 1973 lors de « catastrophes dues au smog » à New York et à Los Angeles.
Dans le numéro de mai 1970 de la revue Audubon, Paul Ehrlich avertissait que le DDT et d’autres hydrocarbures chlorés « pourraient avoir considérablement réduit l’espérance de vie des personnes nées depuis 1945 ». Ehrlich avertissait que les Américains nés depuis 1946… n’avaient plus qu’une espérance de vie de 49 ans, et il prédisait que si les tendances actuelles se poursuivaient, cette espérance atteindrait 42 ans d’ici 1980, date à laquelle elle pourrait se stabiliser. (Note: selon le rapport le plus récent du CDC, l’espérance de vie aux États-Unis est de 78,6 ans).
L’écologiste Kenneth Watt déclarait: « D’ici l’an 2000, si les tendances actuelles se poursuivent, nous consommerons le pétrole brut à un tel rythme… qu’il n’y aura plus de pétrole brut. Lorsque vous irez à la pompe et que vous direz: « Fais le plein, mec », on vous répondra: « Je suis vraiment désolé, il n’y en a plus ».
Note: La production mondiale de pétrole de l’année dernière, d’environ 95 millions de barils par jour (bpj), a doublé par rapport à la production mondiale de pétrole de 48 millions de bpj à l’époque de la première Journée de la Terre en 1970. [NdT. l’année 2023 a vu le record historique de production mondiale de pétrole]
Harrison Brown, un scientifique de l’Académie Nationale des Sciences, publiait dans le Scientific American un tableau qui considérait les réserves de métaux et estimait que l’humanité serait totalement à court de cuivre peu après l’an 2000. Le plomb, le zinc, l’étain, l’or et l’argent disparaîtraient avant 1990.
Le sénateur Gaylord Nelson écrivait dans Look: « Le Dr S. Dillon Ripley, secrétaire de l’Institut Smithsonian, pense que dans 25 ans, entre 75 et 80% de toutes les espèces animales vivantes auront disparu ».
En 1975, Paul Ehrlich prédisait que « puisque plus de neuf dixièmes des forêts tropicales humides primaires seront éliminées dans la plupart des régions au cours des 30 prochaines années environ [d’ici 2005], on peut s’attendre à ce que la moitié des organismes de ces régions disparaissent avec elles ».
Dans un discours, Kenneth Watt annonçait l’imminence d’une ère glaciaire. « Le monde se refroidit fortement depuis une vingtaine d’années », déclarait-il. « Si les tendances actuelles se poursuivent, le monde sera plus froid d’environ quatre degrés pour la température moyenne globale en 1990, mais de onze degrés en l’an 2000. C’est environ le double de ce qu’il faudrait pour que nous entrions dans une ère glaciaire ».
MP: Gardons à l’esprit ces prédictions spectaculairement erronées de la première Journée de la Terre en 1970, au moment où nous sommes à nouveau bombardés cette année par des prédictions catastrophiques de « malheur et désolation » et de » menaces existentielles » dues au changement climatique. Pensons également à la question posée par Ronald Bailey en 2000: À quoi ressemblera la Terre lors de la 60e Journée de la Terre, en 2030? Bailey prédit un monde futur beaucoup plus propre et beaucoup plus riche, avec moins de faim et de malnutrition, moins de pauvreté, une espérance de vie plus longue et des prix des minéraux et des métaux plus bas. Mais il fait une dernière prédiction au sujet de la Journée de la Terre 2030: « Il y aura un groupe de catastrophistes à l’influence disproportionnée qui prédiront que l’avenir – et le présent – n’ont jamais semblé aussi sombres ». En d’autres termes, le battage médiatique, l’hystérie et les prédictions apocalyptiques spectaculairement erronées se poursuivront, encouragés par des « chasseurs de revendications environnementales » à l’esprit vertueux comme l’AOC, qui a déclaré il y a plusieurs années qu’il ne nous restait « que 12 ans pour stopper les pires impacts du changement climatique ».
La bêtise deviendra endémique au Royaume-Uni d’ici 2060
Je sais, elle est déjà endémique…
Posté le 24 décembre 23 par JitIn
J’ai une théorie – que j’ai peut-être déjà mentionnée dans ces pages – selon laquelle une grande partie de la menace que le changement climatique fait peser sur le monde naturel pourrait être démontrée comme étant une illusion par pure logique, si quelqu’un avait le temps, ou plus important encore, l’envie, de collecter les données.
Il existe un principe bien connu dans la vie humaine selon lequel les apparences ont de l’importance. On peut appeler cela le « préjugé de beauté », ou encore « les personnes laides sont injustement considérées comme malveillantes au premier coup d’œil ». Un phénomène similaire se produit dans la perception des animaux par l’homme. Les choses mignonnes sont vulnérables et les choses horribles sont dangereuses. C’est un instinct que nous avons. Voir ici pour une discussion. Il y a des gens bizarres comme moi qui aiment les araignées. Mais cela signifie simplement que l’horreur que la plupart des gens éprouvent à l’égard des arachnides déteint sur l’arachnologue.
Je prétends que, parce que les scientifiques sont des humains et non des automates désintéressés, ils sont plus enclins à rechercher les menaces qui pèsent sur les animaux mignons et à chercher les raisons pour lesquelles les animaux horribles se répandent. Telle est ma théorie. Et il serait facile de la tester, simplement en consultant la littérature.
La « crise » climatique étant l’alpha et l’oméga des menaces qui pèsent actuellement sur le monde naturel, les créatures horribles pulluleront dans un avenir chaud, tandis que les animaux mignons disparaîtront inévitablement sous l’effet d’une chaleur accablante.
Un exemple de créature qui appartient sans équivoque à la caste des « horribles » est le moustique, qui, compte tenu de ce qui précède, deviendra donc plus abondant et envahira des zones dont il est actuellement absent, apportant avec lui de méchants virus ou protozoaires.
UNE BRÈVE LEÇON D’ÉCOLOGIE (N’HÉSITEZ PAS À FAIRE UNE AVANCE RAPIDE)
On peut décrire les endroits disponibles où une espèce particulière peut vivre en utilisant le concept de « niche ». Il en existe deux types principaux.
Le premier est la niche fondamentale, qui peut être considérée comme un espace à n dimensions, chaque dimension étant définie par l’un ou l’autre paramètre environnemental. Le plus évident est la température maximale et minimale qu’une espèce donnée peut tolérer. Il y a aussi des paramètres comme la salinité et l’humidité, ainsi que des phénomènes météorologiques plus intangibles comme les précipitations. Cette enveloppe englobe l’éventail des environnements que notre espèce peut potentiellement habiter.
Le deuxième type est la niche réalisée. Il s’agit du sous-ensemble de la niche fondamentale qui est effectivement occupé par l’espèce concernée. Par exemple, certaines espèces de plantes sont limitées aux marais salants. Mais la plupart d’entre elles pourraient allègrement pousser à l’intérieur des terres si elles en avaient la possibilité. À l’intérieur des terres, elles sont facilement évincées par des espèces plus vigoureuses; mais sur le marais salant, leur plus grande tolérance à l’environnement leur permet de pousser là où les espèces plus vigoureuses ne peuvent le faire.
FIN DE LA LEÇON D’ÉCOLOGIE
À l’aide de modèles climatiques, si vous croyez à ce genre de choses, il est possible de cartographier la niche fondamentale actuelle et future d’une espèce particulière, à partir d’informations sur ses tolérances environnementales. On peut également cartographier sa niche réalisée à partir des données d’occurrence existantes et donner une idée de ce que sa niche réalisée pourrait être dans le cadre d’un scénario de changement climatique particulier.
Ce n’est pas aussi simple qu’il n’y paraît. Prenons un autre exemple de marais salant : si on estime que le niveau de la mer va s’élever, cela pourrait signifier que la niche réalisée de l’aster de mer se déplacera vers le haut du marais. Mais le fera-t-elle? Les endroits où nous pensons que l’aster de mer va se répandre sont déjà occupés par des graminées grossières. Peut-être seront-elles moins vigoureuses avec une ou deux inondations par an, mais peut-être pas. Il n’est pas facile de déterminer si la communauté changera.
Après ce préambule, vous commencez sans doute à vous demander Mais Bon Sang de Quoi Jit Parle-t-il cette fois? Eh bien, je parle de ça:
Le Star: Les mozzis tueurs s’emparent du pays Daily Mail: La dengue atteint le Royaume-Uni The Scotsman: Le changement climatique pourrait apporter la fièvre Daily Record: Les insectes tropicaux vont frapper le Royaume-Uni Daily Express: Les moustiques tigres pourraient apporter la dengue au Royaume-Uni à mesure que le climat se réchauffe The Guardian: Selon l’Agence de la Santé, la crise climatique pourrait provoquer 10 000 décès supplémentaires par an au Royaume-Uni
Il y a quelques semaines, l’Agence britannique de sécurité sanitaire a publié un rapport géant sur les effets du changement climatique sur la santé au Royaume-Uni. Ce rapport peut être consulté ici. Il y a beaucoup de choses dans ce rapport. Mais la plupart des journaux se sont penchés sur la question des moustiques tueurs.
L’histoire est la suivante. Il existe un moustique appelé Aedes albopictus (le tigre asiatique!). Il est rayé, vient d’Asie et pique les humains, vous comprenez? Cependant, il existe d’autres types de moustiques rayés, ce qui peut prêter à confusion pour les non-initiés), connu pour transmettre la dengue, qui s’établira au Royaume-Uni parce que la Crise Climatique rendra le climat britannique propice à son développement, ce qui l’amènera à transmettre la dengue à d’infortunés citoyens britanniques en train de vaquer à leurs occupations.
Il se trouve que le rapport lui-même n’est pas aussi hystérique que les gros titres. Mais il ne se rend pas service.
Voici la chaîne de raisonnement :
A. albopictus n’est pas présent au Royaume-Uni.
Le Royaume-Uni ne fait actuellement pas partie de la niche fondamentale d’A. albopictus, c’est pourquoi il n’est pas là.
A. albopictus est arrivé au Royaume-Uni et y arrivera encore et encore, mais il ne s’y est pas établi parce qu’il y fait trop froid, et il ne s’y établirait pas, sauf que…
Avec le changement climatique, le Royaume-Uni deviendra propice à l’A. albopictus, de sorte que l’un de ces événements de colonisation aboutira à l’établissement du moustique.
Comme A. albopictus est connu pour transmettre la dengue, il transmettra la dengue lorsqu’il s’établira ici.
La dengue s’établira au Royaume-Uni et des personnes mourront inutilement.
Nous devons réduire les émissions de « carbone ».
Il y a là un certain nombre de problèmes. Selon les estimations de Proestus et al 2015, le Royaume-Uni est déjà presque entièrement un habitat approprié pour le Royaume-Uni. Selon ces estimations, le changement climatique n’a aucune incidence sur la probabilité d’établissement du moustique, même en utilisant le scénario RCP8.5 Armageddon (repérez la différence entre les deux cartes ci-dessous). Et s’il est vrai que le Royaume-Uni n’est actuellement pas adapté, il aurait peut-être été préférable que l’UKHSA n’utilise pas le scénario RCP8.5 pour prédire les températures futures.
Adéquation de l’habitat pour A. albopictus selon Proestus et al.
Adéquation de l’habitat pour A. albopictus vers 2050 selon Proestus et al.
Ensuite, même si un habitat est physiquement adapté (rappelons le concept de niche fondamentale), il ne s’ensuit pas nécessairement qu’une espèce s’établira, car des interactions écologiques entrent en jeu (la niche réalisée). Il y a déjà beaucoup de moustiques du genre Aedes au Royaume-Uni, et il est au moins plausible que le nouveau venu ne parvienne pas à s’établir en raison de la concurrence avec les espèces en place, en particulier par la production d’hybrides peu adaptés (ce que l’on appelle la « satyrisation » – discutée en relation avec cette espèce et A. aegypti par Lounibos & Juliano 2018). Si les moustiques s’établissent effectivement, il n’y a aucune raison de supposer que la dengue s’établira à son tour. Un problème particulier est que pour transmettre la dengue, un moustique doit piquer un être humain infecté, puis piquer un être humain non infecté. La seule source de dengue étant les humains importés, ce processus est inévitablement rare et donc peu probable. Au Royaume-Uni, les humains ne se font pas piquer autant que dans certaines parties du monde, car nous disposons de logements de meilleure qualité (pro tem) que dans de nombreuses régions du monde. Il pourrait y avoir de petites poussées de dengue autour d’un individu, mais il semble peu probable que cela persiste. C’est d’autant plus vrai que nous avons cette chose appelée hiver, qui permettrait aux personnes infectées d’éliminer le virus avant que les moustiques ne deviennent actifs au cours de l’été suivant. C’est le cas, que ce soit en enfer, en haute mer ou dans le cadre du RCP8.5.
Selon moi, il n’y a pas la moindre chance que la dengue s’installe au Royaume-Uni. Je ne serais toutefois pas surpris si A. albopictus s’établissait ici. Mais il n’y a pas lieu de paniquer. Dans l’ensemble, les espèces introduites ne sont pas aussi terrifiantes qu’on le prédit. La proportion d’espèces introduites qui se montrent à la hauteur du battage médiatique autour de leur arrivée est un autre sujet intéressant.
Quant à la réduction de l’aptitude des moustiques envahissants par la satyrisation, les satyres ont-ils une faible aptitude? N’oubliez pas, mesdames et messieurs, que cela n’a rien à voir avec leur apparence. Ce qui compte, c’est la façon dont ils jouent de la flûte.
L’année de la redevabilité est terminée. Ô surprise, pas de Nuremberg 2.0, juste quelques plaintes comme celle-ci – le Procureur Général du Texas contre Pfizer. En Europe, quelques rats politiques quittent le navire vaccinal en perdition, maintenant que le mal est fait et qu’ils sont autorisés à jouer officiellement les preux chevaliers avec trois ans de retard. Parfaitement minable.
Voyons ce qu’on nous promet pour l’année qui vient: chaos, guerre civile, guerre mondiale, extrême-droite, et autres signes que le foutage de gueule continue. Encore du minable…
Je vois se former deux tendances, pas strictement alignées sur les divisions qu’on nous vend – gauche/droite, noirs/blancs, Russie/Ukraine – actualisée en Israël/Palestine – et bien entendu injectés/non-injectés.
D’un côté les éternels enfants gâtés qui comptent sur d’autres pour faire le boulot – au choix selon leur « camp », l’État, Pfizer, les politiciens, Donald Trump, Jésus Christ, etc. – et traversent la vie sans rien vouloir savoir ni savoir qu’ils ne savent pas. Inutiles à eux-mêmes et aux autres, personne n’en veut – ni vous, ni moi, encore moins leurs maîtres, qui ne savent plus quoi en faire.
D’autre part, ceux qui (re)prennent leur vie en main, même si ce n’est ni facile ni un cadeau – beaucoup de travail pour peu de récompense – mais réalisent que la seule liberté ne se gagne pas à coups de manifs à la con mais par l’autonomie et la responsabilité individuelle.
En voici la version latine sous forme de proverbes pour assiettes – idée piquée à Chaval:
Labor ipse voluptas: le travail est sa propre récompense.
Flecti non frangi: on nous a pliés mais on ne nous a pas cassés.
… et bonne santé!
J’ai:
une crise aigüe de goutte (moi qui ne boit jamais),
une allodynie, ou un zona, on ne sait toujours pas (médecins incompétents),
des apnées du sommeil (86 par heure, dont une mesurée à deux minutes),
… mais pas le Covid!
Ces légères indispositions heureusement sans gravité expliquent le léger retard de ce billet.
Je prends donc de la colchicine, de la vitamine B et je me déguise en éléphant toutes les nuits, sur conseil de mon cardiologue, ce qui me prolongera la vie de plusieurs années, merci Docteur – et implique que le monde devra encore supporter ce vieillard acariâtre, en plus de tout le reste.
Et comment vont les autres?
Covid-19
Je coiffe ma casquette marquée Service Public pour une annonce d’intérêt général.
Si vous souffrez des symptômes suivants:
toux sèche persistante,
courbatures,
fièvre modérée,
douleur dorsale extrême localisée au niveau du pancréas/estomac, c’est-à-dire au milieu de la colonne vertébrale,
très forte diarrhée, système digestif HS,
… c’est probablement le Covid – peut-être le petit dernier, le JN.1. Vous savez quoi faire.
Je range ma casquette, passons à la suite des événements.
En 2020, n’en déplaise aux négationnistes du SARS-CoV-2, le Covid a fait quelque dégât chez les immunodéprimés et certains malchanceux – assez peu – dont certains ont chopé un Covid long. Avance rapide jusque 2024: le système immunitaire des injectés a été maintenant suffisamment « reprogrammé », c’est-à-dire agressé, pollué et déraillé pour qu’on se retrouve dans la situation de 2020 en mille fois pire, où les injectés sont les nouveaux immunodéprimés. C’est-à-dire que la vraie pandémie de Covid pourrait éventuellement commencer et faire des ravages. Lesquels?
Vous avez tous lu ce que j’ai publié sur les « effets secondaires » de cette merveille technologique – environ le tiers des articles de ce blog, qui en compte bientôt cinq cents – notamment la prolifération des IgG4. Mais il y a du nouveau.
Ce papier émet l’hypothèse que l’épidémie de pneumonie (bactérienne) aux « poumons blancs » (si c’est bien la traduction officielle) qui sévit en Chine, et maintenant en Europe et aux US, est en fait une infection secondaire due au Covid. L’article fait une bonne collection et analyse de données mais rien d’autre, le sujet des dégâts vaccinaux étant totalement glissé sous le tapis.
Autre analyse ici, un peu plus détaillée, de la corrélation Covid/pneumonie par mon très patient et persistant compatriote, le Dr Vanden Bossche. Même si j’ai un doute, je reparle de Geert parce qu’il prévoit qu’on va passer maintenant au variant de l’apocalypse qu’il annonce depuis trois ans, qui sera un cousin de JN.1 – il explique tout ça ici et ici. Ça mériterait d’être traduit (j’y pense), dans la mesure où même si le quart de la moitié de son pronostic se réalise, ça risque d’être épique. La bonne nouvelle, c’est que les non-injectés ne risquent quasiment plus rien du Covid. La moins bonne nouvelle c’est que les injectés tomberaient bientôt comme des mouches – question de jours ou de semaines. Comme ils sont plus de cinq milliards, ça pourrait influencer négativement le cours des choses cette année – un peu plus vite que le scénario de Toby…
D’ailleurs, on sent bien un léger malaise là-haut depuis quelque temps. Ils se mettent à carrément camoufler des « morts soudaines » en accidents de voiture (sorry, j’ai perdu le lien), donc l’inverse de ce qu’ils faisaient en 2020 avec le Covid. Si ÇA c’est pas minable…
Steve Connoly a recensé la progression du nombre de « morts soudaines » (cardiaques?) dans les avis mortuaires américains – très parlant, je traduirai.
Cette étude de septembre dernier donne la proportion des injectés avec séquelles cardiaques: quasiment tous. Il va donc falloir publier des études bidon pour détourner le truc. En voici une.
Épidémie de crises cardiaques
Pour ce titre, je pique à Jeff Childers un extrait de son billet du 28 décembre:
Hier, je suis tombé sur une nouvelle étude iScience prépubliée signalant une nouvelle pandémie potentielle, intitulée « Predicted risk of heart failure pandemic due to persistent SARS-CoV-2 infection using a three-dimensional cardiac model« (Risque prédit de pandémie d’insuffisance cardiaque due à une infection persistante par le SARS-CoV-2 à l’aide d’un modèle cardiaque tridimensionnel). Cette étude présente des données scientifiques covidiennes farfelues, comme je l’expliquerai dans un instant, mais il convient de noter sa prédiction désastreuse: une pandémie d’insuffisance cardiaque à venir. Ouaip.
Les chercheurs partent de la théorie covidienne d’une l’infection persistante par le covid – un type d’infection crypto-covidienne des plus furtifs, qui est non seulement asymptomatique, mais dont les tests sont également négatifs, même en utilisant la PCR – qui a été critiquée pour sa trop grande sensibilité. En fait, le covid persistant est totalement invisible aux tests. Jusqu’à présent.
C’est donc une sorte de croyance religieuse.
Les chercheurs ont notamment prédit une pandémie d’insuffisance cardiaque qui, selon eux, sera attestée par la présence de la protéine de pointe dans les tissus cardiaques. Même s’ils admettent qu’il n’y a pas de preuve concluante d’une infection persistante par le covid jusqu’à présent, ils estiment que la sonnette d’alarme devrait déjà être tirée en ce qui concerne les crises cardiaques:
L’augmentation explosive du nombre de patients infectés par le virus en raison de la pandémie de COVID-19 pourrait avoir entraîné une augmentation considérable du nombre de patients présentant un risque potentiel d’insuffisance cardiaque. Dans les pratiques cliniques, ces patients à haut risque devraient être identifiés en détectant le virus lui-même ou le génome viral dans le tissu de la biopsie endocardique ou en surveillant les niveaux de troponine dans le sang. Ce rapport peut servir d’avertissement quant à la possibilité d’une pandémie d’insuffisance cardiaque dans l’ère post-Covid-19.
L’étude ne montre pas, et n’avait pas pour but de montrer, une infection persistante par le covid. Les chercheurs ont infecté des cellules cardiaques avec le covid dans une boîte de Pétri et ont observé ce qui se passait. Comme il n’y a pas de système immunitaire dans une boîte de Pétri, l’étude n’a pas pu montrer la persistance du virus dans l’organisme. Mais elle a montré ce qui se passe dans les cellules cardiaques lorsque la protéine de pointe y pénètre par le biais d’une infection virale ou d’une transfection de l’ARNm. C’est-à-dire: rien de bon.
J’ai trouvé que l’illustration de l’auteur (ci-dessus) indiquait en quelque sorte le fond de sa pensée. Le panneau supérieur à l’extrême gauche montre l’augmentation de la protéine de pointe sans virus. Il n’y a qu’une chose qui génère de la protéine de pointe sans virus: les injections.
S’ils peuvent en trouver la preuve quelque part, le « covid persistant » – qui sonne beaucoup plus scientifique que le « covid long » – servirait assurément de bonne couverture pour les dommages causés par les injections.
Opposition contrôlée
Cette année, les américains vont voter. Ils auront le choix entre la vieille harpie « Donald » Trump (voir ici et ici) et l’acteur Arthur Roberts – sous un masque en silicone à la Mission Impossible, vous pouvez vérifier – dans le rôle de « Joe Biden », qui est probablement mort. Le commanditaire du « clot shot » et son représentant de commerce pour sauver le pays, voilà le casting pour le rôle de leader du monde libre, auquel on peut ajouter le héros des anti-vax, Robert Kennedy Jr, en qui j’avais, naïveté touchante, une relative confiance jusqu’à ce qu’il publie son bouquin de « limited hangout », dont je publie incessamment (traduction terminée) la revue par Pete Lincoln.
Il est assez distrayant de suivre les gesticulations verbales de chaque « camp » – l’hystérie anti-Trump atteint des sommets d’imbécilité – articulées autour du sauvetage de la « démocratie » américaine, maintenant que le navire États-Unis fait lui aussi eau de toute part. Minablissime.
Apparemment, ça ne va pas tellement mieux en Chine, puisque son leader maximo Xi Jinping serait venu en novembre dernier faire la manche – t’as pas 900 milliards? – auprès d’Arthur, dont les marionnettistes ont déjà bien du mal à faire suivre la planche à billets. Une comédie minable, dont on connaît déjà la fin – les décors sont de Roger Harth et les costumes de Donald Cardwell.
Du côté des héros de la « résistance » – le Mouvement pour la Liberté Médicale – trois tendances.
La plus délirante est de nier purement et simplement le fait qu’il y ait eu pandémie en 2020, voire l’existence du Sars-CoV-2, représentée entre autres par les statisticiens à la Denis Rancourt, qui ne voient pas de pics dans leurs petites feuilles statistiques, donc il ne s’est rien passé.
D’autre part la tendance Robert Malone, conseiller de RFK Jr, dont l’idée qu’il y a quelque chose à sauver dans les nouvelles technologies médicales, moyennant quelques menues améliorations.
Et la vieille garde incarnée par Peter McCullough, qui s’est maintenant considérablement assagi et parle d’erreurs, de pardon et d’amnisitie. Quelqu’un a passé un coup de téléphone, Peter?
La triste réalité, c’est que le bidouillage génétique des injections a entrouvert les portes de l’Enfer et que ce ne sont pas ces minables qui les refermeront. C’est votre travail.
La fin du pétrole?
Le pétrole est notre ami. Son utilisation nous a affranchi de beaucoup de tâches ingrates, et a permis une croissance démographique gigantesque, qui fait qu’on aurait du mal à s’en passer. Un journaliste estime ici le coût en vies humaines de la fin théorique de l’approvisionnement en produits pétroliers: six milliards de morts en une année. A priori, pas une trop bonne idée.
Il faudrait néanmoins se poser la question de son utilisation. Pas pour une question de CO2, évidemment, qui est le prétexte à une vaste opération financière – le Net Zéro et sa taxe carbone – mais pour ses conséquences réelles sur la vie humaine. L’agriculture industrielle et ses poisons. Le plastique et ses additifs pétrochimiques…
Pour la traduction, vous cliquez sur les sous-titres (CC) et ensuite sur Settings > Auto-translate > Français.
Il y a aussi cette édifiante étude (en anglais) qui montre la présence de microplastiques dans les placentas et les nouveaux-nés humains. Eh oui.
Plus le bordel que ça met au niveau géostratégique, pour permettre à certains de rester maîtres du réseau de distribution énergétique. Par exemple, l’opération de mainmise sur la bande de Gaza, également connue sous le nom de conflit Israël/Hamas.
Israël/Hamas
Voici une citation intéressante de Talal Abu Ghazali, homme d’affaires et homme politique jordano-palestinien:
« Il n’y a aucune raison pour laquelle les Juifs sacrifieraient ne serait-ce qu’une seule personne. Ils ont peur de la mort. La mort est étrange et dégoûtante pour eux. Et nous, nous accueillons la mort. Le Palestinien porte son fils sur ses épaules, et sur le bandeau posé sur le front de l’enfant, il est écrit: « Celui qui cherche le martyre ». L’homme dit: « Je veux que mon fils meure. » La mère palestinienne dit: « J’ai donné naissance à six enfants pour que trois d’entre eux meurent pendant la révolution. J’ai donné naissance à des enfants pour qu’ils deviennent des martyrs. » Cela n’existe pas dans la mentalité sioniste ».
12 octobre 2023, NBN TV
Pour confirmation, le créateur (pas entièrement neutre) de la chaîne Youtube Traveling Israëlrappelle ici que 70% des Palestiniens sont d’accord avec le régime du Hamas – attentats inclus.
Vus sous cet angle, considérons la validité de quelques points rapportés dans les médias:
le Hamas est une création d’Israël, en particulier de Netanyahu qui s’en est servi pour couper l’herbe sous le pied de l’OLP, nettement moins fanatique;
donc une manoeuvre pour marginaliser les Palestiniens?
le même Netanyahu a mené la politique la plus proactive d’intégration des arabes dans la société israëlienne, qui représentent 20% de la population;
donc une manoeuvre pour intégrer les Palestiniens?
c’est toujours Netanyahu qui parlait de « déradicaliser » Gaza;
après les avoir radicalisés via le Hamas?
les dirigeants du Hamas sont tous milliardaires;
donc des membres de l’hyperclasse qui défendraient les droits des pauvres?
l’ONU préconise la solution à deux États;
donc une idée injouable promue par le noyau dur du mondialisme, également derrière la fraude climatique, qui entrerait dans le cadre de leur agenda, 2030 ou autre?
la « faille de sécurité » suscite un sérieuxdoute chez certains militaires israëliens, la présence de journalistes d’Associated Press, de CNN, du New York Times et de Reuters sur les lieux ne faisant rien pour dissiper ce doute;
ce qui signifierait que ce conflit est organisé de A à Z comme le suggère son étiquette de « 11 septembre israëlien »?
le peuple Palestinien subit depuis 1945 un génocide de l’autorité israëlienne;
ce qui cadrerait comment avec les chiffres de leur démographie galopante?
Bon, on se fout ouvertement de votre gueule. Pour changer. Ce conflit n’est qu’une vitrine.
La vitrine de l’expropriation des « gens qui ne sont rien » c’est-à-dire inutiles au système – vous savez, ceux qui ne possèderont rien et seront heureux (ou morts).
La vitrine d’une lutte des classes fabriquée et entièrement sous contrôle, dans laquelle les Palestiniens incarnent d’un côté la gentille « gauche » victimaire, au culte de mort islamo-marxiste – notamment celle des enfants, comme pour les vaccinés (voir ici et ici) – et de l’autre côté l’armée israëlienne, la « droite » diabolisée qui a l’audace de fermer ses frontières aux pauvres.
En somme, c’est la vitrine du Grand Reset, dans laquelle la bande de Gaza préfigure les villes de 15 minutes, sous perfusion d’argent tombé du ciel (UNRWA, USA, UE, Qatar, etc.) comme bientôt les MNBC sur les nouveaux improductifs occidentaux.
Ça peut sembler caricatural mais le monde est devenu une pure parodie.
Le discours médiatico-politique sur les « crimes de guerre » et sur ses « conventions » est une farce. Les guerres ne sont pas des opérations humanitaires. Elles sont faites pour être « gagnées », donc redistribuer les cartes, à l’international et au national, aux niveaux géostratégique, économique et/ou social en éliminant au passage les gens devenus inutiles ou gênants – hier la paysannerie, aujourd’hui la main d’oeuvre sous-qualifiée. Pour participer au monde technocratique à venir, il deviendra inévitable de faire de bonnes études. Ceci permettrait notamment aux Palestiniens de travailler pour Pfizer, de recevoir un confortable salaire versé par Albert Bourla, la gratitude de Netanyahu et une garantie d’impunité totale pour un bilan bien supérieur à celui du 7 octobre.
Comme l’indiquent les presque deux millions d’arabes intégrés à la société israëlienne, ce conflit n’a que très peu à voir avec la religion, qui n’en est qu’un des instruments militarisés. En avalisant la sauvagerie – réelle ou fictive – du Hamas, les gazaouis fournissent le contre-argument parfait à la solution à deux États. Le message est qu’il n’y a pas assez de place pour la coexistence de la nouvelle hyperclasse et de gueux mal peignés, ni là, ni ailleurs.
Pour les naïfs qui me penseraient partisan, je rappelle le rôle des Black Ops israëliens dans la démolition contrôlée du WTC et le fait qu’aucune figure politique d’aucun bloc n’ait jamais, de près ou de loin, touché ce sujet, ce qui indique une méthode globale de consolidation du pouvoir à laquelle tout le monde participe d’une manière ou d’une autre, au minimum par la loi du silence. En résumé, une entreprise criminelle, avec des conséquences.
À ce sujet, je publierai un de mes articles en retard, la traduction d’une interview de Nadav Yair, instructeur militaire israëlien, très pragmatique, qui soulève la question du « Jour des Comptes ». Il a raison, je pense que 2024 sera « l’année de la facture » et vous aurez compris qui va la payer. Pour l’opération « vaccins », ceux qui ont fait confiance à leur État. La médecine de la classe moyenne – les cabinets privés des médecins – a été écartée pour laisser tout pouvoir au réseau hospitalier sous contrôle étatique, qui a servi de relais au centre mondial de commande financier, bien à l’abri, aux manettes de Big Pharma comme du pouvoir militaire. Ils échapperont ainsi une fois de plus à toute forme de justice, la seule autorisée étant celle qui s’exerce sur les gueux. Les seuls ennemis auxquels le peuple a accès sont soit des hommes de paille, soit ceux de sa propre classe, avec qui il leur faut composer selon leur degré de tolérance, sous menace de conflit familial, social ou national – la guerre civile annoncée.
Comme les injectés, comme les Palestiniens, le destin de ces idiots utiles est de finir dans le grand charnier des poubelles de l’Histoire, tandis que le monde continue son lent chemin de prétendue « prospérité », entre deux guerres fabriquées ou deux « révolutions » programmées.
Je vous laisse avec un chanteur phare de la gauche caviar, dont l’éducation classique lui a sans doute évité d’être dupe de son petit milieu. À l’instar de son mentor à qui il rend hommage, c’est un homme lucide et généreux. Il glisse ici dans la laborieuse présentation télé qu’il faut donner aux enfants le goût des bonnes chansons. Rien n’est plus vrai. Apprenez-leur celle-ci par coeur, ça leur servira.
Mon éditrice me signale que ce n’est pas le meilleur moment pour publier de mauvaises nouvelles. C’est cette époque de l’année où l’humeur est (ou devrait être) à l’optimisme.
Je suis entièrement d’accord, et je rédige mon propre article qui, une fois n’est pas coutume, va regonfler le moral de tous. Ça fera d’ailleurs, Ô joie, partie de ma ligne nouvelle ligne éditoriale.
En attendant, voici toujours une noble cause à défendre pour l’année nouvelle et les suivantes. C’est mon éditrice qui va être contente, puisqu’elle s’occupe aussi du potager.
Les concentrations de CO₂ dans l’atmosphère diminuent depuis le début de la période crétacée. La science nous apprend que le seuil en dessous duquel la vie végétale ne peut plus réaliser la photosynthèse et à partir duquel toute vie végétale cessera se situe à environ 150 parties par million (ppm) de CO₂ atmosphérique.
Il est temps de mettre fin à la famine et d’augmenter le seul composant de l’atmosphère qui soit définitivement « vert ». Sauvez la planète de la « ligne d’extinction » des 150 ppm! Vive le CO₂↑!
Bien que les niveaux de CO₂ se soient légèrement redressés, passant d’environ 280 ppm en 1800 à 420 ppm aujourd’hui, pour représenter un fragile 0,04 % de l’atmosphère, il n’y a pas lieu de se reposer sur ses lauriers. Le cercle vertueux par lequel la vie végétale ancienne fournit une énergie abondante tandis que le CO₂ émis développe une nouvelle vie végétale verte doit maintenant être assuré de façon permanente.
Pourtant, les mesures nécessaires ne seront jamais prises si nous nous contentons juste de recourir à la persuasion publique ou à un débat ouvert. L’urgence de la ligne d’extinction justifie des interventions professionnelles de changement de comportement au niveau de la population et une approche directe des décideurs.
Nous créerons un symposium international sur invitation seulement, le « Club de Miami », qui s’adressera aux personnalités ambitieuses et à tous ceux qui cherchent à donner du piment à leur carrière en leur promettant une fraternité informelle – qui leur donnera les clés du salut mondial. Ils remarqueront peut-être que s’ils ont été invités en tant que leaders à suivre, d’autres contemporains ne l’ont pas été. Avec le temps, le réseau de membres s’élargira pour inclure les laissés-pour-compte – et tous y croiront. Si l’ancien président français François Hollande peut avertir publiquement, comme il l’a fait en 2015, que les tremblements de terre vont augmenter en raison du changement climatique anthropique, la leçon est claire: la charrette de la vérité s’ébranle derrière le cheval de l’opportunité.
Pour un homme politique élu, la douleur du « ça aurait pu être » est profonde mais ne peut se comparer à l’angoisse du « ça a failli être ». Roi de l’autre côté de l’océan, prophète sans honneur, voix criant dans le désert – après s’être présenté comme tout cela dans son chef-d’œuvre de propagande « Une vérité qui dérange », Al « le Pardonneur » Gore a certainement encore une grande cause à défendre. « Au bord du gouffre » sera le film de 2025 et le visage résolu de Gore nous regardera à nouveau sur ses affiches.
D’autres personnalités avunculaires mais non mondaines qui se considèrent comme des gardiens de la nature, telles que Sir David Attenborough, pourraient alors être facilement mises à contribution. Prenons le cas de Bear Grylls, une célébrité de la télévision, qui est passé de la défense du véganisme en 2017 à une campagne en faveur d’un régime exclusivement carné. Sa Majesté le roi d’Angleterre, défenseur de la planète sinon de la foi, peut, à terme, être recruté pour la cause.
Une fois les personnalités influentes en place, des millions de conversations propageront le message: « Regardez ces roses qui n’ont pas fleuri dans mon jardin cette année et l’année dernière – Vive le CO₂↑ »; « Les mauvais rendements du maïs au Zimbabwe, qui se sont aggravés ces dernières années, et voilà… Vive le CO₂↑ ».
Un million de jeunes yeux rouleront vers le ciel à la moindre velléité de dissidence – « Alors vous voulez que les plantes meurent ?? ». Les négationnistes de la photosynthèse seront fermement bannis, et ne pourront plus jamais enseigner ou parler en public. Les professionnels de toutes sortes craindront bientôt d’être considérés comme « photophobes » par leurs pairs. Les célébrités seront taxées de « photophobie », surtout si elles n’ont jamais proféré une telle hérésie, afin d’intimider plus efficacement ceux qui penseraient le faire. Des représentants des régions les plus pauvres du monde, qui dépendent de l’agriculture, défileront au « Club de Miami » pour nous parler de la vie au « bord du gouffre ».
Nous aurons besoin d’un « enfant prophète ». L’un d’entre eux émergera naturellement; une jeune femme qui conseillera à ses contemporains de ne pas avoir d’enfants car le CO₂ nécessaire à leur subsistance sera bientôt épuisé.
Vive le CO₂↑ ne fera jamais passer l’économie avant la vie humaine. Les mesures visant à accélérer les émissions humaines de CO₂ doivent être financées par une dette publique de plus en plus importante. Le passif du gouvernement américain, qui s’élève à 33 trillions de dollars, n’a aucun poids face à l’urgence de la ligne d’extinction.
Le Royaume-Uni deviendra le chef de file mondial grâce à une série d’initiatives politiques audacieuses qui seront cimentées dans la législation. Un programme politique NET 500↑ fera tout le nécessaire pour porter le CO₂ atmosphérique à 500 ppm d’ici à 2027. Les centrales nucléaires devront être déconnectées du réseau et réaffectées à la production de CO₂ jour et nuit, grâce à un processus de conversion qui reste à inventer. Une révolution des emplois verts Vive le CO₂↑ sera proclamée, ainsi qu’une manne d’emplois universitaires pour financer la recherche Vive le CO₂↑ et faire taire les négationnistes de la photosynthèse. Dans le cadre du NET 500↑, toute utilisation de l’énergie éolienne et solaire pour produire de l’électricité pourra être compensée par l’achat de bons de location de jets privés ou de crédits pour brûler du charbon en Allemagne.
140 ppm: en-dessous de la ligne d’extinction
Des générateurs émettant du CO₂ devront être installés sur toutes les éoliennes et les installations solaires d’ici à 2024. Toutes les « énergies renouvelables » devront être totalement supprimées d’ici à 2026. Les maisons devront être chauffées au gaz, au fioul, au bois ou au charbon, et les pompes à chaleur seront interdites. Un moratoire sera imposé sur la recherche en matière de batteries afin de garantir une charge de base énergétique à forte intensité de CO₂, et tous les véhicules électriques, y compris les camions de laitiers, seront interdits d’ici à 2030.
Comme le souligne le philanthrope Bill Gates, l’essence est moins chère que le lait ou le jus d’orange, et pourtant un gallon d’essence contient plus d’énergie qu’un bâton de dynamite. Au niveau mondial, les fonctionnaires locaux en devenir seront invités au « Junior Club de Miami » (JCM) pour planifier le réaménagement de nos villes autour de l’utilisation des moteurs à essence. Des amendes locales sur les véhicules électriques pourront être prélevées pour financer des projets d’émission de CO₂. À l’avenir, les caméras de sécurité pourront écarter les véhicules électriques des zones urbaines à l’aide d’un logiciel dérivé de la technologie du gouvernement chinois.
Février sera le « Mois de la Fierté Carbone », célébrant les avantages des combustibles fossiles pour l’humanité. Lors de la Marche de la Fierté Carbone de juin 2024, les membres de la communauté LGBTQIA2Spirit+ brandiront des accessoires sexuels en plastique fabriqués à partir de produits pétrochimiques et le personnel des soins intensifs du NHS présentera des outils en plastique permettant de sauver des vies. Les dirigeants de la JCM encourageront les initiatives des jeunes dans leur propre pays. Des badges « N’affamez pas Mamie – Vive le CO₂↑ » seront distribués aux enfants.
La flèche ascendante de Vive le CO₂↑ (↑™) pourra être facilement ajoutée à n’importe quel logo d’entreprise pour indiquer, sans frais et sans sacrifice, l’engagement de votre organisation en faveur de l’avenir de la vie sur terre. Encouragez votre équipe des ressources humaines à s’inscrire dès aujourd’hui à l’agenda NET 500↑!
Le monde se trouve au bord de la ligne d’extinction. Nous sommes au bord du gouffre, mais il n’est pas trop tard pour sauver l’avenir de nos enfants. Vive le CO₂↑!
Chris Larkin est titulaire d’un doctorat en sciences cognitives du déni de photosynthèse de l’Université d’Australie centrale, où il a fondé le Centre d’Intervention Comportementale.
Comme on dit par chez nous, « Ne le dis pas pour rire ».
Dans cet article qui disculpe le CO2 de vouloir tous nous tuer, je lachais une vanne à deux balles sur le fait qu’on peut donc respirer normalement. En fait, non. La Science est là pour nous mettre en garde contre ce danger imminent.
Si vous pensez qu’il n’y a pas moyen de tomber plus bas, j’ajoute à la fin la présentation d’une autre étude scientifique qui vous expliquera la menace climatique posée par les cailloux.
Des scientifiques – des Experts scientifiques – viennent de découvrir que les animaux respirent. Et ils en sont passablement contrariés.
En effet, ces mêmes scientifiques nous disent que la respiration animale contribue au réchauffement de la planète. Aujourd’hui appelé « changement climatique ».
Et les choses qui contribuent au réchauffement de la planète, aujourd’hui appelé « changement climatique », ne devraient pas être tolérées, parce que le « changement climatique », autrefois appelé réchauffement de la planète, est mauvais. Pourquoi? Ne me demandez pas.
La lecture de ces troublantes et nouvelles recherches m’a beaucoup inquiété. Je sais qu’il y a beaucoup d’animaux dans le monde et que ces maudites bestioles respirent. À quel point la respiration animale est-elle néfaste? J’ai vérifié.
Selon une source, les insectes sont au nombre de 10 quintillions. Ce qui fait 10^18. Ce qui fait beaucoup. Les fourmis représentent à elles seules quelque 20 quadrillions de respireurs. Soit 20 x 10^15. Les fourmis respirent. Elles aspirent de l’oxygène à travers ce qui leur sert de peau et, pire encore, rejettent du dioxyde de carbone à travers cette même non-peau! Et comme on le martèle à tous les écoliers depuis leur naissance, le dioxyde de carbone contribue au réchauffement de la planète, aujourd’hui appelé « changement climatique ».
Il y a 35 trillions de poissons, à un trillion près. Tous des respireurs. Au moins 50 milliards d’oiseaux volent dans les airs. Et on sait tous qu’ils aspirent beaucoup d’air et rejettent des niveaux apocalyptiques de CO2, en battant frénétiquement des ailes.
Mais la plupart de ces créatures ne contribuent pas autant que les coléoptères à la diversité de la faune. C’était quoi cette citation selon laquelle Dieu aime les coléoptères? Selon Wokepedia, ils représentent environ un quart de toutes les espèces animales. Des pollueurs respiratoires incroyablement prolifiques!
L’homme figure tout en bas de la liste. Il ne compte que 8 milliards d’individus et, vu les taux de natalité actuels, ce nombre est en passe de diminuer.
Si nous voulons remédier au réchauffement de la planète, aujourd’hui appelé « changement climatique », en réduisant le CO2, nous devrons donc éliminer un grand nombre de fourmis, de poissons, d’oiseaux et de coléoptères. Nous devrons mettre un terme soudain à leur périlleuse respiration en procédant à un abattage assez brutal. La bonne nouvelle, c’est qu’il n’est pas nécessaire de se soucier de l’homme, puisqu’il est surpassé en nombre par beaucoup d’autres respireurs.
Un ou deux de ces Experts ont, semble-t-il, une formation en chimie. Prêtez donc une attention toute particulière à ces mots du résumé, forcément exacts: « L’haleine humaine exhalée peut contenir de faibles concentrations élevées de méthane (CH4) et d’oxyde nitreux (N2O), qui contribuent tous deux au réchauffement de la planète ». Aujourd’hui appelé « changement climatique ».
Qui l’eût cru?
Ces Experts ont rassemblé « 104 volontaires » et leur ont appliqué la méthode scientifique. Ils ont prélevé des échantillons d’haleine sur ces volontaires.
La phrase que je préfère dans tout l’article est la suivante: « Le pourcentage de producteurs de méthane (PM) identifiés dans cette étude était de 31%. »
Producteurs de méthane me fait penser à possesseurs d’utérus. Oh, et pour ceux qui se posent sans doute la question, oui: le mot flatus y figure. Pas celui des vaches. Les flatulences humaines.
Il est amusant de constater que « les femmes (38%) étaient plus susceptibles d’être des PM que les hommes (25%) », ce qui signifie que, lorsque l’abattage aura lieu, les femmes seront les premières à partir. Et les Noirs. Oui: « Les populations africaines ont beaucoup plus de risques d’être des PM… ».
Nos Experts ont tenté d’estimer la quantité d’haleine de tous les humains du Royaume-Uni qui contribue au « changement climatique » et sont parvenus à un certain nombre de tonnes de dioxyde de carbone par an. Ils n’ont pas effectué ce même travail pour les autres animaux, plus nombreux. Il faut donc classer cette recherche dans la catégorie des travaux préliminaires.
Je ne sais pas pour vous, mes chers amis, mais la première question qui m’est venue à l’esprit à la lecture de cette époustouflante recherche est la suivante: comment est-il possible d’être aussi stupide?
Ça fait un certain temps qu’on sait que l’homme exhale du CO2. Les quantités en étaient également répertoriées. Demandez à n’importe quel médecin qui a obtenu son diplôme avant que la vague woke ne déferle sur les facultés de médecine.
On ne peut pas empêcher les gens de respirer. Et on ne peut pas empêcher davantage de personnes de respirer davantage, la politique du Royaume-Uni étant de remplacer les autochtones par des « migrants ». Qui respirent tous.
Se pourrait-il, se pourrait-il vraiment que ces Experts académiques veuillent réduire le surplus de population pour restreindre la respiration et nous sauver des ravages du réchauffement de la planète. Aujourd’hui appelé « changement climatique »?
Peut-être, dans une certaine mesure. Visualiser la mort tortueuse de ses ennemis est certes un passe-temps amusant, en particulier chez les universitaires. Mais une explication beaucoup plus probable réside dans le désir profond de sembler profond et important.
Tous les universitaires souffrent de cette terrible maladie. La nécessité de produire de la « recherche » est le garant de cette affliction.
Le réchauffement de la planète, aujourd’hui appelé « changement climatique », est un sujet important. Il n’y a pas de domaine scientifique plus important. Quelle que soit votre formation, si vous n’êtes pas actif dans ce domaine, vous êtes qui? Personne, voila qui.
Avant de vous laisser: nos Experts ont oublié la photosynthèse. Comment est-il possible d’oublier la photosynthèse? Aucune idée. Mais c’est le cas de presque tous les Experts.
Bonus
Autre exemple de la triste agonie du monde scientifique décrite ci-avant, voici en bonus un nouveau zénith du génie humain, financé avec votre pognon (enfin, celui du contribuable britannique) avec l’intention de vous en confisquer davantage.
Je représente un danger majeur pour la planète puisque 1) je respire (pas très bien, il est vrai) et 2) je travaille dans les métiers de la pierre. La fin est proche!
Une nouvelle étude révèle que le carbone ancien présent dans les roches libère autant de dioxyde de carbone que les volcans de la planète
par l’Université d’Oxford
4 octobre 2023
Une nouvelle étude menée par l’Université d’Oxford a infirmé l’idée selon laquelle l’altération naturelle des roches agit comme un puits de CO2, indiquant au contraire qu’elle peut également agir comme une source importante de CO2, rivalisant avec celle des volcans. Les résultats, publiés aujourd’hui dans la revue Nature, ont des implications importantes pour la modélisation des scénarios de changement climatique.
Les roches contiennent un énorme stock de carbone dans les restes anciens de plantes et d’animaux qui ont vécu il y a des millions d’années. Cela signifie que le « cycle géologique du carbone » agit comme un thermostat qui contribue à réguler la température de la Terre.
Par exemple, lors de l’altération chimique, les roches peuvent aspirer du CO2 lorsque certains minéraux sont attaqués par l’acide faible présent dans l’eau de pluie. Ce processus permet de contrebalancer le CO2 continuellement rejeté par les volcans du monde entier et fait partie du cycle naturel du carbone de la Terre qui a contribué à maintenir la surface habitable pour la vie pendant un milliard d’années ou plus.
Toutefois, pour la première fois, cette nouvelle étude a mesuré un processus naturel supplémentaire de libération de CO2 des roches dans l’atmosphère, et a constaté qu’il était aussi important que le CO2 rejeté par les volcans du monde entier. Actuellement, ce processus n’est pas pris en compte dans la plupart des modèles du cycle naturel du carbone.
Ce processus se produit lorsque des roches qui se sont formées sur d’anciens fonds marins (où des plantes et des animaux ont été enfouis dans des sédiments) sont repoussées vers la surface de la Terre, par exemple lors de la formation de montagnes telles que l’Himalaya ou les Andes. Le carbone organique contenu dans les roches est alors exposé à l’oxygène de l’air et de l’eau, qui peut réagir et libérer du CO2. Cela signifie que l’altération des roches pourrait être une source de CO2, plutôt qu’un puits comme on le suppose généralement.
Jusqu’à présent, il s’est révélé difficile de mesurer la libération de ce CO2 par l’altération du carbone organique dans les roches. Dans cette nouvelle étude, les chercheurs ont utilisé un élément traceur (le rhénium) qui est libéré dans l’eau lorsque le carbone organique des roches réagit avec l’oxygène. L’échantillonnage de l’eau des rivières pour mesurer les niveaux de rhénium permet de quantifier la libération de CO2. Toutefois, l’échantillonnage de toutes les eaux fluviales du monde pour obtenir une estimation globale constituerait un défi de taille.
Pour passer à l’échelle supérieure de la surface de la Terre, les chercheurs ont procédé de deux manières. Premièrement, ils ont calculé la quantité de carbone organique présente dans les roches proches de la surface. Deuxièmement, ils ont déterminé les endroits où ces roches sont exposées le plus rapidement, par l’érosion dans les zones montagneuses escarpées.
Jesse Zondervan, le chercheur qui a dirigé l’étude au Département des Sciences de la Terre de l’Université d’Oxford, a déclaré: « Le défi consistait alors à combiner ces cartes globales avec les données des rivières, tout en tenant compte des incertitudes. Nous avons introduit toutes nos données dans un superordinateur à Oxford, simulant l’interaction complexe des processus physiques, chimiques et hydrologiques. En reconstituant ce vaste puzzle planétaire, nous avons enfin pu estimer la quantité totale de dioxyde de carbone émise lorsque ces roches s’altèrent et exhalent leur ancien carbone dans l’air ».
Cette estimation pourrait ensuite être comparée à la quantité de CO2 pouvant être absorbée par l’altération naturelle des minéraux silicatés. Les résultats ont permis d’identifier de nombreuses zones étendues où l’altération était une source de CO2, ce qui remet en question la vision actuelle de l’impact de l’altération sur le cycle du carbone.
Les points chauds de libération de CO2 étaient concentrés dans les chaînes de montagnes présentant des taux de soulèvement élevés qui provoquent l’exposition des roches sédimentaires, telles que l’Himalaya oriental, les montagnes Rocheuses et les Andes. La libération globale de CO2 due à l’altération du carbone organique des roches a été estimée à 68 mégatonnes de carbone par an.
Le professeur Robert Hilton ( Département des Sciences de la Terre, Université d’Oxford), qui dirige le projet de recherche ROC-CO2 à l’origine de l’étude, a déclaré: « Ce chiffre est environ 100 fois inférieur aux émissions actuelles de CO2 produites par l’homme en brûlant des combustibles fossiles, mais il est similaire à la quantité de CO2 libérée par les volcans du monde entier, ce qui signifie qu’il s’agit d’un acteur clé du cycle naturel du carbone de la Terre. »
Ces flux ont pu changer dans le passé de la Terre. Par exemple, pendant les périodes de formation des montagnes qui entraînent la remontée de nombreuses roches contenant de la matière organique, les rejets de CO2 ont pu être plus importants, ce qui a influencé le climat mondial dans le passé.
Les travaux en cours et à venir visent à déterminer comment les changements dans l’érosion dus aux activités humaines, ainsi que le réchauffement accru des roches dû aux changements climatiques anthropogéniques, pourraient accroître cette fuite naturelle de carbone. L’équipe se demande à présent si cette fuite naturelle de CO2 augmentera au cours du siècle à venir. « À l’heure actuelle, nous n’en savons rien. Nos méthodes nous permettent de fournir une estimation globale solide, mais pas encore d’évaluer comment elle pourrait évoluer », explique M. Hilton.
« Bien que les rejets de dioxyde de carbone dus à l’altération des roches soient faibles par rapport aux émissions humaines actuelles, la meilleure compréhension de ces flux naturels nous aidera à mieux prévoir notre budget carbone », conclut M. Zondervan.
« Le langage politique est conçu pour faire paraître les mensonges véridiques et les meurtres respectables, et pour donner une apparence de solidité à du vent ».
George Orwell
Bon, le COP28… J’étais disposé à écrire mon propre article là-dessus mais, bien que je n’aime pas beaucoup Kit Knightly ni OffGuardian, celui-ci fera l’affaire, moyennant le court préambule qui suit.
Comme on le voit depuis quelques mois – curieusement, depuis la sortie des mesures Covid – le langage « climatique » devient exponentiellement délirant. Il est possible que ces gens soient légitimement fous mais c’est difficile à dire: leur médiocrité est telle que ça passerait inaperçu. Non, ce qui motive leur spectaculaire étalage d’idiotie, c’est qu’ils sont pressés. Et il y a une raison.
Pourquoi l’urgence climatique est-elle urgente, à votre avis? L’actuel cycle de réchauffement – qui a fait augmenter naturellement le taux de CO2 atmosphérique – se termine dans deux ans, après quoi les températures vont se mettre à diminuer, ce qui sera suffisamment perceptible d’ici cinq ans pour que le trucage actuel des chiffres, déjà assez pitoyable, devienne infaisable. Il faut donc imprimer et distribuer quelques trillions d’ici là pour que la magie opère.
Comme vous le savez, le CO2 atmosphérique provenant de l’activité humaine (4% de 0,04%) n’a strictement aucun effet mesurable sur le climat global – j’ai encore un truc à publier sur le sujet. C’est l’aménagement des sols – principalement l’artificialisation et l’urbanisation – qui modifie les sous-climats locaux (voir mes traductions de John Dee), variations dont on se sert pour établir analyses fallacieuses et prévisions grotesques – sur base de « modélisations » – dont aucune ne s’est jamais réalisée. L’objectif de cette opération n’a donc absolument rien à voir avec le climat. Alors, avec quoi?
Eh bien, le pétrole.
L’ordre du jour est que le prix du pétrole doit augmenter, la consommation énergétique doit diminuer et l’élevage industriel doit disparaître – ce qui énerve les auteurs comme Knightly et la plupart de leurs lecteurs.
Désolé, mais je suis entièrement d’accord sur tous ces points.
En fait, je pense même qu’ils sont largement insuffisants et surtout, qu’ils interviennent trop tard. Je l’ai écrit, le prix du pétrole aurait dû être beaucoup plus élevé dès le départ, ce qui aurait freiné l’industrialisation démesurée de tout – surtout de secteurs auxquels il ne fallait pas toucher – et empêché la carte économique et énergétique du monde actuel, la pire configuration de l’Histoire, où la Chine fait fabriquer de la camelote par ses esclaves pour alimenter la consommation globale, où l’agriculture intensive organisée au niveau international a privé les régions de leur autonomie, où les intérêts pétroliers et gaziers foutent le bordel permanent dans la géostratégie globale (cf. Israël/Palestine, Arabie Saoudite/Yemen, Irak/Koweit, Russie/Tchétchénie, etc.) et où l’Occident fait encore semblant d’être riche. Excepté les quelques idiots utiles de « Stop Oil » et consorts, qui en seraient les premières victimes, personne dans la classe improductive occidentale (donc l’immense majorité), n’est prêt à abandonner ce « progrès », qui n’est qu’une émanation de la notion de « croissance », elle-même issue de l’usure bancaire. Le monde contemporain est un projet financier, basé sur l’utilisation du pétrole et incapable de fonctionner sans, comme une Cadillac avec une pile 9V, ce qui est une bonne image de la capacité énergétique du « renouvelable ». Malheureusement, la vieille bagnole va droit dans le mur et ceux qui sont à bord ont oublié comment marcher.
Y a-t-il moyen de sortir de cette course en avant, sans faire huit milliards de victimes? La solution de l’élite mondiale est l’établissement d’un régime communiste global, la destruction de la science, la maîtrise totale de la consommation et l’abrutissement généralisé – le Nouveau Normal. Et vraisemblablement la « dépopulation » des zones les plus énergivores, c’est-à-dire nous – le bilan des injections Covid ne devrait laisser aucun doute à ce sujet. C’est ce contre quoi s’insurgent des auteurs comme Kit Knightly, qui revendiquent qu’on subvienne à leurs besoins juste parce qu’ils l’exigent, et qu’on soit généralement gentil avec eux. Bonne chance…
Une autre solution serait de tout arrêter, c’est-à-dire laisser crever ce système et apprendre à faire sans. Ce n’est évidemment pas l’option la plus séduisante, ni la plus reposante, et encore moins la plus sûre. Mais, sauf erreur ou omission de ma part, je pense que c’est la seule.
COP28: le projet mondialiste n’a jamais été aussi flagrant
Kit Knightly
4 décembre 2023
Ce matin marque le quatrième jour du sommet sur le changement climatique qui se tient à Dubaï depuis deux semaines.
Oui, comme chacun peut le constater pour la millième fois, de véritables flottes de jets privés se sont posées dans le désert pour permettre aux banquiers et aux milliardaires de discuter des mesures à prendre pour nous empêcher de rouler en voiture ou de manger trop de fromage.
Quel est l’ordre du jour? Le mondialisme, et cela n’a jamais été aussi évident.
Le président brésilien Luiz Inácio Lula da Silva l’a dit en substance:
La planète en a assez des accords sur le climat non respectés. Les gouvernements ne peuvent se soustraire à leurs responsabilités. Aucun pays ne résoudra ses problèmes seul. Nous sommes tous obligés d’agir ensemble au-delà de nos frontières ».
Les discours d’ouverture de jeudi ont été, comme on pouvait s’y attendre, empreints de pessimisme, Son Altesse Royale Charles III et le secrétaire général des Nations Unies, António Guterres, se livrant au traditionnel jeu du bon et du mauvais flic.
Charlie a prévenu que nous nous embarquions dans une « expérience gigantesque et effrayante », demandant « à quel point nous sommes prêts à rendre notre monde dangereux ».
Tony, quant à lui, n’a offert qu’une infime parcelle d’espoir aux dirigeants mondiaux:
Il n’est pas trop tard […] Il est possible d’éviter que la planète s’écrase et brûle [NdT. référence à un crash d’avion]. Nous disposons des technologies nécessaires pour éviter le pire du chaos climatique – si nous agissons maintenant ».
Les deux semaines restantes seront sans doute consacrées aux lobbyistes, aux banquiers, aux membres de la famille royale et aux hommes politiques qui décideront exactement comment ils vont « agir ». Ou, plus précisément, comment ils vont vendre leurs actions déjà convenues à leurs populations de bétail.
Ils nous annoncent littéralement leurs projets, il suffit de les écouter.
Par exemple, les journées de vendredi et samedi ont été consacrées au « Sommet Mondial de l’Action pour le Climat », au cours duquel plus de 170 dirigeants mondiaux se sont engagés à soutenir l’Agenda 2030.
Les 1er et 2 décembre, 176 dirigeants mondiaux se sont réunis pour le Sommet Mondial de l’Action pour le Climat (SMAC), signalant une nouvelle ère d’action climatique d’ici à 2030.
Soit 176 dirigeants mondiaux sur environ 195 pays, ce qui couvre plus de 90% de la planète.
Parmi les accords et les engagements signés au sommet jusqu’à présent figure la « Déclaration des Émirats sur l’agriculture durable, les systèmes alimentaires résilients et l’action climatique ». Selon la BBC, cette déclaration s’engage à:
s’attaquer aux aliments qui réchauffent la planète »
Nous assistons tous à cette comédie depuis assez longtemps pour comprendre ce que cela signifie, non?
Cela signifie plus de viande ni de produits laitiers, et beaucoup plus d’insectes et de cubes de soja OGM.
Ils ne le disent jamais, bien sûr. En fait, ils ne mentionnent jamais d’aliments ou de pratiques spécifiques [vous pouvez lire l’intégralité de la déclaration ici].
Au lieu de cela, ils se contentent d’utiliser des phrases comme « orienter les politiques [pour] réduire les émissions de gaz à effet de serre », ou « passer de pratiques plus émettrices de gaz à effet de serre à des approches de production et de consommation plus durables ».
Maintenir un déni plausible par le biais d’un langage vague fait partie du jeu, mais quiconque prête attention sait exactement de quoi ils parlent.
Et ce n’est pas tout. Les dirigeants mondiaux ont également convenu de créer un « fonds pour les pertes et les dommages », une ressource de 430 millions de dollars destinée aux pays en développement qui ont besoin de se « remettre » après avoir été « endommagés » par le changement climatique.
Ajay Banga, directeur de la Banque Mondiale, cette célèbre organisation caritative, est tout à fait favorable à cette idée et soutiendra le projet en acceptant de « mettre en pause » les remboursements de la dette de tout gouvernement touché par le changement climatique.
On sait comment cela fonctionne, on a vu la même chose dans les amendements du RSI à la suite du Covid – c’est une réserve de pots-de-vin. Celle-ci servira à la fois à appuyer le narratif du changement climatique et à édicter des politiques dans le tiers-monde. Tout gouvernement d’un pays en développement désireux d’obtenir une part de ce gâteau devra parler publiquement de tous les impacts négatifs du changement climatique sur son pays.
Dans le même temps, pour avoir accès à l’argent, ils devront très certainement accepter d’« adopter des politiques respectueuses du climat » et/ou de soumettre leurs politiques climatiques à un « groupe d’experts indépendants » nommé par les Nations Unies.
En Afrique de l’Est, des inondations catastrophiques ont suivi la sécheresse la plus grave que la région ait connue depuis plus de 40 ans… La tendance à ignorer les besoins de l’Afrique en matière de développement et d’industrie n’est plus une position tenable… Faire de l’Afrique une centrale verte n’est pas seulement essentiel pour le continent, c’est aussi vital pour l’industrialisation mondiale et la décarbonisation. »
…on peut presque voir les signes de dollars dans ses yeux.
Ces dernières représentent environ la moitié de la production mondiale de pétrole et veulent uniquement aider la planète, elles n’ont aucun intérêt financier dans cette situation [NdT. c’est faux mais je suppose que c’est de l’humour].
Il y a aussi la Déclaration sur le Climat, l’Aide, le Relèvement et la Paix, plus modeste, qui a été signée par seulement 70 pays (et 39 ONG). Cette déclaration souligne le lien entre la guerre et les émissions de carbone et vise à« renforcer le soutien financier en faveur de la résilience climatique dans les régions fragiles et déchirées par la guerre », ce que cela signifie concrètement, je ne sais pas trop.
Elle est financée à hauteur d’un MILLIARD de dollars par des donateurs tels que la Fondation Rockefeller, et vise prétendument à
mieux exploiter les synergies à l’intersection du changement climatique et de la santé pour améliorer l’efficacité et l’efficience des flux financiers ».
… ce qui est sans doute la pire phrase jamais écrite.
J’ai suffisamment écrit sur les objectifs qui sous-tendent l’établissement d’un lien entre le changement climatique et la santé publique pour toute une vie. Vous pouvez lire une analyse plus approfondie du sujet ici, ici et ici… et ici et ici et ici.
Tout cela va culminer dans ce qu’ils appellent le « Global Stocktake ». Il s’agit essentiellement d’un rapport à mi-parcours pour les accords de Paris, qui peut être « utilisé pour accélérer l’ambition dans leur prochain cycle de plans d’action climatique prévu pour 2025 ».
Quelle que soit la signification de l’expression « utilisé pour accélérer l’ambition », vous pouvez être sûrs que tous les gouvernements participants s’y conformeront avec plaisir.
Cela inclut tous les gouvernements de l’OTAN, de l’Union européenne et des BRICS, au fait.
Cela inclut les États-Unis et la Chine. Cela inclut la Russieetl’Ukraine.
Bien sûr, on signale un soupçon d’animosité, certaines délégations ayant quitté avec fracas des réunions avec les Israéliens, mais fondamentalement, même les victimes et les auteurs d’un génocide peuvent apparemment surmonter leurs inconciliables divergences pour accepter de faire semblant que le changement climatique est un vrai problème.
En gros, c’est une nouvelle version du Covid.
Nous savons que, comme pour le Covid, le récit officiel du changement climatique est un mensonge.
Nous savons que, comme pour le Covid, le changement climatique est utilisé comme prétexte pour instaurer un contrôle social massif et une gouvernance mondiale.
Et nous savons que, comme pour le Covid, presque tous les gouvernements mondiaux, des deux côtés de tous les clivages, le soutiennent.
Même s’ils ne sont pas toujours d’accord, même s’ils sont heureux de tuer leurs citoyens respectifs en grand nombre, ils sont tous à bord du même train de la prospérité mondialiste, ils vont tous dans la même direction vers la même destination, et cela n’a jamais été aussi évident.
On va encore faire dans le climat. Vous allez voir, c’est assez gratiné.
En préambule, vous pouvez lire ceci. C’est en anglais mais je vais de toute manière en citer quelques passages édifiants, en commençant par le titre, qui donne le ton: « La chaleur extrême due au climat pourrait rendre certaines régions de la Terre trop chaudes pour l’homme ».
C’est moi qui souligne.
Les résultats d’un nouvel article publié aujourd’hui (9 octobre) dans Proceedings of the National Academy of Sciences indiquent que le réchauffement de la planète au-delà de 1,5°C par rapport aux niveaux préindustriels deviendra de plus en plus dévastateur pour la santé humaine sur l’ensemble de la planète.
L’homme ne peut supporter que certaines combinaisons de chaleur et d’humidité avant que son corps ne commence à éprouver des problèmes de santé liés à la chaleur, tels qu’un coup de chaleur ou une crise cardiaque. À mesure que le changement climatique fait monter les températures dans le monde, des milliards de personnes pourraient se retrouver au-delà de ces limites.
Mon épouse a beaucoup voyagé, notamment au sud de la Crète et dans des régions au Brésil où il fait 45°C en journée. Pas de problème, c’est parfaitement supportable et le gens y vivent très bien. Ils y sont d’ailleurs en bien meilleure santé que les Occidentaux, et comme par hasard, la nourriture y est saine et abondante (voir ci-dessous). C’est-à-dire que ce sont eux qui cultivent.
Les résultats de l’étude indiquent que si les températures mondiales augmentent de 2°C par rapport aux niveaux préindustriels, les 2,2 milliards d’habitants du Pakistan et de la vallée de l’Indus en Inde, le milliard de personnes vivant dans l’est de la Chine et les 800 millions d’habitants de l’Afrique subsaharienne connaîtront chaque année de nombreuses heures de chaleur dépassant le seuil de tolérance humaine. […] « Ainsi, même si les États-Unis échappent à certains des pires effets directs de ce réchauffement, nous connaîtrons plus souvent des chaleurs mortelles et insupportables. Et si les températures continuent d’augmenter, nous vivrons dans un monde où les récoltes seront mauvaises et où des millions ou des milliards de personnes tenteront de migrer parce que leurs régions d’origine sont inhabitables. »
Vous la voyez venir, la « migration climatique »? On a la clim (solaire), les frigos pleins (enfin, pas pour nos sans-abris), les contrats de travail (sous-payé) et le bulletin de vote (prérempli).
Les données utilisées dans cette étude portaient sur la température centrale du corps, mais les chercheurs ont indiqué que pendant les vagues de chaleur, les personnes souffrent de problèmes de santé dus à d’autres causes. Par exemple, Kenney a déclaré que la plupart des 739 personnes décédées pendant la vague de chaleur de 1995 à Chicago avaient plus de 65 ans et souffraient d’une combinaison de température corporelle élevée et de problèmes cardiovasculaires, entraînant des crises cardiaques et d’autres causes de décès d’origine cardiovasculaire.
Voilà ce qui s’appelle préparer le terrain. Bref, vous avez compris l’astuce?
Soulignons que les auteurs de ce papier ne sont pas complètement fous. Ce sont des universitaires, qui savent très bien ce qu’ils font: se vendre au plus offrant. Par contre, ceux qui les croient sont complètement fous, comme nous l’allons voir maintenant.
C’est ce moment où la bêtise et l’ignorance se métamorphosent en folie furieuse et destructrice. Après le covidisme, la démence a été recyclée vers l’alarmisme climatique, le transgendérisme, la justice sociale et l’anti-racisme, qui se confondent et se superposent et mobilisent le même type de marxistes de salon, lavettes incultes et paresseuses adeptes de la « décroissance » – c’est-à-dire ne rien glander en attendant son aide sociale – fils-à-papa élevés au soja et jeunes connasses vegan qui ne savent rien, sont incapables de toute forme de raisonnement basique et refusent d’admettre le simple témoignage de leur propres sens – le principe de base de la « gauche ». Ils constituent, outre les bureaucrates vendus mentionnés ci-dessus, la réserve d’idiots utiles aux familles de criminels internationaux – les Biden, Gore, Kerry, etc. – qui raflent la mise de la « transition énergétique », en détruisant au passage les nations occidentales, avec l’aide des Trudeau, Macron et autres marionnettes du FEM.
Pour conclure, une anecdote? Un jour d’août où il faisait particulièrement moche (13°C, ciel gris, vent), ce qui empêchait mon épouse d’emmener en promenade les enfants dont elle s’occupe au boulot, son collègue lui a signalé que c’était la faute au réchauffement climatique.
Le combat contre la bêtise et l’ignorance n’est donc pas gagné d’avance.
Nous n’avons pas encore atteint le pic de l’alarmisme climatique
Mais on y est presque
Brad
28 septembre
Des militants marquent le début de la Semaine du Climat à New York lors d’une manifestation appelant le gouvernement américain à prendre des mesures contre le changement climatique et à rejeter l’utilisation des combustibles fossiles, le 17 septembre 2023. | Reuters
« Partout dans le monde, on voit des gens qui défilent dans les rues, qui exigent qu’on mette un terme à ce qui nous tue », a déclaré la semaine dernière la députée Alexandria Ocasio-Cortez aux quelque 75 000 manifestants pour le climat réunis à l’occasion de la Marche de New York pour l’élimination des combustibles fossiles. « Nous devons devenir trop nombreux et trop radicaux pour être ignorés ».
Cette manifestation d’une semaine, qui s’est soldée par l’arrestation de près de 150 va-t-en-guerre du « maintenant ou jamais » bien décidés à jouer la carte de l’alarmisme, a été organisée à l’occasion de l’arrivée des dirigeants mondiaux à New York pour l’Assemblée générale annuelle des Nations unies et le Sommet sur l’Ambition Climatique. De nombreux manifestants étaient issus de Just Stop Oil et Extinction Rebellion, deux groupes de frappadingues qui font du radicalisme climatique un exercice d’auto-expression thérapeutique. Ces dernières années, ils sont parvenus à hypermoraliser le débat sur le changement climatique, de sorte que celui-ci est passé d’une question pratique sur la manière d’améliorer notre environnement à une croisade contre des forces maléfiques dont les activités et les propos mensongers sont censés causer des ravages sur le climat.
Une des tendances de ces « éco-guerriers » mérite d’être mentionnée. Il s’agit d’une sorte de narcissisme décomplexé qui les autorise à profaner des œuvres d’art célèbres, à vandaliser commerces et entreprises, à bloquer des autoroutes et à bien d’autres choses que seuls les sévèrement handicapés par leur stupidité envisagent comme moyen de protestation contre ce qu’ils considèrent comme une dégradation de la planète Terre. Voyez par exemple ces deux âmes courageuses de Just Stop Oil qui sont entrées dans la salle 43 de la National Gallery de Londres l’année dernière, ont ouvert deux boîtes de soupe à la tomate Heinz et en ont jeté le contenu sur les Tournesols de Vincent van Gogh, d’une valeur de 84,2 millions de dollars, puis ont collé leurs mains au mur, ce qui fait apparemment partie de la procédure habituelle.
« Qu’est-ce qui vaut le plus, l’art ou la vie? » a demandé l’un de ces deux spécimens. « Êtes-vous plus préoccupés par la protection d’un tableau ou par la protection de notre planète et de ses habitants? »
Bien que de portée limitée, les actions de ces activistes climatiques sont suffisantes pour mettre à l’épreuve même le défenseur le plus convaincu des libertés civiles dans son opposition au waterboarding (torture par noyade) occasionnel. Cette race particulière d’abrutis, qui montre une tendance à l’orgueil délirant typique des ignorants, se distingue particulièrement par son exhibitionnisme narcissique, un phénomène qui s’est manifesté pour la première fois en politique lors du mouvement antinucléaire des années 1970, lorsque de jeunes libéraux se sont auto-convaincus que les manifestations de rue et d’autres formes de militantisme public en mode « Hé, regardez-moi » allaient permettre de débarrasser le monde des armes nucléaires. Lorsque la guerre froide a pris fin et que la menace de l’armageddon nucléaire s’est estompée, les alarmistes apocalyptiques ont fait du changement climatique leur nouvelle cause.
Depuis lors, on comprend que les apôtres de l’apocalypse climatique sont généralement taillés dans la même étoffe que les mondialistes progressistes. Ce n’est pas une coïncidence si leur unique solution de rédemption est en parfaite adéquation avec les programmes économiques de la gauche: davantage d’impôts, davantage d’interventionnisme, moins de capitalisme et moins de liberté.1 Ainsi, dans la section « Consolider la réponse » du dernier rapport du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC), vous ne serez pas surpris de voir que les scientifiques préconisent « des instruments économiques qui tiennent compte de l’équité économique et sociale et des impacts distributifs; des programmes qui tiennent compte de l’égalité des sexes et de l’autonomisation des femmes, ainsi qu’un meilleur accès au financement pour les communautés locales, les peuples autochtones et les petits propriétaires terriens ».
Le cofondateur d’Extinction Rebellion, Stuart Basden, a déclaré que son mouvement « n’a rien à voir avec le climat », mais qu’il se préoccupe plutôt de renverser la suprématie blanche, le patriarcat, l’hétéronormativité et la hiérarchie des classes. Comme le dit un autre militant: « La justice environnementale est à l’intersection de la justice sociale et de l’environnementalisme, où l’inégalité dans la dégradation de l’environnement est également prise en compte ».
Beaucoup de bruit pour rien
Admettons que le changement climatique soit une réalité et qu’il ait des conséquences. Comme l’a noté le gourou de l’environnement Michael Shellenberger, la surface des 37 glaciers répertoriés du Parc national des Glaciers a diminué de 34% entre 1966 et 2015, tandis que le nombre et la taille des lacs glaciaires ont augmenté à l’échelle mondiale, posant ainsi une menace d’inondations. L’augmentation de la température de l’eau et les vagues de chaleur dues au changement climatique provoquent le blanchiment, la perte de pigments et la mort du corail, un animal invertébré. Il est également prouvé que des précipitations plus abondantes se produisent dans le monde entier et contribuent aux inondations, tandis que la National Oceanic and Atmospheric Administration (NOAA) prévoit que les ouragans s’intensifieront de 5% à l’avenir.
Pourtant, selon le GIEC des Nations unies, il y a peu de preuves d’une augmentation des inondations dues aux débordements des lacs glaciaires, qui peuvent être évitées grâce à des barrages; alors que les températures plus élevées augmentent leur blanchiment, les scientifiques ont découvert que les coraux s’adaptent à l’eau plus chaude et des gens élèvent des coraux qui peuvent survivre à des températures plus chaudes; les dégâts causés par les inondations sont très probablement dus à un manque de gestion appropriée de l’eau pour canaliser les eaux pluviales à travers des systèmes de drainage améliorés, et non pas à des précipitations légèrement plus élevées; et la NOAA estime que les ouragans deviendront 25% moins fréquents.
Il ne s’agit évidemment pas des seuls faits et réfutations disponibles sur le changement climatique, mais la conclusion est toujours la même: les changements environnementaux sont loin d’être aussi menaçants que les activistes le prétendent. Selon eux, le changement climatique représente un danger apocalyptique et « des milliards de personnes mourront » au cours des deux prochaines décennies. La vérité, qui refroidit la rhétorique surchauffée des activistes climatiques, est qu’il n’y a aucune base scientifique justifiant les affirmations d’apocalypse climatique. En fait, toutes les grandes tendances environnementales s’améliorent.
Il n’est pas vraiment surprenant de constater que les phobies apocalyptiques se concentrent principalement chez les Américains d’obédience libérale, pour qui l’alarmisme climatique est devenu une attrayante sous-catégorie émergente de l’hystérie Démocrate. De la même manière que ces personnes avaient (et dans de nombreux cas, ont toujours) une perception complètement faussée du risque réel que représente le covid2, ils partagent la même crainte démesurée et non scientifique du changement climatique. Par exemple, 71% des Démocrates sont d’accord avec la fausse déclaration suivante: « Le changement climatique augmente le coût des catastrophes naturelles en pourcentage du PIB »3 ; 76% sont d’accord avec l’affirmation suivante: « Les décès dus au changement climatique sont plus importants que ceux dus aux catastrophes naturelles ». 76% sont d’accord avec l’affirmation selon laquelle « les décès dus aux catastrophes naturelles augmenteront à l’avenir en raison du changement climatique »4; et 88% considèrent désormais le changement climatique comme une « menace majeure pour la nation ».
Comment expliquer cette vision apocalyptique disproportionnée au sein de la gauche du changement climatique? Eh bien, on pourrait commencer par les imbécilités des médias grand public,5 qui entretiennent une relation fétichiste avec la pornographie de la peur de la fin du monde, ce qui, il va sans dire, est incompatible avec l’engagement professionnel d’exactitude dont ils se prévalent autant pour la forme. Pour se faire une idée de la fréquence à laquelle ces personnes produisent de la pseudoscience environnementale sensationnaliste, il suffit de lire quelques titres récents de The Atlantic, le salon amiral de la classe dirigeante:
Les dirigeants Démocrates sont également coutumiers des discours alarmistes. « Le changement climatique est littéralement une menace existentielle pour notre nation et pour le monde », a déclaré Joe Biden en juillet dernier lorsqu’il a annoncé le plan de son administration pour faire face à l’« urgence climatique ». De même, Nancy Pelosi a déclaré qu’il était impératif de « faire face à la menace existentielle de notre époque: la crise climatique ». Alexandria Ocasio-Cortez, quant à elle, a affirmé que « ce sera la fin du monde d’ici 12 ans si nous ne nous attaquons pas au changement climatique », et que la lutte pour atténuer les effets du changement climatique est la Seconde Guerre mondiale de sa génération.
Il y a aussi beaucoup d’argent en jeu. Ce n’est pas une surprise. Les universitaires et les ONG qui étudient l’environnement reçoivent des fonds lorsqu’ils se livrent à des prévisions catastrophistes; il faut un problème à résoudre pour que leurs recherches soient soutenues. Le pouvoir y joue aussi un rôle, car le meilleur moyen de contrôler les gens est de les effrayer. Et si la pandémie nous a appris quoi que ce soit, c’est que l’alarmisme institutionnel peut guider les masses sur la voie souhaitée sans pour autant résoudre les problèmes.
Michael Shellenberger a également rassemblé de nombreuses preuves que l’environnementalisme apocalyptique sert de religion de substitution pour les progressistes, qui ont tendance à être plus laïques que les conservateurs et ont donc davantage besoin d’une perception du monde qui les console de leur désespoir existentiel:
Les progressistes ont recréé le judéo-christianisme sous la forme d’un environnementalisme apocalyptique, qui inclut une déchéance de la Nature, la culpabilité d’avoir péché contre le Dieu-victime de la Nature, et le désir d’une apocalypse qui détruira la civilisation industrielle avant d’inaugurer une nouvelle harmonie utopique de paradis sur Terre.6
Endoctrinés dans des universités qui enseignent un dogme nihiliste déguisé en évangile scientifique, de nombreux membres de la gauche sont devenus des apôtres inconditionnels de cette nouvelle religion apocalyptique qui exige que nous expiions nos péchés contre la Nature en adoptant des énergies renouvelables et un mode de vie à faible consommation d’énergie. Cet « activisme de nature religieuse » s’inscrit en droite ligne de la politique de la gauche. Après avoir progressivement abandonné les religions traditionnelles, les adeptes trouvent un réconfort psychologique dans l’Église du Woke et ses trois articles de foi: l’antiracisme, l’identité de genre et l’apocalyptique climatique, qui sont tous devenus des doctrines intouchables malgré le fait qu’elles exigent une sérieuse suspension de l’incrédulité.
L’apocalyptique climatique, en particulier, semble répondre aux besoins psychologiques de certaines personnes. Il leur donne un but: sauver le monde du changement climatique ou d’une autre catastrophe environnementale. Il leur fournit également une histoire qui fait d’eux des héros et des êtres spéciaux sur le plan cosmique, tout en maintenant l’illusion chez les adeptes qu’ils sont des gens de science et de raison, et non des superstitieux et des fantaisistes.
Le problème de la nouvelle religion environnementale est qu’elle génère de l’anxiété et de la dépression sans répondre aux besoins existentiels et spirituels plus profonds que recherchent ses adeptes ostensiblement laïques. Et comme nous l’avons vu pendant la pandémie, une exagération persistante des faits déforme la réalité. En 2017, l’American Psychological Association a diagnostiqué une « éco-anxiété » croissante et l’a qualifiée de « peur chronique de la catastrophe environnementale ». Cette peur a eu un impact considérable sur le bien-être psychologique des jeunes, des études faisant état d’une anxiété et d’une dépression croissantes concernant « le monde dont ils hériteront ». En 2020, une vaste enquête nationale a révélé qu’un enfant britannique sur cinq faisait des cauchemars nourris de changement climatique.
Les prédications de feu et de soufre des écolo-apocalypstes, bien qu’elles soient de véritables foutaises, ont un impact certain sur les gens.
Le nihilisme et le narcissisme communautaire des radicaux climatiques
« Les fanatiques les plus féroces sont souvent des égoïstes qui ont été amenés, par des lacunes innées ou des circonstances extérieures, à perdre confiance en eux-mêmes. Ils dissocient le très performant instrument de leur égoïsme de leur moi inefficace et l’attachent au service d’une cause sacrée. »
Eric Hoffer, The True Believer: Thoughts on the Nature of Mass Movements
Ironiquement, à part « quelques dommages mineurs au cadre », les Tournesols de Vincent van Gogh n’ont pas été endommagés par les deux ploucs qui ont jeté de la soupe à la tomate sur le tableau, car celui-ci était recouvert d’un « glacis » protecteur. Mais comme il n’est pas évident pour l’observateur profane que le tableau était protégé, la réaction viscérale atteint l’objectif visé par ces enfants, à savoir déstabiliser les gens. Si cette attaque contre des œuvres d’art précieuses a un effet aussi viscéral, c’est précisément parce que nous comprenons qu’elle représente une répudiation de ce qu’il y a de mieux dans la civilisation humaine. Rappelons qu’ISIS a tout fait pour détruire des œuvres d’art parce que, à l’instar de nombreux activistes actuels, ils considèrent les valeurs du monde occidental comme essentiellement toxiques.
Pour ces incroyablement vaillants hémophiles aux sentiments si délicats, armés de soupe à la tomate, les Tournesols de Vincent van Gogh sont une affectation bourgeoise vide de sens et purement divertissante, dont la valeur ne peut être comprise que par son prix en dollars plutôt que par sa véritable valeur artistique, qui se mesure à son pouvoir éducatif, à la promotion de valeurs culturelles, à l’élimination des barrières sociales, culturelles et économiques, et à l’inspiration d’un niveau de pensée plus élevé.
Il faut bien comprendre que de tels coups d’éclat ne relèvent pas de l’avant-garde. Il ne faut pas non plus les considérer comme de simples émanations d’un « idéalisme juvénile » et d’un « activisme théâtral », attitude que de nombreuses personnes ont adoptée. Non, il s’agit d’actes de profanation et de criminalité emblématiques d’un modèle plus large de philistinisme né à l’ère des médias sociaux, par lequel de nombreuses personnes refusent de reconnaître la valeur de tout ce qui n’est pas spécifiquement au service d’un programme politique ou ne s’inscrit pas dans un certain cadre idéologique. Nous en avons vu un exemple dans les tendances récentes de la critique historique, où les personnages du passé sont jugés sur la base des mœurs intersectionnelles imbéciles du présent et sur la question de savoir si leur héritage est conforme ou non au récit approuvé d’aujourd’hui.
NOW – Eco activists spray paint Aston Martin showroom in London hours after they were branded "thugs and vandals" by the UK Home Secretary.pic.twitter.com/a5jucVVH4B
Quelques heures après avoir été qualifiés de « voyous et vandales » par le Ministre britannique de l’Intérieur, des militants écologistes ont peint à la bombe la salle d’exposition d’Aston Martin à Londres.
Tout au long de l’histoire, les politiques radicales ont toujours servi à remplir des existences creuses, à donner un sens et un but à ceux qui avaient le moins à gagner du statu quo et le plus à gagner de son bouleversement. Mais les éco-apocalypstes d’aujourd’hui sont uniques en ce sens qu’ils ont tendance à être infectés par une combinaison de nihilisme et de narcissisme communautaire. Bien entendu, on peut s’attendre à ce qu’ils restent béatement ignorants de ce fait; d’une manière générale, il n’y a chez ces activistes enragés que peu de signes de l’activité du lobe frontal nécessaire à un examen de soi, qui pourrait les aider à comprendre que leur grandiloquence pitoyable n’est qu’une lutte pour la réalisation du moi, déguisée en lutte pour une cause.
Les militants de Just Stop Oil et de Extinction Rebellion se sont également collés à La Cène de Léonard de Vinci, au Primavera de Botticelli et au Massacre en Corée de Picasso à la National Gallery of Victoria de Melbourne.
Ces djihadistes climatiques dépendent des autres pour valider leur estime d’eux-mêmes. Ce qu’ils désirent ardemment, c’est jouer un rôle dans un drame exaltant joué devant un vaste public. Affligés d’un besoin pathologique de se considérer comme exceptionnels ou remarquables à tout moment, leur objectif est toujours la séduction des autres, d’arriver à captiver leur attention, à susciter leurs éloges ou leur sympathie, afin de consolider leur identité chancelante. Libérée et déconnectée des liens sociaux traditionnels, ils utilisent leur individualité pour accroître leur propre sentiment d’insécurité, qu’ils ne pourront surmonter qu’en contemplant le reflet de leur moi grandiose dans les yeux des autres, lorsqu’ils s’engagent dans un geste héroïque.
Parce que l’état d’esprit catastrophiste des écologistes considère que, vu l’apocalypse climatique imminente, le monde n’a pas d’avenir, il est logique de ne vivre que pour le moment présent et que « nos yeux restent fixés sur notre propre représentation privée, que nous devenions des connaisseurs de notre propre décadence, que nous cultivions une attention transcendantale à l’égard de nous-mêmes », comme l’a dit l’historien américain Christopher Lasch.
Okay now folks in the UK who want a plant-based future are doing milk dumps at the grocery store. Curious to know what folks think about this. pic.twitter.com/tBDEFgyt5x
Au Royaume-Uni, les personnes qui exigent un avenir basé sur les plantes déversent du lait dans les épiceries. Curieux de savoir ce que les gens en pensent.
Produits d’une société de plus en plus agnostique et à l’ère des rendements décroissants, de nombreux jeunes adultes finissent également par se tourner vers des mouvements politiques en lieu et place d’un mode de vie sécularisé. Ce n’est pas le salut personnel qu’ils recherchent, encore moins la restauration d’un âge d’or antérieur, mais le sentiment, ou même simplement l’illusion, d’une direction à leur vie et d’une certitude absolue. La lutte pour établir un sens solide de soi conduit invariablement certaines personnes à noyer leur identité dans une cause plus vaste, espérant surmonter leurs sentiments d’insignifiance et de désenchantement par l’investissement de leurs énergies dans une action collective radicale et performative. Comme l’a écrit Eric Hoffer, « on a l’impression que les frustrés tirent autant de satisfaction – si ce n’est plus – des moyens utilisés par un mouvement de masse que des fins qu’il préconise ».
Tant que l’apocalyptisme climatique continuera à fournir aux activistes un but artificiel et quelque chose à quoi s’accrocher, le son de cloche du mouvement vert continuera à sonner sans relâche, et les priorités écologiques urgentes – que Biden a décrites comme un « impératif moral » – seront non seulement utilisées pour justifier davantage de vandalisme et d’austérité écologique, mais serviront de prétexte à d’autres types de projets utopiques d’ingénierie sociale menés sous la bannière du Progrès™.
Ils utilisent la question du climat comme excuse pour imposer une réglementation politique aux économies de marché. ↩︎
Très tôt dans la pandémie, on savait qu’il n’y avait que 1 à 5% de risque qu’une personne atteinte de covid doive être hospitalisée. Pourtant, en avril 2021, 41% des Démocrates pensaient encore qu’il y avait plus de 50% de chances que ce soit le cas. ↩︎
En réalité, la part du PIB consacrée aux catastrophes naturelles a diminué ou est restée stable lorsqu’elle est « normalisée », c’est-à-dire lorsque les scientifiques prennent en compte l’augmentation de la richesse dans la zone sinistrée. ↩︎
Selon Michael Shellenberger, « en 1931, 3,7 millions de personnes sont mortes à la suite de catastrophes naturelles. En 2018, elles n’étaient plus que 11 000. » Et cette baisse du nombre de décès s’est produite alors que la population humaine a quadruplé. Ni le Groupe d’experts intergouvernemental sur l’évolution du climat des Nations unies, ni aucun autre organisme scientifique réputé ne prévoit un renversement de la tendance à long terme à la baisse du nombre de décès, même en cas de réchauffement important. ↩︎
Les libéraux font beaucoup plus confiance aux médias que les conservateurs. Ils consomment également davantage d’informations grand public à caractère catastrophiste. Un duo efficace: ils ingurgitent davantage de contenu et croient ce qu’on leur dit. ↩︎
Notez à quel point l’alarmisme climatique comporte toujours des accents bibliques caractéristiques: les incendies et les inondations sont considérés comme des avertissements adressés à une humanité perverse et dévastatrice, tandis que les anomalies météorologiques sont des châtiments célestes et l’expression du mécontentement divin. La nature est considérée comme une force sensible qui nous réprimande pour notre orgueil et nos crimes climatiques. Nous sommes « coupables en diable », s’écrie le rédacteur en chef du Guardian chargé de l’environnement. « Face aux incendies de forêt, aux inondations et aux pandémies, on se croirait à la fin des temps, et tout cela est de notre propre faute », écrit un rédacteur du Hill. Une partie du mouvement écologiste est calviniste, en ce sens que le monde est maléfique et qu’il vaudrait mieux le détruire et le rendre au règne naturel. ↩︎
Tant qu’on est dans le climat et les chiffres, un petit cours de Norman Fenton. Ça a l’air un peu austère au premier abord, mais c’est en fait assez amusant – surtout le coup de la pièce à deux faces. On pourrait trouver pire comme professeur: Norman Fenton est un mathématicien et statisticien britannique mondialement connu, spécialiste de l’analyse du risque, auteur de nombreux ouvrages et professeur émérite à l’Université Queen Mary – entre autres.
À la longue, vous finirez par devenir assez fortiches en logique/statistiques, le genre de truc qui peut éventuellement servir dans d’autres domaines. Imaginons par exemple (au hasard), qu’on vous annonce qu’un vaccin est efficace à 95%…
En 2015, j’ai été l’un des présentateurs du documentaire de la BBC Climate Change by Numbers [Le changement climatique en chiffres]. J’en ai rédigé un résumé ici.
Le « chiffre du changement climatique » que l’on m’a spécifiquement demandé d’expliquer était le chiffre 95: plus précisément, par rapport à l’affirmation faite dans le rapport 2013 du GIEC selon laquelle « il est certain à au moins 95% que plus de la moitié du réchauffement récent est dû à l’homme ».
Le « réchauffement récent » concerne la période 1950-2010. L’affirmation porte donc sur la probabilité que l’homme soit à l’origine de la majeure partie de ce réchauffement.
Avant d’expliquer le problème que pose cette affirmation, nous devons préciser que (bien qu’elle soit superficiellement similaire), elle est très différente d’une autre affirmation plus connue (à ce jour encore promue par la NASA) selon laquelle « 97% des climatologues sont d’accord pour dire que l’homme est à l’origine du réchauffement de la planète et du changement climatique ». Cette affirmation était simplement basée sur une enquête erronée menée auprès d’auteurs d’articles publiés et a été complètement infirmée.
Le degré de certitude de 95% est une affirmation plus sérieuse. Mais les arguments avancés en sa faveur dans le rapport du GIEC sont également fallacieux. Pour expliquer pourquoi, il est utile d’illustrer cette faille à l’aide d’un exemple simple et éloquent.
L’erreur fondamentale: l’exemple du jeu de pile ou face
Imaginons que l’on sache qu’il y a des pièces à double face en circulation. Supposons qu’une pièce soit choisie au hasard et que, sans l’inspecter, on la lance cinq fois. À chaque fois, le résultat est « face ». Quelle est la probabilité que la pièce soit à double face? La plupart des gens pensent intuitivement qu’il est très probable qu’il s’agisse de l’une de ces pièces à deux côtés face. Mais c’est une erreur.
Dans un test d’hypothèse statistique classique, il n’est pas possible de tirer des conclusions directes par rapport à l’hypothèse selon laquelle cette pièce est à double face. Au lieu de cela, l’observation des cinq face consécutifs est utilisée pour accepter ou rejeter l’« hypothèse nulle » (selon laquelle la pièce n’est PAS à double face) à un niveau de signification convenu. Plus précisément, on calcule la probabilité d’observer cinq faces consécutives avec une pièce qui n’est pas à double face. Dans ce cas, la probabilité est de 1/32, soit environ 3%. Il s’agit donc en effet d’une situation très improbable. Généralement, on utilise un niveau de signification de 5% (également appelé valeur p), ce qui signifie que nous « rejetons » l’hypothèse nulle dans ce cas parce que la probabilité est inférieure à 5%.
Notons que nous pouvons conclure de manière équivalente qu’il existe une très forte probabilité (97%) que nous n’aurions pas observé cinq faces consécutives si la pièce n’était pas à double face.
Malheureusement, les gens concluent souvent (à tort, comme nous allons le montrer) que le rejet de l’hypothèse nulle au niveau de signification de 5% signifie qu’il y a moins de 5% de probabilité que la pièce ne soit pas à double face. Ils en concluent également que nous pouvons être sûrs à au moins 95% que la pièce est à double face. Mais c’est une erreur.
Si les cinq « face » consécutifs étayent certainement l’hypothèse selon laquelle la pièce est à double face, ils ne nous apprennent rien sur la probabilité qu’elle soit réellement à double face. La seule façon de tirer une conclusion ferme sur cette probabilité est de connaître la « probabilité préalable » que la pièce soit à double face; dans ce cas, il s’agit de savoir quelle proportion des pièces en circulation sont à double face. Cela fera une grande différence si c’est 1 sur 2, 1 sur 100, 1 sur 1000, 1 sur un million, etc.
Si nous connaissons la proportion de pièces à double face en circulation, le théorème de Bayes peut être utilisé pour calculer la réponse que nous cherchons. Supposons, par exemple, que nous sachions qu’il y a 1 pièce à double face sur 500 en circulation (la probabilité a priori qu’une pièce soit à double face est donc de 1 sur 500, soit 0,2%). Le calcul formel est présenté ci-dessous1, mais on peut donner une explication intuitive sans recourir à la formule de Bayes:
Imaginons un sac de 500 pièces dont exactement une est à double face (c’est-à-dire un sac de pièces typique à ce cas de figure). Supposons que nous testions chaque pièce en la lançant cinq fois. Nous sommes alors certains que la (seule) pièce à deux faces donnera 5 faces.
Mais une pièce sur 32 parmi les 499 autres pièces normales – c’est-à-dire environ 16 pièces normales – donnera également cinq fois de suite le résultat « face ».
Par conséquent, pour 17 pièces enregistrant cinq faces consécutives, il n’y en a qu’une seule qui a deux faces.
Par conséquent, si nous savons qu’une pièce a enregistré cinq faces consécutives, nous pouvons conclure qu’il y a une chance sur 17 (soit environ 6%) qu’elle soit à double face, c’est-à-dire qu’il y a environ 94% de chances qu’elle ne soit pas à double face.
Ainsi, s’il est très peu probable d’observer 5 faces consécutives si la pièce n’a pas de double face (probabilité de 3%), il est encore très probable que la pièce ne soit pas à double face (probabilité de 94%).
L’erreur consistant à conclure qu’il n’y avait qu’une faible probabilité que la pièce ne soit pas à double face s’appelle l’erreur du conditionnel transposé (ou « erreur du procureur ») parce que nous avons supposé que:
la probabilité d’une affirmation E étant donné une affirmation « pas H »
est la même que
la probabilité de « pas H » étant donné E.
Dans ce cas
H est l’hypothèse: « la pièce choisie est à deux faces ».
E est la preuve: « 5 tirages faces consécutifs »
Nous avons montré que
Probabilité de (E donné et non H) = 3%.
alors que
probabilité de (« pas H » étant donné E) = 94%.
La faille dans le rapport de synthèse du GIEC
Il s’avère que l’affirmation selon laquelle il y a « au moins 95% de certitude que plus de la moitié du réchauffement récent est dû à l’homme » repose sur la même faille fondamentale que l’hypothèse, dans l’exemple ci-dessus, selon laquelle il y a au moins 95% de chances que la pièce soit à deux faces.
Dans mon article sur le programme, j’ai souligné ce problème comme suit:
La véritable signification probabiliste du chiffre de 95%. En fait, il provient d’un test d’hypothèse classique dans lequel les données observées sont utilisées pour tester la crédibilité de l’« hypothèse nulle ». L’hypothèse nulle est l’affirmation « opposée » à celle que l’on croit vraie, c’est-à-dire « Moins de la moitié du réchauffement des 60 dernières années est d’origine humaine ». Si, comme dans ce cas, il n’y a que 5% de probabilité d’observer les données si l’hypothèse nulle est vraie, les statisticiens assimilent ce chiffre (appelé valeur p) à une confiance de 95% dans le fait que nous pouvons rejeter l’hypothèse nulle. Mais la probabilité est ici une déclaration sur les données compte tenu de l’hypothèse. Elle n’est généralement pas identique à la probabilité de l’hypothèse compte tenu des données (en fait, l’assimilation des deux est souvent appelée « erreur des procureurs », car il s’agit d’une erreur souvent commise par les avocats lorsqu’ils interprètent des preuves statistiques). Voir ici et ici pour en savoir plus sur les limites des valeurs p et des intervalles de confiance.
L’affirmation selon laquelle il existe une probabilité d’au moins 95% que plus de la moitié du réchauffement soit d’origine humaine figure dans la section « Résumé à l’intention des responsables politiques » du rapport 2013 du GIEC.
Il est extrêmement probable que plus de la moitié de l’augmentation observée de la température moyenne à la surface du globe entre 1951 et 2010 soit due à l’augmentation anthropique des concentrations de gaz à effet de serre et à d’autres forçages anthropiques. La meilleure estimation de la contribution anthropique au réchauffement est similaire au réchauffement observé au cours de cette période. {10.3}
(« extrêmement probable » a été défini comme une probabilité d’au moins 95%).
Mais si l’on examine la base de l’affirmation au chapitre 10 du résumé technique détaillé, il ressort clairement des méthodes et des résultats que l’affirmation est fondée sur divers modèles de simulation du changement climatique, qui rejettent l’hypothèse nulle (selon laquelle plus de la moitié du réchauffement n’est pas due à l’homme) au niveau de signification de 5%.
Plus précisément, dans les modèles de simulation, dès lors que l’on postule que l’impact de l’homme est faible, on conclut que la probabilité d’observer le réchauffement observé est inférieure à 5%. En d’autres termes, les modèles ne confirment pas l’hypothèse nulle d’un faible changement climatique d’origine humaine. Le problème est que, même si les modèles étaient exacts (et nous contestons qu’ils le soient), on ne peut pas conclure qu’il y a au moins 95% de chances que plus de la moitié du réchauffement soit d’origine humaine. Car cela revient à commettre l’erreur du conditionnel transposé.
Tout ce que nous pouvons conclure, c’est qu’il y a au moins 95% de chances que nous n’observions pas le réchauffement que nous avons constaté sur la base des simulations des modèles de changement climatique et de leurs multiples hypothèses. Tout comme il y a 96% de chances que nous n’observions pas 5 « face » consécutifs sur une pièce qui n’est pas à deux faces.
L’illusion de confiance dans l’exemple de la pièce de monnaie vient du fait que l’on ignore (la « probabilité préalable ») la rareté des pièces à deux faces. De même, dans le cas du changement climatique, il n’est pas tenu compte de la probabilité préalable d’un changement climatique d’origine humaine; seules les hypothèses des modèles de simulation sont prises en compte, et les autres explications sont absentes. Dans ces deux cas, les statistiques classiques peuvent être utilisées pour vous tromper en vous présentant une illusion de confiance qui n’est pas justifiée.
Calcul du théorème de Bayes pour l’exemple de la pièce à double tête : – H est l’hypothèse : « la pièce sélectionnée est à double tête » – E est la preuve : « 5 tirages de face consécutifs » Nous supposons que P(H) = 1/500, donc P(pas H) = 499/500 Nous connaissons P(E | pas H) = 1/32 et P(E | H) =1 ↩︎
Voici un article de revue publié en 2020, très méthodique, référencé et complet. J’en ai fait la traduction, excepté pour la section « Références » qui reste en langue anglaise originale. Outre son intérêt en tant que source d’informations très vastes sur le sujet, il sera également d’un usage utile en tant que document de référence pour toute discussion relative aux énergies renouvelables.
Les auteurs ne se prononçant pas ici sur la validité de la théorie de la source anthropogénique du réchauffement climatique, je renvoie sur ce sujet le lecteur à divers articles précédemment publiés sur ce blog, principalement celui-ci.
Politique énergétique et climatique – Évaluation des dépenses mondiales en matière de changement climatique 2011-2018
Coilín ÓhAiseadha 1,*, Gerré Quinn 2 , Ronan Connolly 3,4 , Michael Connolly 3 et Willie Soon 4
1 Department of Public Health, Health Service Executive, Dr Steevens’ Hospital, D08 W2A8 Dublin 8, Irlande; 2 Centre for Molecular Biosciences, Ulster University, Coleraine BT521SA, Irlande du Nord, Royaume-Uni; g.quinn@ulster.ac.uk 3 Independent Scientists, Dublin 8, Irlande; ronan@ceres-science.com (R.C.); michael@ceres-science.com (M.C.) 4 Center for Environmental Research and Earth Sciences (CERES), Salem, MA 01970, États-Unis; willie@ceres-science.com
(*): Correspondance: coilin.ohaiseadha@hse.ie
Reçu: 15 août 2020; Accepté: 12 septembre 2020; Publié: 16 septembre 2020
Résumé
La préoccupation pour le changement climatique est l’un des moteurs des nouvelles politiques énergétiques de transition orientées vers la croissance économique et la sécurité énergétique, ainsi que vers la réduction des émissions de gaz à effet de serre (GES) et la préservation de la biodiversité. Depuis 2010, la Climate Policy Initiative (CPI) publie des rapports annuels sur le paysage mondial du financement climatique. Selon ces rapports, 3 660 milliards de dollars ont été dépensés pour des projets de lutte contre le changement climatique au cours de la période 2011-2018. Cinquante-cinq pour cent de ces dépenses ont été consacrées à l’énergie éolienne et solaire. Selon les rapports mondiaux sur l’énergie, la contribution de l’énergie éolienne et solaire à la consommation mondiale d’énergie est passée de 0,5% à 3% au cours de cette période. Dans le même temps, le charbon, le pétrole et le gaz continuent de fournir 85% de la consommation mondiale d’énergie, l’hydroélectricité et le nucléaire assurant la majeure partie du reste. Dans ce contexte, nous examinons les défis techniques potentiels et les impacts environnementaux et socio-économiques des principales sources d’énergie (anciennes et nouvelles). Nous constatons que la littérature soulève de nombreuses préoccupations quant à la faisabilité technique et aux incidences environnementales de l’énergie éolienne et de l’énergie solaire. Cependant, aucune des sources d’énergie actuelles ou proposées n’est une « panacée ». Au contraire, chaque technologie présente des avantages et des inconvénients, et les décideurs politiques doivent être conscients des avantages et des inconvénients lorsqu’ils prennent des décisions en matière de politique énergétique. Nous invitons les décideurs politiques à identifier les priorités les plus importantes pour eux et celles sur lesquelles ils sont prêts à faire des compromis.
Au vu des changements survenus dans le système climatique mondial depuis les années 1950, le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) des Nations unies a conclu que la poursuite des émissions de gaz à effet de serre (GES) entraînera « un réchauffement supplémentaire et des changements durables dans toutes les composantes du système climatique, augmentant la probabilité d’impacts graves, généralisés et irréversibles pour les populations et les écosystèmes » (p. 8, Rapport de synthèse du GIEC (2014)) [1]. Cette conclusion, ainsi que celles de la Convention-cadre des Nations unies sur les changements climatiques (CCNUCC), a inspiré les efforts continus de la Conférence des parties des Nations unies (COP) depuis les années 1990 pour coordonner les accords internationaux visant à réduire de manière urgente et substantielle les émissions de gaz à effet de serre, tels que le Protocole de Kyoto de 1996 [2] et l’Accord de Paris de 2015 [3].
Les efforts déployés pour parvenir à un accord sur ces négociations internationales majeures sont un témoignage remarquable de l’intérêt et du soutien de la communauté internationale pour ces objectifs. Cependant, les émissions de gaz à effet de serre ont continué à augmenter [4,5,6]. L’un des principaux problèmes sous-jacents est que la majeure partie de l’augmentation des émissions de gaz à effet de serre (principalement le dioxyde de carbone, CO2) depuis le XIXe siècle est due à l’utilisation d’énergie produite à partir de combustibles fossiles (charbon, pétrole, gaz naturel et tourbe), qui a été à l’origine de la révolution industrielle [7]. Cette énergie abondante et bon marché a permis une augmentation sans précédent du niveau de vie, de la durée de vie moyenne, des progrès technologiques, de l’agriculture et de la population mondiale, ainsi que de la croissance économique [7,8,9]. Il est clair que, historiquement, elle a été un facteur clé pour permettre le développement des nations à revenu élevé actuelles [7,8,9]. Gupta (2014) a noté qu’il s’agissait d’une source majeure de désaccord entre les pays en développement et les pays développés dans les tentatives internationales de réduction des émissions mondiales de gaz à effet de serre [10]. Plus précisément, si les pays en développement suivent la même voie éprouvée que celle empruntée par les nations pour se développer, les émissions de gaz à effet de serre augmenteront considérablement, ce qui soulève la question de savoir si les traités internationaux visant à réduire les émissions de gaz à effet de serre entravent implicitement le développement des pays en développement [10].
D’un autre côté, plusieurs chercheurs et faiseurs d’opinion ont affirmé qu’une révolution post-industrielle alternative « zéro carbone », impliquant une transition vers l’électricité éolienne et solaire, ainsi que l’électrification généralisée des systèmes de transport et l’amélioration de l’efficacité énergétique (incluant éventuellement la bioénergie), est non seulement faisable, mais souhaitable, par exemple, Gore (2006, 2017) [11,12], Jacobson et al. (2011, 2015, 2017, 2018) [13,14,15,16], Klein (2015) [17] et Goodall (2016) [18]. Bien que ces affirmations aient été contestées dans la littérature scientifique [19,20,21,22,23,24], elles sont ardemment défendues par des groupes de défense de l’environnement tels que Greenpeace [25,26] et des mouvements de protestation tels que « Extinction Rebellion » [27] et « Fridays For Future » [28], qui ont acquis une grande notoriété dans les médias grand public et les médias sociaux. Cela a incité de nombreux groupes politiques et gouvernements à remodeler leurs programmes politiques en conséquence [29,30], par exemple sous la forme d’un « New Deal vert » [31,32,33].
Étant donné la popularité de ce cadre, il n’est pas surprenant que de nombreuses personnes supposent que l’opposition à ces politiques est due à l’ignorance, à un manque d’intérêt pour l’environnement et/ou au lobbying d’intérêts particuliers qui réclament le maintien du statu quo [34,35,36,37]. Cependant, une grande partie de l’opposition est exprimée par des écologistes et des chercheurs qui s’inquiètent des problèmes environnementaux et sociétaux associés à ces politiques, ainsi que de l’absence de discussion critique sur la faisabilité technique et économique de ces politiques [8,20,26,38,39,40,41,42,43,44,45].
De nombreuses critiques à l’encontre de ces propositions « zéro carbone » découlent de simples considérations d’ordre technique et économique. Certains ont mis en doute la capacité des « technologies vertes » proposées à répondre aux besoins énergétiques de la population actuelle, sans parler de l’augmentation de la population [20,38,41,43,44,46,47]. Par exemple, à partir d’une évaluation de 24 études sur l’électricité 100 % renouvelable, Heard et al. (2017) ont constaté que, « sur la base de nos critères, aucune des études sur l’électricité 100% renouvelable que nous avons examinées n’a fourni une démonstration convaincante de la faisabilité » [21]. L’un des principaux problèmes techniques liés à la production d’électricité éolienne, solaire et marémotrice réside dans le fait qu’il s’agit de technologies de production d’électricité « intermittentes » (également appelées « non répartissables » ou « variables »). Si certains ont affirmé que ce problème pouvait en principe être résolu en combinant le stockage de l’énergie [48,49] et/ou une extension majeure des réseaux de transport d’électricité à l’échelle du continent [50], d’autres ont fait remarquer que l’ampleur de ces projets était énorme [19,21,22,23,24,45]. Beaucoup se sont demandé pourquoi, si la réduction des émissions de gaz à effet de serre doit réellement être considérée comme la priorité absolue, les solutions impliquant une augmentation de l’énergie nucléaire et/ou une transition du charbon/pétrole vers le gaz naturel sont continuellement rejetées ou mises de côté [20,21,23,38,39,41,42,43,44,51,52]?
Paradoxalement, étant donné que ces politiques sont présentées comme souhaitables du point de vue de l’environnement, la plupart des critiques portent sur leur impact environnemental. De nombreux chercheurs s’inquiètent des effets négatifs des « énergies vertes » sur la biodiversité [51,53,54,55,56]. Certains ont noté que la transition vers ces technologies nécessiterait une augmentation considérable de l’exploitation de ressources limitées [45,57,58], Mills (2020) affirmant que « par rapport aux hydrocarbures, les machines vertes entraînent, en moyenne, une multiplication par 10 des quantités de matériaux extraits et traités pour produire la même quantité d’énergie » [45]. Certains notent que les parcs éoliens à grande échelle peuvent provoquer un changement climatique local important (distinct du changement climatique mondial dû aux émissions de gaz à effet de serre qu’ils sont censés réduire) [59,60,61,62,63,64,65,66].
Pielke Jr. (2005) note qu’il existe deux approches pour réduire les impacts du futur changement climatique : (i) « l’atténuation du climat » et (ii) « l’adaptation au climat » [67]. La première approche, « l’atténuation du climat », part du principe que les gaz à effet de serre sont le principal moteur du changement climatique et tente de « réduire le changement climatique futur » en réduisant les émissions de gaz à effet de serre. La seconde approche, « l’adaptation au climat », consiste à développer de meilleurs systèmes et infrastructures pour faire face au changement climatique et aux extrêmes climatiques. Pielke Jr. affirme qu’en mettant trop l’accent sur « l’atténuation du climat », la CCNUCC et les accords de la COP, tels que le Protocole de Kyoto (et plus récemment l’Accord de Paris), ont créé un biais contre les investissements dans l’adaptation au climat. Il note également que les politiques d’atténuation du climat supposent explicitement que le changement climatique est principalement dû aux émissions de gaz à effet de serre, alors que les politiques d’adaptation au climat ont souvent du sens quelles que soient les causes du changement climatique. Dans cette optique, il convient de noter que plusieurs études récentes ont soutenu que les rapports du GIEC ont sous-estimé le rôle des facteurs naturels dans le changement climatique récent (et donc surestimé le rôle des facteurs d’origine humaine) [68,69,70,71].
En outre, dans ce numéro spécial d’Énergies, Connolly et al. (2020) ont noté que, même en supposant que le changement climatique est principalement dû aux émissions de gaz à effet de serre d’origine humaine, l’ampleur du réchauffement planétaire attendu dans le cadre de politiques de maintien du statu quo est fortement déterminée par une mesure appelée « sensibilité climatique » [6]. La valeur exacte de cette mesure fait l’objet d’un débat scientifique considérable, mais Connolly et al. ont calculé que, si la valeur se situe dans la partie supérieure de la fourchette d’estimations du GIEC, nous pouvons nous attendre à ce que l’objectif déclaré de l’Accord de Paris de maintenir le réchauffement climatique d’origine humaine en dessous de 2°C ne soit pas atteint dans le cadre du statu quo au milieu du XXIe siècle, alors que, si la sensibilité climatique se situe dans la partie inférieure des estimations du GIEC, l’Accord de Paris ne sera pas respecté dans le cadre du statu quo avant au moins le XXIIe siècle. En d’autres termes, ils ont montré que la communauté scientifique n’a pas encore résolu de manière satisfaisante la question de savoir si la réduction des émissions de gaz à effet de serre est un problème pour ce siècle ou pour le suivant. Cette constatation a des conséquences sur l’urgence des transitions proposées vers des politiques « à faible teneur en carbone ». Il s’agit d’un point important car, malgré les inquiétudes concernant le changement climatique que les émissions de gaz à effet de serre associées pourraient provoquer, les politiques énergétiques actuelles basées sur les combustibles fossiles présentent de nombreux avantages [8,9]. En effet, il convient de noter que le principal gaz à effet de serre concerné, le dioxyde de carbone (CO2), est un élément clé de toute vie basée sur le carbone, c’est-à-dire de toute vie connue, et que l’augmentation des concentrations de dioxyde de carbone dans l’atmosphère a contribué à un « verdissement » partiel de la Terre, c’est-à-dire à une croissance accrue des plantes au cours des dernières décennies [9,72].
À la lumière des critiques ci-dessus, le lecteur peut se demander si les politiques de transition énergétique « zéro carbone » proposées actuellement et basées principalement sur l’électricité éolienne et solaire sont vraiment la panacée que les promoteurs de ces technologies indiquent [11,12,13,14,15,16,17,18,25,27,28]. Il s’agit d’une question clé à laquelle nous souhaitons répondre dans cet article de synthèse. Nous espérons qu’à l’issue de cette étude, le lecteur comprendra qu’aucune des sources d’énergie et d’électricité actuellement utilisées par la société n’est une « panacée ». Au contraire, chaque technologie a ses avantages et ses inconvénients, et les décideurs politiques doivent être conscients des avantages et des inconvénients lorsqu’ils prennent des décisions en matière de politique énergétique. Nous invitons les décideurs politiques à identifier les priorités les plus importantes pour eux et celles sur lesquelles ils sont prêts à faire des compromis. Sovacool et Saunders (2014) [73] fournissent un cadre utile à cet égard en comparant et en opposant cinq paquets différents de politiques de sécurité énergétique. Ils ont constaté que les cinq paquets présentent des avantages et des inconvénients, et que » la sécurité énergétique n’est pas un état absolu, et que sa réalisation ne « fonctionne » qu’en donnant la priorité à certaines dimensions, ou à des objectifs et paquets politiques, plus qu’à d’autres » [73].
Nous soutenons qu’un élément clé de ce processus est la reconnaissance des problèmes techniques, environnementaux et socio-économiques associés à chaque technologie. Nous insistons sur le fait que l’objectif de cette étude n’est pas de plaider en faveur d’une technologie énergétique particulière, mais plutôt de sensibiliser le lecteur aux avantages et aux inconvénients de chacune des principales technologies et politiques énergétiques actuellement promues. Afin d’identifier ces technologies et politiques énergétiques clés, nous avons tiré parti de l’analyse détaillée réalisée par la Climate Policy Initiative (https://www.climatepolicyinitiative.org/) dans une série de rapports annuels/biennaux intitulés « Global Landscape of Climate Finance », qui ont estimé la répartition des dépenses mondiales totales liées au changement climatique pour chaque année entre 2010/2011 [74] et 2018 [75].
Nous avons compilé les données de ces rapports pour chaque année dans la figure 1 et le tableau 1. Nous notons que la Climate Policy Initiative a également réalisé une estimation pour 2009/2010 dans un premier rapport [76], mais les auteurs indiquent qu’ils ont considérablement modifié leur méthodologie pour les rapports suivants, et nous n’avons donc pas inclus ces estimations antérieures dans notre analyse. Selon son site web, la Climate Policy Initiative est un groupe de réflexion sur la politique climatique qui « a été fondé en 2009 pour aider les nations qui construisent des économies à faible émission de carbone à élaborer et à mettre en œuvre des politiques efficaces en matière de climat, d’énergie et d’utilisation des sols ». Dans leurs rapports, ils reconnaissent explicitement que leurs calculs sous-estiment probablement les dépenses annuelles mondiales, » en raison de problèmes méthodologiques liés à la couverture et aux limites des données, en particulier les dépenses des gouvernements nationaux en matière de financement climatique et les investissements privés dans l’efficacité énergétique, les transports, l’utilisation des terres et l’adaptation » (Buchner et al. 2019, p8) [75]. Néanmoins, ils semblent offrir les estimations les plus complètes disponibles au moment de la rédaction du présent document. Par conséquent, nous pensons qu’elles offrent une ventilation relative utile des dépenses mondiales liées au changement climatique sur la période 2011-2018.
Figure 1. Ventilation des dépenses mondiales totales liées au changement climatique sur la période 2011-2018. Données tirées des rapports Global Landscape of Climate Finance de la Climate Policy Initiative, accessibles sur le site https://climatepolicyinitiative.org/, comme détaillé dans le tableau 1.
Secteur
Dépenses totales, 2011-2018 (période de 8 ans)
Dépenses annuelles moyennes
Pourcentage des dépenses totales
Solaire
1220 milliards US$
152 milliards US$
33%
Éolien
810 milliards US$
101 milliards US$
22%
Biomasse et déchets *
75 milliards US$
9 milliards US$
2%
Hydroelectricité *
75 milliards US$
9 milliards US$
2%
Biocarburants *
25 milliards US$
3 milliards US$
1%
Toutes les autres énergies renouvelables *
170 milliards US$
21 milliards US$
5%
Transport durable
375 milliards US$
47 milliards US$
10%
Efficacité énergétique
250 milliards US$
31 milliards US$
7%
Autres politiques d’atténuation du changement climatique
430 milliards US$
54 milliards US$
12%
Politiques d’adaptation au climat
190 milliards US$
24 milliards US$
5%
Doubles avantages
40 milliards US$
5 milliards US$
1%
Total
3 660 milliards US$
458 milliards US$
100%
* Comme le solaire et l’éolien constituent la majeure partie des énergies renouvelables, la ventilation des « autres énergies renouvelables » n’est pas indiquée dans tous les rapports, de sorte que nous avons estimé les éléments marqués à l’aide des chiffres fournis dans les rapports de 2012 et de 2013.
Tableau 1. Ventilation des dépenses mondiales liées au changement climatique entre 2011 et 2018. Données tirées des rapports annuels et bisannuels Global Landscape of Climate Finance de la Climate Policy Initiative, consultés à l’adresse https://climatepolicyinitiative.org/.
Malgré ces dépenses, qui s’élèvent à 3 660 milliards de dollars sur 8 ans, les émissions mondiales de dioxyde de carbone (CO2) ont continué à augmenter tout au long de cette période (Figure 2). Cela donne l’occasion d’examiner les dépenses afin de déterminer si la voie actuelle est prometteuse de succès. Une explication pourrait être que les dépenses totales sont encore trop faibles, et Buchner et al. (2019) affirment en effet que les dépenses mondiales annuelles devraient augmenter pour atteindre 1,6 à 3,8 trillions de dollars américains afin de réduire de manière substantielle les émissions de CO2 [75]. Cependant, la Figure 1 et le Tableau 1 montrent que 55% des dépenses au cours de cette période ont été consacrées à des projets solaires et éoliens, 10% supplémentaires à des projets de transport durable et 7% à l’efficacité énergétique. En d’autres termes, la plupart des dépenses ont été consacrées aux types de politiques privilégiées par les propositions « zéro carbone » qui ont été fortement critiquées ci-dessus.
Figure 2. Tendances historiques des émissions mondiales de CO2 et des dépenses mondiales liées au changement climatique sur la période 2011-2018. (a) Les chiffres des dépenses sont ceux de la Figure 1. Données tirées des rapports annuels et bisannuels Global Landscape of Climate Finance de la Climate Policy Initiative, accessibles à l’adresse suivante: https://climatepolicyinitiative.org/. (b) Émissions mondiales de CO2. Données de Boden et al. (2018) [4], https://energy.appstate.edu/CDIAC, mises à jour en 2018 par Friedlingstein et al. (2019) [5], https://www.globalcarbonproject.org/.
Dans cette perspective, nous proposons de décrire tout d’abord l’utilisation actuelle de l’énergie dans le monde (section 2). Ensuite, nous examinerons certains des principaux défis techniques associés à la fois aux transitions énergétiques proposées et aux politiques énergétiques actuelles (section 3). Dans la section 4, nous examinerons certaines des principales préoccupations environnementales associées à ces politiques, tandis que dans la section 5, nous nous pencherons sur certaines préoccupations socio-économiques importantes. Dans la section 6, nous résumons les avantages et les inconvénients de toutes les principales sources d’énergie, qu’il s’agisse de celles prises en compte dans la Figure 1 et le Tableau 1 ou de celles qui ne le sont pas. Dans la section 7, nous formulons quelques recommandations sur la manière d’interpréter ces avantages et inconvénients contradictoires.
2. Politiques énergétiques actuelles
Afin d’évaluer le contexte des politiques de dépenses de la Figure 1 et du Tableau 1, il peut être utile d’examiner la consommation mondiale totale d’énergie actuelle et historique. Dans la Figure 3, nous présentons les tendances de 2008 à 2018 telles qu’estimées par BP dans son « Statistical Review of World Energy 2019 » [77], et dans la Figure 4, nous présentons une ventilation plus détaillée pour l’année la plus récente (2018). Il existe plusieurs autres rapports similaires rédigés par différents groupes, et les estimations sont globalement similaires. Nous avons choisi celui-ci parce qu’il était facilement disponible et qu’il était l’un des plus complets et des plus détaillés. Bien que nous reconnaissions le risque qu’une société énergétique privée disposant d’un portefeuille diversifié puisse être incitée à déformer la contribution relative des différentes sources d’énergie à la consommation mondiale d’énergie, nous notons que l’Administration américaine d’information sur l’énergie (EIA) propose des estimations similaires pour les parts du bouquet énergétique mondial en 2018: combustibles fossiles 80,4%, énergies renouvelables 15,4%, et nucléaire 4,2% [78]. Pour une comparaison des rapports de BP avec les autres rapports mondiaux sur l’énergie, voir Newell et al. (2019) [79].
Figure 3. Consommation mondiale d’énergie par source, tendance décennale (2008-2018). Le terme « renouvelable » désigne toutes les énergies renouvelables autres que l’hydroélectricité. Données de BP (2019) [77].
Figure 4. Consommation mondiale d’énergie par source, 2018. Données de BP (2019) [77].
La Figure 4 montre qu’en 2018, le monde produit encore la majeure partie (85%) de son énergie à partir de combustibles fossiles (pétrole, charbon et gaz). Le nucléaire (4%) et l’une des énergies renouvelables, l’hydroélectricité (7%), représentent également des parts importantes du gâteau. En revanche, l’éolien et le solaire ne représentent que 3%, et les autres sources 1%. Cela dit, la Figure 3 montre que les importantes dépenses mondiales consacrées aux projets éoliens et solaires au cours de la période 2011-2018 ont eu un effet sur le fait que l’éolien et le solaire représentaient moins de 0,5% de la consommation mondiale d’énergie en 2010, de sorte que la contribution de l’éolien et du solaire au bouquet énergétique a augmenté de 2,5 points de pourcentage au cours de cette période.
3. Défis techniques des différentes technologies énergétiques
3.1. Le problème de l’intermittence (de l’électricité éolienne, solaire et marémotrice)
Historiquement, les réseaux électriques nationaux ont été presque exclusivement alimentés par des producteurs d’électricité « de base » (parfois appelés « pilotables »). Alors que la demande d’électricité a tendance à fluctuer à différentes échelles de temps, les fournisseurs d’électricité sont tenus de fournir un approvisionnement régulier en électricité pour répondre aux besoins en électricité de base, définis comme des « demandes minimales basées sur des attentes raisonnables des besoins des clients » [80]. Les technologies de production d’électricité de base les plus courantes sont les suivantes: charbon, gaz naturel, pétrole, tourbe, nucléaire, hydroélectricité, géothermie et biomasse. Comme le montre la figure 4, ces sources d’énergie représentent actuellement plus de 96% de l’énergie mondiale.
D’autre part, comme nous l’avons vu dans l’introduction, bon nombre des transitions énergétiques actuellement proposées dépendent fortement d’une combinaison de trois technologies de production d’électricité « intermittentes » (parfois appelées « non pilotables »), à savoir l’éolien, le solaire et l’hydrolien. Certains ont même affirmé qu’il était possible (et souhaitable) de répondre à 100% des besoins énergétiques de la société en utilisant uniquement des énergies renouvelables, principalement éoliennes et solaires [11,12,13,14,15,16,17,18,25,26,27,28,32]. En effet, Jacobson et al [13,14,15,16] préconisent une transition vers des systèmes énergétiques qui génèrent 100% de leur électricité à partir du vent, de l’eau et de la lumière du soleil (« Wind, Water, Sunlight », WWS), c’est-à-dire l’éolien et le solaire complétés par l’énergie marémotrice et l’hydroélectricité. La Figure 1 et le Tableau 1 montrent que 55% du total des dépenses mondiales liées au changement climatique sur la période 2011-2018 ont été consacrées à deux de ces technologies, à savoir l’énergie solaire et l’énergie éolienne. Il convient donc d’examiner les implications du « problème de l’intermittence ». Nous insistons sur le fait qu’il s’agit d’un problème qui ne concernait pas, dans le passé, les réseaux électriques utilisant exclusivement des centrales pilotables.
Contrairement à la production régulière ou à la demande des centrales de base, les technologies intermittentes ne fournissent de l’énergie que de manière intermittente, c’est-à-dire uniquement lorsque le vent souffle (pour l’éolien) ou uniquement lorsque le soleil brille (pour le solaire) ou en fonction des marées (pour le marémoteur). Cependant, la consommation d’électricité par les consommateurs ne suit pas ces périodes de production. Il en résulte des déséquilibres entre l’offre et la demande d’électricité qui deviennent de plus en plus problématiques au fur et à mesure que le nombre de générateurs d’électricité intermittents connectés au réseau augmente. À certains moments, la production d’électricité est trop importante et doit être « réduite », c’est-à-dire rejetée ou diminuée, tandis qu’à d’autres moments, la production est insuffisante, ce qui entraîne des pannes d’électricité.
Un approvisionnement régulier en énergie 24 heures sur 24 est indispensable au fonctionnement sûr et fiable de systèmes tels que les usines de traitement des eaux, les hôpitaux, les systèmes de chauffage et de climatisation domestiques, les usines de fabrication et les systèmes de transport en commun. En outre, la disponibilité de l’énergie est une condition préalable au fonctionnement des services d’urgence, par exemple les équipements de réanimation médicale. Du point de vue du ménage, une énergie fiable est nécessaire pour faire fonctionner un réfrigérateur 24 heures sur 24, et elle doit être disponible en appuyant sur un interrupteur pour fournir l’éclairage nécessaire à n’importe quelle heure de la nuit. En l’absence d’énergie fiable, le ménage risque de subir des pertes alimentaires dues à des pannes de réfrigération, des accidents dus au manque de lumière et une perte de contrôle de la température due à des pannes de chauffage ou de climatisation [81].
La demande d’électricité de pointe est soumise à une série d’incertitudes, notamment la croissance démographique, l’évolution des technologies, les conditions économiques, les conditions météorologiques et les variations aléatoires de l’utilisation individuelle. Elle suit également des modèles de variation en fonction de l’heure de la journée, du jour de la semaine, de la saison de l’année et des jours fériés [82]. La consommation d’électricité d’un ménage dépend fortement des activités des occupants et de l’utilisation qu’ils font des appareils électriques [83]. La Figure 5 illustre les variations de la consommation d’énergie d’un ménage individuel en fonction de l’heure du jour ou de la nuit. Notez en particulier la très faible consommation nocturne, avec des pics occasionnels lorsque les appareils sont allumés pendant de courtes périodes, et la consommation généralement plus élevée pendant la journée, avec de brefs pics de consommation encore plus élevés à intervalles irréguliers. Bien que ces modèles de demande soient assez confus sur une base individuelle, la moyenne de la demande nationale est relativement prévisible lorsqu’elle est calculée sur l’ensemble du pays.
Figure 5. Exemple de profil de demande quotidienne d’électricité domestique, mesuré par intervalles d’une minute, dans une habitation des East Midlands, au Royaume-Uni. (Adapté de la Figure 5 de Richardson et al. (2010) [83]).
Par exemple, la courbe bleue de la Figure 6 montre les variations hebdomadaires et saisonnières de la demande d’électricité en République d’Irlande sur une année complète (2013). On remarque le schéma régulier d’une demande élevée les jours de semaine et d’une demande plus faible le week-end, avec des variations saisonnières qui viennent s’y ajouter. La demande minimale était d’environ 2500 MW en été et d’environ 3000 MW pendant les mois d’hiver 2013. Comparez cela avec la courbe rouge de la figure 6 qui montre le caractère fluctuant de la production d’énergie éolienne en République d’Irlande pour la même année (2013). Les éoliennes ont produit plus de 1000 MW pendant 14% des jours et moins de 100 MW pendant 10% des jours. On notera en particulier les faibles niveaux d’électricité produite la dernière semaine de février, la deuxième semaine de juillet et les derniers jours de novembre.
Figure 6. Variation annuelle de la demande quotidienne d’électricité (bleu) et de l’électricité produite par l’énergie éolienne (rouge), République d’Irlande, 2013. (Données tirées de: séries temporelles téléchargées sur http://www.eirgrid.com/ en janvier 2014).
L’énergie solaire est un peu plus prévisible dans la mesure où l’essentiel de l’intermittence provient du cycle jour/nuit, bien que la variabilité de la couverture nuageuse crée une composante chaotique supplémentaire. Toutefois, pour les latitudes moyennes à élevées, un problème majeur se pose en raison des variations saisonnières de l’ensoleillement total entre l’hiver et l’été. Par exemple, comme le montre la Figure 7, l’énergie solaire disponible en Irlande varie d’un facteur dix entre décembre (0,46 kWh/jour) et juin (4,66 kWh/jour). En outre, la durée du jour en décembre (~8 h) n’est que la moitié de celle de juin (~16 h).
Figure 7. Moyenne mensuelle du rayonnement solaire journalier par m2 sur une surface horizontale à l’aéroport de Dublin, 1976-1984 (adapté du tableau 36 de Rohan (1986)). [84].
Outre la variabilité à l’échelle des jours et des semaines, décrite ci-dessus, les climats locaux varient également d’une année à l’autre, et le changement climatique peut introduire des tendances climatiques à long terme susceptibles de modifier encore davantage la production d’électricité prévue.
Lorsque le pourcentage d’électricité intermittente est relativement faible, les générateurs de base restants peuvent réduire une partie du problème en augmentant ou en réduisant leur production en fonction de l’intermittence. Toutefois, cela soulève plusieurs problèmes. Tout d’abord, le réseau électrique a désormais besoin d’une capacité totale beaucoup plus élevée, car il doit toujours disposer d’une capacité proche de 100%, comme auparavant, afin d’être en mesure de fournir de l’électricité lorsque les générateurs intermittents ne sont pas en service. En outre, la nécessité de passer d’un générateur à l’autre entraîne un gaspillage considérable (tout en réduisant l’efficacité énergétique). Carnegie et al. (2013) notent que l’équilibrage de la production d’électricité et de la charge à l’aide de centrales de base traditionnelles (combustibles fossiles, hydroélectricité et nucléaire) peut être « coûteux en termes de durée de vie du capital et d’inefficacité opérationnelle ». L’ajustement fréquent de la production augmente l’usure des générateurs, réduit leur durée de vie prévue et augmente les dépenses de maintenance. Ce schéma opérationnel entraîne également des inefficacités en termes de coûts et de productivité » [85]. Par ailleurs, si une turbine à gaz est conçue pour la production d’électricité de base, mais qu’elle est ensuite utilisée pour l’équilibrage de la charge en conjonction avec des sources d’énergie intermittentes, l’accélération et la décélération constantes de l’arbre raccourcissent considérablement la durée de vie de la turbine [20].
Diverses solutions ont été proposées pour résoudre le problème de l’intermittence. Une compagnie d’électricité peut tenter d’équilibrer l’alimentation électrique à partir de sources intermittentes sur de très vastes zones en construisant un réseau de transmission étendu et en coordonnant la production d’énergie à partir des différentes sources, par exemple les installations solaires et éoliennes, mais cela nécessite d’importants investissements en capital [50]. Cette approche augmente la capacité minimale nécessaire et peut donner lieu à des « goulets d’étranglement », c’est-à-dire des retards dans le transport de l’énergie vers les grands centres de demande, souvent éloignés des sites de production d’énergie [80]. En outre, les conditions météorologiques ont tendance à affecter des zones géographiques assez vastes à des moments similaires, par exemple, si le temps est exceptionnellement venteux ou calme en France, il est probable qu’il en sera de même en Allemagne. D’autres options incluent « la gestion de la demande, le stockage de l’électricité et l’amélioration de la coordination ou de la prévision des centrales électriques » [80].
Certains chercheurs ont affirmé qu’en principe, le problème de l’intermittence pourrait être réduit grâce au stockage de l’énergie [48,49]. En d’autres termes, lorsqu’un parc éolien ou solaire produit trop pour la demande, il pourrait stocker l’électricité excédentaire à l’aide d’une technologie de stockage de l’énergie. Ensuite, lorsque la demande dépasse l’offre, l’énergie stockée peut être restituée. Cependant, d’autres ont souligné que la capacité de stockage requise serait irréaliste et que des solutions satisfaisantes à ce problème n’ont pas encore été démontrées avec les technologies disponibles [19,21,22,23,24,45].
Par exemple, van Kooten et al. (2020) notent que, bien que Tesla ait récemment « construit ce qui est considéré comme une gigantesque batterie d’une capacité de 100 MW/129 MWh en Australie-Méridionale pour faire face aux pannes résultant de l’intermittence des énergies renouvelables » [24], ils calculent que, si l’État d’Alberta (Canada) devait s’appuyer uniquement sur des sources d’électricité intermittentes pour produire de l’électricité, il aurait besoin de l’équivalent de 100 batteries de ce type. Shaner et al. (2018) ont calculé que même pour atteindre l’objectif moins ambitieux de 80% d’énergie éolienne/solaire aux États-Unis, il faudrait des investissements énormes et sans précédent dans les infrastructures. Les besoins exacts dépendraient du fait que le réseau soit essentiellement éolien ou essentiellement solaire. Pour un réseau à forte composante solaire, il faudrait suffisamment de stockage d’énergie pour surmonter le cycle solaire quotidien, c’est-à-dire 12 heures de stockage d’énergie (~5,4 TW h). Pour un réseau à forte intensité éolienne, il faudrait un réseau de transport d’électricité à l’échelle du continent « pour exploiter la diversité géographique du vent » [22]. Ils ont également calculé que « pour répondre de manière fiable à 100% de la demande annuelle totale d’électricité, les cycles saisonniers et les événements météorologiques imprévisibles nécessitent plusieurs semaines de stockage d’énergie et/ou l’installation d’une capacité d’énergie solaire et éolienne bien plus importante que ce qui est habituellement nécessaire pour répondre à la demande de pointe […] Aujourd’hui, cela serait très coûteux » [22]. Plus généralement, Heard et al. (2017) critiquent » l’absence quasi-totale de preuves historiques de la faisabilité technique de systèmes d’électricité 100% renouvelable fonctionnant à l’échelle régionale ou à plus grande échelle. La seule nation industrialisée qui dispose aujourd’hui d’une électricité provenant à 100% de sources renouvelables est l’Islande, grâce à une dotation unique d’aquifères géothermiques peu profonds, à une hydroélectricité abondante et à une population de seulement 0,3 million d’habitants » [21].
3.2. Le problème de la densité énergétique
Pour comparer les options énergétiques, il est utile de calculer la superficie de terrain nécessaire à chaque technologie énergétique et la quantité d’énergie qu’elle peut fournir. Ce calcul est connu sous le nom de densité énergétique et est défini comme le taux de production d’énergie par temps et par unité de surface au sol (exprimé en W/m2). Smil (2005) souligne que la transition énergétique proposée vers les énergies renouvelables nécessite « un déplacement des ressources dominantes d’un ordre de grandeur plus important que lors de la dernière grande transition énergétique » [86], c’est-à-dire le passage de la combustion de la biomasse aux combustibles fossiles. L’efficacité intrinsèquement faible de la photosynthèse signifie que les récoltes de biomasse ne dépassent pas 1 W/m2, alors que la plupart des extractions de combustibles fossiles se font à des taux supérieurs à 1 000 W/m2. Le remplacement des carburants dérivés du pétrole brut par des biocarburants moins denses en énergie nécessiterait également des surfaces cultivées généralement 1 000 fois et souvent 10 000 fois plus importantes que les surfaces occupées par les infrastructures pétrolières.
La Figure 8 compare les densités énergétiques moyennes pour la plupart des principales sources d’énergie, telles qu’estimées par Zalk et al. (2018) [87]. On constate que les densités énergétiques des sources d’énergie non renouvelables (non ER) sont jusqu’à trois ordres de grandeur supérieures à celles des sources d’énergie renouvelables (ER). En d’autres termes, elles produisent environ mille fois plus d’énergie pour une surface terrestre donnée. Le gaz naturel présente de loin la densité énergétique médiane la plus élevée. Parmi les sources d’énergie renouvelables, l’énergie solaire présente la densité énergétique médiane la plus élevée, mais elle reste inférieure de plusieurs ordres de grandeur à celle du nucléaire ou des combustibles fossiles. Cependant, c’est la biomasse qui présente la densité énergétique la plus faible des neuf technologies.
Figure 8. Densités énergétiques pour la plupart des principales sources de production d’électricité. Les zones hachurées indiquent les valeurs comprises entre les estimations minimales et maximales. (Adapté de van Zalk (2018) [87]).
Dans la section 4.4, nous examinerons les implications négatives de la dépendance accrue à l’égard des sources à faible densité énergétique (en particulier la biomasse/les biocarburants) pour la biodiversité, y compris l’augmentation des taux de déforestation. En outre, dans la section 5, nous examinerons certains des effets socio-économiques négatifs qui y sont associés. Cependant, dans cette sous-section, nous insistons sur les problèmes logistiques simples que cela implique d’un point de vue technique. En effet, il s’agit sans doute du problème d’ingénierie le plus difficile que nous abordons dans ce document en termes de proposition de transition énergétique d’une société qui tire actuellement 89% de son énergie des combustibles fossiles et du nucléaire (85% des seuls combustibles fossiles) à une société qui s’appuie principalement sur les sources d’énergie renouvelables (voir les Figures 3 et 4). Il est vrai qu’avant la révolution industrielle, la société tirait la majeure partie de son énergie de technologies renouvelables à faible densité énergétique similaires à celles de la figure 8 (la majeure partie de l’énergie utilisée provenait du travail humain ou animal, indirectement alimenté par la biomasse, c’est-à-dire la nourriture). Cependant, la population mondiale en 1800 n’était que de ~1 milliard, contre ~7,8 milliards aujourd’hui, et la plupart de ces ~7,8 milliards de personnes ne seraient probablement pas satisfaites d’un retour aux niveaux de vie préindustriels [7,8,9].
Par conséquent, à mesure que les sources d’énergie à haute densité énergétique sont remplacées par des sources d’énergie à faible densité énergétique, la superficie des terres à réserver à la production d’énergie augmente considérablement. En conséquence, l’empreinte énergétique moyenne par habitant (et, comme nous le verrons à la section 4.4, l’empreinte écologique correspondante) [88] augmentera en conséquence. Cela devrait être particulièrement inquiétant pour ceux qui pensent que nous sommes actuellement « surpeuplés » (voir section 3.3.1). Cela devrait également inquiéter les lecteurs qui pensent que les sociétés des pays en développement qui ont actuellement une très faible empreinte énergétique (y compris les quelque 1 milliard de personnes qui n’ont pas accès à l’électricité) devraient être encouragées à augmenter leur empreinte énergétique (voir la section 5).
3.3. Le problème des ressources limitées
3.3.1. Le débat néo-malthusien: « durable » contre « renouvelable »
Malthus (1798) a prévenu que la croissance de la population mondiale (qui était alors d’environ 1 milliard d’habitants) aurait rapidement des conséquences catastrophiques, car la production alimentaire ne pourrait pas suivre le rythme de la croissance démographique. Il a conclu que si les taux de natalité ne diminuaient pas de manière significative et urgente, cela conduirait à la famine et à la dévastation [89]. Bien que la population soit actuellement d’environ 7,8 milliards d’habitants, plus de deux siècles plus tard, ce qui suggère que ses prédictions étaient erronées, sa logique était convaincante pour beaucoup à l’époque.
Une logique équivalente a conduit de nombreux chercheurs à faire des prédictions actualisées dans le même sens au cours des années qui ont suivi [90,91,92]. Essentiellement, la logique suggère que, toutes choses étant égales par ailleurs, si la consommation par habitant d’une ressource limitée est constante ou augmente, mais que la population continue de croître, il arrivera un moment où la demande dépassera l’offre. Si la société est dépendante de cette ressource, cela pourrait avoir des effets dévastateurs. Des analogies avec la population humaine sont parfois faites avec des systèmes écologiques qui connaissent des cycles d’expansion et de ralentissement, par exemple la croissance bactérienne dans une boîte de Pétri contenant une gélose nutritive peut être rapide jusqu’à ce que tous les nutriments soient consommés, stade auquel la colonie peut s’effondrer complètement [90,92]. En raison de la similitude de la logique avec celle qui sous-tend les prédictions de Malthus, cet argument est souvent appelé « argument néo-malthusien ».
Intuitivement, la logique qui sous-tend l’argument néo-malthusien est à première vue convaincante. Cependant, les critiques soulignent invariablement le fait que, empiriquement, les tendances observées sont souvent contraires aux tendances prédites par les théories néo-malthusiennes [44,93,94,95]. Les critiques notent que l’une des principales faiblesses de l’argument néo-malthusien est l’hypothèse selon laquelle la société ne modifie pas son utilisation d’une ressource en réponse aux rapports entre l’offre et la demande. En outre, l’homme peut inventer de nouvelles approches et technologies. Une réponse lapidaire à l’argument néo-malthusien consiste à rappeler que « l’âge de pierre n’a pas pris fin parce que nous n’avions plus de pierre ». Simon, notant que l’ingéniosité humaine nous distingue des bactéries dans une boîte de Petri, est allé jusqu’à qualifier l’humanité de « ressource ultime » [93].
Certains critiques de l’argument néo-malthusien ont même fait valoir que la logique sous-jacente est si défectueuse qu’elle propose le contraire, c’est-à-dire que l’humanité peut continuer à croître dans un avenir prévisible, à condition que nous donnions à nos concitoyens l’occasion de mettre à profit leur ingéniosité. C’est ce qui a conduit certains à qualifier les critiques des arguments néo-malthusiens de « cornucopianisme » [96].
Nous ne nous prononcerons pas ici sur quel côté de ce débat est le plus proche de la vérité, mais nous nous contenterons de noter, tout d’abord, que le débat semble se répéter sous des formes légèrement différentes depuis plus de deux siècles maintenant [94]. Deuxièmement, bien que les néo-malthusiens expriment souvent leurs prédictions sur les tendances futures avec une confiance remarquable [90,91,92], ces prédictions se révèlent souvent rétrospectivement contraires à la réalité [95], en effet la population mondiale est aujourd’hui près de 8 fois plus importante que lors des prédictions initiales de Malthus.
Cela a des conséquences importantes sur ce que nous considérons comme « durable ». Les sociétés diffèrent dans leur conception de la durabilité, telle qu’elle est définie par de nombreuses disciplines et appliquée à une variété de contextes. Cela va du concept de rendement maximal durable dans la gestion des forêts et des pêcheries à la vision d’une société durable dotée d’une économie stable. Brown et al. (1987) [97] ont proposé que la survie indéfinie de l’humanité à l’échelle mondiale nécessite certains systèmes de soutien de base, « qui ne peuvent être maintenus qu’avec un environnement sain et une population humaine stable », ce qui correspond à la perspective néo-malthusienne en incorporant explicitement les tendances de la population humaine dans le tableau. Toutefois, étant donné que l' »empreinte énergétique », l' »empreinte écologique », etc. des individus peut varier dans le temps et d’une région à l’autre [88,98], nous soutenons qu’il est inutile de définir une taille de population « idéale » arbitraire au-delà de laquelle le monde devient « surpeuplé ». Nous suggérons plutôt d’éviter de définir la « durabilité » explicitement ou implicitement en termes de tendances démographiques (c’est-à-dire le paradigme néo-malthusien). Par exemple, Gomiero (2015) affirme que « pour être qualifiée de durable, l’utilisation d’une source d’énergie doit être techniquement réalisable, économiquement abordable, écologiquement et socialement viable, en considérant la société dans son ensemble » [99]. Cette définition ne dépend pas explicitement des tendances démographiques, même s’il est évident que la taille de la population est un facteur important à prendre en compte.
La littérature propose plusieurs définitions de l’approvisionnement en énergies renouvelables (ER). Par exemple, un rapport spécial du GIEC sur les sources d’énergie renouvelables et l’atténuation du changement climatique propose ce qui suit. « L’énergie renouvelable est toute forme d’énergie provenant de sources solaires, géophysiques ou biologiques qui est reconstituée par des processus naturels à un rythme égal ou supérieur à son taux d’utilisation » [100]. Verbruggen et al. (2010) soulignent que cette définition peut être affinée, par exemple en ajoutant la notion que certaines sources renouvelables peuvent être épuisées par la surexploitation. Inversement, ils avertissent que » la qualification des différentes sources d’énergie renouvelables pour mesurer leur degré de durabilité est une question non résolue » [101]. En outre, Acosta (2013) met en garde contre le fait que l’extraction intensive des ressources peut brouiller la distinction entre les sources d’énergie renouvelables et non renouvelables: « En raison de l’ampleur de l’extraction, de nombreuses ressources « renouvelables », telles que les forêts ou la fertilité des sols, sont en train de devenir non renouvelables. En effet, la ressource est épuisée lorsque le taux d’extraction est beaucoup plus élevé que le taux auquel l’environnement est capable de la renouveler. Ainsi, au rythme actuel d’extraction, les problèmes liés aux ressources naturelles non renouvelables peuvent affecter toutes les ressources de la même manière » [102].
Ainsi, nous suggérons qu’il peut y avoir une exploitation non durable d’une source d’énergie renouvelable (par exemple, le défrichement d’une forêt pour la fabrication de granulés de bois) et, inversement, une exploitation durable d’une source non renouvelable (par exemple, la gestion programmée d’une réserve finie de gaz naturel pour une période de planification de 10 ou 20 ans). Par conséquent, la durabilité d’une ressource ne se résume pas à la question de savoir si elle est limitée ou renouvelable, mais à la manière dont elle est gérée en fonction de sa durée de vie ou de son cycle de vie. Par exemple, dans l’histoire, nous pouvons constater que l’utilisation des combustibles fossiles (une ressource non renouvelable) pour l’énergie est apparue précisément parce que la combustion continue du bois (une ressource renouvelable) n’était pas durable. L’utilisation du charbon s’est avérée plus durable que la poursuite de la déforestation [8].
3.3.2. Le « pic pétrolier », le « pic gazier » et le « pic charbonnier »
Depuis que M.K. Hubbert a inventé l’expression « pic pétrolier » dans les années 1950, l’argument selon lequel les ressources telles que le pétrole sont limitées est un motif récurrent dans les discussions sur la politique énergétique [103,104,105,106,107]. L’argument est que, si la société dépend trop du pétrole (ou du gaz), il peut y avoir des conséquences catastrophiques si la demande dépasse soudainement l’offre, parce que nous avons atteint le « pic pétrolier » ou le « pic gazier ». Le lecteur remarquera que cet argument recoupe les arguments néo-malthusiens décrits ci-dessus. En effet, les inquiétudes concernant le « pic pétrolier » sont particulièrement présentes dans les analyses néo-malthusiennes depuis les années 1970 [90,91,92]. Cependant, comme nous l’avons noté plus haut à propos du débat néo-malthusien, les prévisions concernant l’imminence du « pic pétrolier », du « pic gazier » et du « pic charbonnier » sont continuellement revues à la baisse au fil du temps.
En effet, Lior (2008) a noté: « Un phénomène mondial intéressant est que, malgré l’augmentation de la consommation de combustibles fossiles, les quantités de réserves prouvées augmentent également avec le temps, où le rapport ressources/production (R/P) est resté presque constant pendant des décennies à R/P = 40 pour le pétrole, 60 pour le gaz et environ 150 pour le charbon » [108]. Cela signifie qu’il y a au moins 40 ans (pétrole), 60 ans (gaz) et 150 ans (charbon) de réserves aux taux de consommation de 2006, mais qu’il ne faut pas s’étonner si, dans plusieurs décennies, les prévisions concernant le pic du pétrole, du gaz et du charbon auront progressé en tandem. Shafiee et Topal (2009) ont contesté le fait que cette observation empirique soit une hypothèse fiable pour les projections et ont estimé que les réserves ne dureraient que 35 ans (pétrole), 37 ans (gaz) et 107 ans (charbon) aux taux de consommation de 2006 [109]. À l’heure actuelle, c’est-à-dire 10 ans plus tard, BP (2019) estime que les ratios réserves mondiales/production (R/P) sont de 50 ans (pétrole), 51 ans (gaz) et 132 ans (charbon) aux taux de consommation de 2019 [77].
Nous ne tenterons pas de résoudre ces estimations contradictoires dans le présent document. Nous ne suggérons pas non plus que le charbon, le pétrole et le gaz doivent être considérés comme des ressources « inépuisables » (bien que nous renvoyions les lecteurs intéressés à Kutcherov et Krayushkin (2010) pour une analyse intéressante de l’hypothèse controversée selon laquelle le pétrole et le gaz pourraient être d’origine « abiotique », ce qui impliquerait cette possibilité [110]). Nous suggérons plutôt que les politiques énergétiques basées sur des prédictions spécifiques de la date du « pic pétrolier/gazier/charbon » soient traitées avec une grande prudence. Par exemple, en partie sur la base des prévisions du « pic pétrolier », de coûteux terminaux de gaz naturel liquéfié (GNL) ont été construits aux États-Unis au cours de la première décennie des années 2000, afin d’importer de grandes quantités de gaz par des promoteurs anticipant une pénurie imminente de l’offre dans le pays. Cependant, au moment où ces terminaux ont été mis en service, les progrès technologiques dans le domaine de la fracturation hydraulique (« fracking » en abrégé) avaient considérablement augmenté les réserves de gaz accessibles aux États-Unis, faisant du pays un exportateur net de gaz [105,107]. Il a été suggéré que si l’extraction à grande échelle de gaz à partir de réserves sous-marines d’hydrates de méthane devenait économiquement viable à l’avenir, les « réserves de gaz » augmenteraient encore davantage [110,111].
Par conséquent, il existe une incertitude considérable quant à la date exacte du « pic » du pétrole, du gaz ou du charbon, mais il semble que les réserves connues de ces trois types de ressources soient suffisantes pour les quelques décennies à venir au moins. Cela a donné lieu à des perspectives contradictoires de la part des chercheurs préoccupés par le réchauffement climatique anthropique dû aux émissions de CO2, qui se demandent si nous devons continuer à utiliser les combustibles fossiles tant qu’ils sont disponibles en partant du principe qu’il n’en reste plus beaucoup [112] ou si nous devons mener une campagne active pour que les combustibles fossiles restent « inutilisés » en partant du principe qu’il en reste trop [113].
3.3.3. Le problème de la rareté des minéraux
En raison de la multiplication par 10 des quantités de minerais nécessaires aux technologies vertes par rapport aux technologies basées sur les hydrocarbures, Mills (2020) met en garde contre le fait que toute expansion significative de l’énergie verte entraînera « une augmentation sans précédent de l’exploitation minière mondiale », ce qui exacerberait radicalement les problèmes d’environnement et de main-d’œuvre dans les marchés émergents et augmenterait considérablement la vulnérabilité de la chaîne d’approvisionnement en énergie des États-Unis [45]. Capellán-Pérez et al. (2019) soulignent que l’extraction des minéraux nécessaires à la transition proposée vers les énergies renouvelables est susceptible d’intensifier les conflits socio-environnementaux actuels associés à l’extraction des ressources [114]. Comme nous le verrons dans la section suivante, cela suscite des inquiétudes quant à l’incertitude potentielle de l’approvisionnement. Contrairement aux inquiétudes concernant les pics d’hydrocarbures décrites ci-dessus, les besoins prévus en minéraux semblent susceptibles de dépasser les réserves actuelles dans un délai très court, jusqu’à l’année 2030. Cette préoccupation semble particulièrement pressante en ce qui concerne les véhicules électriques, que nous examinons ensuite, puis les préoccupations liées à l’énergie solaire et éolienne.
La production prévue de véhicules électriques (VE) pour remplacer les véhicules alimentés par des combustibles fossiles nécessite la consommation d’une nouvelle gamme de métaux, comme le souligne une lettre d’un groupe de géologues et d’autres spécialistes des sciences de la terre, dirigé par le professeur Richard Herrington, responsable des sciences de la Terre au Musée d’histoire naturelle [58], au Comité sur le changement climatique à Londres, qui avait recommandé d’augmenter le pourcentage de voitures électriques ou hybrides au Royaume-Uni de 0,2% en 2017 à 100% d’ici à 2050.
Herrington et al. préviennent que pour remplacer entièrement le parc automobile du Royaume-Uni (actuellement 31,5 millions) par des VE, il faudrait « un peu moins de deux fois la production mondiale annuelle totale de cobalt, presque toute la production mondiale de néodyme, les trois quarts de la production mondiale de lithium et au moins la moitié de la production mondiale de cuivre en 2018 […] Si nous extrapolons cette analyse à l’estimation actuelle de 2 milliards de voitures dans le monde, sur la base des chiffres de 2018, la production annuelle de cobalt et de néodyme devrait être supérieure à celle de cuivre. Si nous extrapolons cette analyse à l’estimation actuelle de 2 milliards de voitures dans le monde, sur la base des chiffres de 2018, la production annuelle de néodyme et de dysprosium devrait augmenter de 70%, la production de cuivre devrait plus que doubler et la production de cobalt devrait être multipliée au moins par trois et demi pendant toute la période allant d’aujourd’hui à 2050 pour satisfaire la demande » [58]. Ils notent en outre que cette transition proposée pour le Royaume-Uni entraînerait également une augmentation de 20% de la consommation d’électricité dans le pays, en raison de la production supplémentaire d’énergie nécessaire pour recharger les véhicules.
Dans une analyse spatiale de la disponibilité du lithium, Narins (2017) [115] décrit une « ruée contemporaine » pour ce minéral utilisé dans les batteries des véhicules électriques qui est « pleine de contradictions qui peuvent être mieux comprises comme un déséquilibre mondial entre la consommation et la production de lithium. » Si la Bolivie est le pays qui possède les plus grandes réserves connues de ce minéral, elle ne fait pas partie des plus grands producteurs mondiaux et souffre « d’infrastructures peu développées, d’un environnement réglementaire inconstant et d’incertitudes quant à la sécurité des investissements miniers ». Bien qu’il ne pense pas que l’essor de l’industrie sera « en fin de compte » limité par la disponibilité du lithium, parce que de nouvelles réserves et méthodes d’extraction sont en cours de développement, et parce qu’il peut être possible d’utiliser des substituts tels que le zinc, il signale la situation actuelle selon laquelle « la qualité du lithium et le prix sont des facteurs contraignants qui continuent d’apporter de l’incertitude à la croissance et au taux d’expansion de l’industrie mondiale de la voiture électrique » [115].
Même dans le cadre de son modeste « Scénario des Nouvelles Politiques », les projections de l’Agence Internationale de l’Énergie jusqu’en 2030 [116] indiquent que les réserves de cobalt et de lithium sont insuffisantes pour répondre aux besoins des VE (Figure 9).
Figure 9. Augmentation de la demande annuelle de matériaux pour les batteries due au déploiement des véhicules électriques, par scénario, 2018-2030. Les points verts indiquent l’offre actuelle. NPS = Scénario des nouvelles politiques. EV30@30 = 30 % de parts de marché pour les VE d’ici à 2030. (Adapté de la Figure 7 de l’AIE, 2019) [116].
En se basant sur l’hypothèse d’un passage à une électricité 100% renouvelable d’ici 2050, les batteries lithium-ion représentant environ 6% du stockage de l’énergie et 55% de l’énergie pour le transport routier étant fournie par les véhicules électriques, Giurco et al. (2019) [117] considèrent que la demande cumulée de cobalt et de lithium est susceptible de dépasser les réserves actuelles, à moins que les taux de recyclage ne s’améliorent. Ils estiment que la demande annuelle de cobalt pour les VE et le stockage pourrait dépasser les taux de production actuels vers 2023, et que la demande annuelle de lithium pourrait dépasser les taux de production actuels vers 2022. Bien qu’ils considèrent que des taux de recyclage élevés peuvent maintenir la demande cumulée de cobalt et de lithium en dessous des niveaux de ressources actuels, ils avertissent qu’il y aura probablement un délai avant que le recyclage ne puisse compenser la demande, jusqu’à ce qu’il y ait suffisamment de batteries en fin de vie pour être collectées et recyclées.
À partir de recherches approfondies sur le terrain, y compris des entretiens avec des experts, des entretiens communautaires avec des mineurs et des négociants, et des observations dans 21 mines et neuf sites miniers affiliés, Sovacool (2019) [118] a documenté des déplacements de communautés indigènes, des environnements de travail dangereux, le travail des enfants et la violence contre les femmes dans les communautés proches des mines de cobalt. La majeure partie du cobalt mondial étant produite en République démocratique du Congo, les fortes augmentations de la demande liées à l’intérêt mondial pour les VE ont entraîné une hausse du nombre de mines « artisanales » locales qui extraient du cobalt. Plusieurs journalistes ont mis en garde contre le fait que ces mines sont souvent mal réglementées et impliquent parfois le recours au travail des enfants [119,120]. Ces questions socio-environnementales soulèvent d’autres inquiétudes concernant la sécurité de l’approvisionnement.
Capellán-Pérez et al. (2019) identifient les technologies les plus vulnérables à la pénurie de minéraux comme étant les technologies solaires photovoltaïques (tellure, indium, argent et manganèse), les CSP solaires (argent et manganèse) et les batteries Li (lithium et manganèse) [114]. La transition vers des technologies alternatives intensifiera également la demande mondiale de cuivre en exigeant 10 à 25% des réserves mondiales actuelles et 5 à 10% des ressources mondiales actuelles. Les auteurs signalent que « d’autres études envisageant une transition complète vers 100% de SER [sources d’énergie renouvelables] et prenant en compte les besoins en matériaux pour le transport de l’électricité atteignent des niveaux plus élevés, par exemple 60 à 70% des réserves actuelles estimées ».
En modélisant l’hypothèse d’un passage à 100% d’électricité renouvelable d’ici 2050, le solaire photovoltaïque représentant plus d’un tiers de la capacité et le reste étant généré par l’éolien et d’autres énergies renouvelables, Giurco et al. (2019) calculent que pour produire un tiers de l’énergie mondiale à partir de l’énergie solaire d’ici 2050, cela nécessiterait ~50% des réserves actuelles d’argent [117]. Ils considèrent que l’augmentation de l’efficacité de l’utilisation des matériaux a le plus grand potentiel pour compenser la demande de métaux pour le solaire photovoltaïque, tandis que le recyclage a moins de potentiel en raison de la longue durée de vie des métaux du solaire photovoltaïque et de leur plus faible potentiel de recyclage. Ils avertissent également que la baisse des teneurs en minerai peut avoir une influence significative sur la consommation d’énergie dans le secteur minier, associée au traitement des minerais polymétalliques et à l’exploitation de gisements de minerais plus profonds. Ils notent que, bien que l’argent ait un taux de recyclage global de 30 à 50%, il n’y a pratiquement pas de recyclage de l’argent des panneaux photovoltaïques, car la plupart du recyclage des panneaux photovoltaïques se concentre sur le recyclage du verre, de l’aluminium et du cuivre.
Plusieurs types de turbines éoliennes, comme le générateur synchrone à aimant permanent (« Permanent Magnet Synchronous Generator » ou PMSG) [NdT. voir ici], nécessitent des aimants qui orientent les turbines dans le sens du vent. Ces aimants contiennent des métaux rares tels que le néodyme (Nd), le praséodyme (Pr), le terbium (Tb) et le dysprosium (Dy) [121]. La demande estimée de Nd devrait passer de 4 000 à 18 000 tonnes d’ici 2035, et celle de Dy de 200 à 1 200 tonnes [122]. Ces valeurs représentent un quart à la moitié de la production mondiale actuelle [122]. La quantité de déchets toxiques et radioactifs générés par ces activités minières suscite également des inquiétudes. La recherche actuelle se concentre sur la réduction de la dépendance à l’égard de ces matériaux par la réduction et le recyclage [123,124].
La construction de vastes installations d’énergie éolienne et solaire nécessitera de grandes quantités de métaux de base tels que le cuivre, le fer et l’aluminium, qui ne pourront pas être recyclés pendant toute la durée de vie de l’installation, ce qui exacerbera les pénuries (Vidal et al., 2013) [125].
4. Préoccupations environnementales associées aux différentes technologies énergétiques
4.1. Réduction des émissions de gaz à effet de serre
Comme indiqué plus haut, le GIEC définit l’atténuation du climat comme une intervention visant à réduire les sources ou à augmenter les puits de gaz à effet de serre (GES). Cela peut se faire, entre autres, en passant de sources d’énergie à forte intensité de carbone à des sources d’énergie à plus faible intensité de carbone.
Dans la Figure 10, nous avons rassemblé les estimations des émissions moyennes de GES de chacune des principales technologies de production d’électricité à partir de plusieurs sources [126,127,128,129,130]. Les « émissions directes » sont celles qui résultent de l’exploitation des centrales électriques. Les « émissions indirectes » (indiquées par un « * » dans la Figure) comprennent tous les processus et les émissions associées, à l’exception de l’exploitation des centrales électriques, classés comme « en amont » (par exemple, l’extraction et le raffinage du pétrole, l’extraction du charbon et le transport des combustibles) ou « en aval » (par exemple, le démantèlement et l’élimination des déchets). Il convient de noter que, si Weisser (2007) [126] considérait que les éoliennes et l’énergie solaire ne produisaient pas d’émissions, une méta-étude réalisée par Nugent et Sovacool (2014) [127] a mis en évidence toute une série d’émissions opérationnelles. Nous ne tenons pas compte ici de l’augmentation supplémentaire potentielle des émissions biologiques de CO2 provenant des parcs éoliens, qui sera examinée à la section 4.2.4.
Figure 10. Émissions directes et indirectes (*) de gaz à effet de serre des technologies d’approvisionnement en électricité, en grammes de gaz à effet de serre équivalent CO2 par kWh d’électricité produite (gCO2eq/kWhe). Les zones hachurées indiquent les valeurs comprises entre les estimations minimales et maximales. Les données proviennent de diverses sources, comme suit. La plupart des valeurs proviennent de Weisser (2007) [126], mais des estimations supplémentaires pour des technologies individuelles proviennent de Nugent et Sovacool (2014) [127]; Eberle et al. (2017) [128]; Paredes et al. (2019) [129]; Murphy et al. (2015) [130].
La Figure 10 montre clairement que les émissions de CO2 sont fortement corrélées à l’utilisation des combustibles fossiles. Les plus gros émetteurs de CO2 par kWh d’électricité sont le charbon (dont le lignite est une forme qui présente des émissions particulièrement élevées), la tourbe, le pétrole et, dans une moindre mesure, le gaz naturel. Nous incluons la tourbe ici à titre de référence, mais nous notons qu’elle n’est actuellement utilisée que dans quelques pays qui possèdent d’importantes tourbières, par exemple l’Irlande [130].
Comme nous l’avons vu dans la Figure 4, 85% de l’énergie utilisée dans le monde en 2018 provenait du charbon, du pétrole ou du gaz. Par conséquent, l’un des moyens les plus évidents de réduire les émissions mondiales de CO2 serait d’augmenter le pourcentage relatif d’électricité produite par les technologies qui émettent moins de CO2 par kWh. Malheureusement, l’une des principales raisons pour lesquelles 85% de l’énergie utilisée dans le monde provient encore des combustibles fossiles est qu’ils présentent de nombreux avantages en termes de minimisation des problèmes techniques évoqués à la section 3, ainsi que de traitement de nombreux problèmes socio-économiques évoqués à la section 5 [7,8,9]. En tout état de cause, c’est la principale raison d’être de chacune des stratégies suivantes visant à réduire les émissions mondiales de CO2 dues à la production d’électricité.
Du charbon/pétrole au gaz. Passer de l’utilisation du charbon et du pétrole (et de la tourbe), qui émettent le plus de CO2, à l’utilisation d’une plus grande quantité de gaz naturel. Cela permet de conserver de nombreux avantages liés à l’utilisation de combustibles fossiles, tout en réduisant de manière significative les émissions totales de CO2 [131,132,133,134,135,136,137]. Par exemple, de Gouw et al. (2014) ont calculé que « par unité d’énergie produite, les centrales électriques au gaz naturel équipées de la technologie du cycle combiné émettent en moyenne 44% du CO2 par rapport aux centrales électriques au charbon » [131]. Il a également été constaté que la transition vers le gaz réduisait considérablement la pollution de l’air (comme nous le verrons à la section 4.3.1) [131,132,133,134]. Certains ont fait valoir qu’une telle transition pourrait réduire la motivation à abandonner complètement les combustibles fossiles [137,138], et d’autres ont fait valoir que, si une fuite importante de méthane est associée à une telle transition, les émissions nettes de gaz à effet de serre peuvent encore être élevées [139]. Néanmoins, il a été avancé qu’à bien des égards, il s’agit de la transition « à court terme » la plus facile et la plus simple pour réduire immédiatement les émissions mondiales de CO2 (qui continuent d’augmenter, comme le montre la figure 2) [41,131,132,133,134,135,136,137].
Captage et le stockage du carbone (CSC). Pour réduire plus complètement les émissions de CO2, la mise en œuvre de la technologie CSC présente un intérêt considérable. Essentiellement, les émissions provenant de la combustion sont capturées, comprimées dans un fluide dense, puis transportées par des pipelines et injectées dans des installations de stockage souterraines. Les centrales électriques pourraient ainsi continuer à utiliser les combustibles fossiles comme auparavant, avec peu ou pas d’émissions. Sur le papier, cette solution semble presque parfaite pour réduire les émissions mondiales de CO2, et la technologie pour y parvenir existe, mais elle n’a pas encore été mise en œuvre à une échelle suffisamment grande pour réduire de manière substantielle les émissions mondiales [134,140,141,142]. Le principal problème est que le piégeage du carbone consomme 15 à 30% de l’énergie produite par les nouvelles centrales électriques, et l’augmentation des coûts globaux qui en résulte rend actuellement cette option économiquement non viable [142]. En outre, le stockage nécessite des sites géologiques appropriés, tels que des aquifères salins ou des champs pétrolifères abandonnés [142]. C’est pourquoi de nombreuses voix se sont élevées pour dire qu’il fallait intensifier la recherche et le développement afin d’améliorer les technologies de CSC jusqu’à ce qu’elles soient suffisamment viables sur le plan économique pour être mises en œuvre à grande échelle [134,140,141,142].
Amélioration de l’efficacité énergétique. Une autre approche de la réduction des émissions dues à la production d’électricité (et plus généralement à l’utilisation de l’énergie) consiste à réduire la quantité d’électricité (et d’énergie) utilisée par la société, c’est-à-dire à améliorer l’efficacité de l’utilisation de l’énergie. Le coût de l’énergie étant souvent un élément clé du coût de nombreuses activités, on suppose souvent (à tort) que l’amélioration de l’efficacité énergétique a toujours un sens sur le plan économique. Il est clair que de nombreuses améliorations de l’efficacité énergétique peuvent également avoir un sens économique et/ou être émotionnellement satisfaisantes. Toutefois, la consommation totale d’énergie n’est généralement pas le seul facteur à prendre en compte. Par conséquent, dans une enquête sur le secteur du transport maritime visant à évaluer la mise en œuvre de plus de 30 technologies d’efficacité énergétique et de réduction des émissions de CO2, Rehmatulla et al. (2017) ont constaté que « les mesures fortement mises en œuvre ont eu tendance à être celles qui présentent de faibles gains d’efficacité énergétique au niveau du navire, et l’adoption de technologies de réduction du CO2, en particulier les carburants de substitution, est faible malgré leur fort potentiel de réduction des émissions de CO2 » [143]. Même lorsque les mesures d’efficacité énergétique peuvent être rentables, il est bien connu qu’elles ne sont souvent adoptées que lentement – un phénomène appelé « paradoxe de l’efficacité énergétique » [144,145].
Nous pouvons faire comprendre les concepts généraux des compromis impliqués dans les politiques d’efficacité énergétique en examinant la question du niveau d’isolation d’une maison dans un pays de latitude moyenne à élevée. Historiquement, de nombreuses maisons ont été construites sans beaucoup d’isolation à l’esprit – en particulier pour les maisons plus anciennes lorsque le chauffage interne était limité ou inexistant. Par conséquent, pour un coût relativement faible, il peut être facile de transformer une maison mal isolée en une maison modérément isolée. Le retour sur investissement (« return on investment » ou ROI) peut être substantiel et facilement justifié. Cependant, une fois que ces « fruits à portée de main » ont été récoltés, le retour sur investissement des efforts supplémentaires pour améliorer l’isolation diminue car les coûts et les efforts nécessaires tendent à augmenter, tandis que les économies tendent à se réduire. À un moment donné, le retour sur investissement de l’amélioration de l’isolation peut devenir trop faible pour être justifié. En outre, il est souvent moins coûteux et plus facile d’intégrer des techniques et des caractéristiques d’isolation améliorées dans un bâtiment neuf que dans un bâtiment ancien. Par conséquent, à un moment donné, le retour sur investissement lié à la « rénovation » d’un ancien bâtiment peut être moins intéressant que la construction d’un bâtiment hautement isolé à partir de zéro. Voir MacKay (2009) pour une discussion très instructive sur ces questions [146].
Par ailleurs, les économistes débattent depuis longtemps d’un autre problème lié à l’efficacité énergétique, connu sous le nom d’« effet de rebond » [147,148]. On l’appelle aussi parfois le « paradoxe de Jevons » [148], W.S. Jevons ayant suggéré en 1865 que cela pourrait conduire à un « pic de charbon » à la fin du 19e siècle (section 3.3.2). Herring (2006) explique l’argument comme suit: « l’amélioration de l’efficacité énergétique abaisse le prix implicite de l’énergie et rend donc son utilisation plus abordable, ce qui conduit à une plus grande utilisation – un effet appelé « effet de rebond » ou « effet de reprise » » [147]. Si les améliorations sont suffisamment importantes, cela peut même conduire à un effet de « retour », où la consommation totale d’énergie augmente en fait en raison de l’amélioration de l’efficacité. Un exemple historique classique de ce type d’effet est celui de l’ampoule électrique. Une série d’améliorations de l’efficacité énergétique dans les méthodes d’éclairage électrique de la fin du 19e siècle et du début du 20e siècle ont été si importantes qu’elles ont conduit à un marché de masse pour l’éclairage électrique [147,148]. Bien que ces « effets de retour » tendent à être rares, de nombreuses améliorations de l’efficacité énergétique semblent entraîner au moins un certain « effet de rebond », qui réduit partiellement la réduction attendue des émissions [147,148].
Augmentation de l’utilisation du nucléaire. Les défenseurs de l’énergie nucléaire notent que la production d’énergie nucléaire présente de nombreux avantages par rapport à l’électricité produite à partir de combustibles fossiles (voir section 3), sans les préoccupations liées au pic pétrolier/gaz/charbon (section 3.3.2) ou aux émissions [20,21,23,39,41,42,43,44,51,52]. En outre, en étudiant les transitions énergétiques vers le nucléaire réalisées par la Suède et la France entre les années 1960 et 1990, Qvist et Brook (2015) affirment que « si le monde construisait de l’énergie nucléaire à un taux par habitant ne dépassant pas celui de ces nations exemplaires pendant leur expansion nationale, l’électricité produite à partir de charbon et de gaz pourrait être remplacée dans le monde entier en moins d’une décennie » [52]. Cependant, même parmi ceux qui appellent à une réduction urgente des émissions de CO2, l’énergie nucléaire semble susciter une résistance considérable de la part de l’opinion publique.
L’inquiétude du public à l’égard de l’énergie nucléaire semble reposer en grande partie sur deux questions distinctes: (i) l’élimination des déchets radioactifs et (ii) le risque d’accidents [149,150]. En ce qui concerne le risque d’accident, Sovacool et al [151,152] ont compilé d’importantes bases de données sur les accidents majeurs associés à tous les principaux secteurs de l’énergie. Après avoir analysé 1 085 accidents majeurs liés à 11 secteurs énergétiques différents sur la période 1874-2014, Sovacool et al. (2015) ont constaté que, bien que les accidents nucléaires aient représenté 69,9% des dommages matériels, ils ne représentaient que 15,9% du total des accidents et 2,3% de tous les décès associés [151]. Le problème de l’élimination des déchets radioactifs peut être atténué d’au moins deux façons: les réacteurs de troisième génération qui recyclent le combustible, et l’utilisation de dépôts géologiques profonds (DGR) [150]. Les réacteurs de génération IV actuellement en cours de développement semblent présenter des avantages supplémentaires en termes de sécurité, de fiabilité et d’économie [150].
Une autre préoccupation est le risque de dépassement de projet dans le développement de nouvelles centrales, bien que ce soit le cas pour tout mégaprojet [153]. Dans ce numéro spécial d’Énergies, Zawalińska et al. (2020) [154] ont modélisé les effets de la construction d’une nouvelle centrale nucléaire dans l’une des quatre régions de Pologne. Ils ont constaté que le projet se justifiait pour l’une de ces régions, mais pas pour les trois autres. En d’autres termes, les nouvelles centrales doivent être soigneusement étudiées au cas par cas [154] (comme pour tous les mégaprojets [153]).
Utilisation accrue de l’hydroélectricité et de la géothermie. L’énergie hydroélectrique est la première source d’énergie renouvelable au monde [155] et elle peut améliorer la sécurité énergétique en fournissant une énergie abondante, bon marché, fiable et répartissable [73]. Par conséquent, l’augmentation du pourcentage d’électricité produite à partir de l’énergie hydroélectrique au lieu des combustibles fossiles est une approche permettant de réduire de manière significative les émissions de CO2. Cependant, il n’y a que certains sites géographiques où des barrages hydroélectriques peuvent être construits. Par conséquent, si des pays comme la Norvège peuvent compter principalement sur cette option pour leur électricité, ce n’est pas le cas de la plupart des pays. En outre, les modifications du paysage qui en découlent sont souvent énormes. Par conséquent, la construction de barrages hydroélectriques soulève souvent des préoccupations écologiques et sociales considérables [73,155,156].
L’énergie géothermique a également le potentiel de produire de l’énergie de base à bon marché, avec de faibles niveaux d’émissions de CO2. L’énergie géothermique peut être utilisée soit pour la production d’électricité, soit pour une utilisation directe, par exemple pour fournir de l’eau chaude pour le chauffage industriel et domestique [157,158]. Dans de nombreuses régions du monde, les sources thermales produisent régulièrement de grandes quantités de chaleur et de fluides depuis des siècles, et ces sources sont renouvelables tant qu’un équilibre est trouvé entre la décharge en surface et la recharge en chaleur/fluide en profondeur [157]. Dans certaines régions géographiques spécifiques, il peut représenter une ressource importante. Par exemple, elle fournit 69% de l’énergie primaire de l’Islande (29% de l’électricité et 90% du chauffage domestique) [158]. Cependant, les sites présentant des taux de production élevés et durables sont limités et, dans de nombreux cas, non rentables [157].
Des combustibles fossiles à la biomasse/aux déchets. La combustion de la biomasse (par exemple, les granulés de bois) et des déchets organiques pour produire de l’électricité libère au moins autant de CO2 que les combustibles fossiles, car les combustibles fossiles sont essentiellement de la « biomasse » fossilisée qui a été enfouie sous terre pendant des millions d’années. Cependant, comme les plantes poussent en absorbant le CO2 de l’atmosphère (par photosynthèse) et que les animaux se développent en consommant des plantes, d’autres animaux ou des matières en décomposition, on affirme que la combustion de la biomasse et des biocarburants est « neutre en carbone ». En d’autres termes, le CO2 libéré lors de la combustion est compensé par le CO2 absorbé lors de la croissance. Par conséquent, les émissions nettes de CO2 par kWh d’électricité sont calculées pour être beaucoup plus faibles que pour les combustibles fossiles (Figure 10).
D’autre part, comme indiqué à la section 3.2, la biomasse et les biocarburants ont une « densité énergétique » très faible et, par conséquent, comme nous le verrons à la section 4.4, l’impact de l’utilisation accrue de la biomasse sur la biodiversité suscite de nombreuses inquiétudes [51,53,54,55], de même que le fait que des terres agricoles qui pourraient être utilisées pour l’alimentation humaine ou animale sont remplacées par de la biomasse destinée à la production de carburant [159].
Utilisation accrue des énergies renouvelables intermittentes (éolienne/solaire/marémotrice). Comme mentionné à la section 3.1, Jacobson et al [13,14,15,16] préconisent une transition énergétique vers la production de 100% de l’électricité à partir du vent, de l’eau et de la lumière du soleil (WWS). La simplicité de ce récit semble convaincre de nombreux chercheurs et auteurs [11,12,17,18,32] et groupes de défense de l’environnement [25,26,27,28]. En conséquence, l’idée que les formes intermittentes de production d’électricité, complétées par des systèmes hydroélectriques ou de stockage de l’énergie, pourraient offrir une alternative viable aux systèmes actuels est devenue très populaire dans le public. Cependant, comme indiqué dans l’introduction, cette idée a été fortement critiquée car elle n’est pas physiquement plausible [8,19,20,21,22,23,24,26,38,39,41,42,43,44,45], pour les raisons exposées dans la section 3.
La Figure 1 et le Tableau 1 montrent que les dépenses consacrées à la lutte contre le changement climatique se sont principalement concentrées sur quelques-unes de ces stratégies. Plus précisément, 55% des dépenses ont été consacrées à la stratégie 7, c’est-à-dire à l’utilisation accrue de l’énergie éolienne et solaire; 7% ont été consacrés à la stratégie 3, c’est-à-dire à l’amélioration de l’efficacité énergétique; et 2% aux stratégies 5 et 6, c’est-à-dire à l’hydroélectricité et aux projets relatifs à la biomasse et aux déchets. Les stratégies 1, 2 et 4 ne semblent pas être incluses, et la stratégie 7 semble être la principale stratégie poursuivie, au moins pour la période 2011-2018.
Une autre source importante d’émissions de CO2 provient du secteur des transports. À la fin du XIXe siècle et au début du XXe siècle, l’essor des machines à vapeur alimentées au charbon a révolutionné le système de transport de nombreux pays et le secteur des transports était largement alimenté par le charbon. Cependant, au milieu du 20e siècle, en particulier avec l’invention des automobiles fonctionnant au pétrole, le secteur est devenu principalement alimenté par le pétrole [7]. De même, les secteurs de l’aviation et du transport maritime sont principalement alimentés par le pétrole. Par conséquent, le secteur des transports est une source majeure d’émissions de CO2. C’est pourquoi plusieurs des principales stratégies de réduction des émissions de CO2 se sont concentrées sur le secteur des transports:
Biocarburants. La logique de cette stratégie est équivalente à la stratégie (6) pour le secteur de l’électricité, c’est-à-dire qu’elle vise à réduire la quantité de pétrole fossile utilisée en ajoutant des biocarburants au diesel ou au pétrole utilisé par les véhicules. En ce qui concerne la biomasse, on affirme que ces carburants sont « neutres en carbone » parce que le CO2 est absorbé dans l’atmosphère pendant leur culture. Cependant, comme pour la biomasse, les biocarburants ont également une très faible densité énergétique, ce qui soulève des inquiétudes quant à leur impact sur la biodiversité [51,53,54,55] et à la concurrence avec la culture de denrées alimentaires [159]. Un autre problème est que le retour sur investissement énergétique (« Energy Return on Investment », EROI) de la plupart des biocarburants est très faible, de l’ordre de 0,8 à 1,6, alors que celui du pétrole est généralement supérieur à 10 [99,160,161]. L’EROI d’un carburant est la quantité d’énergie qu’il fournit divisée par la quantité d’énergie nécessaire à sa production. Par conséquent, il doit être supérieur à 1 pour fournir de l’énergie supplémentaire à la société, mais il a été avancé qu’il devrait être supérieur à au moins 3 pour une société durable [160].
Amélioration des transports publics. Si un plus grand nombre de navetteurs sont en mesure d’effectuer une grande partie ou la totalité de leurs déplacements en partageant les systèmes de transport public, cela devrait en moyenne réduire les émissions totales de CO2 des navetteurs. Cela est d’autant plus vrai si les transports publics en question ont des émissions de CO2 relativement faibles. Encourager les navetteurs à faire du vélo ou à marcher au lieu de conduire pourrait également réduire leur « empreinte carbone » individuelle. Malheureusement, nous constatons que le développement des transports publics peut parfois entrer en conflit avec d’autres intérêts. Par exemple, lorsque le conseil municipal de Dublin (Irlande) a prévu d’élargir les voies sur un certain nombre d’itinéraires radiaux afin d’y aménager des voies réservées aux bus et aux cyclistes, un tollé s’est élevé en raison de l’inquiétude suscitée par les arbres matures situés en bordure de route qui devraient être abattus pour faciliter la réalisation du projet [162,163]. Si les réseaux ferroviaires suburbains peuvent réduire les émissions de carbone tout en économisant de l’énergie et de l’argent, ils sont exposés aux risques de dépassement des coûts, de retard des projets et d’insuffisance des bénéfices qui vont de pair avec les grands projets d’infrastructure [164]. Par ailleurs, les communautés rurales ne peuvent souvent pas être desservies de manière adéquate par ces systèmes de transport public. Par conséquent, les politiques qui favorisent les systèmes de transport public par rapport aux voitures peuvent être biaisées au détriment des habitants des zones rurales.
Utilisation de véhicules électriques (VE). Si l’électricité utilisée pour alimenter un VE est produite par l’énergie éolienne, nucléaire, solaire ou hydraulique, les émissions de CO2 sont nettement inférieures à celles des véhicules à moteur à combustion interne. Par conséquent, dans des pays tels que la Norvège, l’Islande et le Costa Rica, un automobiliste qui passe à la conduite d’un VE peut réduire considérablement son « empreinte carbone » personnelle [165]. Cela dit, si les émissions de CO2 provenant de la production d’électricité sont élevées, la conduite d’un VE pourrait bien augmenter les émissions totales de CO2. Par exemple, Asaithambi et al. (2019) ont calculé que les VE utilisés en Chine produisent des émissions de CO2 plus élevées qu’une voiture ordinaire, bien que pour les États-Unis, l’Allemagne et le Japon, les émissions moyennes d’un VE étaient inférieures à celles d’une voiture ordinaire [166]. D’autre part, Onat et al. (2015) ont calculé, en analysant les mix de production d’électricité à l’échelle de l’État, que les VE sont l’option de véhicule la moins intensive en carbone dans seulement 24 des 50 États-Unis [167]. Néanmoins, nous pouvons comprendre pourquoi la vente de VE est promue comme étant souhaitable d’un point de vue environnemental. Cependant, nous rappelons aux lecteurs la discussion sur la rareté des minéraux à la section 3.3.3.
Ces mesures sont souvent désignées collectivement par l’expression « transport durable ». Comme le montrent la Figure 1 et le Tableau 1, 10% des dépenses mondiales liées au changement climatique sur la période 2011-2018 ont été consacrées au « transport durable », et 1% aux « biocarburants ».
4.2. Changement climatique causé par les parcs éoliens
La principale raison de l’augmentation substantielle du nombre d’installations de parcs éoliens, qui vise à réduire l’impact du réchauffement climatique d’origine humaine dû aux émissions de gaz à effet de serre (comme décrit à la section 4.1), est remise en question par le fait que le changement climatique n’est pas toujours mondial; il peut également y avoir des changements climatiques locaux et régionaux. En outre, le changement climatique ne se résume pas à un simple changement de température, et il existe d’autres facteurs de changement climatique que les concentrations atmosphériques de gaz à effet de serre. Il est largement reconnu que les changements dans l’utilisation et la couverture des sols (« Land Use and Land Cover Changes », LULCC ou en français, Utilisation des terres, changement d’affectation des terres et foresterie, UTCATF), tels que la déforestation, et les changements dans la gestion des sols (« Land Management Changes », LMC), tels que l’irrigation, peuvent affecter le climat de l’échelle locale à l’échelle mondiale par le biais d’interactions physiques et chimiques entre la terre et l’atmosphère [168]. Il existe donc un risque que toute installation énergétique à grande échelle qui implique des changements dans l’utilisation des terres, la couverture terrestre ou la gestion des terres puisse potentiellement provoquer un changement climatique local, régional et mondial.
En particulier, les recherches menées ces dernières années ont apporté de nombreuses preuves théoriques et empiriques que les éoliennes peuvent avoir des effets locaux ou régionaux significatifs sur le climat. Par exemple, Abbasi et al. (2016) [59] expliquent que « les parcs éoliens à grande échelle avec des éoliennes hautes peuvent avoir une influence sur le temps, éventuellement sur le climat, en raison des effets combinés du déficit de vitesse du vent qu’ils créent, des changements dans le modèle de turbulence atmosphérique qu’ils provoquent, et de la rugosité du paysage qu’ils augmentent ».
Par conséquent, avant de supposer que l’augmentation du déploiement des parcs éoliens « réduira le changement climatique » en ne considérant que la réduction attendue des émissions de dioxyde de carbone par rapport à l’utilisation de combustibles fossiles, il est important de comparer cette réduction attendue du « changement climatique mondial » aux changements climatiques locaux et régionaux supplémentaires qu’elle entraîne. De par leur nature même, les éoliennes ont un impact sur au moins trois aspects de la météo locale, et donc du climat: (1) la température, (2) le vent, et (3) les précipitations. Dans cette sous-section, nous passerons brièvement en revue les connaissances actuelles sur les changements climatiques locaux et régionaux causés par les parcs éoliens. Cependant, nous soulignons qu’il s’agit encore d’un sujet de recherche émergent, en partie parce que l’augmentation du nombre de parcs éoliens au cours des dernières années est sans précédent, et que les impacts environnementaux des parcs éoliens n’ont que récemment commencé à faire l’objet d’une attention particulière de la part de la recherche.
D’autres recherches sont nécessaires pour élargir la base de preuves des impacts d’autres technologies énergétiques telles que les grandes centrales solaires [169] et les barrages hydroélectriques [170] sur le climat par le biais de leurs effets sur l’UTCATC et/ou les LMC.
4.2.1. Changements de température locaux causés par les parcs éoliens
Les parcs éoliens provoquent une augmentation de la température moyenne du sol sous le vent des éoliennes pendant la nuit, par un mécanisme décrit schématiquement dans la Figure 11, adaptée de Armstrong et al. (2014) [171]. Essentiellement, l’augmentation de la turbulence entraîne un mélange accru de la haute et de la basse atmosphère du côté sous le vent des turbines. Cela tend à provoquer un léger refroidissement au niveau du sol pendant la journée et un effet de réchauffement pendant la nuit.
Figure 11. « Schéma des effets potentiels des éoliennes sur le flux d’air, la température et l’évapotranspiration pendant la journée avec une couche limite atmosphérique stable et pendant la nuit avec une couche limite atmosphérique instable. Le fond rose (gris plus clair) représente l’air plus chaud et le fond bleu (gris plus foncé) l’air plus froid. Les flèches roses en pointillé indiquent les tourbillons d’air chaud qui, sous le vent de l’éolienne, se mélangent à l’air plus frais, augmentant ainsi la température de surface nocturne. Inversement, les flèches bleues pleines symbolisent des tourbillons d’air plus frais qui provoquent un refroidissement à la surface pendant la journée. Les flèches horizontales symbolisent la vitesse du vent en amont et en aval des turbines, avec une réduction de la vitesse du vent pendant le jour et la nuit. Les flèches verticales suggèrent des changements hypothétiques dans l’évapotranspiration, avec des augmentations dans des conditions stables et des diminutions dans des conditions instables sous le vent de l’éolienne » – Légende et figure adaptées de la Figure 1a d’Armstrong et al. (2014). Reproduit sous la licence de droit d’auteur Creative Commons CC BY 3.0; https://creativecommons.org/licenses/by/3.0/.
Plusieurs études ont tenté de simuler les changements climatiques causés par les parcs éoliens en comparant une simulation avec un grand parc éolien hypothétique à une simulation de contrôle sans le parc [60,61,64,172,173]. Bien que Fitch (2015) ait affirmé que les effets sur la température moyenne à l’échelle mondiale seraient très faibles et que le réchauffement local moyen annuel serait modeste [173], Wang et Prinn (2010) ont constaté que « l’utilisation d’éoliennes pour répondre à 10% ou plus de la demande énergétique mondiale en 2100 pourrait entraîner un réchauffement de la surface dépassant 1°C sur les installations terrestres » [61]. De même, Miller et Keith (2018) [64] ont constaté que si les États-Unis devaient satisfaire toute leur consommation d’électricité actuelle avec de l’électricité éolienne, cela entraînerait un réchauffement moyen de 0,54°C pour les régions où se trouvent les parcs éoliens, et de 0,24°C en moyenne sur l’ensemble du continent américain. En comparant ces chiffres aux projections de température aux États-Unis selon les modèles climatiques du GIEC, ils ont affirmé que cela impliquerait que « si la demande d’électricité aux États-Unis était satisfaite par de l’énergie éolienne basée aux États-Unis, le réseau de parcs éoliens devrait fonctionner pendant plus d’un siècle avant que l’effet de réchauffement sur le continent américain causé par [les parcs éoliens] ne soit inférieur à l’effet de réchauffement réduit par la diminution des émissions [de CO2] » [64].
Pour compléter ces études basées sur la modélisation, plusieurs études ont tenté ces dernières années d’estimer les changements de température causés par les parcs éoliens de manière expérimentale, par exemple en utilisant des études sur le terrain et/ou des comparaisons par satellite. Nous renvoyons à Abbasi et al. (2016) [59] et Miller et Keith (2018) [64] pour des résumés de la littérature. La figure 12 illustre une étude de cas, adaptée d’une analyse par satellite d’une région de l’ouest du Texas (États-Unis) réalisée par Zhou et al. (2012, 2013) [62,63]. Sur une période de 8 ans, l’installation d’un grand nombre de parcs éoliens dans la région a entraîné un réchauffement nocturne à long terme de ~0,72°C/décennie en été et de ~0,46°C/décennie en hiver, pour les régions des parcs éoliens par rapport aux régions environnantes. Des études équivalentes menées dans l’Iowa (États-Unis) [65] et dans le nord-ouest de la Chine [66] ont donné des résultats similaires.
Figure 12. Résumé de certains résultats clés des études de Zhou et al. (2012) [62]; (2013) [63] sur les effets des parcs éoliens sur les températures régionales à la surface du sol dans le centre-ouest du Texas (États-Unis). Le panneau supérieur montre l’emplacement approximatif de la région étudiée, d’une superficie d’environ 10 005 km2 (~112,8 km × ~88,7 km). Reproduit conformément aux directives d’attribution pour Google Maps et Google Earth, https://www.google.com/permissions/geoguidelines/attr-guide/, Google, 2020. Les panneaux du milieu et du bas montrent l’augmentation des températures nocturnes moyennes du sol dans les régions des parcs éoliens par rapport aux régions environnantes au cours de la période 2003-2011, respectivement en hiver et en été. Adapté de la Figure 1 de Zhou et al. (2012) [62].
4.2.2. Changements dans les régimes de vent induits par les parcs éoliens
Le fait que les parcs éoliens influencent les régimes de vent locaux est, intuitivement, le plus évident. Le « sillage » d’une éolienne, c’est-à-dire le vent du côté sous le vent (c’est-à-dire en aval) de l’éolienne, est généralement associé à une augmentation des turbulences et à une diminution de la vitesse du vent. Bien que la modélisation précise de ces effets soit étonnamment difficile [174,175,176], l’existence de « l’effet de sillage » est maintenant bien établie empiriquement [177,178,179,180,181]. Cet effet de sillage peut couvrir des distances assez longues, en particulier pour les parcs éoliens en mer (dont la rugosité de surface est plus faible que celle des parcs éoliens terrestres). Par exemple, Platis et al. (2018) ont trouvé des preuves d’une réduction significative de la vitesse du vent jusqu’à 70 km sous le vent d’un parc éolien offshore allemand [179]. Cela peut entraîner des problèmes économiques importants lorsque plusieurs parcs éoliens sont construits dans la même région, car les parcs voisins peuvent se retrouver en concurrence pour le même vent [180].
Il a également été suggéré que ces effets de sillage locaux pourraient entraîner des changements à méso-échelle dans les schémas de circulation météorologique, en particulier si les parcs éoliens continuent d’augmenter en taille et en nombre. Par exemple, Barrie et Kirk-Davidoff (2010) [60] ont effectué une simulation à l’aide d’un modèle de circulation générale dans lequel ils ont simulé ce qui pourrait se passer si un parc éolien hypothétique de très grande taille était installé avec une capacité de 2,48 TW. Le parc modélisé occuperait 23% de l’Amérique du Nord et était donc strictement hypothétique. Cependant, ce parc ne couvrirait que 6% de la consommation mondiale d’électricité estimée d’ici 2100 [61], et mérite donc d’être pris en compte si l’idée de fournir une grande partie de l’électricité mondiale à partir de parcs éoliens doit être prise au sérieux. Leurs simulations suggèrent que « les perturbations induites impliquent des changements substantiels dans la trajectoire et le développement des cyclones sur l’Atlantique Nord, et l’ampleur des perturbations dépasse le niveau d’incertitude des prévisions » [60]. En d’autres termes, leur parc éolien hypothétique pourrait potentiellement entraîner des changements substantiels dans les schémas de circulation météorologique. Fiedler et Bukovsky (2011) ont également constaté des effets substantiels dans leur simulation utilisant un parc éolien hypothétique beaucoup plus petit d’une capacité de 0,457 TW [172]. Ils ont même suggéré qu’avec des parcs éoliens de cette taille, il serait possible de modifier la trajectoire des ouragans, mais ont averti que les effets pourraient être quelque peu imprévisibles sans améliorations substantielles des capacités de prévision météorologique.
4.2.3. Modifications des précipitations locales causées par les parcs éoliens
Les effets des éoliennes sur les régimes locaux de précipitations sont moins intuitifs et n’ont pas encore fait l’objet d’autant d’attention de la part des chercheurs. Cependant, nous pouvons avoir une compréhension intuitive de certains des mécanismes en considérant tout d’abord que le but d’une éolienne est d’extraire l’énergie mécanique du vent entrant, pour la convertir en électricité. En d’autres termes, le vent en aval contient moins d’énergie. Par ailleurs, l’humidité relative de l’air est également fonction du contenu énergétique de l’air, c’est-à-dire de sa température. Par conséquent, en extrayant l’énergie mécanique du vent entrant, les turbines peuvent modifier l’humidité relative du vent en aval. La Figure 13 en donne deux exemples visuels, correspondant à deux conditions atmosphériques très différentes au-dessus de la mer du Nord, au large de la côte du Danemark [177,178].
Figure 13. Exemples visuellement frappants de deux versions différentes de « l’effet de sillage » observées à des dates distinctes dans deux parcs éoliens off-shore voisins au large du Danemark, à savoir Horns Rev 1 et 2. (a) Photographie de Christian Steiness d’un exemple d’effet de sillage causé par de l’air froid et humide passant au-dessus d’une surface de mer plus chaude, adaptée de la Figure 2 de Hasager et al. (2013) [177]. Reproduit sous licence de droit d’auteur Creative Commons CC BY 3.0; https://creativecommons.org/licenses/by/3.0/. (b) Photographie de Bel Air Aviation Denmark-Helicopter Services d’un exemple d’effet de sillage causé par de l’air chaud et humide passant au-dessus d’une surface de mer plus froide, adaptée de la figure 2 de Hasager et al. (2017) [178]. Reproduit sous licence de droit d’auteur Creative Commons CC BY 4.0; https://creativecommons.org/licenses/by/4.0/.
Nous n’avons pas pu identifier beaucoup de recherches dans la littérature quantifiant systématiquement les effets des parcs éoliens sur les précipitations locales. Cependant, de manière anecdotique, nous avons été informés de plusieurs incidents de crues soudaines survenues à proximité de parcs éoliens, qui n’étaient pas caractéristiques des régimes de précipitations dans la région avant la construction des parcs éoliens. Dans leur simulation des effets d’un parc éolien hypothétique à grande échelle de 0,457 TW (mentionné ci-dessus), Fiedler et Bukovsky (2011) [172] ont noté qu’au niveau local, « la présence d’un parc éolien peut générer une différence entre sécheresse et déluge pour la saison », mais ils ont noté que ces effets étaient moins prononcés lorsque la moyenne était calculée sur des zones régionales plus vastes. Néanmoins, ils ont simulé une augmentation moyenne de 1% des précipitations dans une zone couvrant plusieurs États. Par conséquent, les effets des parcs éoliens sur les précipitations locales et régionales pourraient être très importants et méritent d’être étudiés plus en détail sur le terrain.
4.2.4. Augmentation des émissions biologiques de CO2 causée par les parcs éoliens
Bien que les effets de réchauffement des parcs éoliens décrits dans la section 4.2.1 soient principalement localisés et tendent à se limiter aux températures nocturnes, nous notons qu’ils introduisent une complication problématique pour ceux qui proposent d’utiliser les parcs éoliens pour réduire les émissions globales de CO2. Il est vrai que la production d’électricité est actuellement une composante majeure des émissions anthropiques de CO2, et que la réduction de la quantité d’électricité produite à l’aide de combustibles fossiles devrait donc réduire cette composante. Cependant, les émissions biologiques annuelles de CO2 provenant de la respiration du sol sont au moins dix fois plus importantes que les émissions anthropiques annuelles totales de CO2 [6,182,183].
En règle générale, les émissions annuelles dues à la respiration du sol sont à peu près équilibrées par l’absorption de CO2 via la photosynthèse, grâce à la production primaire nette (PPN) des plantes et des arbres terrestres. Toutefois, on sait que les émissions totales dues à la respiration du sol augmentent avec la température. Les estimations des taux exacts d’augmentation varient d’une étude à l’autre, et l’extrapolation des résultats d’une forêt des latitudes moyennes [184] ou d’une région tropicale [185] à des estimations mondiales présente de nombreuses complexités (voir Davidson et Janssens (2006) pour un bon examen des difficultés rencontrées) [186]. Néanmoins, la plupart des études suggèrent que le réchauffement des sols entraîne généralement une augmentation des émissions biologiques de CO2 provenant de la respiration du sol [182,183,184,185,186,187]. Par conséquent, étant donné que les émissions globales de CO2 provenant de la respiration du sol sont d’un ordre de grandeur supérieur aux émissions anthropiques, nous suggérons que l’augmentation des émissions biologiques de CO2 causée par les parcs éoliens qui réchauffent les températures nocturnes du sol pourrait potentiellement être d’une ampleur similaire à la réduction des émissions anthropiques de CO2 provenant des parcs éoliens.
4.3. Réduction de la pollution atmosphérique
La plupart des technologies énergétiques, en particulier celles qui reposent sur des processus de combustion, produisent également de petites quantités de pollution atmosphérique indésirable au cours de leur utilisation. Les principales formes de pollution de l’air sont les suivantes.
Les particules (« Particulate matter » ou PM). Elles comprennent les grosses particules de suie et de fumée ainsi que les particules microscopiques qui sont souvent divisées en particules de moins de 10μm (PM10) et en particules de moins de 2,5μm (PM2,5). Le terme « carbone noir » (« black carbon » ou BC) est utilisé pour désigner les particules composées uniquement de carbone.
Divers oxydes d’azote, désignés collectivement sous le nom de NOx
Le dioxyde de soufre (SO2)
Le monoxyde de carbone (CO) – à ne pas confondre avec le CO2
L’ozone troposphérique (O3) – à ne pas confondre avec l’ozone stratosphérique qui se trouve dans la « couche d’ozone ».
Les composés organiques volatils (COV).
Nous pensons qu’il est important de souligner la différence entre la pollution atmosphérique et les émissions de gaz à effet de serre, car dans la culture populaire, ces deux notions sont souvent confondues à tort. Par conséquent, de nombreuses personnes supposent que les politiques visant à réduire les émissions de gaz à effet de serre sont synonymes de réduction de la pollution de l’air, et vice versa. En effet, nous constatons que les articles et les reportages des médias sur le changement climatique et/ou les émissions de gaz à effet de serre incluent souvent des images ou des séquences vidéo de scènes de pollution de l’air (ou parfois des séquences d’échappement de vapeur provenant de l’industrie), voir, par exemple, [188]. Cela peut s’expliquer par le fait que les images médiatiques ou les séquences vidéo de dioxyde de carbone (CO2) sont physiquement impossibles, car le CO2 est un gaz invisible, inodore et insipide. Nous soulignons également qu’en raison de son rôle dans le cycle photosynthèse/respiration, le CO2 est une source de fertilisation qui entraîne une augmentation du verdissement mondial [72,189], indépendamment de sa pertinence en tant que moteur du changement climatique. Par conséquent, dans cette sous-section, nous excluons explicitement les gaz à effet de serre discutés dans la section 4.1 de ce que nous considérons comme la « pollution de l’air ».
Il existe une abondante littérature qui soutient collectivement que toutes les formes de pollution de l’air énumérées ci-dessus sont nocives pour la santé humaine [190,191,192,193,194]. Cependant, la fiabilité, la reproductibilité et/ou la robustesse statistique de nombreuses études qui prétendent avoir identifié des liens de causalité avec des conséquences pathologiques ont été remises en question [194,195,196]. Par exemple, à partir d’un examen des méta-analyses visant à élucider les associations entre les polluants de l’air ambiant et divers effets sur la santé, Sheehan et al. (2016) ont dressé une liste de 30 méta-analyses n’indiquant que des augmentations modestes, voire inexistantes, de la mortalité associées à l’exposition aux polluants susmentionnés [194]. Conscients du fait que les tests d’hypothèses et les modélisations multiples, le p-hacking et le biais de publication peuvent conduire à ce que des effets faussement positifs deviennent des faits établis, Young et Kindzierski (2019) ont évalué un article de méta-analyse très cité examinant la question de savoir si l’exposition à la qualité de l’air déclenche des crises cardiaques. Ils ont constaté que les conclusions de cet article ne résistaient pas à un examen critique, car les formes des graphiques des valeurs p correspondaient à une manipulation de l’analyse dans certains des articles de base [196]. À partir d’une analyse de séries chronologiques d’un vaste ensemble de données sur la qualité de l’air et les décès aigus en Californie, Young et al. (2017) n’ont trouvé aucune association entre l’ozone ou les PM2,5 et les décès aigus, et donc aucune preuve d’un effet causal en Californie. Ils ont constaté que la variabilité quotidienne des décès était principalement expliquée par des variables saisonnières ou météorologiques [195]. Par conséquent, nous conseillons au lecteur de traiter avec prudence les nombreuses affirmations selon lesquelles des liens de causalité ont été identifiés entre la pollution de l’air et les conséquences pathologiques chez l’homme.
Étant donné que tous les polluants atmosphériques susmentionnés sont d’origine naturelle, les décideurs politiques devraient se méfier des politiques dites de « tolérance zéro » en matière de pollution atmosphérique. Toutes les formes de « pollution atmosphérique » susmentionnées seraient présentes dans l’atmosphère à un certain degré même en l’absence de l’espèce humaine, de sorte que les mesures visant à éradiquer complètement la « pollution atmosphérique » sont physiquement impossibles à mettre en œuvre.
Néanmoins, la plupart des gens seraient probablement d’accord pour dire qu’une pollution grave est pour le moins désagréable. Pour cette seule raison, les politiques visant à réduire la pollution atmosphérique dans les régions où la qualité de l’air est préoccupante peuvent souvent bénéficier d’un soutien considérable de la part de l’opinion publique. Nous avons identifié trois sources principales de pollution de l’air qui semblent particulièrement pertinentes pour la politique énergétique :
La pollution de l’air due à la production d’électricité (principalement par les centrales au charbon) et à l’industrie
La pollution de l’air due aux transports, en particulier à la circulation
Pollution atmosphérique due à la combustion domestique de combustibles solides (principalement la biomasse, mais aussi le charbon)
Ces trois facteurs peuvent entraîner des problèmes de qualité de l’air dans les zones urbaines, mais le troisième est également une préoccupation majeure pour de nombreuses communautés rurales dans les pays en développement, en raison de la pollution de l’air à l’intérieur des habitations.
4.3.1. Pollution atmosphérique due à la production d’électricité
La production d’électricité est souvent associée à une certaine pollution de l’air provenant des gaz d’échappement des centrales électriques, par exemple les oxydes d’azote (NOx), le dioxyde de soufre (SO2), les particules (PM), y compris la suie, les composés organiques volatils (COV) et l’ozone. Turconi et al. (2013) [197] ont réalisé une méta-analyse détaillée de 167 études afin d’estimer les émissions moyennes sur l’ensemble du cycle de vie des deux premiers éléments (NOx et SO2) provenant de la plupart des principales formes de production d’électricité. Nous avons représenté les résultats dans la Figure 14.
Figure 14. Estimations des émissions (a) de NOx et (b) de SO2 provenant de la production d’électricité en utilisant différents types de production. Données tirées du Tableau 2 de Turconi et al. (2013) [197].
Questions d’ingénierie
Questions environnementales
Intermittence
Densité énergétique
Limites de la ressource
Émissions de gaz à effet de serre (GES)
Pollution atmosphérique
Questions liées à la biodiversité
Autres questions environnementales
Électricité
Charbon
Non
Haute
Réserves limitées, mais substantielles
Haute
Haute
Modérée
Impacts miniers
Tourbe
Non
Haute
Limitées
Haute
Haute
Haute
Biomes uniques
Pétrole
Non
Haute
Cf. débat sur le « pic pétrolier »
Haute
Moderate
Basse
Marées noires possibles
Gaz naturel
Non
Haute
Cf. débat sur le « pic gazier »
Modérée
Basse
Basse
Impacts potentiels de la fracturation
Nucléaire
Non
Haute
Réserves limitées, mais substantielles
Basse
Basse
Basse
Élimination des déchets, possibilité de « meltdowns »
Hydroélectricité
Non
Basse
Limitées par la géographie
Basse
Basse
Modérée
Modifie l’environnement local
Biomasse
Non
Très basse
Nécessite de vastes superficies
“Neutre en carbone”
Haute
Très haute
En compétition avec l’agriculture
Géothermique
Non
Basse
Limitées par la géographie
Basse
Basse
Basse
Solaire
Oui
Basse
Construction à haute utilisation de ressources
Basse
Basse
Modérée
Élimination des déchets
Éolienne
Oui
Très basse
Construction à haute utilisation de ressources
Basse
Basse
Modérée
Provoque un changement climatique local
Marémotrice
Oui
Basse
Construction à haute utilisation de ressources
Basse
Basse
Basse
Transport
Pétrole
No
Haute
Cf. débat sur le « pic pétrolier »
Haute
Haute
Basse
Marées noires possibles
Biocarburants
No
Très basse
Nécessite de vastes superficies
“Neutre en carbone”
Modérée
Très haute
En compétition avec l’agriculture
VE
*
*
Question majeure
Très basse
Très basse
Basse
Élimination des déchets
Tableau 2. Résumé des problèmes techniques et environnementaux associés à chacune des principales sources d’énergie examinées dans cette étude. Ce tableau n’a pas vocation à être exhaustif ou définitif, mais simplement à fournir un aperçu rapide des principaux sujets décrits plus en détail dans le texte. Par souci de concision, les aspects socio-économiques abordés dans l’étude n’ont pas été pris en compte.
Turconi et al. (2013) ont comparé les émissions de NOx et de SO2 de la production d’électricité à partir de combustibles fossiles, du nucléaire et des énergies renouvelables. Selon leurs données, le charbon (qu’il s’agisse de lignite ou de houille) et le pétrole produisent des quantités considérables de NOx et de SO2, tandis que le gaz naturel et la biomasse produisent des quantités considérables de NOx, mais pas autant de SO2. En revanche, l’énergie nucléaire, l’énergie hydraulique et l’énergie éolienne produisent très peu d’émissions de ces deux polluants, et les émissions associées à l’énergie solaire sont modestes.
L’utilisation du charbon, du pétrole, du gaz naturel (c’est-à-dire les combustibles fossiles) et, dans une moindre mesure, de la biomasse (l’une des énergies renouvelables) pour la production d’électricité est associée à la pollution de l’air par les NOx et le SO2. Par conséquent, une approche pour réduire ces émissions pourrait consister à passer à une combinaison d’énergie nucléaire, hydroélectrique, éolienne et, dans une certaine mesure, solaire. Cependant, une autre approche consiste à réduire les polluants émis avant qu’ils ne quittent la centrale [134]. Plusieurs technologies ont été mises au point pour éliminer les polluants atmosphériques des émissions des centrales thermiques au charbon, notamment les laveurs humides, les précipitateurs électrostatiques (PES) et les filtres en tissu pour éliminer les particules, la réduction catalytique sélective (RCS) et la réduction non catalytique sélective (RNCS) pour éliminer les oxydes d’azote (NOx), et la désulfuration des gaz de combustion par voie humide (DGCVH) pour éliminer le dioxyde de soufre [198]. Des systèmes d’épuration destinés aux systèmes de combustion et de gazéification de la biomasse à plus petite échelle ont également été mis au point [199,200].
Par conséquent, la pollution de l’air peut être largement évitée, même lors de l’utilisation de combustibles fossiles ou de biomasse, à condition que ces systèmes de type épurateur soient installés et exploités. Cependant, ces systèmes augmentent le coût de la production d’électricité et ne sont donc pas encore largement mis en œuvre dans les pays en développement qui donnent la priorité à la réduction des coûts plutôt qu’à la réduction de la pollution. Dans cette optique, une méthode alternative pour réduire (mais pas éradiquer) la pollution de l’air pourrait consister à passer du charbon au gaz naturel. Comme le montre la figure 14, cette transition permet de réduire considérablement les émissions de SO2 et peut parfois réduire partiellement les émissions de NOx [131,132]. Il a également été démontré qu’elle réduisait considérablement les émissions de particules, de fumée et de smog [133]. Une autre approche pour réduire les émissions de SO2 consiste à utiliser du charbon à faible teneur en soufre au lieu du charbon à haute teneur en soufre, plus courant (et généralement moins cher) [201].
4.3.2. Pollution atmosphérique urbaine due aux transports
L’une des principales sources de pollution de l’air dans les zones urbaines est celle qui provient du secteur des transports, c’est-à-dire des voitures, des camions et des transports publics [202,203,204,205,206]. Nous notons que la pollution due au trafic a probablement toujours été un problème pour les zones urbaines, bien que sa forme puisse changer. Par exemple, au 19ème siècle, l’accumulation de fumier de cheval provenant du transport hippomobile était une préoccupation croissante, en particulier dans les villes très fréquentées [207]. Par conséquent, bon nombre des principales politiques de réduction de la pollution atmosphérique urbaine se concentrent sur le secteur des transports.
Dans les pays industrialisés, les contrôles réglementaires des gaz d’échappement des véhicules ont permis de réduire les émissions d’oxydes d’azote, de monoxyde de carbone, de composés organiques volatils et de particules [204]. Toutefois, dans de nombreux pays en développement, les émissions de polluants atmosphériques ont fortement augmenté (Uherek et al., 2010) [202]. En outre, même dans les pays développés où il existe des contrôles réglementaires des émissions, la grande quantité de véhicules dans les zones urbaines (en particulier celles qui connaissent des problèmes de circulation) peut réduire la qualité de l’air.
Une approche consiste à encourager les navetteurs et les citadins à se déplacer plus souvent à pied ou à vélo plutôt qu’en voiture. Cela peut également avoir des effets bénéfiques sur la santé en encourageant les personnes qui auraient autrement un mode de vie relativement sédentaire à faire plus d’exercice. Une approche connexe consiste à encourager l’utilisation des transports publics. Comme nous l’avons vu à la section 4.1, si un grand nombre de navetteurs sont en mesure d’effectuer une grande partie de leurs déplacements dans des transports publics partagés (bus, tramways ou trains, par exemple), cela peut réduire les émissions horaires totales de la zone. Cela dit, il convient de rappeler que si, par exemple, trop de routes ou de voies routières sont réservées aux pistes cyclables ou aux couloirs de bus, cela risque d’accroître les embouteillages parmi les automobilistes restants, ce qui pourrait augmenter les émissions, car les émissions de gaz d’échappement par kilomètre parcouru peuvent augmenter lorsque les voitures ou les camions tournent au ralenti et s’arrêtent/redémarrent en raison des embouteillages.
C’est pourquoi l’accent est mis sur la réduction des émissions des véhicules, par exemple en changeant de type de carburant. Cependant, le changement de type de carburant peut souvent réduire une forme de pollution de l’air et en augmenter d’autres [203,204,205,206].
Une autre approche pourrait consister à encourager les automobilistes à utiliser des véhicules électriques ou hybrides [165,166,167]. Cependant, nous rappelons à nouveau aux lecteurs la discussion de la section 3.3.3, et en particulier les observations de Herrington et al. (2019) [58] et Mills (2020) [45], selon lesquelles la quantité de matériaux limités tels que le cobalt et le lithium qui serait nécessaire pour faire passer ne serait-ce qu’une petite fraction des quelque 2 milliards de voitures à des VE est énorme.
4.3.3. Pollution atmosphérique due à la combustion domestique de combustibles solides
Si un grand nombre de maisons dans une zone urbaine utilisent des combustibles solides (par exemple, le charbon) pour se chauffer et/ou cuisiner, cela peut contribuer de manière significative à la pollution de l’air urbain, y compris à la brume sèche et au smog [193,208,209]. Cela peut également entraîner une importante pollution de l’air à l’intérieur des habitations, ce qui constitue un problème majeur pour de nombreuses communautés rurales, en particulier dans les pays en développement. Environ 3 milliards de personnes dans le monde dépendent des combustibles solides pour la plupart de leurs besoins énergétiques domestiques, dont environ 2,4 milliards utilisent la biomasse (principalement le bois, le charbon de bois, les excréments d’animaux ou les déchets de culture), tandis que le reste utilise le charbon [190,191,210,211,212,213]. La majorité de ces personnes vivent dans des communautés rurales des pays en développement.
La dépendance de ces ménages à l’égard de la biomasse pour la plupart de leurs besoins énergétiques signifie qu’ils peuvent apparaître nominalement comme de grands défenseurs des « énergies renouvelables ». Cependant, la réalité est qu’il ne s’agit pas d’un choix délibéré. Environ 1,3 milliard de personnes n’ont toujours pas accès à l’électricité [213], et pour de nombreuses personnes vivant dans la pauvreté, l’utilisation de la biomasse comme combustible pour la cuisine, le chauffage et/ou l’éclairage est une nécessité pragmatique [210]. Par exemple, Gupta (2020) note qu’« en Éthiopie, plus de 95% des ménages dépendent de l’énergie de la biomasse pour la cuisine et plus de 70 % n’ont pas accès à une énergie électrique fiable, au moins pour les besoins de base (éclairage et appareils électroménagers) » [210]. L’utilisation du bois et du charbon de bois comme combustible principal contribue de manière significative à la déforestation tropicale, en particulier sur le continent africain [214,215]. Cette dépendance à l’égard de la combustion de combustibles solides à l’intérieur des habitations signifie également que de nombreux ménages ruraux sont exposés quotidiennement à des quantités considérables de pollution de l’air à l’intérieur des habitations [190,191,210,211,212,213].
Une façon de réduire la quantité de cette pollution de l’air à l’intérieur des habitations serait d’aider les ménages qui utilisent des cuisinières et/ou des combustibles de mauvaise qualité à passer à des produits améliorés qui génèrent moins de pollution [210,212,213]. Cependant, de manière générale, le principal problème est celui de la pauvreté et/ou du manque d’accès à l’électricité. Il a été suggéré qu’il existe une échelle de la principale source d’énergie des ménages en fonction de l’augmentation des revenus, à peu près comme suit : résidus de culture/fumier animal → bois → charbon de bois → kérosène → gaz de pétrole liquéfié (GPL) → électricité [213]. Par conséquent, nous suggérons que les politiques les plus simples pour réduire le problème mondial de la pollution de l’air intérieur seraient celles qui aident les nations en développement à sortir de la pauvreté et/ou qui fournissent de l’électricité à ceux qui n’en ont pas encore.
4.4. Protection de la biodiversité
McDonald et al. (2009) [53] soulignent que, si de nombreuses études ont quantifié les impacts probables de la perte d’habitat due au climat sur la biodiversité, relativement peu d’études ont évalué l’impact sur l’habitat de l’étendue spatiale de la production d’énergie, ou « expansion de l’énergie ». La biodiversité est définie comme une contraction du terme « diversité biologique », qui fait référence à l’éventail des variétés parmi et entre les organismes vivants [216]. Les lieux, espaces ou zones où vivent les organismes sont appelés « habitats » [217]. En général, la production d’énergie peut avoir un impact sur la biodiversité par le biais de l’utilisation des terres et de la modification de l’occupation des sols (« Land Use and Land Cover Change », LULCC, en français « Utilisation des terres, changement d’affectation des terres et foresterie » UTCATF), de la qualité de l’air et de la qualité de l’eau [53]. L’UTCATF tend à donner lieu au remplacement et à la fragmentation de l’habitat, qui tendent à s’étendre en fonction de l’impact surfacique, alors que les impacts sur la qualité de l’air et de l’eau tendent à ne pas s’étendre.
Le mitage énergétique est défini comme le produit de la production annuelle d’énergie (par exemple, TWh/an) et de l’intensité de l’utilisation des terres pour la production d’énergie (par exemple, km2 par TWh/an). L’intensité de l’utilisation des sols étant l’inverse de la densité énergétique, le mitage énergétique est inversement proportionnel à la densité énergétique et varie de trois ordres de grandeur. Ainsi, l’étalement énergétique associé à l’énergie nucléaire et au charbon est le plus faible, tandis que celui associé à l’électricité produite à partir de la biomasse et aux biocarburants est plusieurs centaines de fois supérieur, et que celui associé à l’énergie éolienne, hydroélectrique et solaire est intermédiaire [53].
En outre, McDonald et al. (2009) [53] soulignent que certaines technologies de production d’énergie impliquent la destruction de tous les habitats naturels dans leur zone d’impact. C’est le cas de l’énergie nucléaire, du charbon, de l’énergie solaire, de l’énergie hydraulique et de la croissance de la biomasse ou des cultures de biocarburants. D’autres technologies de production d’énergie ont une empreinte d’infrastructure relativement faible, avec de plus grandes zones affectées par la fragmentation de l’habitat. C’est le cas des techniques qui impliquent des puits, comme la géothermie, le gaz naturel et le pétrole, pour lesquelles environ 5% de la zone d’impact est due au défrichement direct, tandis que 95% est due à la fragmentation de l’habitat et aux comportements d’évitement des espèces. De même, environ 3 à 5% de la zone d’impact des éoliennes est due au défrichement direct, tandis que 95% est due à la fragmentation de l’habitat, aux comportements d’évitement des espèces et à la mortalité des chauves-souris et des oiseaux.
Grâce à un examen approfondi de la littérature concernant les impacts des énergies renouvelables sur les écosystèmes et la biodiversité, citant des centaines d’auteurs antérieurs, Gasparatos et al. (2017) [55] ont identifié les principaux mécanismes de changement des écosystèmes et de perte de biodiversité pour les filières d’énergie renouvelable, y compris le solaire, l’éolien et la bioénergie, ainsi que les interventions visant à atténuer leurs impacts négatifs. Ces mécanismes sont décrits ci-dessous en ce qui concerne la bioénergie, l’hydroélectricité, l’énergie solaire et l’énergie éolienne.
Les changements directs et indirects dans l’utilisation des terres dus à l’expansion des matières premières de la biomasse pour la production d’énergie ont entraîné une perte d’habitat et de biodiversité, en particulier lorsque la conversion des terres à grande échelle utilisant la production de matières premières monoculturales est adoptée [55]. En outre, les auteurs citent plusieurs analyses du cycle de vie (ACV) qui ont démontré que la plupart des filières de production d’énergie à partir de la biomasse émettent des polluants atmosphériques et aquatiques qui peuvent avoir des effets négatifs sur la biodiversité par le biais de l’eutrophisation, de l’acidification et de la toxicité. Les émissions atmosphériques des principales espèces énergétiques de la biomasse, telles que l’eucalyptus, le peuplier et le saule, contribuent à la formation d’ozone troposphérique, qui est nuisible à la vie végétale.
Ils citent plusieurs études qui donnent des exemples de conséquences négatives sur la biodiversité de la perte et du changement d’habitat dus aux biocarburants dans le monde entier. Par exemple, la culture du palmier à huile en Asie du Sud-Est a principalement remplacé des forêts tropicales primaires/secondaires plutôt que des terres agricoles. Aux États-Unis, le soja pour le biodiesel et le maïs/sucre pour le bioéthanol auront un effet systématiquement plus important sur le changement d’affectation des terres que les autres filières d’énergie renouvelable [55]. Fargione et al. (2010) estiment que la biodiversité est réduite d’environ 60% dans les champs de maïs et de soja aux États-Unis, et d’environ 85% dans les plantations d’huile de palme en Asie du Sud-Est, par rapport à un habitat non converti [54].
L’utilisation d’engrais, le ruissellement de produits agrochimiques et les effluents industriels issus de la production de biocarburants sont des sources majeures de pollution de l’eau au Brésil et en Asie du Sud-Est. Les effets écotoxiques dus à l’utilisation de pesticides peuvent également présenter des risques pour la biodiversité [55].
La couverture par le New York Times Magazine en 2018 de l’huile de palme cultivée pour répondre à un mandat américain en matière de biocarburants illustre la controverse qui peut s’abattre sur le décideur politique qui plaide en faveur des biocarburants [218]. L’article est intitulé: « L’huile de palme était censée aider à sauver la planète. Au lieu de cela, elle a déclenché une catastrophe ». Alors que le bureau de Nancy Pelosi, présidente de la Chambre des représentants, a défendu le mandat, arguant que les biodiesels sont plus propres que les combustibles fossiles, le représentant Henry Waxman affirme que le Congrès était tellement concentré sur la politique climatique nationale qu’il n’a pas vu les répercussions de ses politiques climatiques dans le monde entier. « Nous causons davantage de tort à l’environnement », a déclaré M. Waxman. « C’était une erreur » [218].
Les incidences environnementales de l’énergie hydraulique dépendent de l’échelle et du type d’installation électrique concernée. Les grandes installations hydroélectriques, qui impliquent la création d’un réservoir par la construction d’un barrage sur une rivière, ont un impact beaucoup plus important que les installations « au fil de l’eau » (« Run-of-River », ROR), qui peuvent utiliser un petit barrage pour générer une hauteur d’eau, ou que les installations utilisant la technologie des turbines en cours d’eau, qui ne dépendent pas de la construction d’un barrage sur la rivière [155]. Les barrages fluviaux construits à des fins hydroélectriques ou autres ont un impact sur les variations saisonnières du débit en aval et sur le transport et la transformation des nutriments, notamment le carbone (C), l’azote (N), le phosphore (P) et le silicium (Si), sur toute la longueur du fleuve, du réservoir à l’océan. L’interruption des débits saisonniers peut avoir des effets néfastes sur la flore et la faune aquatiques et estuariennes en raison des modifications de la profondeur, de la salinité et de la température de l’eau. Les modifications des concentrations et des ratios de nutriments peuvent provoquer l’eutrophisation et la prolifération d’algues nuisibles (« Harmful Algal Blooms » ou HAB) dans les zones côtières [219].
Finer et Jenkins (2012) déplorent un manque de planification stratégique en ce qui concerne l’évaluation régionale et à l’échelle du bassin des impacts écologiques potentiels de l’hydroélectricité [156]. À partir d’une analyse de l’impact écologique de 151 barrages de plus de 2 MW dont la construction est prévue au cours des 20 prochaines années, ils ont classé 47% d’entre eux comme ayant un impact élevé et seulement 19% comme ayant un impact faible, et ils ont estimé que 80% d’entre eux entraîneraient une déforestation en raison de nouvelles routes, de lignes de transmission ou de l’inondation des réservoirs. Soixante pour cent des barrages entraîneraient la première rupture majeure de la connectivité entre les sources andines et l’Amazonie de plaine.
Les mesures d’atténuation visant à réduire les impacts des installations hydroélectriques sur les écosystèmes et la biodiversité comprennent (a) la sélection de technologies hydroélectriques ayant des impacts moins graves, (b) l’utilisation d’éléments favorables à la biodiversité tels que les débits de dérivation, et (c) la mise en œuvre de politiques innovantes telles que des mesures réglementaires [55]. Moran et al. (2018) indiquent que les impacts environnementaux des barrages hydroélectriques peuvent être atténués par des installations hydroélectriques qui utilisent la technologie des turbines dans le cours d’eau, également connue sous le nom de « zero-head » (tête zéro), situées dans des rivières dont la vitesse d’écoulement dépasse 1 m/s pour produire une énergie de base régulière et éviter l’intermittence associée à la variation des débits saisonniers [155]. Pour obtenir les meilleurs résultats, ils recommandent que les études d’impact environnemental (EIE) et les études d’impact social (EIS) soient menées par des entreprises indépendantes plutôt que par des entreprises de construction de barrages. Almeida et al. (2019) soulignent qu’une topographie plus abrupte favorise des densités énergétiques plus élevées [220]. Les barrages situés dans les zones montagneuses de Bolivie, d’Équateur et du Pérou ont tendance à avoir des énergétiques plus élevées que les barrages de l’Amazonie brésilienne situés dans les basses terres.
L’énergie solaire à grande échelle (« Utility-scale solar energy », USSE) peut affecter les écosystèmes de multiples façons tout au long de son cycle de vie (c’est-à-dire la construction, l’exploitation et le démantèlement) [55]. La perte d’habitat peut résulter de l’infrastructure de l’énergie solaire, en particulier de l’énergie solaire à grande échelle, car elle occupe des étendues de terre considérables. L’infrastructure de soutien (par exemple, les routes d’accès et l’équipement électrique) et l’espacement entre les panneaux peuvent entraîner un besoin d’espace réel d’environ 2,5 fois la surface totale des panneaux eux-mêmes. Les installations d’énergie solaire ont également été associées à la pollution des sols et de l’eau, car les terres défrichées sont souvent entretenues avec des dépoussiérants et des herbicides [55].
Les mesures d’atténuation proposées pour réduire les impacts du déploiement de l’énergie solaire sur les écosystèmes et la biodiversité comprennent (a) la localisation des installations d’USSE dans des zones à faible biodiversité et (b) le développement de procédures opérationnelles respectueuses de la biodiversité. Les installations d’USSE peuvent parfois être développées dans des zones désertiques qui combinent des niveaux élevés d’ensoleillement avec une couverture nuageuse et une biodiversité relativement faibles. Cependant, certains écosystèmes désertiques abritent des espèces rares et hautement spécialisées qui sont connues pour être particulièrement vulnérables à l’activité humaine [55]. Certains impacts sur les habitats peuvent être réduits en installant des panneaux solaires photovoltaïques sur les toits et les façades des bâtiments, par exemple en milieu urbain, car les panneaux solaires montés sur des structures existantes ne convertissent pas ou ne fragmentent pas les habitats [55].
Les installations d’énergie éolienne peuvent avoir un certain nombre d’impacts écologiques sur les espèces aviaires et aquatiques, selon qu’elles sont situées sur le rivage ou au large [55]. Malgré les nombreuses améliorations apportées à la conception des éoliennes, la mortalité de la faune, en particulier des oiseaux de proie, reste élevée [221,222]. La perte d’habitat sur le littoral peut résulter du fait que les espèces d’oiseaux et de chauves-souris évitent les zones où se trouvent des éoliennes. La modification de l’habitat peut résulter de la collision des oiseaux (en particulier des rapaces) et des chauves-souris avec les éoliennes [221,222,223,224]. On estime à 234 000 le nombre d’oiseaux tués chaque année par les éoliennes rien qu’aux États-Unis [222]. Les chauves-souris souffrent davantage que les oiseaux, l’impact étant estimé à quelques dizaines de chauves-souris tuées par éolienne et par an. La construction de turbines offshore est dangereuse pour les mammifères marins, notamment en raison du bruit généré par le battage des pieux, qui peut être entendu à des distances allant jusqu’à 80 km sous l’eau [225,226]. Les mammifères marins évitent souvent les zones de construction sous-marine et ne reviennent que lentement une fois la construction terminée [225]. Sur une note plus positive, une fois établies, les fondations des turbines peuvent être colonisées par la vie marine, créant ainsi un récif artificiel ou un sanctuaire [227].
Les mesures d’atténuation courantes visant à réduire l’impact de la production d’énergie éolienne sur les écosystèmes et la biodiversité comprennent (a) la localisation des installations éoliennes dans des zones à faible biodiversité et (b) le développement de procédures opérationnelles respectueuses de la biodiversité pour la production d’énergie éolienne. Contrairement à l’énergie solaire, les endroits les plus propices à l’implantation d’éoliennes peuvent également être ceux qui pourraient causer le plus de dommages à la biodiversité aviaire. Par exemple, alors que la plupart des sites proposés pour les parcs éoliens terrestres au Royaume-Uni sont situés dans les hautes terres, ces endroits éloignés et venteux sont également des zones de grande importance pour la conservation des oiseaux. Les procédures opérationnelles respectueuses de la biodiversité consistent notamment à minimiser l’empreinte globale du développement, par exemple en installant les câbles de transmission sous terre, et à minimiser le risque de collision, par exemple en rendant les pales plus visibles ou en les regroupant dans des configurations alignées sur les principales trajectoires de vol [55].
En évaluant l’étendue actuelle et future probable de l’infrastructure de production d’ER associée à l’éolien terrestre, au solaire et à l’hydroélectricité dans les zones de conservation, Rehbein et al. (2020) ont identifié 2206 installations d’ER pleinement opérationnelles situées dans des zones protégées, des zones clés pour la biodiversité et les dernières zones sauvages de la Terre, avec 922 autres installations en cours de développement [228]. Toutefois, Sonter et al. (2020) avertissent que les impacts des activités minières associées aux infrastructures de production d’ER peuvent être plus importants que ceux de leur empreinte spatiale ou d’autres risques environnementaux. En cartographiant l’étendue mondiale des zones potentiellement touchées par l’exploitation minière, ils constatent que les pertes d’habitat associées à l’exploitation minière future des ER pourraient représenter des menaces pour la biodiversité supérieures à celles évitées grâce à l’atténuation du changement climatique [229].
Les combustibles fossiles et l’énergie nucléaire ont également divers impacts sur la biodiversité. Acar et Dincer (2019) ont classé une série de sources d’énergie en fonction d’un certain nombre d’impacts environnementaux, dont la biodiversité [230]. Ils ont constaté que le charbon avait un impact élevé, via ses impacts sur la qualité de l’air, la qualité de l’eau et la contamination des sols, tandis que le gaz avait un impact faible, et le nucléaire un impact modéré à élevé sur la biodiversité. Brook et Bradshaw (2015) [51] s’accordent à dire qu’en raison de sa densité énergétique très élevée et de ses faibles besoins en terrains, l’énergie nucléaire offre de bonnes perspectives de production d’énergie de base avec des impacts modestes sur la biodiversité.
5. Préoccupations socio-économiques associées aux différentes technologies énergétiques
Dans la section 4.3.3, nous avons noté que, dans les pays en développement, environ 1,3 milliard de personnes n’ont toujours pas accès à l’électricité. En outre, nous avons noté que ~3 milliards de personnes dépendent de la combustion domestique de combustibles solides pour la plupart de leurs besoins énergétiques (cuisine, chauffage et éclairage), et que pour la plupart d’entre elles (~2,4 milliards), ces combustibles sont généralement constitués de bois, de charbon de bois, de déjections animales ou de déchets de cultures [190,191,210,211,212,213]. Techniquement, ces combustibles « biomasse » sont des « énergies renouvelables », mais comme indiqué à la section 3.3.1, cela n’implique pas que leur utilisation soit « durable ». Techniquement, la biomasse est considérée comme « neutre en carbone », et la promotion de l’utilisation de la biomasse (et des « biocarburants » correspondants) est donc l’une des stratégies de réduction des émissions de gaz à effet de serre (section 4.1). En effet, le Tableau 1 montre qu’au moins 3% des 3,66 trillions de dollars de dépenses mondiales liées au changement climatique sur la période 2011-2018 ont été consacrés à des projets relatifs à la « biomasse et aux déchets » et aux « biocarburants ».
Par conséquent, nominalement, on pourrait affirmer que, pour ce qui est de maintenir les émissions de CO2 à un faible niveau, ces pays en développement sont parmi les plus performants. Comme nous l’avons vu à la section 4.1, nombreux sont ceux qui considèrent actuellement la réduction des émissions de CO2 comme l’une des principales priorités mondiales, notamment en termes de préservation de l’environnement. Cependant, la réalité est que ce « succès » apparent n’a rien à voir avec les politiques de protection de l’environnement, mais résulte principalement de la pauvreté, en particulier dans les communautés rurales. En effet, il a été démontré que l’utilisation de la biomasse comme combustible solide dans les communautés rurales est un facteur important de la déforestation tropicale, en particulier sur le continent africain [214,215].
De manière plus générale, un grand nombre d’ouvrages ont trouvé des preuves empiriques que la « courbe environnementale de Kuznets » (CEK) semble s’appliquer à de nombreux indicateurs environnementaux, mais pas à tous [136,231,232,233,234]. L’hypothèse de la courbe de Kuznets environnementale s’est développée dans les années 1990, en partie à partir de débats antérieurs entre les néo-malthusiens et les cornucopiens dans les années 1970 (section 3.3.1). En 1955, Simon Kuznets a proposé une relation de « courbe en U inversée » entre l’inégalité des revenus et la croissance économique, c’est-à-dire qu’à mesure qu’un pays se développe économiquement, l’inégalité des revenus augmente dans un premier temps, mais qu’après un certain point d’inflexion, la poursuite de la croissance économique commence à réduire à nouveau l’inégalité des revenus. C’est ce que l’on a appelé la courbe de Kuznets.
À partir des années 1990, de nombreuses études ont trouvé des preuves empiriques considérables que pour de nombreux indicateurs environnementaux, en particulier ceux associés à la pollution atmosphérique locale (section 4.3), il semble y avoir une relation similaire entre la croissance économique et les impacts environnementaux [136,231,232,233,234], c’est-à-dire la courbe environnementale de Kuznets (CEK). Cela signifie qu’à court terme, encourager les pays en développement à se développer peut entraîner une dégradation de l’environnement, mais qu’à long terme, une fois qu’ils ont franchi les « points d’inflexion » pertinents, la poursuite du développement réduira la dégradation de l’environnement. Cependant, les mêmes analyses qui révèlent que la CEK s’applique aux formes locales de pollution montrent également qu’elle ne s’applique pas aux problèmes de nature plus globale, par exemple les émissions de CO2 [10,231,232,234].
Au contraire, en moyenne, les émissions de CO2 semblent augmenter avec le développement économique. Cela a conduit ceux qui accordent la priorité à la réduction des émissions mondiales de CO2 à avertir explicitement que nous ne devrions pas compter sur la CEK pour parvenir automatiquement à des réductions d’émissions de CO2. Au lieu de cela, ils affirment qu’il faut concevoir de nouvelles voies de développement qui intègrent explicitement la réduction des émissions de CO2 en tant que priorité supplémentaire [10,232,234].
Nous souhaitons souligner certains corollaires importants de ce qui précède:
L’objectif de réduction des émissions mondiales de CO2 est directement opposé aux voies standard de développement économique qui ont été suivies historiquement.
Nous insistons sur le fait que cela n’exclut pas en soi la possibilité d’autres voies de développement économique qui réduisent également les émissions mondiales de CO2. En effet, comme nous l’avons vu à la section 4.1, la France et la Suède sont deux exemples notables de pays développés qui ont combiné croissance économique et émissions de CO2 relativement faibles en investissant dans le nucléaire [52]. Par conséquent, la recherche sur les possibilités de nouvelles voies de développement économique est justifiable et louable [10,52,232,234]. Toutefois, nous devons reconnaître que les nouvelles voies, de par leur nature même, n’auront pas été testées dans la même mesure que les voies historiques standard.
Hormis les émissions de CO2, et malgré les prédictions néo-malthusiennes évoquées à la section 3.3.1, les études CEK confirment que les voies classiques du développement économique conduisent en fait à des réductions de la dégradation de l’environnement pour de nombreux aspects de l’environnement, en particulier ceux associés à la pollution locale.
En d’autres termes, les voies les plus directes pour aider les nations à se développer et/ou réduire la pauvreté dans le monde sont fondamentalement en contradiction avec l’objectif de réduction des émissions de CO2. Nous pensons que même dans les pays développés, les politiques visant à réduire les émissions de CO2 sont souvent en contradiction avec l’amélioration des moyens de subsistance des personnes les moins aisées de la société.
Par exemple, un outil politique souvent présenté comme potentiellement utile pour réduire les émissions de CO2 est la mise en œuvre de « taxes sur le carbone ». Les taxes sur le carbone peuvent prendre de nombreuses formes, mais elles pénalisent généralement l’utilisation de formes d’énergie associées à des émissions de CO2 relativement élevées. Les chercheurs qui étudient les implications socio-économiques de diverses taxes sur le carbone dans plusieurs pays ont constaté que les taxes sur le carbone « tendent à être régressives », c’est-à-dire que la charge tend à être plus importante pour les ménages les plus pauvres [235,236,237,238,239,240]. En d’autres termes, si la taxe absolue payée par les ménages plus riches est souvent plus élevée, en pourcentage de leur revenu, elle tend à être beaucoup plus faible. Des suggestions ont été faites sur la manière d’atténuer partiellement cette nature régressive, par exemple en associant explicitement la taxe carbone à des allégements fiscaux supplémentaires pour les groupes à faibles revenus pour d’autres taxes, ou en redistribuant une partie des recettes fiscales directement aux groupes à faibles revenus par le biais de suppléments de protection sociale [235,236,237,238,239,240]. Toutefois, cela indique que les taxes sur le carbone ont une tendance sous-jacente à une plus grande inégalité des revenus.
Les taxes sur le carbone peuvent également être défavorables aux habitants des zones rurales [239,240,241,242], par exemple si la taxe sur le carbone est conçue pour encourager l’utilisation de systèmes de transport public qui ne desservent pas correctement les communautés rurales. En effet, le mouvement de protestation des Gilets Jaunes en France, qui a débuté à la fin de l’année 2018, semble avoir été motivé par le ressentiment à l’égard de l’augmentation des taxes carbone sur les carburants, qui étaient perçues comme injustement biaisées contre les communautés rurales qui dépendaient davantage des transports motorisés [241,242]. (Le nom fait référence aux gilets jaunes à haute visibilité que les automobilistes sont obligés de garder dans leur voiture en vertu de réglementations récentes, et qui ont donc été portés comme symbole du mouvement). Prud’homme (2019) note l’ironie du fait que la France se trouve être déjà l’une des nations développées les plus décarbonées, puisque le réseau électrique français est composé à 85% de nucléaire et d’hydroélectricité [242].
Chancel et Piketty (2015) notent que les taxes sur le carbone présentent un caractère régressif supplémentaire lorsqu’elles sont considérées à l’échelle internationale [243]. En d’autres termes, l’introduction d’une même taxe carbone dans plusieurs pays aura tendance à faire peser des charges plus lourdes sur les pays à faible revenu. Dans cette optique, ils ont proposé la possibilité de créer une « taxe carbone » mondiale vers un « fonds d’adaptation au climat » où les taxes seraient plus importantes pour les pays à fortes émissions, et les fonds seraient principalement distribués aux pays en voie de développement [243].
Ce conflit entre les voies classiques du développement économique et la réduction des émissions de CO2 est d’autant plus ironique que les pays en développement sont souvent les moins bien adaptés pour faire face au changement climatique et/ou aux phénomènes météorologiques extrêmes. Par exemple, alors que les ouragans peuvent causer des dégâts considérables lorsqu’ils touchent terre aux États-Unis [244], de nombreux pays voisins dans les Caraïbes ou le long du Golfe du Mexique sont particulièrement vulnérables [245,246]. Bien que des recherches récentes aient confirmé qu’il n’y avait pas de tendance à long terme dans le nombre ou l’intensité des ouragans qui touchent terre dans la région [244,247], la nature destructrice de ces phénomènes météorologiques extrêmes, associée à la rareté avec laquelle ils frappent une région donnée, peut avoir des effets dévastateurs. Par conséquent, les investissements dans les infrastructures « d’adaptation au climat », par exemple une meilleure résilience aux ouragans [245] ainsi que de meilleurs systèmes de réponse aux ouragans, peuvent être des investissements utiles dans les zones à risque d’ouragans [67,248]. Cependant, ces investissements nécessitent souvent des investissements économiques importants qui peuvent être hors de portée des pays à faible revenu. Dans cette optique, il est surprenant que seulement 5% des dépenses mondiales liées au changement climatique sur la période 2011-2018 aient été consacrées à des projets d' »adaptation au climat » ( Figure 1 et Tableau 1).
Nous sommes d’accord avec Pielke Jr [67,248] et Chancel et Piketty (2015) [243] pour dire qu’il est logique d’investir davantage dans « l’adaptation climatique » si la société veut mieux répondre au changement climatique et aux conditions météorologiques extrêmes. Cependant, nous constatons également que l’un des principaux moyens d’aider les pays en développement à améliorer leur résilience aux phénomènes météorologiques extrêmes est d’encourager leur développement économique. En particulier, il est essentiel d’avoir un accès continu à une infrastructure électrique et énergétique abordable et fiable. Dans cette optique, Epstein (2014) a présenté le « cas moral des combustibles fossiles » [8], affirmant que les voies standard du développement économique faisant un usage intensif du charbon, du pétrole et/ou du gaz ont été bien testées et devraient être encouragées. D’autres avertissent que cela conduirait à des augmentations substantielles des émissions de CO2 et favorisent le développement du nucléaire à la place [20,21,23,42,43,44,51,52]. Helm (2018) affirme qu’une transition temporaire du charbon et du pétrole vers le gaz pendant quelques décennies pourrait offrir un compromis entre les deux approches, ce qui laisserait le temps d’une transition énergétique plus lente à long terme [41].
Enfin, nous notons qu’il y a souvent des conflits sociétaux associés aux politiques énergétiques lorsqu’elles ont un impact sur les peuples autochtones sans consultation adéquate. Klein (2015) décrit les luttes menées par les peuples autochtones au Canada et en Australie pour empêcher l’industrie des combustibles fossiles de dégrader leurs terres et leurs eaux [17], mais les matériaux nécessaires à la production d’autres sources d’énergie risquent également d’avoir de graves répercussions sur les peuples autochtones, comme par exemple
l’extraction d’argent sur les peuples autochtones Xinca du Guatemala [117]
l’extraction du lithium sur les communautés d’Atacama en Argentine [249]
l’extraction du cobalt sur les peuples autochtones du Katanga, en République démocratique du Congo [250]
l’extraction d’uranium sur le peuple Mirarr du Territoire du Nord de l’Australie [251].
Les barrages hydroélectriques peuvent également avoir de graves répercussions sur les Munduruku [252] et d’autres peuples autochtones du bassin amazonien [156].
En outre, Gilio-Whitaker (2019) [253] et Estes (2019) [254] ont détaillé les impacts d’une série d’industries énergétiques sur les droits fonciers des Amérindiens. Gilio-Whitaker considère la contamination des terres et des eaux indiennes pour l’extraction d’uranium et de combustibles fossiles, ainsi que l’inondation de terres ancestrales pour la construction de barrages hydroélectriques, comme des processus de déplacement et de colonisation des Amérindiens. Estes [254] documente également l’histoire de la construction de barrages hydroélectriques en tant que moteur de la dépossession des Lakota et des déplacements forcés de populations de leurs terres traditionnelles vers les centres urbains. Les deux auteurs ont détaillé la série d’événements par lesquels le Dakota Access Pipeline a été posé à travers les terres amérindiennes du Dakota du Nord, sans le consentement de la tribu sioux de Standing Rock, dont les terres et les eaux risquent d’être contaminées par les fuites de l’oléoduc. Du point de vue de ces universitaires indigènes, il semble que l’État colonisateur s’engage systématiquement dans des pratiques coercitives pour empiéter sur les terres indigènes, quelle que soit la technologie énergétique en cours de développement. Kelly (2016) note que l’absence de consultation est l’une des causes de l’échec de projets ambitieux, ce qui semble pertinent dans ce contexte: quelles que soient les technologies énergétiques choisies, la consultation des peuples autochtones est nécessaire pour sauvegarder les droits fonciers, l’équité sociale et le bien-être [20].
6. Discussion
Dans l’introduction, nous avons affirmé qu’aucune des principales sources d’énergie actuellement disponibles ou utilisées (section 2) ne devait être considérée comme une « panacée ». Au contraire, chaque source d’énergie a ses avantages et ses inconvénients et nous recommandons aux responsables de la politique énergétique de tenir compte des deux. Dans le Tableau 2, nous résumons les principales préoccupations techniques et environnementales que nous avons examinées dans les sections 3 et 4, respectivement, pour chacune des principales sources d’énergie. Par souci de concision, nous n’avons pas inclus les préoccupations socio-économiques qui ont été examinées à la section 5, mais nous recommandons qu’elles soient également prises en compte de manière explicite.
Dans la section 3.1, nous avons noté que les trois sources d’énergie « intermittentes » (ou « non pilotables »), à savoir l’énergie éolienne, solaire et marémotrice, ne conviennent pas du tout aux sociétés qui ont besoin d’un approvisionnement en électricité continu et à la demande. C’est en effet la norme depuis que l’ère de l’électrification a commencé au début du 20e siècle. Nous demandons instamment aux décideurs politiques de reconnaître que les politiques qui s’appuient sur l’une de ces trois sources dans le cadre de leur réseau seront confrontées à des problèmes croissants d’instabilité du réseau avec l’augmentation de la pénétration du réseau. Bien que les défenseurs de ces trois sources laissent entendre que ces problèmes peuvent être partiellement surmontés par l’utilisation de technologies de stockage de l’énergie et/ou de grands réseaux de transmission à l’échelle continentale, cela semble être basé plus sur des vœux pieux que sur le pragmatisme.
Nous notons que les parcs éoliens sont également à l’origine d’un changement climatique local considérable (section 4.2) et peuvent poser des problèmes pour la biodiversité (section 4.4). Bien que les parcs éoliens soient associés à des émissions directes de CO2 relativement faibles (section 4.1), nous suggérons que l’effet local de réchauffement nocturne du sol des parcs éoliens peut conduire à une augmentation des émissions biologiques de CO2, ce qui peut annuler une partie (ou peut-être la totalité) des économies réalisées par rapport à d’autres sources d’énergie (section 4.2.4).
En termes de densité énergétique, les trois principaux combustibles fossiles (charbon, pétrole et gaz) et le nucléaire sont de loin supérieurs à toutes les énergies renouvelables (section 3.2). Actuellement, ces quatre technologies représentent 89% de l’utilisation mondiale d’énergie (section 2), de sorte que les politiques qui réduisent considérablement ce pourcentage peuvent potentiellement entraîner des problèmes d’ingénierie en raison de la réduction de la densité énergétique. Nous constatons que la densité énergétique de la biomasse et des biocarburants est de loin la plus faible. Par conséquent, les politiques qui augmentent de manière significative l’utilisation de la biomasse et/ou des biocarburants nécessiteront des superficies particulièrement importantes. Dans la section 4.4, nous notons que cela peut conduire à une augmentation de la déforestation et à des impacts majeurs sur la biodiversité.
Dans la Section 4.4, nous notons également que l’hydroélectricité peut entraîner des menaces pour la biodiversité et contribuer à la déforestation. L’hydroélectricité peut également susciter des préoccupations socio-économiques, en raison du déplacement des populations de la région. Dans la section 5, nous avons noté qu’il s’agit d’une préoccupation particulière pour les peuples indigènes dans certaines régions, comme le bassin du fleuve Amazone.
L’une des principales limites de l’hydroélectricité et de la géothermie est que ces deux technologies dépendent fortement des exigences géographiques locales (section 4.1). La géothermie peut être très efficace dans les régions dotées de sources thermales (par exemple, l’Islande), et l’hydroélectricité peut être très efficace dans certaines régions montagneuses dotées de grandes rivières locales (par exemple, la Norvège). Cependant, les sites appropriés sont assez limités géographiquement.
Les trois principaux combustibles fossiles (charbon, pétrole et gaz) ont alimenté collectivement la majeure partie de la révolution industrielle depuis le XIXe siècle et, en 2018, ils fournissent encore 85% de l’énergie mondiale. Comme il s’agit de ressources limitées, on s’inquiète de savoir combien de temps la société pourra continuer à en dépendre. Toutefois, comme indiqué à la section 3.3.2, les réserves connues estimées de charbon, de pétrole et de gaz devraient fournir suffisamment d’énergie aux taux actuels pendant encore plusieurs décennies au moins, et historiquement, les réserves connues ont continué à augmenter au fil du temps, surprenant les commentateurs qui avaient prédit le « pic pétrolier », le « pic gazier » ou le « pic charbonnier ». Par conséquent, bien que nous devions reconnaître qu’il s’agit de ressources limitées, elles sont encore abondantes, du moins pour l’instant.
D’autre part, à la section 4.1, nous avons vu que ces combustibles fossiles sont les plus gros émetteurs nets de CO2 par kWh d’électricité, et à la section 4.3, nous avons noté que leur utilisation est associée à la pollution de l’air, bien que diverses approches aient été proposées pour réduire la quantité de pollution de l’air.
Par ailleurs, nous n’incluons pas la tourbe parmi les trois combustibles fossiles mentionnés ci-dessus, car les ressources en tourbe sont relativement limitées et ne représentent une part importante de l’utilisation de l’énergie que dans quelques endroits, par exemple en Irlande [130], bien que De Decker (2011) ait noté que la tourbe était un combustible important au Moyen-Âge préindustriel aux Pays-Bas [255].
Enfin, l’énergie nucléaire a suscité beaucoup d’inquiétudes de la part du public, principalement en ce qui concerne les accidents potentiels et/ou l’élimination et la gestion sûres des déchets. Cela dit, à la section 4.1, nous avons noté que si les accidents nucléaires ont été en moyenne les plus coûteux, ils n’ont été à l’origine que de 2,3% des décès dus à des accidents liés à l’énergie. En outre, les partisans du nucléaire affirment que la question de l’élimination et de la gestion des déchets peut être résolue de manière satisfaisante, et qu’elle l’est déjà.
7. Conclusions
Étant donné que toutes les sources d’énergie ont leurs avantages et leurs inconvénients, le lecteur peut se demander lesquelles utiliser. Nous suggérons aux décideurs politiques qui tentent de choisir entre plusieurs politiques énergétiques de réfléchir à leurs principales priorités et aux priorités sur lesquelles ils sont prêts à faire des compromis. Ces priorités peuvent varier d’un pays à l’autre et évoluer dans le temps.
Supposons par exemple qu’un gouvernement considère la réduction des émissions de CO2 comme l’une de ses principales priorités. Dans la section 4.1, nous avons suggéré sept approches différentes pour y parvenir, mais nous avons noté que chacune d’entre elles entrait en conflit avec d’autres priorités (également résumées dans la section 6). Si la protection de la biodiversité est également une priorité absolue, l’utilisation de la biomasse doit être évitée et celle de l’hydroélectricité ou de l’énergie éolienne doit être traitée avec circonspection. Parallèlement, si la stabilité et la fiabilité de l’approvisionnement en électricité est également une priorité absolue, l’utilisation de toute source intermittente (éolienne, solaire ou marémotrice) doit être réduite au minimum, et les gouvernements peuvent vouloir donner la priorité à l’utilisation du nucléaire, ou passer du charbon ou du pétrole au gaz, ou investir dans la technologie de captage et de stockage du carbone (CSC).
D’un autre côté, supposons qu’un gouvernement tente d’augmenter la croissance économique et/ou d’améliorer l’équité sociale. Dans ce cas, une électricité bon marché, abordable et fiable est probablement une priorité absolue. Par conséquent, une combinaison de charbon, de pétrole, de gaz et de nucléaire serait probablement judicieuse. Si la géothermie ou l’hydroélectricité sont adaptées à la région, elles peuvent également être envisagées. Si la réduction des émissions de CO2 est également une priorité absolue, les pays concernés pourraient vouloir réduire la quantité de combustibles fossiles qu’ils utilisent et développer le nucléaire (comme l’ont fait la France et la Suède, par exemple), alors que si éviter l’utilisation du nucléaire est une priorité plus importante, ils pourraient envisager d’utiliser davantage de combustibles fossiles à la place.
En examinant la répartition des 3,66 trillions de dollars US qui ont été consacrés aux dépenses liées au changement climatique mondial au cours de la période 2011-2018, comme le montrent la Figure 1 et le Tableau 1, nous constatons que 55% ont été alloués à des projets d’énergie solaire et éolienne. Il s’agit d’une allocation très importante pour deux sources d’énergie qui présentent de nombreux inconvénients, comme le résume la section 6. Parallèlement, seuls 5% ont été consacrés à l’adaptation au climat, alors que l’investissement dans l’adaptation au climat peut améliorer considérablement la capacité des sociétés à faire face au changement climatique et aux phénomènes météorologiques extrêmes. Cela suggère que les dépenses mondiales liées au changement climatique ne sont pas allouées sur la base d’une évaluation critique des avantages et des inconvénients des principales politiques. Nous espérons que l’analyse présentée dans cette étude permettra de remédier à cette situation à temps.
Contributions des auteurs
Tous les auteurs ont contribué à la conceptualisation, à la rédaction de la version originale, à la révision et à l’édition de ce document. Tous les auteurs ont lu et approuvé la version publiée du manuscrit.
Financement
C.Ó., G.Q. et M.C. n’ont reçu aucun financement externe pour la rédaction de cet article. R.C. et W.S. ont reçu un soutien financier du Centre pour la recherche environnementale et les sciences de la terre (CERES) pendant qu’ils effectuaient les recherches pour cet article. L’objectif du CERES est de promouvoir l’ouverture d’esprit et l’indépendance de la recherche scientifique. C’est pourquoi les donateurs du CERES sont strictement tenus de ne pas tenter d’influencer les orientations de la recherche ou les conclusions du CERES. Les lecteurs désireux de soutenir CERES peuvent trouver des informations détaillées à l’adresse suivante : https://ceres-science.com/.
Remerciements
Nous tenons à féliciter la Climate Policy Initiative pour ses efforts de compilation de ses rapports annuels Global Landscape of Climate Finance, dont nous avons utilisé les résultats pour générer la Figure 1 et le Tableau 1, et pour avoir facilité l’accès à ces rapports sur le site https://www.climatepolicyinitiative.org/.
Conflits d’intérêts
Les auteurs ne déclarent aucun conflit d’intérêts.
UNFCCC. Kyoto Protocol to the United Nations Framework Convention on Climate Change; UNFCCC: New York, NY, USA, 1997. [Google Scholar]
UNFCCC. Addendum. Part two: Action taken by the Conference of the Parties at its twenty-first session. In Proceedings of the Conference of the Parties on Its Twenty-First Session, Paris, France, 30 November–13 December 2015; UNFCCC: New York, NY, USA, 2016. [Google Scholar]
Boden, T.A.; Marland, G.; Andres, R.J. Global, Regional, and National Fossil-Fuel CO2 Emissions; Carbon Dioxide Information Analysis Center, Oak Ridge National Laboratory, U.S. Department of Energy: Oak Ridge, TN, USA; Available online: https://doi.org/10.3334/CDIAC/00001_V2017 (accessed on 26 January 2020).
Friedlingstein, P.; Jones, M.W.; O’Sullivan, M.; Andrew, R.M.; Hauck, J.; Peters, G.P.; Peters, W.; Pongratz, J.; Sitch, S.; Quéré, C.L.; et al. Global Carbon Budget 2019. Earth Syst. Sci. Data 2019, 11, 1783–1838. [Google Scholar] [CrossRef][Green Version]
Connolly, R.; Connolly, M.; Carter, R.M.; Soon, W. How Much Human-Caused Global Warming Should We Expect with Business-As-Usual (BAU) Climate Policies? A Semi-Empirical Assessment. Energies 2020, 13, 1365. [Google Scholar] [CrossRef][Green Version]
Smil, V. Energy and Civilization: A History; Reprint ed.; MIT Press: Cambridge, MA, USA, 2018; ISBN 978-0-262-53616-5. [Google Scholar]
Epstein, A. Moral Case for Fossil Fuels; Portfolio Hardcover: New York, NY, USA, 2014; ISBN 978-1-59184-744-1. [Google Scholar]
Bezdek, R.; Idso, C.D.; Legates, D.R.; Singer, S.F. Climate Change Reconsidered II: Fossil Fuels; Bast, J.L., Bast, D.C., Eds.; The Heartland Institute: Arlington Heights, IL, USA, 2019; ISBN 978-1-934791-45-5. [Google Scholar]
Gupta, J. The History of Global Climate Governance, 1st ed.; Cambridge University Press: Cambridge, UK; New York, NY, USA, 2014; ISBN 978-1-107-04051-9. [Google Scholar]
Gore, A. An Inconvenient Truth: The Planetary Emergency of Global Warming and What We Can Do about It, 1st ed.; Bloomsbury Publishing PLC: New York, NY, USA, 2006; ISBN 978-0-7475-8906-8. [Google Scholar]
Gore, A. Inconvenient Sequel, An; Rodale: New York, NY, USA, 2017; ISBN 978-1-63565-108-9. [Google Scholar]
Jacobson, M.Z.; Delucchi, M.A. Providing all global energy with wind, water, and solar power, Part I: Technologies, energy resources, quantities and areas of infrastructure, and materials. Energy Policy 2011, 39, 1154–1169. [Google Scholar] [CrossRef]
Jacobson, M.Z.; Delucchi, M.A.; Cameron, M.A.; Frew, B.A. Low-cost solution to the grid reliability problem with 100% penetration of intermittent wind, water, and solar for all purposes. Proc. Natl. Acad. Sci. USA 2015, 112, 15060–15065. [Google Scholar] [CrossRef][Green Version]
Jacobson, M.Z.; Delucchi, M.A.; Cameron, M.A.; Frew, B.A. The United States can keep the grid stable at low cost with 100% clean, renewable energy in all sectors despite inaccurate claims. Proc. Natl. Acad. Sci. USA 2017, 114, E5021–E5023. [Google Scholar] [CrossRef][Green Version]
Jacobson, M.Z.; Cameron, M.A.; Hennessy, E.M.; Petkov, I.; Meyer, C.B.; Gambhir, T.K.; Maki, A.T.; Pfleeger, K.; Clonts, H.; McEvoy, A.L.; et al. 100% clean and renewable Wind, Water, and Sunlight (WWS) all-sector energy roadmaps for 53 towns and cities in North America. Sustain. Cities Soc. 2018, 42, 22–37. [Google Scholar] [CrossRef]
Klein, N. This Changes Everything: Capitalism vs. the Climate, 1st ed.; Penguin: London, UK, 2015; ISBN 978-0-241-95618-2. [Google Scholar]
Goodall, C. The Switch: How Solar, Storage and New Tech Means Cheap Power for All; Main edition; Profile Books: London, UK, 2016; ISBN 978-1-78125-635-0. [Google Scholar]
Clack, C.T.M.; Qvist, S.A.; Apt, J.; Bazilian, M.; Brandt, A.R.; Caldeira, K.; Davis, S.J.; Diakov, V.; Handschy, M.A.; Hines, P.D.H.; et al. Evaluation of a proposal for reliable low-cost grid power with 100% wind, water, and solar. Proc. Natl. Acad. Sci. USA 2017, 114, 6722–6727. [Google Scholar] [CrossRef][Green Version]
Kelly, M.J. Lessons from technology development for energy and sustainability. MRS Energy Sustain. 2016, 3. [Google Scholar] [CrossRef][Green Version]
Heard, B.P.; Brook, B.W.; Wigley, T.M.L.; Bradshaw, C.J.A. Burden of proof: A comprehensive review of the feasibility of 100% renewable-electricity systems. Renew. Sustain. Energy Rev. 2017, 76, 1122–1133. [Google Scholar] [CrossRef]
Shaner, M.R.; Davis, S.J.; Lewis, N.S.; Caldeira, K. Geophysical constraints on the reliability of solar and wind power in the United States. Energy Environ. Sci. 2018, 11, 914–925. [Google Scholar] [CrossRef][Green Version]
Brook, B.W.; Blees, T.; Wigley, T.M.L.; Hong, S. Silver Buckshot or Bullet: Is a Future “Energy Mix” Necessary? Sustainability 2018, 10, 302. [Google Scholar] [CrossRef][Green Version]
Van Kooten, G.C.; Withey, P.; Duan, J. How big a battery? Renew. Energy 2020, 146, 196–204. [Google Scholar] [CrossRef]
Connolly, M.; Connolly, R.; Soon, W.; Moore, P.; Connolly, I. Analysis of Greenpeace Business Model; Heartland Institute: Arlington Heights, IL, USA, 2018; p. 74. [Google Scholar]
Extinction Rebellion. This Is not A Drill: An Extinction Rebellion Handbook, 1st ed.; Penguin: New York, NY, USA, 2019; ISBN 978-0-14-199144-3. [Google Scholar]
Thunberg, G. No One Is Too Small to Make a Difference, 1st ed.; Penguin: London, UK, 2019; ISBN 978-0-14-199174-0. [Google Scholar]
Rifkin, J. Green New Deal; The St. Martin’s Press: New York, NY, USA, 2019; ISBN 978-1-250-25320-0. [Google Scholar]
Klein, N. On Fire: The Burning Case for a Green New Deal; Allen Lane: London, UK, 2019; ISBN 978-0-241-41072-1. [Google Scholar]
UNEP. Towards a Green Economy: Pathways to Sustainable Development and Poverty Eradication; United Nations Environmental Platform: Nairobi, Kenya, 2011. [Google Scholar]
Hoggan, J.; Littlemore, R. Climate Cover-Up: The Crusade to Deny Global Warming; Greystone Books: Vancouver, BC, Canada, 2009. [Google Scholar]
Conway, E.M.; Oreskes, N. Merchants of Doubt: How a Handful of Scientists Obscured the Truth on Issues from Tobacco Smoke to Global Warming; UK edition; Bloomsbury Paperbacks: London, UK, 2012; ISBN 978-1-4088-2483-2. [Google Scholar]
Mann, M. The Hockey Stick and the Climate Wars: Dispatches from the Front Lines; Reprint edition; Columbia University Press: New York, NY, USA, 2013; ISBN 978-0-231-15255-6. [Google Scholar]
Marshall, G. Don’t Even Think About It: Why Our Brains Are Wired to Ignore Climate Change; Bloomsbury: London, UK, 2015; ISBN 978-1-63286-102-3. [Google Scholar]
Prins, G.; Galiana, I.; Green, C.; Grundmann, R.; Korhola, A.; Laird, F.; Nordhaus, T. The Hartwell Paper: A New Direction for Climate Policy after the Crash of 2009. LSE, 2010. Available online: http://eprints.lse.ac.uk/27939/ (accessed on 14 September 2020).
Moore, P.A. Confessions of a Greenpeace Dropout: The Making of a Sensible Environmentalist; Revised, Updated ed.; Beatty Street Publishing, Inc.: Vancouver, BC, Canada, 2010; ISBN 978-0-9864808-2-9. [Google Scholar]
Prud’homme, R. Le Mythe des Énergies Renouvelables: Quand on Aime on ne Compte Pas; ARTILLEUR: Paris, France, 2017; ISBN 978-2-8100-0791-2. [Google Scholar]
Helm, D. Burn Out: The Endgame for Fossil Fuels; Revised edition; Yale University Press: London, UK, 2018; ISBN 978-0-300-23448-0. [Google Scholar]
Harjanne, A.; Korhonen, J.M. Abandoning the concept of renewable energy. Energy Policy 2019, 127, 330–340. [Google Scholar] [CrossRef][Green Version]
Shellenberger, M. Apocalypse Never: Why Environmental Alarmism Hurts Us All; Harper: New York, NY, USA, 2020. [Google Scholar]
Lomborg, B. False Alarm: How Climate Change Panic Costs Us Trillions, Hurts the Poor, and Fails to Fix the Planet; Basic Books: New York, NY, USA, 2020. [Google Scholar]
Mills, M.P. Green Energy Reality Check: It’s not as Clean as You Think; Manhattan Institute: New York, NY, USA, 2020; p. 20. [Google Scholar]
Murphy, D.J.; Hall, C.A.S. Year in review–EROI or energy return on (energy) invested. Ann. N. Y. Acad. Sci. 2010, 1185, 102–118. [Google Scholar] [CrossRef]
Hall, C.A.S.; Lambert, J.G.; Balogh, S.B. EROI of different fuels and the implications for society. Energy Policy 2014, 64, 141–152. [Google Scholar] [CrossRef][Green Version]
Denholm, P.; Hand, M. Grid flexibility and storage required to achieve very high penetration of variable renewable electricity. Energy Policy 2011, 39, 1817–1830. [Google Scholar] [CrossRef]
Weitemeyer, S.; Kleinhans, D.; Vogt, T.; Agert, C. Integration of Renewable Energy Sources in future power systems: The role of storage. Renew. Energy 2015, 75, 14–20. [Google Scholar] [CrossRef][Green Version]
Joskow, P.L. Transmission Capacity Expansion Is Needed to Decarbonize the Electricity Sector Efficiently. Joule 2020, 4, 1–3. [Google Scholar] [CrossRef]
Brook, B.W.; Bradshaw, C.J.A. Key role for nuclear energy in global biodiversity conservation. Conserv. Biol. 2015, 29, 702–712. [Google Scholar] [CrossRef]
Qvist, S.A.; Brook, B.W. Potential for Worldwide Displacement of Fossil-Fuel Electricity by Nuclear Energy in Three Decades Based on Extrapolation of Regional Deployment Data. PLoS ONE 2015, 10, e0124074. [Google Scholar] [CrossRef]
McDonald, R.I.; Fargione, J.; Kiesecker, J.; Miller, W.M.; Powell, J. Energy Sprawl or Energy Efficiency: Climate Policy Impacts on Natural Habitat for the United States of America. PLoS ONE 2009, 4, e6802. [Google Scholar] [CrossRef] [PubMed][Green Version]
Fargione, J.E.; Plevin, R.J.; Hill, J.D. The Ecological Impact of Biofuels. Ann. Rev. Ecol. Evol. Syst. 2010, 41, 351–377. [Google Scholar] [CrossRef][Green Version]
Gasparatos, A.; Doll, C.N.H.; Esteban, M.; Ahmed, A.; Olang, T.A. Renewable energy and biodiversity: Implications for transitioning to a Green Economy. Renew. Sustain. Energy Rev. 2017, 70, 161–184. [Google Scholar] [CrossRef][Green Version]
Capellán-Pérez, I.; de Castro, C.; Arto, I. Assessing vulnerabilities and limits in the transition to renewable energies: Land requirements under 100% solar energy scenarios. Renew. Sustain. Energy Rev. 2017, 77, 760–782. [Google Scholar] [CrossRef][Green Version]
Herrington, R. Road map to mineral supply. Nat. Geosci. 2013, 6, 892–894. [Google Scholar] [CrossRef]
Abbasi, S.A.; Abbasi, T. Impact of wind-energy generation on climate: A rising spectre. Renew. Sustain. Energy Rev. 2016, 59, 1591–1598. [Google Scholar] [CrossRef]
Barrie, D.B.; Kirk-Davidoff, D.B. Weather response to a large wind turbine array. Atmos. Chem. Phys. 2010, 10, 769–775. [Google Scholar] [CrossRef][Green Version]
Wang, C.; Prinn, R.G. Potential climatic impacts and reliability of very large-scale wind farms. Atmos. Chem. Phys. 2010, 10, 2053–2061. [Google Scholar] [CrossRef][Green Version]
Zhou, L.; Tian, Y.; Baidya Roy, S.; Thorncroft, C.; Bosart, L.F.; Hu, Y. Impacts of wind farms on land surface temperature. Nat. Clim. Chang. 2012, 2, 539–543. [Google Scholar] [CrossRef]
Zhou, L.; Tian, Y.; Baidya Roy, S.; Dai, Y.; Chen, H. Diurnal and seasonal variations of wind farm impacts on land surface temperature over western Texas. Clim. Dyn. 2013, 41, 307–326. [Google Scholar] [CrossRef]
Harris, R.A.; Zhou, L.; Xia, G. Satellite Observations of Wind Farm Impacts on Nocturnal Land Surface Temperature in Iowa. Remote Sens. 2014, 6, 12234–12246. [Google Scholar] [CrossRef][Green Version]
Chang, R.; Zhu, R.; Guo, P. A Case Study of Land-Surface-Temperature Impact from Large-Scale Deployment of Wind Farms in China from Guazhou. Remote Sens. 2016, 8, 790. [Google Scholar] [CrossRef][Green Version]
Pielke, R.A. Misdefining “climate change”: Consequences for science and action. Environ. Sci. Policy 2005, 8, 548–561. [Google Scholar] [CrossRef]
Soon, W.; Connolly, R.; Connolly, M. Re-evaluating the role of solar variability on Northern Hemisphere temperature trends since the 19th century. Earth-Sci. Rev. 2015, 150, 409–452. [Google Scholar] [CrossRef]
Lüning, S.; Vahrenholt, F. Paleoclimatological Context and Reference Level of the 2 °C and 1.5 °C Paris Agreement Long-Term Temperature Limits. Front. Earth Sci. 2017, 5. [Google Scholar] [CrossRef][Green Version]
Le Mouël, J.-L.; Lopes, F.; Courtillot, V. A Solar Signature in Many Climate Indices. J. Geophys. Res. Atmos. 2019, 124, 2600–2619. [Google Scholar] [CrossRef]
Scafetta, N.; Willson, R.C.; Lee, J.N.; Wu, D.L. Modeling Quiet Solar Luminosity Variability from TSI Satellite Measurements and Proxy Models during 1980–2018. Remote Sens. 2019, 11, 2569. [Google Scholar] [CrossRef][Green Version]
Dayaratna, K.D.; McKitrick, R.; Michaels, P.J. Climate sensitivity, agricultural productivity and the social cost of carbon in FUND. Environ. Econ. Policy Stud. 2020. [Google Scholar] [CrossRef][Green Version]
Sovacool, B.K.; Saunders, H. Competing policy packages and the complexity of energy security. Energy 2014, 67, 641–651. [Google Scholar] [CrossRef]
U.S. Energy Information Administration. International Energy Outlook 2019; U.S. Energy Information Administration, Office of Energy Analysis, U.S. Department of Energy: Washington, DC, USA, 2019; p. 85.
Matek, B.; Gawell, K. The Benefits of Baseload Renewables: A Misunderstood Energy Technology. Electr. J. 2015, 28, 101–112. [Google Scholar] [CrossRef][Green Version]
Jessel, S.; Sawyer, S.; Hernández, D. Energy, Poverty, and Health in Climate Change: A Comprehensive Review of an Emerging Literature. Front. Public Health 2019, 7, 357. [Google Scholar] [CrossRef] [PubMed][Green Version]
Hyndman, R.J.; Fan, S. Density Forecasting for Long-Term Peak Electricity Demand. IEEE Trans. Power Syst. 2010, 25, 1142–1153. [Google Scholar] [CrossRef][Green Version]
Richardson, I.; Thomson, M.; Infield, D.; Clifford, C. Domestic electricity use: A high-resolution energy demand model. Energy Build. 2010, 42, 1878–1887. [Google Scholar] [CrossRef][Green Version]
Rohan, P.K.; Rohan, P.K. The Climate of Ireland; Stationery Office: Dublin, Ireland, 1986. [Google Scholar]
Carnegie, R.; Gotham, D.; Nderitu, D.; Preckel, P.V. Utility Scale Energy Storage Systems, Benefits, Application, and Technologies; State Utility Forecasting Group: West Lafayette, IN, USA, 2013. [Google Scholar]
Smil, V. Energy at the Crossroads: Global Perspectives and Uncertainties; New edition; The MIT Press: Cambridge, MA, USA, 2005; ISBN 978-0-262-69324-0. [Google Scholar]
Van Zalk, J.; Behrens, P. The spatial extent of renewable and non-renewable power generation: A review and meta-analysis of power densities and their application in the U.S. Energy Policy 2018, 123, 83–91. [Google Scholar] [CrossRef]
Arto, I.; Capellán-Pérez, I.; Lago, R.; Bueno, G.; Bermejo, R. The energy requirements of a developed world. Energy Sustain. Dev. 2016, 33, 1–13. [Google Scholar] [CrossRef][Green Version]
Malthus, T.R.; Thomas, R. An Essay on the Principle of Population, as it Affects the Future Improvement of Society. With Remarks on the Speculations of Mr. Godwin, M. Condorcet and other Writers; J. Johnson: London, UK, 1798; Available online: http://name.umdl.umich.edu/004860797.0001.000 (accessed on 14 September 2020).
Ehrlich, P.R. The Population Bomb; Rev. expanded edition; Ballantine Books: New York, NY, USA, 1971; ISBN 978-0-345-02171-7. [Google Scholar]
Meadows, D.H.; Meadows, D.L.; Randers, J.; Behrens, W.W. The Limits to Growth; A Report for the Club of Rome’s Project on the Predicament of Mankind; Universe Books: New York, NY, USA, 1972. [Google Scholar]
Ehrlich, P.R.; Ehrlich, A.H. The Betrayal of Science and Reason: How Anti-Environmental Rhetoric Threatens Our Future; New edition edition; Island Press: Washington, DC, USA, 1998; ISBN 978-1-55963-484-7. [Google Scholar]
Simon, J.L. The Ultimate Resource 2: No. 2; New edition; Princeton University Press: Princeton, NJ, USA, 1998; ISBN 978-0-691-00381-8. [Google Scholar]
Desrochers, P.; Szurkmak, J. Population Bombed! Exploding the Link between Overpopulation and Climate Change; GWPF Books: London, UK, 2018; ISBN 978-0-9931190-3-3. [Google Scholar]
Sabin, P. The Bet: Paul Ehrlich, Julian Simon, and Our Gamble over Earth’s Future; Yale University Press: New Haven, CT, USA, 2014; ISBN 978-0-300-19897-3. [Google Scholar]
Jonsson, F.A. The Origins of Cornucopianism: A Preliminary Genealogy. Crit. Hist. Stud. 2014, 1, 151–168. [Google Scholar] [CrossRef]
Jones, N.F.; Pejchar, L.; Kiesecker, J.M. The Energy Footprint: How Oil, Natural Gas, and Wind Energy Affect Land for Biodiversity and the Flow of Ecosystem Services. BioScience 2015, 65, 290–301. [Google Scholar] [CrossRef][Green Version]
Gomiero, T. Are Biofuels an Effective and Viable Energy Strategy for Industrialized Societies? A Reasoned Overview of Potentials and Limits. Sustainability 2015, 7, 8491–8521. [Google Scholar] [CrossRef][Green Version]
Edenhofer, O.; Pichs-Madruga, R.; Sokana, Y.; Seyboth, P.M.; Kadner, S.; Zwickel, T.; Eickemeier, P.; Hansen, G.; Schloemer, S.; von Stechow, C. Renewable Energy Sources and Climate Change Mitigation—Special Report of the IPCC; Cambridge University Press: Cambridge, UK; New York, NY, USA, 2011; ISBN 978-1-107-60710-1. [Google Scholar]
Verbruggen, A.; Fischedick, M.; Moomaw, W.; Weir, T.; Nadaï, A.; Nilsson, L.J.; Nyboer, J.; Sathaye, J. Renewable energy costs, potentials, barriers: Conceptual issues. Energy Policy 2010, 38, 850–861. [Google Scholar] [CrossRef]
Acosta, A. Extractivism and Neoextractivism: Two sides of the same curse. In Beyond Development: Alternative Visions from Latin America; Rosa Luxemburg Foundation: Quito, Ecuador; Transnational Institute: Amsterdam, The Netherlands, 2013; pp. 61–86. [Google Scholar]
Bardi, U. Peak oil: The four stages of a new idea. Energy 2009, 34, 323–326. [Google Scholar] [CrossRef]
Murphy, D.J.; Hall, C.A.S. Energy return on investment, peak oil, and the end of economic growth. Ann. N. Y. Acad. Sci. 2011, 1219, 52–72. [Google Scholar] [CrossRef]
Chapman, I. The end of Peak Oil? Why this topic is still relevant despite recent denials. Energy Policy 2014, 64, 93–101. [Google Scholar] [CrossRef][Green Version]
Zuckerman, G. The Frackers: The Outrageous Inside Story of the New Energy Revolution; Penguin: London, UK, 2014; ISBN 978-0-670-92368-7. [Google Scholar]
Lior, N. Energy resources and use: The present situation and possible paths to the future. Energy 2008, 33, 842–857. [Google Scholar] [CrossRef]
Shafiee, S.; Topal, E. When will fossil fuel reserves be diminished? Energy Policy 2009, 37, 181–189. [Google Scholar] [CrossRef]
Kutcherov, V.G.; Krayushkin, V.A. Deep-seated abiogenic origin of petroleum: From geological assessment to physical theory. Rev. Geophys. 2010, 48. [Google Scholar] [CrossRef]
Nel, W.P.; Cooper, C.J. Implications of fossil fuel constraints on economic growth and global warming. Energy Policy 2009, 37, 166–180. [Google Scholar] [CrossRef]
McGlade, C.; Ekins, P. The geographical distribution of fossil fuels unused when limiting global warming to 2 °C. Nature 2015, 517, 187–190. [Google Scholar] [CrossRef]
Capellán-Pérez, I.; de Castro, C.; Miguel González, L.J. Dynamic Energy Return on Energy Investment (EROI) and material requirements in scenarios of global transition to renewable energies. Energy Strateg. Rev. 2019, 26, 100399. [Google Scholar] [CrossRef]
Narins, T.P. The battery business: Lithium availability and the growth of the global electric car industry. Extr. Ind. Soc. 2017, 4, 321–328. [Google Scholar] [CrossRef]
IEA. Global EV Outlook 2019—Analysis; IEA: Paris, France, 2019. [Google Scholar]
Giurco, D.; Dominish, E.; Florin, N.; Watari, T.; McLellan, B. Requirements for Minerals and Metals for 100% Renewable Scenarios. In Achieving the Paris Climate Agreement Goals: Global and Regional 100% Renewable Energy Scenarios with Non-energy GHG Pathways for +1.5 °C and +2 °C; Teske, S., Ed.; Springer International Publishing: Cham, Switzerland, 2019; pp. 437–457. ISBN 978-3-030-05843-2. [Google Scholar]
Sovacool, B.K. The precarious political economy of cobalt: Balancing prosperity, poverty, and brutality in artisanal and industrial mining in the Democratic Republic of the Congo. Extr. Ind. Soc. 2019, 6, 915–939. [Google Scholar] [CrossRef]
Sanderson, H. Congo, Child Labour and Your Electric Car; Financial Times: London, UK, 2019. [Google Scholar]
André, G.; Godin, M. Child labour, agency and family dynamics: The case of mining in Katanga (DRC). Childhood 2014, 21, 161–174. [Google Scholar] [CrossRef]
Pavel, C.C.; Lacal-Arántegui, R.; Marmier, A.; Schüler, D.; Tzimas, E.; Buchert, M.; Jenseit, W.; Blagoeva, D. Substitution strategies for reducing the use of rare earths in wind turbines. Resour. Policy 2017, 52, 349–357. [Google Scholar] [CrossRef]
Buchholz, P.; Brandenburg, T. Demand, Supply, and Price Trends for Mineral Raw Materials Relevant to the Renewable Energy Transition Wind Energy, Solar Photovoltaic Energy, and Energy Storage. Chem. Ing. Tech. 2018, 90, 141–153. [Google Scholar] [CrossRef]
Dajaku, G.; Gerling, D. PM Wind Generator with Reduced Amount of Rare-Earth Magnet Material. In Proceedings of the 2019 International Conference on Clean Electrical Power (ICCEP), Otranto, Italy, 2–4 July 2019; pp. 15–21. [Google Scholar]
Balaram, V. Rare earth elements: A review of applications, occurrence, exploration, analysis, recycling, and environmental impact. Geosci. Front. 2019, 10, 1285–1303. [Google Scholar] [CrossRef]
Vidal, O.; Goffé, B.; Arndt, N. Metals for a low-carbon society. Nat. Geosci. 2013, 6, 894–896. [Google Scholar] [CrossRef]
Weisser, D. A guide to life-cycle greenhouse gas (GHG) emissions from electric supply technologies. Energy 2007, 32, 1543–1559. [Google Scholar] [CrossRef]
Nugent, D.; Sovacool, B.K. Assessing the lifecycle greenhouse gas emissions from solar PV and wind energy: A critical meta-survey. Energy Policy 2014, 65, 229–244. [Google Scholar] [CrossRef]
Eberle, A.; Heath, G.A.; Carpenter Petri, A.C.; Nicholson, S.R. Systematic Review of Life Cycle Greenhouse Gas Emissions from Geothermal Electricity; National Renewable Energy Lab. (NREL): Golden, CO, USA, 2017. [Google Scholar]
Paredes, M.G.; Padilla-Rivera, A.; Güereca, L.P. Life Cycle Assessment of Ocean Energy Technologies: A Systematic Review. J. Mar. Sci. Eng. 2019, 7, 322. [Google Scholar] [CrossRef][Green Version]
Murphy, F.; Devlin, G.; McDonnell, K. Benchmarking Environmental Impacts of Peat Use for Electricity Generation in Ireland—A Life Cycle Assessment. Sustainability 2015, 7, 6376–6393. [Google Scholar] [CrossRef][Green Version]
De Gouw, J.A.; Parrish, D.D.; Frost, G.J.; Trainer, M. Reduced emissions of CO2, NOx, and SO2 from U.S. power plants owing to switch from coal to natural gas with combined cycle technology. Earth’s Future 2014, 2, 75–82. [Google Scholar] [CrossRef]
Gielen, D.; Changhong, C. The CO2 emission reduction benefits of Chinese energy policies and environmental policies: A case study for Shanghai, period 1995–2020. Ecol. Econ. 2001, 39, 257–270. [Google Scholar] [CrossRef]
Nan, Y.; Fan, X.; Bian, Y.; Cai, H.; Li, Q. Impacts of the natural gas infrastructure and consumption on fine particulate matter concentration in China’s prefectural cities: A new perspective from spatial dynamic panel models. J. Clean. Prod. 2019, 239, 117987. [Google Scholar] [CrossRef]
Chen, W.; Xu, R. Clean coal technology development in China. Energy Policy 2010, 38, 2123–2130. [Google Scholar] [CrossRef]
Dong, K.; Sun, R.; Hochman, G. Do natural gas and renewable energy consumption lead to less CO2 emission? Empirical evidence from a panel of BRICS countries. Energy 2017, 141, 1466–1478. [Google Scholar] [CrossRef]
Dong, K.; Sun, R.; Li, H.; Liao, H. Does natural gas consumption mitigate CO2 emissions: Testing the environmental Kuznets curve hypothesis for 14 Asia-Pacific countries. Renew. Sustain. Energy Rev. 2018, 94, 419–429. [Google Scholar] [CrossRef]
Dong, K.; Sun, R.; Dong, X. CO2 emissions, natural gas and renewables, economic growth: Assessing the evidence from China. Sci. Total Environ. 2018, 640–641, 293–302. [Google Scholar] [CrossRef]
Shearer, C.; Bistline, J.; Inman, M.; Davis, S.J. The effect of natural gas supply on US renewable energy and CO2 emissions. Environ. Res. Lett. 2014, 9, 094008. [Google Scholar] [CrossRef]
Qin, Y.; Tong, F.; Yang, G.; Mauzerall, D.L. Challenges of using natural gas as a carbon mitigation option in China. Energy Policy 2018, 117, 457–462. [Google Scholar] [CrossRef]
Haszeldine, R.S. Carbon Capture and Storage: How Green Can Black Be? Science 2009, 325, 1647–1652. [Google Scholar] [CrossRef] [PubMed]
Scott, V.; Gilfillan, S.; Markusson, N.; Chalmers, H.; Haszeldine, R.S. Last chance for carbon capture and storage. Nat. Clim. Chang. 2013, 3, 105–111. [Google Scholar] [CrossRef][Green Version]
Wilberforce, T.; Baroutaji, A.; Soudan, B.; Al-Alami, A.H.; Olabi, A.G. Outlook of carbon capture technology and challenges. Sci. Total Environ. 2019, 657, 56–72. [Google Scholar] [CrossRef] [PubMed][Green Version]
Rehmatulla, N.; Calleya, J.; Smith, T. The implementation of technical energy efficiency and CO2 emission reduction measures in shipping. Ocean Eng. 2017, 139, 184–197. [Google Scholar] [CrossRef]
Van Soest, D.P.; Bulte, E.H. Does the Energy-Efficiency Paradox Exist? Technological Progress and Uncertainty. Environ. Resour. Econ. 2001, 18, 101–112. [Google Scholar] [CrossRef]
Kim, K.; Kim, Y. International comparison of industrial CO2 emission trends and the energy efficiency paradox utilizing production-based decomposition. Energy Econ. 2012, 34, 1724–1741. [Google Scholar] [CrossRef]
MacKay, D.J.C. Sustainable Energy—Without the Hot Air; Green Books: Cambridge, UK, 2009; ISBN 978-0-9544529-3-3. [Google Scholar]
Herring, H. Energy efficiency—A critical view. Energy 2006, 31, 10–20. [Google Scholar] [CrossRef]
Sorrell, S. Jevons’ Paradox revisited: The evidence for backfire from improved energy efficiency. Energy Policy 2009, 37, 1456–1469. [Google Scholar] [CrossRef]
Prăvălie, R.; Bandoc, G. Nuclear energy: Between global electricity demand, worldwide decarbonisation imperativeness, and planetary environmental implications. J. Environ. Manag. 2018, 209, 81–92. [Google Scholar] [CrossRef]
Michalski, M.Ł. Development of nuclear power as an alternative to fossil fuels. Acta Innov. 2019, 38–47. [Google Scholar] [CrossRef]
Sovacool, B.K.; Kryman, M.; Laine, E. Profiling technological failure and disaster in the energy sector: A comparative analysis of historical energy accidents. Energy 2015, 90, 2016–2027. [Google Scholar] [CrossRef]
Sovacool, B.K.; Andersen, R.; Sorensen, S.; Sorensen, K.; Tienda, V.; Vainorius, A.; Schirach, O.M.; Bjørn-Thygesen, F. Balancing safety with sustainability: Assessing the risk of accidents for modern low-carbon energy systems. J. Clean. Prod. 2016, 112, 3952–3965. [Google Scholar] [CrossRef]
Flyvbjerg, B. What you Should Know about Megaprojects and Why: An Overview. Proj. Manag. J. 2014, 45, 6–19. [Google Scholar] [CrossRef][Green Version]
Zawalińska, K.; Kinnunen, J.; Gradziuk, P.; Celińska-Janowicz, D. To whom should we grant a power plant? Economic effects of investment in nuclear energy in Poland. Energies 2020, 13, 2687. [Google Scholar] [CrossRef]
Moran, E.F. Sustainable hydropower in the 21st century. Proc. Natl. Acad. Sci. USA 2018, 115, 11891–11898. [Google Scholar] [CrossRef][Green Version]
Finer, M.; Jenkins, C.N. Proliferation of Hydroelectric Dams in the Andean Amazon and Implications for Andes-Amazon Connectivity. PLoS ONE 2012, 7, e35126. [Google Scholar] [CrossRef]
Rybach, L. Geothermal energy: Sustainability and the environment. Geothermics 2003, 32, 463–470. [Google Scholar] [CrossRef]
Paulillo, A.; Striolo, A.; Lettieri, P. The environmental impacts and the carbon intensity of geothermal energy: A case study on the Hellisheiði plant. Environ. Int. 2019, 133, 105226. [Google Scholar] [CrossRef]
Muscat, A.; de Olde, E.M.; de Boer, I.J.M.; Ripoll-Bosch, R. The battle for biomass: A systematic review of food-feed-fuel competition. Glob. Food Secur. 2019, 100330. [Google Scholar] [CrossRef]
Hall, C.A.S.; Balogh, S.; Murphy, D.J.R. What is the Minimum EROI that a Sustainable Society Must Have? Energies 2009, 2, 25–47. [Google Scholar] [CrossRef]
Murphy, D.J.; Hall, C.A.S.; Powers, B. New perspectives on the energy return on (energy) investment (EROI) of corn ethanol. Environ. Dev. Sustain. 2011, 13, 179–202. [Google Scholar] [CrossRef]
Love, P.E.D.; Zhou, J.; Edwards, D.J.; Irani, Z.; Sing, C.-P. Off the rails: The cost performance of infrastructure rail projects. Transp. Res. Part A Policy Pract. 2017, 99, 14–29. [Google Scholar] [CrossRef]
Bahamonde-Birke, F.J. Who will bell the cat? On the environmental and sustainability risks of electric vehicles. Transp. Res. Part A Policy Pract. 2020, 133, 79–81. [Google Scholar] [CrossRef]
Asaithambi, G.; Treiber, M.; Kanagaraj, V. Life Cycle Assessment of Conventional and Electric Vehicles. In International Climate Protection; Palocz-Andresen, M., Szalay, D., Gosztom, A., Sípos, L., Taligás, T., Eds.; Springer International Publishing: Cham, Switzerland, 2019; pp. 161–168. ISBN 978-3-030-03816-8. [Google Scholar]
Onat, N.C.; Kucukvar, M.; Tatari, O. Conventional, hybrid, plug-in hybrid or electric vehicles? State-based comparative carbon and energy footprint analysis in the United States. Appl. Energy 2015, 150, 36–49. [Google Scholar] [CrossRef]
Massad, R.S.; Lathière, J.; Strada, S.; Perrin, M.; Personne, E.; Stéfanon, M.; Stella, P.; Szopa, S.; de Noblet-Ducoudré, N. Reviews and syntheses: Influences of landscape structure and land uses on local to regional climate and air quality. Biogeosciences 2019, 16, 2369–2408. [Google Scholar] [CrossRef][Green Version]
Millstein, D.; Menon, S. Regional climate consequences of large-scale cool roof and photovoltaic array deployment. Environ. Res. Lett. 2011, 6, 034001. [Google Scholar] [CrossRef]
Hossain, F.; Degu, A.M.; Yigzaw, W.; Burian, S.; Niyogi, D.; Shepherd, J.M.; Pielke, R. Climate Feedback–Based Provisions for Dam Design, Operations, and Water Management in the 21st Century. J. Hydrol. Eng. 2012, 17, 837–850. [Google Scholar] [CrossRef]
Armstrong, A.; Waldron, S.; Whitaker, J.; Ostle, N.J. Wind farm and solar park effects on plant-soil carbon cycling: Uncertain impacts of changes in ground-level microclimate. Glob. Chang. Biol. 2014, 20, 1699–1706. [Google Scholar] [CrossRef]
Fiedler, B.H.; Bukovsky, M.S. The effect of a giant wind farm on precipitation in a regional climate model. Environ. Res. Lett. 2011, 6, 045101. [Google Scholar] [CrossRef][Green Version]
Fitch, A.C. Climate Impacts of Large-Scale Wind Farms as Parameterized in a Global Climate Model. J. Clim. 2015, 28, 6160–6180. [Google Scholar] [CrossRef][Green Version]
Lundquist, J.K.; Bariteau, L. Dissipation of Turbulence in the Wake of a Wind Turbine. Bound.-Layer Meteorol. 2015, 154, 229–241. [Google Scholar] [CrossRef]
Platis, A.; Siedersleben, S.K.; Bange, J.; Lampert, A.; Bärfuss, K.; Hankers, R.; Cañadillas, B.; Foreman, R.; Schulz-Stellenfleth, J.; Djath, B.; et al. First in situ evidence of wakes in the far field behind offshore wind farms. Sci. Rep. 2018, 8, 1–10. [Google Scholar] [CrossRef]
Lundquist, J.K.; DuVivier, K.K.; Kaffine, D.; Tomaszewski, J.M. Costs and consequences of wind turbine wake effects arising from uncoordinated wind energy development. Nat. Energy 2019, 4, 26–34. [Google Scholar] [CrossRef]
Howland, M.F.; Lele, S.K.; Dabiri, J.O. Wind farm power optimization through wake steering. Proc. Natl. Acad. Sci. USA 2019, 116, 14495–14500. [Google Scholar] [CrossRef][Green Version]
Raich, J.W.; Schlesinger, W.H. The global carbon dioxide flux in soil respiration and its relationship to vegetation and climate. Tellus B Chem. Phys. Meteorol. 1992, 44, 81–99. [Google Scholar] [CrossRef][Green Version]
Jenkinson, D.S.; Adams, D.E.; Wild, A. Model estimates of CO2 emissions from soil in response to global warming. Nature 1991, 351, 304–306. [Google Scholar] [CrossRef]
Melillo, J.M.; Frey, S.D.; DeAngelis, K.M.; Werner, W.J.; Bernard, M.J.; Bowles, F.P.; Pold, G.; Knorr, M.A.; Grandy, A.S. Long-term pattern and magnitude of soil carbon feedback to the climate system in a warming world. Science 2017, 358, 101. [Google Scholar] [CrossRef][Green Version]
Nottingham, A.T.; Whitaker, J.; Ostle, N.J.; Bardgett, R.D.; McNamara, N.P.; Fierer, N.; Salinas, N.; Ccahuana, A.J.Q.; Turner, B.L.; Meir, P. Microbial responses to warming enhance soil carbon loss following translocation across a tropical forest elevation gradient. Ecol. Lett. 2019, 22, 1889–1899. [Google Scholar] [CrossRef] [PubMed]
Davidson, E.A.; Janssens, I.A. Temperature sensitivity of soil carbon decomposition and feedbacks to climate change. Nature 2006, 440, 165–173. [Google Scholar] [CrossRef]
Crowther, T.W.; Todd-Brown, K.E.O.; Rowe, C.W.; Wieder, W.R.; Carey, J.C.; Machmuller, M.B.; Snoek, B.L.; Fang, S.; Zhou, G.; Allison, S.D.; et al. Quantifying global soil carbon losses in response to warming. Nature 2016, 540, 104–108. [Google Scholar] [CrossRef]
Zhu, Z.; Piao, S.; Myneni, R.B.; Huang, M.; Zeng, Z.; Canadell, J.G.; Ciais, P.; Sitch, S.; Friedlingstein, P.; Arneth, A.; et al. Greening of the Earth and its drivers. Nat. Clim. Chang. 2016, 6, 791–795. [Google Scholar] [CrossRef]
Ezzati, M.; Kammen, D.M. The health impacts of exposure to indoor air pollution from solid fuels in developing countries: Knowledge, gaps, and data needs. Environ. Health Perspect. 2002, 110, 1057–1068. [Google Scholar] [CrossRef] [PubMed][Green Version]
Perez-Padilla, R.; Schilmann, A.; Riojas-Rodriguez, H. Respiratory health effects of indoor air pollution [Review article]. Int. J. Tuberc. Lung Dis. 2010, 14, 1079–1086. [Google Scholar]
Khan, R.R.; Siddiqui, M.J.A. Review on effects of particulates; sulfur dioxide and nitrogen dioxide on human health. Int. Res. J. Environ. Sci. 2014, 3, 70–73. [Google Scholar]
Gao, J.; Woodward, A.; Vardoulakis, S.; Kovats, S.; Wilkinson, P.; Li, L.; Xu, L.; Li, J.; Yang, J.; Li, J.; et al. Haze, public health and mitigation measures in China: A review of the current evidence for further policy response. Sci. Total Environ. 2017, 578, 148–157. [Google Scholar] [CrossRef]
Sheehan, M.C.; Lam, J.; Navas-Acien, A.; Chang, H.H. Ambient air pollution epidemiology systematic review and meta-analysis: A review of reporting and methods practice. Environ. Int. 2016, 92–93, 647–656. [Google Scholar] [CrossRef] [PubMed]
Young, S.S.; Smith, R.L.; Lopiano, K.K. Air quality and acute deaths in California, 2000–2012. Regul. Toxicol. Pharmacol. 2017, 88, 173–184. [Google Scholar] [CrossRef] [PubMed][Green Version]
Young, S.S.; Kindzierski, W.B. Evaluation of a meta-analysis of air quality and heart attacks, a case study. Crit. Rev. Toxicol. 2019, 49, 85–94. [Google Scholar] [CrossRef] [PubMed]
Turconi, R.; Boldrin, A.; Astrup, T. Life cycle assessment (LCA) of electricity generation technologies: Overview, comparability and limitations. Renew. Sustain. Energy Rev. 2013, 28, 555–565. [Google Scholar] [CrossRef][Green Version]
Tian, H.; Wang, Y.; Cheng, K.; Qu, Y.; Hao, J.; Xue, Z.; Chai, F. Control strategies of atmospheric mercury emissions from coal-fired power plants in China. J. Air Waste Manag. Assoc. 2012, 62, 576–586. [Google Scholar] [CrossRef]
Bianchini, A.; Cento, F.; Golfera, L.; Pellegrini, M.; Saccani, C. Performance analysis of different scrubber systems for removal of particulate emissions from a small size biomass boiler. Biomass Bioenergy 2016, 92, 31–39. [Google Scholar] [CrossRef]
Ellerman, A.D.; Montero, J.-P. The Declining Trend in Sulfur Dioxide Emissions: Implications for Allowance Prices. J. Environ. Econo. Manag. 1998, 36, 26–45. [Google Scholar] [CrossRef][Green Version]
Uherek, E.; Halenka, T.; Borken-Kleefeld, J.; Balkanski, Y.; Berntsen, T.K.; Borrego, C.; Gauss, M.; Hoor, P.; Juda-Rezler, K.; Lelieveld, J.; et al. Transport impacts on atmosphere and climate: Land transport. Atmos. Environ. 2010, 44, 4772–4816. [Google Scholar] [CrossRef]
Zhang, X.; Wu, Z.; Li, L. Characteristics of Soot and Particle Size Distribution in the Exhaust of a Common Rail Light-Duty Diesel Engine Fuelled with Biodiesel. Energy Fuels 2012, 26, 5954–5961. [Google Scholar] [CrossRef]
Pirjola, L.; Dittrich, A.; Niemi, J.V.; Saarikoski, S.; Timonen, H.; Kuuluvainen, H.; Järvinen, A.; Kousa, A.; Rönkkö, T.; Hillamo, R. Physical and Chemical Characterization of Real-World Particle Number and Mass Emissions from City Buses in Finland. Environ. Sci. Technol. 2016, 50, 294–304. [Google Scholar] [CrossRef] [PubMed]
Shahir, S.A.; Masjuki, H.H.; Kalam, M.A.; Imran, A.; Ashraful, A.M. Performance and emission assessment of diesel–biodiesel–ethanol/bioethanol blend as a fuel in diesel engines: A review. Renew. Sustain. Energy Rev. 2015, 48, 62–78. [Google Scholar] [CrossRef]
Wang, M.; Li, S.; Zhu, R.; Zhang, R.; Zu, L.; Wang, Y.; Bao, X. On-road tailpipe emission characteristics and ozone formation potentials of VOCs from gasoline, diesel and liquefied petroleum gas fueled vehicles. Atmos. Environ. 2020, 223, 117294. [Google Scholar] [CrossRef]
Davis, D.L. A Look Back at the London Smog of 1952 and the Half Century Since. Environ. Health Perspect. 2002, 110, A734–A735. [Google Scholar] [CrossRef]
Kerimray, A.; Rojas-Solórzano, L.; Amouei Torkmahalleh, M.; Hopke, P.K.; Ó Gallachóir, B.P. Coal use for residential heating: Patterns, health implications and lessons learned. Energy Sustain. Dev. 2017, 40, 19–30. [Google Scholar] [CrossRef]
Gupta, A. Where there is smoke: Solid fuel externalities, gender, and adult respiratory health in India. Popul. Environ. 2019, 41, 32–51. [Google Scholar] [CrossRef][Green Version]
Sinha, S.N. Air Pollution from Solid Fuels☆. In Encyclopedia of Environmental Health, 2nd ed.; Nriagu, J., Ed.; Elsevier: Oxford, UK, 2019; pp. 49–60. ISBN 978-0-444-63952-3. [Google Scholar]
Jeuland, M.A.; Pattanayak, S.K.; Samaddar, S.; Shah, R.; Vora, M. Adoption and impacts of improved biomass cookstoves in rural Rajasthan. Energy Sustain. Dev. 2020, 57, 149–159. [Google Scholar] [CrossRef]
Tucho, G.T. The Impacts of Policy on Energy Justice in Developing Countries. In Energy Justice across Borders; Bombaerts, G., Jenkins, K., Sanusi, Y.A., Guoyu, W., Eds.; Springer International Publishing: Cham, Switzerland, 2020; pp. 137–154. ISBN 978-3-030-24021-9. [Google Scholar]
Fisher, B. African exception to drivers of deforestation. Nat. Geosci. 2010, 3, 375–376. [Google Scholar] [CrossRef]
Jagger, P.; Kittner, N. Deforestation and biomass fuel dynamics in Uganda. Biomass Bioenergy 2017, 105, 1–9. [Google Scholar] [CrossRef]
Swingland, I.R. Biodiversity, definition of. In Encyclopedia of Biodiversity; Levin, S., Ed.; Academic Press: Cambridge, MA, USA, 2013; pp. 377–391. [Google Scholar]
Bunce, R.G.H.; Bogers, M.M.B.; Evans, D.; Halada, L.; Jongman, R.H.G.; Mucher, C.A.; Bauch, B.; de Blust, G.; Parr, T.W.; Olsvig-Whittaker, L. The significance of habitats as indicators of biodiversity and their links to species. Ecol. Indic. 2013, 33, 19–25. [Google Scholar] [CrossRef]
Maavara, T.; Akbarzadeh, Z.; Cappellen, P.V. Global Dam-Driven Changes to Riverine N:P:Si Ratios Delivered to the Coastal Ocean. Geophys. Res. Lett. 2020, 47, e2020GL088288. [Google Scholar] [CrossRef]
Almeida, R.M.; Shi, Q.; Gomes-Selman, J.M.; Wu, X.; Xue, Y.; Angarita, H.; Barros, N.; Forsberg, B.R.; García-Villacorta, R.; Hamilton, S.K.; et al. Reducing greenhouse gas emissions of Amazon hydropower with strategic dam planning. Nat. Commun. 2019, 10, 4281. [Google Scholar] [CrossRef] [PubMed]
Morinha, F.; Travassos, P.; Seixas, F.; Martins, A.; Bastos, R.; Carvalho, D.; Magalhães, P.; Santos, M.; Bastos, E.; Cabral, J.A. Differential mortality of birds killed at wind farms in Northern Portugal. Bird Study 2014, 61, 255–259. [Google Scholar] [CrossRef]
Loss, S.R.; Will, T.; Marra, P.P. Estimates of bird collision mortality at wind facilities in the contiguous United States. Biol. Conserv. 2013, 168, 201–209. [Google Scholar] [CrossRef]
Thaxter, C.B.; Buchanan, G.M.; Carr, J.; Butchart, S.H.M.; Newbold, T.; Green, R.E.; Tobias, J.A.; Foden, W.B.; O’Brien, S.; Pearce-Higgins, J.W. Bird and bat species’ global vulnerability to collision mortality at wind farms revealed through a trait-based assessment. Proc. Biol. Sci. 2017, 284, 20170829. [Google Scholar] [CrossRef]
Fernández-Bellon, D.; Wilson, M.W.; Irwin, S.; O’Halloran, J. Effects of development of wind energy and associated changes in land use on bird densities in upland areas. Conserv. Biol. 2019, 33, 413–422. [Google Scholar] [CrossRef]
Stöber, U.; Thomsen, F. Effect of impact pile driving noise on marine mammals: A comparison of different noise exposure criteria. J. Acoust. Soc. Am. 2019, 145, 3252–3259. [Google Scholar] [CrossRef] [PubMed]
Graham, I.M.; Merchant, N.D.; Farcas, A.; Barton, T.R.; Cheney, B.; Bono, S.; Thompson, P.M. Harbour porpoise responses to pile-driving diminish over time. R. Soc. Open Sci. 2019, 6, 190335. [Google Scholar] [CrossRef][Green Version]
Coolen, J.W.P.; van der Weide, B.; Cuperus, J.; Blomberg, M.; Van Moorsel, G.W.N.M.; Faasse, M.A.; Bos, O.G.; Degraer, S.; Lindeboom, H.J. Benthic biodiversity on old platforms, young wind farms, and rocky reefs. ICES J. Mar. Sci. 2018. [Google Scholar] [CrossRef]
Rehbein, J.A.; Watson, J.E.M.; Lane, J.L.; Sonter, L.J.; Venter, O.; Atkinson, S.C.; Allan, J.R. Renewable energy development threatens many globally important biodiversity areas. Glob. Chang. Biol. 2020, 26, 3040–3051. [Google Scholar] [CrossRef]
Sonter, L.J.; Dade, M.C.; Watson, J.E.M.; Valenta, R.K. Renewable energy production will exacerbate mining threats to biodiversity. Nat. Commun. 2020, 11, 4174. [Google Scholar] [CrossRef] [PubMed]
Acar, C.; Dincer, I. Review and evaluation of hydrogen production options for better environment. J. Clean. Product. 2019, 218, 835–849. [Google Scholar] [CrossRef]
Kaika, D.; Zervas, E. The Environmental Kuznets Curve (EKC) theory—Part A: Concept, causes and the CO2 emissions case. Energy Policy 2013, 62, 1392–1402. [Google Scholar] [CrossRef]
Al-mulali, U.; Weng-Wai, C.; Sheau-Ting, L.; Mohammed, A.H. Investigating the environmental Kuznets curve (EKC) hypothesis by utilizing the ecological footprint as an indicator of environmental degradation. Ecol. Indic. 2015, 48, 315–323. [Google Scholar] [CrossRef]
Rashid Gill, A.; Viswanathan, K.K.; Hassan, S. The Environmental Kuznets Curve (EKC) and the environmental problem of the day. Renew. Sustain. Energy Rev. 2018, 81, 1636–1642. [Google Scholar] [CrossRef]
Wier, M.; Birr-Pedersen, K.; Jacobsen, H.K.; Klok, J. Are CO2 taxes regressive? Evidence from the Danish experience. Ecol. Econ. 2005, 52, 239–251. [Google Scholar] [CrossRef]
Callan, T.; Lyons, S.; Scott, S.; Tol, R.S.J.; Verde, S. The distributional implications of a carbon tax in Ireland. Energy Policy 2009, 37, 407–412. [Google Scholar] [CrossRef][Green Version]
Grainger, C.A.; Kolstad, C.D. Who Pays a Price on Carbon? Environ. Resour. Econ. 2010, 46, 359–376. [Google Scholar] [CrossRef][Green Version]
Liang, Q.-M.; Wei, Y.-M. Distributional impacts of taxing carbon in China: Results from the CEEPA model. Appl. Energy 2012, 92, 545–551. [Google Scholar] [CrossRef]
Berri, A.; Vincent Lyk-Jensen, S.; Mulalic, I.; Zachariadis, T. Household transport consumption inequalities and redistributive effects of taxes: A repeated cross-sectional evaluation for France, Denmark and Cyprus. Transp. Policy 2014, 36, 206–216. [Google Scholar] [CrossRef]
Jiang, Z.; Shao, S. Distributional effects of a carbon tax on Chinese households: A case of Shanghai. Energy Policy 2014, 73, 269–277. [Google Scholar] [CrossRef]
Rubin, A.J.; Sengupta, S. ‘Yellow Vest’ Protests Shake France. Here’s the Lesson for Climate Change; The New York Times: New York, NY, USA, 2018. [Google Scholar]
Prud’homme, R. La Transition Énergétique: “Pointless, Costly and Unfair” | The Global Warming Policy Foundation (GWPF); The Global Warming Policy Foundation: London, UK, 2019; p. 25. [Google Scholar]
Chancel, L.; Piketty, T. Carbon and Inequality: From Kyoto to Paris Trends in the Global Inequality of Carbon Emissions (1998–2013) & Prospects for an Equitable Adaptation Fund World Inequality Lab 2015. Available online: https://halshs.archives-ouvertes.fr/halshs-02655266/document (accessed on 14 September 2020).
Klotzbach, P.J.; Bowen, S.G.; Pielke, R.; Bell, M. Continental, U.S. Hurricane Landfall Frequency and Associated Damage: Observations and Future Risks. Bull. Am. Meteorol. Soc. 2018, 99, 1359–1376. [Google Scholar] [CrossRef]
Prevatt, D.O.; Dupigny-Giroux, L.-A.; Masters, F.J. Engineering Perspectives on Reducing Hurricane Damage to Housing in CARICOM Caribbean Islands. Nat. Hazards Rev. 2010, 11, 140–150. [Google Scholar] [CrossRef]
De Beurs, K.M.; McThompson, N.S.; Owsley, B.C.; Henebry, G.M. Hurricane damage detection on four major Caribbean islands. Remote Sens. Environ. 2019, 229, 1–13. [Google Scholar] [CrossRef]
Pielke, R.A., Jr. The Climate Fix: What Scientists and Politicians Won’t Tell You About Global Warming; Basic Books: New York, NY, USA, 2010; ISBN 978-0-465-02052-2. [Google Scholar]
Marchegiani, P.; Morgera, E.; Parks, L. Indigenous peoples’ rights to natural resources in Argentina: The challenges of impact assessment, consent and fair and equitable benefit-sharing in cases of lithium mining. Int. J. Hum. Rights 2020, 24, 224–240. [Google Scholar] [CrossRef][Green Version]
Tsurukawa, N.; Prakash, S.; Manhart, A. Social Impacts of Artisanal Cobalt Mining in Katanga, Democratic Republic of Congo; Öko-Institut eV: Freiburg, Germany, 2011. [Google Scholar]
Duff, A.; Hanchant-Nichols, D.; Bown, B.; Gamage, S.H.P.W.; Nixon, B.; Nisi, P.; Boase, J.; Smith, E. A Right Way, Wrong Way and Better Way for Energy Engineers to Work with Aboriginal Communities. In Energy Justice across Borders; Bombaerts, G., Jenkins, K., Sanusi, Y.A., Guoyu, W., Eds.; Springer International Publishing: Cham, Switzerland, 2020; pp. 45–68. ISBN 978-3-030-24021-9. [Google Scholar]
Hess, C.E.E.; Costa Ribeiro, W.; Wieprecht, S. Assessing Environmental Justice in Large Hydropower Projects: The Case of São Luiz do Tapajós in Brazil. Desenvolv. e Meio Ambiente 2016, 37, 91–109. [Google Scholar] [CrossRef][Green Version]
Gilio-Whitaker, D. As Long as Grass Grows The Indigenous Fight for Environmental Justice, from Colonization to Standing Rock; Beacon Press: Boston, MA, USA, 2019; ISBN 978-080707378-0. [Google Scholar]
Estes, N. Our History Is the Future Standing Rock Versus the Dakota Access Pipeline, and the Long Tradition of Indigenous Resistance; Verso: Brooklyn, NY, USA, 2019. [Google Scholar]
Bon, ça date d’il y a trois semaines mais comme tout ce qu’écrit ce cher Briggs, c’est amusant et instructif. Pour ceux qui auraient déjà oublié, il y a eu une inondation en Lybie, suite à une rupture de barrage pour cause de mauvaise maintenance – c’est le bordel dans ce pays depuis l’assassinat de Khadafi – et pas à cause du « changement climatique ».
Je publie ça parce que c’est un bon article et aussi pour faire suite à ma récente intervention (ce soir-même) dans une réunion d’information sur l’installation de trois p*****n d’éoliennes dans mon beau village, ce qui m’a valu quelques applaudissements et une nouvelle lectrice, je pense, qui devrait lire ceci et ceci, entre autres. Pour vous donner une idée, je suis encore pire à l’oral qu’à l’écrit, d’autant que j’ai sifflé pas mal de café aujourd’hui. J’ai appliqué le conseil de quelques personnes que je suis: agir en local. Je ne sais pas si ça aura de l’effet à long terme mais j’ai vu que ça a fait du bien à certains, et moins à d’autres. Les envoyés de la société ont viré au vert pâle…
Tout ce que j’ai fait, c’est de nommer les choses. Comme depuis bientôt cinquante ans.
Eh, on se refait pas.
¯\_(ツ)_/¯
Source.
Toutes – mais vraiment toutes – les affirmations du type « le changement climatique a rendu cet événement plus probable » sont fausses
William M Briggs
22 sept. 2023
Une étude récente menée par un collectif de 13 chercheurs conclut que le changement climatique anthropocentrique est un des facteurs principaux des inondations catastrophiques en Lybie. [NdT. quand vous avez un truc vraiment con à vendre, vous le faites précéder de « Selon une étude récente »]
Ce ne sont là que quelques titres tirés d’un flot de plus en plus abondant. Le genre est devenu routinier. En fait, des titres de ce type sont désormais publiés chaque fois qu’un événement de type météorologique qualifié de « mauvais », tel qu’une inondation, est identifié. Aussitôt l’événement catalogué, quelqu’un se précipite au micro pour dire que c’est la faute au « changement climatique ».
Les articles sont quelque peu techniques, mais je pense que la plupart de mes lecteurs réguliers, qui sont manifestement supérieurs à l’homme moyen, peuvent les lire. [NdT. je ne les ai pas traduits, ils ne sont pas strictement nécessaires pour comprendre le présent billet]
Ce billet est destiné à servir de rappel, un rappel que vous pourrez envoyer aux personnes, aux groupes ou aux dirigeants qui promeuvent des titres tels que ceux mentionnés ci-dessus.
Voici un argument simple expliquant pourquoi ces titres sont faux, suivi d’un petit mot pour présenter les autres arguments contre les attributions.
Argument simple
Un modèle climatique prédit la probabilité d’un événement, par exemple une « vague de chaleur », quel que soit le sens de ce terme. Il donne un chiffre, par exemple 10%. (Les chiffres réels sont généralement beaucoup moindres, ce qui est important, mais je les grossis pour faciliter les calculs pour le lecteur).
Un deuxième modèle climatique prédit la probabilité du même événement, mais ce modèle est censé inclure une atmosphère contenant moins de dioxyde de carbone. Il donne également un chiffre, disons 1%.
On annonce alors: « La vague de chaleur actuelle a été rendue dix fois plus probable par la crise climatique ». Parce que dix fois 1% égalent 10%.
Vous me suivez? Alors vous devriez pouvoir me dire maintenant – vous avez toutes les informations nécessaires, même si certaines sont tacites – pourquoi ce titre, comme tous les autres, est une ineptie majeure.
Besoin d’un indice? Les modèles.
Essayez d’y réfléchir avant de poursuivre votre lecture. Ça vous fera du bien.
Ça y est?
Les calculs ne sont pas faux. C’est dix fois plus, comme annoncé. Le problème, ce sont les modèles. Comment diable le modèle peut-il affirmer qu’il y a 10% de chances que cette vague de chaleur se produise? Enfin, il peut l’affirmer, mais comment savoir si le modèle a raison? Pour que toute cette histoire d’attribution fonctionne, il faut non seulement que le modèle soit juste, mais aussi qu’il soit parfait.
Permettez-moi de le répéter. Il faut qu’il soit parfait.
Cela signifie que les 10% doivent être calibrés. Si vous savez déjà ce que ça veut dire, vous le savez. Sinon, il s’agit d’une exigence technique – qui n’est démontrée par aucun des modèles utilisés par les scientifiques du GIEC. Ce qui, d’une certaine manière, n’est pas leur faute, car l’étalonnage de ces modèles sur tous les types d’événements météorologiques imaginables, s’il n’est pas logiquement impossible, l’est pratiquement.
Ça n’a jamais été fait.
Cela signifie qu’il n’existe aucun moyen de savoir si le modèle raconte n’importe quoi lorsqu’il calcule ces 10% initiaux. Aucun. Comme dans « aucun ». C’est-à-dire aucun. Aucun moyen.
Ce qui aggrave encore les choses, c’est que les 10% correspondent généralement à quelque chose de beaucoup plus petit, de plusieurs ordres de grandeur (les détails techniques se trouvent dans les documents). Ce qui rend l’étalonnage encore plus impossible. Et ce qui rend toutes ces affirmations risibles.
Le deuxième problème c’est le deuxième modèle. Il est entièrement contrefactuel. Il prédit, ou prétend prédire, une atmosphère qui n’existe pas. Et qui ne peut pas exister. Nous avons l’atmosphère que nous avons, et non pas celle qui contiendrait beaucoup moins de CO2.
Cela signifie que non seulement l’étalonnage de ce second modèle est impossible, mais que son exactitude ne pourra jamais être vérifiée à l’aide de quelque observation que ce soit.
Il n’est pas logiquement impossible de faire des déclarations de probabilité contrefactuelles. Nous en faisons en permanence. Mais elles ne peuvent jamais être validées, voyez-vous. Jamais vérifiées.
Ce qui signifie que nous nous retrouvons avec deux nombres impossibles, les 10% et les 1%. Et donc le changement résultant de ces deux nombres impossibles, à savoir dix fois plus, est lui-même impossible.
La beauté de tout cela, si vous êtes un propagandiste ou un Expert en mal de preuves pour conserver son emploi, c’est que, si vous ne pouvez prouver par aucune observation que vous avez raison, je ne peux prouver par aucune observation que vous avez tort.
Vous pouvez donc continuer à faire ces prédictions débiles pour l’éternité. Et vous pouvez le faire en toute impunité.
Autres arguments
En ce moment, dans l’extrême nord du plus grand État de l’Union forcée [NdT. les États-Unis], le temps est parfait. Pas seulement beau: parfait. Environ 21 degrés, soleil, brise légère. Magnifique. On ne peut pas faire mieux. Les bêtes et les oiseaux sont de sortie et se réjouissent. L’un d’eux m’a dit à quel point il était heureux.
Vu cette atmosphère idéale, imaginez-vous donc que nous verrons le titre suivant? Et sinon, pourquoi pas? Dans ce pourquoi pas, vous découvrirez pourquoi le « changement climatique » s’inscrit dans une longue série de paniques imbéciles.
Titre: « Le changement climatique multiplie par dix la probabilité d’un climat idéal digne du Paradis ».
Pour info, mille trillions, ça fait un quadrillion, ou un million de milliards – enfin, vous voyez.
1 000 000 000 000 000$ = -0,1°C
L’auteur est Christopher Walter Monckton, 3ème Vicomte Monckton de Brenchley, vieille noblesse anglaise iconoclaste, qui met les pieds dans le plat sur les sujets les plus tabous avec un sens de l’humour british plus vrai que nature – le genre de personnage infréquentable qui appelle les choses par leur nom. Assez typiquement, c’est aussi un homme d’une grande culture et une tête en mathématiques. Ses calculs sont donc fiables – je dis ça pour ceux qui détestent les maths, vous pouvez les survoler.
Il répond notamment ici à des accusations portées par potholer54, un debunker payé pour protéger, entre autres, le mythe du réchauffement climatique anthropocentrique – nous l’avons déjà croisé ici.
Mille trillions de dollars pour un dixième de degré de réchauffement en moins
Par Christopher Monckton of Brenchley
4 avril 2023
Le sénateur John Kennedy a tenté d’obtenir une estimation du coût du « net zéro » lors d’une récente audition
La Nouvelle Pause s’est allongée à 8 ans et 9 mois. La tendance de régression linéaire des moindres carrés sur l’ensemble des données satellitaires mensuelles de température globale UAH ne montre aucun réchauffement global de juillet 2014 à mars 2023. Comme d’habitude, ce site est à peu près le seul endroit où il est fait état de la défaillance persistante des températures mondiales à faire ce qu’on attend d’elles.
Les dates de début et de fin de la Nouvelle Pause ne sont pas choisies arbitrairement. La date de fin est le présent; la date de début est la date la plus éloignée à laquelle il est possible de remonter pour trouver une tendance nulle. C’est ainsi.
À titre de comparaison, voici l’ensemble des données pour 44 ans et 4 mois depuis décembre 1978. Il montre un taux de réchauffement à long terme pas vraiment terrifiant, équivalent à 1,3 degré/siècle, dont 0,3 K s’est déjà produit depuis janvier 2021, ce qui laisse seulement 1 K à atteindre (sur la base de la tendance actuelle) jusqu’en 2100, date à laquelle les réserves de charbon, de pétrole et de gaz seront en grande partie épuisées.
Le fait qu’au cours du tiers de siècle qui s’est écoulé depuis la publication du rapport du GIEC (1990), le réchauffement de la planète s’avère plus lent que les 0,3 degré/décennie que le GIEC avait alors prédit avec confiance (et qu’il prédit encore aujourd’hui) est pertinent par rapport à une question que le sénateur John Kennedy a posée à deux infortunés représentants de l’actuelle administration incompétente américaine, lorsqu’il les a pris à partie lors d’une récente audition.
Le sénateur a commencé par demander au Dr Robert Litterman, président de la sous-commission des risques de marché liés au climat de la Commodity Futures Trading Commission des États-Unis, depuis combien de temps il étudiait la question du climat. Réponse: 15 ans. Ensuite, au Dr Douglas Holtz-Eakin, président de l’American Action Forum. Réponse: environ 25 ans.
Le sénateur Kennedy: « Dr Litterman, combien cela coûtera-t-il de rendre les États-Unis d’Amérique neutres en carbone d’ici 2050? »
Litterman: « Je ne sais pas, monsieur. »
Le sénateur Kennedy: « Vous préconisez donc que nous fassions ces choses, mais vous ne connaissez pas le coût final? »
Litterman: « Oui, absolument, je ne connais certainement pas le coût final et il est très incertain. Cela dépend des innovations, cela dépend de… »
Le sénateur Kennedy: « J’essaie simplement de poser les bases pour comprendre votre témoignage d’expert. Dr Holtz-Eakin, savez-vous combien il en coûtera pour rendre les États-Unis d’Amérique neutres en carbone d’ici à 2050? »
Holtz-Eakin: « Cela dépend de la manière dont on s’y prend. Si nous faisons tout avec le budget fédéral… »
Le sénateur Kennedy: « Des dollars publics et privés. De toute façon, c’est en fin de compte de l’argent privé. »
Holtz-Eakin: « Je suis d’accord. »
Le sénateur Kennedy: « Alors, combien? »
Holtz-Eakin: « Il faut compter 50 trillions de dollars. »
Le sénateur Kennedy: « 50 trillions de dollars? »
Holtz-Eakin: « Oui. »
Le sénateur Kennedy: « D’accord, merci. Si nous rendons les États-Unis d’Amérique neutres en carbone d’ici 2050, en dépensant 50 trillions de dollars, comme vous le préconisez, j’en déduis que… »
Holtz-Eakin: « Non. »
Le sénateur Kennedy: « D’accord, supprimez la dernière partie. Je me trompe. Vous ne le préconisez pas. Vous préconisez quelque chose. »
Holtz-Eakin: « Quand on fait quelque chose, il faut le faire intelligemment: c’est ce que je préconise. »
Sénateur Kennedy: « Si nous dépensons 50 trillions de dollars pour rendre les États-Unis neutres en carbone d’ici 2050, de combien cela fera-t-il baisser les températures mondiales? » [1]
Holtz-Eakin : « Je ne peux pas le dire, car je ne sais pas ce que la Chine, l’Inde et le reste du monde feront. »
Sénateur Kennedy: « Avez-vous entendu quelqu’un de l’administration Biden dire de combien cela ferait baisser les températures mondiales? » [2]
Holtz-Eakin: « Non. »
Sénateur Kennedy: « Est-ce que quelqu’un sait de combien cela ferait baisser les températures mondiales? [Pause] Non? » [3]
Holtz-Eakin: « Personne ne peut le savoir avec certitude. »
Le sénateur Kennedy: « OK. Dr Litterman, si nous dépensons 50 trillions de dollars, ou le montant qu’il faudra, pour rendre les États-Unis d’Amérique neutres en carbone d’ici 2050, de combien cela fera-t-il baisser les températures mondiales? » [4]
Litterman: « Sénateur, cela dépend du reste du monde. Nous devons travailler avec le reste du monde. Nous sommes dans le même bateau. Nous vivons dans le même monde. Nous ne pouvons pas ériger un mur autour des États-Unis et dire… »
Le sénateur Kennedy: « Et si nous dépensons 50 trillions de dollars, que l’Europe coopère, que la plupart des démocraties occidentales coopèrent, mais que l’Inde et la Chine ne coopèrent pas? De combien nos 50 trillions de dollars feront-ils baisser la température mondiale? » [5]
Litterman: « Nous sommes dans le même bateau, Sénateur. Nous devons faire en sorte que le monde travaille de concert. »
Sénateur Kennedy: « Je comprends. J’ai saisi. De combien cela fera-t-il baisser les températures mondiales?« [6]
Litterman: « Si la Chine et l’Inde ne participent pas? Je ne sais pas. »
Répondons à la question du sénateur Kennedy, six fois posée et six fois sans réponse. C’est l’une des questions centrales du débat sur le climat, mais personne au Parlement de ce côté-ci de I’océan n’aurait eu l’esprit, le courage ou la persévérance de la poser et de continuer à la poser. Je suis toujours aussi impressionné par le calibre de vos hommes d’État par rapport à celui de nos hommes politiques.
Pour répondre à cette question, nous n’utiliserons que des données officielles, moyennes, provenant de sources scientifiques que les « Démocrates » considéreraient comme adéquates.
Premièrement, le taux de croissance quasi linéaire des émissions anthropiques mondiales d’équivalent CO2 depuis le Premier Rapport d’Évaluation du Groupe d’experts Intergouvernemental sur l’Évolution du Climat en 1990 est illustré ci-dessus. Il est probable que ce rythme de base se maintiendra, puisque la plupart des pays continuent à augmenter leur consommation de charbon, de pétrole et de gaz.
L’indice annuel mondial des gaz à effet de serre, compilé par la National Oceanographic and Atmospheric Administration des États-Unis, montre que, malgré les mesures coûteuses prises principalement par les pays occidentaux pour réduire leurs émissions, le forçage radiatif induit par les émissions mondiales de gaz à effet de serre a continué d’augmenter depuis 1990 à un rythme presque linéaire de 1/30e d’unité par an. Ainsi, aucun effet des mesures actuelles de réduction des émissions mondiales, dont le coût a été estimé l’an dernier à 5,6 trillions de dollars par an par McKinsey Consulting, n’est encore perceptible.
Deuxièmement, la tendance à la hausse quasi linéaire du forçage anthropique se poursuivra, compte tenu de l’expansion des centrales au charbon dans des pays tels que l’Inde, la Chine (qui construit actuellement 43 nouvelles centrales au charbon et prévoit d’en construire encore plus) et le Pakistan (qui a annoncé début 2023 qu’il quadruplerait sa capacité de production d’électricité à partir du charbon).
Au cours des 27 années 2023-2049, 27/30èmes d’unité supplémentaires (0,9 unité) se produiront si le rythme de base est maintenu. Mais si tous les pays progressaient en ligne droite vers le « net zéro » d’ici 2050, la moitié de ces 0,9 unité – soit 0,45 unité – serait supprimée.
Réponse climatique transitoire (RCT) Réponse de la température de surface pour le scénario hypothétique dans lequel le dioxyde de carbone (CO2) atmosphérique augmente de 1% par an-1 depuis l’ère préindustrielle jusqu’au moment du doublement de la concentration de CO2 atmosphérique (année 70). GIEC (2021, p.2223)Sur la base de la compréhension du processus, du réchauffement au cours de l’enregistrement instrumental et des contraintes émergentes, la meilleure estimation de la RCT est de 1,8°C. GIEC (2021, p.93)
Troisièmement, le taux de réchauffement planétaire à moyen terme par unité de forçage anthropique est le rapport entre la réponse climatique transitoire à moyen terme à 2xCO2 de 1,8 C (RCT, ci-dessus) et le forçage effectif à 2xCO2 de 3,93 W m-2(ERF, ci-dessous) [NdT. ERF = Effective Radiative Forcing – Le forçage effectif quantifie, en unités de W m-2, la variation de l’énergie disponible pour le système climatique causée par un changement dans une ou plusieurs composantes du bilan radiatif de la Terre]: c’est-à-dire 0,458 K W-1 m2.
Forçage radiatif Le changement dans le flux radiatif net, vers le bas moins vers le haut (exprimé en W m-2), dû à un changement dans un facteur externe de changement climatique, tel qu’un changement dans la concentration de dioxyde de carbone (CO2). GIEC (2021, p. 2245)L’ERF évalué pour un doublement du dioxyde de carbone par rapport aux niveaux de 1750 (3,93 ± 0,47 W m-2) est plus important dans le AR5. GIEC (2021, p. 925)
Quatrièmement, un ajustement est effectué pour tenir compte du fait que le réchauffement planétaire depuis 1990 s’est avéré inférieur à la moitié du taux décennal moyen qui avait été prédit à l’époque – et qui continue d’être prédit aujourd’hui. Le taux de réchauffement global décennal observé depuis 1990, en utilisant l’ensemble des données satellitaires sur la température globale maintenues par l’Université de l’Alabama à Huntsville, n’a été que de 0,136 C décennie-1:
Le GIEC (1990) a prédit le réchauffement de la planète sur la base de quatre scénarios d’émissions A à D, dans l’ordre décroissant des émissions anthropiques prévues. La ligne de tendance du scénario B pour le forçage en équivalent CO2 de 1990 à 2025 (ibid., fig. 2.4B) était identique à la ligne de tendance supposant des émissions annuelles constantes après 1990 (ibid., fig. A.15). En réalité, cependant, en 2023, les émissions avaient augmenté d’environ 53 % par rapport à 1990.
Ainsi, au cours des 33 années qui se sont écoulées depuis 1990, le scénario A s’est avéré beaucoup plus proche de la réalité que les scénarios B à D. Dans le cadre du scénario A (le scénario de maintien du statu quo), le GIEC prévoyait un réchauffement planétaire moyen de 0,3 C par décennie-1, soit 3 C jusqu’en 2100, ainsi qu’un réchauffement final de 3 C en cas de doublement des émissions de CO2.
Sur la base des résultats des modèles actuels, nous prévoyons – dans le cadre des émissions de gaz à effet de serre du scénario A du GIEC, un taux d’augmentation de la température moyenne mondiale au cours du siècle prochain d’environ 0,3°C par décennie (avec une marge d’incertitude de 0,2°C à 0,5°C par décennie), supérieur à celui observé au cours des 10 000 dernières années. Il en résultera une augmentation probable de la température moyenne mondiale d’environ 1°C par rapport à la valeur actuelle d’ici 2025 et de 3°C avant la fin du siècle prochain. L’augmentation ne sera pas régulière en raison de l’influence d’autres facteurs. GIEC (1990, p. xi)
Par conséquent, en multipliant par 0,136 / 0,3, soit 0,453, on réduit le réchauffement prévu par unité d’influence anthropique pour qu’il corresponde à l’observation.
Les calculs ci-dessus, basés sur des données courantes, sont ensuite combinés dans une simple équation. La tendance à la hausse de 27/30e de degré de l’influence anthropique au cours des 27 prochaines années est réduite de moitié pour permettre à toutes les nations de progresser en ligne droite jusqu’à l’absence nette de réchauffement d’ici 2050, plutôt que d’atteindre immédiatement l’absence nette de réchauffement. Ce forçage anthropique est ensuite converti en changement de température globale évité, qui est à son tour réduit en fonction de l’écart entre le réchauffement réel à moyen terme par décennie depuis 1990 et le réchauffement global à moyen terme prévu à l’époque. Le réchauffement planétaire évité, même si toutes les nations parvenaient à atteindre des émissions nettes nulles d’ici 2050, ce qui ne sera pas le cas, serait inférieur à un dixième de degré Celsius:
Même si les États-Unis, responsables de 15% des émissions mondiales, parvenaient à atteindre le « net zéro » d’ici à 2050, leur contribution réduirait la température mondiale de moins d’un soixante-dixième de degré. Telle est la réponse à la question du sénateur Kennedy, réponse à laquelle les « experts Démocrates » en climatologie, forts de 15 et 25 ans d’expérience, n’ont pas pu (ou pas voulu) répondre.
Cette réduction infinitésimale de la température globale représente-t-elle un bon rapport qualité-prix? Prenons comme point de départ le coût de 60 trillions de dollars de M. Holtz-Eakin pour le « net zéro » américain. En effet, cela implique que le coût du net zéro mondial s’élèverait à 400 trillions de dollars. Étant donné que McKinsey Consulting estime le coût des investissements à 275 trillions de dollars et que les frais d’exploitation représentent 2 à 3 fois les investissements, le coût total pourrait bien s’élever à 900 trillions de dollars, soit plus du double de l’estimation de M. Holtz-Eakin, faite à l’emporte-pièce.
Dans ce cas, chaque milliard de dollars dépensé dans la tentative futile d’atteindre des émissions nettes nulles empêcherait environ un dix-millionième de degré de réchauffement climatique – le pire rapport qualité-prix de l’histoire.
J’ai exposé ces nouveaux calculs en détail parce qu’une fois qu’ils seront plus largement connus, ils contribueront à mettre un terme à l’absurdité climatique.
Bon, on a maintenant la date de la fin du monde et le coupable – ce n’est pas le CO2, vous pouvez donc respirer normalement. On s’en doutait un peu, mais voici la preuve en cinq minutes, scientifique mais pas trop technique, à mon avis une lecture passionante qui vous permettra en plus de briller dans vos conversations – au cas où vous croiseriez un être humain au cerveau encore fonctionnel.
C’est publié par la Fondation Clintel, qui a adressé au Secrétaire Général de l’ONU, le socialiste l’excellent António Guterres, cette lettre, dans laquelle figure ce rapport (ici en français) et a également diffusé la Déclaration Mondiale sur le Climat – « Il n’y a aucune urgence climatique » – contre-signée à ce jour par 1609 signataires, et pas des moindres comme vous pourrez le constater sur le document original. Je traduis juste après un article assez rigolo sur le coût estimé des mesures « net-zéro ». Précisons au passage que les fondateurs de Clintel sont mes compatriotes Guus Berkhout, professeur émérite de géophysique, et Marcel Crok, journaliste scientifique.
Juste au cas où la fin du monde serait annulée, on continuera ensuite à se pencher sur la fin de la civilisation occidentale – une mort lente et douloureuse, comme l’a très bien formulé mon beau-fils, que je salue au passage.
La plupart des gens n’ont pas une compréhension claire de l’effet de serre (ES). Il n’est pas compliqué à comprendre, mais il n’est généralement pas bien expliqué. Il est souvent décrit comme un « piège à chaleur », ce qui est inexact. Les gaz à effet de serre (GES) ne piègent pas la chaleur, même si leur présence dans l’atmosphère entraîne une augmentation de la chaleur dans le système climatique. La vérité est qu’après s’être adaptée à une modification des niveaux de GES, la planète continue de restituer toute l’énergie qu’elle reçoit du soleil. Sinon, elle continuerait à se réchauffer indéfiniment. Il n’y a donc pas de changement dans la quantité d’énergie renvoyée. Comment les GES produisent-ils l’effet de serre?
Les GES rendent l’atmosphère plus opaque au rayonnement infrarouge. Alors que le rayonnement solaire chauffe principalement les océans et la surface terrestre de la planète, les GES absorbent les émissions thermiques de la surface dans la basse troposphère et transmettent immédiatement cette énergie à d’autres molécules (généralement N2 et O2) par le biais de collisions qui se produisent beaucoup plus rapidement que le temps qu’il faudrait pour réémettre le rayonnement. Ce phénomène réchauffe la basse troposphère. La densité et la température diminuent rapidement à mesure que l’on monte dans la troposphère, de sorte que les molécules sont plus froides et plus séparées dans la partie supérieure de la troposphère. Les GES ont alors la possibilité d’émettre des rayonnements infrarouges, de sorte que lorsqu’ils entrent finalement en collision avec une autre molécule, ils sont plus froids, de sorte que les GES ont un effet refroidissant dans la haute troposphère et la stratosphère.
Étant donné que les GES rendent l’atmosphère plus opaque au rayonnement IR, lorsqu’ils sont présents, l’émission de la planète vers l’espace ne se fait normalement pas à partir de la surface (comme c’est le cas sur la Lune). Une partie de l’émission se fait quand même depuis la surface à travers la fenêtre atmosphérique, mais la plus grande partie se fait depuis les couches supérieures de l’atmosphère. Nous pouvons définir une hauteur d’émission effective théorique qui correspond à la hauteur moyenne à laquelle le rayonnement terrestre sortant de grande longueur d’onde (outgoing longwave radiation – OLR) est émis. La température à laquelle la Terre émet est la température à la hauteur d’émission effective dans l’atmosphère. Cette température, mesurée depuis l’espace, est de 250 K (-23°C), et non de 255, qui est la température calculée pour un corps noir théorique de la Terre. Cette température correspond à une hauteur d’environ 5 km, que nous appelons la hauteur d’émission effective.
Le dernier élément dont nous avons besoin pour comprendre l’ES est le gradient adiabatique [NdT. ici], qui est positif dans la troposphère, ce qui signifie que la température diminue avec l’altitude. Sans un gradient adiabatique positif, l’ES ne fonctionne pas. Étant donné que les GES font que la planète émet depuis une altitude plus élevée, en rendant l’atmosphère plus opaque au rayonnement IR, cette altitude est plus froide en raison du gradient adiabatique . La Terre doit toujours renvoyer toute l’énergie reçue du Soleil, mais les molécules plus froides émettent moins. La planète traversera donc une période où elle émettra moins qu’elle ne le devrait, réchauffant la surface et la basse troposphère jusqu’à ce que la nouvelle hauteur d’émission atteigne la température nécessaire pour renvoyer toute l’énergie, moment où la planète cessera de se réchauffer.
Le modèle ES stipule simplement que la température à la surface (Ts) correspond à la température d’émission (Te) plus le gradient adiabatique (Γ) multiplié par la hauteur d’émission (Ze).
Ts = Te + ΓZe
Held & Soden (2000) l’ont illustré dans la figure 1:
Figure 1 Illustration schématique de la variation du niveau d’émission (Ze) associée à une augmentation de la température de surface (Ts) due à un doublement du CO2, en supposant un gradient adiabatique atmosphérique fixe. Notez que la température d’émission effective (Te) reste inchangée.
C’est ainsi que fonctionne l’ES. Une augmentation du CO2 signifie une augmentation de la hauteur d’émission. Comme la température d’émission doit rester la même, la température entre la surface et la nouvelle hauteur d’émission doit augmenter. L’augmentation est faible mais significative. Comme le disent Held et Soden:
« L’augmentation de l’opacité due à un doublement du CO2 entraîne une augmentation de Ze de ≈150 mètres. Il en résulte une réduction de la température effective de l’émission à travers la tropopause de ≈(6,5K/km) (150 m) ≈1 K. »
Held and Soden
La température à la surface doit donc augmenter de 1K. C’est le réchauffement direct causé par le doublement du CO2, avant que les rétroactions (principalement la vapeur d’eau) n’interviennent, augmentant encore la hauteur d’émission.
Il en résulte une prédiction intéressante. Si le réchauffement est dû à une augmentation du CO2, lorsque l’augmentation a lieu et que l’altitude d’émission augmente, la planète devrait émettre moins d’OLR puisque la nouvelle altitude est plus froide et qu’une réduction de l’OLR est le mécanisme de réchauffement. Une fois que le réchauffement a eu lieu, l’OLR redevient identique à ce qu’il était avant l’augmentation des gaz à effet de serre. C’est ce qu’indique la légende de la figure 1 de Held et Soden: « Notez que la température d’émission effective (Te) reste inchangée ». Même Te, même OLR. Par conséquent, si le CO2 est responsable de l’augmentation de la température de surface, nous devrions d’abord nous attendre à une diminution de l’OLR, puis à un OLR identique. Si, à un moment donné, nous détectons une augmentation de l’OLR, cela indiquerait une autre cause du réchauffement. Tout ce qui rend la surface plus chaude, à l’exception des GES, augmente la température d’émission, ce qui accroît l’OLR.
Voici donc le test:
Réchauffement de la surface, mais moindre ou même OLR: le CO2 est coupable.
Réchauffement de la surface et augmentation de l’OLR: le CO2 est innocent.
Et les résultats du test peuvent être évalués par exemple avec Derwitte et Clerbaux 2018:
« Les changements décennaux du rayonnement sortant de grande longueur d’onde (OLR) mesurés par le Clouds and Earth’s Radiant Energy System de 2000 à 2018, le Earth Radiation Budget Experiment de 1985 à 1998 et le High-resolution Infrared Radiation Sounder de 1985 à 2018 sont analysés. L’OLR augmente depuis 1985 et est en bonne corrélation avec l’augmentation de la température mondiale« .
Derwitte and Clerbaux 2018
Le CO2 est innocent. Son empreinte digitale n’a pas été retrouvée sur la scène du crime. Quelque chose d’autre réchauffe la planète et provoque l’augmentation de l’OLR.
Voici la traduction d’un extrait (pp. 3-7) du livre de Chan Thomas, « The Adam and Eve story », qui date de 1963. Si vous lisez l’anglais, il est disponible ici, juste en dessous. Sa traduction personnelle et sa réinterprétation des écrits sacrés est passionnante à lire – en fait, c’est la partie la plus intéressante du bouquin. Je suis moins sûr pour ce qui est de sa prédiction ci-dessous mais c’est scientifiquement et historiquement assez bien argumenté. Au cas où elle se réaliserait, faites des conserves, rentrez les chiens et les chats et fermez la porte du poulailler.
Dans un grondement si faible qu’il en est inaudible, s’amplifiant, palpitant, puis se transformant en un rugissement tonitruant, le tremblement de terre commence… mais il ne ressemble à aucun autre tremblement de terre recensé dans l’histoire.
En Californie, les montagnes tremblent comme des fougères sous l’effet de la brise; le puissant Pacifique se cabre et se rassemble en une montagne d’eau de mer de plus de trois kilomètres de haut… puis entame sa course vers l’est.
Avec la force de mille armées, le vent attaque, déchire, déchiquette tout dans son bombardement supersonique. L’incroyable montagne d’eau de mer du Pacifique suit le vent vers l’est, ensevelissant Los Angeles et San Francisco comme s’il ne s’agissait que de grains de sable.
Rien – absolument rien – n’arrête l’assaut implacable et écrasant du vent et de l’océan.
D’un bout à l’autre du continent, le vent, qui souffle à mille à l’heure, déchaîne son enfer, sa vengeance impie, partout, sans pitié, sans relâche. Tout ce qui vit est réduit en lambeaux par le vent, et les tremblements de terre n’épargnent aucun endroit. En de nombreux endroits, la sous-couche en fusion de la terre perce et répand une mer de feu liquide chauffée à blanc qui vient s’ajouter à l’holocauste. En l’espace de trois heures, le fantastique mur d’eau de mer traverse le continent, ensevelissant les terres ravagées par le vent sous trois kilomètres d’eau bouillonnante d’un océan à l’autre.
En une fraction de journée, tous les vestiges de la civilisation ont disparu et les grandes villes – Los Angeles, San Francisco, Chicago, Dallas, New York, Boston – ne sont plus que des légendes. Il ne reste plus une pierre debout là où des millions de personnes marchaient quelques heures auparavant.
Les quelques chanceux qui parviennent à s’abriter du vent hurlant sur le versant sous le vent d’un haut sommet montagneux – comme le mont Massive – observent la mer de feu en fusion qui déferle dans les vallées secouées par les tremblements de terre en contrebas. Les eaux en furie déferlent ensuite à des vitesses supersoniques, s’empilant de plus en plus haut, bouillonnant sur le feu terrestre en fusion, et s’élevant presque jusqu’à leurs pieds. Seules de grandes et hautes montagnes comme celle-ci résistent à l’assaut cataclysmique.
L’Amérique du Nord n’est pas la seule dans son agonie. L’Amérique centrale subit la même canonnade – vent, feu terrestre et inondation.
En Amérique du Sud, les Andes ne sont pas assez hautes pour arrêter la violence cataclysmique de la nature dans sa rage folle. En moins d’une journée, l’Équateur, le Pérou et l’ouest du Brésil sont secoués par le tremblement de terre dévastateur ; les Andes sont empilées de plus en plus haut par l’assaut supersonique du Pacifique qui déferle sur les montagnes. Le continent entier est brûlé par un feu de terre en fusion, enseveli sous des kilomètres cubes de mers d’une violence catastrophique, puis transformé en un enfer glacé. Tout gèle. En moins de quatre heures, hommes, bêtes, plantes et boue deviennent durs comme de la pierre.
L’Europe n’échappe pas à l’assaut. L’Atlantique en furie s’empile de plus en plus haut sur lui-même, suivant le vent hurlant vers l’est. Les Alpes, les Pyrénées, l’Oural et les montagnes scandinaves sont secouées, puis soulevées encore plus haut lorsque le mur d’eau de mer frappe.
L’Afrique de l’Ouest et les sables du Sahara disparaissent dans la colère de la nature, attaqués sauvagement par le vent et l’océan. La région délimitée par le Zaïre, l’Afrique du Sud et le Kenya ne subit que des tremblements de terre et des vents violents, et peu d’inondations. Les survivants s’émerveillent de voir le soleil rester immobile dans le ciel pendant près d’une demi-journée.
La Sibérie orientale et l’Orient subissent un sort étrange, comme si une gigantesque faux souterraine balayait les fondations de la terre, accompagnée par le vent dans sa symphonie hurlante de mort et de destruction supersoniques. Alors que le bassin arctique quitte son foyer polaire, la Sibérie orientale, la Mandchourie, la Chine et la Birmanie sont soumises au même anéantissement que l’Amérique du Sud: vent, feu de terre, inondation et gel. Les animaux de la jungle sont déchiquetés par le vent, empilés en montagnes de chair et d’os et ensevelis sous des avalanches d’eau de mer et de boue homogénéisées. Vient ensuite la soudaine, et apparemment infinie, terrible chute de température de 180 degrés F, instantanément paralysante. Aucun homme, aucune bête, aucune plante, aucune boue, aucune terre, aucune eau n’est épargnée par le gel sur l’ensemble du continent asiatique oriental, dont la plus grande partie se trouve sous le niveau de la mer.
L’Antarctique et le Groenland, avec leurs calottes glaciaires, tournent maintenant autour de la terre dans la zone torride, et la fureur du vent et de l’inondation se poursuit pendant six jours. Au cours du sixième jour, les océans s’installent progressivement à leur nouvelle place, s’écoulant des hautes terres.
Le septième jour, l’horrible déchaînement est terminé. L’ère glaciaire arctique est terminée et un nouvel âge de pierre commence. Les océans – les grands homogénéisateurs – ont déposé une nouvelle couche de boue sur les strates existantes dans les grandes plaines, comme le montrent le Grand Canyon, le Painted Desert, Monument Valley et les Badlands.
Le bassin du golfe du Bengale, juste à l’est de l’Inde, se trouve maintenant au pôle Nord. L’océan Pacifique, juste à l’ouest du Pérou, se trouve au pôle Sud. Le Groenland et l’Antarctique, qui tournent désormais à l’équateur, voient leurs calottes glaciaires fondre furieusement sous l’effet de la chaleur tropicale. De gigantesques murs d’eau et de glace déferlent vers les océans, emportant tout – des montagnes aux plaines – dans des trajectoires bondissantes et sinueuses, tout en créant d’immenses moraines saisonnières. En moins de vingt-cinq ans, les calottes glaciaires ont disparu et les océans du monde entier s’élèvent de plus de deux cents pieds grâce à cette eau nouvelle. La zone torride restera enveloppée de brouillard pendant des générations en raison des énormes quantités d’humidité déversées dans l’atmosphère par la fonte des calottes glaciaires.
De nouvelles calottes glaciaires commencent à se former dans les nouvelles régions polaires. Le Groenland et l’Antarctique se parent d’un feuillage tropical verdoyant. L’Australie est le nouveau continent inexploré de la zone tempérée du Nord, et seules quelques poignées de survivants peuplent son immensité. New York gît au fond de l’Atlantique, brisée, fondue par le feu et recouverte d’incommensurables quantités de boue. De San Francisco, Los Angeles, Chicago, Dallas et Boston, il ne reste aucune trace. Elles rejoindront toutes les légendes des sept villes de Cibola.
Ce qui reste de l’Égypte émerge de l’inondation méditerranéenne, nouvelle et plus élevée – toujours la terre des siècles. Le monde actuel devient le mystérieux Baalbek de l’ère nouvelle.
Une nouvelle ère! Oui, le cataclysme a bien fait son œuvre. Le plus grand régulateur de population de l’histoire impose une fois de plus à l’homme ce qu’il refuse de faire pour lui-même et à la planète sur laquelle il vit, et pousse les quelques pitoyables survivants dans un nouvel âge de pierre.
Après ce cataclysme, nous rejoignons Noé, Adam et Eve, l’Atlantide, Mu et l’Olympe – et Jésus rejoint Osiris, Ta’aroa, Zeus et Vishnu.
Texte original
With a rumble so low as to be inaudible, growing, throbbing, then fuming into a thundering roar, the earthquake starts… only it’s not like any earthquake in recorded history.
In California the mountains shake like ferns in a breeze; the mighty Pacific rears back and piles up into a mountain of seawater more than two miles high… then starts its race eastward.
With the force of a thousand armies the wind attacks, ripping, shredding everything in its supersonic bombardment. The unbelievable mountain of Pacific seawater follows the wind eastward, burying Los Angeles and San Francisco as if they were but grains of sand.
Nothing – but nothing – stops the relentless, overwhelming onslaught of wind and ocean.
Across the continent the thousand mile-per-hour wind wreaks its hell, its unholy vengeance, everywhere, mercilessly, unceasingly. Every living thing is ripped into shreds while being blown across the countryside, and earthquakes leave no place untouched. In many places the earth’s molten sublayer breaks through and spreads a sea of white-hot liquid fire to add to the holocaust. Within three hours the fantastic wall of seawater moves across the continent, burying the wind- ravaged land under two miles of seething water coast- to-coast.
In a fraction of a day all vestiges of civilization are gone, and the great cities – Los Angeles, San Francisco, Chicago, Dallas, New York, Boston – are nothing but legends. Barely a stone is left where millions walked just a few hours before.
A few lucky ones who manage to find shelter from the screaming wind on the lee side of a high mountain peak – such as Mt. Massive – watch the sea of molten fire breaking through the quaking valleys below. The raging waters follow at supersonic speeds, piling higher and higher, steaming over the molten earth-fire, and rising almost to their feet. Only great, high mountains such as this one can withstand the cataclysmic onslaught.
North America is not alone in her death throes. Central America suffers the same cannonade – wind, earth-fire, and inundation.
South America finds the Andes not high enough to stop the cataclysmic violence pounded out by nature in her berserk rage. In less than a day, Ecuador, Peru, and western Brazil are shaken madly by the devastating earthquake; the Andes are piled higher and higher by the Pacific s supersonic onslaught as it surges over itself against the mountains.The entire continent is burned by molten earth-fire, buried under cubic miles of catastrophically violent seas, then turned into a frozen hell. Everything freezes. Man, beast, plant, and mud are all rock-hard in less than four hours.
Europe cannot escape the onslaught. The raging Atlantic piles higher and higher on itself, following the screeching wind eastward. The Alps, Pyrenees, Urals, and Scandinavian mountains are shaken, then heaved even higher when the wall of seawater strikes.
Western Africa and the sands of the Sahara vanish in nature’s wrath, under savage attack by wind and ocean. The area bounded by Zaire, South Africa, and Kenya suffers only severe earthquakes and winds – little inundation. Survivors there marvel at the Sun, standing still in the sky for nearly half a day.
Eastern Siberia and the Orient suffer a strange fate indeed – as though a giant subterranean scythe sweeps away the earth’s foundations, accompanied by the wind in its screaming symphony of supersonic death and destruction. As the Arctic basin leaves its polar home, eastern Siberia, Manchuria, China and Burma are subjected to the same annihilation as South America: wind, earth-fire, inundation, and freezing. Jungle animals are shredded to ribbons by the wind, piled into mountains of flesh and bone, and buried under avalanches of homogenized seawater and mud. Then comes the sudden, seemingly infinite supply of terrible, instantly paralyzing temperature drop of 180 degrees F. Not man, beast, plant, muck, earth, nor water is left unfrozen in the entire eastern Asian continent, most of which remains below sea level.
Antarctica and Greenland, with their ice caps, now rotate around the earth in the Torrid Zone; and the fury of wind and inundation marches on for six days. During the sixth day the oceans start to settle in their new homes, running off the high grounds.
On the seventh day the horrendous rampage is over. The Arctic Ice Age is ended – and a new stone age begins. The oceans – the great homogenizers – have laid down another deep layer of mud over the existing strata in the great plains, as exposed in the Grand Canyon, Painted Desert, Monument Valley, and the Badlands.
The Bay of Bengal basin, just east of India, is now at the North Pole. The Pacific Ocean, just west of Peru, is at the South Pole. Greenland and Antarctica, now rotating equatorially, find their ice caps dissolving madly in the tropical heat. Massive walls of water and ice surge toward the oceans, taking everything – from mountains to plains – in gushing, heaving paths, while creating immense seasonal moraines. In less than twenty-five years the ice caps are gone, and the oceans around the world rise over two hundred feet with the new-found water. The Torrid Zone will be shrouded in a fog for generations from the enormous amounts of moisture poured into the atmosphere by the melting ice caps.
New ice caps begin to form in the new polar areas. Greenland and Antarctica emerge with verdant, tropical foliage. Australia is the new, unexplored continent in the North Temperate Zone, with only a few handfuls of survivors populating its vastness. New York lies at the bottom of the Atlantic, shattered, melted by earth- fire, and covered by unbelievable amounts of mud. Of San Francisco, Los Angeles, Chicago, Dallas and Boston, not a trace is left. They all will join the legends of the seven cities of Cibola.
What’s left of Egypt emerges from its Mediterranean inundation new and higher – still the land of the ages. The commonplace of our time becomes the mysterious Baalbek of the new era.
A new era! Yes, the cataclysm has done its work well. The greatest population regulator of all does once more for man what he refuses to do for himself and the planet on which he lives, and drives the pitiful few who survive into a new stone age.
After this cataclysm we join Noah, Adam and Eve, Atlantis, Mu, and Olympus – and Jesus joins Osiris, Ta’aroa, Zeus, and Vishnu.
Quatrième de la série. Il est prêt depuis longtemps, je ne vous fais pas attendre davantage. L’introduction est ici.
Au fait, si rien d’autre, ceci devrait rappeler que la source majeure de modification climatique se trouve dans les émissions électromagnétiques du soleil. Davidson évalue l’impact climatique de l’activité humaine à 5% au grand maximum – j’ai suivi une de ses conférences sur sa chaîne qui détaille précisément son calcul.
L’article suivant – les premières pages de « The Adam and Eve Story » – donnera une vision plus concrète de la catastrophe annoncée ici. Je le publie incessamment, en laissant un peu de temps à mes lecteurs pour digérer ce qui suit.
Note de traduction: j’ai transcrit et traduit la narration, j’ai juste la flemme – et pas trop le temps – de recréer un fichier de sous-titres pour l’afficher sous la vidéo, que vous devrez regarder en V.O. (les sous-titres traduits automatiquement sont nuls, référez-vous à mon texte).
Une catastrophe terrestre se prépare – TOUTES les preuves
Pour la première fois, toutes les preuves rassemblées en un même lieu. L’histoire complète du cycle des catastrophes de la Terre.
La Terre connaît de longues périodes de tranquillité, rythmées par la lente érosion du vent, de la pluie et de la géologie. Ces périodes sont ponctuées par une catastrophe récurrente. Nous arrivons à la fin de l’une de ces périodes de calme, et une catastrophe se prépare.
En recoupant des millénaires de preuves, des siècles d’études et les capacités modernes de la technologie, nous sommes en mesure de fournir toutes les preuves du cycle des catastrophes sur Terre, et nous disposons de tous les outils pour suivre le prochain cycle.
La Terre est sur le point de subir un événement qui ne lui est plus arrivé depuis des milliers d’années. Les pôles magnétiques se déplacent. L’intensité du champ magnétique terrestre diminue. Des modifications magnétiques se produisent dans tout le système solaire et sur le soleil. Nous allons vous présenter l’histoire de ce cycle de catastrophes, qui nous touchera bientôt à nouveau.
Il y a plusieurs aspects à cette histoire, que nous allons tous aborder ici. Commençons par le déplacement des pôles. Il est bien réel et il va se produire. En fait, il est déjà en train de se produire. Tous les 12 000 ans se produisent de grands déplacements des pôles magnétiques, appelés excursions géomagnétiques. Des événements plus mineurs se produisent également, selon des demi-cycles de 6 000 ans. L’événement de la Chine a été confirmé au début de l’année. Les événements les plus étudiés sont: le dernier en date, il y a 12 000 ans – l’excursion géomagnétique de Göteborg – et un événement exceptionnellement puissant, il y a environ 40 000 ans, appelé Laschamp. Il en va de même pour les autres événements.
On trouve des informations sur tous ces événements dans les revues scientifiques. Ce phénomène se produit très régulièrement, et il est actuellement en train de se répéter. Le déplacement du champ magnétique terrestre a commencé dans les années 1850, mais il a davantage progressé depuis l’an 2000 qu’au cours des quelque 150 ans qui l’ont précédé. Ce changement s’accélère et continuera de s’accélérer.
Par le passé, ces événements ont coïncidé avec des changements climatiques majeurs, des éruptions volcaniques et un stress de la biosphère qui entraîné l’extinction d’espèces. Après des décennies de débats contradictoires dans les milieux scientifiques, une étude concluante a été publiée dans la plus importante revue de géophysique mondiale. Ces excursions magnétiques provoquent l’extinction de nombreuses espèces et mettent à rude épreuve l’ensemble de la chaîne alimentaire. En plus des éruptions volcaniques et des changements climatiques, l’irradiation spatiale supplémentaire pose des problèmes de navigation aux oiseaux, aux mammifères et aux créatures marines.
Ces changements peuvent se produire très rapidement. En fait, même si le prochain se produisait demain, il ne serait déjà plus le plus rapide de l’histoire, alors qu’il dure depuis plus de 150 ans. Lorsqu’il atteindra son point culminant, il évoluera 100 fois plus vite qu’aujourd’hui, voire encore plus vite, et il ne nous restera que quelques mois, voire quelques semaines. Cette histoire se compose de milliers d’éléments, qui se conjuguent pour brosser un avenir effrayant pour notre planète, et ce sont les roches, les sédiments, les fossiles et la lave refroidie qui en témoignent.
Nous allons maintenant voir que cet événement semble frapper l’ensemble du système solaire. Examinons rapidement la situation au niveau galactique. La galaxie abrite une nappe de courant électrique ondulant, tout comme les étoiles, notre soleil et les sphères aimantées dans un laboratoire. Dans notre galaxie, la hauteur, l’amplitude et la longueur d’onde de ces ondes ont été analysées et, en tenant compte d’une vitesse d’environ 600 à 800 kilomètres par seconde du flux radio sortant, elle devrait atteindre notre système solaire tous les 12 000 ans environ. Cette nappe de courant contient le point d’inversion magnétique galactique, et non l’équateur galactique comme beaucoup le croient à tort. C’est ce renversement magnétique galactique, attendu tous les 12 000 ans environ, qui impacte notre système solaire et qui est la force motrice du cycle de catastrophes terrestres de 12 000 ans.
Où en sont ces changements dans le système solaire? Les vents les plus violents de Vénus sont maintenant plus puissants et plus rapides – en fait 33% plus rapides. Des études de la Terre ont montré que l’activité solaire, qui est modulée par le champ magnétique terrestre, contribue à la vitesse des vents à toutes les altitudes, de sorte qu’un changement magnétique sur Vénus serait l’explication de ces vents. Mars a connu plus de changements climatiques que la Terre, une activité sismique accrue, et on pense même aujourd’hui qu’elle possède un manteau actif et vivant, alors qu’on a longtemps pensé que toute la planète était morte. Les études sur le champ magnétique terrestre et l’activité solaire dont nous disposons montrent que ceux-ci sont liés au climat à long terme de la Terre et à son activité sismique, de sorte qu’il serait logique qu’un changement magnétique sur Mars soit ici en cause. Un changement magnétique majeur pourrait même avoir réveillé le manteau de Mars – les experts avaient raison lorsqu’ils pensaient que la planète était morte, et ils ont encore raison aujourd’hui. Il est difficile d’expliquer tous les changements survenus sur Mars par un phénomène unique, si ce n’est un événement magnétique planétaire.
Les nuages de Jupiter montrent de nombreux changements, notamment au niveau de la Grande Tache Rouge, mais le changement le plus intéressant a trait aux signaux radio provenant de ses champs magnétiques. Il s’agit d’une indication directe que ces champs magnétiques sont en train de changer, ce qui expliquerait également les anomalies de ses nuages, car nous savons que sur Terre, les conditions solaires et géomagnétiques ont un impact sur les nuages.
L’orbite trentenaire de Saturne est excentrique et tous les 30 ans, à son point le plus proche du Soleil, une super-tempête se forme dans l’hémisphère nord en raison de l’apport accru d’énergie solaire dans le système. Cette tempête vient de se produire avec 10 ans d’avance, pour la première fois depuis l’invention du télescope. Pourquoi? Un déplacement magnétique sur Saturne permettrait à davantage d’énergie solaire de pénétrer le système – la quantité qui mettait avant 10 ans de plus pour produire une telle tempête.
L’activité aurorale record sur Uranus, ainsi que son activité orageuse record, sont également un indice d’un changement des conditions magnétiques. Les champs magnétiques planétaires empêchent le vent solaire de pénétrer dans l’atmosphère, et un changement du magnétisme d’Uranus entraînerait une augmentation du plasma solaire et de l’activité aurorale.
Neptune vient de connaître une inversion de tempête, ce qui n’est pas anodin. Tout comme les ouragans terrestres, les tempêtes de Neptune suivent des schémas. Imaginons maintenant qu’un ouragan se forme au large de la Floride et qu’il traverse l’Atlantique en direction de l’est pour toucher l’Afrique. Impossible, n’est-ce pas? C’est pourtant ce qui vient de se produire sur Neptune. Et la dominante électrique de la tempête neptunienne suggère que sa cause est une inversion électromagnétique.
Enfin, Pluton a perdu 20% de son atmosphère en moins de deux ans, bien plus que ce que l’on pourrait attendre du gel de l’hiver plutonien. Comment une planète peut-elle perdre son atmosphère aussi rapidement? De la même manière que Mars l’a perdue il y a longtemps. Lors d’un changement majeur, le champ magnétique s’effondre.
Nous avons ainsi la preuve d’un changement magnétique sur toutes les planètes, et oui, nous en avons également une pour le champ du Soleil. On observe un déplacement notable du champ magnétique coronal et un changement correspondant de la chimie de l’hélium. Si le renversement magnétique galactique a un impact sur l’ensemble du système solaire, nous devrions observer ces changements magnétiques sur toutes les planètes et sur le Soleil, et c’est exactement le cas.
Mais la nappe de courant galactique devrait également transporter des poussières, des ions, des gaz neutres et avoir un impact sur les champs magnétiques à grande échelle qui entourent l’ensemble du système solaire. Que constate-t-on?
Les scientifiques observent plus d’ions interstellaires que prévu. C’est le premier point.
Les scientifiques observent également plus d’hydrogène énergétiquement neutre que prévu. C’est le deuxième point.
Et comme le montrent plusieurs études récentes, la quantité de poussière augmente dans le système solaire interne. C’est le troisième point.
Les scientifiques remarquent également des changements phénoménaux dans le ruban IBEX [Interstellar Boundary Explorer, ici et ici, en anglais], l’empreinte magnétique interstellaire sur l’héliosphère extérieure entourant le système solaire. Soit quatre points sur quatre en matière de chimie et de magnétisme à grande échelle, auxquels s’ajoutent les changements magnétiques sur les planètes du système solaire et sur le Soleil – un changement au niveau de tout le système solaire.
L’histoire de la Terre, les observations modernes, le système solaire et la physique galactique chantent tous la même chanson.
Mais ce n’est pas tout. Si la nappe de courant galactique se déplace radialement vers l’extérieur à partir du centre galactique, n’aurions-nous pas dû voir les étoiles les plus proches du centre de la galaxie être touchées? En raison de la distance entre les étoiles, nous ne pouvons observer que les plus proches, le système de Proxima Centauri et l’étoile de Barnard. Il y a aussi l’étoile A.D. Leo [ici], qui se trouve à peu près à la même distance du centre de la galaxie que nous, mais à plusieurs années-lumière au nord. Ces trois étoiles ont connu des explosions à des niveaux superéruptifs ou supérieurs. L’étoile de Barnard en premier, car elle est la plus éloignée. Proxima a ensuite connu une activité éruptive record. Et récemment, il en a été de même pour A.D. Leo.
Il aurait été intéressant de disposer des technologies les plus modernes il y a 60 ou 80 ans, pour observer l’activité d’étoiles plus éloignées, mais toutes celles que nous avons surveillées de cette manière à l’ère moderne ont connu l’augmentation à laquelle on pourrait s’attendre si la nappe galactique les avait touchées en premier. Et elles l’ont fait dans le bon ordre, en ligne droite vers le Soleil, et notre système solaire est le suivant sur cette trajectoire.
Jusqu’à présent, toutes ces histoires se complètent. Alors, penchons-nous un peu plus sur l’idée d’explosion stellaire. L’une des preuves récurrentes de ces cycles est la découverte sur Terre d’isotopes typiques de nova, qui ne peuvent être produits que lors d’un épisode de nova stellaire. Or, il se trouve qu’on les retrouve dans les microtectites et les fossiles correspondant au cycles de catastrophes terrestres de 12 000 ans.
Mais la nappe de courant galactique peut-elle produire un phénomène récurrent de micro-nova sur le Soleil? Oui. En effet, les scientifiques savent que ces nova récurrentes sont déclenchées, ailleurs dans l’espace, de deux manières. L’une d’entre elles résulte d’un coup de fouet magnétique qui frappe l’étoile et l’autre se produit quand de la matière se déverse sur l’étoile, une accumulation appelée accrétion. Il se trouve que la nappe de courant galactique entraîne l’inversion magnétique galactique, donnant ainsi ce coup de fouet magnétique, et que les poussières supplémentaires, les particules neutres et les ions qui accompagnent cette nappe forment le matériau déversé sur l’étoile. Les deux méthodes connues pour créer une nova réunies en une seule au sein de la nappe de courant galactique.
Depuis la première étude sur les nova à prendre en compte l’influence du champ magnétique, nous savons que les isotopes fixés à la poussière ne peuvent pas quitter le vestige de la nova. Par conséquent, les isotopes qui arrivent sur Terre tous les 12 000 ans proviennent obligatoirement de notre étoile. Les isotopes nous indiquent tout ce dont nous avons besoin pour comprendre le fonctionnement de notre étoile. La nappe de courant galactique réunit les deux mécanismes connus, et les isotopes ne peuvent pas provenir d’une autre étoile. Les coïncidences s’accumulent.
Il se trouve que des événements de micro-nova solaire de multiples étoiles ont finalement résolu un problème de longue date de la physique galactique. On savait que la nappe de courant existait et qu’elle s’étendait à toute la galaxie, mais les modèles ne permettaient pas de déterminer comment elle se perpétuait à si grande distance. Or, il se trouve qu’en injectant l’énergie d’une nova directement dans le système magnétique de la galaxie, au niveau de la nappe de courant, elle trouve la puissance nécessaire pour persister et se maintenir. Ainsi, cette nappe de courant responsable d’explosions stellaires permet en fait de résoudre les problèmes de la physique galactique. L’année dernière, après avoir juré pendant de nombreuses années que ce n’était pas possible, que cela n’existait pas, les astronomes ont finalement admis l’existence des micro-novas. Ces événements récurrents au niveau du Soleil sont non seulement la seule explication à la présence d’isotopes sur Terre, ils sont non seulement potentiellement déclenchés de deux façons par la nappe de courant galactique, mais ils sont également nécessaires pour expliquer nos observations de la galaxie dans l’univers réel. Même histoire, domaines scientifiques différents.
Revenons donc à la Terre. Tous les catastrophistes de l’histoire ont prévu que la Terre basculerait, changerait d’axe et subirait des tsunamis massifs lorsque les océans se déchaîneraient. Einstein et plusieurs autres ont convenu que c’est la séparation de la croûte et du manteau qui provoquerait cette bascule. Mais ils ne parvenaient pas à comprendre comment.
Comment la croûte se déverrouille-t-elle? Nous savons maintenant, grâce aux preuves contemporaines, que la croûte est verrouillée par un équilibre thermoélectrique et les scientifiques savent déjà que l’influence solaire induit dans le manteau un courant électrique en traversant la frontière entre la croûte et le manteau.
La micro-nova solaire génère suffisamment de courant pour perturber les aspects thermiques et électriques de cet équilibre thermoélectrique, ce qui libère la croûte. La micro-nova est donc également l’élément essentiel permettant de compléter l’histoire des catastrophistes qui affirment que la Terre bascule, change d’axe et déclenche des tsunamis massifs.
Il est intéressant de noter que plusieurs scientifiques de l’époque d’Einstein ont également calculé ce qui se passerait si l’on parvenait à déverrouiller la croûte terrestre. Le poids de la glace dans la région polaire tendrait à se déplacer vers l’équateur, le point où la force centrifuge est la plus grande. Il se trouve que la Terre basculerait sous l’effet de cette grande masse de glace, de sorte que le Groenland se retrouverait à l’équateur, de même que la partie de l’Antarctique située au sud de l’Australie. Le golfe du Bengale dans l’Océan Indien et le Pérou se retrouveraient ainsi aux pôles nord et sud, ce qui correspond exactement à ce qu’avaient prédit il y a longtemps plusieurs autres catastrophistes qui ne disposaient pourtant pas des calculs mathématiques de l’époque d’Einstein relatifs à la masse de glace, ce qui est absolument stupéfiant.
Mais il ne s’agit pas seulement d’une double coïncidence. Les pôles magnétiques se déplacent déjà, comme nous l’avons mentionné, et sont prêts à se rencontrer pour entrer en collision dans le golfe du Bengale, le Pérou se retrouvant bien sûr du côté opposé de la planète. Si la planète s’incline comme on l’a prédit et comme le suggèrent les calculs ultérieurs, il se trouve que cela ramènera les pôles magnétiques au pôle géographique nord et au pôle géographique sud. Il s’agit peut-être de la plus grande coïncidence qui soit, mais elle n’en est qu’une de plus sur notre liste.
L’histoire devient encore plus intéressante lorsque l’on réalise que les textes religieux et les récits mythologiques décrivent exactement ces événements, depuis la Terre qui oscille comme un ivrogne jusqu’au soleil noir durant les jours d’obscurité, causé par les matériaux accumulés sur le soleil avant que survienne la micronova, en passant par les grandes vagues, les inondations, les incendies, les volcans et la disparition d’espèces.
Alors, de quelle manière ces anciens récits concordent-ils aujourd’hui avec la science? Non seulement avec la science, mais aussi avec l’humanité elle-même. La culture humaine d’aujourd’hui donne l’impression que le monde entier est devenu une gigantesque Sodome et Gomorrhe, avec une montée de la dégénérescence satanique et la perte des valeurs morales traditionnelles. Tout se passe exactement comme cela a été écrit. Ces textes prédisent donc ce que la science moderne prédit, jusqu’à la façon même dont les humains se comporteront. Honnêtement, combien de ces coïncidences sommes-nous censés ignorer?
Eh bien, ajoutons-en une autre. Il semble que ce soit exactement ce à quoi se préparent les gouvernements et les élites. Ces gens agissent au mépris de toute règle parce qu’ils savent qu’il n’y aura pas de compte à rendre. Ils dépensent comme s’il n’y avait pas de lendemain parce que, dans une perspective réaliste, il n’y en aura pas. Les gouvernements creusent des souterrains et des membres de l’élite, comme Elon Musk et Jeff Bezos, optimisent leurs options. Bezos est en train de creuser dans une montagne de la Sierra Diablos, juste en face de sa base de lancement Blue Origin. Quant à Elon Musk, il possède SpaceX et la Boring Company [société de forage]. Les célébrités et les milliardaires achètent des bunkers de l’apocalypse à un rythme surprenant. Même Andrew et Tristan Tate en construisent un en Roumanie.
La science commune est constituée d’un vecteur, d’une ligne de preuve, puis des meilleures estimations ou suppositions sur ce qu’elle signifie. Ceci n’est pas de la science commune. Ceci, c’est une histoire similaire qu’on retrouve dans l’histoire de la Terre, la paléoclimatologie, le paléomagnétisme, les fossiles, les sédiments, la physique du système solaire, l’astrophysique, la physique galactique, les observations modernes, les mathématiques, la religion, la culture et le mouvement des élites – tout concorde. N’écoutez pas ce qu’ils disent. Observez ce qu’ils font.
En parlant de mathématiques, le rythme des changements actuels suggère qu’il ne nous reste que 10 à 20 ans. Alors, admettrez-vous que ces montagnes de preuves chantent toutes la même chanson, ou vous laisserez-vous le monde vous distraire? Laisserez-vous l’incrédulité vous dissuader? Votre avenir et celui de vos enfants dépendent de votre réponse à cette question.
Note: pour ceux que ça intéresse, mon article précédent a été révisé et augmenté – la version qui figure sur le blog (pas le mail).
Note bis: après avoir lu cet excellent debunking, j’ai retiré de cette page la mention de l’effet Hutchison et de son rôle dans la démolition des WTC.
Pendant la Seconde Guerre mondiale, Einstein a été utilisé comme marionnette de propagande pour promouvoir une certaine idée de la science. L’idée que la science n’est possible que par les élites. Et que nous devons écouter ces élites. Et que seules des personnes stupides peuvent penser qu’elles ont tort.
Tout cela n’était que de la propagande, car même dans leurs propres écrits ou paroles, la plupart des soi-disant « scientifiques d’élite » doutaient de leurs propres idées. D’autres ont fait passer leurs idées pour de la « science établie », en utilisant des moyens de propagande, et non de la science.
Je pense qu’un groupe de psychopathes cherche à promouvoir ce genre de discours, pour leur propre orgueil et leur propre profit. Et qu’il est facile à des gens intelligents de les déjouer. Ils ont donc besoin de propagande pour maintenir leur faux statut d’élite. Et pour obtenir de l’argent pour des projets absurdes.
C’est Ben Davidson qui le dit. Il est le fondateur de la chaîneSuspicious0bservers. Il n’a pas de formation scientifique, il a étudié le Droit – il est donc avocat. Ses détracteurs l’accusent d’être un pseudoscientifique, un escroc, un narcissique et un chef de secte. C’est parfaitement exact. Ok, donc c’est une connerie, pas besoin de s’inquiéter. On passe tout de suite à l’article suivant.
Hep, pas si vite.
Croyez-le ou non, je me méfie du catastrophisme et des annonces de fin du monde – je ne tiens pas à passer pour un témoin de Jehovah – mais je les lis quand même, à tout hasard. J’ai lu celle-ci très attentivement. Commençons déjà par jeter un oeil sur les détracteurs et comparons point par point.
Un point qu’ils partagent tous (notamment potholer54), c’est de marteler systématiquement de la théorie de l’évolution, fleuron de la pseudoscience. Pas de façon très subtile ni originale, d’ailleurs, le bon vieux « strawman argument » qui consiste à valider sa théorie en contrant un argument creux, soigneusement sélectionné, de préférence articulé par un gugusse (dans ce cas précis, un créationniste pas très aiguisé) sans évidemment jamais s’aventurer sur le terrain des phénomènes complexes – par exemple, la coagulation sanguine ou la vision – et encore moins sur celui encore plus casse-pipe de l’ADN. C’est leur vieille tactique, celle qui a permis de maintenir en vie artificielle cette « théorie »: un faux débat entretenu pour faire passer comme scientifique un paquet de spéculations scientifiquement démontables en trois minutes chrono, le seul calcul des probabilités démontrant que même si c’était biologiquement, génétiquement, écologiquement et logiquement possible – ce qui n’est pas le cas, comme on le sait depuis la découverte du fonctionnement de l’ADN – l’évolution ne peut mathématiquement pas fonctionner, même sur une échelle de temps infinie. Donc pseudoscience: check. Pour une vraie réflexion scientifique à ce propos, voir la vidéo de Michael Clarage en lien plus loin sur cette page.
Deuxième point: défendre cette doctrine foireuse moyennant financements publics, privés, emplois officiels ou récolte de fonds constitue de facto une escroquerie. Check.
Troisième point, le narcissisme. Prenons le cas d’un certain Professor Dave, pantin arrogant vaguement diplômé, son sourire autosatisfait ne quittant jamais sa tête à claques de petite frappe de la mafia scientifique ambiante, son ego boursouflé servant d’écran entre la réalité et sa profonde ignorance et absence de toute forme d’humilité intellectuelle – sujet précédemment traité ici. De plus, ce con prétend faire la critique de gens du Thunderbolt Project, dont il est question plus loin, à qui il n’arrive pas à la cheville. Check.
Quant au sectarisme, je vous renvoie vers le tribunal d’inquisition de ces seules trois dernières années et à la persécution par les fact-checkers et autres organes de certification de tout ce qui pourrait menacer l’édifice fragile de leur culte scientiste et de son consensus. Quatrième point, check.
Voilà pour ce qui est de l’intégrité de ces personnages. Côté argumentation, cette page de fact-checking vous expliquera que Davidson a forcément tort puisque les vrais scientifiques n’ont pas trouvé d’influence du soleil sur le climat – donc il n’y en a pas. Et comment ont-ils fait pour ne pas en trouver? Eh bien, en n’en cherchant pas. En fait, cette même page vous explique qu’ils commencent à étudier la question. En 2023, après des milliards claqués pour étudier l’influence des pets de vaches sur le réchauffement climatique – et en conclure que ça va tous nous tuer – les scientifiques (les vrais) lèvent un instant le nez de leurs « études » pour commencer à se poser la question d’une possible influence climatique du soleil – dont la puissance émise est, simple rappel, de 3.86 x 1026 watts, c’est-à-dire 386 000 000 000 000 000 000 000 000 watts. C’est la blague de « L’influence des pets de sardine sur les courants marins », prise au premier degré.
Vous le voyez aussi bien que moi, cette civilisation n’est plus basée sur la science, qui est devenue contraire à ses intérêts. La seule encore vaguement fonctionnelle a essentiellement trait à la conception de systèmes fermés et ne comprend quasiment rien du monde naturel. Elle est donc potentiellement dangereuse, comme nous l’allons voir dans un instant.
Le monde moderne est à tous égards la création d’ingénieurs, la technocratie en étant l’aboutissement ultime et le transhumanisme le signe que, dans le présent modèle fermé – et même hermétique – l’humanité n’est plus gérable qu’en tant qu’objet connecté. Tenter de maintenir ce système avec l’IA est une plaisanterie: d’abord, il n’y a pas plus d’intelligence artificielle que de beurre en broche. On a juste rebaptisé quelques algorithmes – créés par des ingénieurs – d’une appellation ronflante, un gadget qui, abreuvé de la science bancale actuelle, ne pourra que nous mener plus loin dans l’impasse du fantasme et de l’incantation magique. Les délirantes prédictions énergétiques actuelles en sont un exemple spectaculaire, mais quasiment tous les domaines sont touchés. Passons-en quelques uns en revue.
L’ingénierie sociale nous a donné les doctrines délirantes du woke, du transgenre, et plus généralement de la gauche idéologique, menace mortelle pour cette civilisation.
L’ingénierie médicale nous a donné l’IA pourvoyeur de diagnostic et notre nouvelle amie, la plateforme ARNm, qui est de la pure ingénierie biologique – ils le disent eux-même, de la reprogrammation – une daube scientifiquement tellement analphabète que l’intention de nuire n’était même pas utile. Ce n’est évidemment pas un vaccin et ce n’est pas non plus une thérapie génique (puisque celle-ci est destinée à corriger un défaut génétique). C’est une greffe génétique, avec toutes ses conséquences imaginables, dont le rejet. Jusqu’à présent le Dr Chestnut est le seul médecin à l’avoir compris. Voilà le niveau de la communauté médicale…
L’ingénierie financière, après avoir découplé l’économie des besoins humains réels et détruit le système monétaire, aboutit aujourd’hui à la fausse Monnaie Numérique de Banque Centrale.
Quant à l’ingénierie industrielle, elle s’est emparée de tout, y compris des domaines où elle n’avait rien à faire, sans se poser trop de questions sur l’avenir. Le monde paysan a été balayé par l’ingénierie agricole et l’artisanat par les techniques d’usinage – qui représentent aujourd’hui le dernier vrai pouvoir économique. Les deux ont certes permis l’énorme bond en avant de la démographie et du niveau de vie au siècle dernier mais nous ont enfermés dans une bulle artificielle, techniquement brillante, assez ludique mais scientifiquement illettrée. Le vrai progrès du XXème siècle n’est donc pas la connaissance de l’univers mais les Kinder® Surprise®. Au niveau humain, nous avons perdu dans tous les domaines traditionnels des acquis et un savoir-faire irremplaçables, dont nous pourrions bientôt sentir le manque si le système tombe en panne d’essence.
Les financements sélectifs politiquement motivés de la recherche fondamentale en ont fait une doctrine, la « science » du climat en étant l’exemple type et le signe que le système est prêt à s’autodétruire en croyant à ses propres mensonges et en fonçant vers un avenir énergétique reposant sur des fantasmes – fusion nucléaire, énergies renouvelables, et ta soeur? – entretenus par un monde politique engagé sur la route du Lysenkoïsme.
Le vide intergalactique de la science officielle crée ainsi un appel d’air, dans lequel se glissent des gens comme Davidson, et d’autres que je liste ci-dessous. Pour leur infatigable curiosité, leur courage intellectuel, leurs méthodes rigoureuses et souvent ingénieuses, je les appelle les bricoleurs. Ce sont eux les derniers gardiens de la recherche.
Miles Mathis, dont je traduis régulièrement ici les brillants debunkings, produit des papiers scientifiques au moins aussi intéressants. Sa théorie de la charge, accessible aux néophytes moyennant un peu d’effort, règle un nombre impressionnant de contradictions, d’à-peu-près, d’erreurs grossières et tenaces – voire de fraudes pures et simples – de la physique du siècle écoulé. Elle permet notamment de prévoir les événements solaires et leur influence, là où la science officielle pédale dans la choucroute, et de démonter des arnaques telles que la fusion et les réactions thermonucléaires. Ses papiers scientifiques sont aussi parsemés d’idées praticables. De plus, c’est un peintre de haut niveau (comme Sasha) et il est né la même année (du dragon) que Adam Curry et moi-même – une excellente cuvée, donc. Un léger bémol quand même, il en fait vraiment beaucoup pour un seul homme, d’autant qu’il avoue dormir plus que la moyenne. Je ne serais donc pas autrement surpris qu’il reçoive un léger coup de main de la part de gens très doués en maths et en physique, qui auraient aussi intérêt à balancer sur les coulisses du Renseignement américain. Autre détail déplorable, il se voit encore, malgré les années qui ont blanchi ses tempes, comme un « révolutionnaire de gauche » et considére que les gouvernements ont volontairement trahi la « vraie » gauche au détriment des peuples – enfin, l’illusion habituelle des idéalistes qui refusent de voir que, vraie ou fausse, la gauche signifie l’Enfer sur Terre et rien d’autre.
Le Thunderbolt Projectde feu Wal Thornhill offre la même solidité que Miles dans le domaine de l’analyse et des prévisions des événements cosmiques, en plus de proposer le modèle le plus recherché sur l’histoire du système solaire et de l’univers en général. Ses membres sont les représentants principaux de ce qu’on appelle couramment l’Univers Électrique, dont toutes les théories sont testées et reproductibles en laboratoire, donc scientifiquement validées. Tout comme Davidson, qui a été leur invité occasionnel, ils tentent de replacer leur théorie dans une perspective historique, en les reliant aux événements décrits dans les textes anciens et/ou sacrés. Leur prédecesseur est Immanuel Velikovski, l’auteur de « Mondes en Collision » – leur ouvrage fondateur, en quelque sorte. Le projet réunit une énorme équipe pluridisciplinaire sous forme d’orateurs invités, comme Stephen Crothers, un des plus brillants mathématiciens contemporains, qui démonte sans appel des inepties telles que le Big Bang et les trous noirs, et Michael Clarage, un autre scientifique brillantissime (et un grand penseur que j’ai déjà publié ici) dont je vous recommande tous les écrits et toutes les vidéos (la plus récente est ici et le sous-titrage en français fonctionne à 99%, comme sur la plupart de celles de la chaîne). Wal nous a quittés cette année. C’est une grande perte mais la relève du projet est d’ores et déjà assurée. Si le sujet vous intéresse, il représente le meilleur investissement en temps possible. Pour une raison qui tient à mon avis de la querelle de clocher et de son légendaire narcissisme, Miles les regarde de haut – une lourde erreur de sa part.
Neal Adams – oui, le dessinateur de comics – était le dernier à défendre la théorie de la Growing Earth (la Terre qui grandit). Il en reste ses vidéos sur sa chaîne YouTube (attention, celles publiées depuis son décès sont de pures conneries), qui montrent sans le moindre doute que la Terre, et toutes les planètes du système solaire, grandissent – la « pangée » étant un modèle partiel, les continents se rejoignant aussi parfaitement, comme un puzzle, du côté de l’Océan Pacifique, sans subduction. Ça exaspère évidemment les « vrais » scientifiques (voir plus haut), qui rappellent que la création de masse est impossible puisqu’ils n’ont « rien trouvé ».
Rappelons un autre bricoleur, le Dr Zelenko, dont le protocole de traitement a sauvé de nombreuses vies pendant que la science officielle créait une véritable hécatombe dans les hôpitaux à coups de protocoles mortels, avant de faire un nombre incalculable de victimes à coups d’injections de la même espèce. Comme vous le voyez, il n’est pas inutile de s’intéresser aux bricoleurs et à leur travail.
Voyons maintenant, avant d’examiner ce qu’il dit, ce qui est reproché à Davidson.
C’est un pseudoscientifique? Check. Mais lui étudie sans relâche depuis quinze ans l’influence du soleil sur le climat, sur base de sources officielles, en y confrontant en permanence ses conclusions – qu’il diffuse sous forme de conférences et vidéos – ce qui est la définition de la science.
C’est un escroc? Check. D’après moi, ceux qui se font payer ce genre de service sont des escrocs. Je ne demande pas un centime pour le boulot que me demande ce blog, et je réserve mes seuls dons aux gens très pauvres. Je ne donnerai donc jamais rien à Davidson, problème réglé. D’autre part, si la catastrophe majeure qu’il annonce se produit, les stages et formations (payants) en survivalisme qu’il organise dans son tout nouveau ranch n’ont pas beaucoup de sens, vu que [spoiler alert] quasiment personne n’y survivra. Notons que sa chaîne YouTube, sur laquelle il publie une vidéo par jour, n’est pas monétisée.
C’est un narcissique? Check. Pour ne rien vous cacher, la majorité de ceux qui font des vidéos ou écrivent des articles finissent par aimer s’écouter parler et se relire. Je ne suis pas une exception, je peaufine mes écrits à l’extrême – tout ce que je publie a été au minimum relu cinquante fois et pas seulement pour l’orthographe. Vu la somme de travail que met Davidson dans ses publications, il n’a évidemment pas échappé à ce travers.
Et c’est incontestablement un chef de secte. Il anime un streaming hebdomadaire pour ses abonnés, qu’il traite en disciples et désigne comme « 0bservers« . C’est putassier au possible, de la relation publique niveau zéro, mais les américains en sont très friands. De plus, il leur fait miroiter la promesse d’une salvation, ce qui est typique des sectes.
Voilà pour le profil du personnage, auquel j’ajouterai le fait qu’il est manifestement très intelligent et comme il le précise lui-même, qu’il est doué de mémoire photographique. Parlons maintenant de ses arguments. Le « livre fondateur » de Suspicious0bservers date de 1963 et s’intitule « The Adam and Eve story« . Il a été écrit par un certain Chan Thomas, un agent la CIA (!) – agence qui a classé secret son bouquin avant de le déclassifier en 2013 dans une version expurgée, disponible sur leur site. Les premières pages décrivent un cataclysme à venir, d’une ampleur biblique tellement impossible à imaginer que je les traduirai dans le cinquième article de cette série – et probablement la suite, dès que je trouve un peu de temps. Vous en serez donc les premiers lecteurs francophones, vu qu’il n’a jamais été traduit en français. C’est de loin le bouquin le plus intéressant que j’ai lu – et j’ai lu beaucoup. Le bagage intellectuel de son auteur le situe à cent coudées au-dessus de ses « critiques », témoignage d’un temps révolu où la CIA disposait d’une réserve de gens extrêmement compétents et érudits – en contraste avec ceux qui sortent aujourd’hui de Harvard ou de Yale. C’est sur l’hypothèse de ce cataclysme que travaille Davidson en tentant d’en lire les signes présents dans les observations astronomiques, planétaires et dans le comportement humain (on y revient plus bas) pour le dater plus précisément.
Il aurait lieu entre 2030 et 2040.
Au plus tard.
Je vous avais promis la raison de la disparition possible des gouvernements dans la décennie, vous voyez maintenant de quoi il s’agit.
Ok, posons d’abord les questions de base. Vu qu’il émane du Renseignement, la première serait: l’ouvrage original est-il une autre opération de démoralisation – du genre que dénonce Miles? Je serais intéressé par son évaluation de la théorie de Davidson, par rapport à la sienne, mais je doute qu’il me réponde vu mes origines « phéniciennes » – on fera donc sans. L’article suivant de cette série est une transcription d’une vidéo récente de Davidson (encore quelqu’un qui ne fait que des vidéos) qui résume sa théorie. Vous en jugerez donc vous-mêmes.
Maintenant, écrivons un peu de science-fiction, en tentant de revoir nous-mêmes les événements récents à la lumière de cette théorie. Imaginons que cette théorie soit solide. Imaginons que le Renseignement soit de cet avis. Ils ont évidemment un accès prioritaire aux recherches et aux écrits d’un de leurs agents, probablement avant même leur publication. Sachant que ceux qui disposent d’informations gagnent un avantage stratégique, ils peuvent ainsi les censurer pendant soixante ans et expurger les passages qu’ils estiment délicats. Pendant ce temps, ils ont tout le loisir de s’organiser pour l’événement. Vu qu’il est impossible de sauver tout le monde et que 99% de toute vie sur Terre disparaitrait en quelques heures, que feriez-vous à leur place? Je réponds en y mettant une bonne dose de cynisme.
J’organiserais un faux événement de menace nucléaire qui justifierait la construction d’un réseau d’abris de survie souterrains. Je préserverais le plus grand nombre possible de semences dans un lieu extrêmement bien protégé. Je mettrais du pognon dans la création de semences modifiées qui pousseraient sur des sols dévastés. J’investirais dans des systèmes de recyclage des déchets permettant de récupérer de l’eau potable. Je mettrais en service des satellites de télécommunication accessibles depuis un valise portable. Je financerais la mise au point de systèmes de production d’énergie sans pétrole (évidemment impossible à exploiter dans un monde bouleversé), systèmes qui ne sont d’aucune utilité pour alimenter le réseau global mais pourraient servir au niveau de petites collectivités. Je conditionnerais les foules à l’idée d’un cataclysme majeur – en produisant des tombereaux de films apocalyptiques. Je lancerais des opérations de contrôle de la population qui permettraient de gérer la panique finale. Je mettrais l’ensemble de la société sous contrôle militaire (j’y reviens dans un prochain article). J’opèrerais une sélection des humains les plus résilients, ceux qui ont le plus de chance de s’en sortir hors système, opération que j’imposerais à tous les gouvernements en échange d’une place dans « l’Arche ».
Et last but not least, je ferais mettre au point un système ultra-portable de création de « vaccin » sur mesure, en un temps record, que je ferais tester sur la moitié de la population terrestre.
Voilà pour la science-fiction – reste maintenant à voir si la réalité est encore plus étrange. Davidson a une explication plus simple au comportement chaotique ambiant. Le bouclier magnétique terrestre allant en s’affaiblissant, les rayonnements solaires et cosmiques moins bien filtrés exercent sur le cerveau humain une influence qui se traduit par une émotionnalité excessive et une diminution des fonctions cognitives – des signes de décadence décrits dans les textes sacrés comme précurseurs de l’apocalypse.
Maintenant, il ne reste plus qu’à attendre…
Comme écrit plus haut, je descends d’une très ancienne tribu – celle que Miles désigne sous l’appellation « Phéniciens » – dont l’histoire est liée à celle de l’Arche de Noë. Mes ancêtres ont donc eu droit au spectacle d’un événement dont Davidson nous dit qu’il va bientôt se reproduire. Je ne sais pas vous, mais personnellement, je ne voudrais rater ça pour rien au monde.
La maladie de Marburg ou une autre fièvre hémorragique?
La « contagion catastrophique »?
La guerre civile?
La guerre chaude en Europe?
L’hyperinflation?
Les pénuries
d’énergie?
de matières premières?
alimentaires – la famine?
La catastrophe climatique?
L’invasion migratoire?
Une cyber-attaque?
Le black-out?
Le contrôle total par les monnaies numériques?
La fin de l’humanité par l’intelligence artificielle?
Une invasion extra-terrestre?
Un concert de Francis Lalanne?
Un peu de tout?
Autre chose?
Rien?
Une lectrice sur Substack fait ce commentaire:
L’opération covid n’a jamais été fonction d’une protéine de pointe ou d’une nanoparticule lipidique ou d’un bolus [NdT. injection rapide et brève d’une substance dans un vaisseau sanguin] ou d’un coronavirus ou d’un laboratoire de biologie spécifique ou d’un scientifique ou d’un personnage public en particulier.
Les personnes que nous voyons sur nos écrans, à de rares exceptions près, ne sont ni des supergénies ni des superméchants intentionnels. Et ils sont loin d’avoir sur Mère Nature autant d’emprise qu’ils voudraient nous le faire croire.
La puissance des forces qui se dressent contre l’humanité réside dans leur capacité à collecter et à interpréter des données à une échelle colossale. OODA. Depuis plusieurs décennies, ils ont étudié et analysé les systèmes de la société humaine. Après de nombreux essais, et après avoir déterminé à leur satisfaction qu’ils sont désormais capables de fournir aux différents éléments de la société humaine les informations qui provoqueront l’autodestruction de l’humanité, ils ont mis en œuvre l’opération covid-19 en direct.
Leur opération comporte d’innombrables redondances. Si la première piqûre ne vous tue pas, peut-être que la dixième le fera. Si vous échappez à l’injection, on vous laissera dans la misère et vous mourrez de désespoir. Ou vous serez déclaré fou et hospitalisé de force. Ou vos enfants vous seront enlevés. Ou votre eau en bouteille sera contaminée par du poison. Si vous n’avez pas sur vous le traceur électronique que Big Data vous aura attribué, vous ne pourrez ni acheter ni vendre. Si vous utilisez un système de paiement décentralisé astucieux, il sera réglementé jusqu’à devenir inutile après que l’on vous ait d’abord volé votre argent. Si vous décidez de vous révolter, des algorithmes de pré-crime détecteront vos intentions et la police vous arrêtera. Et ainsi de suite.
Les forces qui se dressent contre l’humanité savent que leur cible est un organisme complexe et vital dont le comportement ne se prête pas toujours à la prédiction. Elles ajustent constamment leur opération.
D’abord, ce n’est pas « l’opération » qui est ajustée mais l’ensemble de la société. Autrement dit, la société est l’opération. Une des manières traditionnelles de l’ajuster est l’alternance de totalitarisme étatique d’un côté et de laisser-faire de l’autre – la « gauche » et la « droite ». La gauche, c’est ce qui déresponsabilise, infantilise et endoctrine l’individu et lui enlève tout pouvoir de décision au nom du « bien commun » – ce que nous avons eu ces trois dernières années en version sanitaire. La droite, c’est ce qui le tient pour seul responsable de son sort, le punit pour la moindre faiblesse (ou pour rien, d’ailleurs), quitte à le laisser crever – on a un échantillon assez violent des deux avec le règne de Macron, qui en a surtout retenu l’aspect Stasi/Tonton macoute – l’idée étant qu’une fois qu’on a été trop loin dans l’un ou l’autre sens, il suffit de passer le relais à l’autre équipe, qui rattrapera la mayonnaise.
La question est de savoir si la mayonnaise est encore rattrapable et quel est l’avenir d’un monde plus stupide, plus laid, plus fou et plus violent à chaque minute – bref, dangereux – où les gouvernements s’en prennent directement à leurs populations de façon aussi peu courtoise.
Reprenons quelques éléments de l’opération:
Dépopulation
Stérilisation
Zombification
Destruction de l’enseignement
Destruction de l’économie
Destruction de la paix sociale
Destruction du réseau de production d’énergie
Destruction de l’agriculture et de l’élevage
Destruction du réseau médical
Destruction des moyens de transport
Contrôle de la consommation
… ce qui se décline aujourd’hui en mesures sanitaires, monnaies numériques, revenu universel, contre-mesures climatiques, intelligence artificielle et tout ce genre de connerie. Le fait que tout déboule en même temps montre qu’on est dans les mesures d’urgence, des moyens de contrôle de dernier recours justifiés par les catastrophes annoncées, réelles ou fictives: pandémies, réchauffement planétaire, tarissement du pétrole, rarification des ressources, chômage de masse, krach financier, etc. Le Grand Reset étant un livre de science-fiction écrit par des fonctionnaires, infaisable en vrai, il semble que la stratégie est finalement de « brûler le village pour le sauver ». Nous ne sommes donc pas « en transition » mais en plein stage de survie à l’échelle planétaire. Le système est étonnament résilient mais pour combien de temps? Il tiendra le coup jusqu’à son point de bascule, moment auquel il s’effondrera, surtout si on l’aide un peu en coulisses. Y aura-t-il une prise de conscience suivie d’une révolte, comme l’annonce Parrhesia? On en est déjà à des millions de morts et question révolte, à part beaucoup de paroles – le rôle de l’opposition contrôlée – et quelques manifestations complètement inutiles, rien n’est fait. Faisons un rapide tour d’horizon du théatre des opérations avec trois exemples concrets.
Même s’il ne fait plus guère la une, on pourrait se demander combien de temps va encore durer le conflit Russie/Ukraine, qui, en toute logique, aurait dû être bouclé en deux semaines – comme dans « deux semaines pour aplatir la courbe ». Il ne tient encore que par le déstockage (payant) d’armements américains et européens – dont on perd la trace mais dont une partie finit apparemment en Afrique, nouveau théatre des opérations, et en Europe de l’Ouest, dans le cadre de la vaste manoeuvre de déstabilisation/changement de régime en cours. L’Opération Militaire Spéciale russe est ainsi devenue de facto une guerre d’attrition, un Verdun à l’échelle nationale où, comme lors de la Première Guerre mondiale, la classe paysanne est envoyée à une mort lente mais certaine pour préparer le pays, initialement utilisé par les États-Unis comme plaque tournante de corruption, à la mainmise de ces derniers sur les riches terres agricoles de l’Est – comme dit John C Dvorak, « Autant barrer Ukraine tout de suite et inscrire Cargill à la place ». Pour des raisons ethniques, la Russie gardera vraisemblablement les territoires russophones, qu’ils sont sans doute les seuls à pouvoir durablement gérer. Tout ça sent l’opération commerciale entre deux super-puissances, dans laquelle l’Europe se voit une fois nouvelle fois léser, pour rester poli. Mais ne m’écoutez pas, demandez plutôt à Victoria Nuland de vous expliquer.
En Russie même, la plateforme ARNm – en collaboration avec AstraZeneca – semble avoir debeaux jours devant elle. Ça ne risquera pas d’arranger leur problème de déclin démographique mais n’empêche toutefois pas leur président de rappeler à chaque occasion la décadence de l’Occident, pendant que la Fédération s’engage sur la voie des smart cities et que leurs voisins et amis mettent en place des villes de 15 minutes – les solutions « durables » chères au Forum Économique Mondial. Tout ça pour rappeler qu’ils ne sont pas, malgré ce que tentent de vous en faire croire leurs porte-paroles occidentaux (payés), les « résistants » au Nouvel Ordre Mondial: ils en sont l’avant-garde et le futur centre.
Côté États-Unis, que se passera-t-il l’année prochaine? Après la campagne de décérébration intensive de ces trois dernières années à coups de Covid, « transmaoïsme » (sujet extrêmement bien traité par John et Adam depuis le n°1541 de NoAgenda, auquel j’aurais pu consacrer des dizaines d’articles si j’avais eu le temps), wokisme, marxisme idéologique et drogues psychotropes, deux camps inconciliables ont été créés, situation qui pourrait bien sonner le glas de l’American Way of Life. Pour rattraper ladite mayonnaise, on parle aujourd’hui de gouvernance bi-partite Démocrates/Républicains, qui se concrétiserait par la désignation de Robert F Kennedy Jr comme candidat Démocrate à la présidence et par sa « victoire » possible dans son rôle revendiqué de rassembleur. En réalité, à l’instar du rôle d’homme providentiel de Robert Malone dans le « mouvement pour la liberté médicale », RFK a été adoubé en haut lieu pour gérer l’après-Covid en version très soft. Après avoir focalisé – notamment par le biais de son bouquin « The real Anthony Fauci » – la faute des injections sur les seules institutions de régulation (la FDA, les CDC, etc.), son projet politique pour l’avenir est, avec l’aide de Malone, de « rétablir la confiance » envers ces institutions, qui ne seraient tenues qu’à de simples excuses pour ces trois dernières années, en glissant discrètement sur le fait qu’il s’agissait d’une opération militaire (voir les articles de Katherine Watt sur ce blog). Bref, le Grand Pardon. [Edit:je tombe justement aujourd’hui même sur cet article où Malone présente le nouveau bouquin de RFK, consacré aux coulisses militaires/renseignement de la « biodéfense ». En attendant de le lire, je retire temporairement ce que j’ai dit quatre lignes plus haut.]
Pour remplir ce rôle, il cumule quelques atouts électoraux, qui joueront ou non en sa faveur: énorme et précieux travail d’information médicale et travail sur le terrain à travers Children’s Health Defense, Démocrate mais capable de faucher les votes MAGA à Trump (le poulain du Renseignement militaire discrédité par l’Opération Warp Speed), grand défenseur des mesures « climatiques » anti-pétrole et anti-nucléaire (sur lesquelles il a bâti sa carrière d’avant-Covid) et de l’agriculture régénérative (sans engrais ni pesticides), son programme est une mise à jour des grands axes « progressistes » verts à la sauce « libertaire », ce qui le rendra à moitié digeste pour une droite inquiète de son possible avenir sous dictature sanitaire (menace brandie et exacerbée par sa base de soutien), tout en restaurant la ligne traditionnelle d’une gauche qui devra gérer tôt ou tard ses traumatismes idéologiques et accepter qu’il est leur seule option. Son programme très vertueux laisse toutefois un détail mineur à régler: même en les rationnant sévèrement, comment il compte faire pour fournir énergie et nourriture à 360 millions d’américains reste un mystère.
Plus près de nous, est-il encore possible de désamorcer la poudrière de la France, sa déstabilisation télécommandée depuis Washington et Langley, sa politique énergétique sabotée par l’Allemagne, et surtout qui est encore capable? Le récent « coup d’État » au Niger scellera encore un peu plus la fin de la Françafrique, que la Chine, la Russie – en position de force par son contrôle militaire des exportations de céréales ukrainiennes – et dans une moindre mesure, les États-Unis sont en train de se partager, grâce à l’ineptie du caractériel Macron, qui aura ainsi achevé sa tâche de transformer, à coups corruption institutionnelle, le pays qui lui a été « confié » en république bananière, soumise à un pillage comparable à ce qu’a subi la Russie après la fin de l’ère soviétique.
Tout ceci indique que nous ne sommes pas (ou plus) dans un scénario de guerre économique. L’élite financière sait pertinemment que le système monétaire et la taxation qui le soutient sont totalement morts. Elle est donc engagée dans une guerre des ressources – une des raisons pour lesquelles elle tente de réduire la consommation par crises artificielles, inflation, prétexte « climatique », contrôle par MNBC et score social. La Russie et la Chine – et le bloc BRICS en général – partent gagnantes dans cette guerre, en jouant la carte du bon sens énergétique, et celle de la diplomatie « win-win » en Afrique et ailleurs – dans le cas de la Chine, dans tous les territoires traversés par sa Nouvelle Route de la Soie.
Pendant ce temps, ce ne sont pas seulement les Français qui ont perdu leur pays mais tout l’Occident qui est au bord de l’implosion. Le nombre de gens à la rue ne cesse de croître et rien n’est fait pour eux – autre méthode de réduction de l’espérance de vie (la moyenne de survie pour un sans-abri est de dix ans). Au Canada, on leur propose le suicide médicalement assisté. Même phénomène en Belgique, où la crise du logement prend des proportions bibliques, le réseau d’hébergement des enfants étant saturé au point où des bébés sont pris en charge dans des services hospitaliers psychiatriques. À part cette masse sans cesse grandissante d’exclus, tout va bien ici pour l’instant pour le citoyen lambda, toujours très bien payé et donc encore très taxable, le pays étant (bien) géré par une bureaucratie indéboulonnable et relativement imperméable aux possibles délires de la caste politique – relativement rares dans un pays où la médiocrité est élevée au rang de vertu et protégé par son statut de conciergerie des institutions atlantistes et européennes.
Voilà un bref aperçu de la situation dans ses grands axes, telle qu’elle est visible aujourd’hui, en gardant à l’esprit que d’autres éléments, dont nous n’avons pas la moindre idée, agissent probablement en coulisses. Quoiqu’il advienne ensuite, vu l’impasse dans laquelle est engagé le système, les réponses finiront tôt ou tard par s’articuler sur le même type de contrôle démographique que celui employé pour le Tiers-Monde, dont le Covid et ses produits dérivés en sont une première salve, comme l’a expliqué Catherine Austin Fitts: une dépopulation, quel que soit le nouveau nom qu’on lui donne – guerre de cinquième génération, iatrogénocide, etc.
Ce qui amène la question que j’ai déjà évoquée ici: y a-t-il encore moyen de faire autrement? Cette société est conçue pour fonctionner selon des paramètres économiques, industriels et démographiques assez rigides – la variable d’ajustement à laquelle « ils » semblent tenir le plus étant la démographie, celle qui se décide en haut lieu pour préserver le modèle. La solution serait bien entendu de changer de modèle – d’urgence – mais est-il encore temps et quels peuples sont-ils prêts à en faire l’effort physique et moral? C’est-à-dire, refuser de s’enfoncer dans la décadence dont nous parle Vladimir – qui n’est pas, et de loin, l’exclusivité de l’Occident mais un problème de civilisation, dont la fragilité a été bien mise en avant par la crise Covid.
La médecine, qui n’a jamais cessé de faire reculer les limites de l’acceptable (voir notamment ici et tous mes articles sur les injections et thérapies géniques) et torturé les animaux pour des questions « de sécurité », a maintenant complètement basculé dans la monstruosité sénécide, fratricide et, signe de fin des temps, infanticide (ici, ici, ici, ici, liste non-exhaustive). Le Dr Hodkinson mentionne ici le sacrifice d’enfants chez les Aztèques, pour apaiser la colère des dieux. Je pense que c’est exactement là où nous en sommes, ce qui devrait nous rappeler que la civilisation n’est jamais qu’un arrangement temporaire, jamais loin de la barbarie, et que les civilisations ont une curieuse tendance à disparaître. La question serait de comprendre comment, ce que nous allons tenter en creusant un peu l’Histoire dans la suite à cet article. Apparemment, il existerait un phénomène récurrent qui remettrait les pendules à zéro, ferait table rase des mensonges, fausses excuses, ambitions de demi-dieux, décadence et tutti quanti. Un « Build Back Better« , un « Grand Reset » et une dépopulation à une échelle inimaginable, qui donneraient une autre raison aux mesures d’urgence.
L’objectif principal est de soutenir le pétrodollar fiduciaire, et l’empire mondialiste qui s’en nourrit, par tous les moyens, y compris en réduisant l’humanité à un lourd esclavage. Des ennemis invisibles sont nécessaires pour que les gens ne viennent pas brouiller les cartes, car sans une conformité aveugle, tous ces projets n’aboutiraient à rien. Le climat, comme le COVID, est donc un exercice préliminaire de conformité et de rééducation des masses. En substance, le monde naturel est appelé à devenir notre ennemi, dont nous devons être sauvés (par la monétisation et la réglementation). À l’époque où je côtoyais des « costards », le projet était de promouvoir l’agenda vert en sachant pertinemment qu’il ne parviendrait pas à satisfaire les besoins en énergie, idéalement en échouant de manière assez catastrophique pour créer une dépendance totale à l’égard de l’État.
Voici un démenti succint de la plus récente intox médiaclimatique, vue depuis les États-Unis. Désolé, il y est beaucoup question de CO2 (l’ennemi invisible) mais c’est pour une bonne cause.
Pas facile de taper avec des moufles mais je reviens juste après pour parler de dépopulation.
Les températures élevées de cette année s’inscrivent dans une lente tendance au réchauffement, sur une planète où le nombre de décès dus au froid est bien plus élevé que celui dû à la chaleur, et où nous avons besoin de combustibles fossiles pour nous protéger des deux
Alex Epstein
28 juillet
Mythe: les températures élevées de cette année montrent que les combustibles fossiles rendent déjà la Terre invivablement chaude.
Vérité: les températures élevées de cette année s’inscrivent dans une lente tendance au réchauffement sur une planète où les décès dus au froid sont bien plus nombreux que ceux dus à la chaleur, et où nous avons besoin de combustibles fossiles pour nous protéger des deux.
Le mythe d’une planète surchauffée détruit en quatre points
Les décès liés au froid > les décès liés à la chaleur
La Terre se réchauffe lentement, et moins dans les régions chaudes.
Les combustibles fossiles nous protègent des températures dangereuses
Les politiques anti-combustibles fossiles augmentent les risques liés au froid et à la chaleur.
Les principaux médias présentent les températures de cet été comme invivablement chaudes et proposent comme solution l’adoption rapide de politiques de lutte contre les combustibles fossiles.
En réalité, le froid est un problème bien plus important que la chaleur, et les politiques anti-carburants fossiles nous mettront encore plus en danger.1
Toute personne qui commente de manière responsable les températures estivales doit reconnaître 4 faits:
Les décès liés au froid > les décès liés à la chaleur
La Terre se réchauffe lentement, et moins dans les régions chaudes.
Les combustibles fossiles nous protègent des températures dangereuses
Les politiques anti-combustibles fossiles augmentent les risques liés au froid et à la chaleur.
Décès liés au froid > décès liés à la chaleur
Lorsque nos dirigeants discutent du réchauffement de la planète, ils considèrent que le réchauffement est manifestement mauvais. Mais alors qu’ils décrivent la planète comme étant déjà « trop chaude », le fait est que beaucoup plus d’êtres humains meurent du froid que de la chaleur.
Étude après étude, on constate que les décès dus au froid sont 5 à 15 fois plus nombreux que ceux dus à la chaleur. Sur tous les continents, le froid est plus dangereux que la chaleur. Même dans de nombreux pays que nous considérons comme particulièrement chauds, comme l’Inde, les décès liés au froid dépassent largement ceux liés à la chaleur.2
Le fait que beaucoup plus d’êtres humains meurent de froid que de chaleur signifie que dans un avenir prévisible, même sans tenir compte des avantages des combustibles fossiles en matière de chauffage et de réfrigération, le réchauffement climatique alimenté par les combustibles fossiles sauvera plus de vies par le froid qu’il n’en prendra par la chaleur.3
[NdT. si je sais compter, il y a une erreur: 283 000 moins 116 000 font 167 000 morts de moins.]
Tout article sur le réchauffement et la mortalité humaine devrait évidemment mentionner que les décès dus au froid sont la principale source de mortalité liée à la température.
Or, pratiquement aucun article sur le réchauffement ne le mentionne!
Ce niveau d’ignorance et/ou de malhonnêteté est intolérable.
Une grande partie de la communauté médicale s’est comportée de manière particulièrement honteuse en traitant le réchauffement comme une catastrophe.
Voyez comment la prestigieuse revue The Lancet [NdT. qui nous avait déjà très bien renseignés sur le danger mortel de l’hydroxychloroquine] a considérablement exagéré la menace des décès dus à la chaleur en présentant chaque décès dû à la chaleur comme 5 fois plus important que chaque décès dû au froid sur ce diagramme à barres!4
La Terre se réchauffe lentement – et moins dans les régions chaudes
Jusqu’à présent, nous avons enregistré un réchauffement d’environ 1°C à partir d’un point de départ froid dans l’histoire de la Terre, il y a 150 ans. Le réchauffement futur sera limité par la diminution de « l’effet de serre » – et se concentrera dans les régions les plus froides.5
Si nous nous rappelons que le froid tue plus que la chaleur, et si nous comparons le réchauffement moyen de ~1° C (~2° F) qui s’est produit au cours des 150 dernières années avec la large gamme de températures auxquelles nous sommes confrontés chaque jour/mois/année, nous ne devrions pas être effrayés du tout.
Les catastrophistes climatiques ont donc recours à des tromperies pour nous effrayer.6
La tromperie de la « compression de l’axe des ordonnées ».
Pour donner l’impression que le lent réchauffement que nous avons connu est effrayant, les catastrophistes climatiques ont coutume de montrer le réchauffement, non pas sur une échelle de température humaine, mais sur un axe des ordonnées comprimé, où 1°C semble énorme. Cela revient à mesurer une prise de poids sur une échelle où 1 livre semble énorme.
La tromperie des « records de chaleur ».
Nous entendons constamment des affirmations alarmistes selon lesquelles nous vivons ou sommes sur le point de vivre « l’année la plus chaude jamais enregistrée ».
Mais étant donné que les relevés ont commencé à une époque froide et que nous connaissons un lent réchauffement, il est évident que nous pouvons nous attendre à un nouveau record chaque année. Et alors?7
Étant donné que nos relevés de température sont limités, nous alarmer au sujet d’une « année la plus chaude jamais enregistrée » au cours d’une période de réchauffement lent, c’est comme si un médecin avertissait un patient qui a pris 1/10e de livre de muscle qu’il s’agit de son « année la plus lourde jamais enregistrée ».
La tromperie de « l’année la plus chaude jamais enregistrée ».
Les catastrophistes climatiques assimilent souvent de manière absurde un mois ou une année « les plus chauds jamais enregistrés » – ce qui fait référence aux moins de 200 ans pour lesquels nous disposons de relevés de température détaillés – à « les plus chauds jamais enregistrés ». Même si la Terre a été 25°F plus chaude pendant des millions d’années!8
Le mois de juillet a été le plus chaud jamais enregistré. Je le répète – nous venons de vivre le mois le plus chaud de toute l’histoire de la planète. [NdT. vous avez vu l’astuce? On passe de « jamais enregistré » à « toute l’histoire de la planète ». Sanders étant communiste, réécrire l’histoire ne lui pose aucun problème…] Je ne veux pas que les générations futures se souviennent de ce moment et se demandent pourquoi nous n’avons pas fait tout ce qui était en notre pouvoir pour lutter contre le changement climatique.
La tromperie consistant à « traiter les extrêmes locaux comme des extrêmes mondiaux ».
Compte tenu de la lenteur du réchauffement climatique, les variations locales de température ont tendance à être beaucoup plus importantes que les variations globales. Pour nous effrayer, les catastrophistes prennent les températures locales les plus chaudes et les présentent comme globales, de sorte que nous pensons qu’il fait très chaud partout.
L’attention portée par les médias nationaux au Texas lorsque ce pays a été « anormalement » chaud, sans tenir compte des nombreux endroits qui ont été « anormalement » frais, est un exemple de cette façon de traiter les extrêmes locaux comme s’il s’agissait d’un phénomène mondial.9
Mise à jour des températures météorologiques maximales pour l’été [juin-juillet-août] dans les 48 premiers états des États-Unis: Légèrement inférieures à la moyenne. [-0.05°F] 53 jours sur 92 inclus dans le calcul. Profitez-vous de cet été confortable dans la vallée de l’Ohio, le centre du littoral atlantique et les Carolines? 🌡️✅ Cette semaine, nous allons rendre cette carte un peu plus jaune dans l’Iowa et les Grands Lacs, et peut-être effacer ce bleu foncé de Lexington à D.C. 📈
Pour avoir une idée plus précise des vagues de chaleur, il suffit de consulter l’indice annuel de vague de chaleur de l’EPA [NdT. Agence de Protection de l’Environnement américaine], qui indique que « les données à plus long terme montrent que les vagues de chaleur des années 1930 restent les plus graves jamais enregistrées dans l’histoire des États-Unis ». Les « rapports » d’aujourd’hui ne vous donneront aucune indication sur ce point.10
La tromperie consistant à « traiter le réchauffement dû à El Niño comme un réchauffement global ».
Au réchauffement lent de la planète, nous subissons un réchauffement supplémentaire dû au passage de La Niña à El Niño. Il s’agit d’un phénomène temporaire, et non d’une tendance climatique, mais les catastrophistes l’exploitent pour exagérer le réchauffement climatique.11
Jusqu’à présent, le réchauffement a été lent et bénin. Mais le réchauffement futur rendra-t-il le monde incroyablement chaud?
Non, compte tenu de deux faits presque universellement reconnus par les climatologues: 1) la diminution de l’impact du CO2 sur le réchauffement et 2) la concentration du réchauffement dans les régions plus froides.
L’impact du CO2 sur le réchauffement diminue (« logarithmiquement ») à mesure que sa concentration augmente.
Chaque nouvelle molécule de CO2 que nous ajoutons à l’atmosphère a un effet de réchauffement moindre que la précédente. Le réchauffement diminuera à mesure que les émissions augmenteront – la seule question est de savoir à quel rythme.12
Même les « scénarios » les plus invraisemblables du GIEC anti-carburants fossiles prévoient une diminution du réchauffement et un monde très vivable avec une population croissante.13
Le réchauffement climatique se concentre dans les régions les plus froides du monde (comme l’Arctique), aux heures les plus froides de la journée et pendant les saisons les plus froides.
Cela signifie qu’à l’avenir, le réchauffement se produira davantage dans des situations froides où il permettra de sauver des vies que dans des situations chaudes où il causera des problèmes.14
Tous les rapports sur le réchauffement de la Terre devraient préciser non seulement que les êtres humains sont beaucoup plus menacés par le froid que par la chaleur, mais aussi que la Terre se réchauffe lentement – et moins dans les endroits chauds.
Le fait que pratiquement aucun rapport ne le reconnaisse montre que la plupart des « rapports » sont de la propagande.
Les combustibles fossiles nous protègent des températures dangereuses.
Non seulement le réchauffement dû aux émissions de CO2 des combustibles fossiles est lent et, à bien des égards, bénéfique, mais l’énergie particulièrement rentable que nous tirons des combustibles fossiles nous protège à la fois du froid et de la chaleur.
La présentation du réchauffement des températures comme un énorme danger repose sur le raisonnement fallacieux qui consiste à ne considérer que les effets négatifs d’une chose (dans ce cas, le réchauffement), et non ses avantages.
Les opposants aux combustibles fossiles se rendent également coupables de ce type de raisonnement en ignorant les avantages des combustibles fossiles en termes de maîtrise de la température.
La clé pour se protéger des températures dangereuses est de les maîtriser en produisant différentes formes de protection thermique, telles que l’isolation des bâtiments, le chauffage et l’air conditionné. Toutes ces choses nécessitent de l’énergie, ce qui signifie pour la plupart des gens qu’elles nécessitent des combustibles fossiles.
Les combustibles fossiles sont la seule source d’énergie fiable et peu coûteuse qui, dans un avenir prévisible, peut fournir de l’énergie à des milliards de personnes – dans un monde où 3 milliards de personnes utilisent encore aujourd’hui moins d’électricité qu’un réfrigérateur américain typique.15
Les pays en développement utilisent massivement les combustibles fossiles parce que c’est de loin le moyen le moins coûteux pour eux d’obtenir une énergie fiable. Le solaire et l’éolien, peu fiables, sont loin de faire le poids. C’est pourquoi la Chine et l’Inde ont des centaines de nouvelles centrales à charbon en cours de développement.16
Les « études » qui affirment que le réchauffement futur rendra le monde invivablement chaud omettent la possibilité de maîtrise des températures. Par exemple, une évaluation utilisée par l’EPA suppose de manière absurde que si une ville comme Chicago devenait aussi chaude que certaines villes du Sud aujourd’hui, elle ne s’adapterait pas et souffrirait d’une mortalité massive due à la chaleur!17
Les journalistes et les dirigeants devraient avoir le bon sens de considérer que si l’on s’intéresse aux effets secondaires de l’utilisation des combustibles fossiles sur la température, il faut également prendre en compte les énormes avantages qui en découlent en termes de maîtrise de la température.
Mais ce bon sens n’est presque jamais mis en pratique.
Les politiques anti-combustibles fossiles augmentent les risques liés au froid et à la chaleur
La disponibilité d’une énergie rentable est le principal facteur qui déterminera la sécurité des personnes face au froid et à la chaleur pour les décennies à venir.
Les politiques anti-carburants fossiles augmenteront le nombre de décès dus au froid et à la chaleur.
Sur une planète où les gens meurent beaucoup plus de froid que de chaleur, mais où les deux constituent des menaces majeures, la clé de la sécurité est de rendre l’énergie aussi abordable et abondante que possible afin que le plus grand nombre puisse se payer un chauffage et une climatisation. Dans un avenir prévisible, cela signifie davantage de combustibles fossiles.
Bien que des milliards de personnes aient besoin de combustibles fossiles pour se protéger du froid (surtout) et de la chaleur, les médias et les dirigeants actuels prétendent que la chaleur est le seul problème et que la solution consiste à suivre des politiques anti-combustibles fossiles censées refroidir la Terre.
C’est d’une malhonnêteté stupéfiante.
Non seulement les politiques anti-carburants fossiles privent les gens de l’énergie dont ils ont besoin pour se protéger à la fois du froid et de la chaleur, mais ces politiques ne pourront pas refroidir la Terre avant au moins plusieurs décennies [NdT. pour le coût, voir ici, et pour l’impact réel (nul), voir ici], et seulement si le monde entier, y compris la Chine, les suit à la lettre.
Même si une énergie net zéro à 100% n’est possible que dans quelques décennies (ce qui est absurde), cela n’aura même pas un impact minime sur le refroidissement tant que les émissions ne seront pas nulles (ou négatives) et que l’énergie du réchauffement actuel ne se dissipera pas.
Il est malhonnête de présenter les politiques de lutte contre les combustibles fossiles comme ayant un quelconque effet de refroidissement dans un avenir proche.18
Les températures dangereusement froides et chaudes sont de loin les plus problématiques pour les pauvres. Ce dont ils ont besoin, c’est de plus d’énergie fossile pour la climatisation et le chauffage, et non d’une politique climatique et énergétique qui empêche la mise en place de véritables solutions à faibles émissions dans le futur et qui rend l’énergie coûteuse aujourd’hui.
Quiconque donne des conseils sur la manière de gérer les températures élevées est tenu de donner des conseils qui aideront réellement les êtres humains dans un avenir prévisible. Prétendre que soutenir les politiques anti-carburants fossiles aidera les gens dans un avenir proche en refroidissant la Terre est un mensonge.
C’est non seulement un mensonge que de prétendre que les politiques anti-carburants fossiles protégeront les gens dans un avenir proche en refroidissant la Terre, mais c’est aussi un mensonge mortel, car dans la pratique, cela signifie empêcher les gens d’acquérir l’air conditionné dont ils ont besoin pour faire face aux températures chaudes d’aujourd’hui et de demain.
Le seul moyen moral et pratique de réduire les émissions de CO2 – un phénomène mondial – est l’innovation qui rend les énergies à faible teneur en carbone compétitives au niveau mondial. Tant que les combustibles fossiles seront l’option la plus compétitive, en particulier dans les pays en développement, ces derniers choisiront (à juste titre) d’émettre du CO2.19
Réduire les émissions de CO2 d’une manière humaine et pratique signifie se concentrer sur la libération d’alternatives – en particulier la plus puissante, le nucléaire – pour essayer de réellement surpasser les combustibles fossiles à l’avenir.
Nous priver de combustibles fossiles aujourd’hui et prétendre que la Chine suivra est immoral et impraticable.
En imputant aux « Républicains MAGA » pro-énergie fossile la responsabilité des températures élevées, Hillary Clinton esquive ces questions:
le froid est plus dangereux que la chaleur
le réchauffement est lent
nous avons besoin de combustibles fossiles pour nous protéger du froid et de la chaleur
les politiques anti-carburants fossiles ne refroidiront pas la Terre mais tueront des gens
les émissions de CO2 sont mondiales
De nombreuses personnes ont considéré, à juste titre, qu’il était inacceptable qu’Hillary accuse ses adversaires politiques d’être à l’origine des fortes chaleurs. Et ils ont raison. En même temps, elle ne fait que régurgiter des mensonges sur le climat qui sont devenus monnaie courante chez nos dirigeants.
Nous vous invitons à partager ces points de discussion pour réfuter ces mensonges.
On va beaucoup parler de climat. En attendant de finaliser mon article, en voici un assez rigolo, et surtout assez édifiant quant à la folie de nos dirigeants. Folie dangereuse, comme vous savez.
Le calcul de l’auteur est suffisamment accablant, mais vous remarquerez que dans ce projet déjà totalement ubuesque, il a omis de prendre en compte le CO2 émis par les fusées porteuses.
Des experts mandatés par le Congrès conçoivent un plan pour occulter le soleil – et nous tuer tous
William M Briggs
6 juillet
La Maison Blanche elle-même, le bastion des Experts, a publié le rapport « CONGRESSIONALLY MANDATED RESEARCH PLAN AND AN INITIAL RESEARCH GOVERNANCE FRAMEWORK RELATED TO SOLAR RADIATION MODIFICATION » (pdf) (Plan de recherche mandaté par le Congrès et cadre initial de gouvernance de la recherche concernant la modification du rayonnement solaire).
Mandaté.
Je suis sûr que vous aurez remarqué l’euphémisme « modification du rayonnement solaire ». Ce qui signifie occulter le soleil. Ce qui n’est pas sensé. C’est insensé. Ce qui ne veut pas dire inattendu.
Nos gouvernants et nos Experts prétendent également, entre autres atrocités mentales, que les femmes peuvent être dotées d’un pénis. Ce qui signifie que le seul acte rationnel est de se méfier de tout ce que disent les gouvernants et les Experts. Considérez d’emblée qu’ils sont fous, ignorants ou malfaisants. Ne croyez aucune proposition émanant d’un dirigeant ou d’un Expert sans l’avoir vérifiée derrière comme devant, de l’intérieur comme de l’extérieur, et dans tous les sens possibles. Après quoi, il faut encore garder des doutes.
Les bonnes nouvelles d’abord.
Le rapport indique que les Experts ont abandonné l’idée des miroirs dans l’espace et de peindre les toits en blanc. Il n’est pas difficile d’imaginer des Experts stupides flottant dans l’espace, essayant d’aligner précisément les miroirs, l’un d’entre eux s’échappant occasionnellement dans l’espace lointain. Un des experts, je veux dire. Amusant. Et vous, cher lecteur, vous pouvez vous représenter l’image de bus remplis d’étrangers clandestins qui vont de maison en maison badigeonner les toits de couches baveuses de peinture blanche, qui dégoulineraient sur les murs à la première pluie.
Maintenant, la mauvaise nouvelle.
Ce qu’ils recommandent, c’est « l’injection d’aérosols stratosphériques » (IAS) et « l’éclaircissement des nuages marins » (ENM). On pourrait appeler le premier le Projet Gates. Qui consiste à envoyer dans l’espace les restes incinérés de personnes, la poussière humaine bloquant les rayons du soleil.
Il se peut que je me trompe sur la provenance de la poussière, mais ce sera bien de la poussière.
Quiz: lorsque vous pensez au Projet Gates, quelles sont les inquiétudes qui vous viennent en premier à l’esprit? Quelles sont vos plus grandes craintes? Prenez le temps d’y réfléchir avant de poursuivre votre lecture. Car je vais vous révéler la principale crainte du gouvernement et je ne voudrais pas influencer votre réflexion.
Vous avez trouvé?
Voici la principale inquiétude du gouvernement concernant le blocage des rayons du soleil: « Il est particulièrement important de prendre en compte les risques potentiels pour les diverses communautés et l’équité intergénérationnelle. »
Les Experts Provoquent la Fin du Monde, les Communautés Diverses Souffrant d’Inégalité Intergénérationnelle sont les Plus Durement Touchées
Le document joue la carte du vice ostentatoire [NdT. l’inverse de la vertu ostentatoire]: « L’administration Biden-Harris affirme avec force que le changement climatique est l’un des plus grands défis auxquels le monde est confronté, en particulier les pays et les communautés les plus vulnérables à ses effets néfastes. »
Revoici notre blague préférée.
Quoi qu’il en soit, comment comptent-ils transporter suffisamment de poussière dans la stratosphère ou dans l’espace pour bloquer le soleil, et que se passera-t-il une fois qu’ils l’auront fait?
Ils ne le disent pas. Ils n’en ont pas la moindre idée.
Le rapport se résume à quarante-quatre pages d’atermoiements. On y trouve beaucoup de Ô, Malheur à nous! à cause du « changement climatique ». Comment la santé pourrait, un jour, être négativement impactée. Comment les cultures pourraient, un jour, être négativement impactées. Comment la pollinisation pourrait, un jour, être négativement impactée. Comment les incendies de forêt pourraient, un jour, être négativement impactés. Comment la géopolitique pourrait, un jour, être négativement impactée. Comment la « justice environnementale » pourrait, un jour, être négativement impactée.
Comme pour tous les rapports de ce type, les experts qui en sont les auteurs estiment qu’il est impossible de croire, ou d’affirmer, que le « changement climatique » pourrait avoir un quelconque effet bénéfique.
En effet, ce rapport mandaté est tellement vague, tellement rempli de néant vaporeux, qu’on peut soupçonner qu’il a été rédigé avec beaucoup de réticence. Toutes les horreurs habituelles du type « et si… » y figurent, mais sous forme standard. Oui, il porte les empreintes du commissaire politique à la « diversité, équité et inclusion » de la Maison Blanche, qui a veillé à ce que tous les poncifs appropriés y soient inclus. Mais c’est tout.
L’ensemble demeure un immense néant. Ce qui signifie que tous les Experts n’ont pas perdu la tête, ou qu’aucun n’est assez intelligent pour trouver la manière de faire ce qu’on lui a demandé.
INJECTION DE PARTICULES DANS LA STRATOSPHÈRE
Je suis heureux d’annoncer que j’ai fait ce que les Experts n’ont pas fait, ou n’ont pas pu faire, et que j’ai réfléchi au projet d’injection de particules dans la stratosphère.
La meilleure analogie qu’on puisse trouver est l’éruption du Mont Pinatubo aux Philippines en 1991. Les Experts gouvernementaux affirment qu’environ 17 mégatonnes de dioxyde de soufre ont été crachées dans la stratosphère, ce qui a atténué une partie des rayons du soleil, abaissant les températures de l’hémisphère nord, au plus fort de l’éruption, « jusqu’à » un demi-degré C. Soit environ 1 degré en unités civilisées. On ne peut qu’apprécier l’utilisation du vocabulaire marketing: « jusqu’à ».
Il a fallu environ un an pour que le SO2 se diffuse autour du globe, et il a persisté pendant environ deux ans avant de réagir et de se précipiter. La moyenne de diminution de la température moyenne mondiale sur deux ans pourrait avoir été de l’ordre de 0,1 degré C.
Quoi qu’il en soit, 17 mégatonnes tous les deux ans permettent d’obtenir « jusqu’à » 0,5 C de baisse, en moyenne, et probablement une valeur plus proche de 0,1 C. Si on se sent d’humeur magnanime, on dira que cette diminution est de 0,5 C. Par hémisphère. Il nous faudrait 17 mégatonnes supplémentaires pour l’hémisphère sud. Soit un total (sans calculatrice, les amis) de 34 mégatonnes. Ou, puisque ça dure deux ans, 17 mégatonnes par an. Pour obtenir une diminution de « jusqu’à » un demi-degré.
Cela, mes chers amis, représente beaucoup de SO2. À injecter chaque année, apparemment pour toujours, puisque la quantité du redoutable CO2 ne diminue pas. Et qu’ils prétendent que c’est le CO2 qui est à l’origine de l’augmentation des températures.
À moins que les Experts n’aient un moyen d’inciter les volcans à entrer en éruption (facile s’il s’agit de femelles), ils vont devoir trouver un autre moyen de faire monter ce SO2.
Par avion? Un gros jet transporte environ 300 personnes à raison de 200 livres par personne, soit 60 000 livres. Soit 30 tonnes. Pour parvenir à 17 mégatonnes, il faudrait embarquer du SO2 sur un peu moins de 300 000 vols par an. Ce qui représente environ 775 vols par jour – pour toujours – s’élevant dans la stratosphère pour y déverser leurs charges de SO2.
Hélas, les avions ordinaires sont incapables d’atteindre la stratosphère, qui débute à environ 30 miles d’altitude.
Il faut donc des fusées.
Les fusées lourdes transportent, selon wokepedia, de 20 000 à 50 000 kg. Ce qui représente de 44 000 à 110 000 livres, ou environ 22 à 55 tonnes. À peu près la même chose, donc, que les gros jets. Il nous faudrait donc à peu près le même nombre de vols de fusées, soit 500 à 1 000 par jour. Chaque jour. Pour toujours.
Le coût du transport de poussière en orbite terrestre basse par une fusée est d’environ 10 000 dollars par kilogramme (voir le lien ci-dessous). Supprimons un 0 de ce montant puisque nous n’irons qu’à 50 ou 100 miles d’altitude. C’est généreux, car ces fusées seront certainement à usage unique. Jouons au Père Noël et disons donc 1 000 dollars par kg ou 2,2 livres. Cela fait environ un million par tonne.
Et nous avons besoin de 17 mégatonnes, soit 17 millions de millions de dollars par an. Ce qui fait [17] trillions. Par an. Chaque année. Pour toujours.
Et tout cela avant même de calculer le coût du SO2 lui-même. Qui n’est pas gratuit. Une source, si j’ai bien lu, propose des fûts de 800 livres à un prix de gros de 8 dollars. Avec des remises importantes et le statut de client fréquent, cela fait 2 dollars la tonne. Nous avons besoin de 17 mégatonnes, soit seulement 34 millions de dollars par an, une affaire exceptionnelle.
Pour abaisser la température « jusqu’à » un demi-degré C. Mille fusées par jour, pour toujours.
Au mieux. Tout cela suppose que les modèles des Experts soient parfaits, que le CO2 soit aussi démoniaque qu’on le dit, etc. Et que la bureaucratie créée pour lancer les fusées ne coûte rien. Et que les mauvaises récoltes de la Chine, une année ou une autre, ne soient pas imputées aux Experts, et que ça déclenche une guerre, etc. etc.
BONUS SPATIAL!
Je récuse le plan concernant la stratosphère comme étant simpliste, parce que les particules qui s’accumulent autour du SO2 le précipiterait au sol. Comme nous l’avons vu, il faudrait en injecter continuellement dans la stratosphère
Alors, pour rendre service à nos gouvernants idiots, fous et sans scrupules, j’ai fait quelques calculs de coin de table sur le lancement de poussière dans l’espace. Un calcul qui ne devrait être nécessaire qu’une seule fois.
Le point le plus proche où on pourrait larguer la poussière serait le premier point de Lagrange, qui se trouve à 1,5 x 10^9 mètres. Là, la poussière deviendrait une menace réelle pour la navigation céleste. Mais cela pourrait persuader les extraterrestres qu’il n’existe aucune forme de vie intelligente sur Terre.
La terre sèche pèse environ une à deux tonnes par mètre cube. Soyons généreux et disons 1 x 10^3 kg.
La poussière doit avoir une certaine densité. On ne voudrait pas se retrouver avec des morceaux solides qui formeraient un mur de terre opaque d’un mètre d’épaisseur. Répartissons donc ce mètre cube de terre sur, disons, 100 mètres carrés (environ 33 pieds de côté: très mince!). On peut ne pas tenir compte de la profondeur. Personne ne sait comment faire pour distribuer uniformément cette terre en apesanteur. La tâche semble presque impossible. Mais qu’à cela ne tienne. Ce sont des Experts.
Cette mince épaisseur bloquerait, si l’on est extraordinairement généreux, disons 1% du rayonnement solaire entrant. La lumière du soleil frapperait cette couche et 1% serait réfléchi vers l’espace. Peut-être pour terminer sa course sur Mars, si on l’oriente correctement. Serait-ce donc un complot de Musk?
La surface de la Terre est d’environ 5 x 10^9 km^2, mais seule la moitié de cette surface fait face au soleil à chaque instant donné. Et une bonne partie – soyons charitables et disons seulement la moitié de la moitié – reçoit un rayonnement direct, le reste recevant des rayons déviés (et donc moins puissants). Cela fait, en arrondissant pour simplifier, 1 x 10^9 km^2 de surface relevante. Et, bien sûr, dans 1 kilomètre carré, il y a 1 million de mètres carrés. La surface de la terre qui est frappée par le soleil est donc d’environ 1 x 10^15 m^2.
Notre hypothèse majeure, et la plus sympa pour les Experts, est que les rayons du soleil sont « droits ». Ils pointent directement du soleil vers la terre. Ainsi – et ce n’est pas exact, mais c’est favorable aux Experts – une zone occultée dans l’espace correspond à la même zone occultée sur la Terre. Il s’agit là d’un Scénario Optimal maximum.
Cela signifie qu’il faudrait 1 x 10^15 m^2 de poussière, sans tenir compte de l’épaisseur, pour bloquer moins de 1% du rayonnement entrant. Chaque 100 m^2 de poussière représente un mètre cube de terre. Il faudrait donc 1 x 10^13 mètres cubes de terre. Ce qui pèse 1 x 10^16 kg.
Comme nous l’avons vu plus haut, le lancement en orbite basse coûte entre 10 000 et 100 000 dollars par kg. Comme nous sommes généreux, disons 10 000 dollars. Très généreux, car l’orbite basse est loin de L1.
Cela signifie qu’il en coûterait environ 1 x 10^20 dollars pour bloquer environ 1% du rayonnement solaire entrant. Et ce, avant même de considérer que nous ne récupérons pas les fusées qui transportent la poussière, et qu’elles doivent monter beaucoup plus loin que l’orbite terrestre basse.
Combien représente 1 x 10^20 dollars? Eh bien, un trillion, c’est 1 x 10^12. Cela fait donc 100 millions de trillions. Ça fait beaucoup.
Et combien représente 1% de la lumière solaire bloquée? Très peu, mes amis. Presque rien. Surtout si l’on considère que si l’on utilise un scénario plausible au lieu d’un scénario généreux, ce sera beaucoup moins que 1%. Mais c’est tout de même assez pour exciter les oligarques, les dirigeants et les Experts qui pensent qu’ils peuvent se saisir de ce projet et en tirer profit.
J’ai calculé tout cela en buvant ma tasse de café tôt hier matin, et je n’ai rien revérifié tant la tâche était déprimante, alors peut-être aurez-vous des corrections ou des ajustements à y apporter.
Comme mes lecteurs le savent, je tente de dénoncer systématiquement l’opposition contrôlée. Ils savent aussi que, contrairement à Miles Mathis, autre pourfendeur de spooks (agents), je me sers quand même de certaines de leur publications – Whitney Webb, Matthew Ehret, Robert Malone, etc. – selon le principe des 80/20 (80% de faits, 20% d’enfumage ou en plus imagé, bullshit). C’est donc dans les 80% que je puise et je stoppe net quand je vois poindre les autres 20%.
Question « vaccins », RFK Jr a fourni un énorme boulot, et donné une tribune à pas mal de gens intéressants – notamment Sasha Latypova, Catherine Austin Fitts et JJ Couey – sur sa plateforme de Children’s Health Defense. Je l’ai publié plusieurs fois, transcrit et traduit ses discours, ce que je ne regrette aucunement. Mais…
Il se présente maintenant aux élections présidentielles américaines de 2024 et certains pensent qu’il pourrait bien les gagner. RFK Jr a commencé sa carrière comme avocat « environnementaliste », premier « drapeau rouge » majeur brièvement abordé ci-dessous. J’avais prédit un retour des Républicains (Trump ou un autre, DeSantis) pour achever le repli américain de la scène internationale, mais la réthorique de RFK Jr sur la « Paix » ferait aussi bien le boulot, tout en mettant officiellement le pays sous tutelle « environnementaliste » financière, un business qui représente des centaines de trillions de dollars – et la faillite assurée. Voir l’Allemagne…
Je publierai sur le bonhomme un deuxième article également (très) à charge, de Sage Hana, ainsi qu’un autre du même auteur (qui est en fait un mec) sur Robert Malone (qui envisage également de se lancer en politique), ainsi qu’un à moi – si j’arrive à le boucler – qui devrait rhabiller tout ce petit monde pour l’hiver. Me voilà donc tenu de continuer ce blog.
Et pour que ce soit bien clair, je boycotte à la fois les entreprises « neutres en carbone » et l’agriculture industrielle – en résumé, je boycotte à peu près tout. J’y reviendrai.
Je me suis réveillé ce matin avec une alerte de découvert de ma banque: 295$ de paiement automatique pour ma facture d’électricité de Central Hudson. Nous remboursons lentement la facture de 1 000 dollars que nous avons reçue en février 2022. Et nous avons été parmi les plus chanceux. De nombreux habitants de la région de la vallée du Mid-Hudson à New York ont reçu des factures de plus de 5 000 dollars. Central Hudson a systématiquement cité la fermeture de la centrale nucléaire d’Indian Point comme l’une des principales raisons de la montée en flèche de nos factures d’électricité.
Les factures d’énergie élevées semblent être le nouveau normal pour les New-Yorkais. Dans un communiqué de presse datant d’octobre 2022, Central Hudson a énuméré « plusieurs facteurs internationaux, nationaux et régionaux » contribuant à l’augmentation des factures d’électricité:
Au niveau local, la fermeture d’Indian Point l’année dernière a accru la dépendance de la région à l’égard du gaz naturel pour la production d’électricité.
Les contraintes liées à l’approvisionnement et aux gazoducs de transport dans le nord-est continuent de faire grimper les prix en période de forte demande.
Les troubles en Europe de l’Est continuent d’avoir un impact significatif sur les marchés de l’énergie dans le monde entier.
Alors que les pays occidentaux de l’OTAN continuent de mener une guerre par procuration contre la Russie en Ukraine, l’Américain moyen est contraint de payer la facture. Non seulement Biden donne des millions de dollars [NdT. des dizaines de milliards d’argent « blanchi »] de nos impôts durement gagnés aux néo-nazis ukrainiens, mais les sanctions, les troubles et la destruction manifeste des infrastructures des gazoducs [NdT. ma traduction ici] ont créé un scénario de fausse pénurie et, en conséquence, une hausse des prix des carburants et de l’électricité. Il devient moins risqué pour les voix traditionnelles de s’opposer au conflit et d’appeler à la paix. L’une de ces voix est celle de Robert Kennedy Jr. qui vient d’annoncer sa candidature à la 47e présidence des États-Unis.
Robert F. Kennedy renouera avec un courant perdu de la politique étrangère américaine, celui défendu par son oncle, John F. Kennedy, qui, au cours de ses 1000 jours au pouvoir, était devenu un anti-impérialiste convaincu… Il voulait faire revivre l’impulsion de Roosevelt de dissoudre l’empire britannique plutôt que de s’en emparer.
[…]
Notre priorité ne sera rien de moins que de restaurer notre leadership moral. Nous donnerons l’exemple. Lorsqu’une nation impériale belliqueuse désarme de son propre chef, elle établit un modèle pour la paix partout dans le monde. Il n’est pas trop tard pour que nous abandonnions volontairement l’empire et que nous servions la paix, en tant que nation forte et saine.
C’est ça le type de politique qu’un véritable dirigeant américain devrait mettre en avant et, à juste titre, Kennedy gagne rapidement un grand soutien populaire. Malgré cela, j’ai toujours très, très peur de ce à quoi ressemblerait une présidence de Robert Kennedy Jr. RFK n’a jamais exercé de fonction, mais son influence est indéniable. Ses actions, ses plaidoyers et sa rhétorique, ainsi que leurs résultats, méritent d’être réexaminés.
Zélote de l’environnement
RFK Jr. a joué un rôle majeur dans la fermeture du complexe nucléaire d’Indian Point.
« Personne n’a été plus important pour Riverkeeper que Bobby Kennedy », a déclaré Paul Gallay, président de Riverkeeper. En 2017, Spectrum News rapportait que « Kennedy a joué un rôle influent dans le travail visant à fermer Indian Point d’ici 2021″.
« L’accord sur la fermeture d’Indian Point est en quelque sorte le point culminant de sa carrière ici à Riverkeeper », a déclaré Gallay. « Il a déployé des efforts considérables pour fermer Indian Point et soutenir Riverkeeper. Je pense qu’après avoir obtenu ce résultat, il s’est dit que c’était peut-être le bon moment pour se concentrer sur d’autres sujets ».
M. Kennedy a déclaré que la fermeture d’Indian Point constituait une étape importante dans sa carrière. Les responsables de Riverkeeper ont déclaré qu’ils poursuivraient leur travail et feraient de leur mieux pour aller de l’avant sans M. Kennedy.
Pendant plus de 30 ans, M. Kennedy a servi le Natural Resources Defense Council (NRDC) et Hudson Riverkeeper en tant qu’avocat principal et membre du conseil d’administration. Ces organisations sont connues pour être deux des organisations environnementales les plus procédurières et les plus destructrices sur le plan industriel de tout le pays. En 1999, Kennedy a fondé sa propre ONG, Waterkeeper Alliance, et Keeper Springs, une société d’embouteillage d’eau dont les bénéfices sont reversés à Riverkeeper et à ses organisations affiliées.
Kennedy, qui s’est rendu tristement célèbre par ses coups de gueule, a déclaré à plusieurs reprises que les « négationnistes du climat » et les « climato-sceptiques » devraient être envoyés en prison.
En 2014, il a abordé et défendu ses déclarations controversées dans un article pour EcoWatch intitulé Jailing Climate Deniers (emprisonner les négationnistes du climat), dans lequel il a clarifié les choses, affirmant qu’il pensait que les entreprises, et non les individus, devaient être punies, « la peine de mort pour les entreprises » comme il l’appelle:
Je soutiens le Premier Amendement, qui permet à tout citoyen de proférer, même sciemment, des mensonges bien plus ignobles sans conséquence juridique.
Je pense toutefois que les entreprises qui soutiennent délibérément, intentionnellement, malicieusement et systématiquement les mensonges sur le climat devraient être condamnées à la peine de mort. Cela peut se faire par le biais d’une procédure juridique existante connue sous le nom de « révocation de la charte ». Les procureurs généraux des États peuvent invoquer ce recours chaque fois qu’une entreprise fait passer ses profits avant le « bien-être public ».
Cela donne un tour beaucoup plus noble à sa rhétorique, mais que se passerait-il si nous appliquions cette notion de punition aux entités qui promeuvent des « mensonges climatiques »? Dans le communiqué de presse de 2017 qui annonçait la fin de la bataille de plusieurs décennies pour la fermeture d’Indian Point, Paul Gallay, président de Riverkeeper, déclarait: « Une fois Indian Point fermé, nous n’aurons plus besoin de compter sur les combustibles fossiles pour compenser son énergie. » Le communiqué indiquait également que les réacteurs devaient cesser leurs activités dans les quatre ans à venir. Quatre ans plus tard, en 2021, le New York Times titrait sans ambages: « Indian Point ferme. Cela signifie davantage de combustibles fossiles« . Aux yeux de M. Kennedy, s’agit-il d’un « mensonge climatique » passible d’une mort organisationnelle?
Curriculum vitae politique
Bien que RFK Jr. n’ait jamais exercé de fonctions officielles, il n’est pas étranger à la machine politique. En 1999, avec Lawrence Rockefeller [Ndt. !!!], Kennedy a soutenu Al Gore pour sa candidature à l’élection présidentielle de 2000. « Il est notre dernière chance de sauver la planète », a déclaré Kennedy.
Kennedy a également entretenu des relations étroites avec le gouverneur de l’État de New York, Andrew Cuomo [NdT. responsable de la contamination au Covid de milliers de résidents de maisons de repos dans son État], tout au long de la procédure de fermeture d’Indian Point. Theresa Knickerbocker, maire de Buchanan, dans l’État de New York, a parlé de « trois hommes dans une pièce » lors d’un entretien avec Robert Bryce.
« Trois personnes ont pris la décision de fermer Indian Point: le gouverneur Cuomo, Riverkeeper et Entergy. L’ancien gouverneur Andrew Cuomo a été marié pendant 15 ans à Kerry, la sœur de Kennedy, ce qui signifie qu’ils étaient beaux-frères. Cette relation étroite explique également pourquoi M. Kennedy a fait partie de la commission de M. Cuomo sur la fracturation, ce qui a conduit à l’interdiction de la fracturation dans l’État de New York en 2013, et pourquoi il a décidé de ne pas se présenter contre son beau-frère en 2005 pour le poste de Procureur général de l’État de New York.
En 2008, le président élu Barack Obama a inscrit M. Kennedy sur sa liste de candidats présélectionnés pour diriger l’Agence de Protection de l’Environnement. Il n’a finalement pas été retenu, probablement en raison de ses déclarations controversées, de son casier judiciaire pour possession d’héroïne et de sa position hypocrite de « NIMBY » des énergies renouvelables [NdT. NIMBY, également orthographié Nimby, en anglais Not in My Backyard, une expression familière signifiant l’opposition d’une personne à l’implantation d’un objet considéré comme indésirable dans son quartier]. M. Kennedy s’est autrefois opposé à la construction d’un parc éolien au large de la côte de Cape Cod, qui aurait gâché la vue depuis sa maison de vacances.
Programme environnemental malthusien
En 2021, sur les conseils de l’écologiste indienne Vandana Shiva, le Sri Lanka a interdit tous les engrais chimiques au profit de méthodes « biologiques », avec des résultats désastreux. Le faible rendement des récoltes a entraîné une hausse des prix et des pressions économiques qui se sont traduites par un « effondrement » et des manifestations. Shiva est régulièrement qualifiée de vendeuse de pseudo-science et de rabatteuse d’ONG. Elle qualifie les engrais pétrochimiques de « poison ».
Le #SriLanka a déjà banni tous les produits chimiques et annoncé une transition vers un Sri Lanka 100% biologique. Joignons-nous au Sri Lanka, à la Suisse et à toutes les communautés qui prennent des mesures en faveur d’un monde sans poison et sans cartel du poison, pour notre santé et celle de la planète.
« C’est mon héroïne, Vandana Shiva, que je connais depuis de très nombreuses années et qui a été un modèle pour moi, vraiment », dit Kennedy en présentant Shiva en tant que toute première invitée de son podcast en 2021. Shiva a participé trois fois au podcast de Kennedy depuis sa création, et chaque épisode fait référence à la longue et étroite amitié que les deux entretiennent. En effet, Kennedy soutient la croisade de Shiva pour une « agriculture sans poison et sans énergie fossile », et a participé à un panel lors d’un événement portant ce titre en 2019.
Capture d’écran d’un livre hébergé sur le site de l’organisation de Shiva, Navdanya International.
Si l’on examine de plus près la politique environnementale sur le site Internet de la campagne présidentielle actuelle de Kennedy, on peut lire ce qui suit:
Tout d’abord, nous modifierons les subventions agricoles afin d’encourager les pratiques régénératrices. Aujourd’hui, une nouvelle génération d’agriculteurs et d’éleveurs reconstitue les sols, réalimente les nappes phréatiques et détoxifie les terres, tout en produisant autant de nourriture que les agriculteurs traditionnels et en gagnant décemment leur vie.
Soit M. Kennedy n’a pas lu les nouvelles concernant le Sri Lanka, soit il est conscient de l’effet des méthodes agricoles biologiques, anti-scientifiques et à faible rendement de Shiva, et il soutient ces méthodes délibérément pour leurs faibles résultats.
Pour en savoir plus sur l'importance des combustibles fossiles pour l'agriculture, écoutez notre dernier entretien podcast avec Jusper Machogu, ingénieur agronome et agriculteur au Kenya - épisode 031 Africa Needs Fossil Fuel.
Bien que Kennedy n’ait jamais parlé ouvertement de la surpopulation, il ne faut pas chercher bien loin pour trouver dans son camp des personnes puissantes qui sont des malthusiens. Fred Stanback Jr, héritier de l’entreprise d’aspirine de son père et de son oncle, a eu la chance d’investir très tôt dans Berkshire Hathaway parce qu’il était le colocataire de Warren Buffett à Harvard. Stanback a utilisé sa fortune pour faire des dons à des organisations de contrôle de la population telles que Population Connection – l’organisation anciennement connue sous le nom de « Zero Population Growth » fondée en 1968 par Paul Ehrlich, néo-malthusien tristement célèbre et auteur de The Population Bomb (La bombe démographique). Stanback a donné des millions de dollars à la Waterkeeper Alliance de Kennedy, ce qui fait de lui l’un des principaux donateurs de l’organisation, si ce n’est le plus important.
Les rapports annuels de la Waterkeeper Alliance de 2012 à 2022 mentionnent Stanback comme donateur dans la fourchette de 499 999 à 200 000 dollars en 2012, 500 000 dollars et plus en 2013, 1 000 000 dollars et plus en 2014 et 2015. Chaque année depuis 2016, la Foundation for the Carolines figure dans la catégorie supérieure des 1 000 000 $ et plus. La Foundation for the Carolines est bien connue en tant que fondation de passage pour les dons philanthropiques de Fred Stanback, Jr.
Anti-impérialiste ou impérialiste vert?
Kennedy diffuse un message anti-impérialiste. Il est clairement contre la guerre chaude. Mais représente-t-il réellement l’impérialisme vert du soft power? À la suite de la fermeture par l’Allemagne de ses dernières centrales nucléaires, il semble que les esprits les plus sains au sein du mouvement écologiste commencent à réaliser à quel point le fanatisme antinucléaire a été un faux pas. La fermeture d’Indian Point a rendu le réseau énergétique de New York moins fiable, plus carboné et plus coûteux. Il s’agit clairement d’une politique désastreuse aux répercussions extrêmement négatives, dont les New-Yorkais paient aujourd’hui le prix.
Si Kennedy a des remords au sujet d’Indian Point, il ne les a pas encore exprimés. L’Amérique a-t-elle la marge nécessaire pour absorber d’autres bévues industrielles de cette ampleur? Et il ne s’agit pas seulement d’erreurs passées, Kennedy semble porter en haute estime une femme qui porte une grande part de responsabilité dans l’effondrement du Sri Lanka du fait d’une politique agricole pseudo-scientifique.
Ou bien tout cela est-il délibéré? Faut-il examiner de plus près les penchants malthusiens de l’un des principaux bailleurs de fonds de Kennedy? Y a-t-il un agenda caché derrière la personnalité sincère et véridique de Kennedy? Je suis heureux qu’un message anti-impérialiste, anti-guerre et pro-souveraineté soit porté sur la plus haute scène politique du pays à ce moment de l’histoire. Mettre fin à la guerre en Ukraine et désamorcer la menace d’une troisième guerre mondiale nucléaire est la question la plus importante à laquelle nous sommes confrontés en ce moment en tant que communauté mondiale [NdT. pas vraiment]. Mais nous devons nous méfier de ceux qui essaient d’échanger une guerre militaire chaude contre une guerre économique éco-malthusienne contre les nations les plus pauvres, les plus affamées et les moins développées.
Pour changer un peu des divagations du GIEC et couper l’herbe sous le pied de la catastrophe économique qu’ils promeuvent (voir article précédent), voici de la vraie science climatique. La conclusion est assez étonnante.
Modulation des âges glaciaires – sans CO2 – Article invité de Ralph Ellis
William M Briggs
6 mai
Ellis m’a envoyé son article intitulé « Modulation of Ice-ages via Precession and Dust-Albedo Feedbacks » (La modulation des périodes glaciaires par la précession et les rétroactions poussières-albédo) dans Geoscience Frontiers, et je l’ai trouvé assez intriguant. Pour simplifier à l’extrême: le CO2 est bon pour nous et il va faire très froid dans peu de temps. Je lui ai demandé de rédiger un résumé, que vous trouverez ci-dessous, mais utilisez l’article lui-même pour toute critique intelligente.
Voici une énigme intéressante: les climatologues prétendent que la science qui sous-tend le climat terrestre est établie. Pourtant, on découvre simultanément qu’il n’y a pas d’explication claire aux changements climatiques qui se produisent pendant les périodes glaciaires. On suppose un rôle aux cycles orbitaux et au CO2, mais on n’a jamais expliqué pourquoi certains de ces cycles orbitaux produisent des périodes glaciaires et interglaciaires, alors que d’autres n’en produisent pas du tout. Pourquoi donc un système climatique serait-il sélectif dans sa réponse aux cycles orbitaux?
Les quatre cycles orbitaux impliqués dans la paléoclimatologie sont: la précession axiale, la précession apsidale, l’obliquité axiale et l’excentricité orbitale. Ces cycles se combinent pour modifier la quantité de lumière solaire (insolation) qui atteint les hautes latitudes de la Terre. Cette oscillation induite par l’orbite est connue sous le nom de cycle de Milankovitch (au singulier), qui a une périodicité d’environ 22 millénaires, et les modifications de l’ensoleillement aux latitudes supérieures qu’il induit peuvent être très importantes.
La figure 1 montre le cycle de Milankovitch en bleu, tandis que la réponse de la température aux latitudes plus élevées est en rouge. Comme on peut le voir, certains des pics du cycle de Milankovitch en bleu (c’est-à-dire l’insolation supplémentaire aux latitudes élevées) n’entraînent aucune variation de température. Ce qui est étrange et ne peut s’expliquer par la théorie de la rétroaction du CO2.
Fig. 1. Graphique des cycles de Milankovitch (bleu) par rapport aux températures de l’Antarctique (rouge). Chaque pic bleu représente une augmentation de l’insolation dans l’hémisphère nord à haute latitude. Chaque pic rouge représente un réchauffement interglaciaire, qui se produit environ tous les 80 ou 100 millénaires. Il convient de noter que certains pics d’insolation n’entraînent aucune réaction de la température. Sources: Laskar 2004, cycles orbitaux, et données de température de la carotte glaciaire Epica3.
En fait, les problèmes liés aux rétroactions et à la modulation des périodes glaciaires sont multiples. Il y a aussi le problème que pendant les périodes glaciaires, un taux élevé de CO2 coïncide avec un refroidissement, tandis qu’un faible taux de CO2 coïncide avec un réchauffement. Il s’agit là d’une réponse très contradictoire par rapport à la théorie standard de la rétroaction du CO2. De plus, tous les réchauffements interglaciaires coïncident avec les cycles de Milankovitch de l’hémisphère nord, plutôt qu’avec leurs équivalents de l’hémisphère sud.
Là encore, il s’agirait d’une réponse hémisphérique asymétrique inhabituelle pour une rétroaction globale telle que le CO2. Enfin, le CO2 est une rétroaction très faible pendant le réchauffement interglaciaire, lorsqu’il est calculé sur une base annuelle ou décennale, alors que la véritable rétroaction doit être assez puissante pour faire fondre les vastes nappes glaciaires du Nord en seulement 5 000 ans.
Le résultat de cette brève analyse est que le CO2 ne peut pas être le système de rétroaction qui assiste le cycle de Milankovitch et qui contrôle donc la modulation interglaciaire. Pourtant, nous savons qu’il doit y avoir un mécanisme de rétroaction quelconque pour expliquer les interglaciaires manquants (la réponse intermittente de la température à l’augmentation de l’insolation à haute latitude). Les exigences de ce nouveau système de rétroaction proposé sont donc particulières: il doit être basé dans l’hémisphère nord; il doit se réchauffer lorsque le taux de CO2 est faible; il doit être très puissant; et pourtant, il doit être intermittent – ne fonctionnant qu’une fois tous les 80 ou 100 millénaires. Il s’agit là d’un mécanisme de rétroaction très étrange.
Pouvons-nous donc trouver un mécanisme de rétroaction aussi particulier, fort et intermittent? Un mécanisme passé inaperçu dans la science du climat depuis des décennies?
Comme je l’explique en détail dans mon article sur le paléoclimat, la réponse est intrigante: il s’agit de la poussière. Oui, de modestes poussières tombant sur les calottes glaciaires et assombrissant leur surface – ou « réduisant leur albédo », dans le jargon scientifique. La neige fraîche sur les calottes polaires peut avoir un albédo très élevé, réfléchissant jusqu’à 90% de la lumière solaire entrante vers l’espace, ce qui peut avoir un effet de refroidissement régional considérable sur le climat. Cela explique le problème des périodes interglaciaires manquantes, car cette glace très réfléchissante peut rejeter une quantité d’insolation telle que certains cycles de Milankovitch n’ont aucun effet, comme le montre la figure 1.
Si un albédo élevé constitue un début prometteur dans cette quête, cette modeste poussière peut également expliquer toutes les autres particularités requises par notre nouvel agent de rétroaction hypothétique. La poussière est en effet originaire de l’hémisphère nord, puisqu’il a été établi que la poussière du Groenland provient du haut plateau de Gobi. La poussière peut avoir une très forte influence sur le réchauffement de la calotte glaciaire, en augmentant l’absorption de la lumière solaire jusqu’à 215 W/m^2, soit 50% de la lumière solaire moyenne totale disponible.
Enfin, les poussières trouvées dans les carottes de glace polaire sont effectivement intermittentes et ne se produisent que tous les 80 ou 100 millénaires, juste avant chaque période de réchauffement interglaciaire. Voir la corrélation spectaculaire entre la poussière et le CO2 dans la figure 2. N’oubliez pas que le CO2 est également proportionnel à la température, de sorte que la poussière présente également une bonne corrélation avec la température.
Fig. 2. Graphique du CO2 (bleu) par rapport à la poussière (vert). Notez la bonne corrélation entre le CO2 et la poussière (et donc entre la température et la poussière). Notez que le graphique des poussières est inversé et logarithmique. Source: Données de carottes de glace Epica3 2007.
Dans ce cas, nous avons peut-être découvert le véritable agent et mécanisme de rétroaction de la température à l’ère glaciaire: il s’agit de l’albédo de la couche de glace recouverte de poussière plutôt que du CO2. Cependant, pourquoi la poussière présenterait-elle cette étrange intermittence, pour n’arriver sous forme de vastes nuages de poussière que tous les 80 ou 100 millénaires? Et, je le rappelle aux lecteurs, juste avant chaque période de réchauffement interglaciaire.
Pour trouver la réponse à cette énigme climatique, nous devons regarder bien au-delà des contraintes étouffantes de la science climatique standard et nous rappeler que le CO2 est la nourriture des plantes, et donc le gaz le plus essentiel de l’atmosphère. Sans CO2, toute vie sur Terre disparaîtrait.
Mais en raison du refroidissement des océans pendant les périodes glaciaires, et donc de l’absorption du CO2 par les océans, les concentrations atmosphériques de CO2 sont réduites pendant la période glaciaire et finissent par atteindre 180 ppm. Ce niveau est dangereusement bas pour une grande partie de la flore mondiale, en particulier en altitude où les concentrations peuvent atteindre l’équivalent de 150 ppm à la surface. Or, 150 ppm se situe bien en deçà de la zone mortelle pour la plupart des plantes en C3. [NdT. pour info, « Les plantes en C3 … représentent encore aujourd’hui environ 95 % de la biomasse végétale. »; voir sur Wiki]
En raison de cette faible teneur en CO2, le plateau de Gobi, situé à haute altitude, se transforme en un désert de CO2. Il s’agit d’un nouveau type de désert causé par un manque de CO2 plutôt que par un manque de pluie – un phénomène qui passe largement inaperçu dans la science du climat. La poussière de surface de ce nouveau et vaste désert de sable en mouvement est emportée vers l’est par les vents dominants, formant le plateau de Loess poussiéreux en Chine et recouvrant de poussière les inlandsis laurentidien et eurasien. Et comme ces nouveaux déserts de CO2 sont causés par des océans froids au plus profond d’une période glaciaire, ces tempêtes de poussière, principalement dans l’hémisphère nord, ne peuvent se produire qu’au moment du maximum glaciaire.
En d’autres termes, ces tempêtes de poussière sont intermittentes et se produisent juste avant chaque période chaude interglaciaire. Et cette relation est causale, plutôt que coïncidente. C’est la poussière qui réduit l’albédo des calottes glaciaires, permettant ainsi une plus grande absorption de la lumière du soleil, ce qui entraîne la fonte des calottes glaciaires et le réchauffement interglaciaire. Nous nous trouvons actuellement dans une période chaude de ce type – l’interglaciaire de l’Holocène – et nous devrions connaître une nouvelle période glaciaire dans 500 à 1 000 ans. Bien que les cycles orbitaux initiateurs soient faibles à l’heure actuelle, en raison de la faible excentricité, il n’est pas certain que le cycle de refroidissement orbital actuel soit suffisamment puissant pour engendrer une véritable période glaciaire.
La réjouissante conclusion de cette étude est donc que pendant les périodes glaciaires, ce sont les faibles concentrations de CO2 dans l’atmosphère qui provoquent le réchauffement de la planète.
Fig. 3. Graphique récapitulatif de tous les facteurs qui jouent un rôle dans la modulation glaciaire.
Les calottes glaciaires (bleu clair et gris) s’étendent, forçant la température (rouge) à baisser.
Le CO2 (jaune) diminue avec la température (rouge), en raison de l’absorption océanique.
Lorsque le CO2 atteint 180 ppm, on assiste à l’apparition de déserts de CO2 et de tempêtes de poussière (violet).
Lorsque le cycle orbital suivant (onde sinusoïdale bleue) arrive, les couches de glace et de poussière peuvent fondre et la planète se réchauffe (pics rouges).
«La France ne le sait pas, mais nous sommes en guerre avec l’Amérique. Oui, une guerre permanente, une guerre vitale, une guerre économique, une guerre sans mort apparemment. Oui, ils sont très durs les Américains, ils sont voraces, ils veulent un pouvoir sans partage sur le monde. C’est une guerre inconnue, une guerre permanente, sans mort apparemment et pourtant une guerre à mort.»
Tiens, tiens, une main américaine derrière le programme de suicide « vert » allemand. Le même pouvoir américain, qui voulait depuis longtemps découpler l’industrie allemande des sources d’énergie russes, et y a finalement réussi sous couvert de « sanctions » – et plus…
C’est, comme je l’écris depuis avant le conflit Russie-Ukraine, une guerre contre l’Europe. Et comme l’expliquait Mitterand, une guerre à mort.
L’Allemagne est tombée. Ne comptez pas trop sur moi pour les plaindre. Ils paient enfin le prix de leurs amitiés et de leur mégalomanie.
Si elle ne sort pas vite de l’étau « européen » – donc, américain – La France sera la suivante.
Une vaste cabale climatique financée depuis l’étranger, à l’emprise politique mortelle, est en train de détruire la République fédérale d’Allemagne dans une guerre à mort, et personne ne peut rien y faire
Réflexions sur la catastrophe en cours de la politique énergétique allemande et sur ses causes
eugyppius
12 mai
La presse internationale maintient un silence quasi total sur l’escalade de démence dans laquelle est plongée l’Allemagne. Les médias qui célèbrent quotidiennement les progrès de l’Allemagne en matière de transition énergétique se gardent bien de vous dire que la puissance industrielle dominante de l’Europe est entrée dans une spirale politique et administrative profondément destructrice, dont elle ne se remettra sans doute jamais. La faute en incombe aux politiques énergétiques autodestructrices et inapplicables qui enserrent dans un étau mortel non seulement le gouvernement Scholz, mais aussi l’ensemble de l’État administratif. Après avoir finalisé la sortie du nucléaire en pleine crise énergétique et évité une catastrophe hivernale grâce au simple hasard d’un temps clément, nos gouvernants imposent maintenant des réformes dévastatrices à la loi sur l’énergie dans les bâtiments (Gebäudeenergiegesetz), [NdT. des mesures comparables se mettent progressivement en place dans l’Amérique maoïste, notamment dans l’État de New York] qui réglemente la consommation d’énergie dans les structures résidentielles et commerciales.
Tout ça peut paraître fade et ennuyeux, mais ce n’est pas le cas. Ce dernier tour de vis a pour objectif d’éliminer progressivement le chauffage traditionnel au gaz et au fioul, par l’obligation pour tous les nouveaux systèmes de chauffage installés après 2024 d’utiliser au moins 65% d’énergie renouvelable. Dans la plupart des cas, cet objectif ne peut être atteint qu’en installant des pompes à chaleur électriques. Les coûts de rénovation qui en résulteront seront catastrophiques, en particulier pour de nombreux bâtiments anciens, et, à moins d’une révision radicale, ces règles ne feront que bouleverser le marché du logement et détruire une grande partie de la richesse des particuliers. Par ailleurs, le réseau électrique ne pourra en aucun cas alimenter ces nouvelles sources de chaleur, que ce soit aujourd’hui ou à l’avenir.
Face à l’inquiétude croissante et à l’apparente futilité de toute opposition, même certains médias de l’establishment allemand ont commencé à exprimer leur malaise. Aujourd’hui, Der Spiegel (étonnant de la part de ce magazine) a publié un long article sur les origines, le financement et la montée en puissance de l' »Eco Network » actuellement aux manettes de la politique énergétique allemande, et je voudrais ici en parler plus en détail, parce qu’il est très révélateur de nombre de choses. Cela permettra de faire le lien entre de nombreux éléments et de montrer comment prennent naissance et se mettent en place des politiques mégalomanes dans les États gestionnaires modernes, et comment celles-ci sont imperméables et même opposées à l’opinion publique, y compris dans des systèmes prétendument démocratiques.
Le reportage du Spiegel examine de près la carrière de plusieurs personnages clés de la transition énergétique, dont le politicien vert Rainer Baake et le bras droit de Robert Habeck, Patrick Graichen, impliqué dans des scandales, qui est le cerveau politique à l’origine de la quasi totalité de la folie actuelle.
La montée en puissance des écologistes au sein du Ministère de l’Économie a commencé il y a une dizaine d’années. On a longtemps considéré que l’État devait imposer le moins de règles possible au secteur des entreprises… Selon cette logique, l’environnementalisme et la politique économique étaient considérés comme presque mutuellement exclusifs. Ce n’est qu’en 2013 que la domination des fonctionnaires partisans de l’économie de marché a commencé à s’effriter.
C’est à cette époque que Sigmar Gabriel, du SPD, est devenu Ministre de l’économie et a nommé un secrétaire d’État à l’énergie inhabituel1: Rainer Baake … Cette nomination a surpris, car Baake n’est pas un social-démocrate, mais un écologiste. … En tant que secrétaire d’État au Ministère de l’Environnement … Baake a contribué à orchestrer la première législation sur la sortie du nucléaire en Allemagne. …
En 2012, M. Baake a fondé Agora Energiewende, probablement le groupe de réflexion le plus influent du monde politique allemand en faveur d’une société neutre en carbone. Patrick Graichen était déjà à l’époque le protégé de Baake. …
À mesure que les fonctionnaires de la bureaucratie allemande favorables à l’industrie prenaient leur retraite, M. Baake confiait leurs postes à des technocrates verts dans la mesure du possible, de sorte que lorsque le contrôle du Ministère est passé aux mains de la CDU de centre-droit en 2018, le mal était déjà fait. La dynamique institutionnelle s’était déjà orientée vers le changement climatique et avait commencé à se renforcer sous sa propre impulsion. Le mot d’ordre du projet politique de M. Baake était l’instauration d’un prétendu « monde du tout électrique », dans lequel un réseau entièrement alimenté par des énergies renouvelables permettrait de faire rouler les voitures (véhicules électriques), de chauffer les bâtiments (pompes à chaleur) et même de faire tourner l’industrie (bien que les solutions soient beaucoup plus floues dans ce cas).
Durant son mandat de cinq ans en tant que secrétaire d’État, Baake nomma Graichen à la tête du groupe de réflexion Agora, qui s’est mis à publier des documents de stratégie politique, à parrainer des recherches scientifiques vertes et à rallier un nombre sans cesse croissant de partisans et de technocrates loyaux. Cela a porté ses fruits:
Chaque fois qu’il était question d’énergie et de climat à Berlin [dans les années qui ont suivi la démission de Baake du Ministère de l’Économie en 2018], le nom de Graichen revenait, brandissant souvent des termes compliqués dont seuls les experts comprennent le sens. Le « principe de l’ordre des mérites », par exemple, ou l' »effet de verrouillage ». L’homme aux cheveux roux et à la voix sonore savait mieux que quiconque naviguer dans ce monde de spécialistes. …
Cette capacité semble lui être venue naturellement. Sa mère travaillait au Ministère du Développement, son père pendant un certain temps au Ministère des Transports. Il s’était lui-même impliqué dans le domaine de l’environnement dès l’école, d’abord au sein de l’organisation de jeunesse BUND. En 1993, il entama des études à l’université de Heidelberg. En 1996, il rejoignit le parti des Verts. En 2001, il devint consultant pour la protection internationale du climat… et participa à l’élaboration du protocole de Kyoto.
Graichen est tout droit issu de l’establishment politique allemand, et sa génération est la première à avoir vu une pénétration significative des Verts vers le tournant du millénaire. Nous assistons à présent à l’aboutissement d’un activisme environnemental de longue haleine, qui remonte aux années 1970.
En 2020, Baake … a fondé la Fondation pour la Neutralité Climatique (Stiftung Klimaneutralität) et s’est mis à rédiger des études sur la transition énergétique. Dans leurs articles, Baake et Graichen couvrent presque tous les sujets liés au climat. Ils parlent de la restructuration de l’industrie, de l’expansion de l’énergie éolienne et de la transition du chauffage.
Leurs travaux ont été financés en arrière-plan par deux hommes: Bernhard Lorentz, qui, en tant que directeur de la Fondation Mercator, a contribué à la naissance du groupe de réflexion Agora. Et Hal Harvey, un lobbyiste américain qui a financé des organisations écologistes et climatiques dans le monde entier pendant près de trois décennies, aidé entre autres par les milliards philanthropiques de familles comme les Hewletts.
Ce n’est pas la première fois que l’on découvre d’improbables activistes et philanthropes américains à l’oeuvre derrière l’activisme climatique européen, et plus particulièrement allemand. Le Spiegel explique, non sans inquiétude, que « Harvey considère l’Europe comme la clé de voûte de la préparation d’un avenir climatiquement neutre » et que c’est la raison pour laquelle « il consacre des millions […] à soutenir des personnalités telles que Baake et Graichen ». Cet homme, qui n’apparaît pratiquement pas dans les médias anglophones et n’a même pas de page Wikipedia en anglais, a été baptisé par Die Zeit « l’homme politique vert le plus puissant du monde« .
M. Harvey s’appuie en particulier sur des groupes de réflexion pour élaborer ses politiques et soutenir des candidats politiques lorsqu’ils ne sont pas au pouvoir, et ses activités de lobbying, extrêmement bien financées, sont capables à elles seules de dominer le discours politique des petits pays, ce qui explique sans doute pourquoi il s’intéresse tant à l’Europe.
Les groupes de réflexion allemands tels qu’Agora … ou la Fondation pour la Neutralité Climatique … recrutent des chercheurs grâce aux millions donnés par leurs sponsors et consolident progressivement l’influence de leurs experts. Ils façonnent la perception de la protection de l’environnement et du climat par le monde politique et la société – et truffent leurs études de propositions juridiques qui promeuvent les solutions qu’ils privilégient. …
L’influence des organisations de soutien aux Verts est incontestable. Elles ont donné au parti un avantage considérable en matière de protection du climat. Et grâce à ces connaissances, l’attrait du parti en tant que solution à l’une des plus grandes crises de notre temps s’est accru. … Les autres partis ont longtemps négligé ce domaine.
Le terme « connaissances » n’est évidemment pas approprié. « Prescriptions politiques » serait beaucoup plus adéquat, et si Der Spiegel n’était pas aussi obnubilé par ses propres préconceptions idéologiques, il en parlerait avec plus de clarté. Il s’agit d’un processus en trois étapes. 1) Les activistes et les scientifiques approuvés par le régime identifient et expriment haut et fort les problèmes qui se profilent, puis 2) les groupes de réflexion rédigent des tonnes de solutions législatives et réglementaires pour y remédier. Tout cela se passe en grande partie en coulisses, jusqu’à ce que 3) les politiciens répondent à la demande suscitée par la branche militante, et n’ayant eux-mêmes aucune expertise ou compréhension réelle de quoi que ce soit, ils n’ont pas d’autre choix que d’adopter les propositions que des gens comme Graichen leur donnent à entendre.
Voici donc l’explication de l’idiotie obstinée de Robert Habeck depuis l’automne dernier. Dès que les Verts sont entrés au gouvernement, il a fait de Graichen son secrétaire d’État à l’Énergie, et c’est Graichen et l’armée de technocrates qu’il commande qui sont à l’origine de tous les désastres politiques survenus depuis lors. La réponse grotesque à la crise de l’énergie, qui a obligé ces personnes à agir au mépris de leurs principes et à acheter d’énormes quantités de charbon (en provenance de Russie, rien de moins); la sortie du nucléaire, bâclée mais néanmoins accomplie; et, enfin, les changements catastrophiques apportés à la Loi sur l’Énergie dans le Bâtiment, qui plongeront dans la misère des millions d’Allemands sans avoir la moindre incidence sur la température de la Terre.
Les échecs de Graichen lui ont valu de nombreux ennemis, ce qui explique notamment qu’il soit actuellement embourbé dans un scandale de népotisme. Pourtant, tous les gros titres à charge seront impuissants à changer quoi que ce soit à la folie qui nous guette, pour la simple raison qu’il n’y a pas d’autres politiques à mettre en œuvre ni d’autres solutions scientifiques ou technocratiques vers lesquelles se tourner. Graichen et ses riches bailleurs de fonds ont passé dix ans à alimenter tous les circuits politiques et intellectuels des problèmes et des solutions qui les intéressent.
C’est de cette manière que l’on parvient à mettre en place un programme depuis le sommet jusqu’à la base, et c’est un point essentiel qui différencie la farce Corona de la farce du changement climatique. Pendant de nombreuses années, la brigade climatique s’est efforcée de saturer le monde universitaire et la bureaucratie de ses idées et de ses partisans. Ils ont profité du changement de génération et des départs à la retraite pour positionner leur personnel, et ils ont attendu une élection pour amener les politiciens adéquats au pouvoir et boucler la boucle. Les pandémistes ont bien sûr suivi le même chemin, mais leurs solutions modérées et surtout intéressées ont été abandonnées au dernier moment au profit de mesures de confinement de masse beaucoup plus sévères et dangereuses. L’emballement pour cette réponse inédite n’était pas le résultat de décennies du travail de philanthropes illuminés et de groupes de réflexion, mais provenait de l’intérieur même de la bureaucratie. Cela a conféré au coup d’État Corona beaucoup plus de pouvoir sur le moment, mais en l’absence de soutien institutionnel ou idéologique plus large, les pires volets du régime de suppression du virus se sont effondrés tout aussi rapidement et sont aujourd’hui discrètement répudiés dans le monde entier.
Les fanatiques verts n’ont jamais manifesté un tel enthousiasme messianique, mais pour la même raison, ils seront beaucoup, beaucoup plus difficiles à déloger.
(1): Les Staatssekretäre, ou secrétaires d’État, sont les fonctionnaires les plus haut placés dans les ministères fédéraux allemands et dépendent directement de leurs ministres respectifs. C’est là que le bras politique et l’establishment bureaucratique se chevauchent.
Un article invité, de haute qualité, d’un auteur anglais. Il en a également écrit un qui fait éclater la bulle de l’hydrogène et mériterait d’être traduit – j’y pense. Vous aurez compris que je ne relaie pas celui-ci pour faire la promotion du nucléaire, quoique tout ce qui est dit ici est exact, mais pour démonter l’arnaque du renouvelable tel qu’on veut nous le vendre.
Vous lirez que l’auteur utilise ici comme critère de comparaison les émissions de CO2. Je ne pense pas qu’il soit dupe de la fable du changement climatique anthropocentrique mais qu’il s’en sert pour prendre les promoteurs d’éolien/solaire à leur propre piège. C’est également ma méthode pour contrer l’installation, proche de mon village, d’éoliennes dont personne ne veut.
Note: je n’ai pas traduit le texte (pas très difficile) qui figure sur les tableaux mais je le ferai sur demande.
L’écoblanchiment permanent ne suffit pas à cacher que l’éolien et le solaire sont des sources d’énergie médiocres et néfastes pour l’environnement
David Turver
19 mars 2023
Résumé
Le gouvernement et l’opposition veulent tous deux que nous décarbonisions notre système électrique et que nous dépensions encore davantage de milliards dans les technologies éoliennes et solaires renouvelables. Ils le justifient en invoquant leurs basses émissions de CO2, même s’il a été démontré que leur coûtprétendument faible n’était qu’un fantasme.
Cependant, le CO2 n’est pas le seul critère à l’aune duquel on devrait mesurer la durabilité ou l’opportunité des technologies énergétiques. Il convient également d’examiner le retour sur investissement de l’énergie, l’utilisation des terres, les besoins en minéraux et la mortalité globale.
L’énergie éolienne et l’énergie solaire obtiennent de mauvais résultats en ce qui concerne le rendement énergétique, l’utilisation des terres et les besoins en minerais
Cette analyse montre que le rendement énergétique de l’énergie investie dans l’éolien, le solaire et la biomasse est inférieur à celui nécessaire au fonctionnement d’une économie moderne [voir également la mise à jour ci-dessous]. En effet, la bioénergie avec capture [et stockage] du carbone (BECSC) constitue probablement un gouffre énergétique net. Si nous ne pouvons même pas maintenir, et encore moins augmenter, le niveau de vie grâce à ces technologies, nous condamnons nos enfants à un avenir de privations. Cela seul est une raison suffisante pour mettre fin aux subventions et aux investissements dans ces technologies. L’éolien et le solaire sont également très gourmands quant à l’utilisation des terres (jusqu’à 300 fois plus que le nucléaire), terres qui pourraient être utilisées pour cultiver des plantes ou faire paître des animaux destinés à l’alimentation. La biomasse nécessite l’abattage de milliers d’hectares d’arbres pour alimenter des centrales électriques inefficaces, tout en prétendant qu’elles n’émettent pas de CO2.
L’énergie éolienne et solaire engloutit également 10 à 20 fois plus de minéraux essentiels que les autres technologies, ce qui a des répercussions sur le nombre de mines nécessaires dans le monde. En outre, l’éolien et le solaire sont des sources intermittentes qui nécessitent un soutien soit par des combustibles fossiles, soit par des batteries. Elles n’obtiennent de bons résultats que sur le plan de la mortalité.
Il est temps de conclure que les énergies renouvelables éoliennes, solaires et de biomasse ne sont pas vertes, qu’elles ne sont pas durables et qu’elles sont incapables de soutenir une économie moderne. L’hydroélectricité obtient de bons résultats, mais son utilité est limitée par la géographie. La seule source de production d’électricité à faible teneur en carbone, évolutive, durable et répartissable est le nucléaire.
Introduction
Le gouvernement et l’opposition continuent de polir leur réputation en matière d’environnement en faisant des déclarations de plus en plus farfelues sur la décarbonisation du système électrique. Le gouvernement s’est fixé comme objectif de réaliser cette ambition d’ici 2035 en investissant massivement dans les énergies renouvelables. Le gouvernement veut que le Royaume-Uni devienne l’Arabie saoudite de l’énergie éolienne. Le Parti Travailliste, dans l’opposition, s’est lancé dans la course aux énergies renouvelables en s’engageant à mettre fin à l’utilisation des combustibles fossiles dans le système électrique d’ici 2030 et à faire de notre pays une superpuissance de l’énergie propre. Cependant, son porte-parole Jon Ashworth n’a pas été en mesure de répondre à la question de savoir d’où viendrait l’électricité si le vent ne soufflait pas ou si le soleil ne brillait pas (à partir de 28:20).
Il est temps de se pencher sur les principales technologies renouvelables afin de déterminer dans quelle mesure elles sont réellement respectueuses de l’environnement. Ces technologies sont acclamées parce qu’elles émettent prétendument peu de CO2 pour produire de l’électricité. Cependant, le CO2 n’est pas le seul critère à l’aune duquel nous devrions mesurer le respect de l’environnement ou la durabilité des sources d’énergie. Selon Wikipedia, « l’énergie est durable si elle répond aux besoins du présent sans compromettre la capacité des générations futures à répondre à leurs propres besoins ». Nous devrions donc prendre en compte pour ces technologies d’autres facteurs tels que le retour sur investissement de l’énergie, l’utilisation des terres, les minéraux nécessaires et la mortalité.
Émissions de gaz à effet de serre par source d’énergie
Commençons par l’indicateur le plus souvent utilisé pour déterminer le caractère écologique d’une source d’énergie donnée. Les mesures varient, certaines ne prennent en compte que le CO2, d’autres d’autres gaz à effet de serre (GES) et, bien sûr, les méthodologies varient. Cependant, toutes les méthodologies donnent une image globalement similaire. Pour les besoins de cet article, j’ai choisi la CEE-ONU comme source (p73) et j’ai pris leurs chiffres médians pour les technologies représentatives (voir figure 1).
Figure 1 – Émissions de GES par source d’énergie (gCO2e par kWh)
Comme on pouvait s’y attendre, le charbon arrive en tête avec 903 gCO2e/kWh et le gaz naturel avec 449 gCO2e/kWh. L’énergie solaire, l’énergie hydraulique, l’énergie nucléaire et l’énergie éolienne ont des émissions 10, 20 ou près de 40 fois inférieures à celles du gaz naturel. La CEE-ONU ne couvre pas la biomasse dans son analyse. La biomasse, en particulier sous la forme de la combustion d’arbres à la centrale électrique de Drax, mérite une attention particulière.
Biomasse – Brûler des arbres à Drax n’est pas vert
Au Royaume-Uni, le plus gros producteur de biomasse est la centrale électrique de Drax, près de Selby. La biomasse est le terme euphémique utilisé pour décrire le fait de brûler des arbres pour produire de l’électricité. Des millions de tonnes d’arbres sont abattus en Amérique du Nord, dépulpés, séchés (ce qui nécessite de l’énergie) et expédiés sur des navires utilisant des combustibles fossiles jusqu’au Royaume-Uni où ils sont brûlés dans la centrale électrique de Drax. En 2022, Drax a produit 3,9 millions de tonnes de pellets de bois. Selon le rapport annuel de Drax, la centrale a reçu en 2021 un total de 893 millions de livres sterling de subventions, dont 658 millions de livres sterling de certificats d’obligation renouvelable provenant de la production (note 3.3) et 235 millions de livres sterling de paiements CfD (note 2.2) [NdT. Le système des contrats pour la différence (« Contracts for Difference » ou CfD) est le principal mécanisme mis en place par le gouvernement pour soutenir la production d’électricité à faible émission de carbone] pour brûler les pellets de bois. Sans ces subventions, elles auraient enregistré des pertes massives.
Le problème est que les pellets de bois ont une densité énergétique inférieure à celle du charbon. La densité énergétique du bois est d’environ 16 MJ/kg et celle du charbon utilisé pour la production d’électricité de 17 à 24 MJ/kg. Cela signifie que les granulés de bois produisent plus de CO2 par MWh d’électricité que la combustion du charbon. Drax a également été critiquée pour la quantité de particules nocives émises par sa centrale.
Bien que Drax soit le plus gros émetteur de CO2 du pays, on permet à cette entreprise d’appeler cette énergie « verte » en prétendant que le CO2 émis par la combustion des arbres n’existe pas. La figure 2 ci-dessous présente un extrait de son rapport annuel sur les émissions de carbone.
Figure 2 – Émissions de dioxyde de carbone de la biomasse de Drax
Comme on peut le voir, en 2021, ils affirment que leurs émissions de production n’étaient « que » de 525ktCO2 en 2021. Cependant, les 13 415ktCO2e de « carbone biologiquement séquestré » ne sont pas inclus dans le calcul des émissions du groupe par GWh d’électricité produite. Si c’était le cas, les émissions seraient multipliées par plus de 10, passant de 78 tCO2e/GWh à plus de 900 tCO2e/GWh, soit un niveau similaire à celui des centrales au charbon.
Ils se targuent d’être verts, car ils partent du principe que les arbres qu’ils ont brûlés repousseront, séquestrant ainsi le CO2 émis. Cependant, cela prendra environ 50 ans, c’est-à-dire la période pendant laquelle nous sommes censés nous préoccuper le plus des émissions de CO2.
Il est difficile de comprendre comment le fait de couper à blanc des milliers d’hectares de forêt, de les brûler pour produire plus de CO2 et de particules que la combustion du charbon peut être considéré comme vert ou comme étant de quelque manière que ce soit durable ou respectueux de l’environnement.
Rendement énergétique de l’énergie investie (EROEI) par source d’énergie
Comparons maintenant le rendement énergétique de l’énergie investie (EROEI, parfois simplement EROI) [NdT. EROEI, «Energy Returned On Energy Invested», ou EROI, «Energy Return On Investment» – taux de retour énergétique] pour une série de technologies différentes. Cette mesure compare la quantité d’énergie nécessaire pour extraire les minéraux, construire les centrales électriques, produire le combustible, etc. à la quantité d’énergie utile restituée. En bref, il s’agit du rapport entre l’énergie produite et l’énergie consommée. Plusieurs tentatives ont été faites pour comparer l’EROEI de différentes technologies. La référence semble être cet article de Weissbach datant de 2013, auquel la plupart des autres études, y compris Wikipedia, se réfèrent. L’Association Nucléaire Mondiale cite Weissbach et une série d’autres sources dans ses travaux sur le sujet. La figure 3 présente les résultats sous forme de graphique (crédit Energy Transition).
Figure 3 – Comparaison de l’EROI par source d’énergie
Les barres bleues montrent le calcul « brut » de l’EROI. Les barres jaunes tiennent compte de l’intermittence des énergies renouvelables telles que le vent et le soleil, en tenant compte du fait qu’une certaine forme de stockage ou de tampon sera nécessaire pour maintenir la stabilité du réseau, ce qui nécessitera davantage d’énergie.
[Mise à jour: depuis que j’ai rédigé cet article, je suis tombé sur ce document qui montre que les systèmes photovoltaïques aux latitudes allemandes et suisses ont un EROEI de 0,82 ou, comme ils le décrivent, sont « un gouffre d’énergie non durable »].
Comme on peut le voir, le nucléaire et l’hydroélectricité arrivent en tête avec un EROI de 75 et 35 (tamponné) respectivement. Le gaz et le charbon s’en sortent bien avec des valeurs similaires de 28 à 30. L’énergie solaire concentrée dans le désert, avec un EROI tamponné de 9, permet tout juste de dépasser le seuil économique. En revanche, la biomasse de maïs et l’énergie éolienne et solaire tamponnée se situent bien en deçà de ce seuil avec des EROI de 3,5, 3,9 et 1,6 respectivement.
Le seuil économique reflète le fait que la société moderne ne peut se permettre de consacrer qu’une certaine quantité d’efforts et d’argent à la production d’énergie. Weissbach conclut que pour maintenir nos modes de vie, nous avons besoin de sources d’énergie qui rapportent au moins 7 fois plus que l’énergie investie dans la création de la source. Même ce chiffre représente une réduction substantielle par rapport à la situation actuelle.
Euan Mears résume parfaitement cette situation en parlant d’une Falaise Énergétique Nette (voir figure 4).
Figure 4 – La Falaise Énergétique Nette lorsque l’EROI devient trop faible
En résumé, la société a besoin pour fonctionner d’une énergie fiable à haute densité dont l’EROI doit être supérieur à 7. Une société moderne ne peut pas fonctionner au gré des vicissitudes météorologiques. Cela exclut l’énergie solaire photovoltaïque aux latitudes allemandes et plus élevées, la biomasse à base de maïs et l’énergie éolienne. Même l’énergie solaire à concentration (ESC) est proche de la limite si l’on tient compte de l’effet tampon.
La Royal Society of Chemistry a effectué une analyse de l’EROI de la biomasse et en particulier de l’EROI de la bioénergie avec captage et stockage du carbone (BECSC). Elle aboutit à une fourchette de <2 pour les granulés de biomasse nord-américains utilisés pour produire de l’électricité. Ce chiffre est inférieur à celui de l’analyse de Weissbach. Cependant, ils estiment que la BECSC pourrait avoir un EROI inférieur à 1 et constituer une menace pour la sécurité énergétique (voir la figure 5).
Figure 5 – Royal Society of Chemistry – Les pellets de bois de Louisiane et la BECSC sont un gouffre d’énergie net)
En d’autres termes, la BECSC pourrait représenter un gouffre énergétique net, en particulier lorsqu’elle repose sur l’importation de pellets de Louisiane, aux États-Unis. Elle se situe non seulement au bas de la falaise énergétique, mais carrément sous terre. Il va sans dire que Drax, qui possède des forêts dans le Mississippi, en Louisiane et au Canada, vante les mérites de cette technologie comme moyen de parvenir à des émissions de CO2 négatives. Le gouvernement britannique a lancé une consultation sur la meilleure façon de subventionner la BECSC. Il s’agit d’une proposition visant à subventionner l’abattage d’encore plus d’arbres et à consommer plus d’énergie que l’énergie utile produite au cours du processus. C’est de la pure folie.
Besoins en terres par source d’énergie
L’utilisation des terres, ou la quantité d’énergie produite par mètre carré de terre nécessaire, est une mesure dont il importe de tenir compte. En tant qu’espèce, nous avons besoin de terres pour produire la nourriture nécessaire à la survie de la population. Nous avons également besoin de terres pour nos loisirs et pour profiter de la nature. Plus globalement, d’autres espèces ont besoin de terres pour vivre et chasser pour se nourrir. Plus nous prenons de terres pour notre production d’énergie, plus nous risquons d’avoir un effet négatif sur l’ensemble de l’écosystème.
Our World in Data a produit un tableau utile utilisant les données de la CEE-ONU (2021) pour comparer l’utilisation des terres pour les principales sources d’énergie (voir figure 6), à l’exclusion de la biomasse.
Figure 6 – Our World in Data – Occupation des sols par source d’énergie en m2 par MWh
Dans leur analyse, les petites centrales hydroélectriques sont les plus mal placées en raison de l’énorme quantité de terres occupées par les réservoirs nécessaires pour faire fonctionner les turbines. Les centrales solaires à concentration viennent ensuite, suivies par le charbon avec capture du carbone. Le charbon est mal classé en raison des dégâts causés aux terres par les mines à ciel ouvert et de l’espace supplémentaire nécessaire pour capturer le CO2 émis. L’utilisation des sols par l’énergie solaire photovoltaïque varie considérablement selon qu’elle est installée sur le sol à l’échelle du réseau ou sur les toits à plus petite échelle. L’énergie solaire photovoltaïque à l’échelle du réseau consomme beaucoup d’espace (19 m2/MWh), mais les installations à petite échelle sur les toits sont très compétitives. L’énergie éolienne varie également en fonction de la façon dont l’espace entre les turbines est traité et selon qu’il s’agit d’une éolienne onshore ou offshore. Si l’on suppose que l’espace entre les turbines est utilisable, l’énergie éolienne est très compétitive, sinon elle ne l’est pas. L’éolien en mer est plus complexe, en fonction de la manière dont l’espace entre les turbines est traité. Certains pays comme la Belgique et l’Allemagne traitent les parcs éoliens offshore comme des zones d’exclusion, tandis que d’autres pays comme le Royaume-Uni et le Danemark sont plus indulgents. Pour les besoins de l’analyse, j’ai utilisé la médiane de 99m2/MWh dans le graphique ci-dessus, car l’utilisation de la terre ou de la mer autour des parcs éoliens est assurément restreinte. L’énergie nucléaire et les centrales au gaz sont invariablement de bons élèves avec des scores de 0,3-1,0m2/MWh, soit une utilisation des sols de 19 à 300 fois inférieure à celle de l’énergie solaire ou éolienne.
L’analyse de Our World in Data n’inclut pas la biomasse. Cependant, Freeing Energy a réalisé une analyse (voir figure 7) qui inclut la biomasse.
Figure 7 – Freeing Energy – Comparaison de l’utilisation des terres pour la biomasse en acres par GWh et par an
Ils utilisent une méthodologie et des unités différentes. Ils obtiennent 3 acres/GWh pour l’énergie solaire et 0,06 acres/GWh pour l’énergie nucléaire. Cela donne 12m2/MWh pour le solaire et 0,24m2/MWh pour le nucléaire. Ces deux chiffres sont légèrement inférieurs à ceux de Our World in Data pour le nucléaire et les installations photovoltaïques au sol en silicium, mais ils se situent dans une fourchette similaire. La conversion de leurs 188 acres/GWh pour la biomasse donne un résultat de 760m2/MWh, ce qui est près d’un ordre de grandeur supérieur à la valeur médiane pour l’éolien. Ainsi, malgré les différences de méthodologie, nous pouvons affirmer sans risque de nous tromper que la biomasse est très mal placée dans les calculs d’utilisation des terres, en raison des milliers d’hectares d’arbres qui doivent être abattus.
Intensité minérale par source d’énergie
L’intensité minérale est un autre indicateur clé permettant de mesurer les différentes sources d’énergie. Plus la quantité de minéraux nécessaires est importante, plus l’impact sur l’environnement est grand, car il faut excaver davantage de terre pour extraire les minéraux requis. Il existe plusieurs façons d’envisager cette question. La première concerne les matières critiques telles que le cuivre, le cobalt, le nickel et les terres rares. La seconde concerne les matériaux en vrac tels que le béton, l’acier et l’aluminium.
Minéraux critiques par source d’énergie
L’Association Internationale de l’Énergie (AIE) a réalisé un travail important sur les matériaux critiques, comme le montre la figure 8, mise à jour en octobre 2022.
Figure 8 – AIE – Besoins en matériaux critiques en kg par MW de capacité nominale
Cela montre que l’éolien et le solaire ont des besoins en minéraux critiques beaucoup plus importants que le nucléaire, le charbon ou le gaz naturel. Cependant, le défaut de cette analyse est qu’elle ne tient compte que des besoins en matériaux par MW de capacité nominale. Elle ne tient pas compte du facteur de charge ni de la durée de vie de la centrale. L’Association Nucléaire Mondiale a réanalysé les données de l’AIE pour les présenter sous forme de tonnes de minéraux critiques par TWh d’électricité produite, comme le montre la figure 9.
Figure 9 – Besoins en minéraux critiques par technologie de production en tonnes par TWh
Le résultat est similaire, mais l’écart entre l’éolien et le solaire et le reste est beaucoup plus important car la durée de vie des installations et le facteur de charge de l’éolien et du solaire sont généralement beaucoup plus faibles que ceux du nucléaire, du charbon ou du gaz. En tonnes par TWh, l’éolien (200t/TWh) et le solaire (124t/TWh) nécessitent au moins un ordre de grandeur de minéraux critiques de plus que le nucléaire (12t/TWh). Le charbon (7t/TWh) et le gaz (8t/TWh) font encore mieux que le nucléaire à cet égard. L’hydroélectricité n’est pas incluse dans l’analyse de l’AIE ni dans celle de l’ANM, mais Glex a néanmoins estimé qu’elle consomme 6,4 t/kWh.
Utilisation de matériaux bruts par source d’énergie
Bright New World a étudié l’utilisation des matériaux bruts par source d’énergie et les résultats sont présentés dans la figure 10 ci-dessous. Pour les besoins de cette analyse, j’ai exclu le cuivre car il est inclus dans l’analyse des minéraux critiques ci-dessus.
Figure 10 – Utilisation de matériaux bruts par source d’énergie en tonnes par TWh
Selon cette mesure, l’hydroélectricité est une valeur marginale en raison de tout le béton nécessaire à la construction des barrages. Cependant, l’éolien et le solaire ne font pas bonne figure par rapport au nucléaire, au charbon ou au gaz. L’éolien consomme 5 931 tonnes de matériaux bruts par TWh et le solaire 2 441, soit beaucoup plus que le charbon, le gaz ou le nucléaire. La durée de vie de 30 ans supposée pour l’éolien et le solaire est probablement en deçà des performances réelles, mais la durée de vie de 60 ans supposée pour le gaz et le charbon est probablement trop élevée aussi.
Mortalité par source d’énergie
Il serait négligent de ne pas examiner la mortalité humaine due aux différentes sources d’énergie. Heureusement, Glex s’est penché sur la question et un résumé de ses conclusions est présenté dans la figure 11.
Figure 11 – Décès par rapport aux émissions par source d’énergie (Glex)
Le nucléaire, l’éolien et le solaire sont de loin les sources d’énergie les plus sûres, avec des moyennes de décès par TWh de 0,04, 0,1 et 0,23 respectivement. L’hydroélectricité fait un peu moins bien avec 0,71 décès par TWh. Le gaz naturel arrive à 3,4 et la biomasse à 14,3 décès par TWh. Le charbon est de loin le combustible le plus meurtrier avec 64,4 décès par TWh d’électricité produite.
Impact des améliorations de l’efficacité des énergies renouvelables
Les partisans des énergies renouvelables s’empressent toujours de souligner que l’efficacité des énergies renouvelables s’améliore constamment et que, par conséquent, toutes les analyses ci-dessus sont dépassées. Ils agissent ainsi pour tenter de présenter les énergies renouvelables sous un meilleur jour. Analysons cela un peu plus en détail.
Prenons tout d’abord la biomasse. La culture et la combustion d’arbres pour produire de l’énergie utilisent des processus matures qui ont été développés au cours de nombreuses décennies. Il y a sans aucun doute des améliorations progressives à apporter à l’efficacité des chaudières et des turbines, mais elles ne produiront pas une différence significative en termes d’utilisation des sols ou d’émissions de CO2.
Deuxièmement, examinons l’énergie éolienne. On a beaucoup parlé de l’amélioration des facteurs de charge par l’utilisation de turbines plus grandes et le gouvernement a supposé des augmentations significatives des facteurs de charge dans ses estimations des coûts futurs de l’énergie éolienne. Cependant, les chiffres du gouvernement (tableau ET6.1) sur les facteurs de charge effectivement atteints ne montrent qu’une légère augmentation de l’éolien en mer, qui reste inférieure aux niveaux prévus, et une diminution réelle des facteurs de charge de l’éolien terrestre (voir figure 12). Ces améliorations n’auront pas d’impact significatif sur l’EROEI, l’utilisation des sols ou l’utilisation des ressources minérales.
Figure 12 – Facteurs de charge des parcs éoliens offshore et terrestres au Royaume-Uni 2011-2021
Venons-en maintenant à l’énergie solaire. Il est vrai que l’efficacité des panneaux solaires a augmenté au fil du temps et que les calculs EROI de Weissbach ont été effectués il y a une dizaine d’années. On pourrait s’attendre à ce que la mesure EROEI se soit améliorée depuis 2013. Cependant, Lafayette a compilé un graphique (voir Figure 13) à partir des données du NREL qui montre que les améliorations de l’efficacité des modules photovoltaïques en silicium cristallin n’ont pas été particulièrement importantes depuis 2010, et semblent proches d’un plafonnement.
Figure 13 – Efficacité des systèmes photovoltaïques au fil du temps (Lafayette)
Une amélioration d’un ordre de grandeur ou d’un facteur 10 serait nécessaire pour aligner l’utilisation des matériaux critiques sur les autres technologies. Les rendements de l’énergie solaire photovoltaïque tamponnée devraient être multipliés par 5 pour dépasser le seuil économique de l’EROEI.
En outre, comme le montre la figure 14, tirée de Mining Intelligence, la teneur de nouvelles exploitation de matériaux critiques tels que le cuivre est en baisse.
Figure 14 – Diminution de la teneur des gisements de cuivre (Mining Intelligence)
À mesure que les teneurs en minerai diminuent, l’énergie nécessaire pour extraire le matériau requis augmente de manière exponentielle (voir figure 15), comme l’explique cet article de Calvo et Mudd.
Figure 15 – La consommation d’énergie augmente de façon exponentielle en fonction de la diminution de la teneur (Calvo et Mudd)
Cela aura pour effet d’aggraver considérablement les calculs de l’EROEI et de l’utilisation des sols (davantage de mines nécessaires) pour les technologies à forte intensité de matériaux telles que l’éolien et le solaire.
Qu’en est-il des déchets?
Comme le montre la figure 16 (crédit pour les images utilisées ici, ici et ici), chaque source d’énergie pose un problème de déchets.
Figure 16 – Déchets provenant de différentes sources d’énergie
La source d’énergie la plus souvent critiquée pour son problème de déchets est le nucléaire. Il convient toutefois de relativiser ce problème. Par exemple, tous les assemblages de combustible nucléaire usé jamais produits aux États-Unis, conditionnés dans des châteaux secs en béton, pourraient être empilés sur 135 mètres de haut et stockés sur une surface équivalente à celle d’un terrain de football américain. Les déchets nucléaires constituent donc un problème, mais pas un problème insurmontable. Le stockage en couches géologiques profondes est également une option, la Finlande montrant la voie avec son dépôt géologique profond d’Onkalo.
En outre, le combustible nucléaire usé contient encore environ 90% de matières utilisables. Il peut être retraité et réutilisé dans des réacteurs nucléaires sous forme de combustible MOX, ce qui permet de fermer le cycle du combustible. C’est ce que fait actuellement la France et la quantité beaucoup plus faible de déchets résiduels est vitrifiée dans du verre borosilicaté. Les réacteurs surgénérateurs constituent une autre option pour boucler le cycle du combustible et les déchets restants sont beaucoup moins dangereux.
En revanche, le charbon produit des cendres toxiques qui sont souvent mises en décharge. Il n’est pas rentable de recycler la plupart des panneaux solaires actuels et ils finissent également dans les décharges bien qu’ils contiennent des matériaux toxiques tels que le plomb et le cadmium. Les éoliennes contiennent du chrome et la plupart des pales sont fabriquées à partir de matériaux composites qui ne sont pas recyclables et qui finissent également dans les décharges. Toutefois, Siemens Gamesa et Vestas travaillent sur des pales recyclables qui pourraient atténuer ce problème.
Conclusion: Les énergies renouvelables ne sont ni vertes ni durables
Si l’on limite l’évaluation aux seules émissions de CO2 ou, plus généralement, de GES, les énergies renouvelables (hydroélectricité, énergie éolienne et énergie solaire) obtiennent de bons résultats par rapport à toutes les autres sources d’énergie. Cependant, la biomasse n’obtient de bons résultats que si l’on ignore les émissions réelles de la combustion du bois, ce qui semble pervers, d’autant plus que des particules nocives accompagnent le CO2.
Cependant, nous devons considérer des mesures plus larges lorsque nous évaluons la durabilité et les références vertes des technologies de production. Les résultats de l’analyse ci-dessus sont résumés dans la figure 17 ci-dessous. La biomasse, l’énergie éolienne et l’énergie solaire obtiennent de très mauvais résultats par rapport aux autres technologies.
Figure 17 – Résumé de l’empreinte environnementale par source de production d’électricité
En ce qui concerne le rendement énergétique de l’énergie investie, l’énergie éolienne et l’énergie solaire se situent en dessous du seuil économique lorsque l’on tient compte de la nécessité d’un tampon pour faire face à leur intermittence inhérente. La biomasse se situe également en dessous du seuil économique et, si les propositions de la BECSC sont mises en œuvre, elle deviendra en fait un gouffre énergétique net. Pour cette seule raison, l’éolien, le solaire et la biomasse ne devraient plus bénéficier de subventions ou de développement.
L’éolien et le solaire nécessitent 10 à 300 fois plus d’espace que le nucléaire ou le gaz et plus que l’hydroélectricité. Ils nécessitent également 10 à 20 fois plus de minéraux critiques par unité d’électricité que toutes les autres sources de production d’électricité et plusieurs fois plus de matériaux bruts que toutes les autres sources, à l’exception de l’hydroélectricité.
L’hydroélectricité, l’énergie éolienne et l’énergie solaire affichent de très bons résultats en matière de mortalité, mais pas autant que l’énergie nucléaire. La biomasse obtient de moins bons résultats que le gaz, mais c’est le charbon qui est le plus meurtrier.
L’amélioration de l’efficacité des éoliennes et des panneaux solaires ne suffira pas à combler ces énormes écarts de performance, et elle ne résoudra jamais le problème fondamental de l’intermittence. Le soleil se lèvera toujours le matin et se couchera toujours le soir. Le vent continuera à se lever et à se coucher de manière imprévisible.
L’hydroélectricité est performante dans tous les domaines, à l’exception des matériaux bruts. Cependant, l’hydroélectricité est limitée par la géographie, et il semble donc peu probable qu’elle joue un rôle clé dans la satisfaction de nos besoins énergétiques futurs. La seule technologie capable de fournir une énergie fiable, évolutive et durable avec une faible empreinte carbone est le nucléaire.
L’inconvénient du nucléaire, ce sont les déchets. Cependant, la plupart des sources d’énergie ont un problème de déchets. Dans le cas du nucléaire, ce problème est important, mais il peut être géré grâce au stockage en fûts, au stockage en couches géologiques profondes et au recyclage du combustible.
Il faut interrompre les expériences géantes en matière d’IA: Lettre ouverte
Nous demandons à tous les laboratoires d’IA d’interrompre immédiatement, pour une durée d’au moins six mois, la formation de systèmes d’IA plus puissants que le GPT-4
Les systèmes d’IA dotés d’une intelligence rivalisant avec celle de l’homme représentent des risques profonds pour la société et l’humanité, comme le montrent des recherches avancées[1] et comme le reconnaissent les principaux laboratoires d’IA[2]. Comme l’indiquent les principes d’Asilomar sur l’IA, universellement reconnus, l’IA avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre, et devrait être planifiée et gérée avec le soin et les ressources nécessaires. Malheureusement, ce niveau de planification et de gestion est absente, alors que les laboratoires d’IA se sont lancés ces derniers mois dans une course incontrôlée pour développer et déployer des intelligences numériques de plus en plus puissantes que personne – pas même leurs créateurs – ne parvient à comprendre, à prédire ou à contrôler de manière fiable.
Les systèmes d’IA contemporains rivalisent à présent avec les humains dans la réalisation de tâches courantes[3], et nous devons nous poser la question suivante: allons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges? Allons-nous automatiser tous les emplois, y compris ceux qui sont valorisants? Allons-nous développer des esprits non humains qui pourraient un jour nous surpasser en nombre, en intelligence, nous rendre obsolètes et nous remplacer? Allons-nous prendre le risque de perdre le contrôle de notre civilisation? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Nous ne devrions développer des systèmes d’IA performants que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être solidement justifiée et elle doit être proportionnelle à l’ampleur des effets potentiels d’un système. La récente déclaration de l’OpenAI concernant l’intelligence artificielle générale indique qu' »à un moment donné, il pourrait être important de faire appel à des experts indépendants avant de commencer à former les futurs systèmes, et pour les travaux les plus avancés, d’accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles ». Nous sommes d’accord. C’est maintenant qu’il faut agir.
C’est pourquoi nous demandons à tous les laboratoires d’IA d’interrompre immédiatement, pendant au moins six mois, la formation de systèmes d’IA plus puissants que le GPT-4. Cette pause devrait être visible et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements doivent intervenir et instaurer un moratoire.
Les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour élaborer et mettre en œuvre conjointement un ensemble de protocoles de sécurité communs pour la conception et le développement de l’IA avancée, rigoureusement contrôlés et supervisés par des experts externes indépendants. Ces protocoles devraient garantir la sûreté des systèmes qui y adhèrent au-delà de tout doute raisonnable[4], ce qui ne signifie pas une pause dans le développement de l’IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîte noire de plus en plus grands et imprévisibles, dotés de capacités émergentes.
La recherche et le développement dans le domaine de l’IA devraient être recentrés sur l’amélioration de la précision, de la sécurité, de l’interprétabilité, de la transparence, de la robustesse, de l’alignement, de la fiabilité et de la loyauté des systèmes puissants et à la pointe de la technologie d’aujourd’hui.
Parallèlement, les développeurs d’IA doivent collaborer avec les décideurs politiques pour accélérer considérablement le développement de systèmes robustes de gouvernance de l’IA. Ceux-ci devraient au minimum comprendre: de nouvelles autorités réglementaires compétentes dédiées à l’IA; la surveillance et le suivi des systèmes d’IA hautement performants et des grands pools de capacité de calcul; des systèmes de traçabilité et de filigrane pour aider à distinguer le réel du synthétique et à repérer les fuites de modèles; un écosystème robuste d’audit et de certification; un régime de responsabilité pour les dommages causés par l’IA; un financement public robuste pour la recherche technique sur la sécurité de l’IA; et des institutions dotées de ressources suffisantes pour faire face aux perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera.
L’humanité pourrait connaître un avenir florissant grâce à l’IA. Après être parvenus à créer des systèmes d’IA puissants, nous pouvons maintenant profiter d’un « été de l’IA » au cours duquel nous récolterons les fruits de nos efforts, nous concevrons ces systèmes pour le plus grand bénéfice de tous et nous donnerons à la société une chance de s’adapter. La société a mis en pause d’autres technologies aux effets potentiellement catastrophiques pour elle[5], et nous pouvons faire de même ici. Profitons d’un long été de l’IA et ne nous précipitons pas sans préparation vers l’automne.
C’est signé par un collectif de 1 300 professionnels, enseignants et experts dans le domaine. Après ces trois dernières années, voir des « parties prenantes » d’une nouvelle technologie émettre des soucis en matière d’éthique a de quoi surprendre, d’autant qu’on trouve dans la liste des signataires des personnages tels que Elon Musk, dont le projet Neurolink est de connecter votre cerveau au réseau – un des axes du transhumanisme – et dans la même veine, Yuval Noah Harari, l’Igor du FEM qui nous explique que les humains non transformés seront les nouveaux chimpanzés. Alors, qu’y a-t-il derrière ce soudain accès de bienveillance de ces pseudo-Frankenstein digitaux?
Pour ne pas changer, c’est de la normalisation. Un des objectifs est de vendre l’IA comme nécessaire et inévitable. Nous allons voir qu’il n’en est rien.
Décortiquons quelques passages:
« [des IA] que personne – pas même leurs créateurs – ne parvient à comprendre, à prédire ou à contrôler de manière fiable »
Autrement dit, c’est de la camelote, ils le savent et doivent ajuster leur stratégie.
« […] allons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges? »
L’IA puisant ses sources sur le Net, la propagande et les mensonges sont déjà bien établis, l’IA ne fera que les régurgiter.
« Allons-nous automatiser tous les emplois, y compris ceux qui sont valorisants? »
Faux problème et fausse question, les emplois n’ont fait que « s’automatiser » depuis l’invention des premiers outils. La vraie question est le choix politique et économique de création future de nouveaux secteurs d’activités utiles. Sur ce plan, les projets du FEM et du Green New Deal sont totalement déconnectés du réel. Ce sont des opérations autoritaires et dangereuses de mainmise et de contrôle financier, et ce sont les premiers promoteurs de l’IA.
« Allons-nous prendre le risque de perdre le contrôle de notre civilisation? »
Je l’ai déjà écrit, cette civilisation était condamnée depuis son dérapage vers une modèle de croissance infinie à base de monnaie créée par l’endettement, sous contrainte souterraine du monde anglo-saxon protestant et plus ouvertement, des entreprises militaires États-Uniennes appuyées sur la Fed (la phrase est trop longue, sorry). La dette n’étant pas remboursable, on crée une nouvelle fuite en avant, technocratique, sur le même schéma, confondre le moyen avec l’objectif, qui donnera le même résultat: la faillite. On ne fait que remplacer de l’artificiel monétaire par de l’artificiel virtuel, comme pour les monnaies digitales. Ça fonctionnera jusqu’à ce que ça ne fonctionne plus.
L’Occident, jugé incapable de rembourser son crédit, jouera officiellement le rôle de nouveau Tiers-Monde dans le prochain modèle choisi par la Banque, où domineront la Russie et la Chine, qui disposent d’un Parti qui élabore différentes politiques là où l’Occident dispose de différents partis qui élaborent tous la même politique – désastreuse. Si l’Occident veut échapper à ce triste destin, leurs peuples doivent commencer par s’affranchir de leurs élites monomaniaques – financières et politiques – et revenir à leur vocation première de pôle de civilisation aux valeurs chrétiennes. Comment, j’y reviens en fin d’article.
« Nous ne devrions développer des systèmes d’IA performants que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. »
L’IA n’est qu’un outil de plus dans le système, une pièce rapportée qui ne changera rien au problème de fond que je viens de décrire.
Cerise sur le gâteau:
« L’humanité pourrait connaître un avenir florissant grâce à l’IA. »
Nous voici de retour au fantasme futuriste de la voiture volante et des vacances sur Mars, remis au goût du jour pour les naïfs. Les lendemains qui chantent grâce à l’IA ne sont rien d’autre que la version high-tech de la doctrine du « bien commun », du communisme déguisé en futurisme – et aucun des deux ne fonctionne. On est juste passés de la politique-fiction à la science-fiction.
À propos de science-fiction, je vous recommande une très amusante nouvelle sur le sujet, écrite par Robert Sheckley en 1971, « Cruelles équations » (« Cruel equations »), qui met en scène un malheureux cosmonaute face à un robot-gardien particulièrement obtus. J’ai aussi publié ceci, qui donne une image réaliste de ce qu’est vraiment l’IA aujourd’hui. Les deux démontrent que, comme tout système, l’IA n’est jamais aussi bonne que ce qu’on y met. Or, la version publique de l’IA qu’on tente de nous fourguer est essentiellement une machine à calculer qui agence et régurgite les « informations » de la pire source imaginable: Internet. Une version adulte de ceci:
Je plains les pauvres gosses, dont je fais partie, qui ont dû se coltiner cette daube.
La version militarisée servira dans le domaine civil à gérer les zetabytes de données récoltées via smartphones, réseaux sociaux et Internet – un outil de surveillance et de contrôle du troupeau, sous tous ses aspects – biologiques, commerciaux, sociaux… Je rappelle qu’en anglais, intelligence désigne aussi les services de Renseignement. Prétendre que l’IA supplantera l’être humain dans le domaine de l’intelligence est un fantasme, une fable, et accessoirement une projection de l’ego de ses concepteurs et de ses commanditaires, qui brandissent un peu tôt des scénarios à la Terminator ou Robocop alors qu’on en est même pas à HAL 9000.
Alors pourquoi recommandent-ils de « nous asseoir calmement, prendre une pilule contre le stress et réfléchir à tout cela? » La froide réalité du terrain, c’est que le réseau de surveillance à base de 5g (et bientôt de 6g?) qui fera de nous tous des esclaves™ demandera un apport d’énergie irréalisable maintenant – on est encore loin de l’Internet des Corps, même si Amazon fait un test de réseau grandeur nature. C’est là une des vraies raison de la promotion tout azimut de la construction de centrales nucléaires. Le très servile Oliver Stone s’est d’ailleurs fendu d’un documentaire à ce sujet, sous alibi « climatique » évidemment. L’autre solution sera de nous priver d’énergie autant que possible et de nous parquer, histoire aussi de nous avoir sous la main, dans des « villes de 15 minutes », version actualisée du Projet Vénus, ce que je rappelais ici il y a bientôt trois ans. Je rappelle aussi qu’avant que les technocrates s’emparent du concept, ce genre de structure existait sous forme durable et portait un nom: un village.
L’autre froide réalité est que la majorité des start-ups de recherche ne parviendront pas à rentabiliser leurs investissements. Elles seront absorbées par quelques méga-sociétés de commerce et traitement des données, qui forment déjà un partenariat privé/gouvernements, sur le même modèle que Big Pharma/Ministère de la Défense. La faillite de la Silicon Valley Bank en était peut-être l’événement annonciateur.
24/04: j’ajoute à ce sujet ce courrier d’un auditeur de NoAgenda n°1549:
Salut Adam, je voulais juste te donner un aperçu des raisons pour lesquelles tout le monde croit à l’IA en tant que bouleversement de la technologie et du travail. S’il te plaît, ne mentionne pas mon nom si tu décides de lire ceci dans l’émission.
En bref, ils sont obligés d’y croire.
Toutes ces entreprises technologiques ont été gavées d’argent frais pendant la période du COVID, elles ont trop embauché et le regain d’activité de courte durée qu’elles ont connu pendant cette période est en train de se tarir.
Elles ont vu les vents contraires de l’économie et se sont accrochées à tout ce qui semblait être une solution. Tous ces nouveaux outils d’IA ont été lancés au moment précis où tout le monde cherchait une solution.
Aujourd’hui, le secteur est rempli de cadres intermédiaires qui n’ont jamais utilisé ces outils pour accomplir quoi que ce soit, mais qui croient au boniment parce que leur avenir financier en dépend. Ils pensent que cela permettra de décupler la productivité parce qu’ils ont besoin de quelque chose pour décupler la productivité de leurs employés.
Ce qui m’a fait prendre conscience de cette réalité, c’est qu’au cours d’une récente réunion au sein de mon entreprise, on a demandé au PDG à quoi lui servaient les outils d’IA. Il n’avait pas de réponse. En bref, il a joué avec ces outils en posant le même genre de questions inutiles que tout le monde, mais rien n’a été intégré dans son travail quotidien.
Nous avons ensuite eu une autre réunion dirigée par l’un des chefs de division, à qui l’on a demandé quelles étaient ses suggestions pour que les employés intègrent les outils dans leur travail. Il n’avait pas grand-chose à suggérer, si ce n’est de les utiliser pour reformuler des documents ou de s’en servir comme d’une sorte de filtre d’assurance qualité lors des interactions avec les clients.
En réalité, ces outils ne sont pas très utiles, surtout pour les employés compétents qui rédigent mieux que la moyenne. Du moins, je n’ai pas vu de preuve qu’ils le soient.
Vu tous les efforts déployés pour essayer de les intégrer dans notre travail, je suis sûr qu’il y aura des applications. Mais elles ne se traduiront jamais par les augmentations de productivité par 10 que tant de gens croient possibles.
Tout cela signifie-t-il qu’il faut lutter contre toute forme de surveillance, au nom de la « liberté »?
Pas du tout.
Désolé de contredire à peu près tous mes collègues anti-NOM mais à moins de la décentraliser complètement, cette société ne peut pas fonctionner sans un niveau élevé de surveillance. En réalité, aucun groupe humain ne peut s’en passer. Dans une tribu de taille naturelle (environ cinquante personne) cette surveillance fait partie intégrante du mode de vie: tout le monde connaît tout le monde – encore une fois, comme dans un village. La vraie question est de savoir qui surveille qui, et dans quel but. Comme je l’ai déjà maintes fois répété, la strate supérieure du pouvoir est majoritairement occupée par des paranoïaques incompétents, dont l’idée maîtresse est de maintenir au plus bas le niveau de maturité politique et économique du petit peuple.
Le véritable enjeu n’est donc pas l’intelligence de la machine mais, et ce n’est pas nouveau, l’idiotie humaine1, le manque d’autonomie et la servilité qui en résultent inevitablement. Si on veut revenir à la simplicité qui rendrait ce monde vivable, il faut se passer de ceux qui créent de faux problèmes pour nous fourguer leurs solutions: pandémie/vaccins, inflation/monnaies digitales, « urgence climatique »/privations, guerre/changement géopolitique, etc. Pour y arriver, il faut cesser de les aider, ce qui veut dire stopper la machine. Ne plus participer. C’est bien ce qui se profile en France et ailleurs en Europe mais comme le disait ce célèbre philosophe français, « On gueulait ‘Ce n’est qu’un début, continuons le combat!’ mais en fait, ce n’était qu’un combat, il fallait continuer le début. »
Son contemporain Gébé avait articulé autrement cette très bonne idée: on arrête tout et on réfléchit. Un moratoire de six mois? Ok, mais un moratoire de tout ce bordel, le temps de faire le tri.
Et de redevenir, nous, intelligents.
(1): J’ai à ce sujet deux études à traduire – à l’usage d’une éducatrice mais dont je vous ferai profiter – qui décrivent un danger bien concret, que Taiwan a d’ailleurs tenté de règlementer en 2015: les jeunes enfants développent des symptômes du spectre autiste lorsqu’ils sont trop exposés à des écrans. Eh oui, comme pour les « vaccins ».
Le « Communisme de la Décroissance » : le communisme vert dont le but explicite est la destruction de l’économie
Essai d’Eric Worrall
5 mars
Ces gens enseignent à nos enfants: le chercheur suédois Timothée Parrique chante les louanges d’une nouvelle souche virulente de l’idéologie communiste universitaire.
La croissance économique alimente le changement climatique – un nouveau livre propose le « communisme de décroissance » comme solution
Timothée Parrique Chercheur en économie écologique, Université de Lund 3 mars 2023 17.09pm AEDT
On me dit souvent que la décroissance, c’est-à-dire la réduction planifiée de la production et de la consommation afin de diminuer la pression sur les écosystèmes de la Terre, n’est pas facile à vendre. Mais un professeur agrégé de 36 ans de l’université de Tokyo s’est fait un nom en soutenant que le « communisme de la décroissance » pourrait mettre un terme à l’escalade de l’urgence climatique.
Kohei Saito, auteur du best-seller « Le Capital dans l’Anthropocène », revient avec un nouveau livre: « Marx dans l’Anthropocène: vers la notion de communisme de décroissance« . Le livre est dense, surtout pour ceux qui ne maîtrisent pas le jargon marxiste et qui, je suppose, se soucient peu de savoir si Karl Marx s’était ou non mis à se préoccuper de la nature à la fin de sa vie.
Pourtant, la façon dont Saito mobilise la théorie marxiste pour plaider en faveur de « l’abondance de la richesse dans le communisme de décroissance » (titre du dernier chapitre de son livre) est aussi précise que captivante. C’est ce qui a attiré mon attention en tant qu’économiste travaillant sur la décroissance: les tentatives de Saito pour réconcilier le marxisme avec des idées plus récentes sur les alternatives à la croissance économique pourraient amener les critiques du capitalisme à un niveau de popularité sans précédent.
La croissance économique crée la pénurie
Saito retourne le concept de croissance économique. Nombreux sont ceux qui pensent que la croissance nous rend plus riches, mais si c’était exactement le contraire?
J’ai toujours pensé que le communisme, avec ses famines, ses purges et ses abus, était sans doute le pire système de gouvernement que l’on puisse infliger à un peuple.
Aujourd’hui, ça me semble encore plus clair.
Avant de rejeter la notion de communisme de décroissance comme trop absurde pour gagner du terrain, considérez sa capacité à réconcilier certaines contradictions politiques majeures au sein de l’aile gauche radicale de la politique.
Nous aimons tous nous moquer des Verts en les qualifiant de pastèques [NdT. verts à l’extérieur, rouges à l’intérieur], mais le mouvement ouvrier communiste de l’ère soviétique, qui mettait l’accent sur la production industrielle et le bien-être matériel des travailleurs (du moins selon le prospectus), n’a jamais réussi son mariage avec le mouvement des Verts.
On retrouve aujourd’hui cette tension dans la politique australienne, dans la lutte entre le gouvernement travailliste australien, qui veut préserver les emplois des travailleurs syndiqués dans les mines de charbon, et ses partenaires de la coalition junior du Parti Vert, qui veulent fermer les industries extractives qu’ils considèrent comme contribuant au changement climatique.
Les Verts ont longtemps caressé l’idée d’un féodalisme médiéval déguisé en socialisme à l’échelle d’un village, mais ils n’ont jamais réussi à établir un lien solide, une voie de succession directe depuis les mouvements idéologiques de la gauche du 20e siècle. Un tel lien aurait pu fournir aux Verts la base électorale nécessaire à la matérialisation de leurs visions.
Le Communisme de la Décroissance est peut-être le chaînon manquant qu’ils recherchent, le pont permettant de relier les jeunes verts radicaux à leurs parents militants syndicaux de la gauche radicale. Son principal argument, à savoir que la croissance économique est une tromperie qui a appauvri les gens ordinaires, est conçu pour séduire les personnes de tous âges, pour attiser le ressentiment de ceux qui estiment ne pas recevoir leur juste part de la manne sociétale.
Les partisans du Communisme de la Décroissance prétendent s’appuyer sur certains des derniers écrits de Karl Marx, dans lesquels Marx aurait exprimé son désarroi face aux dégâts écologiques causés par le Capitalisme, et exprimé l’espoir que le Communisme pourrait être plus respectueux de la nature – ce qui fournit la voie de succession, le pont idéologique qui relie le mouvement vert du 21ème siècle aux mouvements radicaux travaillistes du 20ème siècle.
Attendez-vous à entendre parler de plus en plus du « Communisme de la Décroissance » dans les années à venir, je ne pense pas que cette idée soit sur le point de disparaître. Si les partisans du Communisme de la Décroissance réussissent à réimaginer la gauche, s’ils parviennent à renouveler la gauche radicale en réconciliant l’activisme industriel radical avec le communisme vert, ils pourraient devenir encore plus forts.
Vous vous souviendrez que j’avais promis de revenir sur l’inondation que nous avons subie en juillet 2021. Nous avons été sinistrés, 190 tonnes d’eau dans la cave, et les dégâts qui vont avec. On a bossé comme des dingues pendant plus de deux mois et on a fini par sauver la maison.
J’avais aussi écrit à l’époque être persuadé que c’était l’effet d’une arme climatique, sujet sur lequel j’ai pas mal potassé et que j’avais promis de traiter. Comme vous savez, il s’est passé depuis énormément de choses, sur lesquelles j’ai publié en priorité, en courant après le temps et en mettant de côté ce sujet. J’en suis navré, parce que je vois qu’il est très peu documenté et que la majorité ne se rend pas compte à quel point ces armes sont dangereuses, et surtout, au point.
Je tombe hier sur cet article de Naked Emperor, qui fera une très bonne introduction. C’est l’histoire d’un projet militaire, infligé à une population civile, qui a fait beaucoup de morts – ce qui devrait vous évoquer quelque chose.
C’était en 1952. Imaginez ce qu’ils ont comme moyens aujourd’hui.
Le projet Cumulus et la tragédie du Devon sont liés à la manipulation de la météo
Pas d’inquiétude, ce genre de choses ne se sont produites que dans le passé
Naked Emperor
7 février
Chaque fois que je vais sur Internet, je vois des gens qui postent des photos de traînées d’avions dans le ciel et qui se demandent pourquoi elles sont si nombreuses. Certains affirment qu’il s’agit de traînées de condensation (contrails), tandis que d’autres disent qu’il s’agit de traînées chimiques (chemtrails). Bien qu’il existe des arguments très convaincants des deux côtés, il est impossible d’établir la vérité. Nous pouvons toutefois examiner ce qui s’est produit dans le passé pour accorder plus de crédibilité à l’une des deux théories.
Dans un article précédent, j’ai examiné des exemples antérieurs, documentés et déclassifiés de gouvernements, via l’armée, pulvérisant leurs propres citoyens. Tout cela dans notre meilleur intérêt bien sûr, jusqu’au jour où…
Aujourd’hui, je vais me pencher sur une histoire tragique qui s’est produite dans les années 1950 dans un village du nord du Devon appelé Lynmouth.
Lynmouth est un magnifique village situé au bord d’Exmoor en Angleterre.
Les rivières West Lyn et East Lyn descendent du village de Lynton en amont et se jettent dans la mer. Si vous visitez un jour les villages et que vous n’avez pas envie de faire une marche pentue sur la colline qui les sépare, vous pouvez voyager confortablement sur un funiculaire à eau qui fonctionne depuis 1890.
Au début des années 1950, le gouvernement britannique, en collaboration avec une équipe internationale de scientifiques, décida de se mêler de la manipulation de la météo. Le projet Cumulus fut lancé et resta opérationnel entre 1949 et 1952. Son objectif était d’expérimenter diverses techniques d’ensemencement des nuages et donc de contrôler quand et où il pleut.
Entre le 4 août et le 15 août 1952, des vols furent effectués pour mener d’autres expériences de manipulation de la météo. Cependant, le projet Cumulus s’arrêta brusquement le 15 août 1952. Par coïncidence, le même jour, une tragédie eut lieu à Lynmouth.
Pour cette vidéo et la suivante, des sous-titres traduits automatiquement sont disponibles: Paramètres > Sous-titres > Traduire automatiquement > Français
En l’espace de quelques heures, la plus grande inondation depuis 300 ans frappa Lynmouth, détruisant des centaines de bâtiments, des ponts, des voitures et tuant malheureusement 35 personnes. 420 autres villageois se retrouvèrent sans abri. Les corps emportés par la mer ne furent jamais retrouvés. Une jeune fille interrogée à l’époque perdit six membres de sa famille et raconta comment sa mère avait identifié le corps de sa grand-mère. « Maman l’a identifiée par cette énorme verrue sur son dos parce qu’elle n’avait ni tête, ni bras, ni jambes quand ils l’ont trouvée ».
90 millions de tonnes d’eau, ainsi que des milliers de tonnes de roches s’abattirent sur le village, détruisant tout sur leur passage. Au total, ce mois-là, le North Devon, où se trouve le village, connut 250 fois plus de précipitations que la normale pour un mois d’août.
Peu après, les villageois restants demandèrent une enquête et évoquèrent des rumeurs d’avions tournant dans le ciel avant le déluge.
Cependant, le gouvernement et le Ministère de la Défense démentirent toute expérience d’ « ensemencement des nuages » et la tragédie fut considérée comme un événement de la « main de Dieu ». Toute discussion sur la manipulation des conditions météorologiques était considérée comme une théorie du complot et, aujourd’hui encore, elle est qualifiée comme telle sur Wikipedia.
Il en fut ainsi jusqu’en 2001, lorsque la BBC mena une enquête sur ces inondations et confirma que des expériences secrètes étaient à l’origine des fortes précipitations. De nombreux documents confidentiels avaient disparu, mais l’équipe de Document retrouva des journaux de bord de la RAF et des témoignages personnels.
Un pilote décrit comment, dans le cadre de l’opération Cumulus, il répandit du sel dans l’air, provoquant une forte averse à 80 km de là. D’autres vols utilisant de l’iodure d’argent eurent aussi probablement lieu.
« La pluie fut la plus forte des dernières années – et tout cela dans un ciel qui semblait estival … il n’y avait aucun moyen de dissimuler le fait que l’ensemenceur avait dit qu’il ferait pleuvoir, et il l’a fait.
« Des toasts furent portés à la météorologie et ce n’est qu’après la lecture du bulletin d’information de la BBC [sur la tragédie de Lynmouth] qu’un silence de pierre s’abattit sur la compagnie ».
Le Guardian a également relaté les événements, bien qu’ils classent maintenant l’histoire dans leur section « silly season » (saison loufoque). Il cite un navigateur de la RAF qui a déclaré: « Nous avons volé directement à travers le sommet du nuage, nous avons versé de la glace sèche dans le nuage. Nous sommes descendus pour voir si de la pluie sortait du nuage. C’est ce qui s’est passé environ 30 minutes plus tard, et nous avons tous applaudi ».
Le British Geological Survey examina les sédiments du sol dans le district de Lynmouth pour voir s’il restait des résidus d’argent ou d’iodure. Les tests furent limités en raison des restrictions mises en place à cause de la fièvre aphteuse, et ils ne sont pas concluants. Cependant, des résidus d’argent furent découverts dans les eaux de captage de la rivière Lyn.
L’enquête de la BBC a donné lieu à une émission de Radio 4 intitulée « The Day They Made it Rain » (Le jour où ils ont fait pleuvoir), dans laquelle il est suggéré que le Ministère de l’Air et le Trésor étaient conscients que ces expériences causaient des dommages aux civils.
Selon des compte-rendus déclassifiés, le bureau de la guerre était intéressé par la possibilité de renforcer la pluie et la neige par des moyens artificiels pour un certain nombre de raisons, notamment:
embourber les mouvements de l’ennemi;
augmenter le débit des rivières et des ruisseaux pour gêner ou arrêter les traversées de l’ennemi;
dissiper le brouillard sur les aérodromes; et
faire exploser une arme atomique dans un nuage pour produire une zone de contamination radioactive beaucoup plus large que lors d’une explosion atomique normale.
Mais rappelez-vous, ces types d’expériences n’ont eu lieu que dans le passé. Votre gouvernement vous aime maintenant et ne ferait jamais rien de tel de nos jours.
J’avais trouvé le texte sur le site officiel de Crichton il y a une semaine. Il a disparu depuis. Étonnant, non? Il est heureusement très facile à trouver sur le Net, j’ai utilisé cette source. C’est un extrait de son bouquin « Etat d’urgence » (« State of Fear« ), de 2004. En plus d’être captivants, tous les livres de Crichton contiennent un message très important, y compris « Jurassic Park » – lisez le bouquin, évitez sa lamentable adaptation cinématographique. Il était en quelque sorte un épistémologue qui écrivait des romans.
Puisqu’il est ici question de Lysenko, je suis avec un article du Dr Gary Levy sur le sujet, puis un nouvel article de Miles Mathis, qui traite du « grand empoisonnement » évoqué notamment ici par Catherine Austin Fitts.
Pourquoi la politisation de la science est dangereuse
par Michael Crichton
Imaginez qu’il existe une nouvelle théorie scientifique qui prévient d’une crise imminente et indique une solution.
Cette théorie bénéficie rapidement du soutien de scientifiques de premier plan, de politiciens et de célébrités du monde entier. La recherche est financée par d’éminents organismes philanthropiques et menée dans des universités prestigieuses. La crise est fréquemment rapportée dans les médias. La science est enseignée dans les classes des collèges et des lycées.
Je ne parle pas du réchauffement de la planète. Je parle d’une autre théorie, qui a pris de l’importance il y a un siècle.
Parmi ses partisans figuraient Theodore Roosevelt, Woodrow Wilson et Winston Churchill. Elle fut approuvée par les juges de la Cour suprême Oliver Wendell Holmes et Louis Brandeis [NdT. le « héros juridique » de Reiner Fuellmich], qui se prononcèrent en sa faveur. Parmi les personnalités célèbres qui la soutenaient figuraient Alexander Graham Bell, inventeur du téléphone, la militante Margaret Sanger, le botaniste Luther Burbank, Leland Stanford, fondateur de l’université de Stanford, le romancier H.G. Wells, le dramaturge George Bernard Shaw et des centaines d’autres. Des lauréats du prix Nobel y apportèrent leur soutien. La recherche fut soutenue par les fondations Carnegie et Rockefeller. L’Institut Cold Springs Harbor fut construit pour mener à bien ces recherches, mais des travaux importants furent également réalisés à Harvard, Yale, Princeton, Stanford et Johns Hopkins. Des lois visant à résoudre cette crise furent adoptées dans des États allant de New York à la Californie.
Ces efforts reçurent le soutien de l’Académie Nationale des Sciences, de l’Association Médicale Américaine et du Conseil National de la Recherche. On a dit que si Jésus était vivant, il aurait soutenu ces efforts.
Au total, la recherche, la législation et la formation de l’opinion publique autour de cette théorie durèrent près d’un demi-siècle. Ceux qui s’opposèrent à cette théorie furent traités de réactionnaires, d’aveugles ou tout simplement d’ignorants. Mais avec le recul, ce qui est surprenant, c’est que si peu de gens s’y opposèrent.
Aujourd’hui, nous savons que cette fameuse théorie, qui obtint tant de soutien, était en fait une pseudo-science. La crise qu’elle revendiquait était inexistante. Et les actions prises au nom de cette théorie étaient moralement et criminellement mauvaises. Au final, elles ont conduit à la mort de millions de personnes.
Cette théorie, c’est l’eugénisme, et son histoire est si épouvantable – et, pour ceux qui y ont été mêlés, si gênante – qu’on en parle rarement aujourd’hui. Mais c’est une histoire qui devrait être bien connue de chaque citoyen, afin que ses horreurs ne se répètent pas.
La théorie de l’eugénisme postulait une crise du patrimoine génétique conduisant à la détérioration de la race humaine. Les meilleurs êtres humains ne se reproduisaient pas aussi rapidement que les êtres inférieurs – les étrangers, les immigrants, les Juifs, les dégénérés, les inaptes et les « faibles d’esprit ». Francis Galton, un respectable scientifique britannique, fut premier à spéculer dans ce domaine, mais ses idées furent reprises bien au-delà de ses intentions. Elles furent adoptées par des Américains épris de science, ainsi que par ceux qui s’intéressaient peu à la science mais s’inquiétaient de l’immigration de races inférieures au début du vingtième siècle – de « dangereux parasites humains » qui constituaient « la marée montante des imbéciles » et polluaient la meilleure partie de la race humaine.
Les eugénistes et les immigrationnistes unirent leurs forces pour mettre un terme à cette situation. Le plan consistait à identifier les individus faibles d’esprit – il était admis que les Juifs étaient en grande partie faibles d’esprit, mais c’était également le cas de nombreux étrangers, ainsi que des Noirs – et à les empêcher de se reproduire en les isolant dans des institutions ou en les stérilisant.
Comme l’a dit Margaret Sanger, « Encourager les bons à rien aux dépens des bons est une cruauté extrême… il n’y a pas de plus grande malédiction pour la postérité que celle de lui léguer une population croissante d’imbéciles ». Elle parlait du fardeau que représentait la prise en charge de « ce poids mort de déchets humains ».
Ces opinions étaient largement partagées. H.G. Wells s’éleva contre « les nuées insuffisamment formées de citoyens inférieurs ». Theodore Roosevelt déclara que « la société n’a pas à permettre aux dégénérés de se reproduire. » Luther Burbank: « Ne permettez plus aux criminels et aux faibles de se reproduire. » George Bernard Shaw affirmait que seul l’eugénisme pouvait sauver l’humanité.
Le racisme était ouvertement présent dans ce mouvement, comme en témoignent des textes tels que The Rising Tide of Color Against White World Supremacy [La marée montante des gens de couleur contre la suprématie du monde blanc], de l’auteur américain Lothrop Stoddard. Mais, à l’époque, le racisme était considéré comme un aspect anodin de l’entreprise d’un objectif admirable – l’amélioration de l’humanité future. C’est cette notion avant-gardiste qui attira les esprits les plus libéraux et progressistes d’une génération. La Californie n’était que l’un des vingt-neuf États américains à avoir adopté des lois autorisant la stérilisation, mais elle se révéla la plus avant-gardiste et la plus enthousiaste – davantage de stérilisations furent pratiquées en Californie que partout ailleurs en Amérique.
La recherche eugénique était financée par la Fondation Carnegie, et plus tard par la Fondation Rockefeller. Cette dernière était si enthousiaste que même après que le centre de la politique eugéniste se soit déplacé en Allemagne et qu’elle ait impliqué le gazage d’individus provenant d’institutions psychiatriques, la Fondation Rockefeller continua à financer à un niveau très élevé les chercheurs allemands. (La fondation est restée discrète à ce sujet, mais elle finançait toujours la recherche en 1939, quelques mois seulement avant le début de la Seconde Guerre mondiale).
Depuis les années 1920, les eugénistes américains étaient jaloux parce que les Allemands leur avaient confisqué la direction du mouvement. Les Allemands furent admirablement progressistes. Ils installèrent des maisons d’apparence ordinaire où les « déficients mentaux » étaient amenés et interrogés un par un, avant d’être conduits dans une pièce annexe, qui était en fait une chambre à gaz. Là, ils étaient gazés au monoxyde de carbone, et leurs corps étaient éliminés dans un crématorium situé sur la propriété.
Par la suite, ce programme fut étendu à un vaste réseau de camps de concentration situés près des lignes de chemin de fer, permettant le transport et la mise à mort efficaces de dix millions d’indésirables.
Après la Seconde Guerre mondiale, plus personne n’était eugéniste, et personne ne l’avait jamais été. Les biographes des célébrités et des puissants ne s’attardaient pas sur l’attirance de leurs sujets pour cette philosophie, et ne la mentionnaient parfois pas du tout. L’eugénisme cessa d’être un sujet pour les salles de classe des universités, bien que certains affirment que ses concepts sont toujours d’actualité sous une forme déguisée.
Mais avec le recul, trois points ressortent. Premièrement, malgré la construction du Cold Springs Harbor Laboratory, malgré les efforts des universités et les plaidoiries des avocats, l’eugénisme n’avait aucune base scientifique. En fait, personne à cette époque ne savait ce qu’était réellement un gène. Le mouvement put se développer parce qu’il utilisait des termes vagues, jamais rigoureusement définis. Le terme « faible d’esprit » pouvait signifier n’importe quoi, de la pauvreté et de l’analphabétisme à l’épilepsie. De même, il n’existe pas de définition claire de « dégénéré » ou « inapte ».
Deuxièmement, le mouvement eugénique était en réalité un programme social déguisé en programme scientifique. Il était motivé par les préoccupations liées à l’immigration, au racisme et à l’arrivée de personnes indésirables dans un quartier ou un pays. Une fois encore, une terminologie vague permit de dissimuler ce qui se passait réellement.
Troisièmement, et c’est le plus affligeant, l’establishment scientifique, tant aux États-Unis qu’en Allemagne, ne mena aucune protestation sérieuse. Bien au contraire. En Allemagne, les scientifiques s’alignèrent rapidement sur le programme. Des chercheurs allemands modernes sont remontés dans le passé pour examiner des documents nazis des années 1930. Ils s’attendaient à trouver des directives indiquant aux scientifiques quelles recherches devaient être effectuées. Mais aucune ne fut nécessaire. Selon Ute Deichman, « les scientifiques, y compris ceux qui n’étaient pas membres du parti [nazi], contribuèrent à obtenir le financement de leurs travaux en modifiant leur comportement et en coopérant directement avec l’État. » Deichman parle du « rôle actif des scientifiques eux-mêmes en matière de politique raciale nazie… lorsque [la recherche] visait à confirmer la doctrine raciale… on ne trouve aucune trace de pression extérieure. » Les scientifiques allemands adaptèrent leurs intérêts de recherche aux nouvelles politiques. Et les rares qui ne s’adaptèrent pas disparurent.
Il existe un deuxième exemple de science politisée, de caractère tout à fait différent, mais qui illustre les dangers du contrôle du travail scientifique par l’idéologie gouvernementale et celui de la promotion de faux concepts par des médias dénués d’esprit critique. Trofim Denisovich Lysenko était un paysan qui se vantait d’avoir, disait-on, « résolu le problème de la fertilisation des champs sans engrais ni minéraux ». En 1928, il prétendait avoir inventé une procédure appelée vernalisation, par laquelle les graines étaient humidifiées et refroidies pour améliorer la croissance ultérieure des cultures.
Les méthodes de Lysenko ne furent jamais soumises à un test rigoureux, mais son affirmation selon laquelle ses graines traitées transmettaient leurs caractéristiques à la génération suivante représentait un renouveau des idées lamarckiennes à une époque où le reste du monde adoptait la génétique mendélienne. Josef Staline était attiré par les idées lamarckiennes, qui impliquaient un avenir libéré des contraintes héréditaires; il voulait également améliorer la production agricole. Lysenko promettait les deux, et devint la coqueluche des médias soviétiques à l’affût d’histoires de paysans intelligents qui avaient mis au point des procédures révolutionnaires.
Lysenko fut dépeint comme un génie, et il exploita sa célébrité à fond. Il était particulièrement habile pour dénoncer ses adversaires. Il eut recours à des questionnaires d’agriculteurs pour prouver que la vernalisation augmentait le rendement des cultures, et évita ainsi tout test direct. Porté par une vague d’enthousiasme cautionnée par l’État, son ascension fut rapide. En 1937, il était membre du Soviet Suprême.
A cette époque, Lysenko et ses théories dominaient la biologie russe. Il en résulta des famines qui tuèrent des millions de personnes [NdT. en Ukraine, voir ici] et des purges qui envoyèrent des centaines de scientifiques soviétiques dissidents dans les goulags ou devant des pelotons d’exécution. Lysenko attaqua agressivement la génétique, qui fut finalement interdite en tant que « pseudo-science bourgeoise » en 1948. Les idées de Lysenko n’ont jamais été fondées, et pourtant il contrôla la recherche soviétique pendant trente ans. Le lysenkoïsme a pris fin dans les années 1960, mais la biologie russe ne s’est toujours pas entièrement remise de cette époque.
Aujourd’hui, nous sommes en proie à une nouvelle grande théorie qui, une fois de plus, s’est attirée le soutien de politiciens, de scientifiques et de célébrités du monde entier. Une fois encore, la théorie est promue par de grandes fondations. Une fois encore, la recherche est menée dans des universités prestigieuses. Une fois encore, des lois sont adoptées et des programmes sociaux préconisés en son nom. Une fois encore, les critiques sont peu nombreux et traités sans ménagement.
Une fois encore, les mesures préconisées ne sont étayées ni par les faits ni par la science. Une fois encore, des groupes poursuivant d’autres objectifs se cachent derrière un mouvement aux allures nobles. Une fois encore, des revendications de supériorité morale sont utilisées pour justifier des actions extrêmes. Une fois encore, le fait que certaines personnes soient lésées est ignoré parce qu’une cause abstraite est censée être plus importante que toute conséquence humaine. Une fois encore, des termes vagues comme la durabilité et la justice générationnelle – des termes sans définition commune – sont employés au service d’une nouvelle crise.
Je ne prétends pas que le réchauffement climatique est identique à l’eugénisme. Mais les similitudes ne sont pas superficielles. Et j’affirme que la discussion ouverte et franche des données et des problèmes est empêchée. Des revues scientifiques de premier plan ont pris des positions éditoriales fermes en faveur du réchauffement climatique, ce qu’elles ne devraient pas faire, selon moi. Dans ces circonstances, tout scientifique qui nourrit des doutes comprend clairement qu’il serait sage de mettre en sourdine leur expression.
Une preuve de cette suppression est le fait qu’un grand nombre des détracteurs du réchauffement climatique sont des professeurs à la retraite. Ces personnes ne sont plus à la recherche de subventions et n’ont plus à faire face à des collègues dont les demandes de subventions et l’avancement de leur carrière risquent d’être compromis par leurs critiques.
En science, les vieux ont généralement tort. Mais en politique, les vieux sont sages, conseillent la prudence et, en fin de compte, ont souvent raison.
L’histoire passée de la croyance humaine est un récit édifiant. Nous avons tué des milliers de nos semblables parce que nous pensions qu’elles avaient signé un pacte avec le diable et étaient devenues des sorcières. Nous tuons encore plus de mille personnes chaque année pour sorcellerie. À mon avis, il n’y a qu’un seul espoir pour l’humanité de sortir de ce que Carl Sagan appelait « le monde hanté par les démons » de notre passé. Cet espoir, c’est la science.
Mais comme l’a dit Alston Chase, « lorsque la recherche de la vérité est confondue avec le plaidoyer politique, la poursuite de la connaissance se résume à la quête du pouvoir ». C’est le danger auquel nous sommes aujourd’hui confrontés. Et c’est pourquoi le mélange de la science et de la politique est une mauvaise association, au passé très sombre. Nous devons nous souvenir de l’histoire et nous assurer que ce que nous présentons au monde en tant que connaissance est désintéressé et honnête.
Ce témoignage date de 2016. Il est, selon la formule consacrée, plus que jamais d’actualité, maintenant que nos amis du FEM – et la majorité des gouvernements – ont décidé de tout miser sur « l’urgence climatique », pour passer à la moulinette élevage, alimentation, industrie, énergie, transports et liberté individuelle. Il complète la série de John Dee sur la mesure des températures au Royaume-Uni, que j’avais commencé à traduire et publier puis interrompue vu le manque d’intérêt des lecteurs – dommage. Je vous invite vivement à lire celui-ci, quitte à survoler les passages plus techniques (qui ne sont pas inabordables), et à en retirer le principe général. On y retrouve les méthodes classiques de modélisation frauduleuse, bidouillage des mesures et censure des scientifiques indépendants, mises en oeuvre pour le Covid et ses produits dérivés.
Comme il est question ici de « consensus scientifique », considérez ceci comme le deuxième volet de la série d’articles que j’ai commencée il y a quelque temps.
Les principales abréviations utilisées ici sont:
LT: basse troposphère (low troposphere)
MT: troposphère moyenne (mid-troposphere)
GIEC: Groupe d’experts Intergouvernemental sur l’Evolution du Climat
UAH: Université d’Alabama à Huntsville
NMAT: Température nocturne de l’air marin (Night Marine Air Temperature)
NOAA: Agence américaine d’observation océanique et atmosphérique (National Oceanic and Atmospheric Administration)
NCEI: Centres nationaux d’information sur l’environnement (National Centers for Environmental Information)
APE: Agence pour la Protection de l’Environnement américaine (Environment Protection Agency – EPA)
UKMet: Service national britannique de météorologie
Commission des sciences, de l’espace et de la technologie de la Chambre des Représentants des États-Unis
2 février 2016
Témoignage de John R. Christy
Université d’Alabama à Huntsville.
Je m’appelle John R. Christy, Professeur émérite en Sciences de l’Atmosphère, Climatologue d’État de l’Alabama et Directeur du Centre des Sciences du Système Terrestre à l’Université d’Alabama à Huntsville. J’ai été auteur principal, auteur collaborateur et réviseur des évaluations du GIEC des Nations Unies, j’ai reçu la médaille de la NASA pour réalisations scientifiques exceptionnelles et, en 2002, j’ai été élu membre de l’American Meteorological Society.
C’est un privilège pour moi d’offrir mon analyse de la situation actuelle concernant (1) les ensembles de données de température utilisés pour étudier le climat, (2) notre compréhension fondamentale du changement climatique et (3) l’effet que des réglementations, telles que l’accord de Paris, pourraient avoir sur le climat. J’ai également joint un extrait de mon témoignage au Sénat en décembre dernier, dans lequel j’aborde (1) la notion populaire selon laquelle les événements climatiques extrêmes augmentent en raison du changement climatique d’origine humaine (ce n’est pas le cas), et (2) la direction malheureuse prise par la recherche dans ce domaine.
La meilleure façon de décrire mon domaine de recherche est de dire qu’il s’agit de construire des ensembles de données à partir de rien pour mieux comprendre ce que fait le climat et pourquoi il le fait – une activité que j’ai commencée adolescent il y a plus de 50 ans. J’ai utilisé des observations de surface traditionnelles ainsi que des mesures effectuées par des ballons et des satellites pour documenter l’histoire du climat. Un grand nombre de nos ensembles de données UAH sont utilisés pour tester des hypothèses sur la variabilité et le changement climatiques.
(1.1) Données de température de la couche supérieure de l’air provenant de satellites et de ballons
Je commencerai par une discussion qui a été suscitée par une campagne de plus en plus active d’affirmations négatives faites à l’encontre des observations, c’est-à-dire des données, des températures de l’air supérieur. La Figure 1, en particulier, a attiré une attention considérable de la part de ceux qui considèrent que le système climatique subit une transformation rapide, causée par l’homme, vers un climat auquel les gens auront beaucoup de mal à s’adapter. Ce simple graphique montre que la projection moyenne du modèle, sur laquelle se fondent leurs craintes (ou leurs espoirs?), est médiocre en ce qui concerne la mesure fondamentale de la température censée être la plus sensible aux gaz à effet de serre supplémentaires – la température atmosphérique globale de la couche située entre la surface et 15 000 mètres. [La couche représentée est connue sous le nom de troposphère moyenne ou MT et est utilisée parce qu’elle chevauche la région de l’atmosphère tropicale qui présente la plus grande signature anticipée de la réponse à l’effet de serre par masse globale – entre 6 000 et 15 000 mètres]. Le graphique indique que la théorie sur la façon dont les changements climatiques se produisent, et l’impact associé des gaz à effet de serre supplémentaires, n’est pas suffisamment bien comprise pour reproduire le climat passé [voir la partie (2)]. En effet, les modèles surchauffent clairement l’atmosphère. Le problème qui se pose pour le Congrès est que des projections de modèles aussi manifestement déficientes sont utilisées pour élaborer des politiques.
Fig. 1: Valeurs moyennes sur cinq ans de la température globale annuelle moyenne (1979-2015) (appelée « troposphérique moyenne » ou « MT ») telle que représentée par la moyenne des 102 modèles climatiques CMIP5 du GIEC (rouge), la moyenne de 3 ensembles de données satellitaires (vert – UAH, RSS, NOAA) et 4 ensembles de données par ballon (bleu, NOAA, UKMet, RICH, RAOBCORE).
Ce résultat remettant en cause la théorie actuelle du réchauffement par effet de serre de manière relativement directe, plusieurs attaques bien financées ont été lancées contre ceux d’entre nous qui éloaborent et utilisent ces ensembles de données et contre les ensembles de données eux-mêmes. En tant que climatologue, je me suis retrouvé, avec des collègues partageant les mêmes idées, projeté dans un monde plus étroitement associé à la diffamation et à la diversion, que l’on trouve par exemple dans la politique de Washington, plutôt qu’à un discours objectif et dépassionné communément admis dans le domaine scientifique. Les enquêtes menées sur nous par le Congrès et les médias sont motivées par l’idée que quiconque n’est pas d’accord avec le point de vue de l’establishment climatique sur le dangereux changement climatique doit être à la solde d’organisations calomnieuses ou être mentalement déficient.
C’est également dans ce milieu qu’est propagé le matériel promotionnel, c’est-à-dire la propagande, qui tente de discréditer ces données (et les chercheurs) par des allégations qui ne mènent à rien.
Plusieurs de ces allégations contre les données sont apparues il y a quelques semaines sous la forme d’une vidéo bien ficelée. J’aborderai ses principales affirmations avec le matériel suivant, qui, sous une forme similaire, est apparu dans la littérature évaluée par les pairs au fil des ans.
La vidéo en question a été promue par un groupe de pression sur le changement climatique (Yale Climate Connections, http://www.yaleclimateconnections.org/2016/01/over-reliance-on-satellite-data-alone-criticized/) dans laquelle des scientifiques renommés font des affirmations pour la plupart dénuées de sens ou complètement fausses par rapport aux preuves de la Fig. 1. Je souhaite faire quatre remarques concernant cette vidéo et démontrer la tactique de diversion pour laquelle ce genre de vidéos orientées, ainsi que les médias qui les imitent joyeusement, se sont rendus célèbres.
Premièrement, il est affirmé que les satellites ne mesurent pas la température. En réalité, les capteurs des satellites mesurent la température par les radiations émises – la même méthode qu’un médecin utilise pour mesurer la température corporelle avec une grande précision à l’aide d’une sonde auriculaire. L’oxygène atmosphérique émet des micro-ondes, dont l’intensité est directement proportionnelle à la température de l’oxygène, et donc de l’atmosphère. Le fait que les satellites mesurent la température est évident dans le graphique suivant, qui compare les données satellitaires de l’UAH aux températures calculées à partir des thermistances des ballons. Soit dit en passant, la plupart des mesures de la température de surface sont indirectes et utilisent une résistance électronique.
Fig. 2: Variations moyennes de température mesurées dans 59 stations de radiosondage aux États-Unis (fabricant VIZ) et en Australie.
Deuxièmement, les scientifiques affirment que la chute verticale (décroissance orbitale) des satellites due à la friction atmosphérique provoque un refroidissement parasite dans le temps. Cette chute verticale a un impact non mesurable sur la couche (MT) utilisée ici et constitue donc une affirmation dénuée de sens. Dans des versions beaucoup plus anciennes d’un autre produit de couche (LT ou Basse Troposphère), ce problème existait, mais il a été facilement corrigé il y a près de 20 ans. Ainsi, le fait de soulever des problèmes qui affectaient une variable différente qui, de toute façon, a été corrigée il y a de nombreuses années est une manœuvre de diversion évidente qui, à mon avis, démontre la faiblesse de leur position.
Troisièmement, les scientifiques parlent des faux changements de température qui se produisent lorsque les satellites dérivent dans la direction est-ouest, le problème dit de la dérive diurne (que nous avons été les premiers à détecter et à prendre en compte). Ils parlent d’une erreur de signe dans la procédure de correction qui a modifié la tendance. Encore une fois, cette erreur n’était pas un facteur dans la couche MT de la Fig. 1, mais pour la couche LT, qui est différente. Et, encore une fois, cette question a été traitée pour la LT il y a 10 ans.
Enfin, bien que cela ne soit pas spécifiquement mentionné dans cette vidéo, certains de ces scientifiques prétendent que la Fig. 1 ci-dessus est en quelque sorte manipulée, dans le but de cacher leur croyance dans les prouesses et la validité des modèles climatiques. À cela, au contraire, je réponds que nous avons présenté les données de la manière la plus significative possible. Il s’agit ici du taux de réchauffement de l’atmosphère globale, c’est-à-dire de la tendance. Cette mesure nous indique à quelle vitesse la chaleur s’accumule dans l’atmosphère – la mesure fondamentale du réchauffement climatique. Pour représenter visuellement ce phénomène, j’ai ajusté tous les ensembles de données afin qu’ils aient une origine commune. Pensez à cette analogie: j’ai participé à plus de 500 courses au cours des 25 dernières années et, à chaque fois, tous les coureurs partent du même endroit au même moment dans le simple but de déterminer qui est le plus rapide, et de combien, à l’arrivée. Il est évident que la vitesse globale relative des coureurs est déterminée par leur position au moment où ils franchissent la ligne d’arrivée, mais ils doivent tous partir ensemble.
De la même manière, j’ai construit le graphique de façon à ce que la ligne de tendance de toutes les séries chronologiques de température commence au même point en termes d’amplitude et de temps (valeur zéro en 1979) afin que le lecteur puisse voir l’ampleur de l’écart à la ligne d’arrivée (2015). Un aperçu de cette méthode est illustré à la Fig. 3 où je présente ce qui est vu à la Fig. 1, sauf qu’il s’agit uniquement de la ligne de tendance sans les variations qui se produisent chaque année en raison des volcans et autres facteurs. Cela revient à tracer la vitesse moyenne globale d’un coureur le long du parcours, même s’il a probablement couru plus lentement dans les montées et plus vite dans les descentes.
Cette image indique que les modèles, en moyenne, réchauffent cette couche globale environ 2,5 fois plus vite que ce que les observations indiquent. Il s’agit d’une différence significative non expliquée, qui indique que la théorie de l’impact de l’effet de serre sur la température atmosphérique n’est pas suffisamment connue pour même reproduire ce qui s’est déjà produit. Nous ne parlons pas ici de 10 ou 15 ans, mais de 37 ans – bien plus d’un tiers de siècle. Le fait que deux types de systèmes de mesure très indépendants (ballons et satellites) construits par une variété d’institutions (gouvernement, université, privé) montrent tous un taux de réchauffement beaucoup plus lent donne une grande confiance dans leur résultat. Ainsi, les preuves suggèrent fortement que la théorie, telle qu’elle est incarnée dans les modèles, va beaucoup trop loin en forçant l’atmosphère à retenir la chaleur alors qu’en réalité, l’atmosphère a les moyens d’évacuer cette chaleur et se réchauffe donc à un rythme beaucoup plus lent.
Fig. 3: La ligne de tendance linéaire sur la période 1979-2015. Les couleurs représentent les mêmes données sources que dans la Fig. 1.
J’ai montré ici que pour l’atmosphère globale, les modèles surchauffent l’atmosphère d’un facteur d’environ 2,5. Par ailleurs, si on se concentre sur les tropiques, les modèles montrent un réchauffement par effet de serre encore plus important dans cette couche. Cependant, un calcul similaire avec les observations présentées à la Fig. 3 indique que les modèles surchauffent l’atmosphère tropicale d’un facteur d’environ 3, (modèles +0,265, satellites +0,095, ballons +0,073 °C/décennie), ce qui indique à nouveau que la théorie actuelle est en contradiction avec les faits. (voir à nouveau la section 2).
C’est une stratégie téméraire, à mon avis, que de promouvoir activement les résultats des modèles climatiques théoriques tout en attaquant les multiples lignes de preuves issues d’observations. Il convient de noter qu’aucun des ensembles de données d’observation n’est parfait et qu’il est sain de continuer à les examiner, mais lorsque de multiples groupes indépendants génèrent les ensembles de données et que les résultats de deux systèmes totalement indépendants (ballons et satellites) concordent étroitement et sont en désaccord avec les résultats du modèle, on ne peut que se poser des questions sur la décision de lancer une offensive contre les données. Cela n’a d’après moi aucun sens scientifique.
(1.2) Questions relatives à la température de surface
Il existe plusieurs problèmes concernant les ensembles de données sur la température de surface qui sont trop complexes pour être abordés dans ce document. Je me concentrerai sur quelques points qui me sont familiers et sur lesquels j’ai publié.
(1.2.a) La température de surface comme mesure pour détecter l’influence de l’augmentation des concentrations de gaz à effet de serre
L’un de mes nombreux centres d’intérêt en matière de climat est la manière dont les températures de surface sont mesurées et dont elles sont affectées par leur environnement, en particulier au-dessus des terres. Dans plusieurs articles (Christy et al. 2006 J. Climate, Christy et al. 2009 J. Climate, Christy 2013 J. Appl. Meteor. Clim. et Christy et al. 2016 J. Appl. Meteor. Clim.) j’ai examiné de près les stations individuelles dans différentes régions et je suis arrivé à la conclusion que l’ampleur du signal relativement faible que nous recherchons dans le changement climatique d’origine humaine est susceptible d’être faussé par la croissance de l’infrastructure autour des stations thermométriques et la variété des changements que ces stations subissent au fil du temps, ainsi que la variabilité des hauts et des bas naturels du climat. Il est difficile d’ajuster ces facteurs de contamination afin d’extraire un ensemble de données pures pour la détection de l’effet de serre, car souvent, l’influence non climatique se manifeste très progressivement, exactement comme on l’attendrait des réactions à une intensification de l’effet de serre.
En examinant les températures de l’océan (Christy et al. 2001, Geophys. Res. Lett.), j’ai découvert que les tendances de la température de l’eau (1m de profondeur) ne suivent pas bien celles de la température de l’air juste au-dessus de l’eau (3m), même si les deux sont mesurées sur la même bouée pendant 20 ans. Ceci est important pour la discussion ci-dessous où la NOAA a utilisé les températures de l’air marin pour ajuster les mesures de la température de l’eau à partir de navires.
Il existe de nombreux autres facteurs qui rendent les ensembles de données sur la température de surface peu efficaces pour la détection d’un réchauffement accru dû à l’effet de serre, (a) le manque de couverture géographique systématique dans le temps, (b) les méthodes et instruments de mesure non systématiques dans le temps et l’espace, (c) la mesure ponctuelle représente au mieux une zone locale minuscule et (d) est facilement affectée par de légers changements dans l’environnement, qui peuvent se produire par exemple lorsqu’une station se déplace. Des efforts considérables ont été déployés pour essayer d’ajuster les données brutes de surface afin d’obtenir une série chronologique qui représenterait celle d’un environnement vierge, et j’ai dirigé ou participé à certains de ces efforts (par exemple pour la Californie centrale dans Christy et al. 2006 et pour l’Afrique de l’Est dans Christy et al. 2009 et Christy 2013).
Ainsi, fort d’une expérience dans la construction d’ensembles de données de température de surface, par satellite et par ballon, et en tenant compte du signal que nous recherchons pour détecter une intensification de l’effet de serre, il me semble que l’utilisation des mesures atmosphériques globales offre la meilleure opportunité de répondre aux questions sur la réaction du climat à ce changement de composition atmosphérique induit par l’homme. L’atmosphère profonde est beaucoup plus cohérente dans l’espace et dans le temps en termes de variations. Elle n’est pas affectée par le développement humain à la surface. Elle est mesurée systématiquement. Certes, les températures mesurées par satellite et par ballon nécessitent leurs propres ajustements et ne peuvent être considérées comme « parfaites », mais elles offrent une indépendance l’une par rapport à l’autre qui permet des études de comparaison directe. En ce qui concerne la détection de l’intensification de l’effet de serre, il se trouve que la troposphère, comme l’indiquent les modèles, est la région atmosphérique qui réagit le plus, c’est-à-dire qui se réchauffe le plus rapidement, et constitue donc, à mon avis, une mesure qui offre un meilleur moyen de détecter l’influence humaine sur le climat.
(1.2.b) Le nouveau jeu de données sur les températures de surface de la NOAA
Une série d’articles a été publiée l’année dernière (notamment Huang et al. 2015 J. Climate, Karl et al. 2015 Science) décrivant un nouvel ensemble de données sur la température de surface élaboré par la NOAA qui indique un réchauffement un peu plus important au cours des 10 à 25 dernières années que les versions précédentes. Le principal changement concernait les températures de l’eau de mer dans l’ensemble de données désormais connu sous le nom de ERSSTv4. Ce changement a introduit un réchauffement supplémentaire dans les données à partir de 1990 environ. La principale raison de ce nouveau réchauffement, comme le notent les auteurs, est l’ajustement appliqué aux données des bouées, ajoutant environ +0,12 °C aux relevés des bouées. En 1980, seuls 10% environ des rapports de données provenaient de bouées, mais en 2000, 90% environ étaient des données de bouées. Ainsi, étant donné que l’influence des données des bouées a augmenté de manière significative au fil du temps, le simple ajout d’un biais à toutes les bouées dès le début a créé une tendance plus chaude à mesure qu’elles devenaient la principale source d’information.
Un certain contexte est nécessaire. Contrairement aux ensembles de données des satellites et des ballons qui mesurent une quantité systématique (essentiellement la température de l’air atmosphérique), les ensembles de données sur la température de surface sont un mélange de températures de l’air (sur terre) et de l’eau (sur l’océan) mesurées à l’aide d’une gamme considérable d’instruments, d’expositions et de méthodes. Sur terre, les stations météorologiques mesurent la température de l’air dans différents types d’abris pour instruments et par différentes techniques à un niveau d’environ 1,5m au-dessus du sol. Au-dessus de l’océan, cependant, la température utilisée est celle de l’eau elle-même, et non celle de l’air au-dessus, de sorte que les ensembles traditionnels de données sur la surface du globe ne mesurent pas un paramètre physique homogène sur terre et dans l’océan. En outre, la profondeur à laquelle est mesurée la température de l’eau est très variable, de 0,6 à 15 mètres environ, et les méthodes utilisées vont des seaux remontés sur le pont dans lesquels on insère un thermomètre aux températures de l’admission du moteur, beaucoup plus profondes dans l’eau, en passant par les bouées, dérivantes ou amarrées au fond. Le fait que la température varie en fonction de la profondeur est donc un problème à résoudre avant de pouvoir tenter de construire un ensemble de données systématique. De plus, les mesures ne sont pas cohérentes dans l’espace et dans le temps, et de grandes régions, comme l’Afrique et les océans du Sud, ne sont pas mesurées.
N’oubliez pas que même si la tendance de cet ensemble de données de la NOAA est devenue plus positive au cours des 10 à 20 dernières années, elle reste inférieure aux projections des modèles climatiques à long terme. Pour les périodes plus longues, comme la période depuis 1979, date à laquelle les satellites ont commencé à mesurer les températures atmosphériques globales, le nouvel ensemble de données mondiales est similaire à celui du Centre Hadley (1979-2015: NOAA +0,155 °C/décennie, Centre Hadley UKMet, +0,165 °C/décennie). Cependant, des questions subsistent concernant le nouvel ensemble de données sur l’eau de mer de la NOAA, notamment sur la manière dont il indique un réchauffement plus important que les autres au cours des 20 dernières années. La Figure 4 présente les tendances océaniques pour la région 20S à 60N (c’est-à-dire les océans tropicaux et de l’hémisphère nord – il y avait trop peu de données au sud du 20S pour y générer des températures de l’air proche de la surface). Quatre ensembles de données sont représentés: NOAA (NOAA, rouge), Centre Hadley (HadCRUT4, orange), une température préliminaire de l’air proche de la surface sur les océans par mon étudiant diplômé Rob Junod (jaune) et la température de l’air de la couche profonde de l’UAH provenant des satellites (bleu). Les données NOAA et HadCRUT4 sont des températures de l’eau de mer près de la surface, elles devraient donc être identiques.
La NOAA a utilisé une curieuse variable de référence pour calibrer les températures de l’eau mesurées à partir des prises d’eau des navires – la température de l’air marin nocturne (NMAT). C’est curieux car les NMAT elles-mêmes nécessitent des ajustements considérables, c’est-à-dire des corrections pour la hauteur du pont du navire, etc. Quoi qu’il en soit, à partir de là, les données des bouées ont ensuite été ajustées pour correspondre aux données des navires. Il semble donc que le processus d’ajustement fondamental dépende des NMAT pour ajuster les données des navires et ensuite ajuster les données des bouées. Le produit final de la NOAA mélange toutes ces données, et comme la représentation géographique des différents systèmes a changé de façon spectaculaire (comme on l’a noté, d’environ 10% de bouées et 90% de navires en 1980 à 90% de bouées et 10% de navires aujourd’hui – Huang et al. 2015), un ajustement appliqué aux bouées influencera automatiquement la tendance.
Je suis conscient que le Comité a cherché à obtenir des informations sur ce curieux processus et a demandé à la NOAA de générer des ensembles de données basés uniquement sur des systèmes de mesure cohérents, c’est-à-dire des navires seuls, des bouées seules et des NMATs seuls, afin de voir si l’un des systèmes aurait pu influencer les tendances de manière inappropriée en raison des changements de distribution. La NOAA n’a pas été en mesure de répondre à cette demande. En même temps, j’ai demandé à mon étudiant diplômé, Rob Junod, de faire le travail pour le NMAT. Ce qui est présenté ici est préliminaire, mais suit une grande partie des travaux précédents sur les NMAT (développés au National Oceanographic Centre et au Centre Hadley au Royaume-Uni) avec l’avantage supplémentaire d’être mis à jour en 2014. La meilleure couverture géographique des données a été trouvée entre 20°S et 60°N. Cette zone a donc également été appliquée aux autres ensembles de données pour une comparaison entre éléments identiques. Les résultats sont présentés à la Figure 4, dans laquelle toutes les tendances se terminent en 2014 mais couvrent des périodes par tranches de deux ans, de 20 ans à 10 ans.
Figure 4. Tendances décennales (°C/décennie) de quatre ensembles de données de température sur les océans de 20°S à 60°N pour des périodes variables se terminant en 2014. Le rouge et l’orange sont des ensembles de données sur la température de l’eau de mer en surface provenant de la NOAA et du Centre Hadley (HadCRUT4). Le jaune est un ensemble de données de température de l’air proche de la surface (Night Marine Air Temperature) construit par l’UAH (préliminaire). Le bleu est la tendance de la température de l’atmosphère profonde (de la surface à 10 000 mètres ou basse troposphère) à partir des émissions de micro-ondes captées par les satellites (également UAHv6.0b5).
Un certain nombre d’observations sautent aux yeux dans la Fig. 4. (1) En termes de tendance de température, les températures de l’air sont inférieures à celles de l’eau (comme indiqué dans mon étude de 2001 mentionnée ci-dessus.) (2) NOAA réchauffe le plus rapidement dans toutes les périodes. (3) Au cours des 10 à 14 dernières années, les tendances de l’HadCRUT4 concordent mieux avec la série de données sur la température de l’air proche de la surface (étant proche de zéro et soutenant la notion de hiatus) qu’avec les tendances de sa quantité physiquement identique de la NOAA. (4) L’ampleur des tendances des NMAT se situe entre les tendances de l’atmosphère profonde et de l’eau de mer.
Cette figure génère également un certain nombre de questions sur la qualité des données. (1) Si les NMAT ont été utilisées pour calibrer les températures des navires, puis les navires pour calibrer les températures des bouées, pourquoi la série de données de la NOAA diffère-t-elle autant de son point de référence de base – les NMAT? (2) A quoi ressemblent les séries temporelles et quelles sont les tendances de la sous-période pour l’eau de mer lorsque seuls les navires et/ou les bouées sont utilisés pour construire l’ensemble de données pour les 20-25 dernières années? (3) Que montre la série chronologique de la série de données NMAT de la NOAA (c’est-à-dire leur référence)?
Les véritables questions scientifiques ici sont celles qui ont une importance significative pour la compréhension de la façon dont les gaz à effet de serre supplémentaires pourraient affecter le climat, comme le montre la section suivante.
(2) Dans quelle mesure comprenons-nous le changement climatique?
L’un des objectifs scientifiques essentiels de notre époque est de déterminer si les émissions dues aux activités humaines ont un impact sur le climat et, si oui, dans quelle mesure. Cette tâche est d’autant plus difficile que nous savons que le système climatique est déjà soumis à des changements importants sans l’influence de l’homme. Étant donné qu’il n’existe pas de dispositif de mesure qui détermine explicitement la cause des changements climatiques que nous pouvons mesurer, comme la température, notre science doit adopter une approche différente pour chercher à comprendre ce qui cause les changements, c’est-à-dire quelle part est naturelle et quelle part est induite par l’homme. L’approche de base aujourd’hui utilise des modèles climatiques. (Les projections de ces modèles sont également utilisées pour les politiques en matière de carbone).
Il est important de comprendre que les résultats de ces modèles (c’est-à-dire les projections du climat futur et le lien spécifique que l’augmentation du CO2 pourrait avoir sur le climat) sont définis comme des hypothèses ou des affirmations scientifiques – les résultats des modèles ne peuvent être considérés comme une preuve des liens entre les variations climatiques et les gaz à effet de serre. Ces modèles sont des programmes informatiques complexes qui tentent de décrire, à l’aide d’équations mathématiques, le plus grand nombre possible de facteurs affectant le climat et d’estimer ainsi comment le climat pourrait évoluer à l’avenir. On espère que le modèle fournira des réponses précises aux variables climatiques, comme la température, lorsque des gaz à effet de serre supplémentaires sont inclus dans le modèle. Cependant, les équations de presque tous les processus climatiques importants ne sont pas exactes et représentent les meilleures approximations que les modélisateurs peuvent concevoir et que les ordinateurs peuvent gérer à ce stade.
Un aspect fondamental de la méthode scientifique est que si nous affirmons comprendre un système (tel que le système climatique), nous devons être en mesure de prédire son comportement. Si nous sommes incapables de faire des prédictions précises, c’est qu’au moins certains des facteurs du système ne sont pas bien définis ou peut-être même manquants. [Notez toutefois que le fait de reproduire le comportement du système (c’est-à-dire de reproduire « ce » que fait le climat) ne garantit pas que la physique fondamentale est bien connue. En d’autres termes, il est possible d’obtenir la bonne réponse pour les mauvaises raisons, c’est-à-dire obtenir le « quoi » du climat mais manquer le « pourquoi »].
Comprenons-nous comment les gaz à effet de serre affectent le climat, c’est-à-dire le lien entre les émissions et les effets climatiques? Comme indiqué plus haut, une mesure très élémentaire pour les études climatiques est la température de la couche atmosphérique principale appelée troposphère, qui s’étend en gros de la surface à une altitude de 15 000 mètres. Il s’agit de la couche qui, selon les modèles, devrait se réchauffer de manière significative avec l’augmentation du CO2, et même plus rapidement que la surface. Contrairement à la température de surface, cette température globale nous renseigne sur le nœud de la question du réchauffement climatique: quelle quantité de chaleur s’accumule dans l’atmosphère mondiale? Et, selon les modèles, ce réchauffement causé par le CO2 devrait être facilement détectable à l’heure actuelle. Il s’agit d’un bon test de notre compréhension du système climatique, car depuis 1979, nous disposons de deux moyens indépendants pour surveiller cette couche: les satellites depuis le ciel et les ballons équipés de thermomètres lâchés depuis la surface.
J’ai pu accéder à 102 simulations de modèles climatiques CMIP-5 rcp4.5 (representative concentration pathways) des températures atmosphériques pour la couche troposphérique et générer des températures globales à partir des modèles pour une comparaison entre éléments identiques avec les observations des satellites et des ballons. Ces modèles ont été développés dans des institutions du monde entier et utilisés dans l’évaluation scientifique du GIEC AR5 (2013).
Ci-dessus: Variations de la température moyenne mondiale de la troposphère moyenne (moyennes sur 5 ans) pour 32 modèles (lignes) représentant 102 simulations individuelles. Les cercles (ballons) et les carrés (satellites) représentent les observations. Le modèle russe (INM-CM4) était le seul modèle proche des observations.
Les informations contenues dans cette figure montrent clairement que les modèles ont une forte tendance à surchauffer l’atmosphère par rapport aux observations réelles. En moyenne, les modèles réchauffent l’atmosphère mondiale à un rythme 2,5 fois supérieur à celui du monde réel. Il ne s’agit pas d’un épisode à court terme, spécialement sélectionné, mais d’une période de 37 ans, soit plus d’un tiers de siècle. C’est également la période où la concentration de gaz à effet de serre est la plus élevée, et donc celle où la réaction devrait être la plus importante.
Si l’on suit la méthode scientifique consistant à confronter les affirmations aux données, on peut conclure que les modèles ne représentent pas fidèlement au moins certains des processus importants qui influent sur le climat, car ils n’ont pas été en mesure de « prévoir » ce qui s’est déjà produit. En d’autres termes, ces modèles ont échoué au simple test consistant à nous dire « ce qui » s’est déjà produit, et ne seraient donc pas en mesure de nous donner une réponse fiable à la question de savoir « ce qui » pourrait se produire à l’avenir et « pourquoi ». En tant que tels, ils seraient d’une valeur très discutable pour déterminer une politique qui devrait dépendre d’une compréhension très sûre du fonctionnement du système climatique.
Il existe une mesure climatique connexe qui utilise également la température atmosphérique qui, dans les modèles, a une réaction encore plus importante que celle de la moyenne mondiale présentée ci-dessus. Cette mesure constitue donc un test plus solide pour comprendre la performance des modèles en ce qui concerne spécifiquement les gaz à effet de serre. Dans les modèles, l’atmosphère tropicale se réchauffe de manière significative en réponse à l’ajout de gaz à effet de serre – plus que la température atmosphérique moyenne mondiale.
Ci-dessus: Variations de la température moyenne de la troposphère moyenne tropicale (moyennes sur 5 ans) pour 32 modèles (lignes) représentant 102 simulations individuelles. Les cercles (ballons) et les carrés (satellites) représentent les observations.
Dans la comparaison tropicale présentée ici, la disparité entre les modèles et les observations est encore plus grande, les modèles réchauffant en moyenne cette région atmosphérique d’un facteur trois plus important que dans la réalité. Un tel résultat renforce l’implication ci-dessus que les modèles ont encore beaucoup d’améliorations à faire avant que nous puissions avoir confiance qu’ils fourniront des informations sur ce que le climat peut faire dans le futur ou même pourquoi le climat varie comme il le fait. Pour la question qui nous occupe, les estimations de la manière dont la température mondiale pourrait être affectée par les réductions d’émissions prévues par les réglementations seraient exagérées et non fiables.
(3) L’impact climatique des réglementations (c.-à-d. Paris) ne sera pas attribuable ou détectable
Personne ne connaît l’impact climatique des réductions d’émissions de carbone proposées et convenues à Paris. La principale raison en est que les pays disposent d’une grande latitude pour en faire autant ou aussi peu qu’ils le souhaitent. Si l’on examine l’histoire des émissions mondiales de carbone, il est clair que les pays, en particulier les pays en développement, continueront à chercher à développer l’utilisation de l’énergie par la combustion du carbone en raison de son caractère abordable et des avantages considérables qu’il procure à leurs citoyens.
Dans tous les cas, l’impact sur la température mondiale des réductions actuelles et proposées des gaz à effet de serre sera, au mieux, minuscule. Pour le démontrer, supposons, par exemple, que les émissions totales des États-Unis soient réduites à zéro, à partir du 13 mai 2015 dernier (date d’une audience à laquelle j’ai témoigné). En d’autres termes, à partir de ce jour et à l’avenir, il n’y aurait plus d’industrie, plus de voitures, plus de services publics, plus de personnes – c’est-à-dire que les États-Unis cesseraient d’exister à partir de ce jour. Les réglementations, bien sûr, ne réduiront les émissions que dans une faible mesure, mais pour montrer à quel point l’impact de la réglementation sera minuscule, nous allons tout simplement aller au-delà de la réalité et faire disparaître les États-Unis. Nous tenterons ainsi de répondre à la question de l’impact du changement climatique dû à la réduction des émissions.
À l’aide de l’outil d’impact du GIEC de l’ONU connu sous le nom de Modèle d’évaluation des changements climatiques induits par les gaz à effet de serre ou MAGICC [Model for the Assessment of Greenhouse-gas Induced Climate Change], Rob Junod, étudiant diplômé, et moi-même avons réduit la croissance prévue des émissions mondiales totales en fonction de la contribution des émissions américaines à partir de cette date. Nous avons également utilisé la valeur de la sensibilité du climat d’équilibre déterminée par des techniques empiriques, soit 1,8°C. Après 50 ans, l’impact tel que déterminé par ces calculs de modèle ne serait que de 0,05 à 0,08°C – une quantité inférieure à celle de la fluctuation de la température mondiale d’un mois à l’autre. [Ces calculs ont utilisé les scénarios d’émissions A1B-AIM et AIF-MI, les émissions américaines représentant 14% à 17% des émissions mondiales de 2015. Il existe des preuves que la sensibilité du climat est inférieure à 1,8°C, ce qui diminuerait encore ces projections].
Comme indiqué, l’impact sur les émissions mondiales et le climat mondial des récents accords de Paris concernant les émissions mondiales n’est pas exactement quantifiable. Il est pratiquement impossible de prévoir le comportement de chaque pays en matière d’émissions, sans compter qu’il est impossible de savoir comment les systèmes énergétiques eux-mêmes évolueront dans le temps.
Étant donné que l’arrêt des émissions de l’ensemble de notre pays aurait un impact calculé si minime sur le climat mondial, il est évident que des réductions fractionnées des émissions par le biais de la réglementation produiraient des résultats imperceptibles. En d’autres termes, il n’y aurait aucune preuve à l’avenir pour démontrer qu’un impact climatique particulier a été induit par les réglementations proposées et promulguées. Ainsi, les réglementations n’auront aucune conséquence significative ou utile sur le système climatique physique – même si l’on croit que les modèles climatiques sont des outils de prédiction utiles.
Résumé
Le changement climatique est un sujet très vaste qui présente de nombreuses difficultés. Nos connaissances de base sur l’évolution du climat (c’est-à-dire les mesures) sont entachées d’incertitudes. Dans mon témoignage d’aujourd’hui, j’ai montré que la température atmosphérique globale est suffisamment bien mesurée pour démontrer que notre compréhension de la façon dont les gaz à effet de serre affectent le climat est nettement insuffisante pour expliquer le climat depuis 1979. En particulier, le changement réel de la mesure fondamentale de la signature du réchauffement par effet de serre – la température atmosphérique globale où les modèles indiquent que la preuve la plus directe du réchauffement par effet de serre devrait se trouver – est considérablement déformé par les modèles. Bien qu’aucun ensemble de données ne soit parfait, la manière dont les ensembles de données de surface ont été élaborés laisse de nombreuses questions sans réponse, en particulier pour la récente mise à jour de la NOAA qui montre un réchauffement plus important que les autres. Enfin, les réglementations déjà appliquées ou en cours de proposition, telles que celles de l’Accord de Paris, n’auront pratiquement aucun impact sur l’évolution du climat.
Annexe A
Cette annexe est un extrait de mon témoignage écrit présenté lors de l’audience suivante:
Comité du Sénat américain sur le commerce, les sciences et les transports
Sous-comité sur l’espace, la science et la compétitivité
8 déc. 2015
Témoignage de John R. Christy
Université d’Alabama à Huntsville.
Impacts présumés des changements climatiques d’origine humaine concernant les événements extrêmes.
Une grande partie de la préoccupation liée à l’augmentation des concentrations de gaz à effet de serre s’est reportée, au cours de la dernière décennie, des changements de température globale aux changements dans les événements extrêmes, c’est-à-dire les événements qui ont généralement un impact négatif sur l’économie. Ces événements peuvent être des vagues de chaleur, des inondations, des ouragans, etc.
En ce qui concerne les vagues de chaleur, voici le nombre de jours de 100°F observés aux États-Unis à partir d’un ensemble contrôlé de stations météorologiques. Non seulement il est clair que le nombre de jours de chaleur n’a pas augmenté, mais il est intéressant de constater qu’au cours des dernières années, on en a observé une relative rareté.
Ci-dessus: Nombre moyen de jours par station dans chaque année atteignant ou dépassant 100°F dans 982 stations de la base de données USHCN (NOAA/NCEI, préparé par JRChristy).
Les incendies de forêt et les feux de friches sont documentés pour les États-Unis. Les données ci-dessous indiquent qu’il n’y a pas eu de changement dans la fréquence des incendies de forêt. La superficie (non représentée) montre également peu de changement.
Ci-dessus: Nombre d’incendies de forêt aux États-Unis. La gestion de ces événements change, et donc leur nombre également, mais le nombre d’événements depuis 1985 est resté constant. (National Interagency Fire Centerhttps://www.nifc.gov/fireInfo/nfn.htm)
Ci-dessus: Nombre d’incendies de forêt aux États-Unis par an depuis 1965.
Les deux chiffres ci-dessus montrent que la fréquence des incendies n’a pas augmenté aux États-Unis au cours des dernières décennies.
Les affirmations selon lesquelles les sécheresses et les inondations sont en augmentation peuvent également être examinées à la lumière des données d’observation.
Ci-dessus: Étendue surfacique mondiale de cinq niveaux de sécheresse pour 1982-2012 où la sécheresse est indiquée en rangs percentiles avec D0 < 30, D1 < 20, D2 < 10, D3 < 5 et D4 < 2 percentiles de la disponibilité moyenne de l’humidité. (Hao et al. 2014)
Ci-dessus: Fraction surfacique de la zone contiguë des États-Unis dans des conditions très humides (bleu) ou très sèches (rouge). NOAA/NCEI.
Les deux figures ci-dessus montrent que les conditions d’humidité n’ont pas montré de tendance à la baisse (plus de sécheresse) ou à la hausse (plus d’humidité à grande échelle). Ces informations sont rarement consultées lorsqu’il est plus commode de faire des affirmations non fondées selon lesquelles les extrêmes d’humidité, c’est-à-dire les sécheresses et les inondations (qui ont toujours existé), deviennent en quelque sorte encore plus extrêmes. Sur des périodes plus courtes et dans certains endroits, il est prouvé que les précipitations les plus fortes ont tendance à être plus importantes. Il ne s’agit pas d’un phénomène universel et il n’a pas été établi que ces changements puissent être dus à des modifications des concentrations de gaz à effet de serre, comme cela a été démontré précédemment, car les projections des modèles sont incapables de reproduire les mesures les plus simples.
Ci-dessus: Production mondiale de céréales 1961-2012. Organisation des Nations Unies pour l’alimentation et l’agriculture [FAO – Food and Agriculture Organization].
Il est facile de trouver des documents attestant de l’augmentation constante de la production de céréales. On peut s’interroger sur l’allégation du Conseil Fédéral de la Qualité de l’Environnement selon laquelle le changement climatique induit par l’homme a causé un « préjudice à l’agriculture », car si l’on considère la croissance totale de la production, qui semble s’accélérer, on pourrait supposer qu’aucun « préjudice » n’a été causé pendant une période d’augmentation des gaz à effet de serre.
Au vu des preuves fournies dans les exemples ci-dessus, il est évidemment difficile d’établir les affirmations concernant la détérioration des conditions dues au changement climatique d’origine humaine, ou plus généralement que tout changement pourrait être directement lié à l’augmentation du CO2. Ce point est également lié à la question de la capacité des modèles climatiques mentionnée précédemment. Il est clair que les modèles climatiques ne sont pas à la hauteur sur certaines questions très fondamentales de la variabilité climatique, étant incapables de reproduire « ce qui » s’est passé en matière de température globale, et donc de savoir « pourquoi » cela s’est produit. Il est donc prématuré d’affirmer que l’on connaît les causes des changements de diverses mesures exotiques du temps, telles que l’intensité des précipitations sur de courtes périodes, qui ne sont même pas explicitement générées dans les résultats des modèles climatiques.
Le décevant processus scientifique
J’ai beaucoup écrit, lors de précédentes audiences du Congrès et à d’autres occasions, sur l’incapacité de la communauté scientifique à aborder objectivement l’étude du climat et du changement climatique. (Voir l’annexe) La science du climat est une science obscure comportant de grandes incertitudes sur de nombreux éléments critiques tels que la répartition des nuages et les échanges thermiques de surface. Comme nous l’avons mentionné plus haut, il n’existe pas d’instrumentation objective qui puisse nous dire « pourquoi » les changements se produisent. Cela étant, il ne nous reste que des hypothèses (affirmations) à avancer, puis à tester. Les informations fournies ci-dessus montrent clairement, selon moi, que la compréhension théorique actuelle du « pourquoi » des changements climatiques, telle qu’incarnée dans les modèles (et sur laquelle la politique actuelle est basée), échoue à ces tests. En effet, le point de vue théorique (modèle) tel qu’il est exprimé dans le RE5 du GIEC a dans tous les cas surestimé la réaction de la température atmosphérique tropicale globale aux gaz à effet de serre supplémentaires (voir ci-dessus et la figure 10.SM.1 du matériel supplémentaire du GIEC), ce qui indique que la compréhension théorique de la réaction du climat est trop sensible aux gaz à effet de serre.
L’un des problèmes de notre science est lié au processus de financement des études climatiques, dont la grande majorité est assurée par des agences fédérales. Les décisions de financement sont prises par des personnes, et ces personnes ont des préjugés. Notre science a également connu une évolution vers une science de « consensus », où l' »accord » entre les personnes et les groupes est considéré comme supérieur à une enquête déterminée et objective. La triste progression des événements ici a même conduit à des enquêtes du Congrès destinées à faire taire (avec un certain succès) ceux dont les voix, y compris la mienne, ont contesté les points de vue politiquement corrects sur le climat (c’est-à-dire l’enquête du Congrès par le représentant Grijalva, 22 février 2015, http://www.scribd.com/doc/256811029/Letter-to-UAH-re-John-Christy).
Aujourd’hui, les décisions de financement sont prises par des comités d’examen. Dans ce processus, de nombreuses propositions de financement sont soumises aux agences, mais ces dernières ne disposent que d’une fraction des fonds disponibles pour soutenir les propositions, de sorte que seules quelques propositions peuvent être financées et celles-ci sont sélectionnées par les comités. Dans le domaine du climat, il est clair que les agences sont convaincues de la vision consensuelle d’un changement climatique dangereux, comme l’indiquent leurs diverses déclarations et communiqués de presse sur la question. Par conséquent, lorsqu’une proposition contraire est soumise, qui cherche à découvrir d’autres explications possibles que les gaz à effet de serre pour les petits changements que nous observons actuellement, ou une proposition qui cherche à examiner rigoureusement et objectivement les résultats des modèles climatiques, elle n’a pratiquement aucune chance d’être financée. Cela se produit parce que le comité détermine par un vote majoritaire qui financer, et avec une concurrence serrée, tout parti pris de quelques membres du comité contre une proposition contraire est suffisant pour être rejeté. Bien sûr, les agences prétendront que tout est fait en toute objectivité, mais ce serait précisément la réponse attendue d’une personne faisant déjà partie du « consensus » et dont l’agence a déclaré sa position sur le changement climatique. Ceci m’amène au « consensus scientifique ».
L’expression « consensus scientifique » est souvent invoquée dans les débats sur le changement climatique pour étayer une affirmation. Il s’agit d’une forme d' »argument d’autorité ». Le consensus est toutefois une notion politique, et non une notion scientifique. Comme j’ai témoigné devant l’Inter-Academy Council en juin 2010, comme je l’ai écrit dans Nature la même année (Christy 2010), et comme je l’ai documenté dans mon témoignage écrit pour plusieurs audiences du Congrès (par exemple, House Space, Science and Technology, 31 mars 2011), le GIEC et d’autres évaluations similaires ne représentent pas pour moi un consensus de beaucoup plus que le consensus de ceux qui sont sélectionnés pour être d’accord avec un consensus particulier.
Le contenu de ces rapports sur le climat est en fait sous le contrôle d’un nombre relativement restreint d’individus – je les appelle souvent « l’establishment du climat » – qui, au fil des ans, en sont venus, à mon avis, à agir comme des gardiens de l’opinion et de l’information scientifiques, plutôt que comme des intermédiaires. Les voix de ceux d’entre nous qui s’opposent à certaines déclarations et à certaines emphases dans ces évaluations sont, dans l’ensemble, rejetées plutôt que prises en compte. Cet establishment inclut les mêmes personnes qui deviennent les « experts » appelés à promouvoir les affirmations du GIEC dans les rapports gouvernementaux tels que la conclusion de mise en danger par l’Agence de Protection de l’Environnement.
Comme je l’ai souligné dans mes précédents témoignages, ces « experts » deviennent les auteurs et les évaluateurs de leurs propres recherches par rapport aux recherches qui remettent en cause leur travail. Cela devient un conflit d’intérêt évident. Mais avec le luxe d’avoir le « dernier mot » en tant qu’auteurs « experts » des rapports, les opinions alternatives disparaissent. Ce n’est pas un processus qui fournit les meilleures informations aux représentants du peuple. Le Congrès américain doit disposer de l’ensemble des points de vue sur des questions telles que le changement climatique qui sont (a) caractérisées par une ambiguïté considérable (voir les résultats des modèles) (b) utilisées pour promouvoir des actions réglementaires qui seront économiquement préjudiciables au peuple américain et, le plus ironique, (c) n’auront aucun impact sur ce que fera le climat.
J’ai souvent déclaré que la science du climat est une science « obscure ». Nous ne disposons pas de méthodes de laboratoire pour tester nos hypothèses, contrairement à de nombreuses autres sciences. Par conséquent, ce qui passe pour de la science inclut l’opinion, les arguments d’autorité, les communiqués de presse spectaculaires et les notions floues de consensus générées par des groupes présélectionnés. Ce n’est pas de la science.
Nous savons, grâce aux courriels du Climategate et à de nombreuses autres sources, que le GIEC a eu des problèmes avec ceux qui adoptent des positions sur le changement climatique différentes de celles qu’il promeut. Il existe cependant une autre façon de traiter ce problème. Puisque l’activité du GIEC et la recherche sur le climat en général sont financées par les contribuables américains, je propose que cinq à dix pour cent des fonds soient alloués à un groupe de scientifiques reconnus pour produire une évaluation qui exprime des hypothèses alternatives légitimes qui ont été (à leur avis) marginalisées, déformées ou ignorées dans les rapports précédents du GIEC (et donc dans l’Endangerment Finding de l’APE et les National Climate Assessments).
De telles activités sont souvent appelées rapports « Red Team » [équipes rouges] et sont largement utilisées par le gouvernement et l’industrie. Les décisions relatives au financement des « Red Teams » ne devraient pas être confiées à l' »establishment » actuel, mais à des panels composés de scientifiques accrédités ayant l’expérience de l’examen de ces questions. Certains efforts dans ce sens ont été déployés par le secteur privé (par exemple, le Groupe d’Experts Non-gouvernemental International sur l’Evolution du Climat, à l’adresse http://nipccreport.org/ et Michaels (2012) ADDENDUM: Global Climate Change Impacts in the United States). Je pense que les décideurs politiques, avec l’argent du public, devraient soutenir activement la collecte de toutes les informations essentielles pour aborder cette science trouble et vicieuse, puisque le public paiera en fin de compte le coût de toute législation censée agir sur le climat.
Les sujets à aborder dans cette évaluation de la « Red Team » seraient, par exemple, les suivants : (a) les preuves d’une faible sensibilité du climat à l’augmentation des gaz à effet de serre, (b) le rôle et l’importance de la variabilité naturelle et imprévue, (c) une évaluation rigoureuse et indépendante des résultats des modèles climatiques, (d) une discussion approfondie de l’incertitude, (e) l’accent mis sur les paramètres les plus directement liés au taux d’accumulation de chaleur dans le système climatique, (f) l’analyse des nombreuses conséquences, y compris les avantages, qui résultent de l’augmentation du CO2, et (g) l’importance d’une énergie abordable et accessible pour la santé et le bien-être de l’homme.
L’objectif de cette proposition est de fournir au Congrès et aux autres décideurs une évaluation parallèle, scientifiquement fondée, de l’état de la science du climat, qui aborde des questions qui n’ont pas été ou ont été sous-représentées dans les rapports précédents sur le climat, financés par les contribuables et dirigés par le gouvernement. En d’autres termes, nos décideurs politiques ont besoin de voir l’ensemble des découvertes concernant le changement climatique.
Résumé de l’extrait
Les messages des deux points soulignés dans l’extrait ci-dessus sont les suivants: (1) les affirmations concernant l’augmentation de la fréquence et de l’intensité des événements extrêmes ne sont généralement pas étayées par des observations réelles et, (2) les informations officielles sur la science du climat sont largement contrôlées par les agences par le biais (a) des choix de financement de la recherche et (b) de la sélection minutieuse (c’est-à-dire biaisée) des auteurs de rapports tels que l’Endangerment Finding de l’APE et le National Climate Assessment.
Texte original
U.S. House Committee on Science, Space & Technology
2 Feb 2016
Testimony of John R. Christy
University of Alabama in Huntsville.
I am John R. Christy, Distinguished Professor of Atmospheric Science, Alabama’s State Climatologist and Director of the Earth System Science Center at The University of Alabama in Huntsville. I have served as Lead Author, Contributing Author and Reviewer of United Nations IPCC assessments, have been awarded NASA’s Medal for Exceptional Scientific Achievement, and in 2002 was elected a Fellow of the American Meteorological Society.
It is a privilege for me to offer my analysis of the current situation regarding (1) the temperature datasets used to study climate, (2) our basic understanding of climate change and (3) the effect that regulations, such as the Paris agreement, might have on climate. I have also attached an extract from my Senate Testimony last December in which I address (1) the popular notion that extreme climate events are increasing due to human-induced climate change (they are not), and (2) the unfortunate direction research in this area has taken.
My research area might be best described as building datasets from scratch to advance our understanding of what the climate is doing and why – an activity I began as a teenager over 50 years ago. I have used traditional surface observations as well as measurements from balloons and satellites to document the climate story. Many of our UAH datasets are used to test hypotheses of climate variability and change.
(1.1) Upper air temperature data from satellites and balloons
I shall begin with a discussion that was precipitated by an increasingly active campaign of negative assertions made against the observations, i.e. the data, of upper air temperatures. Figure 1 in particular has drawn considerable attention from those who view the climate system as undergoing a rapid, human-caused transformation into a climate to which people would have great difficulty adapting. This simple chart tells the story that the average model projection, on which their fears (or hopes?) are based, does poorly for the fundamental temperature metric that is allegedly the most responsive to extra greenhouse gases – the bulk atmospheric temperature of the layer from the surface to 50,000ft. [The layer shown is known as the mid-troposphere or MT and is used because it overlaps with the region of the tropical atmosphere that has the largest anticipated signature of the greenhouse response by bulk mass – between 20,000 and 50,000 feet.] The chart indicates that the theory of how climate changes occur, and the associated impact of extra greenhouse gases, is not understood well enough to even reproduce the past climate [much more in section (2)]. Indeed, the models clearly over-cook the atmosphere. The issue for congress here is that such demonstrably deficient model projections are being used to make policy.
Fig. 1: Five-year averaged values of annual mean (1979-2015) global bulk (termed “mid-tropospheric” or “MT”) temperature as depicted by the average of 102 IPCC CMIP5 climate models (red), the average of 3 satellite datasets (green – UAH, RSS, NOAA) and 4 balloon datasets (blue, NOAA, UKMet, RICH, RAOBCORE).
Because this result challenges the current theory of greenhouse warming in relatively straightforward fashion, there have been several well-funded attacks on those of us who build and use such datasets and on the datasets themselves. As a climate scientist I’ve found myself, along with fellow like-minded colleagues, tossed into a world more closely associated with character assassination and misdirection, found in Washington politics for example, rather than objective, dispassionate discourse commonly assumed for the scientific endeavor. Investigations of us by congress and the media are spurred by the idea that anyone who disagrees with the climate establishment’s view of dangerous climate change must be on the payroll of scurrilous organizations or otherwise mentally deficient.
Also thrust into this milieu is promotional material, i.e., propaganda, attempting to discredit these data (and researchers) with claims that amount to nothing.
Several of these allegations against the data appeared a few weeks ago in the form of a well-made video. I shall address the main assertions with the following material, which in similar form has appeared in the peer-reviewed literature through the years.
The video of interest was promoted by a climate change pressure group (Yale Climate Connections, http://www.yaleclimateconnections.org/2016/01/over-reliance-on-satellite-data-alone-criticized/) in which well-known scientists make claims that are mostly meaningless or completely wrong relative to the evidence in Fig. 1. I wish to make four points regarding the video and demonstrate the misdirection for which such agendized videos, along with a happily mimicking media, are so famous.
First, the claim is made the satellites do not measure temperature. In reality, the sensors on satellites measure temperature by emitted radiation – the same method that a physician uses to measure your body temperature to high precision using an ear probe. Atmospheric oxygen emits microwaves, the intensity of which is directly proportional to the temperature of the oxygen, and thus the atmosphere. That the satellites measure temperature is evident by the following chart which compares our UAH satellite data with temperatures calculated from balloon thermistors. As an aside, most surface temperature measurements are indirect, using electronic resistance.
Fig. 2: Average temperature variations measured at 59 radiosonde stations in the U.S. (VIZ manufacturer) and Australia.
Secondly, the scientists claim that the vertical drop (orbital decay) of the satellites due to atmospheric friction causes spurious cooling through time. This vertical fall has an immeasurable impact on the layer (MT) used here and so is a meaningless claim. In much earlier versions of another layer product (LT or Lower Troposphere), this was a problem, but was easily corrected almost 20 years ago. Thus, bringing up issues that affected a different variable that, in any case, was fixed many years ago is a clear misdirection that, in my view, demonstrates the weakness of their position.
Thirdly, the scientists speak of the spurious temperature changes that occur as the satellites drift in the east-west direction, the so-called diurnal drift problem (which was first detected and accounted for by us). They speak of a sign error in the correction procedure that changed the trend. Again, this error was not a factor in the MT layer in Fig. 1, but for the different LT layer. And, again, this issue was dealt with for LT 10 years ago.
Finally, though not specifically mentioned in this video, some of these scientists claim Fig. 1 above is somehow manipulated to hide their belief in the prowess and validity of the climate models. To this, on the contrary, I say that we have displayed the data in its most meaningful way. The issue here is the rate of warming of the bulk atmosphere, i.e., the trend. This metric tells us how rapidly heat is accumulating in the atmosphere – the fundamental metric of global warming. To depict this visually, I have adjusted all of the datasets so that they have a common origin. Think of this analogy: I have run over 500 races in the past 25 years, and in each one all of the runners start at the same place at the same time for the simple purpose of determining who is fastest and by how much at the finish line. Obviously, the overall relative speed of the runners is most clearly determined by their placement as they cross the finish line – but they must all start together.
In the same way I constructed the chart so that the trend line of all of the temperature time series starts at the same point in magnitude and time (zero value at 1979) so the viewer may see how wide the spread is at the finish line (2015). One way to look at this is seen in Fig. 3 where I provide what is seen in Fig. 1 except this is only the trend line without the variations that occur from year due to volcanoes and such. This is analogous to plotting the overall average speed of a runner along the course even though they likely ran slower on an uphill, and faster on a downhill.
This image indicates the models, on average, warm this global layer about 2.5 times faster than the observations indicate. This is a significant difference that has not beenexplained and indicates the theory of greenhouse impact on atmospheric temperature is not sufficiently known to even reproduce what has already happened. We are not talking about 10 or 15 years here, but 37 years – well over a third of a century. That two very independent types of measuring systems (balloons and satellites) constructed by a variety of institutions (government, university, private) all showing the much slower rate of warming gives high confidence in its result. Thus, the evidence here strongly suggests the theory, as embodied in models, goes much too far in forcing the atmosphere to retain heat when in reality the atmosphere has a means to relinquish that heat and thus warms at a much slower rate.
Fig. 3: The linear trend line over the period 1979-2015. The colors represent the same source data as in fig. 1.
I’ve shown here that for the global bulk atmosphere, the models overwarm the atmosphere by a factor of about 2.5. As a further note, if one focuses on the tropics, the models show an even stronger greenhouse warming in this layer. However, a similar calculation with observations as shown in Fig. 3 indicates the models over-warm the tropical atmosphere by a factor of approximately 3, (Models +0.265, Satellites +0.095, Balloons +0.073 °C/decade) again indicating the current theory is at odds with the facts. (again, see section 2.)
It is a bold strategy in my view to actively promote the output of theoretical climate models while attacking the multiple lines of evidence from observations. Note that none of the observational datasets are perfect and continued scrutiny is healthy, but when multiple, independent groups generate the datasets and then when the results for two completely independent systems (balloons and satellites) agree closely with each other and disagree with the model output, one is left scratching one’s head at the decision to launch an offensive against the data. This doesn’t make scientific sense to me.
(1.2) Surface temperature issues
There are several issues regarding surface temperature datasets that are too involved to discuss in this material. I shall focus on a few points with which I am familiar and on which I have published.
(1.2.a) Surface temperature as a metric for detecting the influence of the increasing concentrations of greenhouse gases
One of my many climate interests is the way surface temperatures are measured and how surface temperatures, especially over land, are affected by their surroundings. In several papers (Christy et al. 2006 J. Climate, Christy et al. 2009 J. Climate, Christy 2013 J. Appl. Meteor. Clim., Christy et al. 2016 J. Appl. Meteor. Clim.) I closely examined individual stations in different regions and have come to the conclusion that the magnitude of the relatively small signal we seek in human-induced climate change is easily convoluted by the growth of infrastructure around the thermometer stations and the variety of changes these stations undergo through time, as well as the variability of the natural ups and downs of climate. It is difficult to adjust for these contaminating factors to extract a pure dataset for greenhouse detection because often the non-climatic influence comes along very gradually just as is expected of the response to the enhanced greenhouse effect.
In examining ocean temperatures (Christy et al. 2001, Geophys. Res. Lett.) I discovered that the trends of the water temperature (1m depth) do not track well with those of the air temperature just above the water (3m), even if both are measured on the same buoy over 20 years. This is important for the discussion below where NOAA used marine air temperatures to adjust water temperature measurements from ships.
There are many other factors that render surface temperature datasets to be of low effectiveness for the detection of enhanced greenhouse warming, (a) lack of systematic geographical coverage in time, (b) unsystematic measuring methods and instrumentationin time and space, (c) the point measurement represents at best a tiny, local area and (d) is easily impacted by slight changes in the surroundings, which can occur for example when a station moves. There have been huge efforts to try and adjust the raw surface data to give a time series that would represent that of a pristine environment, and I have led or been a part in some of these (e.g. for Central California in Christy et al. 2006 and East Africa in Christy et al. 2009 and Christy 2013).
Thus, having experience in building surface, satellite and balloon temperature datasets, and taking into account the signal we are looking for to detect the enhanced greenhouse effect, the evidence suggests to me that utilizing the bulk atmospheric measurements provides the best opportunity to answer questions about the climate’s response to this human-induced change in atmospheric composition. The deep atmosphere is much more coherent in space and time in terms of its variations. It is not affected by human development at the surface. It is measured systematically. To be sure, satellite and balloon temperatures require their own adjustments and cannot be considered “perfect”, but do offer an independence from one another to allow direct comparison studies. Regarding the detection of the enhanced greenhouse effect, the troposphere, as indicated by models, happens to be the atmospheric region that will respond the most, i.e. warm the fastest, and thus, in my view, is a metric that provides a better way to detect human influence on the climate.
(1.2.b) The new NOAA surface temperature dataset
A series of papers appeared last year (including Huang et al. 2015 J. Climate, Karl et al. 2015 Science) describing a new surface temperature dataset constructed by NOAA which indicated a bit more warming in the past 10 to 25 years than the previous versions. The key change dealt with seawater temperatures in the dataset now known as ERSSTv4. This change introduced an additional warming into the record from about 1990 onward. The main reason for this new warming, as the authors note, was the adjustment applied to buoy data, adding about +0.12 °C to the buoy readings. In 1980, only about 10 percent of the data reports were from buoys, but by 2000 about 90 percent were buoy data. Thus, because the influence of the buoy data grew significantly through time, the simple addition of a bias to all the buoys from the beginning created a warmer trend as they became the dominate source of information.
Some background is necessary. Unlike satellite and balloon datasets which measure a systematic quantity (essentially atmospheric air temperature), surface temperature datasets are a mixture of air (over land) and water (over ocean) temperatures measured over a considerable range of instruments, exposures and methods. Over land, weather stations measure the temperature of the air in varying types of instrument shelters and by varying techniques at a level about 5 ft above the ground. Over the ocean, however, the temperature utilized is that of the water itself, not the air above, so traditional global surface datasets do not measure a homogenous physical parameter over land versus ocean. Further, the depth of the water temperature measurement is quite varied from 2 ft to 50 ft or so, by methods that range from buckets drawn up on deck into which a thermometer is inserted to engine-intake temperatures much deeper in the water and to buoys, drifting or moored to the bottom. So the fact temperature varies by depth is an issue to tackle before the possibility of constructing a systematic dataset may be attempted. Then too, the measurements are not spatially or temporally consistent with large regions, such as Africa and the southern oceans, unmeasured.
Keep in mind that even though the trend of this NOAA dataset became more positive in the past 10 to 20 years, it is still below climate model projections over the longer term. For longer periods, such as the period since 1979 when satellites began measuring bulk atmospheric temperatures, the new global dataset is similar to that of the Hadley Centre (1979-2015: NOAA +0.155 °C/decade, Hadley Centre UKMet, +0.165 °C/decade). However, there are questions that remain concerning the new NOAA seawater dataset, especially how it indicates more warming in the last 20 years than others. Figure 4 displays the ocean trends for the region 20S to 60N (i.e. tropical and northern hemisphere oceans – there was too little data south of 20S for generating near-surface air temperatures there). There are 4 datasets represented, NOAA (NOAA, red), Hadley Centre (HadCRUT4, orange), a preliminary near-surface air temperature over the oceans by my graduate student Rob Junod (yellow) and the UAH deep layer air temperature from satellites (blue). Both NOAA and HadCRUT4 are temperatures of the seawater near the surface, so should be the same.
NOAA used a curious reference variable to calibrate the water temperatures measured from ship intakes – the Night Marine Air Temperature (NMAT). This is curious because there are considerable adjustments required for the NMATs themselves, i.e. corrections for height of ship deck, etc. In any case, from this, the buoy data were then adjusted to match the ship data. It appears, then, that the foundational adjustment process depends on NMATs to adjust the ship data to then adjust the buoy data. The final product from NOAA mixes all of these together, and because the geographic representation of the different systems changed dramatically (as noted, from approximately 10% buoys and 90% ships in 1980 to 90% buoys and 10% ships today – Huang et al. 2015), an adjustment applied to the buoys will automatically influence the trend.
I’m aware that the Committee sought information about this curious process and asked NOAA to generate datasets based only on consistent measuring systems, i.e. ships alone, buoys alone and NMATs alone, to see if one system might have impacted the trends improperly due to distribution changes. NOAA was unable to accommodate this request. At the same time I asked my graduate student, Rob Junod, to do the work for NMAT. What is presented here is preliminary, but follows much of the previous work on NMATs (developed at the National Oceanographic Centre and the Hadley Centre in the UK) with that added advantage of being updated to 2014. The best geographical data coverage was found to be 20°S to 60°N, so this area was also applied to the other datasets for an apples to apples comparison. The results are shown in Fig. 4 in which all trends end in 2014 but cover periods in two-year increments from 20 years to 10 years.
Figure 4. Decadal trends (°C/decade) of four temperature datasets over the oceans from 20°S to 60°N for varying periods ending in 2014. Red and orange are surface seawater temperature datasets from NOAA and the Hadley Centre (HadCRUT4). Yellow is a near-surface air temperature dataset (Night Marine Air Temperature) built by UAH (preliminary). Blue is the temperature trend of the deep atmosphere (surface to 35,000 ft or Lower Troposphere) from microwave emissions captured by satellites (also UAHv6.0b5.)
A number of observations are evident in Fig. 4. (1) In terms of the temperature trend, the air temperatures are less than those of the water (as indicated in my 2001 study mentioned above.) (2) NOAA warms the fastest in all periods. (3) In the past 10-14years, the trends of the HadCRUT4 agree better with the near-surface air temperature dataset (being near zero and supporting the notion of a hiatus) than with the trends from its physically-identical quantity from NOAA. (4) The magnitude of the NMAT trends lies between the trends of the deep atmospheric and sea water.
This figure generates a number of data quality questions too. (1) If NMATs were used to calibrate the ship temperatures and then the ships were used to calibrate the buoy temperatures, why does the NOAA dataset differ so much from its basic reference point – NMATs? (2) What do the time series look like and what are the sub-period trends for seawater under the condition that only ships and/or only buoys are used to build the dataset for the past 20-25 years? (3) What does the time series of NOAA’s NMAT (i.e. their reference) dataset show?
The real science questions here are those which have significant importance to the understanding of how extra greenhouse gases might affect the climate as shown in the following section.
(2) How well do we understand climate change?
A critical scientific goal in our era is to determine whether emissions from human activities impact the climate and if so by how much. This is made especially difficult because we know the climate system already is subject to significant changes without the influence of humans. Because there is no measuring device that explicitly determines the cause of the climate changes we can measure, such as temperature, our science must take a different approach to seek understanding as to what causes the changes, i.e. how much is natural and how much is human induced. The basic approach today utilizes climate models. (The projections of these models are being utilized for carbon policies as well.)
It is important to understand that output from these models, (i.e. projections of the future climate and the specific link that increasing CO2 might have on the climate) are properly defined as scientific hypotheses or claims – model output cannot be considered as providing proof of the links between climate variations and greenhouse gases. These models are complex computer programs which attempt to describe through mathematical equations as many factors that affect the climate as is possible and thus estimate how the climate might change in the future. The model, it is hoped, will provide accurate responses of the climate variables, like temperature, when extra greenhouse gases are included in the model. However, the equations for nearly all of the important climate processes are not exact, representing the best approximations modelers can devise and that computers can handle at this point.
A fundamental aspect of the scientific method is that if we say we understand a system (such as the climate system) then we should be able to predict its behavior. If we are unable to make accurate predictions, then at least some of the factors in the system are not well defined or perhaps even missing. [Note, however, that merely replicating the behavior of the system (i.e. reproducing “what” the climate does) does not guarantee that the fundamental physics are well-known. In other words, it is possible to obtain the right answer for the wrong reasons, i.e. getting the “what” of climate right but missing the “why”.]
Do we understand how greenhouse gases affect the climate, i.e. the link between emissions and climate effects? As noted above, a very basic metric for climate studies is the temperature of the bulk atmospheric layer known as the troposphere, roughly from the surface to 50,000 ft altitude. This is the layer that, according to models, should warm significantly as CO2 increases – even faster than the surface. Unlike the surface temperature, this bulk temperature informs us about the crux of the global warming question – how much heat is accumulating in the global atmosphere? And, this CO2- caused warming should be easily detectible by now, according to models. This provides a good test of how well we understand the climate system because since 1979 we have had two independent means of monitoring this layer – satellites from above and balloons with thermometers released from the surface.
I was able to access 102 CMIP-5 rcp4.5 (representative concentration pathways) climate model simulations of the atmospheric temperatures for the tropospheric layer and generate bulk temperatures from the models for an apples-to-apples comparison with the observations from satellites and balloons. These models were developed in institutions throughout the world and used in the IPCC AR5 Scientific Assessment (2013).
Above: Global average mid-tropospheric temperature variations (5-year averages) for 32 models (lines) representing 102 individual simulations. Circles (balloons) and squares (satellites) depict the observations. The Russian model (INM-CM4) was the only model close to the observations.
The information in this figure provides clear evidence that the models have a strong tendency to over-warm the atmosphere relative to actual observations. On average the models warm the global atmosphere at a rate 2.5 times that of the real world. This is not a short-term, specially-selected episode, but represents the past 37 years, over a third of a century. This is also the period with the highest concentration of greenhouse gases and thus the period in which the response should be of largest magnitude.
Following the scientific method of testing claims against data, we would conclude that the models do not accurately represent at least some of the important processes that impact the climate because they were unable to “predict” what has already occurred. In other words, these models failed at the simple test of telling us “what” has already happened, and thus would not be in a position to give us a confident answer to “what” may happen in the future and “why.” As such, they would be of highly questionable value in determining policy that should depend on a very confident understanding of how the climate system works.
There is a related climate metric that also utilizes atmospheric temperature which in models has an even larger response than that of the global average shown above. This metric, then, provides a stronger test for understanding how well models perform regarding greenhouse gases specifically. In the models, the tropical atmosphere warms significantly in response to the added greenhouse gases – more so than that of the global average atmospheric temperature.
Above: Tropical average mid-tropospheric temperature variations (5-year averages) for 32 models (lines) representing 102 individual simulations. Circles (balloons) and squares (satellites) depict the observations.
In the tropical comparison here, the disparity between models and observations is even greater, with models on average warming this atmospheric region by a factor of three times greater than in reality. Such a result re-enforces the implication above that the models have much improvement to undergo before we may have confidence they will provide information about what the climate may do in the future or even why the climate varies as it does. For the issue at hand, estimates of how the global temperature might be affected by emission reductions from regulations would be exaggerated and not reliable.
(3) Climate Impact of Regulations (i.e. Paris) Will Not Be Attributable or Detectable
No one knows the climate impact of the proposed carbon emission reductions agreed to in Paris. The main reason for this is that there is considerable latitude for countries to do as little or as much as they desire. Examining the history of global carbon emissions, it is clear that countries, especially developing countries, will continue to seek to expand energy use through carbon combustion because of their affordability in providing considerable positive benefits to their citizens.
In any case, impact on global temperature for current and proposed reductions in greenhouse gases will be tiny at best. To demonstrate this, let us assume, for example, that the total emissions from the United States were reduced to zero, as of last May 13th, 2015 (the date of a hearing at which I testified). In other words as of that day and going forward, there would be no industry, no cars, no utilities, no people – i.e. the United States would cease to exist as of that day. Regulations, of course, will only reduce emissions a small amount, but to make the point of how minuscule the regulatory impact will be, we shall simply go way beyond reality and cause the United States to vanish. With this we shall attempt to answer the question of climate change impact due to emissions reductions.
Using the U.N. IPCC impact tool known as Model for the Assessment of Greenhouse-gas Induced Climate Change or MAGICC, graduate student Rob Junod and I reduced the projected growth in total global emissions by U.S. emission contribution starting on this date and continuing on. We also used the value of the equilibrium climate sensitivity as determined from empirical techniques of 1.8 °C. After 50 years, the impact as determined by these model calculations would be only 0.05 to 0.08 °C – an amount less than that which the global temperature fluctuates from month to month. [These calculations used emission scenarios A1B-AIM and AIF-MI with U.S. emissions comprising 14 percent to 17 percent of the 2015 global emissions. There is evidence that the climate sensitivity is less than 1.8 °C, which would further lower these projections.]
As noted, the impact on global emission and global climate of the recent agreements in Paris regarding global emissions is not exactly quantifiable. Knowing how each country will behave regarding their emissions is essentially impossible to predict besides the added issue of not knowing how energy systems themselves will evolve over time.
Because halting the emissions of our entire country would have such a tiny calculated impact on global climate, it is obvious that fractional reductions in emissions through regulation would produce imperceptible results. In other words, there would be no evidence in the future to demonstrate that a particular climate impact was induced by the proposed and enacted regulations. Thus, the regulations will have no meaningful or useful consequence on the physical climate system – even if one believes climate models are useful tools for prediction.
Summary
Climate change is a wide-ranging topic with many difficulties. Our basic knowledge about what the climate is doing (i.e. measurements) is plagued by uncertainties. In my testimony today I have given evidence that the bulk atmospheric temperature is measured well-enough to demonstrate that our understanding of how greenhouse gases affect the climate is significantly inadequate to explain the climate since 1979. In particular, the actual change of the fundamental metric of the greenhouse warming signature – the bulk atmospheric temperature where models indicate the most direct evidence for greenhouse warming should lie – is significantly misrepresented by the models. Though no dataset is perfect, the way in which surface datasets have been constructed leaves many unanswered questions, especially for the recent NOAA update which shows more warming than the others. Finally, regulations already enforced or being proposed, such as those from the Paris Agreement, will have virtually no impact on whatever the climate is going to do.
Appendix A
This appendix is an extract from my written testimony presented at the following Hearing:
U.S. Senate Committee on Commerce, Science, & Transportation
Subcommittee on Space, Science and Competitiveness
8 Dec 2015
Testimony of John R. Christy
University of Alabama in Huntsville.
Alleged impacts of human-induced climate changes regarding extreme events
Much of the alarm related to increasing greenhouse gas concentrations shifted in the past decade from global temperature changes to changes in extreme events, i.e. those events which typically have a negative impact on the economy. These events may be heat waves, floods, hurricanes, etc.
In terms of heat waves, below is the number of 100°F days observed in the U.S. from a controlled set of weather stations. It is not only clear that hot days have not increased, but it is interesting that in the most recent years there has been a relative dearth of them.
Above: Average number of days per-station in each year reaching or exceeding 100°F in 982 stations of the USHCN database (NOAA/NCEI, prepared by JRChristy).
Forest and wild fires are documented for the US. The evidence below indicates there has not been any change in frequency of wildfires. Acreage (not shown) shows little change as well.
Above: Number of U.S. wildfires. As the management of these events changes, and thus the number also changes, but the number of events since 1985 has remained constant. (National Interagency Fire Center https://www.nifc.gov/fireInfo/nfn.htm)
Above: Number of U.S. forest fires per year since 1965.
The two figures above demonstrate that fire events have not increased in frequency in the United States during the past several decades.
The claims that droughts and floods are increasing may be examined by the observational record as well.
Above: Global areal extent of five levels of drought for 1982-2012 where dryness is indicated in percentile rankings with D0 < 30, D1 < 20, D2 < 10, D3 < 5 and D4 < 2 percentile of average moisture availability. (Hao et al. 2014)
Above: Areal fraction of conterminous U.S. under very wet (blue) or very dry (red) conditions. NOAA/NCEI.
The two figures above demonstrate that moisture conditions have not shown a tendency to have decreased (more drought) or increased (more large-scale wetness). Such information is rarely consulted when it is more convenient simply to make unsubstantiated claims that moisture extremes, i.e. droughts and floods (which have always occurred), are somehow becoming even more extreme. Over shorter periods and in certain locations, there is evidence that the heaviest precipitation events are tending to be greater. This is not a universal phenomenon and it has not been established that such changes may be due to changes in greenhouse gas concentrations as demonstrated earlier because the model projections are unable to reproduce the simplest of metrics.
Above: World grain production 1961-2012. U.N. Food and Agriculture Organization.
It is a simple matter to find documentation of the ever-rising production of grains. One wonders about the Federal Council on Environmental Quality’s allegation that there has been “harm to agriculture” from human-induced climate change because when viewing the total growth in production, which appears to be accelerating, one would assume no “harm” has been done during a period of rising greenhouse gases.
With the evidence in these examples above, it is obviously difficult to establish the claims about worsening conditions due to human-caused climate change, or more generally that any change could be directly linked to increasing CO2. This point also relates to the issue of climate model capability noted earlier. It is clear that climate models fall short on some very basic issues of climate variability, being unable to reproduce “what” has happened regarding global temperature, and therefore not knowing “why” any of it happened. It is therefore premature to claim that one knows the causes for changes in various exotic measures of weather, such as rainfall intensity over short periods, which are not even explicitly generated in climate model output.
The Disappointing Scientific Process
I have written much for previous congressional hearings and other venues about the failure of the scientific community to objectively approach the study of climate and climate change. (See Appendix) Climate science is a murky science with large uncertainties on many critical components such as cloud distributions and surface heat exchanges. As mentioned above, there is no objective instrumentation that can tell us “why” changes occur. That being the case, we are left with hypotheses (claims) to put forward and then to test. The information given above, in my view, is clear evidence that the current theoretical understanding of “why” the climate changes, as embodied in models (and on which current policy is based), fails such tests. Indeed, the theoretical (model) view as expressed in the IPCC AR5 in every case overestimated the bulk tropical atmospheric temperature response of extra greenhouse gases (see above and IPCC Supplementary Material Figure 10.SM.1) indicating the theoretical understanding of the climate response is too sensitive to greenhouse gases.
One problem with our science relates to the funding process for climate studies, the vast majority of which is provided through federal agencies. Funding decisions are decided by people, and people have biases. Our science has also seen the move toward “consensus” science where “agreement” between people and groups is elevated above determined, objective investigation. The sad progression of events here has even led to congressional investigations designed to silence (with some success) those whose voices, including my own, have challenged the politically-correct views on climate (i.e. congressional investigation by Rep. Grijalva, 22 Feb 2015, http://www.scribd.com/doc/256811029/Letter-to-UAH-re-John-Christy.)
Today, funding decisions are made by review panels. In this process, many proposals for funding are submitted to the agencies, but the agencies only have a fraction of the funds available to support the proposals, so only a few proposals can be funded and these are selected by panels. In the area of climate, it is clear the agencies are convinced of the consensus view of dangerous climate change as indicated by their various statements and press releases on the issue. Therefore, when a contrarian proposal is submitted that seeks to discover other possible explanations besides greenhouse gases for the small changes we now see, or one that seeks to rigorously and objectively investigate climate model output, there is virtually no chance for funding. This occurs because the panel determines by majority vote whom to fund, and with tight competition, any bias by just a couple of panel members against a contrarian proposal is sufficient for rejection. Of course, the agencies will claim all is done in complete objectivity, but that would be precisely the expected response of someone already within the “consensus” and whose agency has stated its position on climate change. This brings me to “consensus science.”
The term “consensus science” will often be appealed to regarding arguments about climate change to bolster an assertion. This is a form of “argument from authority.” Consensus, however, is a political notion, not a scientific notion. As I testified to the Inter-Academy Council in June 2010, wrote in Nature that same year (Christy 2010), and documented in my written testimony for several congressional hearings (e.g., House Space, Science and Technology, 31 Mar 2011) the IPCC and other similar Assessments do not represent for me a consensus of much more than the consensus of those selected to agree with a particular consensus.
The content of these climate reports is actually under the control of a relatively small number of individuals – I often refer to them as the “climate establishment” – who through the years, in my opinion, came to act as gatekeepers of scientific opinion and information, rather than brokers. The voices of those of us who object to various statements and emphases in these assessments are by-in-large dismissed rather than accommodated. This establishment includes the same individuals who become the “experts” called on to promote IPCC claims in government reports such as the endangerment finding by the Environmental Protection Agency.
As outlined in my previous testimonies, these “experts” become the authors and evaluators of their own research relative to research which challenges their work. This becomes an obvious conflict of interest. But with the luxury of having the “last word” as “expert” authors of the reports, alternative views vanish. This is not a process that provides the best information to the peoples’ representatives. The U.S. Congress must have the full range of views on issues such as climate change which are (a) characterized by considerable ambiguity (see model results) (b) used to promote regulatory actions which will be economically detrimental to the American people and, most ironically, (c) will have no impact on whatever the climate will do.
I’ve often stated that climate science is a “murky” science. We do not have laboratory methods of testing our hypotheses as many other sciences do. As a result what passes for science includes, opinion, arguments-from-authority, dramatic press releases, and fuzzy notions of consensus generated by preselected groups. This is not science.
We know from Climategate emails and many other sources that the IPCC has had problems with those who take different positions on climate change than what the IPCC promotes. There is another way to deal with this however. Since the IPCC activity and climate research in general is funded by U.S. taxpayers, then I propose that five to ten percent of the funds be allocated to a group of well-credentialed scientists to produce an assessment that expresses legitimate, alternative hypotheses that have been (in their view) marginalized, misrepresented or ignored in previous IPCC reports (and thus the EPA Endangerment Finding and National Climate Assessments).
Such activities are often called “Red Team” reports and are widely used in government and industry. Decisions regarding funding for “Red Teams” should not be placed in the hands of the current “establishment” but in panels populated by credentialed scientists who have experience in examining these issues. Some efforts along this line have arisen from the private sector (i.e. The Non-governmental International Panel on Climate Change at http://nipccreport.org/ and Michaels (2012) ADDENDUM:Global Climate Change Impacts in the United States). I believe policymakers, with the public’s purse, should actively support the assembling all of the information that is vital to addressing this murky and wicked science, since the public will ultimately pay the cost of any legislation alleged to deal with climate.
Topics to be addressed in this “Red Team” assessment, for example, would include (a) evidence for a low climate sensitivity to increasing greenhouse gases, (b) the role and importance of natural, unforced variability, (c) a rigorous and independent evaluation of climate model output, (d) a thorough discussion of uncertainty, (e) a focus on metrics that most directly relate to the rate of accumulation of heat in the climate system, (f) analysis of the many consequences, including benefits, that result from CO2 increases, and (g) the importance that affordable and accessible energy has to human health and welfare.
What this proposal seeks is to provide to the Congress and other policymakers a parallel, scientifically-based assessment regarding the state of climate science which addresses issues which here-to-for have been un- or under-represented by previous tax-payer funded, government-directed climate reports. In other words, our policymakers need to see the entire range of findings regarding climate change.
Summary of Extract
The messages of the two points outlined in the extract above are: (1) the claims about increases in frequency and intensity of extreme events are generally not supported by actual observations and, (2) official information about climate science is largely controlled by agencies through (a) funding choices for research and (b) by the carefully-selected (i.e. biased) authorship of reports such as the EPA Endangerment Finding and the National Climate Assessment.
Une analyse du « pic pétrolier », pour complèter le papier précédent. Katherine fait partie des quelques très rares analystes à qui je fais encore confiance à ce stade, avec Sasha Latypova, Catherine Austin Fitts, John Titus, quelques médecins indépendants et bien entendu John Paul. J’avais traité du « pic pétrolier » avec notamment un papier de Gail Tverberg, qui s’appuie abondamment sur les travaux cités dans le présent article, et celui-ci de Eliott Freed, deux analyses que Katherine met ici très bien en perspective.
Vous pouvez commencer par la petite vidéo ci-dessous, très bien produite. Je ne suis pas fan de la chaîne PragerU mais il faut leur reconnaître le mérite d’être très factuels et rigoureux. C’est en anglais mais si vous activez d’abord les sous-titres, puis vous allez dans Règlages>Sous-titres>Traduire automatiquement>Français (de préférence), vous avez un sous-titrage nickel.
Sur le pic pétrolier en tant que nouveau crime de tromperie infligé au monde par les banquiers centraux pour soutenir leur programme de contrôle et de mort et détourner l’opposition à ce programme.
En plus du Covid-19, des armes biologiques injectables, des banques centrales, des monnaies fiduciaires, des programmes de géo-ingénierie et de changement climatique.
Je me suis intéressée à ces questions à l’origine par le biais de la théorie du « pic pétrolier », en lisant le livre de Richard Heinberg de 2005 intitulé The Party’s Over: Oil, War and the Fate of Industrial Societies [La Fête est finie: Pétrole, guerre et destin des sociétés industrielles], qui exposait les implications des travaux du géologue et géophysicien M. King Hubbert sur les réserves de pétrole et le rendement énergétique de l’énergie investie (Energy Return on Energy Invested – EROEI).
Les travaux de Hubbert étaient liés aux effets des ressources pétrolières limitées sur les systèmes financiers et économiques qui dépendent d’un pétrole bon marché et facilement accessible pour fonctionner correctement.
Les systèmes financiers et économiques basés sur l’endettement, en particulier.
De 2005 à 2020, j’ai considéré le pic pétrolier et l’EROEI comme des problèmes géochimiques et techniques qui nécessitaient une relocalisation des systèmes de prise de décision, d’alimentation, d’eau, de production économique et de distribution, en tant que réponses pratiques à la résolution des problèmes.
J’ai donc travaillé avec le Community Environmental Legal Defense Fund [Fonds de défense juridique de l’environnement communautaire] sur des projets de gouvernement local basés sur les droits, et j’ai créé et/ou soutenu plusieurs petites organisations travaillant sur le développement de systèmes alimentaires locaux, l’acquisition de compétences en homesteading et des campagnes de protection de l’approvisionnement en eau.
J’ai effectué des recherches et écrit sur ces questions dans une série de blogs destinés aux lecteurs de la communauté du New Jersey où j’ai vécu de 2002 à 2008, et de la communauté de Pennsylvanie où je vis depuis 2008. J’ai lancé Bailiwick News en 2016.
C’est dans cette arène que j’ai appris ce qu’est l’État administratif, en regardant les législateurs et les juges élus locaux se faire écraser – sans opposer beaucoup de résistance – par des administrateurs publics professionnels non élus, notamment des directeurs de canton, des avocats de canton et des directeurs de planification et de zonage, en collaboration avec des dirigeants d’entreprises privées et quasi privées, en particulier dans les domaines de l’investissement immobilier, du développement foncier et de l’ingénierie.
Cependant.
Depuis 2020, observant en temps réel la manipulation massive des données Covid pour influencer et contrôler le comportement des groupes et des individus, j’en suis arrivée à la conclusion que le rapport du Club de Rome sur les Limites de la Croissance, le mouvement du pic pétrolier, la panique de la surpopulation, la panique du changement climatique et autres, ont fait partie du même projet multigénérationnel d’opération de manipulation psychologique […] des mondialistes.
Rien que des mensonges.
Tous racontés dans le but d’obscurcir l’intellect, de désorienter, d’effrayer et de contrôler les hommes et les femmes.
Je ne connais pas le véritable état des réserves mondiales de pétrole; je sais seulement ce que l’Agence Internationale de l’Energie (créée en 1974) et d’autres institutions mondialistes capturées disent publiquement à propos des réserves de pétrole.
Il est possible que la surconsommation de ressources, l’endettement et l’effondrement économique soient toujours le lot des civilisations en chute libre, et qu’il s’agisse simplement d’un processus naturel à l’échelle mondiale, manipulé à des fins personnelles par les élites au sommet de la structure de pouvoir de la civilisation actuelle.
Mais il est également possible que cette histoire précise de surconsommation des ressources mondiales, de destruction écologique, de dette et d’effondrement économique soit créée, mise au point et/ou projetée dans l’esprit des gens du monde entier en ce moment même, par ces mêmes élites, non seulement pour leur gain personnel, mais aussi au service de Satan, dans le but de livrer les âmes humaines à la damnation éternelle en détruisant la foi en Dieu.
Aujourd’hui, je penche pour la deuxième interprétation des événements.
Le sujet du pic pétrolier est revenu récemment dans un fil de discussion sur le Substack de Sasha Latypova.
Un lecteur a commenté, adoptant la position selon laquelle les mondialistes « exterminent » les gens pour prévenir d’autres formes de chaos mortel, comme les famines, les crashs économiques et les guerres de ressources, en raison de la pénurie d’énergie fossile liée au pic pétrolier.
Il a cité ce même rapport « Perfect Storm » de 2013 de l’échange de juillet (ci-dessus) comme « le document définitif qui relie tout » et a désigné les sables bitumineux et le forage en eaux profondes comme preuves à l’appui de l’affirmation selon laquelle les limites naturelles des réserves de combustibles fossiles sont la motivation de base.
Comme je l’ai écrit en juillet, j’avais l’habitude de penser que le pic pétrolier était la clé, et j’ai travaillé principalement à partir de cette vision du monde de 2005 à 2020.
Je ne trouve plus ce cadre plausible, car je suis trop consciente de l’efficacité avec laquelle les mondialistes et leurs sbires manipulent les données, les informations et la propagande pour se rapprocher de leurs objectifs géopolitiques et autres, et de l’utilité de l’anxiété généralisée concernant le pic pétrolier et le changement climatique dans ce processus de manipulation.
Il est maintenant clair pour moi que la BRI [Banque des Règlements Internationaux] et ses propriétaires, ainsi que leurs pairs institutionnels dans d’autres organisations internationales (comme le Club de Rome/ »Limites à la Croissance« /Donella Meadows) sont en position, depuis très longtemps, de manipuler les données et les analyses produites par M. King Hubbert et d’autres géophysiciens, ainsi que des scientifiques de l’environnement/du climat, de telle sorte que « Limites à la Croissance » n’est pas un modèle basé sur des faits, mais une projection ou un plan basé sur leur intention et leur capacité à manipuler l’accès aux réserves de combustibles fossiles et à manipuler les aspects du climat, afin de soutenir leurs efforts pour centraliser le pouvoir et le contrôle.
Ils ont l’argent et la maîtrise du projet pour forer des kilomètres sous la mer à la recherche de pétrole, extraire du pétrole du sable à la vapeur et lâcher des bombes dans des trous, non pas parce que ce sont les seules sources d’approvisionnement restantes, mais simplement pour perpétuer la fraude.
C’est le même mode d’emploi que celui qu’ils utilisent pour manipuler les informations sur ce qui se passe dans le cadre du programme Covid, tuer et rendre malades des millions de personnes avec des injections d’armes biologiques, et mentir sur ce qu’ils font.
Je suis maintenant d’avis que « l’économie » n’est également qu’une fraude massive, et qu’aucun des chiffres présentés par les banquiers centraux au cours des 100 dernières années – ou plus – n’est digne de confiance ou ne devrait être utilisé pour prendre des décisions sociétales ou personnelles sur ce qu’il faut faire ensuite.
Ce ne sont que des mensonges, du début à la fin, racontés par les banquiers centraux, dans le but de centraliser le contrôle direct et quotidien de 8 milliards de personnes, tout en envoyant 7,5 milliards d’entre vers une mort prématurée à l’aide de mensonges, d’armes biologiques, de pulvérisations chimiques, de famine forcée par le biais de perturbations de l’approvisionnement alimentaire, de perturbations de l’approvisionnement énergétique, de manipulations monétaires et d’autres outils de leur arsenal.
Ils font tout cela et bien plus encore, tout en organisant des exercices de simulation séquentiels et détaillés et en publiant des plans détaillés décrivant ce qu’ils ont l’intention de faire, qui correspondent à ce qu’ils font réellement, dans le but d’humilier rituellement leurs ennemis: nous.
En conséquence, je ne crois plus qu’il existe des limites naturelles à la production et à la distribution de nourriture, ni qu’il existe des limites naturelles à l’approvisionnement en énergie fossile.
Les pénuries et les catastrophes sont orchestrées par les banquiers centraux.
Un autre intervenant dans le fil de discussion a cité d’autres sources de données et a proposé un débat, comparant le scepticisme à l’égard du pic pétrolier au déni de l’existence du 11 septembre ou de Covid-19.
J’ai examiné les données sur le pic pétrolier. Je ne fais plus confiance aux sources de ces données.
Je ne veux donc pas en débattre, car la vraie question n’est pas celle de l’information. La question est de savoir si les sources d’information sont dignes de confiance. Et je ne pense pas que nier le pic pétrolier soit comparable à nier le 11 septembre ou le Covid. Il est cohérent de penser que ces trois événements sont des manipulations, impliquant des informations et des données fabriquées, qui ont néanmoins eu et ont toujours des effets directement observables sur la vie des gens.
Le débat public sur le pic pétrolier (tel qu’il est) n’a pas vraiment d’importance, cependant.
Que vous croyiez que le pic pétrolier s’est produit en 2005 et que la pénurie d’énergie est basée sur des limites géochimiques et techniques réelles de forage, ou que vous croyiez que le pic pétrolier est une campagne de propagande et que les pénuries sont et continueront d’être fabriquées, la décentralisation de la capacité de production des produits de première nécessité, y compris les informations véridiques, et la décentralisation des systèmes de gouvernance pour maintenir l’ordre social, sont des réponses utiles aux deux interprétations des événements passés et actuels.
Même si l’approvisionnement en énergie fossile est encore abondant, les personnes qui organisent depuis longtemps les perturbations des chaînes d’approvisionnement et des systèmes financiers et monétaires seront probablement en mesure de continuer à le faire dans un avenir prévisible.
La seule différence importante entre les deux points de vue est la différence entre le niveau où on place la responsabilité.
Là encore, la déviation et la suppression de la vérité ne servent qu’à masquer le pouvoir et les actes des prédateurs-parasites mondialistes.
Les personnes qui croient à la propagande sur le pic pétrolier et le changement climatique concentrent leurs réactions sur le changement de comportement et la réduction de la liberté de mouvement des gens ordinaires qui essaient de vivre, d’apprendre, de travailler, d’adorer Dieu et d’élever des enfants.
Les personnes qui percent à jour la propagande, jusqu’aux hommes et aux femmes qui se sont positionnés pour contrôler l’accès aux informations véridiques et aux ressources nécessaires à la vie, se concentrent sur l’élargissement de notre accès aux informations véridiques, sur l’élargissement de notre amplitude de mouvement pour produire et obtenir des réserves d’eau, de nourriture et d’énergie adéquates et contrôlées localement, et sur le rétablissement ou la création de systèmes financiers et d’autorités gouvernementales légitimes.
Massacre des Saints Innocents. Peinture de Guido Reni.
En attendant mes propres articles – qui me prennent un temps monstrueux à rédiger, j’ai compris pourquoi et je l’expliquerai – il se passe des choses qu’il serait dommage de louper. Je vous les fais en tir de barrage. Voici la première.
Meryl Nass décrypte ici le rapport de la récente réunion des parasites habituels et en donne une traduction en langage humain, que j’apprécie d’autant mieux pour m’être moi-même goinfré ce genre de littérature – rédigée en « globalien » – à l’époque maudite où je bossais dans les appels d’offres internationaux. Et au cas où vous vous demanderiez – question légitime – si ces clowns croient à leurs propres salades, la plupart sont prêts à croire n’importe quoi. Ils vivent dans un monde de croyances et de doctrines, qui leur tiennent lieu de savoir. Quant aux autres, ils n’en ont juste rien à caler de vous, de personne. Ce sont des gens cyniques et extrêmement dangereux.
J’ai ajouté à la fin quelques commentaires judicieux de lecteurs, qui complètent bien l’article.
Si vous préférez sauter les détails et passer directement aux Thèmes Principaux, faites défiler la page jusqu’au milieu. C’est sous le couvert de ces THÈMES que notre autonomie est censée nous être confisquée.
Mike Benz m’a appris aujourd’hui que le sens du terme « résilience » a été détourné pour y inclure la censure instaurée par le gouvernement américain. Pour ce faire, on a renommé nos cerveaux, nos opinions et notre présence sur les médias sociaux en tant qu' »infrastructure ». C’est en protégeant l’infrastructure contre les dommages (des idées dangereuses) que l’infrastructure (nos esprits) est rendue résiliente. Plutôt astucieux, non ?
L’objectif du Sommet Mondial de la Santé conjoint était de créer des synergies et de combiner les forces pour le développement de la santé mondiale en engageant tous les dirigeants et les parties prenantes de la santé mondiale de tous les secteurs dans toutes les régions du monde.
Le Sommet Mondial de la Santé 2022 a permis de renforcer les échanges, d’encourager les solutions innovantes aux problèmes de santé, d’élever la santé mondiale au rang de question politique clé et de promouvoir le débat sur la santé mondiale dans l’esprit des objectifs de développement durable des Nations Unies.
Aujourd’hui, la santé est « élevée » au rang de question politique clé. J’appelle ça un aveu, celui que la santé sera utilisée pour en tirer des avantages politiques. Côté développement durable, le sommet a encouragé les participants à ne pas prendre l’avion et tous les repas étaient végétariens.
Réduire l’impact climatique
Le changement climatique est l’un des problèmes de santé les plus urgents de notre époque et figure depuis longtemps à l’ordre du jour du Sommet Mondial de la Santé.
Projets de réduction des émissions
Les émissions de carbone estimées pour les vols des intervenants au Sommet Mondial de la Santé ont été entièrement compensées par le soutien d’un projet de réduction des émissions dans l’État de Karnataka, en Inde. Certifié par Gold Standard, le projet Kolar Biogas fournit des unités de biogaz aux ménages ruraux, réduisant ainsi l’utilisation du bois et du kérosène pour la cuisine. Le projet présente également des avantages pour la santé des ménages participants grâce à la réduction de la pollution de l’air intérieur, et est désigné comme apportant une contribution particulière à l’ODD3 ( Bonne Santé et Bien-être). [J’ai fait des recherches sur ce projet et j’ai trouvé très peu d’informations à son sujet. Les bénéficiaires transforment-ils réellement les déjections animales en gaz de cuisson, ou s’agit-il simplement d’un autre système de transfert d’argent et de crédits carbone sans aucun avantage pour l’environnement ou les personnes? – Nass]
Alternatives au transport aérien
Les orateurs et les participants sont encouragés à éviter de prendre l’avion si possible. Des prix spéciaux sont disponibles auprès de la Deutsche Bahn pour les participants au Sommet Mondial de la Santé. [C’est un sommet MONDIAL et ils demandent aux participants d’éviter de prendre l’avion. C’est une blague? Ce qui aurait pu être significatif, c’est d’interdire les avions privés – Nass].
Restauration
Les repas du Sommet Mondial de la Santé sont entièrement végétariens et préparés à partir de produits régionaux et saisonniers provenant principalement de sources locales. [Pas de grillons au menu donc].
« Les parlements jouent un rôle crucial dans la conception, la mise en œuvre et le suivi de la législation, des politiques et des programmes pertinents pour la réalisation du droit de chacun à jouir du meilleur état de santé physique et mentale possible et pour la mise en œuvre des Objectifs de Développement Durable (ODD) liés à la santé. »
Cette phrase contient des termes en vogue [NdT. buzzwords] à la fois importants et inquiétants.
Qui décide de ce qu’est le meilleur état de santé possible? Cela pourrait-il impliquer une multitude de vaccinations?
De même, qui décide du meilleur niveau de santé mentale possible? Est-ce qu’il nécessite des médicaments? S’agit-il d’un état soporifique? Un état dans lequel on ne pense jamais à défier l’autorité?
Et pourquoi les objectifs de développement durable sont-ils systématiquement invoqués?
Venons-en maintenant aux thèmes centraux de la conférence:
Investir dans la santé et le bien-être
L’urgence d’investir de manière durable et équitable dans la santé et le bien-être s’avère plus importante que jamais compte tenu de l’imbrication des défis mondiaux actuels. Des discussions approfondies ont eu lieu sur la nécessité d’accroître les investissements dans la santé, notamment à la suite de l’impact de la pandémie de COVID19; les institutions financières sont plus engagées et plusieurs nouveaux instruments financiers ont été proposés. Si l’on constate une évolution vers des investissements responsables de la part des investisseurs privés et institutionnels, particulièrement en ce qui concerne l’impact sur le climat, il reste encore beaucoup à faire pour que les grands flux financiers soutiennent la santé, améliorent l’impact des acteurs économiques sur la santé et élargissent l’approche ESG pour y inclure des considérations sanitaires. Les groupes de personnes vulnérables et marginalisées étant particulièrement touchés, les investissements ciblés sur la santé et ses déterminants jouent également un rôle crucial pour l’équité en matière de santé.
Traduction de Nass: Nous vous avons escroqué pour que vous nous donniez des montagnes d’argent afin de prévenir le changement climatique (sans aucun résultat à la clé), alors pourquoi ne ferions-nous pas de même pour la santé, puisque l’OMS n’a pratiquement rien fait pour la santé depuis sa création en 1948, et que vous ne l’avez jamais remarqué?
Changement climatique et santé planétaire
Le changement climatique est la plus grande menace pour la santé planétaire. Des millions de personnes sont victimes des vagues de chaleur, des sécheresses, des inondations et des tempêtes, de la faim et de la propagation des maladies infectieuses, de l’élévation du niveau de la mer et des migrations et de l’instabilité politique qui en résultent. Nous constatons que de nouvelles inégalités sanitaires importantes apparaissent en conséquence. Pour changer de cap, il faut adopter de nouvelles approches audacieuses en matière d’élaboration des politiques, de recherche et de commerce. Un défi sans précédent exige une réponse sans précédent. De nouvelles coalitions se forment entre les défenseurs et les militants de la santé et du climat, et des organisations internationales telles que l’Organisation Mondiale de la Santé (OMS) sont en train d’accumuler des preuves et de créer des alliances pour placer ce programme au centre de l’action sanitaire mondiale. De nouvelles voies de transformation dans le secteur de la santé et au-delà, tant au niveau local que mondial, doivent être développées. L’une de ces voies consiste, pour les pays et les systèmes de santé, à fixer l’objectif d’une émission nette de carbone nulle dans les systèmes de santé et à aider les pays à faible et moyen revenu à décarboner leurs systèmes tout en développant les soins de santé universels et les soins de santé primaires. Une autre voie consiste à ce que la communauté de la santé publique intègre pleinement l’agenda de la santé planétaire.
Traduction de Nass: Pendant que nous prenons en charge la santé, n’oublions pas que nous devons encore lutter contre le changement climatique. Fusionnons simplement les deux concepts, appelons le climat le plus grand défi sanitaire mondial, et exigeons des actions sur les deux, toujours.
Architecture pour la préparation aux pandémies
Malgré les efforts considérables investis dans la préparation mondiale à la pandémie au cours des deux dernières décennies, [150 milliards de dollars US dépensés pour rien, si ce n’est davantage de virus à gain de fonction! – Nass] la pandémie de COVID-19 a souligné la nécessité d’être mieux préparé à identifier et à répondre aux nouvelles menaces pandémiques et épidémiques. Plusieurs groupes d’experts et commissions de haut niveau ont recommandé d’améliorer l’architecture mondiale de la santé publique, tandis que le G7 et le G20 ont inscrit la préparation à la pandémie en bonne place dans leur ordre du jour. Un défi majeur, tant au niveau mondial qu’au niveau national, consiste à mettre en place une surveillance plus forte et plus intelligente, notamment pour la détection rapide des agents pathogènes inconnus, associée à des capacités de prise de décision et de réponse efficaces. Une réalité fondamentale est qu’une meilleure intelligence des pandémies et des épidémies exige que tous les pays soient mieux préparés et capables de collaborer efficacement les uns avec les autres. Pour cela, les aspects structurels sont importants, comme les cadres juridiques internationaux, les mécanismes de financement, l’amélioration de la collaboration multisectorielle et le renforcement des organisations mondiales de santé publique existantes, notamment l’Organisation Mondiale de la Santé.
Traduction de Nass: Nos copains de l’industrie de la biodéfense ont dit qu’il fallait développer considérablement leur industrie. Et sous couvert de préparation, nous pourrons usurper l’autorité des pays pour gérer les pandémies, augmenter la surveillance mondiale non seulement des virus mais aussi des personnes, créer de nouveaux traités et règlements exécutoires, et demander beaucoup plus d’argent pour payer tout cela, le tout sous l’égide de l’OMS.
Transformation numérique de la santé
La transformation numérique de la santé progresse à grande vitesse. Aujourd’hui, les technologies numériques représentent une composante essentielle sur la voie de la connaissance de la santé, des systèmes de santé durables et de la couverture sanitaire universelle. Des changements fondamentaux sont actuellement en cours dans le domaine de la santé en ce qui concerne la manière dont les soins médicaux sont dispensés et dont les informations sont obtenues et diffusées. Les stratégies « Digital Health First » se développent rapidement, car de nombreuses grandes entreprises technologiques entrent dans l’arène de la santé. Le rôle des grandes plateformes technologiques en matière d’informations sanitaires fiables a été mis en évidence pendant la pandémie de COVID-19 et les infodémies sont devenues une menace majeure pour la santé. Ces développements ont conduit à de nouvelles formes de coopération entre les organisations internationales et l’industrie technologique au niveau mondial. Cependant, dans de nombreux pays, d’importants investissements dans les infrastructures sanitaires et numériques sont nécessaires et l’environnement réglementaire est faible. L’extraction de données et la perte de souveraineté numérique suscitent des inquiétudes. Les pays ont besoin de stratégies de santé numérique solides qui intègrent le leadership, les ressources financières, organisationnelles, humaines et technologiques, ainsi que le soutien nécessaire pour surmonter les principaux obstacles auxquels ils sont confrontés.
Traduction de Nass: Les dossiers médicaux électroniques ont contribué à ruiner les soins de santé aux États-Unis, mais ont considérablement amélioré les possibilités de chantage et de surveillance. Alors étendons-les au reste du monde. Le contrôle de l’espace numérique nous permettra une plus grande censure. Donnez-nous plus d’argent pour déployer la grille de contrôle numérique.
Systèmes alimentaires et santé
Les systèmes alimentaires nous rendent malades, entraînent des changements climatiques et sapent la santé des écosystèmes. L’alimentation est au cœur de la santé humaine, des écosystèmes et des animaux. Le programme est vaste : nous devons changer notre façon de penser, de produire, de distribuer, de consommer, d’éliminer et de valoriser les aliments, pour obtenir de meilleurs résultats en matière de santé. Il existe cinq voies interconnectées et interdépendantes : les régimes alimentaires malsains et l’insécurité alimentaire; les agents pathogènes zoonotiques et la résistance antimicrobienne; les aliments dangereux et frelatés; la contamination et la dégradation de l’environnement et les risques professionnels. Nous avons besoin d’une transformation des systèmes pour faire évoluer les systèmes alimentaires vers la fourniture de régimes alimentaires sains et durables pour tous. Si les systèmes alimentaires sont transformés, ils peuvent devenir une force motrice puissante pour mettre un terme à la faim, à l’insécurité alimentaire et à la malnutrition sous toutes ses formes. Le paquet d’actions comprend la taxation des options malsaines et la subvention des options saines, la protection des enfants contre le marketing nuisible des aliments et des boissons, la garantie d’un étiquetage nutritionnel clair et précis, la réduction des niveaux de sel, de sucres et de graisses nocives dans les aliments et les boissons transformés, l’enrichissement des aliments de base en ajoutant des vitamines et des minéraux supplémentaires, la garantie que des aliments nutritifs pour des régimes plus sains sont servis ou vendus dans les écoles, les hôpitaux et autres lieux publics, l’amélioration de la surveillance et de la réponse aux maladies d’origine alimentaire et l’évaluation et le renforcement des systèmes nationaux de contrôle alimentaire.
Traduction de Nass: Pour prendre le contrôle du système alimentaire mondial, nous avions besoin d’un très Gros Mensonge. Nous avons donc associé le changement climatique à l’affirmation selon laquelle la nourriture nous rend malades (ce ne sont finalement pas les additifs ni la malbouffe). C’est vous, les gens, qui avez bousillé la production alimentaire, alors maintenant laissez-nous fournir des grillons sains et durables à tous. Et prétendre réparer toutes ce que nos partenaires Pharma/Big Ag présents à cette conférence ont jusqu’à présent empêché les autorités de régulation de réparer. Et lancer des « systèmes nationaux de contrôle alimentaire ».
Je me souviens du temps où la Rhodésie a mis en place un système de contrôle alimentaire. Les noirs étaient soumis à des régimes de famine pour les empêcher de partager la nourriture avec les guérilleros. Oh oh.
Résilience et équité des systèmes de santé
La résilience des systèmes de santé et l’équité en matière de santé sont deux éléments clés d’une réponse efficace et efficiente à des crises telles que celle du COVID-19. Si un système de santé n’est pas en mesure de résister aux pressions exercées par un choc, il peut cesser de fonctionner ou s’effondrer, laissant en particulier les plus vulnérables en danger. Il est donc urgent de s’engager au niveau mondial et national à progresser durablement vers la couverture sanitaire universelle et la sécurité sanitaire, tout en s’engageant à respecter l’équité. Cela nécessite une approche intégrée pour construire et reconstruire des systèmes de santé qui répondent aux besoins de la population, avant, pendant et après les urgences de santé publique. Il faut s’adapter aux changements à long terme, apprendre en permanence, assurer les fonctions essentielles de santé publique, renforcer la santé primaire, gérer les risques d’urgence de toutes sortes et faire participer l’ensemble de la société. L’OMS a publié sept recommandations de politique générale sur la mise en place de systèmes de santé résilients fondés sur les soins de santé primaires et le suivi des inégalités en matière de santé effectué par l’OMS fournit une base factuelle pour les politiques, programmes et pratiques axés sur l’équité visant à combler les écarts existants.
Traduction de Nass: Définissez résilience, sécurité sanitaire, approche intégrée, ensemble de la société, pratiques axées sur l’équité. De quoi parlez-vous au juste? Puis donnez-moi un seul exemple dans lequel l’OMS a réalisé quoi que ce soit de ce genre, où que ce soit.
La santé mondiale pour la paix
Le monde connaît le plus grand nombre de conflits depuis la fin de la Seconde Guerre mondiale. Selon les Nations Unies, deux milliards de personnes, soit un quart de la population mondiale, vivent aujourd’hui dans des zones touchées par des conflits. L’Organisation Mondiale de la Santé (OMS) a réagi en lançant l’Initiative Mondiale Santé pour la Paix (Global Health for Peace Initiative – GHPI) qui vise à positionner la santé comme un facteur d’influence de la paix et l’OMS comme un acteur qui aide à soutenir la paix par des interventions sanitaires qui sont sensibles aux conflits et donnent des résultats en matière de paix dans les zones touchées par les conflits. La GHPI encourage et soutient l’élaboration de programmes de santé qui tiennent compte de la dynamique de la paix et des conflits et qui, dans la mesure du possible, contribuent aux résultats de la paix. Sur la base du principe « Do no harm » (ne pas nuire), il vise à concevoir des interventions qui tiennent compte de la dynamique, des moteurs et des acteurs du conflit et cherche des moyens de contribuer aux résultats de la paix tout en poursuivant des objectifs de santé. Elle comprend la santé mentale et le soutien psychosocial, le dialogue communautaire et les initiatives de promotion de la santé inclusives. Les interventions sanitaires peuvent faire une réelle différence, elles peuvent servir de point de départ pour rassembler les gens. Elles contribuent également à permettre et à renforcer le dialogue, la participation, l’inclusion et l’instauration de la confiance.
Traduction de Nass: Nous avons inventé le chiffre de « 2 milliards » de personnes vivant dans des zones de conflit afin de faire croire que nos interventions peuvent avoir un impact beaucoup plus important que ce qui est possible. Puis nous avons inventé un concept: « la paix grâce aux interventions sanitaires ». Cela nous a permis de prétendre qu’on peut demander à une organisation de santé (l’OMS) d’apporter la paix dans les zones de conflit, même si c’est le travail de l’ONU, pas le nôtre. Et nous utiliserons la promotion de la santé pour gagner la confiance des gens. Et peut-être pourrons-nous droguer les combattants et appeler ça santé mentale.
Pour en savoir plus sur cette conférence, vous pouvez consulter toutes les sessions ou vous concentrer sur les discours de Bill Gates, Tedros Ghebreyesus (directeur général de l’OMS) ou Antonio Guterres (secrétaire général des Nations unies).
L’une de ces voies consiste, pour les pays et les systèmes de santé, à fixer l’objectif d’une émission nette de carbone nulle dans les systèmes de santé et à aider les pays à faible et moyen revenu à décarboner leurs systèmes tout en développant les soins de santé universels et les soins de santé primaires. Une autre voie consiste à ce que la communauté de la santé publique intègre pleinement l’agenda de la santé planétaire.
Les systèmes de santé occidentaux, utilisés dans la plupart des hôpitaux publics du monde, sont tous des systèmes à forte émission de carbone et à forte consommation d’énergie. Cette déclaration nous dit simplement qu’ils continueront à détruire les hôpitaux dans le monde entier. Ils ont amorcé le mouvement avec le covid, mais ils avaient déjà préparé le terrain des années auparavant. Ceux qui comprennent les systèmes émetteurs de carbone savent que le « net zéro » est impossible. Ceux qui travaillent dans la médecine occidentale savent à quel point elle est gourmande en énergie. Ils vont littéralement briser les systèmes de santé au nom de la durabilité et de l’équité, ce qui entraînera la mort de millions de personnes. C’est une destruction systématique de toutes les grandes infrastructures sociétales. Banque, santé, défense, juridique, agriculture, et gouvernance.
Il est extrêmement irritant de lire la salade de mots toxiques générée par ces destructeurs. Les leçons apprises de la pandémie nous permettent de traduire leur vision en une description concise des objectifs réels. Ils veulent que les gouvernements financent l’exécution de leur guerre contre toute vie humaine. Rien n’est plus durable et bénéfique pour les riches psychopathes que de générer d’énormes profits dans leur entreprise d’élimination des mangeurs inutiles.
Bon sang, certaines personnes aiment vraiment en contrôler d’autres. Malheureusement, cela semble aller crescendo jusqu’au moment où ces personnes aiment vraiment en tuer d’autres.
Les humains sont du « carbone ». Toute matière vivante est du carbone. C’est une guerre contre la création de Dieu. Il a déjà gagné la guerre, mais l’ennemi de notre âme et ceux qui le servent causeront autant de souffrance que possible en attendant. Tournez-vous vers Jésus pour trouver la paix et l’espoir.
C’est facile à résumer. C’est le Nouveau Manifeste Néo-Communiste et il est en train de se réaliser parce que personne ne comprend le langage qu’ils utilisent.
Raison pour laquelle Meryl et votre serviteur sont heureux de vous en faire la traduction.
Ce qui m’a poussé à écrire ce billet, entre mon déménagement et d’autres occupations, c’est ce qui suit, une tendance à long terme qui s’est accélérée exactement au pire moment possible.
Les Pays-Bas vont racheter et fermer 3 000 exploitations pour se conformer aux règles de l’UE
Le gouvernement tente de réduire la pollution par l’azote, ce qui devrait raviver les tensions avec les agriculteurs, qui estiment que le secteur est injustement visé.
Le gouvernement néerlandais prévoit d’acheter et de fermer jusqu’à 3 000 exploitations agricoles situées à proximité de zones écologiquement sensibles afin de se conformer aux règles européennes en matière de préservation de la nature.
Les Pays-Bas tentent de réduire la pollution par l’azote et procéderont à des achats obligatoires si un nombre insuffisant d’exploitations rejettent l’offre volontairement.
Les agriculteurs se verront proposer une offre « bien supérieure » à la valeur de l’exploitation, selon le plan gouvernemental qui prévoit la fermeture de 2 000 à 3 000 exploitations ou autres entreprises perçues comme de gros pollueurs.
Certains des plans initiaux avaient fait l’objet de fuites et révélaient que l’offre s’élèverait à 120% de la valeur de l’exploitation. Cependant, cela doit encore être confirmé.
Christianne van der Wal, ministre de l’azote, a déclaré aux députés vendredi: « Il n’y a pas de meilleure offre à venir ». Elle a déclaré que les achats obligatoires seraient effectués « le cœur serré », si nécessaire.
Ce projet est en cours aux Pays-Bas depuis un certain temps et, bien que lente, la mise en œuvre (ou plutôt l’ingérence de l’agenda élitiste) se poursuit avec peu d’opposition. Le problème est double. Le premier est attendu, les Pays-Bas sont une puissance agricole et l’un des plus grands exportateurs de la planète, donc une réduction aussi massive aura inévitablement des conséquences désastreuses sur la pénurie alimentaire et l’inflation (ce qui confirme le fait que ces deux phénomènes se produiront), le second problème est humain. Les agriculteurs sont poussés à la faillite et se suicident (merci à un ami néerlandais pour cette information).
« 30 000 entreprises sont touchées par cette situation. Il y a des gens qui n’arrivent plus à dormir. Il y a des suicides chez les agriculteurs qui n’en peuvent plus » – Source
Le gouvernement canadien vise des « objectifs » similaires, par la réduction d’émissions de certains produits chimiques, ce qui a pour effet de paralyser l’agriculture, car la réduction de l’approvisionnement en carburant et en matériaux entraîne une hausse des coûts.
Une des dynamiques que j’ai souvent mentionnée dans cette série d’articles était, et est toujours, le changement important des conditions météorologiques que nous connaîtrons tout au long de l’année, et comment cela affectera la production de denrées alimentaires de base. C’est un problème majeur, qui s’ajoute à celui des pénuries qu’a connues l’ensemble de l’industrie nécessaire à la production alimentaire, les plus sévères étant la montée en flèche des prix du diesel/carburant en général et la pénurie d’engrais. De nombreux agriculteurs ont déclaré publiquement « J’espère que Mère Nature nous aidera, sinon… » Eh bien, Mère Nature n’a pas voulu les aider.
L’Australie a été dévastée par des inondations dans certaines régions, créant un état de saturation en eau et affectant profondément la qualité du blé: qualité inférieure = rendement plus faible = moins de production = prix mondiaux plus élevés. Le phénomène inverse affecte également l’agriculture dans d’autres pays, où le temps sec aura un impact sur le rendement et la qualité. J’ai déjà parlé des sécheresses en Californie, un État agricole très important aux États-Unis, où les pertes s’élèvent désormais à 2 milliards de dollars. L’Argentine (un grand producteur de blé) a vu ses chiffres de production de blé réduits à plusieurs reprises en raison d’un temps exagérément sec. Un temps anormalement sec a un impact considérable sur les chiffres de l’inflation nationale et les prix internationaux.
En Italie, la sécheresse qui a sévi dans sa région rizicole a été si importante qu’elle affectera la production, comme dans de nombreuses autres régions et pour d’autres céréales – pas besoin de me répéter à chaque paragraphe. L’Espagne se trouve dans une situation similaire, certains experts s’attendant à ce qu’elle plante moins de riz, car cette culture est gourmande en eau.
« La grave sécheresse de cette année a provoqué le dépérissement de cultures comme le blé et le maïs et l’assèchement des pâturages où paissent les bovins. Les éleveurs de tout l’État cherchent maintenant des moyens de nourrir leur bétail pendant l’hiver, car les réserves de foin s’amenuisent », explique cet article de presse de l’Oklahoma à propos de l’impact de la pénurie de foin, causée par la sécheresse.
Ce qui nous ramène à un mouvement géopolitique souvent adopté au début de l’année, et dont j’ai écrit qu’il s’accélérera à mesure que les choses s’effondreront. Le nationalisme des ressources, qui consiste à interdire l’exportation de certaines matières premières ou denrées alimentaires pour contrôler les prix ou l’inflation internes, a un impact considérable sur les prix mondiaux. L’Ukraine l’a pratiqué avec les céréales en février et mars, l’Inde avec le blé en mai, l’Indonésie avec l’huile de palme en avril, et l’Argentine avec le maïs et le blé, cette liste étant complétée par des interdictions à plus court terme dans d’autres pays.
Compte tenu des perturbations de la chaîne d’approvisionnement dues à la guerre entre la Russie et l’Ukraine, l’Inde avait restreint l’exportation de quatre variétés de blé dur pour assurer sa sécurité alimentaire.
Après avoir restreint les exportations de blé en mai, le gouvernement indien avait également interdit les exportations de farine de blé en août pour contrôler l’inflation.
La production globale de blé de cette année sera serrée. Alors que la production de blé de l’Ukraine sera sensiblement inférieure pour la saison 2022/2023, d’autres gros producteurs ont repris le « rythme ». La Russie connaît une récolte très abondante (certaines sanctions entravent l’exportation des céréales, mais pas la production). Le Canada connaît également une bonne saison. Le problème se pose par contre aux États-Unis, où la saison est mauvaise, en Europe, où le temps sec diminue les rendements dans toute l’Union, ainsi qu’en Argentine. Si rien d’autre ne se passe d’ici à la mi-2023, les prix resteront de toute manière plus élevés qu’aujourd’hui… c’est là le plus gros problème.
Je cite souvent cette vieille phrase, « les experts ont souvent trois mois de retard ». La plus grande variable de cette équation complexe est la production et l’accessibilité des engrais. Si vous avez lu l’article mentionné au début, vous savez à quel point sont sévères les problèmes de pénurie et de prix de l’énergie et du gaz en ce moment. […] Cependant, de nombreux pays européens ont décidé de s’en tenir à leurs politiques suicidaires et à leur décision de ne pas s’attaquer à ce problème énergétique.
Avec la moitié de sa production d’engrais hors service, la perte probable d’un pourcentage supplémentaire non encore défini et les prix incroyablement élevés du gaz pour au moins l’avenir prévisible, on déduira facilement que la situation ne va pas s’améliorer à court terme.
Alors que les banques centrales du monde entier augmentent les taux d’intérêt en réponse à l’inflation, un économiste agricole affirme que tous les signes indiquent une récession mondiale, ce qui pourrait affecter les stocks d’engrais aux États-Unis.
Les chercheurs d’AgriFood Economic Systems, basés au Canada, affirment que les Nord-Américains sont les plus chanceux en matière d’approvisionnement en engrais. Le Dr Al Mussell, chercheur principal chez AgriFood, explique qu’alors que l’Europe fait face à sa crise énergétique, l’Europe occidentale s’attend déjà à une récolte de cultures vivrières moins importante l’année prochaine en raison de graves pénuries d’intrants.
« L’Europe occidentale est vraiment en première ligne dans ce domaine. L’Allemagne, la France, ces pays d’Europe occidentale. Ils sont dans une mauvaise passe, et je ne sais pas si, en tant que Nord-Américains, nous nous rendons bien compte de ce à quoi ils vont devoir faire face. Avant que les gazoducs de Nordstream ne sautent, ils avaient une crise énergétique sur les bras. Les récoltes seront faibles l’année prochaine parce que les engrais ne sont pas disponibles », a déclaré M. Mussell.
Avant le conflit entre la Russie et l’Ukraine, cela faisait cinq ans que le monde n’avait pas été en mesure de constituer un stock substantiel de céréales. Même si les stocks ont légèrement augmenté l’année dernière, M. Mussell estime que ces chiffres sont trompeurs. Outre la crise énergétique, l’Europe occidentale est confrontée à une pénurie alimentaire imminente, due à un manque d’engrais azotés.
« Il n’y a tout simplement pas assez d’engrais azotés pour tout le monde. Nous n’avons pas été en mesure de constituer des stocks depuis 2017. Année après année, en gros, on se nourrit de la récolte de l’année précédente. L’année dernière, les stocks étaient en hausse. En fait, la raison en est que lorsqu’il y a 21 millions de tonnes de maïs et de blé coincées en Ukraine, cela affecte évidemment cette proportion. Dans une bien plus large mesure, ces stocks sont détenus dans les pays importateurs. S’ils restent dans un pays importateur, ils ne bougent pas », a déclaré M. Mussell.
Dans un monde où la demande dépassera l’offre et où les pénuries seront monnaie courante, la planification à long terme est une nécessité. Selon M. Mussell, les producteurs devraient disposer d’un stock d’intrants aussi important que possible, et ils ont tout intérêt à avoir un ami banquier sous la main.
Tous ceux qui me lisent depuis plus de six mois se souviendront que les données que nous avons couvertes ici correspondent exactement au scénario que j’ai esquissé au début de l’année, qui décrivait les réponses des pays et ce qu’elles impliqueraient. Le résultat de leurs choix erronés est là: si l’on tient compte 1) des variations climatiques extrêmes dans le monde et de leur impact sur les pays producteurs de nourriture à différents niveaux, avec des conséquences souvent désastreuses sur les prix globaux, et 2) de la pénurie persistante d’engrais, qui n’a non seulement pas disparu, mais va empirer de façon exponentielle, puisque l’analyse des données, en particulier celles émanant des groupes de réflexion et des gouvernements, est rétroactive, alors on peut se risquer à prévoir que les prix des aliments resteront élevés au moins jusqu’en 2023, voire jusqu’à la mi-2024, sans même tenir compte d’un nouvel effondrement de l’ordre mondial et de l’industrie.
L’économiste en chef et directeur de la recherche, de l’évaluation et du suivi du Programme alimentaire mondial des Nations unies (l’un des rares à tirer la sonnette d’alarme sur ce scénario précis) a récemment accordé une interview dont je vous conseille de regarder cet extrait d’une minute. Il prévoit une pénurie de 66 millions de tonnes de denrées alimentaires de base en raison du scénario évoqué ci-dessus, ce qui, selon ses propres dires, suffirait à nourrir un peu plus de 3 milliards de personnes pendant un mois entier.
On ne dira jamais assez l’impact que cela aura sur les prix des aliments, les troubles civils et les mouvements géopolitiques en général. Et les problèmes liés aux sécheresses sont doubles, et bien que je sois l’un des plus grands « détracteurs » du Forum Economique Mondial, si vous lisez cet article en faisant abstraction de leur propagande et de la manipulation linguistique, c’est un très bon point de départ pour comprendre l’impact de ces sécheresses non seulement sur la production alimentaire mais aussi sur la logistique et la chaîne d’approvisionnement.
L’eau est vitale pour le commerce mondial, puisque 90% des produits circulent dans le monde via les océans et les voies navigables.
Mais l’été 2022 a été marqué par de graves sécheresses qui ont rendu plusieurs routes commerciales internationales impraticables.
Selon l’Organisation météorologique mondiale, les dommages économiques causés par les sécheresses ont bondi de 63% en 2021 par rapport à la moyenne sur 20 ans.
Mais l’été 2022 a montré à quel point certaines voies navigables clés sont sensibles à la sécheresse: le Mississippi, le Yangtze et le Rhin ont tous connu de sérieux goulets d’étranglement.
Le sud-ouest des États-Unis est au beau milieu d’une période de sécheresse de 22 ans, la plus sèche depuis 1 200 ans. Même les régions moins arides de l’est des États-Unis ressentent de plus en plus les effets de la sécheresse.
Le fleuve Mississippi s’étend du lac Itasca, dans le nord du Minnesota, sur près de 2 350 miles jusqu’au golfe du Mexique, transportant chaque année plus de 450 millions de tonnes d’importations, d’exportations et de fret domestique.
J’écrirai davantage sur ces sujets et sur leurs nombreux autres effets en réseau, mais avec ces deux articles, l’un axé sur l’énergie, l’autre sur les céréales, sans compter le fait que mes lecteurs sont probablement très conscients des tendances économiques récessives massives en cours (une fois encore, causées par la stupidité des gouvernements), vous pouvez vous risquer à une prévision/estimation facile et arriver à la conclusion que 2023 s’annonce merdique. Et ceci sans tenir compte de tous les aspects liés aux virus/maladies.
Je profite que c’est assez calme question visites sur le blog pour me faire un peu plaisir – et si ça fait plaisir à quelques lecteurs, c’est encore mieux.
Je conçois qu’au bout d’un moment, on puisse en avoir marre de ne lire que des mauvaises nouvelles. J’ai donc choisi un truc assez rigolo. Enfin, rigolo… On a peut-être pas le même sens de l’humour. Ce n’est pas une particulièrement bonne nouvelle, mais c’est assez ironique: on martèle le bon peuple de « réchauffement climatique », de fonte des glaces, de montée des océans, etc, toutes choses qui pourraient en fait être les signes d’une nouvelle ère glaciaire, ce que vous explique ici Underdog sur son Substack, The Daily Beagle. Ce n’est de plus pas le premier à m’en parler – l’autre, pour ne rien vous cacher, est Matthew Ehret.
Contrairement à ce qu’on pourrait imaginer, j’ai lu ailleurs – à vérifier – qu’un âge glaciaire ne s’installe pas progressivement. Il fait dix degrés le lundi et moins quarante le vendredi – et le week-end dure quelques années. Je ne crois pas tellement à cette histoire mais à tout hasard, rentrez du bois. Quand homme blanc rentrer du bois, hiver très, très rude.
Comme il est question ici d’intelligence artificielle, j’en profiterai pour traduire ensuite un article sur ce sujet, d’un autre auteur sur Substack, The Science Analyst, déjà publié ici. Il dit exactement le contraire de Underdog sur l’intelligence artificielle: c’est une impasse, elle n’a aucune conscience et n’en aura jamais. Un peu comme ceux qui nous gouvernent, en fait. Pas étonnant qu’ils aiment tant l’IA.
On met ses gants, son écharpe et on va rencontrer notre nouvel ami, GPT-3 (oui, je sais mais en anglais ça se prononçe djee-pee-tee-three). L’article date du mois d’août, donc de l’eau a depuis coulé sous les ponts. Pourvu que ça dure.
Un commentaire de l’IA sur l’année 1616 dévoile une catastrophe imminente et inattendue
The Underdog
24 août
Le Daily Beagle a accès au GPT-3 d’OpenAI, une IA qui dispose d’un large éventail de données qu’elle peut traiter en un rien de temps. Elle a déjà été invitée à commenter l’article du Daily Beagle intitulé « Les Droits de l’IA: Ami ou ennemi? » sur la reconnaissance de la vie artificielle sentiente et sur la question de savoir si elle doit avoir des droits ou non.
Si vous vous demandez pourquoi l’interroger sur l’année 1616, c’est parce que celle-ci est mentionnée sur les « hungerstones » [les pierres de la famine] allemandes pour rappeler une grave sécheresse du passé. J’avais mentionné ce fait dans les sujets d’actualité de notre Daily Beagle Roundup 21 et 22 combiné. L’avertissement des pierres comprend des avertissements de pénurie alimentaire, ce qui a suscité l’intérêt de certains.
Le Daily Beagle utilise un large éventail de sources de données, dont de nombreux médias, des revues scientifiques et d’autres encore, et fait même appel à une IA pour obtenir des données historiques afin de rassembler rapidement de nouvelles informations.
Nous avons donc pensé qu’il serait judicieux de poser à l’IA quelques questions historiques sur ce qui s’était passé en 1616, et pourquoi, de manière à pouvoir s’en servir pour prédire les événements de la période actuelle.
Le Daily Beagle a demandé:
Que s’est-il passé en 1616 sur le plan économique, alimentaire et météorologique? Soyez aussi détaillé que possible.
GPT-3 a répondu:
L’année 1616 a été marquée par l’insécurité économique et alimentaire ainsi que par le mauvais temps. De nombreux pays ont connu la famine et de mauvaises récoltes en raison d’une grave sécheresse. En Angleterre, l’hiver 1615-1616 a été l’un des plus froids jamais enregistrés, et le printemps et l’été ont été exceptionnellement humides. Cela a entraîné des inondations généralisées, qui ont ruiné les récoltes et provoqué des pénuries alimentaires. En France, la sécheresse a été si grave que de nombreuses personnes sont mortes de faim. En Allemagne, la sécheresse et les pénuries alimentaires qui en ont résulté ont été exacerbées par la guerre de Trente Ans, qui faisait rage à l’époque. En Irlande, la sécheresse a entraîné une mauvaise récolte de pommes de terre, ce qui a provoqué une famine qui a tué plus d’un million de personnes.
Le Daily Beagle a demandé:
Quelle était la cause de tout cela?
GPT-3 a répondu:
La cause de tout cela est un phénomène connu sous le nom de Petit Age Glaciaire. Il s’agit d’une période de températures plus fraîches que la moyenne qui a commencé au début du 14ème siècle et qui a duré jusqu’au milieu du 19ème siècle. Au cours de cette période, il y a eu de fréquentes périodes de mauvais temps, notamment des sécheresses, des hivers froids et des étés humides. Cela a entraîné une famine généralisée et une instabilité économique.
Voilà qui pose problème à quiconque tente de promouvoir le réchauffement climatique, car cela montre que des événements similaires se sont produits dans le passé et que ce que nous vivons est un ensemble cylindrique d’événements.
La partie qui nous intéresse plus particulièrement est la « fluctuation de Grindelwald« , qui doit son nom à un glacier suisse en expansion rapide, présenté comme la preuve qu’un tel événement s’est produit. Elle s’est produite entre 1560 et 1630. Comme le note la page citée:
[…] Les données confirment l’idée que la fluctuation de Grindelwald a été caractérisée par un temps extraordinairement mauvais, comme de grandes gelées, des inondations, de violentes tempêtes, des chutes de neige non saisonnières et des sécheresses. […]
Outre les signes avant-coureurs évidents d’une pénurie alimentaire, les hungerstones de 1616 nous indiquent que ce niveau de sécheresse n’a pas été observé depuis 406 ans, et suggèrent également, contrairement aux affirmations douteuses sur le réchauffement, qu’il y a, en fait, des signes de l’émergence d’un Petit Age Glaciaire, notamment parce que les schémas correspondent, tout comme les résultats.
Ces récits couvrent la série d’événements vécus à Bristol et à Londres. Ils détaillent tout, des grandes inondations de 25 pieds de haut qui ont emporté des moutons, du bétail, du foin et du grain, aux personnes obligées de se réfugier dans les arbres pendant « deux à trois » jours…
… aux Grandes Gelées qui gelaient les berges des rivières au point que les gens pouvaient y allumer des feux et organiser des foires sans risquer de tomber dedans…
… jusqu’aux vents extrêmes qui empêchaient les navires de quitter le port. Le Daily Mail remarque que les épisodes de froid glacial ont duré sept décennies, soit 70 ans. La famine était telle que les pauvres souffraient d’une « grande disette » de céréales. Les chiens et les chevaux étaient tués pour leur viande, et les enfants étaient même mangés par désespoir. Comme le note le document :
[…] une telle mortalité que la chair des chevaux et des chiens était considérée comme de la bonne viande, et certains mangeaient leurs propres enfants […].
Les températures sèches ayant évaporé la plupart des formes d’humidité, il est probable que le peu d’humidité qu’il reste gèlerait facilement et aisément à des températures aussi basses, créant soit un gel profond et large, soit un gel très dur et durable. De la glace partout, sur les routes, qui ne peut être évacuée.
Le Daily Beagle ne peut pas prévoir quels événements météorologiques graves pourraient historiquement se produire, qu’il s’agisse de vent extrême, de froid extrême, d’inondations extrêmes, ni s’il y en aura, ni quand, mais la présence de canicules ne signifie clairement pas l’absence de froid glacial, comme l’ont démontré le Texas et Bristol, et les lecteurs devraient se préparer en conséquence.
Note: 1) « Globohomo » est un néologisme plaisant pour désigner l’élite globaliste. 2) « Sûr et Efficace » désigne le produit injectable que nous avons tous appris à connaître et à apprécier.
« Ce n’est pas parce que vous êtes paranoïaque qu’ils ne sont pas après vous. »
Kurt Cobain
Ce que je n’arrivais pas à comprendre lorsque l’injection de poison ARNm a été annoncée pour la première fois à un public plein d’espoir et reconnaissant, c’est pourquoi Globohomo ciblait le segment le plus docile de la société pour l’administration de ces injections mortelles. Tuer ses serviteurs et laisser debout la plupart de ses ennemis n’avait aucun sens, à moins que les universitaires des think tanks qui élaborent la stratégie de Globohomo ne soient pas très brillants, que Globohomo veuille faire table rase du passé pour mettre ses ennemis en avant, ou que cette « pandémie » n’ait rien à voir avec un virus et qu’il y ait d’autres intentions. La Grande Réinitialisation n’était-elle qu’une diversion à la James Bond pour cacher ce qui se passait réellement derrière le rideau de Globohomo?
J’ai acquis la conviction que ce qui se passe réellement est la troisième prémisse: les propriétaires du réseau bancaire mondial créent une « transition » afin de pouvoir déplacer l’Occident (et donc entraîner le reste du monde avec lui) et son panier de fausses monnaies défaillantes, pondérées en fonction des échanges commerciaux, vers une nouvelle fausse monnaie qui reste sous leur contrôle, tout comme les anciennes monnaies de singe criblées de dettes (USD, EUD, GBP, JPY). Pendant cette transition fabriquée, le véritable ennemi de Globohomo n’est pas la souveraineté nationale ou les Déplorables, c’est l’hyperinflation qui représente le plus grand risque pour son contrôle systémique sur le panier de fausses monnaies.
L’hyperinflation est la résultante d’une véritable révolution et nationalise la création, l’administration, la distribution et la fixation des prix de la monnaie d’une nation au profit de ses citoyens (voir l’Allemagne de Weimar pour en avoir la preuve). Cette nouvelle monnaie devra être une monnaie numérique, car elle fournit les moyens – en utilisant les prétextes fallacieux du changement climatique – de contrôler la demande et donc de contrecarrer le monstre hyperinflationniste qui suivra cette transition. Ainsi, une fois l’hyperinflation apprivoisée, cela garantit que le réseau bancaire mondial contrôlera la nouvelle fausse monnaie, car M. et Mme Tout-le-monde n’y pourront absolument rien, comme la dernière fois le 15 août 1971 [NdT. fin de Bretton Woods], la fois précédente le 1er mai 1933 [NdT. ici] et la fois précédente le 23 décembre 1913 [NdT. création de la FED].
Pour combattre cette hyperinflation, Globohomo est affecté par la même pensée de groupe qui étrangle l’Occident aujourd’hui et n’est donc plus aussi habile qu’avant, alors que le monde est beaucoup plus complexe. Après avoir donné un coup de pied dans la fourmilière des taux d’intérêt, il ne lui reste plus que deux outils keynésiens [NdT. ici] dans son sac de tours de magie monétaires: 1) détruire la demande en détruisant l’offre et 2) détruire la demande en tuant les consommateurs. Sûr et Efficace était la solution à long terme pour contrôler l’hyperinflation – tuer les consommateurs, réduire leur demande, amortir l’hyperinflation pendant la transition vers la fausse monnaie, et maintenir le contrôle sur la nouvelle fausse monnaie numérique (mondiale?).
La deuxième façon de réduire la demande est de détruire l’offre de biens en utilisant des guerres artificielles. Mais si la guerre avait progressé en premier, la demande des consommateurs subsisterait pour une quantité réduite de marchandises, ce qui aurait été inflationniste et aurait déclenché l’hyperinflation trop tôt dans la transition vers la fausse monnaie. Globohomo a donc dû expérimenter un nouveau moyen de détruire la demande, raison pour laquelle il fallait d’abord vacciner les gens avec ce bon vieux Sûr et Efficace pendant la fausse pandémie, car leur demande devait être détruite avant que les guerres ne détruisent ce qu’ils demandaient. Ainsi, grâce à un mécanisme permettant de contrôler l’hyperinflation, la fausse transition monétaire a pu se dérouler comme prévu.
C’est pourquoi les nations économiquement développées du monde (à l’exception du Japon) [NdT. petite erreur, voir ici] sont les nations les plus vaccinées – ce n’est pas parce qu’elles sont les plus riches, qu’elles ont un accès immédiat aux meilleures technologies ou qu’elles ont les meilleurs systèmes de « soins de santé ». C’est parce que c’est de ces pays que provient la plus grande demande de biens et que, grâce à la création immédiate de crédits, ils ont la capacité de payer tous ces biens.
Ainsi, les nations développées présentent le plus grand risque d’hyperinflation dans le cadre d’un scénario de statu quo de la demande de biens à long terme et, comme il n’était pas possible de détruire d’abord la demande des consommateurs par la guerre, les consommateurs eux-mêmes sont systématiquement détruits. Le Japon, quant à lui, est de toute façon en pleine spirale démographique descendante et pourrait mettre en œuvre une destruction de la demande à long terme sans guerre ni Sûr et Efficace. Bien que l’Afrique et les pays pauvres du Moyen-Orient présentent une forte demande de biens à long terme, ils disposent de peu de moyens pour payer ces biens et ne représentent donc pas un risque appréciable d’hyperinflation, de sorte qu’ils ont largement échappé aux programmes de vaccination de masse.
Taux de financement garanti au jour le jour 2014 – 19
Mais ensuite, le plan de Globohomo s’est pris un coup de poing dans la figure. Ce coup de massue, avec son compte à rebours de 8, remonte à l’événement de singularité financière du 17 septembre 2019, lorsque le SOFR [NdT. Secured Overnight Financing Rate] est passé en une seule journée de 2,20% à 5,25%, gelant la création de crédit mondiale et plongeant la chronologie de Globohomo dans le chaos. À l’insu de M. et Mme Tout-le-monde, de septembre 2019 à juin 2020, Trump et Mnunchin – à l’aide d’un programme REPO [NdT. ici] du Trésor – ont fait apparaître 17,66 trillions de dollars et ont créé de fait ce qui a été le plus grand événement financier de l’histoire du monde. La question est la suivante: s’agissait-il de dollars de la Réserve Fédérale ou de dollars du Trésor américain? Cet acte de vandalisme monétaire représente-t-il une opportunité rare mais étroite de réfléchir, de réimaginer et de réinitialiser notre faux système monétaire à l’équivalent de ce que Kennedy avait tenté de faire en 1963, mais sans l’argent [NdT. métallique]?
Si la vie telle que nous la connaissions le 18 septembre 2019 avait continué comme si de rien n’était avec cette énorme quantité d’argent supplémentaire en circulation, cela aurait créé l’Armageddon de l’hyperinflation, ce qui est le pire cauchemar de Globohomo; il fallait donc faire quelque chose, et quelque chose d’énorme et de rapide. Ainsi, il n’y a aucune coïncidence dans la chronologie rapide révisée – octobre 2019: le virus est libéré pendant les Jeux Militaires Mondiaux à Wuhan en Chine avec son laboratoire BSL4 fournissant une couverture parfaite; novembre 2019: des vidéos chinoises spectaculaires de personnes mourant dans les rues à cause de l’étrange et catastrophique nouveau virus; décembre 2019: l’OMS déclare l’urgence sanitaire mondiale; février 2020: interdiction de voyager dans le monde; mars 2020: début du confinement aux USA; mai 2020: début de l’opération Warp Speed, etc.
(L’histoire entière de la civilisation humaine telle qu’on nous la raconte est censée s’être développée à cette période) Températures historiques dans l’hémisphère nord de la Terre à haute latitude
Le plan initial pour détruire la demande, étouffer l’hyperinflation et commencer la transition vers une fausse monnaie consistait à enfermer tout le monde jusqu’en 2030 en utilisant comme excuse la fausse crise climatique de l’Agenda 2030 de l’ONU. Cela aurait probablement commencé une fois que la plupart des nations occidentales auraient eu des gouvernements de gauche et/ou de faux conservateurs, conformes et contrôlés, fermement en place. Une fois tout le monde enfermé, il n’y aurait plus eu de sorties shopping, les garçons n’auraient jamais rencontré les filles et la reproduction se serait effondrée dans le monde développé. Pas de naissances et beaucoup de morts de désespoir – un démocide bien propret et étincelant.
Globohomo ne pouvait pas se permettre de laisser M. et Mme Tout-le-monde découvrir que l’entièreté du réchauffement de la planète dans l’hémisphère nord a eu lieu il y a 11 600 à 10 000 ans. Et ils ne pouvaient surtout pas apprendre que l’hémisphère nord de la Terre s’est en fait légèrement refroidi au cours des 8 000 dernières années.
Niveaux mondiaux de CO2 et température au cours des temps géologiques
Globohomo ne pouvait pas non plus permettre à M. et Mme Tout-le-monde d’apprendre que la dernière fois que les niveaux de dioxyde de carbone ont été aussi bas, la Terre a connu son déclin permien, au cours duquel 95% des espèces ont disparu. Ils ne pouvaient pas non plus apprendre que les températures mondiales sont en réalité égales à deux minimums historiques antérieurs, à savoir l’Ordovicien et la transition Carbonifère/Permien. Ils ne pouvaient jamais apprendre que la vapeur d’eau est un gaz à effet de serre plus efficace que le dioxyde de carbone. Et ils ne pouvaient, en aucun cas, apprendre que le principal moteur du réchauffement de la planète est le soleil.
Les scientifiques qui vous apportent la Science
Mais c’est ce qui a failli se passer – au lieu de cela, nous avons eu droit à une politique monétaire déguisée en fausse pandémie et nous nous sommes enfermés pendant que Globohomo attendait que le bon vieux Sûr et Efficace opère sa magie destructrice de la demande. Tous les décès ont été soudainement attribués au virus que, jusqu’à présent, aucun scientifique de la Science n’a réussi à isoler d’un être humain in toto plutôt qu’in silico et beaucoup de M. et Mme Tout-le-monde ont avalé le scénario – peur, espoir, conformité et libération.
Ils ont fait la queue par millions pour obtenir leur produit « Sûr et efficace » afin de pouvoir goûter cette libération, sans même avoir pris la peine d’effectuer une simple recherche Google sur les « vaccins à ARNm » ni cherché à savoir comment tous ces furets s’en étaient tirés après des expériences similaires. Puis sont apparues les variants in silico, maintenant nous avons le SADS [NdT. ici] et la myocardite normalisée chez les enfants de 8 ans, et bientôt nous verrons des milliers de personnes tomber mortes à cause – roulement de tambour – du changement climatique – bruit de cymbale! Attendez-vous donc à ce que le récit du changement climatique soit le signe avant-coureur de la finalité première de ces confinements. Pour sauver mamie du soleil.
La politique monétaire de Donald Trump – Elle ne peut être menée qu’une fois
Mais Trump a-t-il plutôt profité de cette rare mais étroite fenêtre d’opportunité pour réfléchir, réimaginer et réinitialiser notre système de fausse monnaie pour lancer une bombe nucléaire financière qui déclencherait l’hyperinflation bien plus tôt que ce que Globohomo avait prévu, lui forçant ainsi la main pour la mise en oeuvre du Plan-B pandémique de destruction de la demande? Globohomo a-t-il dû changer à la hâte sa raison d’être et condenser son calendrier de transition monétaire – ce serait la raison pour laquelle nous nous retrouvons aujourd’hui dans ce merdier mondial absolu? Ce que je n’arrive pas à savoir, c’est qui doit porter le chapeau pour ces 17,66 trillions de dollars imprimés entre septembre 2019 et juin 2020 – c’est comme si cet argent s’était évaporé, avait été « corziné » [NdT. « corzined » signifie en argot américain, confier son argent à une personne importante et découvrir qu’il a mystérieusement disparu].
La Réserve Fédérale ne détient pas tout, car son « bilan » le 16 septembre 2019 s’élevait à 3,84 trillions de dollars et s’élève aujourd’hui à 8,8 trillions de dollars. Où sont les 12,7 trillions de dollars manquants? Si c’est dans l’aile comptable du Pentagone, cet avion a atterri il y a 21 ans [NdT. voir mon article pour les détails]. Si le Trésor détient sa propre dette (c’est-à-dire des bons du Trésor émis en dollars de la Réserve Fédérale), cela signifie-t-il que le gouvernement américain se paie lui-même lorsqu’il paie les intérêts et que nous avons donc effacé la dette américaine lorsque Trump a réhypothéqué la totalité de celle-ci? Est-ce là le grand secret que le public américain ne pourra jamais apprendre (outre les secrets du changement climatique)? La dette fédérale en septembre 2019 s’élevait à environ 16 trillions USD et serait-ce une coïncidence que 17,66 trillions USD aient été imprimés? Pourquoi pas 10 trillions USD, 35 trillions USD, etc. Les esprits curieux veulent savoir.
Le jeu est-il enfin terminé? Ou est-ce que le jeu ne fait que commencer?
Une partie de cet argent manquant a probablement été retiré pour liquider des positions REPO, mais les banques étant des banques, lorsqu’elles ont pris leur argent REPO au lieu de se prêter de l’argent les unes aux autres puis de liquider leurs positions REPO, elles ont utilisé tout cet argent libre pour acheter des actions technologiques et ont ainsi créé une hyperinflation sur le marché boursier qui s’est déversée dans l’immobilier haut de gamme, les crypto-monnaies, les jets privés, les NFT [NdT. non-fungible tokens] et toutes sortes de conneries en papier, en numérique et en « actifs » haut de gamme. Globohomo n’a pas approuvé. Avec des actions maintenant en baisse de 20%, ces banques pourraient faire face à des pertes si elles vendaient leurs avoirs en actions, donc elles ne peuvent pas vendre et ainsi le monstre de l’hyperinflation se réveille sous le lit de Globohomo. Et on commence à voir que « Sûr et Efficace » a peut-être été un peu plus sûr que prévu. Apparemment, les furets sont de mauvais extrapolateurs linéaires pour les humains.
C’est ce que la Fed tente désespérément d’étouffer – elle essaie de forcer les liquidités à sortir du marché boursier pour liquider les positions REPO 2019-20 et rayer de la carte l’argent de Trump, tout comme le Trésor américain de l’après-Kennedy a chassé et retiré de la circulation le moindre billet des États-Unis. Si l’augmentation des taux d’intérêt ne fonctionne pas, Globohomo fera exploser sa bombe antimatière financière avec un REPO inversé, mais les banques devront alors non seulement prendre leur mal en patience avec des pertes d’actions – un scénario où le plus petit perdant est le plus grand gagnant – mais elles se retrouveront ensuite à détenir des bons du Trésor à 0,75% dans un monde à 3,5+%.
Les banques sont dans la merde et quand les banques sont dans la merde, Globohomo est dans la merde jusqu’à ce qu’il reçoive le prochain renflouement (bail-out) des contribuables sous la forme d’un renflouement (bail-in) à la Barney Frank [NdT. j’explique la différence entre les deux sous cet article]. Mais lorsque l’argent du compte en banque de M. et Mme Tout-le-monde s’envole au moment même où les factures médicales s’accumulent et qu’il renaît sous forme d’actions ordinaires de la banque qui se ratatinent immédiatement dans le néant financier, alors de véritables révolutions peuvent se produire. Hyperinflation ou renflouement, Globohomo devra bientôt choisir son poison, mais M. et Mme Tout-le-monde l’ont déjà choisi pour eux. C’est une course contre la montre des morts à venir – Course à la Mort 2023. Tic-tac, tic-tac…
Nous sommes tous dans la même galère.
D’un point de vue historique, ce à quoi nous assistons aujourd’hui en temps réel était autrefois qualifié de sorcellerie – la coercition d’une grande partie de la population pour lui faire accomplir des actions de masse nuisibles à son bien-être, qui sont néanmoins accomplies pour le seul bénéfice d’une petite minorité malveillante. Et la société ne se rend compte de rien tandis que ces actions délétères produisent leurs effets pernicieux. Les gens, vos amis et vos proches, ne savent pas ce qu’ils ont fait. Ils ne veulent pas savoir ce qu’ils ont fait. Ils se jettent dans le feu en riant, la main dans la main.
Et est-ce une coïncidence que – 2019: L’OMS déclare une urgence sanitaire mondiale 1353: fin de la peste noire 2019 – 1353 = 666
Dans la bataille pour le contrôle du monde, il n’y a pas de règles.
Bail-out, bail-in
Bail-out bancaire: Le gouvernement utilise l’argent des contribuables pour racheter des actifs toxiques et injecter des capitaux dans les banques en faillite afin de les empêcher de faire faillite.
Bail-in bancaire: Disposition de la loi Dodd-Frank. Plutôt que d’utiliser l’argent des contribuables pour injecter des capitaux dans les banques, celles-ci peuvent saisir l’argent des déposants, transformant ainsi la dette en capitaux propres pour maintenir la banque à flot.
Avant de continuer la série sur le climat de John Dee, un court article d’un nouvel auteur sur ce blog, moins didactique mais tout aussi instructif. Merci, Ron.
L’image suivante a fait la tournée de Facebook plus que je ne l’ai fait quand j’étais jeune dans les tavernes des diverses municipalités du Nord de l’Ontario.
MALHEUREUSEMENT, 97% DES UTILISATEURS DE FACEBOOK NE REPOSTERONT PAS CECI, MAIS… 7 espèces d’abeilles ont été ajoutées à la liste des espèces menacées. Si les abeilles disparaissent, les fraises, les avocats, le café disparaitront. Ce problème vous concerne et ceci est votre signal d’alarme.
Je doute fort que beaucoup de participants à Facebook aient effectué des recherches sur sa légitimité avant de la publier. Et bien, je peux vous dire que ce qu’elle dit est vrai – mais, avec ô combien d’omissions et de déductions tendancieuses.
Ceux qui liront cette publication penseront pourtant immédiatement que c’est à coup sûr le changement climatique induit par l’homme qui en est la cause. Ce n’est certainement pas le World Wildlife Fund qui leur expliquera toute l’histoire ou qui y ajoutera les faits ou les détails manquants – ils se contenteront d’agrandir le bouton « Faire un don » sur leur site Web.
En réalité, ces sept espèces d’abeilles sont toutes des abeilles à face jaune et toutes vivent exclusivement à Hawaï. La raison de leur déclin est, en effet, le fait de l’homme – la destruction de leur habitat dû à l’urbanisation, les animaux non indigènes, en particulier le bétail, l’introduction d’espèces végétales étrangères et la transplantation de prédateurs non indigènes.
L’article suivant, dont le lien figure ici, traite de la réduction de la population de crabes des neiges dans les mers de Béring, de Beaufort et des Tchouktches. La saison du crabe des neiges vient tout juste d’être annulée pour la première fois.
Puisque les prophéties et prédictions sur le changement climatique ont toutes lamentablement échoué, les journalistes catastrophistes se sont mis à utiliser des mots plus ambigus comme: probablement, sans doute, vraisemblablement, peut-être ou possiblement. Voilà le genre de vocabulaire auquel on peut désormais s’attendre de la part de ceux qui voudraient rendre le changement climatique responsable du déclin de la population des crabes des neiges ou qui affirment d’autres choses très discutables.
Bien qu’ils mentionnent d’autres facteurs, les médias alarmistes tels que Bloomberg veillent à mettre l’accent sur le fait que le changement climatique est le coupable « le plus probable ». Comme nous le savons, dans les océans du monde entier, à l’exception des phases océaniques naturelles, la prédation est quasiment toujours la cause de la réduction de tous les produits de la mer.
Hypocritement, comme le raconte l’article en lien, un auteur du Anchorage Daily News avait évoqué plus tôt cette année le déclin des crabes des neiges et avait alors cité la surpêche comme en étant la cause, mais il est depuis monté à bord du catamaran du changement climatique.
El Niño et La Niña sont les phases chaudes et froides, respectivement, d’un phénomène naturel récurrent de changement climatique dans l’océan Pacifique. Les tribus indigènes d’il y a plusieurs siècles évaluaient ces conditions et y recouraient pour déterminer où se trouvaient les meilleures zones de pêche, tant en termes de nombre que de taille. Dans l’article en question, les scientifiques mettent en garde contre une exceptionnelle troisième année consécutive de La Niña. Nous pourrions donc avoir droit à une nouvelle histoire de crabe des neiges l’année prochaine, mais cette fois encore, elle sera imputée au changement climatique que provoque le comportement humain irresponsable.
Au milieu de l’année 2020, CNN, grand défenseur du climat, avait publié une histoire similaire à propos du saumon. Cependant, lorsque la nature revient à la normale, on relègue tout simplement ces histoires aux oubliettes et aucune excuse n’est jamais donnée.
Le changement climatique est devenu le coupable tout trouvé de tous les maux et événements naturels. Quoiqu’il se produise dans la nature ou l’environnement, que ce soit vrai ou non, les politiciens de gauche qui les évaluent en attribuent la responsabilité à un changement climatique causé par l’homme.
Comme on peut le constater, la clé de tout le système de mise en oeuvre des politiques progressistes sur les questions liées au changement climatique et de toutes les autres stratégies idéologiques repose avant tout sur des médias complaisants et complices. Après tout, la couverture médiatique est la source principale de toute information publique.
ATTENTION, JE ME SUIS PLANTÉ EN NE LISANT QUE LE RÉSUMÉ DE L’ARTICLE SUR L’OMICRON S QUI FIGURAIT SUR LA PRÉSENTE PAGE! JE PUBLIE ICI UN ARTICLE QUI CORRIGE CETTE MÉPRISE.
Désolé, j’ai eu une panne d’Internet.
J’ai aussi eu une panne d’inspiration, juste après.
J’ai un paquet de notes pour quelques articles en préparation, qui n’attendent qu’à être rédigés. Avant de m’y mettre, j’ai sorti le chien et j’ai vu la rue principale du village totalement envahie par les voitures des gens qui remplissent les restaurants du coin. J’ai vu leurs têtes, leur regard éteint qui donne sur leur cerveau absent, et je me suis demandé, « A quoi bon? »
J’ai néanmoins passé la soirée et une partie de la nuit à chercher ce qui pourrait bien les réveiller. Mais rien de nouveau, le programme suit tranquillement son cours. Quelques âmes courageuses dénoncent, interpellent, publient, filment, intentent, etc. Je les relaye ici, je tente de séparer le bon grain de l’ivraie et de pointer directement le coeur du sujet, dans le chaos informationnel ambiant.
Mon épouse me dit que ses collègues commencent à s’inquiéter.
Commencent.
Juste parce que leur facture énergie a subitement augmenté.
Je me disais que ce serait donc une idée de faire le point, d’être plus simple et concis, et de m’adresser à ceux qui commencent à s’inquiéter. Pas ceux qui ont déjà compris, les autres. Qu’ils commencent à s’inquiéter de la pénurie énergétique, de la guerre Russie/Ukraine qui n’en finit pas, des effets secondaires des injections, de la pénurie de main d’oeuvre, des problèmes de réseaux de distribution, d’agriculture, d’inflation, de possible guerre civile, de recrudescence de la violence urbaine, de vagues d’immigration démentielles, des dangers de la géoingénierie.
Je pourrais donc faire le point – simple et concis – sur tous ces sujets et emballer le tout en quelques phrases. La crise énergétique sert à parachever la destruction des entreprises. Elle a été fabriquée de toute pièce par la fermeture des centrales nucléaires et par la guerre en Ukraine, volontairement menée de manière à durer le plus longtemps possible, et à démanteler ce pays. L’objectif des injections est de réduire l’espérance de vie de la majorité des populations et d’expérimenter la technologie de l’Internet des Corps. Les réseaux de distribution, volontairement sabotés depuis le Covid, le sont aujourd’hui par les coûts des transports. L’agriculture industrielle, qui se relevait tant bien que mal des mesures Covid est volontairement détruite par la pénurie d’engrais – justifiée par la pénurie énergétique – par la guerre, et la persécution des agriculteurs. L’inflation, entièrement fabriquée pour camoufler le pillage complet de l’argent public, est volontairement aggravée pour détruire ce qui reste de l’économie occidentale, après quoi le seul choix donné sera celui des monnaies digitales des banques centrales. Le chaos sociétal à venir provoquera un niveau de violence impossible à imaginer, que la présence de populations immigrées servira à parachever. Si la modification des couches atmosphériques par géoingénierie se poursuit au rythme actuel, entamé en 2010, toute vie pourrait disparaître sur Terre d’ici cinq ans.
Mais à part le chapitre géoingénierie, que j’aborderai, j’ai déjà expliqué tout ça en long et en large.
Note:j’ai supprimé la fin de l’article, qui contenait l’erreur expliquée ici.
Pour les lecteurs fidèles de cette série, un petit bonus: le changement climatique fait augmenter les discours haineux sur le Net! Des articles en anglais ici, ici, ici, ici, ici, ici et ici. Notez que sur le dernier lien (EcoWatch), on vous prévient qu’il reste moins de huit ans pour sauver la planète. Voilà qui est précis.
Voici un court extrait de cette orgie d’inepties:
Ayushi Narayan, doctorante à l’université de Harvard et auteure de l’étude, s’est penchée spécifiquement sur le service postal américain en examinant plus de 800 000 rapports de harcèlement et de discrimination déposés auprès du bureau de l’égalité des chances en matière d’emploi de l’agence entre 2004 et 2019. Elle a noté le lieu où chaque incident s’est produit et a rassemblé les données météorologiques locales pour chaque rapport.
Elle a constaté que lorsque les températures dépassaient 32 degrés, le nombre de rapports augmentait d’environ 5%, par rapport à des températures plus fraîches, entre 15 et 21 degrés. Elle a également constaté une augmentation plus faible des incidents, d’environ 2,6 %, lorsque les températures dépassent 26 degrés.
[…]
Une deuxième étude, publiée la semaine dernière dans la revue médicale The Lancet par un groupe de chercheurs de l’Institut de Potsdam pour la recherche sur l’impact climatique en Allemagne, suggère un lien entre la météo et les discours de haine en ligne. L’étude a utilisé une technique d’apprentissage automatique pour identifier les discours de haine sur Twitter, en analysant 4 milliards de tweets dans près de 800 villes américaines entre 2014 et 2020.
Les chercheurs ont constaté que les discours de haine ont augmenté dans les conditions très froides et très chaudes. Par rapport aux températures modérées des années 50 et 60, les chercheurs ont constaté que les discours de haine ont augmenté jusqu’à 12,5% en cas de froid extrême et jusqu’à 22% en cas de chaleur extrême.
En cas de froid extrême… Il y a qui vont râler (en ligne) cet hiver. Quelle ingratitude.
Vous aurez compris qu’on utilise la vieille recette de flouter la différence entre météo et climat. Heureusement, nous avons ce bon John Dee.
Note: j’ai remplacé autant que possible les liens vers des références en anglais par leur version française, ce que j’aurai du faire depuis longtemps, sorry.
La température du Royaume-Uni au cours des 100 dernières années (3ème partie)
Un coup d’oeil sur les maxima et minima quotidiens au cours des 100 dernières années. La situation empire-t-elle, et que signifie « empirer »?
John Dee
7 septembre
Au moment où les choses devenaient intéressantes dans la troisième partie, le compteur s’est arrêté. Nous avons à nouveau examiné deux stations météorologiques britanniques (l’aéroport de Heathrow et l’aéroport de Wick) et j’ai utilisé leurs relevés de température maximale quotidienne moyenne (tmax) pour expliquer certaines choses sur les anomalies de température. Nous avons vu à quel point les anomalies peuvent être utiles, et nous avons vu comment elles peuvent facilement induire en erreur quand on n’a pas l’habitude de travailler dessus. J’ai ensuite préparé une autre estimation de l’effet d’îlot de chaleur urbain (ICU), qui s’élève à 1,6°C sur 70 ans, ce qui se compare favorablement à ma première estimation de 1,8°C par siècle que vous trouverez dans cette newsletter.
Plat du jour
Aujourd’hui, je vais enfiler un tablier propre parce que je vais préparer un plat très spécial, à savoir la série d’anomalies de la température maximale quotidienne moyenne (tmax) dérivée des 34 stations de l’échantillon. J’encourage les personnes qui disposent de beaucoup de temps libre à faire de même en utilisant les données historiques que le Bureau Météorologique fournit gracieusement sur cette page.
Le repas d’aujourd’hui se termine par un amusant petit dessert, où nous examinons l’impact de la création du GIEC sur la température maximale quotidienne moyenne au Royaume-Uni. Je me suis toujours demandé pourquoi il s’agissait d’un groupe intergouvernemental sur le changement climatique et non d’un groupe interscientifique, mais ceci est une autre histoire pour un autre jour. Bon appétit!
Spaghetti à la bolognaise
Nous voici enfin arrivés à la série d’anomalies de la température maximale quotidienne moyenne (tmax) pour un échantillon de 34 stations météorologiques du Royaume-Uni:
J’ai colorié Heathrow en rouge foncé, car c’est là que sont établis un grand nombre de nos records de température, et parce que nous avons étudié les données d’Heathrow dans les moindres détails. Quiconque pense qu’Heathrow était froid en 1953-1969 devrait revenir en arrière et relire la précédente newsletter et s’imprégner de mes propos sur l’illusion de l’anomalie et l’analogie de la fixation de la queue de l’âne. En résumé, Heathrow semble plus frais en 1953-1969 parce qu’il est plus chaud en 1991-2020 – tout dépend de l’endroit où l’on attrape la queue!
Certains se demanderont peut-être pourquoi je n’ai pas fait ce qu’il fallait et utilisé la normale climatologique de l’OMM de 1961 à 1990 pour normaliser mes données. La réponse à cette question est que 7 des stations n’étaient pas opérationnelles en 1961 et que je ne peux donc pas déterminer leur anomalie à moins de truquer le processus et d’opter pour une normalisation tronquée. Ce qui est important, c’est que toutes les stations soient normalisées de manière cohérente.
Trou normand
Maintenant que les 34 stations sont normalisées de manière cohérente, nous pouvons commencer à calculer leur anomalie moyenne générale sur une base annuelle afin d’obtenir une estimation pour le Royaume-Uni dans son ensemble. Voici à quoi cela ressemble:
J’ai commencé la série en 1865 et non en 1853, car c’est en 1865 que deux stations apparaissent dans l’échantillon (Oxford et Armagh). Deux têtes valent mieux qu’une, et on ne peut pas calculer une moyenne à partir d’un seul chiffre! Sur ce point, n’oubliez pas que la taille de l’échantillon augmente avec le temps, et que la première année où nous voyons les 34 stations sortir leurs thermomètres est 1986. La moitié de l’échantillon, soit 17 stations, a été atteinte en 1948.
Qu’observons-nous donc? Je dirais que nous voyons deux grandes caractéristiques, la première étant une anomalie moyenne qui monte en flèche depuis 1985 environ, ainsi qu’une période cyclique de 1865 à 1985. Avant 1985, il n’est pas certain que l’anomalie moyenne ait beaucoup bougé, si ce n’est qu’elle a oscillé, mais je soumettrai cette hypothèse à des tests statistiques formels dans un instant.
Ce que disent les statistiques
Ce que nous devons faire maintenant, c’est ignorer ce bizarre aspect cyclique et effectuer une régression linéaire classique pour nous donner une estimation du taux général de réchauffement observé au cours de ces 157 années. Voici les principaux tableaux:
Cela nous indique que la température maximale quotidienne moyenne (tmax) pour le Royaume-Uni a augmenté à un taux de 0,007°C par an, en moyenne, cette estimation ponctuelle étant statistiquement très significative (p<0,001). Cela équivaut à 0,7°C par siècle, ce qui est bien inférieur à l’estimation de 1,5°C des températures moyennes mondiales proposée par le GIEC.
Avant de nous lancer dans une discussion alambiquée sur le fait que le Royaume-Uni n’est pas représentatif au niveau mondial sur la période 1865-2021 (ce qui suggérerait que le « réchauffement climatique » est un terme inapproprié), nous pouvons prendre le temps de réfléchir pour réaliser que la moyenne arithmétique de la température mondiale est nécessairement dérivée des températures minimales et maximales, ce qui signifie que ce doit être une augmentation significative des températures minimales qui est à l’origine de ce 1,5°C. De nombreuses recherches révèlent que c’est effectivement le cas, mais il est utile de le confirmer étape par étape à l’aide de quelques données maison et de techniques simples.
Mes abonnés pourront peut-être se demander pourquoi c’est la température minimale, et non la température maximale, qui est le moteur au niveau mondial. Minimum signifie nuit: qu’est-ce qui fait que nos nuits sont plus chaudes qu’elles ne devraient l’être? Un élément de réponse à cette question se trouve dans ce que nous décidons d’emmener au lit pour nous tenir chaud. Si vous aviez le choix entre une fiole de dioxyde de carbone chaud, une bouteille d’eau chaude ou une dalle de béton chaude, que mettriez-vous sur vos orteils par une froide nuit d’hiver?
La main de Salomon
À ce stade, je vous suggère d’oublier tout ce que vous savez sur le changement climatique et de recouvrir de votre main la partie droite de la diapositive à partir de 1985. Que voyez-vous? Mes globes oculaires signalent une anomalie oscillante qui monte puis descend, sans se réchauffer ni se refroidir sur le long terme.
Comment est-ce possible alors que nous brûlons des combustibles fossiles depuis le 18e siècle et que les émissions de CO2 ont augmenté de façon quasi exponentielle depuis la Révolution Industrielle?
De toute évidence, il est impossible que le réchauffement climatique anthropique (alias réchauffement climatique dû à l’homme, alias réchauffement planétaire, alias changement climatique, alias crise climatique, alias urgence climatique) ait été le seul et unique moteur des températures maximales quotidiennes moyennes au Royaume-Uni sur cette période.
Maintenant, déplacez votre main pour couvrir les points avant 1985. Pourquoi ne voit-on des taux de réchauffement apocalyptiques qu’à partir de 1985? Le dioxyde de carbone est-il paresseux ou avons-nous par inadvertance mesuré l’ICU à des endroits quelque peu inappropriés pour une entreprise scientifique?
Un dessert amusant
Le Groupe d’Experts Intergouvernemental sur l’évolution du Climat (GIEC) a été fondé en 1988. En 1988, j’étais un jeune scientifique du gouvernement britannique qui avait été promu d’Agent Scientifique Supérieur (ASS) à Agent Scientifique Confirmé (ASC). En tant que ASS en cours de formation pour devenir ASC, je suivais mon ASP (Agent Scientifique Principal ) à toutes sortes de réunions de haut niveau.
À l’époque, une chose dérangeait sérieusement les scientifiques de haut niveau: la tendance à retirer le financement de la science des mains des scientifiques pour le mettre entre les mains de « costards » au sein des divisions politiques. J’en parlerai peut-être dans une prochaine newsletter, mais il suffit de dire qu’entre 1988 et 1998, la science a connu une mort douloureuse, non seulement au Royaume-Uni, mais dans tous les pays qui ont suivi la même voie. Nous l’appelions la « science du carnet de chèques », marquant la fin de la science dirigée par des scientifiques pour le bien de la science, au profit d’une science dirigée par des administrateurs pour le bien de la politique. La science du climat, qui était un domaine nouveau à l’époque, a ouvert la voie.
C’est dans le contexte de ces changements majeurs dans le financement de la science (dont le public n’a jamais entendu parler) qu’il faut situer la création du GIEC, dont la mission n’était pas d’étudier la science en tant que telle, mais de rassembler des preuves à l’appui de son principe central, à savoir le climat anthropique. Les financements n’ont pas tardé à suivre, de même que tous les articles, toutes les équipes de recherche, tous les nouveaux doctorants et professeurs brillants, et tous les départements bien financés. Devant une telle assiette au beurre, on vient avec des ronds de pain ou ses épinards (si on sait ce qui est bon pour soi).
Alors, à propos de ce dessert amusant… et si nous établissions une variable indicatrice qui marque la période pré-GIEC de 1865 à 1987 et la période post-GIEC de 1988 à 2021. Qu’est-ce que nous trouvons?
Nous trouvons ceci:
Cela se résume à l’absence totale de preuves d’un réchauffement de tmax sur la période 1865-1987 (p=0,471), et à une tendance au réchauffement statistiquement significative pour 1988-2021 qui s’élève à 0,022°C par an ou 2,2°C par siècle (p=0,009). Ce n’est qu’après la mise en place du GIEC, avec ces politiciens en costume qui détiennent toutes les subventions, que nous voyons un réchauffement qui mérite d’être mentionné. S’agit-il d’une de ces coïncidences où la corrélation ne prouve pas la causalité ou autre chose encore?
Je parie sur la coïncidence (j’ai prévenu que j’allais être amusant!) mais la véritable question d’importance ici est de comprendre pourquoi nous ne voyons aucune preuve de réchauffement de tmax sur une période de 123 ans. Pour nous y aider, j’ai tracé une paire de graphiques:
Si vous montrez le premier de ces graphiques aux activistes, ils trouveront un moyen de l’ignorer ou de le rejeter, car il ne repose que sur un échantillon de 34 stations météorologiques, après tout, qui n’est peut-être pas représentatif. Ironiquement, cet argument renforce l’idée que le réchauffement climatique n’est pas global, mais les activistes ont tendance à vouloir le beurre et l’argent du beurre (pour accompagner leur pain à la farine de grillons). Si ce n’est pas le cas, ils feront remarquer que l’analyse n’a pas été faite par une « personne approuvée », ce qui est également ironique parce que c’est précisément moi qui ai pelleté des analyses de cette nature sous le nez de fonctionnaires du gouvernement jusqu’au niveau de Secrétaire Adjoint, et de membres élus du parlement jusqu’au niveau de Secrétaire d’Etat. Cela impliquait une grande responsabilité quant à l’exactitude des chiffres – une compétence que j’ai heureusement conservée jusqu’à ce jour!
Il peut donc s’avérer plus astucieux de présenter la deuxième diapositive en premier, car cela soutiendra leur croyance religieuse selon laquelle nous sommes tous condamnés pour nos péchés. En outre, vous pouvez toujours souligner l’agréable fait que j’ai moi aussi atteint le grade étourdissant de ASP (appelé plus tard Grade unifié 7, ou G7) et que j’ai dirigé une unité d’analyse statistique du gouvernement pour gagner ma croûte. Une fois que l’autre aura commencé à se relâcher et à se mettre en confiance (et que l’on aura mentionné au moins une fois la catastrophe imminente), essayez le premier graphique, mais préparez-vous à être malmené.
Sur ce, je pense qu’il est grand temps d’ouvrir un paquet de digestifs!
Je n’ai jamais vu de pays se suicider économiquement auparavant et c’est assez magnifique de par son absurdité. J’ai l’impression de conduire sur l’autoroute de la vie avec, au loin, des feux clignotants bleus et rouges. Et puis on passe à côté d’un carambolage de cinq voitures et, fascination morbide oblige, impossible de détourner le regard.
En Europe, le prix du gaz naturel est en train de devenir incontrôlable. Il est désormais environ 10 fois supérieur à ce qu’il était en moyenne au cours de la dernière décennie et 10 fois plus élevé qu’aux États-Unis. Cela a semé la pagaille sur un continent qui se trouve maintenant au bord du gouffre économique. L’inflation atteint des sommets inégalés depuis 40 ans, entraînant la fermeture d’industries entières et d’entreprises, et remplissant la population de terreur lorsqu’elle reçoit ses factures d’énergie par la poste. Et cela ne fera qu’empirer à l’approche de l’hiver.
En mai, j’ai écrit un article intitulé Cycles de Turbulence qui contenait un graphique décrivant l’avenir probable de la race humaine si nous maintenons la trajectoire actuelle. Le programme du Grand Reset semble en bonne voie et il est donc temps de mettre à jour le graphique.
GUERRE MONDIALE EFFONDREMENT ÉCONOMIQUE CRISE ALIMENTAIRE CHOC ÉNERGÉTIQUE GUERRE RÉGIONALE PLANDÉMIE
Les étapes de mon tableau ne sont pas mutuellement exclusives. Chacune s’appuie sur l’autre, contribuant ainsi à l’étape suivante. Ainsi, la pandémie fait toujours rage (apparemment) et l’économie mondiale peine toujours à rebondir. La Chine est toujours plongée dans sa folie du zéro-covid et provoque des ravages dans les chaînes d’approvisionnement. Toutes les manigances de l’ingénierie sociale attendent la prochaine vague de leur mise en œuvre et la technologie qu’elle a suscitée ne cesse d’être développée.
La guerre régionale est encore à l’état embryonnaire. Elle continuera à mûrir jusqu’en 2023, « Année de l’Enfer » de Martin Armstrong. Nous atteindrons probablement le sommet du graphique en octobre 2024.
Si vous avez lu certains de mes articles, vous vous souvenez peut-être que je suis étudiant en histoire. Alors permettez-moi une brève digression.
À la mi-octobre 2024, nous assisterons à un alignement planétaire inédit depuis 536 après J.-C., une année que le médiéviste de Harvard, Michael McCormick, décrit comme « le début de l’une des pires périodes à vivre, si ce n’est la pire année« . L’année 536 a marqué le début d’un hiver volcanique qui a fait chuter les températures estivales de 2,5 degrés Celsius en Europe. Les éruptions volcaniques ont entraîné des mauvaises récoltes et des famines qui ont duré des décennies. Cette situation a ensuite été compliquée par la Peste de Justinien, qui a commencé en 541. Elle a causé des millions de morts et a déclenché le Petit Âge Glaciaire de l’Antiquité tardive, qui a duré de 536 à 660. N’hésitez pas à explorer cette tangente en commençant ici – Hiver volcanique de 536.
Avant de poursuivre, je vous propose cette image de l’alignement planétaire du 13 octobre 2024. La Terre est prise dans un carré parfait des 4 grandes planètes extérieures – Jupiter, Saturne, Uranus et Neptune.
Crise énergétique européenne
La crise énergétique en Europe a souvent été mise en parallèle avec le « choc énergétique » des années 1970. Ce fut une période de forte inflation qui, bien que douloureuse, a été surmontée sans problème. Donc, assurément, cette crise énergétique ne sera pas différente de la précédente, n’est-ce-pas? L’inflation va monter en flèche, les approvisionnements seront restreints et, bien que la situation soit douloureuse, nous allons à nouveau surmonter la tempête. En fait, nous traverserons cette tempête en un an ou deux, contre une décennie la dernière fois.
Tempérons un peu cet optimisme et analysons pourquoi cette crise n’a rien à voir avec celle des années 1970.
Le 6 octobre 1973, une coalition d’États arabes dirigée par l’Égypte et la Syrie a lancé une attaque surprise contre Israël, connue aujourd’hui sous le nom de guerre du Kippour. Leurs objectifs étaient de récupérer la péninsule du Sinaï et les hauteurs du Golan.
Le 19 octobre, Richard Nixon demande au Congrès 2,2 milliards de dollars pour soutenir Israël. Dirigée par l’Arabie saoudite, l’OPEP (Organisation des pays arabes exportateurs de pétrole) décrète un embargo sur le pétrole à l’encontre des États-Unis et d’autres pays soutenant Israël – Canada, Japon, Pays-Bas et Royaume-Uni. Le prix du pétrole a triplé et même si l’embargo n’a duré que quelques mois, jusqu’en janvier 1974, le prix du pétrole est resté élevé même après la levée de l’embargo.
Ce contexte étant posé, analysons pourquoi ce choc énergétique n’a rien à voir avec celui de 1973.
Le pétrole alimente les véhicules. Le gaz naturel produit de l’électricité et alimente de nombreux processus industriels. Un manque de pétrole signifie moins de voitures et de camions sur les routes. Un manque de gaz naturel entraîne une hausse des prix, ce qui conduit à la désindustrialisation et à l’implosion des économies. Et c’est exactement ce qui est en train de se produire.
Six entreprises britanniques sur 10 risquent de faire faillite devant l’augmentation de leurs facturesDes coûts énergétiques en augmentation incontrôlable obligent des entreprises belges à fermer
La fermeture de ne serait-ce que 25% des entreprises ne constitue pas un simple désagrément. Ces entreprises sont des employeurs. Leur fermeture met des millions de personnes au chômage et garantit une nouvelle Grande Dépression. Alors essayez d’imaginer ce que fera la fermeture de 60% des entreprises. Et il ne s’agit pas seulement du Royaume-Uni. Un rapport de Goldman Sachs prévoit « une réduction de 65% de l’industrie en Allemagne si les flux étaient totalement interrompus ». Et avec la fermeture indéfinie de Nord Stream 1, ces flux ont maintenant complètement cessé. [NdT. et ne reprendront pas avant très longtemps suite aux « attentats« ]
Et en raison de la folie absolue des marchés à terme du gaz, toute l’Europe est affectée. Même les pays qui ne dépendent pas du gaz russe. Le prix du gaz est fixé par la maison de commerce TTF (Title Transfer Facility) aux Pays-Bas.
Mais il y a pire. Bien pire.
Les industries lourdes qui consomment beaucoup d’énergie ne peuvent pas se permettre de rester ouvertes. Il s’agit notamment des aciéries et autres fonderies et usines de fabrication de métaux. Sans métaux, on ne peut plus RIEN fabriquer.
Shutdown = fermeture Delayed start = démarrage différé« Une mauvaise politique énergétique menace de désindustrialiser l’Europe. Le prix du zinc a explosé après qu’une des plus grandes fonderies d’Europe a annoncé qu’elle cesserait sa production le mois prochain tandis que la crise de l’énergie sur le continent menace d’entraver les industries lourdes. »
Si vous pensez que ce qui précède est grave, restez assis pour lire la suite.
Les engrais synthétiques à base d’ammoniac qui nourrissent 4 milliards de personnes sur cette planète sont fabriqués en mélangeant de l’azote atmosphérique avec du gaz naturel sous une pression et une température élevées, selon un procédé appelé Haber-Bosch.
Les prix élevés de l’énergie en Europe ont entraîné l’arrêt de 70% de la capacité de production d’engrais de la région.
Moins d’engrais, c’est moins de nourriture. C’est pourquoi la « crise alimentaire » est la suivante sur mon graphique.
En octobre 1973, la population mondiale s’élevait à 3,913 milliards d’habitants. Elle en compte aujourd’hui exactement le double et ce sont les engrais qui nourrissent toutes ces personnes en plus.
La réduction de la production d’engrais risque de provoquer une crise alimentaire – Environ 70% de la capacité de production d’engrais est à l’arrêt – Les répercussions causeront du tort même aux fermiers et aux consommateurs extra-européensL’augmentation des prix du gaz touche l’industrie chimique et des engrais en Europe Les capacités de production en milliers de tonnes par an sont indiquées à côté des produits impactés en vert, mis à jour le 2 septembre 2022
Maximo Torero, économiste en chef de l’Organisation pour l’Alimentation et l’Agriculture des Nations Unies (Food & Agriculture Organization – FAO), a déclaré à Bloomberg TV que la hausse des prix des engrais pourrait réduire la production mondiale de céréales de plus de 40% lors de la prochaine saison de plantation. Si l’on ajoute à cette équation les pertes de récoltes dues à des sécheresses record et à la guerre en Ukraine, on peut s’attendre à une véritable famine dans les pays du Sud en 2023. Cela entraînera des troubles sociaux et des conflits régionaux.
Tout cela est, bien sûr, voulu. Un livre blanc publié en 2020 par le Forum Économique Mondial et le cabinet de conseil McKinsey and Company met en garde contre les émissions de gaz à effet de serre et le ruissellement potentiel des engrais, préconisant la fin des subventions aux engrais dans les pays en développement et louant la Chine pour ses efforts de réduction de l’utilisation des engrais.
Les gouvernements ne peuvent pas résoudre ce problème
Mais ils essayeront quand même et les résultats seront désastreux. Tellement désastreux que j’ai peut-être inversé à tort les termes « Crise alimentaire » et « Effondrement économique » sur mon graphique. Le temps nous le dira.
L’Allemagne tente de faire bonne figure et s’assure que tout le monde sait que tout ira bien car elle a rempli ses réservoirs souterrains à 80%. Ce que la plupart des gens ignorent, c’est que ces réserves ne dureront que deux mois, soit jusqu’à la mi-novembre, lorsque le froid commencera à sévir. Gazprom a construit ces réservoirs souterrains pour assurer l’acheminement du gaz en cas de problèmes et de pannes de maintenance. Ils n’ont jamais été conçus comme une alternative à l’approvisionnement par gazoduc.
Mais pas d’inquiétude. L’Allemagne peut obtenir son gaz sous forme de GNL (gaz naturel liquéfié), non? Non, pas du tout. Elle ne le peut pas. Elle n’a pas de terminal GNL pour décharger et gazéifier le GNL. Sa seule solution est d’expédier le GNL vers d’autres pays et de transporter le gaz via le réseau de gazoducs qui traverse l’Europe. Une entreprise coûteuse et délicate.
Il y a aussi un autre facteur auquel de nombreux pays européens vont devoir faire face. Il n’y a pas assez de GNL produit dans le monde pour remplacer la quantité de gaz qui transitait par les gazoducs russes. Quelqu’un va devoir s’en passer.
L’Allemagne dispose d’un grand nombre de réacteurs nucléaires qui pourraient garder ses citoyens au chaud cet hiver. Le problème est qu’ils ont presque tous été mis hors service parce que le pays a été complètement pris en charge par le parti anti-humain des Verts. Mais en désespoir de cause, même eux ont envoyé une demande à l’exploitant de deux de ses dernières centrales nucléaires pour qu’il interrompe le déclassement des centrales le 31 décembre. Il devrait être parfaitement clair pour le monde entier que le Parti des Verts allemand ne comprend rien à l’énergie. L’exploitant de l’une des centrales, E.ON, a expliqué qu’il n’était pas possible de mettre sa centrale Isar 2 en mode de réserve au-delà de sa fermeture prévue à la fin de 2022. Le ministre allemand de l’économie, Robert Habeck, s’est dit « quelque peu déconcerté » après avoir reçu la lettre d’E.ON, qui met en doute la faisabilité du plan. L’Allemagne ne peut donc même pas redémarrer les réacteurs en service dont le démantèlement est prévu, sans parler des centrales qui ont déjà été mises au rancart.
Robert Habeck s’en moque éperdument. Il sait que l’économie allemande va être désindustrialisée cet hiver. C’est un prix qu’il est prêt à payer.
NEW – German Economy Minister Habeck can imagine parts of the economy will "simply stop producing for the time being." pic.twitter.com/raA5DpCcKi
Le Ministre de l’Économie Habeck imagine que des secteurs de l’économie « cesseront de produire pour le moment ».
Ces politiciens sont la nouvelle aristocratie. Après un hiver froid et sombre, la population allemande pourrait envisager une solution française très XVIIIe siècle à ce problème.
Un nouveau scénario à la « Lehman Brothers »
Les pays européens soutiennent désespérément leurs compagnies de production énergétique en difficulté. Le commerce de l’énergie est mis à mal par des appels de marge d’au moins 1500 milliards de dollars, ce qui met la pression sur les gouvernements pour qu’ils fournissent davantage de liquidités et renflouent les entreprises de services publics. La Finlande a mis en garde contre un scénario à la « Lehman Brothers », avec des compagnies d’électricité confrontées à de soudaines pénuries de liquidités. L’aggravation de la crise et l’injection de nouveaux milliers de milliards sur le marché ne feront que stimuler l’inflation et plonger l’ensemble de la zone euro dans une profonde récession. Mais bien sûr, ces renflouements sont tous annoncés comme des « mesures anti-inflation ». Sans parler de l’ironie évidente du fait que les coûts énergétiques des ménages ne sont pas inclus dans les statistiques de l’IPC (indice des prix à la consommation), mesure que les gouvernements utilisent pour collationner les données et calculer l’inflation, l’ironie du fait que les gouvernements arrêteront l’inflation en créant de l’inflation ne devrait pas échapper à ceux d’entre nous qui observent la lente autodestruction de notre mode de vie.
Et, bien sûr, on peut se demander pourquoi, s’il est si facile pour les gouvernements d’imprimer de l’argent et de le donner aux fournisseurs d’énergie, ils ne paient pas tout le temps les factures d’électricité de tout le monde? Même si la théorie monétaire moderne (TMM) voudrait nous faire croire que de telles choses sont probablement possibles, la situation économique actuelle, qui découle de l’impression de monnaie effectuée pendant la plandémie, démontre la totale imposture de cette nouvelle école de politique économique.
Les dirigeants de la zone euro mesurent les conséquences de la calamité qu’ils se sont infligée. Mais ces marionnettes du FEM s’en moquent. Parce que lorsque la poussière retombera, et que des milliards de personnes auront été exterminées, l’utopie sera à leur portée.
Macron annonce à la France « la fin de l’abondance » et des temps difficiles à venir
Ce qu’il veut dire, c’est que « la fin de l’abondance » est venue pour VOUS. Les membres de sa classe mangeront encore du caviar alors que vous devrez vous contenter d’une seule pomme de terre pour nourrir votre famille.
La mort de la reine Elizabeth marque la fin d’une époque
Je vais terminer cet article sur l’histoire qui a accaparé en continu le cycle des informations. La mort de la reine Elizabeth a eu un profond impact sur les habitants de ma patrie. Je n’ai jamais été royaliste, mais je n’ignore pas non plus le rôle que la famille royale a joué dans la Grande-Bretagne d’après-guerre. La mort d’une monarque qui règne depuis 1952 est un présage que personne ne devrait ignorer. Elle signale la fin d’un cycle et le début de quelque chose de funeste, comme le suggère le nom du nouveau monarque.
Le roi Charles III est désormais assis sur le trône d’un pays qui a autrefois régné sur la moitié du monde.
Les règnes de Charles I et II ont été marqués par la guerre civile. Il est inconcevable qu’une monarque régnante telle qu’Elizabeth appelle son fils aîné, et héritier du trône, Charles.
La première guerre civile anglaise a éclaté en 1642, moins de 40 ans après la mort de la reine Elizabeth I (!), et 17 ans après l’ascension de Charles Ier sur le trône. Je ne me lancerai pas dans des explications historiques, mais l’époque fut sanglante et les Roundheads d’Oliver Cromwell ont vaincu les Cavaliers de Charles, ce qui a valu au roi de perdre sa tête pour trahison en 1649.
Charles II, le fils de Charles Ier, a poursuivi la guerre de son père contre les parlementaires, jusqu’à sa défaite en 1651, et s’est réfugié en France pendant neuf ans. Il a finalement été rétabli comme monarque en 1660 après la mort de Cromwell et l’histoire réécrite le dépeint comme un roi populaire. En réalité, il n’a cessé de dissoudre les parlements, d’interférer dans la politique et de mépriser les nouvelles réalités politiques introduites par Oliver Cromwell, qui ont relégué la monarchie au rang de monarchie constitutionnelle.
Je vous laisse sur cette pensée. Peu de gens comprennent que le Grand Reset est un projet qui a été lancé par le roi Charles III. Vive le Roi!
Le Grand Reset est lancé! « Maintenant que nous passons du stade du secours à celui du redressement, se présente à nous une occasion unique, mais qui se réduit rapidement, de tirer des enseignements et de nous replacer sur une voie plus durable. C’est une occasion que nous n’avons jamais eue auparavant et que nous n’aurons peut-être plus jamais. Nous devons utiliser tous les leviers dont nous disposons, en sachant que chacun d’entre nous a un rôle vital à jouer. »
Maintenant que vous aurez compris que l’avenir des villes est derrière elles, ceci vous aidera à envisager votre future vie rurale sous l’angle de seule véritable alternative au modèle industriel en perdition et au suivant – le Grand Reset. Charles vous détaillera ce que je serine depuis deux ans sur ce blog. Ce n’est pas mon épouse, qui passe huit mois par an dans le potager familial, qui vous dira le contraire, ni le fermier/éleveur du village chez qui nous allons chercher – à pied – notre viande bio d’animaux de pâturage, d’une qualité qui n’existe tout simplement pas dans la grande distribution, à un prix inférieur à ce qu’on trouve aujourd’hui en magasin.
On reprend ensuite la série des très instructifs articles « climat » de John Dee, apparemment un peu techniques pour mes lecteurs mais que je continuerai néanmoins à traduire et publier puisqu’ils sont, en plus, très amusants.
La production alimentaire mondiale dépend du sol et de la pluie. Les robots n’y changeront rien.
De tous les miracles des temps modernes, le moins apprécié est l’incroyable abondance de nourriture à bas prix aux États-Unis et dans d’autres pays développés. L’ère de la nourriture bon marché est en train de se terminer, pour diverses raisons qui tendent à se renforcer mutuellement.
Nous sommes devenus tellement dépendants d’une agriculture industrielle qui tire son énergie du diesel que nous avons oublié que lorsqu’il s’agit de produire de la nourriture, « chaque petit geste compte » – même les petits jardins ou les petites serres peuvent fournir des quantités significatives de nourriture et donner de la satisfaction.
Pratiquement tous les terroirs/microclimats tempérés se prêtent à la culture de certaines plantes, herbes, arbres et à l’élevage d’animaux. (Le terroir englobe tout ce qui concerne un endroit spécifique: le type de sol, les variations climatiques, l’exposition au soleil, les bactéries présentes dans le sol, tout).
Nous avons oublié que c’est dans les villes que l’on produisait autrefois une grande partie de la nourriture consommée par les citadins. Les petits lopins de terre, les jardins sur les toits, les poulaillers de basse-cour, etc. se multiplient lorsqu’ils sont encouragés plutôt que découragés.
Commençons par souligner à quel point la grande majorité d’entre nous est déconnectée de la production de la nourriture bon marché que nous considérons comme acquise. De très nombreuses personnes ne savent pratiquement rien de la façon dont les aliments sont cultivés, élevés, récoltés/abattus, transformés et emballés.
Même des personnes très instruites sont incapables de reconnaître un plant de haricot vert parce qu’elles n’en ont jamais vu. Elles ne connaissent rien du sol ou de l’agriculture industrielle. Elles n’ont jamais vu de près les animaux qu’elles mangent ou ne se sont jamais occupées des animaux que les humains élèvent pour leur lait, leurs œufs et leur chair depuis des millénaires.
La plupart d’entre nous considèrent l’échelle industrielle de l’agriculture, l’abondance et le faible coût qui en résultent comme acquis, comme s’il s’agissait d’une sorte de droit inné plutôt que d’une brève période de consommation irréfléchie de ressources irremplaçables.
L’agriculture à petite échelle est financièrement difficile car elle rivalise avec l’agriculture industrielle mondiale qui tire son énergie des hydrocarbures et de la main-d’œuvre étrangère à bas prix.
Cela dit, il est possible de développer un produit de niche avec le soutien local des consommateurs et des entreprises. C’est le modèle Moitié-X, Moitié-Fermier au sujet duquel j’écris depuis des années: si au moins une personne du ménage a un emploi à temps partiel qui paie un salaire décent, le ménage peut développer une niche moins rémunératrice dans l’agriculture/élevage. Solutions pour la décroissance: Moitié-Fermier, Moitié-X (19 juillet 2014)
De nombreux éléments de l’agriculture industrielle sont très mal compris. L’expédition de fruits sur des milliers de kilomètres par fret aérien est fonction 1) du carburant pour avion ridiculement bon marché et 2) du tourisme mondial, qui remplit les avions de ligne de passagers qui subventionnent le fret aérien stocké sous leurs pieds.
Lorsque le tourisme mondial a chuté lors du confinement Covid, la capacité de fret aérien a également chuté.
Je ne peux m’empêcher de rire lorsque je lis un énième article sur un nouveau robot agricole qui remplacera la main-d’œuvre humaine, comme si la main-d’œuvre humaine représentait le principal coût de l’agriculture industrielle. (Les hydrocarbures, les engrais, le transport, les coûts de conformité, les baux fonciers et les taxes constituent tous des coûts importants).
Ce qui n’est pas dit, c’est que l’agriculture industrielle dépend du sol, des nappes aquifères d’eau douce et de la pluie. L’irrigation dépend de la pluie/neige quelque part en amont.
Lorsque le sol et les nappes aquifères seront épuisés et que les chutes de pluie deviendront sporadiques, ce robot errera dans un champ stérile, quels que soient les capteurs et autres équipements de pointe dont il sera équipé.
La production alimentaire mondiale dépend du sol et de la pluie. Les robots n’y changeront rien. Ce que peu d’entre nous, qui dépendent de l’agriculture industrielle, comprennent, c’est que celle-ci épuise les sols et draine les nappe aquifères par sa nature même, et que ces ressources ne peuvent être remplacées par la technologie. Une fois qu’elles sont épuisées, elles sont épuisées.
Le sol peut être régénéré, mais pas par les méthodes de l’agriculture industrielle – les tracteurs fonctionnant au diesel et les engrais dérivés du gaz naturel.
Peu de gens savent que la terre est elle-même vivante, et qu’une fois qu’elle est morte, plus rien ne peut y pousser. Tout ce qui pourra être extrait d’un sol appauvri sera dépourvu des micronutriments dont nous avons tous besoin: plantes, animaux et humains.
Chaque organisme est soumis à la Loi du Minimum: il est inutile d’ajouter un nutriment si tous les nutriments essentiels ne sont pas disponibles dans les bonnes proportions.
Déverser un excès d’engrais azoté sur une plante ne lui fera pas produire plus de fruits si elle ne dispose pas de suffisamment de calcium, de soufre, de magnésium, etc. Tout ce que l’on fait en déversant davantage d’engrais azotés sur le terrain, c’est empoisonner les cours d’eau à mesure que l’excès d’azote ruisselle.
L’irrigation est aussi un miracle que peu de gens comprennent. Avec le temps, les sels naturels contenus dans l’eau s’accumulent dans les sols irrigués et ceux-ci perdent leur fertilité. Plus le climat est sec, moins il y a de pluie pour extraire les sels du sol. L’irrigation n’est pas durable à long terme.
Les plantes ont besoin de conditions fiables pour atteindre leur maturité. Si une plante ou un arbre est privé d’eau et de nutriments, son système immunitaire s’affaiblit et il est plus vulnérable aux maladies et aux infestations d’insectes. Les rendements chutent s’il n’y a pas assez d’eau et de nutriments pour assurer la croissance des fruits ou des céréales.
Les conditions météorologiques extrêmes font des ravages dans l’agriculture, même dans l’agriculture industrielle. Une culture peut pousser à merveille et arriver à maturité, puis une tempête de vent ou une pluie battante [NdT. ou une inondation] peut la détruire en quelques heures.
La plupart des gens partent du principe qu’il y aura toujours une abondance de céréales (riz, blé, maïs) sans se rendre compte que la grande majorité des céréales proviennent de quelques rares endroits où les conditions sont propices à l’agriculture industrielle. Si l’un de ces quelques endroits devait subir des changements climatiques erratiques, les exportations de céréales diminueraient de façon spectaculaire.
Une fois que les céréales bon marché auront disparu, la viande bon marché disparaîtra également, car la plupart des viandes dépendent d’une alimentation à base de céréales.
La superficie nécessaire à la culture de quantités abondantes de céréales est gigantesque. Une grande partie de l’Iowa, par exemple, est constituée de champs de maïs et de soja, dont un pourcentage important sert à nourrir les animaux.
Les touristes américains s’extasient devant les fromages de chèvre artisanaux en France ou en Italie sans apprécier le travail humain nécessaire à la fabrication de ces produits artisanaux, travail qui ne peut être remplacé par des robots.
L’agriculture industrielle ne fonctionne que dans le cadre de vastes économies, à grande échelle et avec des taux d’utilisation élevés. Si le sac de 10 livres de cuisses de poulet ne coûte que 25 dollars, c’est parce que des dizaines de millions de poulets sont élevés dans des conditions industrielles soigneusement conçues et abattus/nettoyés à l’échelle industrielle.
Si le taux d’utilisation et l’échelle diminuent, l’ensemble de l’opération cesse d’être économiquement viable.
L’agriculture industrielle mondiale repose sur l’exploitation d’une main-d’œuvre bon marché et de sols qui n’ont pas encore été épuisés. C’est pourquoi la coupe à blanc de l’Amazonie est si rentable: on engage des travailleurs désespérés qui n’ont guère d’autres possibilités de gagner de l’argent, on exploite le sol jusqu’à ce qu’il devienne stérile, puis on passe à autre chose.
L’agriculture industrielle et la dépendance aux hydrocarbures bon marché suscitent de nombreux malentendus. Nombreux sont ceux qui placent leurs espoirs dans les légumes biologiques sans se rendre compte que chaque tomate biologique implique toujours 5 cuillères à café de diesel et 5 cuillères à café de kérosène si elle est cultivée à l’échelle industrielle et expédiée sur des milliers de kilomètres par avion.
Une grande partie de la planète n’est pas propice à l’agriculture à haut rendement. Le sol y est infertile ou épuisé, et le restaurer demande un patient processus d’investissement de plusieurs années ou décennies, non rentable à l’échelle industrielle.
En tant que moyen de gagner de l’argent, la production localisée ne peut rivaliser avec l’agriculture industrielle. Mais ce n’est pas l’objectif. L’objectif est de remplacer la dépendance à l’égard de l’agriculture industrielle par notre propre production, beaucoup plus petite et optimisée pour notre région, et de dégager un excédent qui contribue à nourrir notre réseau de confiance composé de notre famille, de nos amis et de nos voisins.
Alors que l’agriculture industrielle épuise les derniers sols et les dernières nappes aquifères, que les hydrocarbures et les engrais minéraux deviennent coûteux, et que le changement climatique perturbe les plus de 50 ans de conditions météorologiques relativement douces et fiables dont nous avons bénéficié, la nourriture bon marché disparaîtra.
Une fois que l’échelle et les taux d’utilisation auront diminué, l’agriculture industrielle ne sera plus viable sur le plan économique et environnemental. Cette dépendance à l’égard de l’échelle et des taux d’utilisation est mal comprise. Nous supposons que quelqu’un continuera à cultiver notre nourriture à grande échelle, quelles que soient les autres conditions, mais toute activité doit être viable sur le plan financier et environnemental, sinon elle disparaît.
Avec le déclin de l’agriculture industrielle, la nourriture deviendra beaucoup plus chère: même au double du prix, elle resterait bon marché par rapport à ce qu’elle pourrait coûter à l’avenir.
En raison de notre dépendance à l’égard de l’agriculture industrielle, nous avons oublié à quel point la production alimentaire localisée (artisanale) peut être productive. Les petites exploitations en phase avec le terroir peuvent produire une étonnante quantité de nourriture.
L’avenir d’une alimentation durable, abordable et nutritive réside dans une production localisée optimisée pour ce qui pousse bien sans intervention industrielle. La satisfaction et le bien-être que génère ce lien avec la terre et la nature sont sous-estimés. Ce n’est pas par hasard que les personnes en bonne santé qui vivent longtemps – par exemple, les habitants des zones bleues d’Okinawa et les insulaires grecs – prennent soin de leurs jardins et de leurs animaux, et partagent le fruit de leur travail avec leurs familles, leurs amis et leurs voisins.
C’est amusant et gratifiant de faire pousser des aliments. Cela peut même devenir important. Ceux qui sont incapables de cultiver la moindre nourriture feraient bien de se lier d’amitié avec ceux qui le peuvent.
L’objectif n’est pas de remplacer l’agriculture industrielle. L’objectif est de réduire notre dépendance à l’égard de systèmes mondiaux non durables en redynamisant la production locale.
Moins de lecteurs pour la deuxième partie de cette série, c’est dommage parce que ça devient passionnant. En plus, après avoir gagné vos galons d’épidémiologiste/virologue depuis deux ans, vous pourriez compléter par un doctorat de climatologue/statisticien.
Pour récompenser les plus courageux, voici une petite compilation que m’envoie un lecteur.
Après recherches poussées il semble que le dérèglement climatique ne fasse pas augmenter les:
-ongles incarnés -naissances de trisomiques -verrues -pied d’athlète -mycoses vaginales
Bon c’est déjà ça.
MAIS … le dérèglement climatique est responsable d’innombrables méfaits et fait augmenter le/la/les… :
accidents de voiture, – terrorisme, – risques de guerre nucléaire, – conflits, – violence en général, – violences sexistes, – toutes maladies virales, – toutes maladies microbiennes, – maladies mentales, – maladies cardio-vasculaires, – maladies allergiques, – maladies auto-immunes, – maladies cutanées, – cancers, – suicides, – infertilité masculine et féminine, – divorces des albatros, – perte des cheveux, – mort subite du nourrisson, – pb santé dentaire, – pb ophtalmologiques, – dérèglement hormonal, – pb menstruation, – addictions drogues et alcools, – maladies chiens et chats, – et les cafards sont inquiets.
Voilà les sources de cette liste admirable, il suffit presque de lire les libellés des urls (mais on peut cliquer si on a la patience):
Je remercie vivement ce lecteur pour cet inestimable trésor de guerre – il en manque deux parce que WordPress veut absolument les afficher comme contenu embarqué, et moi non.
Un dilemme en apparence seulement puisque la solution (finale) découle des deux principes: il faut mourir. Bien sûr c’est un peu embêtant mais ça protège du Covid, c’est pour une bonne cause et ça ferait tellement plaisir à… quelqu’un.
La température du Royaume-Uni au cours des 100 dernières années (3ème partie)
Un coup d’oeil sur les maxima et minima quotidiens au cours des 100 dernières années. La situation empire-t-elle, et que signifie « empirer »?
John Dee
6 septembre
Dans la deuxième partie de cette série, nous avons examiné de plus près les records de température maximale quotidienne enregistrés sur deux aérodromes britanniques, le grand aéroport d’Heathrow au sud et le petit aéroport de Wick au nord. Les militants endurcis rouleront des yeux et déclareront qu’il s’agit d’une tentative pathétique de saper un vaste ensemble de données scientifiques établies, ce qui nous indique qu’ils ne comprennent rien à la science.
Étant donné que ces deux aéroports sont situés sur la surface du globe et qu’ils doivent obéir aux lois de la physique (et surtout aux lois de la thermodynamique), nous pouvons les utiliser comme sujets expérimentaux – des cobayes si vous voulez – pour évaluer ce que l’on présente comme un phénomène mondial. Soit le réchauffement de la planète est mondial, soit quelqu’un se paie notre tête.
Oui, nous allons trouver des facteurs localisés, et oui le Royaume-Uni va se comporter différemment des steppes de Russie, mais le réchauffement climatique doit laisser sa trace partout, sinon les activistes devront nuancer leurs slogans : « le réchauffement climatique nous grillera tous… à part ceux qui vivent à Croydon, peut-être ». [NdT. Croydon est situé dans la banlieue de Londres; son côté prolo fait traditionnellement l’objet de pas mal de railleries]
Deux aéroports suffisent déjà à nous apprendre beaucoup de choses si nous nous intéressons vraiment à la science du climat. À cet égard, Heathrow et Wick ont révélé qu’ils se réchauffent tous deux depuis 1965, Heathrow se réchauffant plus rapidement que Wick. Cela nous a conduit à notre première estimation de l’effet d’îlot de chaleur urbain (ICU), qui s’élève à 1,8°C par siècle, soit environ 0,3°C de plus que les 1,5°C proposés par le GIEC dans la SR15. Les deux aéroports nous ont également révélé de longues périodes pendant lesquelles le réchauffement des températures maximales enregistrées n’avait pas eu lieu alors que la science dit qu’il aurait dû avoir lieu, la moyenne quotidienne maximale à Wick n’ayant pas bougé depuis 70 ans. Puisque l’aéroport de Wick n’est pas un mirage, il doit s’y passer quelque chose d’autre que ce que l’activisme climatique voudrait nous faire croire.
Grâce à ses nombreuses données remontant à 1914, nous sommes également tombés sur une augmentation incroyable de 1,0°C du maximum quotidien moyen enregistré à Wick sur une période de deux ans seulement, ces deux années coïncidant avec les préparatifs de la Seconde Guerre mondiale. L’aéroport de Wick est situé dans une région éloignée, à l’extrémité de l’Écosse, et cette découverte nous indique que l’ICU s’applique même aux aérodromes ruraux, qui n’ont qu’un bout de tarmac et quelques bâtiments. Par conséquent, et en tant que scientifiques censés mener des recherches au lieu de régurgiter des mantras, nous sommes en droit de nous demander dans quelle mesure l’enregistrement des températures de la surface terrestre pour le reste du globe est également dû à l’ICU. Avons-nous placé nos thermomètres à des endroits judicieux?
Plat du jour
Aujourd’hui, Heathrow et Wick seront rejoints par 32 autres stations météorologiques britanniques. Cela sera possible en convertissant leurs relevés de température maximale quotidienne moyenne en anomalies moyennes (jetez un coup d’œil à cette newsletter si le concept d’anomalie de température vous est toujours mystérieux). Mais avant d’assembler l’échantillon, voyons rapidement comment les températures maximales quotidiennes moyennes enregistrées à Heathrow et Wick se comparent à leurs anomalies respectives.
Retour à la planète des aéroports
Nous allons nous rafraîchir l’esprit avec un graphique de série chronologique pour la température maximale quotidienne moyenne (tmax) enregistrée aux aéroports de Heathrow et Wick:
Il y a le Wick froid qui démarre en 1914 et le Heathrow chaud qui démarre en 1948. Toutes les caractéristiques dont nous avons parlé dans le bulletin précédent sont présentes, mais elles sont écrasées par l’échelle de l’axe des y (vertical). Ma normale climatologique est fixée à la période de 30 ans 1991-2020 pour les raisons mentionnées dans cette newletter, et voici les données ci-dessus normalisées aux maxima enregistrés au cours de cette période:
Si vous délimitez la période 1991-2020 avec un crayon et une règle, vous verrez que les deux séries embrassent la valeur zéro sur l’axe des y, ce qui ne correspond pas à notre définition. Imaginez que vous épinglez deux queues à un âne en maintenant la racine de ces queues. Les deux queues partiront du même endroit du derrière de l’âne, mais elles seront libres de se balancer comme elles le souhaitent!
Alors, que pouvons-nous glaner de tout cela? Eh bien, ce qui a attiré mon attention, c’est la partie rouge qui dépasse à partir de 2014. Bien que Heathrow et Wick aient été normalisés à la période 1991-2020, cela signifie que Heathrow est devenu plus chaud que Wick ces dernières années, ce qui signifie qu’il ne peut s’agir d’un phénomène mondial.
Lumière sur une illusion
Nous pourrions en conclure qu’Heathrow était plus froid que Wick entre 1954 et 1974, mais il s’agit d’une illusion de normalisation. Gardez cela à l’esprit lorsque vous rencontrez des anomalies de température produites par de grands acteurs tels que la NOAA, la NASA, Berkeley, Hadley Centre/CRU. Ce qui se passe ici, c’est que nous avons saisi la queue de l’âne par la racine et que l’extrémité touffue de Heathrow retombe plus bas en raison du taux de réchauffement plus élevé. Pour illustrer cette illusion, je vais maintenant déplacer ma période de normale climatologique à 1951-1980 et retravailler la diapositive:
Voilà! Vous voyez maintenant les deux séries se rapprocher de la valeur zéro sur la période 1951-1980, car c’est ainsi que nous avons défini les choses, la grande moyenne sur 30 ans de chaque station pour cette période étant soustraite des valeurs observées pour produire la série d’anomalie zéro pour chaque station. Une autre façon de voir les choses est de dire que c’est la période où tout était « normal ».
En s’accrochant aux extrémités touffues des queues de l’âne, nous avons fait en sorte qu’elles restent ensemble, mais leurs racines se trouvent maintenant à des endroits très différents sur le derrière de l’âne. Heathrow prend maintenant de l’avance, affichant une anomalie de +2,5°C alors que Wick se traîne en affichant une anomalie de +0,9°C.
Il y a deux possibilités: soit Wick ne tient pas compte de l’activisme climatique et il est donc trop froid pour répondre aux exigences du réchauffement climatique (c’est-à-dire que le réchauffement climatique n’est pas global), soit Wick tient compte de l’activisme climatique et suit exactement les exigences du réchauffement climatique, ce qui nous permet de déduire que Heathrow est plus chaud qu’il ne devrait l’être parce qu’il se trouve au milieu d’une zone urbaine dense qui non seulement retient la chaleur mais en produit.
Les activistes préfèrent cette dernière hypothèse, mais ont tendance à omettre la cause du réchauffement excessif, en ne mettant rien sur le dos de l’âne et tout sur celui des combustibles fossiles, ce qui leur permet de se réjouir des récentes annonces du Bureau Météorologique concernant des vagues de chaleur record de 40°C à Heathrow, car cela valide leur religion. Ne leur dites pas que des vagues de chaleur de 40°C sont possibles sur une planète qui refroidit, dans des zones urbaines denses, sinon ils vont péter les plombs!
En sirotant mon thé, je me rends compte que si nous nous basons sur l’aéroport de Wick, nous nous attendons à une différence d’anomalie due à l’ICU de 1,6°C après une période de 70 ans environ, ce qui n’est pas loin de mon estimation du réchauffement dû à l’ICU de 1,8°C par siècle en utilisant une approche différente. Voilà qui est tout à fait délicieux.
Avant de laisser derrière nous ces deux anomalies, je ferai simplement remarquer que la lumière a été faite sur cette illusion en ramenant ma normale climatologique de 1991-2020 à 1951-1980. À cet égard, veuillez noter que la normale climatologique de l’OMM (Organisation Météorologique Mondiale) est bloquée à 1961-1990, ce qui signifie que les climatologues du monde entier verront les relevés de température des zones urbaines se réchauffer plus rapidement que ceux des zones rurales. Combien d’entre eux ont risqué leurs subventions et/ou leurs postes et/ou leurs carrières pour dire la vérité sur la contamination de l’enregistrement des températures mondiales par l’ICU? Moi-même, je ne suis pas certain que je prendrais ce risque si j’avais des enfants à charge, une hypothèque importante et un département de scientifiques à maintenir à flot, comme c’était le cas autrefois.
Peut-on faire confiance à un scientifique qui a une hypothèque?
Juste au moment où ça devenait intéressant
Juste au moment où les choses devenaient intéressantes, et par intéressantes je veux dire dériver une grande anomalie moyenne du Royaume-Uni pour la température maximale depuis 1853, voila que j’ai épuisé toute la place disponible dans ma newsletter! Je suppose qu’il est temps de mettre des toasts sous le grill et d’ouvrir un paquet de Kellogg’s. [NdT. allez lire la premier paragraphe de l’Historique dans l’article en lien sur Wiki. Ça vaut son pesant de corn-flakes]
Comme promis. C’est un peu technique, ce qui vous permettra de briller dans les conversations, mais toujours très humoristique – apprendre en s’amusant! Encore trois parties…
J’en profite ici pour annoncer une série que je suis en train de rédiger en anglais pour mes amis américains et le lectorat anglophone sur Substack, qui apprécient beaucoup mes commentaires – nul n’est prophète en son pays. J’en publierai évidemment la traduction française sur ce blog. Je m’y adresse à la définition des mots les plus employés dans le narratif et le contre-narratif. Ça touillera un peu les neurones de ceux qui les emploient sans trop y réfléchir. C’est le but.
Je cesse à partir de maintenant de joindre le texte original de l’article, qui peut être facilement trouvé en suivant le lien vers la source. Essayez ici:
La température du Royaume-Uni au cours des 100 dernières années (2ème partie)
Un coup d’oeil sur les maxima et minima quotidiens au cours des 100 dernières années. La situation empire-t-elle, et que signifie « empirer »?
John Dee
5 septembre
Je suis en train de contempler une feuille de calcul Excel de toutes les données que j’ai pu extraire de cette pratique ressource en ligne du Bureau Météorologique. Si un abonné payant souhaite en obtenir une copie, n’hésitez pas à le demander – j’aime à penser que je vous en donne pour votre argent! [NdT. c’est un article payant]
Présentation de Tmax
Commençons par Tmax, qui est défini comme suit:
Les données de nos stations historiques sont les suivantes
Température maximale quotidienne moyenne (tmax)
Température minimale quotidienne moyenne (tmin)
Jours de gel atmosphérique (ga)
Pluviosité totale (pluie)
Durée totale d’ensoleillement (soleil)
Pour que tout le monde comprenne bien la manière dont on obtient Tmax, la température maximale absolue de chaque station est notée quotidiennement et, à la fin de chaque mois, quelqu’un calcule la moyenne arithmétique de ces relevés. Tmax n’est donc pas un enregistrement des températures les plus chaudes enregistrées à chaque station et, pour être honnête, il est assez stupide de présenter ces données au grand public, à moins que celui-ci ne soit un fervent adepte de la propagande climatique.
C’est une absurdité pour plusieurs raisons, à commencer par la réalité analytique selon laquelle les extrêmes, quels qu’ils soient, sont considérés comme des valeurs aberrantes par les statisticiens qui les rejetteront et/ou les remplaceront par des estimations interpolées, modélisées ou lissées. Ensuite, il y a la réalité technique qui veut qu’un nouveau record soit détenu pendant moins d’une minute (en fonction de la résolution de l’échantillonnage et de la procédure automatisée de contrôle de la qualité). Ensuite, il y a une dimension comique lorsque quelqu’un fait quelque chose d’inhabituel à proximité de l’abri Stevenson [NdT. voir sur Wiki], comme par exemple y garer un camion de crème glacée [NdT. l’article en lien est assez désopilant, je le traduis si intérêt]. Enfin, il y a la dimension surréaliste qui consiste à placer son thermomètre à un endroit réellement stupide:
La Station Météorologique de Gogerddan – siège du nouveau record de température d’un jour de vacances au Pays de Galles (28,8°C – 24 août 2019) Quand on parle « d’effet de serre », je n’aurais pas cru que le Bureau Météorologique l’aurait pris au mot.
En prenant la moyenne de plusieurs mesures de la température maximale quotidienne à un endroit spécifique, on élimine les effets des valeurs aberrantes générées par les camions de crème glacée, les serres ventilées et d’autres sources de chaleur localisée, de sorte que l’on peut commencer à deviner le comportement réel du temps. Cette approche permet d’obtenir de meilleures statistiques, mais elle ne se prête assez peu à la publication de gros titres alarmants.
Il faut également garder à l’esprit qu’il est possible de continuer à enregistrer des températures quotidiennes record sur une planète qui refroidit. Cela se produit si la variabilité climatique augmente alors que les températures diminuent. Les statisticiens donnent à ce phénomène un mot fantaisiste, très utile lors des apéritifs, à savoir hétéroscédasticité. Consultez cette entrée Wiki, puis essayez de glisser quelque chose comme « apparemment, tout est dû à l’hétéroscédasticité et non à notre SUV, chérie » en dégustant des amuse-gueule.
En résumé, la température maximale quotidienne moyenne, aussi appelée Tmax, est une valeur tout à fait convenable qui donne une image plus fidèle que celle de la société météorologique qui présente à la télévision ses effrayantes cartes thermiques rouges et noires.
Stations d’eau chaude et froide
Ce que nous allons faire à présent, c’est choisir une période pendant laquelle les 37 stations de l’échantillon du Bureau Météorologique ont recueilli simultanément des données de température maximale quotidienne afin de pouvoir les comparer. Comme indiqué dans les newsletters précédentes, Cwmystwyth, Ringway et Southampton ont fermé il y a un certain temps, donc nos 37 stations doivent devenir 34 (alias UK34). Camborne a été la dernière station à démarrer en septembre 1978, donc notre première année complète pour le UK34 est 1979. Si nous faisons maintenant la moyenne des séries mensuelles de la température maximale quotidienne moyenne sur la période 1979 – 2021, nous obtenons une seule grande moyenne pour chacune des 34 stations étudiées. Voici à quoi cela ressemble sous forme de graphique:
Il fait froid en Écosse (sans surprise) et Heathrow remporte la palme de la station la plus chaude (sans surprise non plus). Avant de transformer les données UK34 tmax en une anomalie à l’échelle du Royaume-Uni, je vais prendre l’aéroport super chaud d’Heathrow et le comparer à l’aéroport super froid de Wick, par curiosité.
La bataille pour la planète des aéroports
Heathrow a installé son premier thermomètre en 1948, notre histoire doit donc commencer à cette date. Ce qui m’amuse, c’est lorsque les têtes parlantes du Bureau Météorologique déclarent qu’un nouveau record de température au Royaume-Uni a été établi à Heathrow, ce qui signifie « le plus chaud depuis le début des relevés ». Suit généralement une deuxième phrase (séparée de la première) indiquant que les relevés ont commencé en 1853. Ces deux affirmations sont intrinsèquement vraies, mais un public crédule et peu habitué à la supercherie journalistique sautera sur l’hypothèse erronée d’une série de données contiguës à Heathrow remontant à 170 ans. En réalité, nous n’avons aucune idée de la chaleur qu’il faisait à Heathrow pendant la canicule de 1947!
Examinons donc les tmax pour Heathrow et Wick pour la période 1948 – 2021:
Ces lignes vertes ondulées sont un de mes outils préférés, les fonctions LOESS (Locally Estimated Scatterplot Smoothing) [Lissage du nuage de points estimé localement], aussi appelées régression locale. Elles nous en disent beaucoup plus que les lignes droites produites par la Régression Linéaire, mais j’utiliserai cet outil plus tard. Nous pouvons voir que Heathrow est plus chaud que Wick, ce qui n’est pas surprenant quand on sait où se trouve l’aéroport de Wick par rapport à Heathrow…
Et quand on compare le niveau de développement urbain…
Ce qui m’intéresse davantage, c’est que les deux endroits montrent des premiers signes de refroidissement entre 1948 et 1965 environ. Comment cela est-il possible si les émissions de combustibles fossiles ont explosé pendant le boom de l’après-guerre? La réponse simple est que le climat est bien plus complexe que ce que les activistes voudraient vous faire croire; je fournirai la réponse complète au cours de quelques newsletters à venir.
La petite clé à molette
Cela nous laisse avec une reprise tardive du réchauffement à partir de 1965. Si ce phénomène est évident dans les deux aéroports, il l’est beaucoup plus à Heathrow, ce qui est probablement dû au développement urbain. Ce que je vais faire à présent, c’est prendre une de ces régressions linéaires (alias la petite clé) et établir la tendance au réchauffement pour 1965 – 2021 pour les deux aéroports. Ci-joint deux portions de résultats de statistiques:
Les détails se résument ici à une tendance linéaire au réchauffement estimée à 0,039°C par an pour Heathrow (p<0,001) et à 0,021°C pour Wick (p<0,001), ces deux valeurs étant statistiquement très significatives. Il s’agit d’estimations ponctuelles limitées par l’erreur et nous pouvons donc effectuer un test t sur des échantillons indépendants pour vérifier si les deux taux sont significativement différents compte tenu de leurs erreurs types associées. Je suis heureux de confirmer ce que nous avions déjà deviné, à savoir que les deux taux de réchauffement sont effectivement significativement différents (p=0,003, variances égales non supposées).
Un premier aperçu de l’ICU
Nous pouvons attribuer cette différence à l’effet d’îlot de chaleur urbain (ICU). Toutes nos stations météorologiques terrestres sont affectées par l’ICU, mais vous n’en trouverez pas beaucoup de mention dans la littérature ou à la télévision. Le Bureau Météorologique fait une brève et très vague allusion à l’ICU lorsque le préposé à la météo dit « il fera plus chaud pour ceux qui vivent dans les villes » ou « il fera plus froid pour ceux qui vivent dans les zones rurales », ou des formules du même genre. Nous nous retrouvons donc à vivre dans une réalité parallèle où l’ICU est imputée au changement climatique plutôt qu’à une jungle de béton, d’acier, de fer, de briques, de goudron et de sources de chaleur localisées.
Pour en revenir à notre paire de coefficients, nous constatons que Heathrow se réchauffe plus vite que Wick, à raison de 0,018°C par an ou 1,8°C par siècle. Ce qui me fait froncer les sourcils, c’est que ce chiffre est supérieur au taux de réchauffement global estimé à 1,5°C par le Groupe d’experts Intergouvernemental sur l’Evolution du Climat (GIEC) lorsqu’il a publié le Rapport Spécial SR15. La question qui se pose est la suivante: sommes-nous en train de nous faire balader en ville?
Regardons vers le haut et vers le bas
Nous pouvons tenter de répondre à cette question en regardant les données satellitaires recueillies depuis 1979 (nous y reviendrons dans les prochaines newsletters) et en examinant de plus près l’état de nos stations météorologiques terrestres (nous y reviendrons dans les prochaines newsletters). Pendant que le four est encore chaud, nous pourrions aussi jeter un coup d’œil à ce qui se passe à la seule station de Wick depuis qu’elle a commencé à recueillir des données en 1914:
Ai-je bien entendu un « ouh » ou un « woah », ou peut-être un discret « WTF » [NdT. What The Fuck?] dans votre voix? J’ai en tout cas recraché mon café lorsque j’ai constaté l’augmentation spectaculaire des maxima de température après 1930. Je pense que nous pouvons deviner pourquoi. Je vous fiche mon billet que Wick n’était au départ qu’une bande de gazon avec un mât de drapeau et une cabane en bois entre 1914 et 1929, avant de devenir une base aérienne goudronnée et couverte de cabanes Nissan, avec de nombreux toits en tôle ondulée et des abris en béton. Nous pourrions appeler cela l’effet d’îlot de chaleur militaire (ICM), qui a apparemment été responsable d’une augmentation de ~1,0°C de la température maximale en l’espace de deux ans. Voilà ce que j’appelle un réchauffement!
Combien d’autres stations météorologiques cachent un squelette similaire dans leur placard de Stevenson? Quelle est l’importance de l’ICU dans la vie réelle (par opposition à la vie virtuelle de la communauté de modélisation de l’ICU). Maintenant que nous avons vu à quel point les choses peuvent osciller, quelle confiance pouvons-nous avoir dans le fait que tout abri Stevenson à portée de voix d’un quelconque aménagement enregistre le comportement réel du climat plutôt que celui d’une feuille de tôle ondulée ou d’un bloc de béton?
Alors… quelle part de l’augmentation observée depuis 1980 peut être attribuée au changement climatique et quelle part au développement continu de Wick, avec l’augmentation du nombre de passagers et d’autres activités? Je vais tenter de répondre à cette question dans le cadre d’une étude transversale que j’ai prévue pour les stations UK34.
Un climat plus froid?
Avant de quitter cette diapositive, il convient de noter que la période de 70 ans de l’aéroport de Wick, qui s’étend de 1933 à 2002 environ, est plutôt stable. Étant donné que l’utilisation et le développement de l’aéroport ont progressé pendant cette période, je dois logiquement en déduire que le climat s’est probablement refroidi à cet endroit. Je ne suis pas sûr que les activistes apprécieront beaucoup cette découverte, alors nous ferions mieux de procéder à une vérification avec un peu de régression linéaire:
Et voilà – nous avons un taux de réchauffement de 0,001°C par an qui est totalement et complètement insignifiant du point de vue statistique (p=0,829). Comment est-il possible que nous soyons incapables de détecter un réchauffement dans les températures maximales quotidiennes enregistrées sur une période de 70 ans à cet endroit? Ouvrez la boîte à biscuits car la partie 3 est en préparation…
Mettez la bouilloire sur le feu!
[NdT. pour faire le thé, John est citoyen britannique 😉 ]
On va un peu changer de registre. Juste au bon moment puisque le narratif du pouvoir passe maintenant du Covid à l’urgence climatique et ressuscite le Conseil de Défense pour sauver, cette fois, la planète – même genre de discours aux Etats-Unis, où on tente de tout faire passer sous le parapluie du climat.
Etant particulièrement peu qualifié pour en parler, j’attendais de trouver la personne-clé, avec les compétences, le courage de faire le boulot et le talent pour l’écrire. C’est lui, il s’appelle John Dee. Pour ne rien gâcher, il a de l’esprit et un humour très british que je tenterai de ne pas trahir, même si quelques expressions sont totalement intraduisibles – j’ai vraiment fait de mon mieux.
Je le laisse se présenter lui-même avant de passer à l’article proprement dit, qui aura évidemment plusieurs suites (ceci est un genre de préambule) que je publierai également:
Avant l’arrivée du COVID, je passais mon temps à analyser des données climatiques. Ce travail a débuté en février 2017 par un examen des températures enregistrées par les observatoires britanniques et s’est poursuivi jusqu’en septembre 2020, date à laquelle j’ai examiné de près la calotte glaciaire du Groenland. Les sujets abordés ont été les suivants: la glace en Mer Arctique, les feux de forêt, les émissions de carbone, El Niño, les rapports du GIEC, les îlots de chaleur urbains, les chutes de neige dans les Alpes, l’oscillation multidécennale de l’Atlantique, les ouragans, l’irradiance solaire, le refroidissement des CONUS [NdT. Le terme États-Unis contigus (en anglais Contiguous United States ou CONUS) fait référence aux 48 États américains et au district de Columbia (ville de Washington) situés en Amérique du Nord, entre la frontière avec le Canada et la frontière avec le Mexique], l’élévation du niveau de la mer, les précipitations en Europe et la température de surface de la mer – pour ne citer que quelques-uns des nombreux sujets abordés. Le nombre de diapositives dépasse le millier et le nombre de mots écrits dans les différents rapports et notes, cinq cent mille.
Les gens me demandent comment je pourrais bien être expert dans tous ces domaines et la réponse simple est que je ne le suis pas. Mon métier est la statistique appliquée, pour lequel je suis formé à l’analyse de n’importe quelle donnée, n’importe quand, n’importe où, pour n’importe qui. Il arrive que ces chiffres révèlent des incohérences dans les arguments des experts.
La température du Royaume-Uni au cours des 100 dernières années (1ère partie)
Un coup d’oeil sur les maxima et minima quotidiens au cours des 100 dernières années. La situation empire-t-elle, et que signifie « empirer »?
John Dee
4 août
« Il est difficile de faire pousser des carottes sur un glacier »: voilà une phrase que vous me verrez utiliser à maintes reprises. Assez étrangement, nous sommes tombés dans une réalité parallèle où un excédent de nourriture pour les plantes et un gaz essentiel à la vie (le dioxyde de carbone) sont considérés comme un genre de polluant toxique, et où le réchauffement de la planète est une véritable catastrophe, alors même que les plus belles avancées de la biodiversité ont eu lieu sur un globe plus chaud.
Le froid est bon, apparemment, tout comme les glaciers et la glace polaire que les activistes voudraient voir en plus grande abondance. Pour une raison inexplicable, ils n’ont toujours pas compris que ce sont les grandes périodes glaciaires qui détruisent la vie et l’écosystème, alors que la vie sur Terre s’épanouit dans les périodes plus chaudes.
Ils n’ont pas non plus compris qu’un emballement du réchauffement climatique est impossible sur Terre. De nombreuses circonstances favorables à un tel scénario se sont présentées au cours des millénaires, avec un taux de dioxyde de carbone de 4 000 ppm et plus, au lieu des dérisoires 400 ppm actuels. Ces personnes oublient que nous sommes en train de sortir d’une longue période de déficit en dioxyde de carbone, où les niveaux étaient tombés à quelque 280 ppm. Essayez de faire pousser des plantes à 280 ppm et à 400 ppm et vous ne tarderez pas à découvrir ce qui convient le mieux à la biosphère!
En réponse à ces affirmations, je suis sûr qu’on va me resservir les vieilles rengaines habituelles: « mais le niveau des mers va s’élever », « les ouragans vont se déchaîner », « les incendies vont devenir incontrôlables », « la sécheresse va tuer des millions de personnes », « les inondations vont tuer des millions de personnes », « les espèces vont disparaître », « les réfugiés climatiques vont devenir un problème majeur », « les villes vont devenir inhabitables » et tout le tralala. J’examinerai ces affirmations pour déterminer si elles sont fondées ou s’il s’agit de propagande politisée de la part du très corporatif agenda vert.
Nous sommes immergés dans un récit qui nous est devenu très familier, car dès que nous allumons la télévision, que nous jetons un coup d’œil sur les magazines à sensation dans les kiosques ou que nous lorgnons sur nos smartphones, on nous dit que tout ça va arriver parce que les experts l’ont dit et qu’ils sont tous d’accord. « Une nouvelle étude montre » est l’une des expressions favorites des journalistes de vulgarisation scientifique. Le grand public avale tout ça, tout comme « les experts disent que », parce qu’on n’apprend pas aux gens à penser de manière critique, et on ne leur apprend certainement pas à évaluer les articles scientifiques.
Dans le monde réel, les études scientifiques – même celles des plus grands et des meilleurs acteurs – sont grevées d’hypothèses et de limites. Un bon nombre d’entre elles contiennent des erreurs et des ratés, et certaines sont même délibérément frauduleuses. Ce n’est pas un scoop pour les professionnels de la recherche, mais ça peut se révéler dérangeant pour un public confiant qui associe blouse blanche et pureté. Rien n’est plus éloigné de la vérité et j’ai les cicatrices pour le prouver!
Il pleut, bergère
Le 7 août, j’ai commencé par une lettre d’information sur un sujet aussi délibérément inoffensif que les précipitations au Royaume-Uni et nous avons alors découvert plusieurs choses. Nous avons découvert qu’il ne faut pas faire confiance aux données de la National Oceanic and Atmospheric Administration (NOAA) simplement parce que c’est la NOAA, et nous avons découvert qu’il est très facile de déformer la vérité en matière de données climatiques. En utilisant la méthode la plus directe, nous avons obtenu une série d’anomalies révélant une possible augmentation des précipitations moyennes au cours des dernières décennies, qui pourrait fort bien résulter d’un cycle plutôt que de l’effet des émissions de combustibles fossiles.
On pourrait dire que l’ambiguïté est le trait distinctif de la vraie science, et la dualité de la lumière, à la fois onde et particule, l’incarne à merveille. Certains disent que c’est la quadrature du cercle; dans ce cas, ce sont des carrés tordus et des cercles pas très ronds.
Chaud thermomètre
Dans ma prochaine série de bulletins d’information, je reprendrai la méthodologie que j’ai adoptée pour les précipitations au Royaume-Uni et je l’appliquerai à la température au Royaume-Uni. Nous examinerons les minima et les maxima quotidiens, car ils ont leur propre histoire à raconter, et je calculerai l’anomalie de température moyenne à la surface de la terre, car c’est ce dont on parle le plus souvent.
Ce qu’il faut retenir des moyennes, c’est qu’elles ne sont pas nécessairement significatives, et je recommande aux abonnés de jeter un coup d’œil à mes deux courtes notes sur ce sujet en commençant par cette lettre d’information. On peut cacher beaucoup de chiffres truqués dans un sac de valeurs moyennes!
En mettant de côté les valeurs moyennes (les miennes ne seront assurément pas des sacs de chiffres truqués), nous verrons si le Royaume-Uni se réchauffe régulièrement comme on le prétend ou s’il est sujet à une sorte de danse cyclique de décennies, où règne l’incohérence.
Si les données le permettent, nous verrons également si le réchauffement est dû à l’empiètement du développement urbain ou au changement climatique proprement dit. Ce n’est pas une coïncidence si les records britanniques ont tendance à être établis à l’aéroport d’Heathrow, et nous devons nous interroger sur la valeur des mesures prises à cet endroit. Le Bureau Météorologique semble penser qu’il est légitime de placer un thermomètre ici…
…mais bon, c’est une organisation très politisée de nos jours.
Vers l’infini…
Bien, c’est assez comme préambule. Je vais prendre mon petit-déjeuner, me coiffer, nettoyer mes lunettes, tailler mes crayons, défragmenter mon disque dur et m’atteler à la pile de données que j’ai téléchargées à partir de cette ressource très pratique offerte par le Bureau Météorologique. L’idéal serait qu’ils proposent des données de séries chronologiques collationnées pour quelques centaines de stations, mais je doute qu’ils soient aussi ouverts au public qu’ils le prétendent. L’expression « service de pure forme » vient à l’esprit.
Bien sûr, MIDAS (Met Office Integrated Data Archive System) met à la disposition du public des quantités fabuleuses de données de stations météorologiques, mais essayez de télécharger des fichiers CSV d’une année à la fois pour une station à la fois et voyez combien de temps il faut pour constituer un échantillon de 1 000 stations, chacune couvrant une période de 50 ans. Ma fidèle calculatrice à main me dit que cela représente 50 000 téléchargements. À raison de cinq secondes par téléchargement, je devrais consacrer 69,4 heures à cette tâche, alors qu’il ne me faudrait que deux minutes s’ils se donnaient la peine de traiter les données qu’ils détiennent et de les rendre plus accessibles aux chercheurs indépendants comme moi. Après tout, ils sont censés être un service public, n’est-ce pas? Enfin, peut-être pas si ça risque de révéler quelque secret.
Mettez la bouilloire sur le feu!
Texte original
The Temperature Of The UK Over The Last 100 Years (part 1)
A butcher’s at daily maxima and minima over the last 100 years. Are things getting worse, and what does ‘worse’ mean?
John Dee
Aug 4
“It’s hard to grow carrots on a glacier » is a phrase you’ll find me using time and time again. Somehow we’ve slipped into a parallel reality whereby excess plant food and a life-giving gas (carbon dioxide) is being regarded as some sort of toxic pollutant, and where the warming of the planet a terribly bad thing even though the greatest spurts of biodiversity took place on a warmer globe.
Cold is good, apparently, as are the glaciers and polar ice that activists want to see more of. For some inexplicable reason they haven’t yet figured out that it is the great ice ages that destroy life and the ecosystem, with life on Earth flourishing under warm ages.
Neither have they figured out that runaway global warming doesn’t happen on Earth. There have been plenty of chances for this over the millennia, with carbon dioxide up at 4,000pm and beyond rather than the paltry 400ppm it is today. Such folk are oblivious to the fact that we’re coming out of an extended period of carbon dioxide deficit when levels dropped to 280ppm or thereabouts. Trying growing plants at 280ppm and 400ppm and you’ll soon figure out which is better for the biosphere!
In response to these statements I’m going to get the usual regurgitation of old chestnuts such as: ‘but sea levels are going to rise’, ‘hurricanes are going rage’, ‘wildfires will burn out of control, ‘drought will kill millions’, ‘floods will kill millions’, ‘species will go extinct’, ‘climate refugees will be a major issue’, ‘cities will become uninhabitable’ and all the rest. I shall be looking at these claims to see if they are valid or politicised propaganda of the very corporate green agenda.
We are submerged in a most familiar narrative indeed for we all turn on the TV or glance at the glossies in the newsstand, or gawp at our smartphones that tell us these things will be because experts have said so and they all agree. “A new study shows” is a favourite of the popular science journalist. The general public swallow this whole, along with “experts say” because we don’t teach people how to think critically, and we certainly don’t teach them how to appraise scientific papers.
In the real world scientific studies – even from the biggest and best players – are burdened by assumptions and limitations. A fair few contain errors and bloopers, and some are even deliberately fraudulent. This is not new news to research professionals but it may come as an unpleasant revelation to a trusting public who equate a white lab coat with purity. Nothing could be further from the truth and I have the scars to prove it!
The Rain In Spain
On August 7th I started out with a newsletter on something as deliberately innocuous as UK rainfall and we discovered a few things along the way. We discovered that NOAA’s data is not to be trusted just because it’s NOAA, and we discovered that it’s really easy to bend the truth with climate data. The straightest bat that could be swung produced an anomaly series that revealed a possible upturn in mean rainfall in recent decades that could easily be part of a cycle rather than anything fossil fuel emissions are doing.
We might say that ambiguity is the hallmark of real science, and the duality of light as both a wave and a particle embodies this beautifully. Some say it’s turtles all the way down; if it is then these are ambiguous turtles with chaotic smiles.
The Thermometers’ Tale
What I am going to do in the next series of newsletters is take the methodology I adopted for UK rainfall and apply it to UK temperature. We shall be looking at daily minima and daily maxima for these tell their own story, and I shall be producing a mean land surface temperature anomaly since these are what gets bandied about.
The thing to remember about means is that they are not necessarily meaningful, and I recommend subscribers have a look at my two short notes on this subject starting with this newsletter. You can hide a lot of fudge within the bucket of the mean!
Setting means aside (mine will most certainly not be buckets of fudge) we’ll get to see if the UK is consistently warming as claimed or whether it’s subject to some sort of cyclical dance of the decades in which inconsistency rules.
Data permitting we’ll also have a look at whether any warming is due to encroaching urban development or due to climate change proper. It’s no coincidence that UK records tend to be set at Heathrow Airport, and we need to question the value of measurements taken there. The Met Office seem to think it’s OK to have a thermometer here…
…but then again they are a very political organisation these days.
Thunderbirds Are Go!
Right then, that’s enough of a preamble. I’ll grab some breakfast, comb my hair, clean my glasses, straighten my pencils, defrag my hard drive and get stuck in to the pile of data I have downloaded from this very handy resource offered by the Met Office. Ideally they’d offer a few hundred stations worth of collated time series data but I doubt that they’re as public facing as they claim. The phrase ‘lip service’ springs to mind.
Sure, there’s fabulous amounts of publicly available weather station data available from MIDAS but try downloading CSV files one year at a time for one station at a time and see how long it takes to build a sample of 1,000 stations, each covering a span of 50 years. My trusty hand-held calculator tells me that’s 50,000 downloads. At 5 seconds per download I’d need to set aside 69.4 hours, as opposed to the 2 minutes I’d need if they bothered to crunch the data they hold and make it more accessible to independent researchers like myself. After all, they are supposed to be a public service, aren’t they? Well maybe not if it lets any cats out of any bags.