Climat: Témoignage de John R. Christy devant la Chambre des Représentants des États-Unis.

Ce témoignage date de 2016. Il est, selon la formule consacrée, plus que jamais d’actualité, maintenant que nos amis du FEM – et la majorité des gouvernements – ont décidé de tout miser sur « l’urgence climatique », pour passer à la moulinette élevage, alimentation, industrie, énergie, transports et liberté individuelle. Il complète la série de John Dee sur la mesure des températures au Royaume-Uni, que j’avais commencé à traduire et publier puis interrompue vu le manque d’intérêt des lecteurs – dommage. Je vous invite vivement à lire celui-ci, quitte à survoler les passages plus techniques (qui ne sont pas inabordables), et à en retirer le principe général. On y retrouve les méthodes classiques de modélisation frauduleuse, bidouillage des mesures et censure des scientifiques indépendants, mises en oeuvre pour le Covid et ses produits dérivés.

Comme il est question ici de « consensus scientifique », considérez ceci comme le deuxième volet de la série d’articles que j’ai commencée il y a quelque temps.

Les principales abréviations utilisées ici sont:

  • LT: basse troposphère (low troposphere)
  • MT: troposphère moyenne (mid-troposphere)
  • GIEC: Groupe d’experts Intergouvernemental sur l’Evolution du Climat
  • UAH: Université d’Alabama à Huntsville
  • NMAT: Température nocturne de l’air marin (Night Marine Air Temperature)
  • NOAA: Agence américaine d’observation océanique et atmosphérique (National Oceanic and Atmospheric Administration)
  • NCEI: Centres nationaux d’information sur l’environnement (National Centers for Environmental Information)
  • APE: Agence pour la Protection de l’Environnement américaine (Environment Protection Agency – EPA)
  • UKMet: Service national britannique de météorologie

Source.


Traduction

Commission des sciences, de l’espace et de la technologie de la Chambre des Représentants des États-Unis

2 février 2016

Témoignage de John R. Christy

Université d’Alabama à Huntsville.

Je m’appelle John R. Christy, Professeur émérite en Sciences de l’Atmosphère, Climatologue d’État de l’Alabama et Directeur du Centre des Sciences du Système Terrestre à l’Université d’Alabama à Huntsville. J’ai été auteur principal, auteur collaborateur et réviseur des évaluations du GIEC des Nations Unies, j’ai reçu la médaille de la NASA pour réalisations scientifiques exceptionnelles et, en 2002, j’ai été élu membre de l’American Meteorological Society.

C’est un privilège pour moi d’offrir mon analyse de la situation actuelle concernant (1) les ensembles de données de température utilisés pour étudier le climat, (2) notre compréhension fondamentale du changement climatique et (3) l’effet que des réglementations, telles que l’accord de Paris, pourraient avoir sur le climat. J’ai également joint un extrait de mon témoignage au Sénat en décembre dernier, dans lequel j’aborde (1) la notion populaire selon laquelle les événements climatiques extrêmes augmentent en raison du changement climatique d’origine humaine (ce n’est pas le cas), et (2) la direction malheureuse prise par la recherche dans ce domaine.

La meilleure façon de décrire mon domaine de recherche est de dire qu’il s’agit de construire des ensembles de données à partir de rien pour mieux comprendre ce que fait le climat et pourquoi il le fait – une activité que j’ai commencée adolescent il y a plus de 50 ans. J’ai utilisé des observations de surface traditionnelles ainsi que des mesures effectuées par des ballons et des satellites pour documenter l’histoire du climat. Un grand nombre de nos ensembles de données UAH sont utilisés pour tester des hypothèses sur la variabilité et le changement climatiques.

(1.1) Données de température de la couche supérieure de l’air provenant de satellites et de ballons

Je commencerai par une discussion qui a été suscitée par une campagne de plus en plus active d’affirmations négatives faites à l’encontre des observations, c’est-à-dire des données, des températures de l’air supérieur. La Figure 1, en particulier, a attiré une attention considérable de la part de ceux qui considèrent que le système climatique subit une transformation rapide, causée par l’homme, vers un climat auquel les gens auront beaucoup de mal à s’adapter. Ce simple graphique montre que la projection moyenne du modèle, sur laquelle se fondent leurs craintes (ou leurs espoirs?), est médiocre en ce qui concerne la mesure fondamentale de la température censée être la plus sensible aux gaz à effet de serre supplémentaires – la température atmosphérique globale de la couche située entre la surface et 15 000 mètres. [La couche représentée est connue sous le nom de troposphère moyenne ou MT et est utilisée parce qu’elle chevauche la région de l’atmosphère tropicale qui présente la plus grande signature anticipée de la réponse à l’effet de serre par masse globale – entre 6 000 et 15 000 mètres]. Le graphique indique que la théorie sur la façon dont les changements climatiques se produisent, et l’impact associé des gaz à effet de serre supplémentaires, n’est pas suffisamment bien comprise pour reproduire le climat passé [voir la partie (2)]. En effet, les modèles surchauffent clairement l’atmosphère. Le problème qui se pose pour le Congrès est que des projections de modèles aussi manifestement déficientes sont utilisées pour élaborer des politiques.

Fig. 1: Valeurs moyennes sur cinq ans de la température globale annuelle moyenne (1979-2015) (appelée « troposphérique moyenne » ou « MT ») telle que représentée par la moyenne des 102 modèles climatiques CMIP5 du GIEC (rouge), la moyenne de 3 ensembles de données satellitaires (vert – UAH, RSS, NOAA) et 4 ensembles de données par ballon (bleu, NOAA, UKMet, RICH, RAOBCORE).

Ce résultat remettant en cause la théorie actuelle du réchauffement par effet de serre de manière relativement directe, plusieurs attaques bien financées ont été lancées contre ceux d’entre nous qui éloaborent et utilisent ces ensembles de données et contre les ensembles de données eux-mêmes. En tant que climatologue, je me suis retrouvé, avec des collègues partageant les mêmes idées, projeté dans un monde plus étroitement associé à la diffamation et à la diversion, que l’on trouve par exemple dans la politique de Washington, plutôt qu’à un discours objectif et dépassionné communément admis dans le domaine scientifique. Les enquêtes menées sur nous par le Congrès et les médias sont motivées par l’idée que quiconque n’est pas d’accord avec le point de vue de l’establishment climatique sur le dangereux changement climatique doit être à la solde d’organisations calomnieuses ou être mentalement déficient.

C’est également dans ce milieu qu’est propagé le matériel promotionnel, c’est-à-dire la propagande, qui tente de discréditer ces données (et les chercheurs) par des allégations qui ne mènent à rien.

Plusieurs de ces allégations contre les données sont apparues il y a quelques semaines sous la forme d’une vidéo bien ficelée. J’aborderai ses principales affirmations avec le matériel suivant, qui, sous une forme similaire, est apparu dans la littérature évaluée par les pairs au fil des ans.

La vidéo en question a été promue par un groupe de pression sur le changement climatique (Yale Climate Connections, http://www.yaleclimateconnections.org/2016/01/over-reliance-on-satellite-data-alone-criticized/) dans laquelle des scientifiques renommés font des affirmations pour la plupart dénuées de sens ou complètement fausses par rapport aux preuves de la Fig. 1. Je souhaite faire quatre remarques concernant cette vidéo et démontrer la tactique de diversion pour laquelle ce genre de vidéos orientées, ainsi que les médias qui les imitent joyeusement, se sont rendus célèbres.

Premièrement, il est affirmé que les satellites ne mesurent pas la température. En réalité, les capteurs des satellites mesurent la température par les radiations émises – la même méthode qu’un médecin utilise pour mesurer la température corporelle avec une grande précision à l’aide d’une sonde auriculaire. L’oxygène atmosphérique émet des micro-ondes, dont l’intensité est directement proportionnelle à la température de l’oxygène, et donc de l’atmosphère. Le fait que les satellites mesurent la température est évident dans le graphique suivant, qui compare les données satellitaires de l’UAH aux températures calculées à partir des thermistances des ballons. Soit dit en passant, la plupart des mesures de la température de surface sont indirectes et utilisent une résistance électronique.

Fig. 2: Variations moyennes de température mesurées dans 59 stations de radiosondage aux États-Unis (fabricant VIZ) et en Australie.

Deuxièmement, les scientifiques affirment que la chute verticale (décroissance orbitale) des satellites due à la friction atmosphérique provoque un refroidissement parasite dans le temps. Cette chute verticale a un impact non mesurable sur la couche (MT) utilisée ici et constitue donc une affirmation dénuée de sens. Dans des versions beaucoup plus anciennes d’un autre produit de couche (LT ou Basse Troposphère), ce problème existait, mais il a été facilement corrigé il y a près de 20 ans. Ainsi, le fait de soulever des problèmes qui affectaient une variable différente qui, de toute façon, a été corrigée il y a de nombreuses années est une manœuvre de diversion évidente qui, à mon avis, démontre la faiblesse de leur position.

Troisièmement, les scientifiques parlent des faux changements de température qui se produisent lorsque les satellites dérivent dans la direction est-ouest, le problème dit de la dérive diurne (que nous avons été les premiers à détecter et à prendre en compte). Ils parlent d’une erreur de signe dans la procédure de correction qui a modifié la tendance. Encore une fois, cette erreur n’était pas un facteur dans la couche MT de la Fig. 1, mais pour la couche LT, qui est différente. Et, encore une fois, cette question a été traitée pour la LT il y a 10 ans.

Enfin, bien que cela ne soit pas spécifiquement mentionné dans cette vidéo, certains de ces scientifiques prétendent que la Fig. 1 ci-dessus est en quelque sorte manipulée, dans le but de cacher leur croyance dans les prouesses et la validité des modèles climatiques. À cela, au contraire, je réponds que nous avons présenté les données de la manière la plus significative possible. Il s’agit ici du taux de réchauffement de l’atmosphère globale, c’est-à-dire de la tendance. Cette mesure nous indique à quelle vitesse la chaleur s’accumule dans l’atmosphère – la mesure fondamentale du réchauffement climatique. Pour représenter visuellement ce phénomène, j’ai ajusté tous les ensembles de données afin qu’ils aient une origine commune. Pensez à cette analogie: j’ai participé à plus de 500 courses au cours des 25 dernières années et, à chaque fois, tous les coureurs partent du même endroit au même moment dans le simple but de déterminer qui est le plus rapide, et de combien, à l’arrivée. Il est évident que la vitesse globale relative des coureurs est déterminée par leur position au moment où ils franchissent la ligne d’arrivée, mais ils doivent tous partir ensemble.

De la même manière, j’ai construit le graphique de façon à ce que la ligne de tendance de toutes les séries chronologiques de température commence au même point en termes d’amplitude et de temps (valeur zéro en 1979) afin que le lecteur puisse voir l’ampleur de l’écart à la ligne d’arrivée (2015). Un aperçu de cette méthode est illustré à la Fig. 3 où je présente ce qui est vu à la Fig. 1, sauf qu’il s’agit uniquement de la ligne de tendance sans les variations qui se produisent chaque année en raison des volcans et autres facteurs. Cela revient à tracer la vitesse moyenne globale d’un coureur le long du parcours, même s’il a probablement couru plus lentement dans les montées et plus vite dans les descentes.

Cette image indique que les modèles, en moyenne, réchauffent cette couche globale environ 2,5 fois plus vite que ce que les observations indiquent. Il s’agit d’une différence significative non expliquée, qui indique que la théorie de l’impact de l’effet de serre sur la température atmosphérique n’est pas suffisamment connue pour même reproduire ce qui s’est déjà produit. Nous ne parlons pas ici de 10 ou 15 ans, mais de 37 ans – bien plus d’un tiers de siècle. Le fait que deux types de systèmes de mesure très indépendants (ballons et satellites) construits par une variété d’institutions (gouvernement, université, privé) montrent tous un taux de réchauffement beaucoup plus lent donne une grande confiance dans leur résultat. Ainsi, les preuves suggèrent fortement que la théorie, telle qu’elle est incarnée dans les modèles, va beaucoup trop loin en forçant l’atmosphère à retenir la chaleur alors qu’en réalité, l’atmosphère a les moyens d’évacuer cette chaleur et se réchauffe donc à un rythme beaucoup plus lent.

Fig. 3: La ligne de tendance linéaire sur la période 1979-2015. Les couleurs représentent les mêmes données sources que dans la Fig. 1.

J’ai montré ici que pour l’atmosphère globale, les modèles surchauffent l’atmosphère d’un facteur d’environ 2,5. Par ailleurs, si on se concentre sur les tropiques, les modèles montrent un réchauffement par effet de serre encore plus important dans cette couche. Cependant, un calcul similaire avec les observations présentées à la Fig. 3 indique que les modèles surchauffent l’atmosphère tropicale d’un facteur d’environ 3, (modèles +0,265, satellites +0,095, ballons +0,073 °C/décennie), ce qui indique à nouveau que la théorie actuelle est en contradiction avec les faits. (voir à nouveau la section 2).

C’est une stratégie téméraire, à mon avis, que de promouvoir activement les résultats des modèles climatiques théoriques tout en attaquant les multiples lignes de preuves issues d’observations. Il convient de noter qu’aucun des ensembles de données d’observation n’est parfait et qu’il est sain de continuer à les examiner, mais lorsque de multiples groupes indépendants génèrent les ensembles de données et que les résultats de deux systèmes totalement indépendants (ballons et satellites) concordent étroitement et sont en désaccord avec les résultats du modèle, on ne peut que se poser des questions sur la décision de lancer une offensive contre les données. Cela n’a d’après moi aucun sens scientifique.

(1.2) Questions relatives à la température de surface

Il existe plusieurs problèmes concernant les ensembles de données sur la température de surface qui sont trop complexes pour être abordés dans ce document. Je me concentrerai sur quelques points qui me sont familiers et sur lesquels j’ai publié.

(1.2.a) La température de surface comme mesure pour détecter l’influence de l’augmentation des concentrations de gaz à effet de serre

L’un de mes nombreux centres d’intérêt en matière de climat est la manière dont les températures de surface sont mesurées et dont elles sont affectées par leur environnement, en particulier au-dessus des terres. Dans plusieurs articles (Christy et al. 2006 J. Climate, Christy et al. 2009 J. Climate, Christy 2013 J. Appl. Meteor. Clim. et Christy et al. 2016 J. Appl. Meteor. Clim.) j’ai examiné de près les stations individuelles dans différentes régions et je suis arrivé à la conclusion que l’ampleur du signal relativement faible que nous recherchons dans le changement climatique d’origine humaine est susceptible d’être faussé par la croissance de l’infrastructure autour des stations thermométriques et la variété des changements que ces stations subissent au fil du temps, ainsi que la variabilité des hauts et des bas naturels du climat. Il est difficile d’ajuster ces facteurs de contamination afin d’extraire un ensemble de données pures pour la détection de l’effet de serre, car souvent, l’influence non climatique se manifeste très progressivement, exactement comme on l’attendrait des réactions à une intensification de l’effet de serre.

En examinant les températures de l’océan (Christy et al. 2001, Geophys. Res. Lett.), j’ai découvert que les tendances de la température de l’eau (1m de profondeur) ne suivent pas bien celles de la température de l’air juste au-dessus de l’eau (3m), même si les deux sont mesurées sur la même bouée pendant 20 ans. Ceci est important pour la discussion ci-dessous où la NOAA a utilisé les températures de l’air marin pour ajuster les mesures de la température de l’eau à partir de navires.

Il existe de nombreux autres facteurs qui rendent les ensembles de données sur la température de surface peu efficaces pour la détection d’un réchauffement accru dû à l’effet de serre, (a) le manque de couverture géographique systématique dans le temps, (b) les méthodes et instruments de mesure non systématiques dans le temps et l’espace, (c) la mesure ponctuelle représente au mieux une zone locale minuscule et (d) est facilement affectée par de légers changements dans l’environnement, qui peuvent se produire par exemple lorsqu’une station se déplace. Des efforts considérables ont été déployés pour essayer d’ajuster les données brutes de surface afin d’obtenir une série chronologique qui représenterait celle d’un environnement vierge, et j’ai dirigé ou participé à certains de ces efforts (par exemple pour la Californie centrale dans Christy et al. 2006 et pour l’Afrique de l’Est dans Christy et al. 2009 et Christy 2013).

Ainsi, fort d’une expérience dans la construction d’ensembles de données de température de surface, par satellite et par ballon, et en tenant compte du signal que nous recherchons pour détecter une intensification de l’effet de serre, il me semble que l’utilisation des mesures atmosphériques globales offre la meilleure opportunité de répondre aux questions sur la réaction du climat à ce changement de composition atmosphérique induit par l’homme. L’atmosphère profonde est beaucoup plus cohérente dans l’espace et dans le temps en termes de variations. Elle n’est pas affectée par le développement humain à la surface. Elle est mesurée systématiquement. Certes, les températures mesurées par satellite et par ballon nécessitent leurs propres ajustements et ne peuvent être considérées comme « parfaites », mais elles offrent une indépendance l’une par rapport à l’autre qui permet des études de comparaison directe. En ce qui concerne la détection de l’intensification de l’effet de serre, il se trouve que la troposphère, comme l’indiquent les modèles, est la région atmosphérique qui réagit le plus, c’est-à-dire qui se réchauffe le plus rapidement, et constitue donc, à mon avis, une mesure qui offre un meilleur moyen de détecter l’influence humaine sur le climat.

(1.2.b) Le nouveau jeu de données sur les températures de surface de la NOAA

Une série d’articles a été publiée l’année dernière (notamment Huang et al. 2015 J. Climate, Karl et al. 2015 Science) décrivant un nouvel ensemble de données sur la température de surface élaboré par la NOAA qui indique un réchauffement un peu plus important au cours des 10 à 25 dernières années que les versions précédentes. Le principal changement concernait les températures de l’eau de mer dans l’ensemble de données désormais connu sous le nom de ERSSTv4. Ce changement a introduit un réchauffement supplémentaire dans les données à partir de 1990 environ. La principale raison de ce nouveau réchauffement, comme le notent les auteurs, est l’ajustement appliqué aux données des bouées, ajoutant environ +0,12 °C aux relevés des bouées. En 1980, seuls 10% environ des rapports de données provenaient de bouées, mais en 2000, 90% environ étaient des données de bouées. Ainsi, étant donné que l’influence des données des bouées a augmenté de manière significative au fil du temps, le simple ajout d’un biais à toutes les bouées dès le début a créé une tendance plus chaude à mesure qu’elles devenaient la principale source d’information.

Un certain contexte est nécessaire. Contrairement aux ensembles de données des satellites et des ballons qui mesurent une quantité systématique (essentiellement la température de l’air atmosphérique), les ensembles de données sur la température de surface sont un mélange de températures de l’air (sur terre) et de l’eau (sur l’océan) mesurées à l’aide d’une gamme considérable d’instruments, d’expositions et de méthodes. Sur terre, les stations météorologiques mesurent la température de l’air dans différents types d’abris pour instruments et par différentes techniques à un niveau d’environ 1,5m au-dessus du sol. Au-dessus de l’océan, cependant, la température utilisée est celle de l’eau elle-même, et non celle de l’air au-dessus, de sorte que les ensembles traditionnels de données sur la surface du globe ne mesurent pas un paramètre physique homogène sur terre et dans l’océan. En outre, la profondeur à laquelle est mesurée la température de l’eau est très variable, de 0,6 à 15 mètres environ, et les méthodes utilisées vont des seaux remontés sur le pont dans lesquels on insère un thermomètre aux températures de l’admission du moteur, beaucoup plus profondes dans l’eau, en passant par les bouées, dérivantes ou amarrées au fond. Le fait que la température varie en fonction de la profondeur est donc un problème à résoudre avant de pouvoir tenter de construire un ensemble de données systématique. De plus, les mesures ne sont pas cohérentes dans l’espace et dans le temps, et de grandes régions, comme l’Afrique et les océans du Sud, ne sont pas mesurées.

N’oubliez pas que même si la tendance de cet ensemble de données de la NOAA est devenue plus positive au cours des 10 à 20 dernières années, elle reste inférieure aux projections des modèles climatiques à long terme. Pour les périodes plus longues, comme la période depuis 1979, date à laquelle les satellites ont commencé à mesurer les températures atmosphériques globales, le nouvel ensemble de données mondiales est similaire à celui du Centre Hadley (1979-2015: NOAA +0,155 °C/décennie, Centre Hadley UKMet, +0,165 °C/décennie). Cependant, des questions subsistent concernant le nouvel ensemble de données sur l’eau de mer de la NOAA, notamment sur la manière dont il indique un réchauffement plus important que les autres au cours des 20 dernières années. La Figure 4 présente les tendances océaniques pour la région 20S à 60N (c’est-à-dire les océans tropicaux et de l’hémisphère nord – il y avait trop peu de données au sud du 20S pour y générer des températures de l’air proche de la surface). Quatre ensembles de données sont représentés: NOAA (NOAA, rouge), Centre Hadley (HadCRUT4, orange), une température préliminaire de l’air proche de la surface sur les océans par mon étudiant diplômé Rob Junod (jaune) et la température de l’air de la couche profonde de l’UAH provenant des satellites (bleu). Les données NOAA et HadCRUT4 sont des températures de l’eau de mer près de la surface, elles devraient donc être identiques.

La NOAA a utilisé une curieuse variable de référence pour calibrer les températures de l’eau mesurées à partir des prises d’eau des navires – la température de l’air marin nocturne (NMAT). C’est curieux car les NMAT elles-mêmes nécessitent des ajustements considérables, c’est-à-dire des corrections pour la hauteur du pont du navire, etc. Quoi qu’il en soit, à partir de là, les données des bouées ont ensuite été ajustées pour correspondre aux données des navires. Il semble donc que le processus d’ajustement fondamental dépende des NMAT pour ajuster les données des navires et ensuite ajuster les données des bouées. Le produit final de la NOAA mélange toutes ces données, et comme la représentation géographique des différents systèmes a changé de façon spectaculaire (comme on l’a noté, d’environ 10% de bouées et 90% de navires en 1980 à 90% de bouées et 10% de navires aujourd’hui – Huang et al. 2015), un ajustement appliqué aux bouées influencera automatiquement la tendance.

Je suis conscient que le Comité a cherché à obtenir des informations sur ce curieux processus et a demandé à la NOAA de générer des ensembles de données basés uniquement sur des systèmes de mesure cohérents, c’est-à-dire des navires seuls, des bouées seules et des NMATs seuls, afin de voir si l’un des systèmes aurait pu influencer les tendances de manière inappropriée en raison des changements de distribution. La NOAA n’a pas été en mesure de répondre à cette demande. En même temps, j’ai demandé à mon étudiant diplômé, Rob Junod, de faire le travail pour le NMAT. Ce qui est présenté ici est préliminaire, mais suit une grande partie des travaux précédents sur les NMAT (développés au National Oceanographic Centre et au Centre Hadley au Royaume-Uni) avec l’avantage supplémentaire d’être mis à jour en 2014. La meilleure couverture géographique des données a été trouvée entre 20°S et 60°N. Cette zone a donc également été appliquée aux autres ensembles de données pour une comparaison entre éléments identiques. Les résultats sont présentés à la Figure 4, dans laquelle toutes les tendances se terminent en 2014 mais couvrent des périodes par tranches de deux ans, de 20 ans à 10 ans.

Figure 4. Tendances décennales (°C/décennie) de quatre ensembles de données de température sur les océans de 20°S à 60°N pour des périodes variables se terminant en 2014. Le rouge et l’orange sont des ensembles de données sur la température de l’eau de mer en surface provenant de la NOAA et du Centre Hadley (HadCRUT4). Le jaune est un ensemble de données de température de l’air proche de la surface (Night Marine Air Temperature) construit par l’UAH (préliminaire). Le bleu est la tendance de la température de l’atmosphère profonde (de la surface à 10 000 mètres ou basse troposphère) à partir des émissions de micro-ondes captées par les satellites (également UAHv6.0b5).

Un certain nombre d’observations sautent aux yeux dans la Fig. 4. (1) En termes de tendance de température, les températures de l’air sont inférieures à celles de l’eau (comme indiqué dans mon étude de 2001 mentionnée ci-dessus.) (2) NOAA réchauffe le plus rapidement dans toutes les périodes. (3) Au cours des 10 à 14 dernières années, les tendances de l’HadCRUT4 concordent mieux avec la série de données sur la température de l’air proche de la surface (étant proche de zéro et soutenant la notion de hiatus) qu’avec les tendances de sa quantité physiquement identique de la NOAA. (4) L’ampleur des tendances des NMAT se situe entre les tendances de l’atmosphère profonde et de l’eau de mer.

Cette figure génère également un certain nombre de questions sur la qualité des données. (1) Si les NMAT ont été utilisées pour calibrer les températures des navires, puis les navires pour calibrer les températures des bouées, pourquoi la série de données de la NOAA diffère-t-elle autant de son point de référence de base – les NMAT? (2) A quoi ressemblent les séries temporelles et quelles sont les tendances de la sous-période pour l’eau de mer lorsque seuls les navires et/ou les bouées sont utilisés pour construire l’ensemble de données pour les 20-25 dernières années? (3) Que montre la série chronologique de la série de données NMAT de la NOAA (c’est-à-dire leur référence)?

Les véritables questions scientifiques ici sont celles qui ont une importance significative pour la compréhension de la façon dont les gaz à effet de serre supplémentaires pourraient affecter le climat, comme le montre la section suivante.

(2) Dans quelle mesure comprenons-nous le changement climatique?

L’un des objectifs scientifiques essentiels de notre époque est de déterminer si les émissions dues aux activités humaines ont un impact sur le climat et, si oui, dans quelle mesure. Cette tâche est d’autant plus difficile que nous savons que le système climatique est déjà soumis à des changements importants sans l’influence de l’homme. Étant donné qu’il n’existe pas de dispositif de mesure qui détermine explicitement la cause des changements climatiques que nous pouvons mesurer, comme la température, notre science doit adopter une approche différente pour chercher à comprendre ce qui cause les changements, c’est-à-dire quelle part est naturelle et quelle part est induite par l’homme. L’approche de base aujourd’hui utilise des modèles climatiques. (Les projections de ces modèles sont également utilisées pour les politiques en matière de carbone).

Il est important de comprendre que les résultats de ces modèles (c’est-à-dire les projections du climat futur et le lien spécifique que l’augmentation du CO2 pourrait avoir sur le climat) sont définis comme des hypothèses ou des affirmations scientifiques – les résultats des modèles ne peuvent être considérés comme une preuve des liens entre les variations climatiques et les gaz à effet de serre. Ces modèles sont des programmes informatiques complexes qui tentent de décrire, à l’aide d’équations mathématiques, le plus grand nombre possible de facteurs affectant le climat et d’estimer ainsi comment le climat pourrait évoluer à l’avenir. On espère que le modèle fournira des réponses précises aux variables climatiques, comme la température, lorsque des gaz à effet de serre supplémentaires sont inclus dans le modèle. Cependant, les équations de presque tous les processus climatiques importants ne sont pas exactes et représentent les meilleures approximations que les modélisateurs peuvent concevoir et que les ordinateurs peuvent gérer à ce stade.

Un aspect fondamental de la méthode scientifique est que si nous affirmons comprendre un système (tel que le système climatique), nous devons être en mesure de prédire son comportement. Si nous sommes incapables de faire des prédictions précises, c’est qu’au moins certains des facteurs du système ne sont pas bien définis ou peut-être même manquants. [Notez toutefois que le fait de reproduire le comportement du système (c’est-à-dire de reproduire « ce » que fait le climat) ne garantit pas que la physique fondamentale est bien connue. En d’autres termes, il est possible d’obtenir la bonne réponse pour les mauvaises raisons, c’est-à-dire obtenir le « quoi » du climat mais manquer le « pourquoi »].

Comprenons-nous comment les gaz à effet de serre affectent le climat, c’est-à-dire le lien entre les émissions et les effets climatiques? Comme indiqué plus haut, une mesure très élémentaire pour les études climatiques est la température de la couche atmosphérique principale appelée troposphère, qui s’étend en gros de la surface à une altitude de 15 000 mètres. Il s’agit de la couche qui, selon les modèles, devrait se réchauffer de manière significative avec l’augmentation du CO2, et même plus rapidement que la surface. Contrairement à la température de surface, cette température globale nous renseigne sur le nœud de la question du réchauffement climatique: quelle quantité de chaleur s’accumule dans l’atmosphère mondiale? Et, selon les modèles, ce réchauffement causé par le CO2 devrait être facilement détectable à l’heure actuelle. Il s’agit d’un bon test de notre compréhension du système climatique, car depuis 1979, nous disposons de deux moyens indépendants pour surveiller cette couche: les satellites depuis le ciel et les ballons équipés de thermomètres lâchés depuis la surface.

J’ai pu accéder à 102 simulations de modèles climatiques CMIP-5 rcp4.5 (representative concentration pathways) des températures atmosphériques pour la couche troposphérique et générer des températures globales à partir des modèles pour une comparaison entre éléments identiques avec les observations des satellites et des ballons. Ces modèles ont été développés dans des institutions du monde entier et utilisés dans l’évaluation scientifique du GIEC AR5 (2013).

Ci-dessus: Variations de la température moyenne mondiale de la troposphère moyenne (moyennes sur 5 ans) pour 32 modèles (lignes) représentant 102 simulations individuelles. Les cercles (ballons) et les carrés (satellites) représentent les observations. Le modèle russe (INM-CM4) était le seul modèle proche des observations.

Les informations contenues dans cette figure montrent clairement que les modèles ont une forte tendance à surchauffer l’atmosphère par rapport aux observations réelles. En moyenne, les modèles réchauffent l’atmosphère mondiale à un rythme 2,5 fois supérieur à celui du monde réel. Il ne s’agit pas d’un épisode à court terme, spécialement sélectionné, mais d’une période de 37 ans, soit plus d’un tiers de siècle. C’est également la période où la concentration de gaz à effet de serre est la plus élevée, et donc celle où la réaction devrait être la plus importante.

Si l’on suit la méthode scientifique consistant à confronter les affirmations aux données, on peut conclure que les modèles ne représentent pas fidèlement au moins certains des processus importants qui influent sur le climat, car ils n’ont pas été en mesure de « prévoir » ce qui s’est déjà produit. En d’autres termes, ces modèles ont échoué au simple test consistant à nous dire « ce qui » s’est déjà produit, et ne seraient donc pas en mesure de nous donner une réponse fiable à la question de savoir « ce qui » pourrait se produire à l’avenir et « pourquoi ». En tant que tels, ils seraient d’une valeur très discutable pour déterminer une politique qui devrait dépendre d’une compréhension très sûre du fonctionnement du système climatique.

Il existe une mesure climatique connexe qui utilise également la température atmosphérique qui, dans les modèles, a une réaction encore plus importante que celle de la moyenne mondiale présentée ci-dessus. Cette mesure constitue donc un test plus solide pour comprendre la performance des modèles en ce qui concerne spécifiquement les gaz à effet de serre. Dans les modèles, l’atmosphère tropicale se réchauffe de manière significative en réponse à l’ajout de gaz à effet de serre – plus que la température atmosphérique moyenne mondiale.

Ci-dessus: Variations de la température moyenne de la troposphère moyenne tropicale (moyennes sur 5 ans) pour 32 modèles (lignes) représentant 102 simulations individuelles. Les cercles (ballons) et les carrés (satellites) représentent les observations.

Dans la comparaison tropicale présentée ici, la disparité entre les modèles et les observations est encore plus grande, les modèles réchauffant en moyenne cette région atmosphérique d’un facteur trois plus important que dans la réalité. Un tel résultat renforce l’implication ci-dessus que les modèles ont encore beaucoup d’améliorations à faire avant que nous puissions avoir confiance qu’ils fourniront des informations sur ce que le climat peut faire dans le futur ou même pourquoi le climat varie comme il le fait. Pour la question qui nous occupe, les estimations de la manière dont la température mondiale pourrait être affectée par les réductions d’émissions prévues par les réglementations seraient exagérées et non fiables.

(3) L’impact climatique des réglementations (c.-à-d. Paris) ne sera pas attribuable ou détectable

Personne ne connaît l’impact climatique des réductions d’émissions de carbone proposées et convenues à Paris. La principale raison en est que les pays disposent d’une grande latitude pour en faire autant ou aussi peu qu’ils le souhaitent. Si l’on examine l’histoire des émissions mondiales de carbone, il est clair que les pays, en particulier les pays en développement, continueront à chercher à développer l’utilisation de l’énergie par la combustion du carbone en raison de son caractère abordable et des avantages considérables qu’il procure à leurs citoyens.

Dans tous les cas, l’impact sur la température mondiale des réductions actuelles et proposées des gaz à effet de serre sera, au mieux, minuscule. Pour le démontrer, supposons, par exemple, que les émissions totales des États-Unis soient réduites à zéro, à partir du 13 mai 2015 dernier (date d’une audience à laquelle j’ai témoigné). En d’autres termes, à partir de ce jour et à l’avenir, il n’y aurait plus d’industrie, plus de voitures, plus de services publics, plus de personnes – c’est-à-dire que les États-Unis cesseraient d’exister à partir de ce jour. Les réglementations, bien sûr, ne réduiront les émissions que dans une faible mesure, mais pour montrer à quel point l’impact de la réglementation sera minuscule, nous allons tout simplement aller au-delà de la réalité et faire disparaître les États-Unis. Nous tenterons ainsi de répondre à la question de l’impact du changement climatique dû à la réduction des émissions.

À l’aide de l’outil d’impact du GIEC de l’ONU connu sous le nom de Modèle d’évaluation des changements climatiques induits par les gaz à effet de serre ou MAGICC [Model for the Assessment of Greenhouse-gas Induced Climate Change], Rob Junod, étudiant diplômé, et moi-même avons réduit la croissance prévue des émissions mondiales totales en fonction de la contribution des émissions américaines à partir de cette date. Nous avons également utilisé la valeur de la sensibilité du climat d’équilibre déterminée par des techniques empiriques, soit 1,8°C. Après 50 ans, l’impact tel que déterminé par ces calculs de modèle ne serait que de 0,05 à 0,08°C – une quantité inférieure à celle de la fluctuation de la température mondiale d’un mois à l’autre. [Ces calculs ont utilisé les scénarios d’émissions A1B-AIM et AIF-MI, les émissions américaines représentant 14% à 17% des émissions mondiales de 2015. Il existe des preuves que la sensibilité du climat est inférieure à 1,8°C, ce qui diminuerait encore ces projections].

Comme indiqué, l’impact sur les émissions mondiales et le climat mondial des récents accords de Paris concernant les émissions mondiales n’est pas exactement quantifiable. Il est pratiquement impossible de prévoir le comportement de chaque pays en matière d’émissions, sans compter qu’il est impossible de savoir comment les systèmes énergétiques eux-mêmes évolueront dans le temps.

Étant donné que l’arrêt des émissions de l’ensemble de notre pays aurait un impact calculé si minime sur le climat mondial, il est évident que des réductions fractionnées des émissions par le biais de la réglementation produiraient des résultats imperceptibles. En d’autres termes, il n’y aurait aucune preuve à l’avenir pour démontrer qu’un impact climatique particulier a été induit par les réglementations proposées et promulguées. Ainsi, les réglementations n’auront aucune conséquence significative ou utile sur le système climatique physique – même si l’on croit que les modèles climatiques sont des outils de prédiction utiles.

Résumé

Le changement climatique est un sujet très vaste qui présente de nombreuses difficultés. Nos connaissances de base sur l’évolution du climat (c’est-à-dire les mesures) sont entachées d’incertitudes. Dans mon témoignage d’aujourd’hui, j’ai montré que la température atmosphérique globale est suffisamment bien mesurée pour démontrer que notre compréhension de la façon dont les gaz à effet de serre affectent le climat est nettement insuffisante pour expliquer le climat depuis 1979. En particulier, le changement réel de la mesure fondamentale de la signature du réchauffement par effet de serre – la température atmosphérique globale où les modèles indiquent que la preuve la plus directe du réchauffement par effet de serre devrait se trouver – est considérablement déformé par les modèles. Bien qu’aucun ensemble de données ne soit parfait, la manière dont les ensembles de données de surface ont été élaborés laisse de nombreuses questions sans réponse, en particulier pour la récente mise à jour de la NOAA qui montre un réchauffement plus important que les autres. Enfin, les réglementations déjà appliquées ou en cours de proposition, telles que celles de l’Accord de Paris, n’auront pratiquement aucun impact sur l’évolution du climat.

Annexe A

Cette annexe est un extrait de mon témoignage écrit présenté lors de l’audience suivante:

Comité du Sénat américain sur le commerce, les sciences et les transports

Sous-comité sur l’espace, la science et la compétitivité

8 déc. 2015

Témoignage de John R. Christy

Université d’Alabama à Huntsville.

Impacts présumés des changements climatiques d’origine humaine concernant les événements extrêmes.

Une grande partie de la préoccupation liée à l’augmentation des concentrations de gaz à effet de serre s’est reportée, au cours de la dernière décennie, des changements de température globale aux changements dans les événements extrêmes, c’est-à-dire les événements qui ont généralement un impact négatif sur l’économie. Ces événements peuvent être des vagues de chaleur, des inondations, des ouragans, etc.

En ce qui concerne les vagues de chaleur, voici le nombre de jours de 100°F observés aux États-Unis à partir d’un ensemble contrôlé de stations météorologiques. Non seulement il est clair que le nombre de jours de chaleur n’a pas augmenté, mais il est intéressant de constater qu’au cours des dernières années, on en a observé une relative rareté.

Ci-dessus: Nombre moyen de jours par station dans chaque année atteignant ou dépassant 100°F dans 982 stations de la base de données USHCN (NOAA/NCEI, préparé par JRChristy).

Les incendies de forêt et les feux de friches sont documentés pour les États-Unis. Les données ci-dessous indiquent qu’il n’y a pas eu de changement dans la fréquence des incendies de forêt. La superficie (non représentée) montre également peu de changement.

Ci-dessus: Nombre d’incendies de forêt aux États-Unis. La gestion de ces événements change, et donc leur nombre également, mais le nombre d’événements depuis 1985 est resté constant. (National Interagency Fire Center https://www.nifc.gov/fireInfo/nfn.htm)

Ci-dessus: Nombre d’incendies de forêt aux États-Unis par an depuis 1965.

Les deux chiffres ci-dessus montrent que la fréquence des incendies n’a pas augmenté aux États-Unis au cours des dernières décennies.

Les affirmations selon lesquelles les sécheresses et les inondations sont en augmentation peuvent également être examinées à la lumière des données d’observation.

Ci-dessus: Étendue surfacique mondiale de cinq niveaux de sécheresse pour 1982-2012 où la sécheresse est indiquée en rangs percentiles avec D0 < 30, D1 < 20, D2 < 10, D3 < 5 et D4 < 2 percentiles de la disponibilité moyenne de l’humidité. (Hao et al. 2014)

Ci-dessus: Fraction surfacique de la zone contiguë des États-Unis dans des conditions très humides (bleu) ou très sèches (rouge). NOAA/NCEI.

Les deux figures ci-dessus montrent que les conditions d’humidité n’ont pas montré de tendance à la baisse (plus de sécheresse) ou à la hausse (plus d’humidité à grande échelle). Ces informations sont rarement consultées lorsqu’il est plus commode de faire des affirmations non fondées selon lesquelles les extrêmes d’humidité, c’est-à-dire les sécheresses et les inondations (qui ont toujours existé), deviennent en quelque sorte encore plus extrêmes. Sur des périodes plus courtes et dans certains endroits, il est prouvé que les précipitations les plus fortes ont tendance à être plus importantes. Il ne s’agit pas d’un phénomène universel et il n’a pas été établi que ces changements puissent être dus à des modifications des concentrations de gaz à effet de serre, comme cela a été démontré précédemment, car les projections des modèles sont incapables de reproduire les mesures les plus simples.

Ci-dessus: Production mondiale de céréales 1961-2012. Organisation des Nations Unies pour l’alimentation et l’agriculture [FAO – Food and Agriculture Organization].

Il est facile de trouver des documents attestant de l’augmentation constante de la production de céréales. On peut s’interroger sur l’allégation du Conseil Fédéral de la Qualité de l’Environnement selon laquelle le changement climatique induit par l’homme a causé un « préjudice à l’agriculture », car si l’on considère la croissance totale de la production, qui semble s’accélérer, on pourrait supposer qu’aucun « préjudice » n’a été causé pendant une période d’augmentation des gaz à effet de serre.

Au vu des preuves fournies dans les exemples ci-dessus, il est évidemment difficile d’établir les affirmations concernant la détérioration des conditions dues au changement climatique d’origine humaine, ou plus généralement que tout changement pourrait être directement lié à l’augmentation du CO2. Ce point est également lié à la question de la capacité des modèles climatiques mentionnée précédemment. Il est clair que les modèles climatiques ne sont pas à la hauteur sur certaines questions très fondamentales de la variabilité climatique, étant incapables de reproduire « ce qui » s’est passé en matière de température globale, et donc de savoir « pourquoi » cela s’est produit. Il est donc prématuré d’affirmer que l’on connaît les causes des changements de diverses mesures exotiques du temps, telles que l’intensité des précipitations sur de courtes périodes, qui ne sont même pas explicitement générées dans les résultats des modèles climatiques.

Le décevant processus scientifique

J’ai beaucoup écrit, lors de précédentes audiences du Congrès et à d’autres occasions, sur l’incapacité de la communauté scientifique à aborder objectivement l’étude du climat et du changement climatique. (Voir l’annexe) La science du climat est une science obscure comportant de grandes incertitudes sur de nombreux éléments critiques tels que la répartition des nuages et les échanges thermiques de surface. Comme nous l’avons mentionné plus haut, il n’existe pas d’instrumentation objective qui puisse nous dire « pourquoi » les changements se produisent. Cela étant, il ne nous reste que des hypothèses (affirmations) à avancer, puis à tester. Les informations fournies ci-dessus montrent clairement, selon moi, que la compréhension théorique actuelle du « pourquoi » des changements climatiques, telle qu’incarnée dans les modèles (et sur laquelle la politique actuelle est basée), échoue à ces tests. En effet, le point de vue théorique (modèle) tel qu’il est exprimé dans le RE5 du GIEC a dans tous les cas surestimé la réaction de la température atmosphérique tropicale globale aux gaz à effet de serre supplémentaires (voir ci-dessus et la figure 10.SM.1 du matériel supplémentaire du GIEC), ce qui indique que la compréhension théorique de la réaction du climat est trop sensible aux gaz à effet de serre.

L’un des problèmes de notre science est lié au processus de financement des études climatiques, dont la grande majorité est assurée par des agences fédérales. Les décisions de financement sont prises par des personnes, et ces personnes ont des préjugés. Notre science a également connu une évolution vers une science de « consensus », où l' »accord » entre les personnes et les groupes est considéré comme supérieur à une enquête déterminée et objective. La triste progression des événements ici a même conduit à des enquêtes du Congrès destinées à faire taire (avec un certain succès) ceux dont les voix, y compris la mienne, ont contesté les points de vue politiquement corrects sur le climat (c’est-à-dire l’enquête du Congrès par le représentant Grijalva, 22 février 2015, http://www.scribd.com/doc/256811029/Letter-to-UAH-re-John-Christy).

Aujourd’hui, les décisions de financement sont prises par des comités d’examen. Dans ce processus, de nombreuses propositions de financement sont soumises aux agences, mais ces dernières ne disposent que d’une fraction des fonds disponibles pour soutenir les propositions, de sorte que seules quelques propositions peuvent être financées et celles-ci sont sélectionnées par les comités. Dans le domaine du climat, il est clair que les agences sont convaincues de la vision consensuelle d’un changement climatique dangereux, comme l’indiquent leurs diverses déclarations et communiqués de presse sur la question. Par conséquent, lorsqu’une proposition contraire est soumise, qui cherche à découvrir d’autres explications possibles que les gaz à effet de serre pour les petits changements que nous observons actuellement, ou une proposition qui cherche à examiner rigoureusement et objectivement les résultats des modèles climatiques, elle n’a pratiquement aucune chance d’être financée. Cela se produit parce que le comité détermine par un vote majoritaire qui financer, et avec une concurrence serrée, tout parti pris de quelques membres du comité contre une proposition contraire est suffisant pour être rejeté. Bien sûr, les agences prétendront que tout est fait en toute objectivité, mais ce serait précisément la réponse attendue d’une personne faisant déjà partie du « consensus » et dont l’agence a déclaré sa position sur le changement climatique. Ceci m’amène au « consensus scientifique ».

L’expression « consensus scientifique » est souvent invoquée dans les débats sur le changement climatique pour étayer une affirmation. Il s’agit d’une forme d' »argument d’autorité ». Le consensus est toutefois une notion politique, et non une notion scientifique. Comme j’ai témoigné devant l’Inter-Academy Council en juin 2010, comme je l’ai écrit dans Nature la même année (Christy 2010), et comme je l’ai documenté dans mon témoignage écrit pour plusieurs audiences du Congrès (par exemple, House Space, Science and Technology, 31 mars 2011), le GIEC et d’autres évaluations similaires ne représentent pas pour moi un consensus de beaucoup plus que le consensus de ceux qui sont sélectionnés pour être d’accord avec un consensus particulier.

Le contenu de ces rapports sur le climat est en fait sous le contrôle d’un nombre relativement restreint d’individus – je les appelle souvent « l’establishment du climat » – qui, au fil des ans, en sont venus, à mon avis, à agir comme des gardiens de l’opinion et de l’information scientifiques, plutôt que comme des intermédiaires. Les voix de ceux d’entre nous qui s’opposent à certaines déclarations et à certaines emphases dans ces évaluations sont, dans l’ensemble, rejetées plutôt que prises en compte. Cet establishment inclut les mêmes personnes qui deviennent les « experts » appelés à promouvoir les affirmations du GIEC dans les rapports gouvernementaux tels que la conclusion de mise en danger par l’Agence de Protection de l’Environnement.

Comme je l’ai souligné dans mes précédents témoignages, ces « experts » deviennent les auteurs et les évaluateurs de leurs propres recherches par rapport aux recherches qui remettent en cause leur travail. Cela devient un conflit d’intérêt évident. Mais avec le luxe d’avoir le « dernier mot » en tant qu’auteurs « experts » des rapports, les opinions alternatives disparaissent. Ce n’est pas un processus qui fournit les meilleures informations aux représentants du peuple. Le Congrès américain doit disposer de l’ensemble des points de vue sur des questions telles que le changement climatique qui sont (a) caractérisées par une ambiguïté considérable (voir les résultats des modèles) (b) utilisées pour promouvoir des actions réglementaires qui seront économiquement préjudiciables au peuple américain et, le plus ironique, (c) n’auront aucun impact sur ce que fera le climat.

J’ai souvent déclaré que la science du climat est une science « obscure ». Nous ne disposons pas de méthodes de laboratoire pour tester nos hypothèses, contrairement à de nombreuses autres sciences. Par conséquent, ce qui passe pour de la science inclut l’opinion, les arguments d’autorité, les communiqués de presse spectaculaires et les notions floues de consensus générées par des groupes présélectionnés. Ce n’est pas de la science.

Nous savons, grâce aux courriels du Climategate et à de nombreuses autres sources, que le GIEC a eu des problèmes avec ceux qui adoptent des positions sur le changement climatique différentes de celles qu’il promeut. Il existe cependant une autre façon de traiter ce problème. Puisque l’activité du GIEC et la recherche sur le climat en général sont financées par les contribuables américains, je propose que cinq à dix pour cent des fonds soient alloués à un groupe de scientifiques reconnus pour produire une évaluation qui exprime des hypothèses alternatives légitimes qui ont été (à leur avis) marginalisées, déformées ou ignorées dans les rapports précédents du GIEC (et donc dans l’Endangerment Finding de l’APE et les National Climate Assessments).

De telles activités sont souvent appelées rapports « Red Team » [équipes rouges] et sont largement utilisées par le gouvernement et l’industrie. Les décisions relatives au financement des « Red Teams » ne devraient pas être confiées à l' »establishment » actuel, mais à des panels composés de scientifiques accrédités ayant l’expérience de l’examen de ces questions. Certains efforts dans ce sens ont été déployés par le secteur privé (par exemple, le Groupe d’Experts Non-gouvernemental International sur l’Evolution du Climat, à l’adresse http://nipccreport.org/ et Michaels (2012) ADDENDUM: Global Climate Change Impacts in the United States). Je pense que les décideurs politiques, avec l’argent du public, devraient soutenir activement la collecte de toutes les informations essentielles pour aborder cette science trouble et vicieuse, puisque le public paiera en fin de compte le coût de toute législation censée agir sur le climat.

Les sujets à aborder dans cette évaluation de la « Red Team » seraient, par exemple, les suivants : (a) les preuves d’une faible sensibilité du climat à l’augmentation des gaz à effet de serre, (b) le rôle et l’importance de la variabilité naturelle et imprévue, (c) une évaluation rigoureuse et indépendante des résultats des modèles climatiques, (d) une discussion approfondie de l’incertitude, (e) l’accent mis sur les paramètres les plus directement liés au taux d’accumulation de chaleur dans le système climatique, (f) l’analyse des nombreuses conséquences, y compris les avantages, qui résultent de l’augmentation du CO2, et (g) l’importance d’une énergie abordable et accessible pour la santé et le bien-être de l’homme.

L’objectif de cette proposition est de fournir au Congrès et aux autres décideurs une évaluation parallèle, scientifiquement fondée, de l’état de la science du climat, qui aborde des questions qui n’ont pas été ou ont été sous-représentées dans les rapports précédents sur le climat, financés par les contribuables et dirigés par le gouvernement. En d’autres termes, nos décideurs politiques ont besoin de voir l’ensemble des découvertes concernant le changement climatique.

Résumé de l’extrait

Les messages des deux points soulignés dans l’extrait ci-dessus sont les suivants: (1) les affirmations concernant l’augmentation de la fréquence et de l’intensité des événements extrêmes ne sont généralement pas étayées par des observations réelles et, (2) les informations officielles sur la science du climat sont largement contrôlées par les agences par le biais (a) des choix de financement de la recherche et (b) de la sélection minutieuse (c’est-à-dire biaisée) des auteurs de rapports tels que l’Endangerment Finding de l’APE et le National Climate Assessment.


Texte original

U.S. House Committee on Science, Space & Technology

2 Feb 2016

Testimony of John R. Christy

University of Alabama in Huntsville.

I am John R. Christy, Distinguished Professor of Atmospheric Science, Alabama’s State Climatologist and Director of the Earth System Science Center at The University of Alabama in Huntsville. I have served as Lead Author, Contributing Author and Reviewer of United Nations IPCC assessments, have been awarded NASA’s Medal for Exceptional Scientific Achievement, and in 2002 was elected a Fellow of the American Meteorological Society.

It is a privilege for me to offer my analysis of the current situation regarding (1) the temperature datasets used to study climate, (2) our basic understanding of climate change and (3) the effect that regulations, such as the Paris agreement, might have on climate. I have also attached an extract from my Senate Testimony last December in which I address (1) the popular notion that extreme climate events are increasing due to human-induced climate change (they are not), and (2) the unfortunate direction research in this area has taken.

My research area might be best described as building datasets from scratch to advance our understanding of what the climate is doing and why – an activity I began as a teenager over 50 years ago. I have used traditional surface observations as well as measurements from balloons and satellites to document the climate story. Many of our UAH datasets are used to test hypotheses of climate variability and change.

(1.1) Upper air temperature data from satellites and balloons

I shall begin with a discussion that was precipitated by an increasingly active campaign of negative assertions made against the observations, i.e. the data, of upper air temperatures. Figure 1 in particular has drawn considerable attention from those who view the climate system as undergoing a rapid, human-caused transformation into a climate to which people would have great difficulty adapting. This simple chart tells the story that the average model projection, on which their fears (or hopes?) are based, does poorly for the fundamental temperature metric that is allegedly the most responsive to extra greenhouse gases – the bulk atmospheric temperature of the layer from the surface to 50,000ft. [The layer shown is known as the mid-troposphere or MT and is used because it overlaps with the region of the tropical atmosphere that has the largest anticipated signature of the greenhouse response by bulk mass – between 20,000 and 50,000 feet.] The chart indicates that the theory of how climate changes occur, and the associated impact of extra greenhouse gases, is not understood well enough to even reproduce the past climate [much more in section (2)]. Indeed, the models clearly over-cook the atmosphere. The issue for congress here is that such demonstrably deficient model projections are being used to make policy.

Fig. 1: Five-year averaged values of annual mean (1979-2015) global bulk (termed “mid-tropospheric” or “MT”) temperature as depicted by the average of 102 IPCC CMIP5 climate models (red), the average of 3 satellite datasets (green – UAH, RSS, NOAA) and 4 balloon datasets (blue, NOAA, UKMet, RICH, RAOBCORE).

Because this result challenges the current theory of greenhouse warming in relatively straightforward fashion, there have been several well-funded attacks on those of us who build and use such datasets and on the datasets themselves. As a climate scientist I’ve found myself, along with fellow like-minded colleagues, tossed into a world more closely associated with character assassination and misdirection, found in Washington politics for example, rather than objective, dispassionate discourse commonly assumed for the scientific endeavor. Investigations of us by congress and the media are spurred by the idea that anyone who disagrees with the climate establishment’s view of dangerous climate change must be on the payroll of scurrilous organizations or otherwise mentally deficient.

Also thrust into this milieu is promotional material, i.e., propaganda, attempting to discredit these data (and researchers) with claims that amount to nothing.

Several of these allegations against the data appeared a few weeks ago in the form of a well-made video. I shall address the main assertions with the following material, which in similar form has appeared in the peer-reviewed literature through the years.

The video of interest was promoted by a climate change pressure group (Yale Climate Connections, http://www.yaleclimateconnections.org/2016/01/over-reliance-on-satellite-data-alone-criticized/) in which well-known scientists make claims that are mostly meaningless or completely wrong relative to the evidence in Fig. 1. I wish to make four points regarding the video and demonstrate the misdirection for which such agendized videos, along with a happily mimicking media, are so famous.

First, the claim is made the satellites do not measure temperature. In reality, the sensors on satellites measure temperature by emitted radiation – the same method that a physician uses to measure your body temperature to high precision using an ear probe. Atmospheric oxygen emits microwaves, the intensity of which is directly proportional to the temperature of the oxygen, and thus the atmosphere. That the satellites measure temperature is evident by the following chart which compares our UAH satellite data with temperatures calculated from balloon thermistors. As an aside, most surface temperature measurements are indirect, using electronic resistance.

Fig. 2: Average temperature variations measured at 59 radiosonde stations in the U.S. (VIZ manufacturer) and Australia.

Secondly, the scientists claim that the vertical drop (orbital decay) of the satellites due to atmospheric friction causes spurious cooling through time. This vertical fall has an immeasurable impact on the layer (MT) used here and so is a meaningless claim. In much earlier versions of another layer product (LT or Lower Troposphere), this was a problem, but was easily corrected almost 20 years ago. Thus, bringing up issues that affected a different variable that, in any case, was fixed many years ago is a clear misdirection that, in my view, demonstrates the weakness of their position.

Thirdly, the scientists speak of the spurious temperature changes that occur as the satellites drift in the east-west direction, the so-called diurnal drift problem (which was first detected and accounted for by us). They speak of a sign error in the correction procedure that changed the trend. Again, this error was not a factor in the MT layer in Fig. 1, but for the different LT layer. And, again, this issue was dealt with for LT 10 years ago.

Finally, though not specifically mentioned in this video, some of these scientists claim Fig. 1 above is somehow manipulated to hide their belief in the prowess and validity of the climate models. To this, on the contrary, I say that we have displayed the data in its most meaningful way. The issue here is the rate of warming of the bulk atmosphere, i.e., the trend. This metric tells us how rapidly heat is accumulating in the atmosphere – the fundamental metric of global warming. To depict this visually, I have adjusted all of the datasets so that they have a common origin. Think of this analogy: I have run over 500 races in the past 25 years, and in each one all of the runners start at the same place at the same time for the simple purpose of determining who is fastest and by how much at the finish line. Obviously, the overall relative speed of the runners is most clearly determined by their placement as they cross the finish line – but they must all start together.

In the same way I constructed the chart so that the trend line of all of the temperature time series starts at the same point in magnitude and time (zero value at 1979) so the viewer may see how wide the spread is at the finish line (2015). One way to look at this is seen in Fig. 3 where I provide what is seen in Fig. 1 except this is only the trend line without the variations that occur from year due to volcanoes and such. This is analogous to plotting the overall average speed of a runner along the course even though they likely ran slower on an uphill, and faster on a downhill.

This image indicates the models, on average, warm this global layer about 2.5 times faster than the observations indicate. This is a significant difference that has not beenexplained and indicates the theory of greenhouse impact on atmospheric temperature is not sufficiently known to even reproduce what has already happened. We are not talking about 10 or 15 years here, but 37 years – well over a third of a century. That two very independent types of measuring systems (balloons and satellites) constructed by a variety of institutions (government, university, private) all showing the much slower rate of warming gives high confidence in its result. Thus, the evidence here strongly suggests the theory, as embodied in models, goes much too far in forcing the atmosphere to retain heat when in reality the atmosphere has a means to relinquish that heat and thus warms at a much slower rate.

Fig. 3: The linear trend line over the period 1979-2015. The colors represent the same source data as in fig. 1.

I’ve shown here that for the global bulk atmosphere, the models overwarm the atmosphere by a factor of about 2.5. As a further note, if one focuses on the tropics, the models show an even stronger greenhouse warming in this layer. However, a similar calculation with observations as shown in Fig. 3 indicates the models over-warm the tropical atmosphere by a factor of approximately 3, (Models +0.265, Satellites +0.095, Balloons +0.073 °C/decade) again indicating the current theory is at odds with the facts. (again, see section 2.)

It is a bold strategy in my view to actively promote the output of theoretical climate models while attacking the multiple lines of evidence from observations. Note that none of the observational datasets are perfect and continued scrutiny is healthy, but when multiple, independent groups generate the datasets and then when the results for two completely independent systems (balloons and satellites) agree closely with each other and disagree with the model output, one is left scratching one’s head at the decision to launch an offensive against the data. This doesn’t make scientific sense to me.

(1.2) Surface temperature issues

There are several issues regarding surface temperature datasets that are too involved to discuss in this material. I shall focus on a few points with which I am familiar and on which I have published.

(1.2.a) Surface temperature as a metric for detecting the influence of the increasing concentrations of greenhouse gases

One of my many climate interests is the way surface temperatures are measured and how surface temperatures, especially over land, are affected by their surroundings. In several papers (Christy et al. 2006 J. Climate, Christy et al. 2009 J. Climate, Christy 2013 J. Appl. Meteor. Clim., Christy et al. 2016 J. Appl. Meteor. Clim.) I closely examined individual stations in different regions and have come to the conclusion that the magnitude of the relatively small signal we seek in human-induced climate change is easily convoluted by the growth of infrastructure around the thermometer stations and the variety of changes these stations undergo through time, as well as the variability of the natural ups and downs of climate. It is difficult to adjust for these contaminating factors to extract a pure dataset for greenhouse detection because often the non-climatic influence comes along very gradually just as is expected of the response to the enhanced greenhouse effect.

In examining ocean temperatures (Christy et al. 2001, Geophys. Res. Lett.) I discovered that the trends of the water temperature (1m depth) do not track well with those of the air temperature just above the water (3m), even if both are measured on the same buoy over 20 years. This is important for the discussion below where NOAA used marine air temperatures to adjust water temperature measurements from ships.

There are many other factors that render surface temperature datasets to be of low effectiveness for the detection of enhanced greenhouse warming, (a) lack of systematic geographical coverage in time, (b) unsystematic measuring methods and instrumentationin time and space, (c) the point measurement represents at best a tiny, local area and (d) is easily impacted by slight changes in the surroundings, which can occur for example when a station moves. There have been huge efforts to try and adjust the raw surface data to give a time series that would represent that of a pristine environment, and I have led or been a part in some of these (e.g. for Central California in Christy et al. 2006 and East Africa in Christy et al. 2009 and Christy 2013).

Thus, having experience in building surface, satellite and balloon temperature datasets, and taking into account the signal we are looking for to detect the enhanced greenhouse effect, the evidence suggests to me that utilizing the bulk atmospheric measurements provides the best opportunity to answer questions about the climate’s response to this human-induced change in atmospheric composition. The deep atmosphere is much more coherent in space and time in terms of its variations. It is not affected by human development at the surface. It is measured systematically. To be sure, satellite and balloon temperatures require their own adjustments and cannot be considered “perfect”, but do offer an independence from one another to allow direct comparison studies. Regarding the detection of the enhanced greenhouse effect, the troposphere, as indicated by models, happens to be the atmospheric region that will respond the most, i.e. warm the fastest, and thus, in my view, is a metric that provides a better way to detect human influence on the climate.

(1.2.b) The new NOAA surface temperature dataset

A series of papers appeared last year (including Huang et al. 2015 J. Climate, Karl et al. 2015 Science) describing a new surface temperature dataset constructed by NOAA which indicated a bit more warming in the past 10 to 25 years than the previous versions. The key change dealt with seawater temperatures in the dataset now known as ERSSTv4. This change introduced an additional warming into the record from about 1990 onward. The main reason for this new warming, as the authors note, was the adjustment applied to buoy data, adding about +0.12 °C to the buoy readings. In 1980, only about 10 percent of the data reports were from buoys, but by 2000 about 90 percent were buoy data. Thus, because the influence of the buoy data grew significantly through time, the simple addition of a bias to all the buoys from the beginning created a warmer trend as they became the dominate source of information.

Some background is necessary. Unlike satellite and balloon datasets which measure a systematic quantity (essentially atmospheric air temperature), surface temperature datasets are a mixture of air (over land) and water (over ocean) temperatures measured over a considerable range of instruments, exposures and methods. Over land, weather stations measure the temperature of the air in varying types of instrument shelters and by varying techniques at a level about 5 ft above the ground. Over the ocean, however, the temperature utilized is that of the water itself, not the air above, so traditional global surface datasets do not measure a homogenous physical parameter over land versus ocean. Further, the depth of the water temperature measurement is quite varied from 2 ft to 50 ft or so, by methods that range from buckets drawn up on deck into which a thermometer is inserted to engine-intake temperatures much deeper in the water and to buoys, drifting or moored to the bottom. So the fact temperature varies by depth is an issue to tackle before the possibility of constructing a systematic dataset may be attempted. Then too, the measurements are not spatially or temporally consistent with large regions, such as Africa and the southern oceans, unmeasured.

Keep in mind that even though the trend of this NOAA dataset became more positive in the past 10 to 20 years, it is still below climate model projections over the longer term. For longer periods, such as the period since 1979 when satellites began measuring bulk atmospheric temperatures, the new global dataset is similar to that of the Hadley Centre (1979-2015: NOAA +0.155 °C/decade, Hadley Centre UKMet, +0.165 °C/decade). However, there are questions that remain concerning the new NOAA seawater dataset, especially how it indicates more warming in the last 20 years than others. Figure 4 displays the ocean trends for the region 20S to 60N (i.e. tropical and northern hemisphere oceans – there was too little data south of 20S for generating near-surface air temperatures there). There are 4 datasets represented, NOAA (NOAA, red), Hadley Centre (HadCRUT4, orange), a preliminary near-surface air temperature over the oceans by my graduate student Rob Junod (yellow) and the UAH deep layer air temperature from satellites (blue). Both NOAA and HadCRUT4 are temperatures of the seawater near the surface, so should be the same.

NOAA used a curious reference variable to calibrate the water temperatures measured from ship intakes – the Night Marine Air Temperature (NMAT). This is curious because there are considerable adjustments required for the NMATs themselves, i.e. corrections for height of ship deck, etc. In any case, from this, the buoy data were then adjusted to match the ship data. It appears, then, that the foundational adjustment process depends on NMATs to adjust the ship data to then adjust the buoy data. The final product from NOAA mixes all of these together, and because the geographic representation of the different systems changed dramatically (as noted, from approximately 10% buoys and 90% ships in 1980 to 90% buoys and 10% ships today – Huang et al. 2015), an adjustment applied to the buoys will automatically influence the trend.

I’m aware that the Committee sought information about this curious process and asked NOAA to generate datasets based only on consistent measuring systems, i.e. ships alone, buoys alone and NMATs alone, to see if one system might have impacted the trends improperly due to distribution changes. NOAA was unable to accommodate this request. At the same time I asked my graduate student, Rob Junod, to do the work for NMAT. What is presented here is preliminary, but follows much of the previous work on NMATs (developed at the National Oceanographic Centre and the Hadley Centre in the UK) with that added advantage of being updated to 2014. The best geographical data coverage was found to be 20°S to 60°N, so this area was also applied to the other datasets for an apples to apples comparison. The results are shown in Fig. 4 in which all trends end in 2014 but cover periods in two-year increments from 20 years to 10 years.

Figure 4. Decadal trends (°C/decade) of four temperature datasets over the oceans from 20°S to 60°N for varying periods ending in 2014. Red and orange are surface seawater temperature datasets from NOAA and the Hadley Centre (HadCRUT4). Yellow is a near-surface air temperature dataset (Night Marine Air Temperature) built by UAH (preliminary). Blue is the temperature trend of the deep atmosphere (surface to 35,000 ft or Lower Troposphere) from microwave emissions captured by satellites (also UAHv6.0b5.)

A number of observations are evident in Fig. 4. (1) In terms of the temperature trend, the air temperatures are less than those of the water (as indicated in my 2001 study mentioned above.) (2) NOAA warms the fastest in all periods. (3) In the past 10-14years, the trends of the HadCRUT4 agree better with the near-surface air temperature dataset (being near zero and supporting the notion of a hiatus) than with the trends from its physically-identical quantity from NOAA. (4) The magnitude of the NMAT trends lies between the trends of the deep atmospheric and sea water.

This figure generates a number of data quality questions too. (1) If NMATs were used to calibrate the ship temperatures and then the ships were used to calibrate the buoy temperatures, why does the NOAA dataset differ so much from its basic reference point – NMATs? (2) What do the time series look like and what are the sub-period trends for seawater under the condition that only ships and/or only buoys are used to build the dataset for the past 20-25 years? (3) What does the time series of NOAA’s NMAT (i.e. their reference) dataset show?

The real science questions here are those which have significant importance to the understanding of how extra greenhouse gases might affect the climate as shown in the following section.

(2) How well do we understand climate change?

A critical scientific goal in our era is to determine whether emissions from human activities impact the climate and if so by how much. This is made especially difficult because we know the climate system already is subject to significant changes without the influence of humans. Because there is no measuring device that explicitly determines the cause of the climate changes we can measure, such as temperature, our science must take a different approach to seek understanding as to what causes the changes, i.e. how much is natural and how much is human induced. The basic approach today utilizes climate models. (The projections of these models are being utilized for carbon policies as well.)

It is important to understand that output from these models, (i.e. projections of the future climate and the specific link that increasing CO2 might have on the climate) are properly defined as scientific hypotheses or claims – model output cannot be considered as providing proof of the links between climate variations and greenhouse gases. These models are complex computer programs which attempt to describe through mathematical equations as many factors that affect the climate as is possible and thus estimate how the climate might change in the future. The model, it is hoped, will provide accurate responses of the climate variables, like temperature, when extra greenhouse gases are included in the model. However, the equations for nearly all of the important climate processes are not exact, representing the best approximations modelers can devise and that computers can handle at this point.

A fundamental aspect of the scientific method is that if we say we understand a system (such as the climate system) then we should be able to predict its behavior. If we are unable to make accurate predictions, then at least some of the factors in the system are not well defined or perhaps even missing. [Note, however, that merely replicating the behavior of the system (i.e. reproducing “what” the climate does) does not guarantee that the fundamental physics are well-known. In other words, it is possible to obtain the right answer for the wrong reasons, i.e. getting the “what” of climate right but missing the “why”.]

Do we understand how greenhouse gases affect the climate, i.e. the link between emissions and climate effects? As noted above, a very basic metric for climate studies is the temperature of the bulk atmospheric layer known as the troposphere, roughly from the surface to 50,000 ft altitude. This is the layer that, according to models, should warm significantly as CO2 increases – even faster than the surface. Unlike the surface temperature, this bulk temperature informs us about the crux of the global warming question – how much heat is accumulating in the global atmosphere? And, this CO2- caused warming should be easily detectible by now, according to models. This provides a good test of how well we understand the climate system because since 1979 we have had two independent means of monitoring this layer – satellites from above and balloons with thermometers released from the surface.

I was able to access 102 CMIP-5 rcp4.5 (representative concentration pathways) climate model simulations of the atmospheric temperatures for the tropospheric layer and generate bulk temperatures from the models for an apples-to-apples comparison with the observations from satellites and balloons. These models were developed in institutions throughout the world and used in the IPCC AR5 Scientific Assessment (2013).

Above: Global average mid-tropospheric temperature variations (5-year averages) for 32 models (lines) representing 102 individual simulations. Circles (balloons) and squares (satellites) depict the observations. The Russian model (INM-CM4) was the only model close to the observations.

The information in this figure provides clear evidence that the models have a strong tendency to over-warm the atmosphere relative to actual observations. On average the models warm the global atmosphere at a rate 2.5 times that of the real world. This is not a short-term, specially-selected episode, but represents the past 37 years, over a third of a century. This is also the period with the highest concentration of greenhouse gases and thus the period in which the response should be of largest magnitude.

Following the scientific method of testing claims against data, we would conclude that the models do not accurately represent at least some of the important processes that impact the climate because they were unable to “predict” what has already occurred. In other words, these models failed at the simple test of telling us “what” has already happened, and thus would not be in a position to give us a confident answer to “what” may happen in the future and “why.” As such, they would be of highly questionable value in determining policy that should depend on a very confident understanding of how the climate system works.

There is a related climate metric that also utilizes atmospheric temperature which in models has an even larger response than that of the global average shown above. This metric, then, provides a stronger test for understanding how well models perform regarding greenhouse gases specifically. In the models, the tropical atmosphere warms significantly in response to the added greenhouse gases – more so than that of the global average atmospheric temperature.

Above: Tropical average mid-tropospheric temperature variations (5-year averages) for 32 models (lines) representing 102 individual simulations. Circles (balloons) and squares (satellites) depict the observations.

In the tropical comparison here, the disparity between models and observations is even greater, with models on average warming this atmospheric region by a factor of three times greater than in reality. Such a result re-enforces the implication above that the models have much improvement to undergo before we may have confidence they will provide information about what the climate may do in the future or even why the climate varies as it does. For the issue at hand, estimates of how the global temperature might be affected by emission reductions from regulations would be exaggerated and not reliable.

(3) Climate Impact of Regulations (i.e. Paris) Will Not Be Attributable or Detectable

No one knows the climate impact of the proposed carbon emission reductions agreed to in Paris. The main reason for this is that there is considerable latitude for countries to do as little or as much as they desire. Examining the history of global carbon emissions, it is clear that countries, especially developing countries, will continue to seek to expand energy use through carbon combustion because of their affordability in providing considerable positive benefits to their citizens.

In any case, impact on global temperature for current and proposed reductions in greenhouse gases will be tiny at best. To demonstrate this, let us assume, for example, that the total emissions from the United States were reduced to zero, as of last May 13th, 2015 (the date of a hearing at which I testified). In other words as of that day and going forward, there would be no industry, no cars, no utilities, no people – i.e. the United States would cease to exist as of that day. Regulations, of course, will only reduce emissions a small amount, but to make the point of how minuscule the regulatory impact will be, we shall simply go way beyond reality and cause the United States to vanish. With this we shall attempt to answer the question of climate change impact due to emissions reductions.

Using the U.N. IPCC impact tool known as Model for the Assessment of Greenhouse-gas Induced Climate Change or MAGICC, graduate student Rob Junod and I reduced the projected growth in total global emissions by U.S. emission contribution starting on this date and continuing on. We also used the value of the equilibrium climate sensitivity as determined from empirical techniques of 1.8 °C. After 50 years, the impact as determined by these model calculations would be only 0.05 to 0.08 °C – an amount less than that which the global temperature fluctuates from month to month. [These calculations used emission scenarios A1B-AIM and AIF-MI with U.S. emissions comprising 14 percent to 17 percent of the 2015 global emissions. There is evidence that the climate sensitivity is less than 1.8 °C, which would further lower these projections.]

As noted, the impact on global emission and global climate of the recent agreements in Paris regarding global emissions is not exactly quantifiable. Knowing how each country will behave regarding their emissions is essentially impossible to predict besides the added issue of not knowing how energy systems themselves will evolve over time.

Because halting the emissions of our entire country would have such a tiny calculated impact on global climate, it is obvious that fractional reductions in emissions through regulation would produce imperceptible results. In other words, there would be no evidence in the future to demonstrate that a particular climate impact was induced by the proposed and enacted regulations. Thus, the regulations will have no meaningful or useful consequence on the physical climate system – even if one believes climate models are useful tools for prediction.

Summary

Climate change is a wide-ranging topic with many difficulties. Our basic knowledge about what the climate is doing (i.e. measurements) is plagued by uncertainties. In my testimony today I have given evidence that the bulk atmospheric temperature is measured well-enough to demonstrate that our understanding of how greenhouse gases affect the climate is significantly inadequate to explain the climate since 1979. In particular, the actual change of the fundamental metric of the greenhouse warming signature – the bulk atmospheric temperature where models indicate the most direct evidence for greenhouse warming should lie – is significantly misrepresented by the models. Though no dataset is perfect, the way in which surface datasets have been constructed leaves many unanswered questions, especially for the recent NOAA update which shows more warming than the others. Finally, regulations already enforced or being proposed, such as those from the Paris Agreement, will have virtually no impact on whatever the climate is going to do.

Appendix A

This appendix is an extract from my written testimony presented at the following Hearing:

U.S. Senate Committee on Commerce, Science, & Transportation

Subcommittee on Space, Science and Competitiveness

8 Dec 2015

Testimony of John R. Christy

University of Alabama in Huntsville.

Alleged impacts of human-induced climate changes regarding extreme events

Much of the alarm related to increasing greenhouse gas concentrations shifted in the past decade from global temperature changes to changes in extreme events, i.e. those events which typically have a negative impact on the economy. These events may be heat waves, floods, hurricanes, etc.

In terms of heat waves, below is the number of 100°F days observed in the U.S. from a controlled set of weather stations. It is not only clear that hot days have not increased, but it is interesting that in the most recent years there has been a relative dearth of them.

Above: Average number of days per-station in each year reaching or exceeding 100°F in 982 stations of the USHCN database (NOAA/NCEI, prepared by JRChristy).

Forest and wild fires are documented for the US. The evidence below indicates there has not been any change in frequency of wildfires. Acreage (not shown) shows little change as well.

Above: Number of U.S. wildfires. As the management of these events changes, and thus the number also changes, but the number of events since 1985 has remained constant. (National Interagency Fire Center https://www.nifc.gov/fireInfo/nfn.htm)

Above: Number of U.S. forest fires per year since 1965.

The two figures above demonstrate that fire events have not increased in frequency in the United States during the past several decades.

The claims that droughts and floods are increasing may be examined by the observational record as well.

Above: Global areal extent of five levels of drought for 1982-2012 where dryness is indicated in percentile rankings with D0 < 30, D1 < 20, D2 < 10, D3 < 5 and D4 < 2 percentile of average moisture availability. (Hao et al. 2014)

Above: Areal fraction of conterminous U.S. under very wet (blue) or very dry (red) conditions. NOAA/NCEI.

The two figures above demonstrate that moisture conditions have not shown a tendency to have decreased (more drought) or increased (more large-scale wetness). Such information is rarely consulted when it is more convenient simply to make unsubstantiated claims that moisture extremes, i.e. droughts and floods (which have always occurred), are somehow becoming even more extreme. Over shorter periods and in certain locations, there is evidence that the heaviest precipitation events are tending to be greater. This is not a universal phenomenon and it has not been established that such changes may be due to changes in greenhouse gas concentrations as demonstrated earlier because the model projections are unable to reproduce the simplest of metrics.

Above: World grain production 1961-2012. U.N. Food and Agriculture Organization.

It is a simple matter to find documentation of the ever-rising production of grains. One wonders about the Federal Council on Environmental Quality’s allegation that there has been “harm to agriculture” from human-induced climate change because when viewing the total growth in production, which appears to be accelerating, one would assume no “harm” has been done during a period of rising greenhouse gases.

With the evidence in these examples above, it is obviously difficult to establish the claims about worsening conditions due to human-caused climate change, or more generally that any change could be directly linked to increasing CO2. This point also relates to the issue of climate model capability noted earlier. It is clear that climate models fall short on some very basic issues of climate variability, being unable to reproduce “what” has happened regarding global temperature, and therefore not knowing “why” any of it happened. It is therefore premature to claim that one knows the causes for changes in various exotic measures of weather, such as rainfall intensity over short periods, which are not even explicitly generated in climate model output.

The Disappointing Scientific Process

I have written much for previous congressional hearings and other venues about the failure of the scientific community to objectively approach the study of climate and climate change. (See Appendix) Climate science is a murky science with large uncertainties on many critical components such as cloud distributions and surface heat exchanges. As mentioned above, there is no objective instrumentation that can tell us “why” changes occur. That being the case, we are left with hypotheses (claims) to put forward and then to test. The information given above, in my view, is clear evidence that the current theoretical understanding of “why” the climate changes, as embodied in models (and on which current policy is based), fails such tests. Indeed, the theoretical (model) view as expressed in the IPCC AR5 in every case overestimated the bulk tropical atmospheric temperature response of extra greenhouse gases (see above and IPCC Supplementary Material Figure 10.SM.1) indicating the theoretical understanding of the climate response is too sensitive to greenhouse gases.

One problem with our science relates to the funding process for climate studies, the vast majority of which is provided through federal agencies. Funding decisions are decided by people, and people have biases. Our science has also seen the move toward “consensus” science where “agreement” between people and groups is elevated above determined, objective investigation. The sad progression of events here has even led to congressional investigations designed to silence (with some success) those whose voices, including my own, have challenged the politically-correct views on climate (i.e. congressional investigation by Rep. Grijalva, 22 Feb 2015, http://www.scribd.com/doc/256811029/Letter-to-UAH-re-John-Christy.)

Today, funding decisions are made by review panels. In this process, many proposals for funding are submitted to the agencies, but the agencies only have a fraction of the funds available to support the proposals, so only a few proposals can be funded and these are selected by panels. In the area of climate, it is clear the agencies are convinced of the consensus view of dangerous climate change as indicated by their various statements and press releases on the issue. Therefore, when a contrarian proposal is submitted that seeks to discover other possible explanations besides greenhouse gases for the small changes we now see, or one that seeks to rigorously and objectively investigate climate model output, there is virtually no chance for funding. This occurs because the panel determines by majority vote whom to fund, and with tight competition, any bias by just a couple of panel members against a contrarian proposal is sufficient for rejection. Of course, the agencies will claim all is done in complete objectivity, but that would be precisely the expected response of someone already within the “consensus” and whose agency has stated its position on climate change. This brings me to “consensus science.”

The term “consensus science” will often be appealed to regarding arguments about climate change to bolster an assertion. This is a form of “argument from authority.” Consensus, however, is a political notion, not a scientific notion. As I testified to the Inter-Academy Council in June 2010, wrote in Nature that same year (Christy 2010), and documented in my written testimony for several congressional hearings (e.g., House Space, Science and Technology, 31 Mar 2011) the IPCC and other similar Assessments do not represent for me a consensus of much more than the consensus of those selected to agree with a particular consensus.

The content of these climate reports is actually under the control of a relatively small number of individuals – I often refer to them as the “climate establishment” – who through the years, in my opinion, came to act as gatekeepers of scientific opinion and information, rather than brokers. The voices of those of us who object to various statements and emphases in these assessments are by-in-large dismissed rather than accommodated. This establishment includes the same individuals who become the “experts” called on to promote IPCC claims in government reports such as the endangerment finding by the Environmental Protection Agency.

As outlined in my previous testimonies, these “experts” become the authors and evaluators of their own research relative to research which challenges their work. This becomes an obvious conflict of interest. But with the luxury of having the “last word” as “expert” authors of the reports, alternative views vanish. This is not a process that provides the best information to the peoples’ representatives. The U.S. Congress must have the full range of views on issues such as climate change which are (a) characterized by considerable ambiguity (see model results) (b) used to promote regulatory actions which will be economically detrimental to the American people and, most ironically, (c) will have no impact on whatever the climate will do.

I’ve often stated that climate science is a “murky” science. We do not have laboratory methods of testing our hypotheses as many other sciences do. As a result what passes for science includes, opinion, arguments-from-authority, dramatic press releases, and fuzzy notions of consensus generated by preselected groups. This is not science.

We know from Climategate emails and many other sources that the IPCC has had problems with those who take different positions on climate change than what the IPCC promotes. There is another way to deal with this however. Since the IPCC activity and climate research in general is funded by U.S. taxpayers, then I propose that five to ten percent of the funds be allocated to a group of well-credentialed scientists to produce an assessment that expresses legitimate, alternative hypotheses that have been (in their view) marginalized, misrepresented or ignored in previous IPCC reports (and thus the EPA Endangerment Finding and National Climate Assessments).

Such activities are often called “Red Team” reports and are widely used in government and industry. Decisions regarding funding for “Red Teams” should not be placed in the hands of the current “establishment” but in panels populated by credentialed scientists who have experience in examining these issues. Some efforts along this line have arisen from the private sector (i.e. The Non-governmental International Panel on Climate Change at http://nipccreport.org/ and Michaels (2012) ADDENDUM:Global Climate Change Impacts in the United States). I believe policymakers, with the public’s purse, should actively support the assembling all of the information that is vital to addressing this murky and wicked science, since the public will ultimately pay the cost of any legislation alleged to deal with climate.

Topics to be addressed in this “Red Team” assessment, for example, would include (a) evidence for a low climate sensitivity to increasing greenhouse gases, (b) the role and importance of natural, unforced variability, (c) a rigorous and independent evaluation of climate model output, (d) a thorough discussion of uncertainty, (e) a focus on metrics that most directly relate to the rate of accumulation of heat in the climate system, (f) analysis of the many consequences, including benefits, that result from CO2 increases, and (g) the importance that affordable and accessible energy has to human health and welfare.

What this proposal seeks is to provide to the Congress and other policymakers a parallel, scientifically-based assessment regarding the state of climate science which addresses issues which here-to-for have been un- or under-represented by previous tax-payer funded, government-directed climate reports. In other words, our policymakers need to see the entire range of findings regarding climate change.

Summary of Extract

The messages of the two points outlined in the extract above are: (1) the claims about increases in frequency and intensity of extreme events are generally not supported by actual observations and, (2) official information about climate science is largely controlled by agencies through (a) funding choices for research and (b) by the carefully-selected (i.e. biased) authorship of reports such as the EPA Endangerment Finding and the National Climate Assessment.

Forum Economique de Merde – par Quoth the Raven.

Un amusant petit résumé de la dernière édition du FEM. Amusant mais hélas parfaitement réaliste: ces gens sont évidemment là pour défendre leurs investisseurs et leurs propres comptes en banque – juste à titre d’exemple, la fortune d’Al Gore est passée en vingt ans de 1,2 millions à 300 millions de dollars – mais on a aussi l’impression, à les écouter et à voir leur tronche, qu’ils sont devenus complètement fous.

Et ce sont ces gens qui ont pénétré les cabinets – pour imposer par leur doctrine communiste leur idée d’un partenariat public/privé – qui est comme vous le savez la définition du fascisme. Le meilleur de deux mondes…

Je pense effectivement, comme le président colombien, que nous avons atteint un point de non-retour. Pas celui du « climat », celui du mensonge. Malgré la masse d’ignorants qui n’a toujours rien compris, l’Opération Covid commence à montrer ses limites. Les cadavres deviennent difficiles à cacher par la propagande. « Ils » ont pris un très gros risque, que leur rêve humide de censure aura du mal à mitiger. Leur nouveau mensonge « d’extinction massive » colle d’un peu trop près à leur programme. Entre pandémies, climat, famine et guerre, on commence aussi à voir ces mensonges pour ce qu’ils sont: des menaces de moins en moins voilées. Si, comme ils semblent le penser, la Terre n’est pas assez grande pour eux et pour nous, la question qu’ils se posent à notre sujet pourrait donc bientôt se retourner: qu’est-ce que nous allons bien pouvoir faire de ces (gros) mangeurs inutiles?

Source.


Forum Economique de Merde

Rien d’autre qu’un gouvernement mondialiste non élu qui émerge lentement des coulisses, impatient de faire main basse sur vos droits et de vous dire comment vivre. Vraiment… rien à voir ici.

Quoth the Raven

19 janvier

Parmi les nombreux trucs minables, vaseux et ignobles qui me donnent de plus en plus la nausée à mesure que les jours s’écoulent dans le sablier de ma vie, il y a le Forum Economique Mondial: un collectif d’élites mondiales bien-pensantes qui dispensent des vertus, des valeurs, des leçons, des conférences et des initiatives politiques à nous autres, les petites gens qui vivons de par le monde.

Le « Forum » commence de plus en plus à ressembler à un gouvernement mondialiste, composé de turbo-frappadingues non élus au niveau mondial, qui se sont discrètement regroupés en coulisses sans que personne ne le remarque.

Un moment, vous n’avez jamais entendu parler d’eux – saviez-vous que le FEM existe depuis environ cinq décennies? – l’instant d’après, le « Forum » exerce une influence incroyable, principalement auprès d’idiots bureaucratiques « utiles » de la gauche, trop heureux de recevoir, de la part de quiconque voudra bien les aider et quelle que soit sa motivation, des conseils sur la méthode à suivre pour napalmiser les droits individuels et faire avancer leurs programmes.

Le fondateur du FEM, Klaus Schwab, donnant ou recevant un « Global Citizen Award » à la con, dont aucune personne normale n’a jamais entendu parler et se fiche éperdument.

C’est exact: l’époque est révolue où je plaisantais sur le Grand Reset, sur le fait de ne rien posséder et d’aimer ça et sur le fait de passer à un régime de vers de farine et de grillons.

J’ai dépassé ce stade – j’en suis arrivé à éprouver un réel dégoût de voir des gens qui ne me représentent en aucune façon, ni moi ni les personnes de mon entourage, jacasser sur ce à quoi ressemblera ou ne ressemblera pas mon avenir et quelles choses que je défends sont « bonnes » ou « mauvaises ».

C’est dans la déclaration de mission du FEM:

Le Forum Economique Mondial est une organisation internationale indépendante qui s’engage à améliorer l’état du monde en engageant les entreprises, les politiques, les universitaires et les autres leaders de la société à façonner des programmes mondiaux, régionaux et industriels.

La vérité est que, autant ces invités narcissiques et probablement psychotiques aimeraient parler au nom de millions, voire de milliards de personnes, ils ne parlent en fait que pour eux.

Je n’attends pas de ces personnes qu’elles comprennent les conséquences de politiques à taille unique et je ne pense pas qu’elles s’en soucient. Prenons l’exemple des vaccins Covid. L’idée d’injecter chaque personne sur Terre, indépendamment de son âge, de son état de santé et de son mode de vie (sans même se poser la question de son consentement) n’est-elle pas d’une folle imprudence?

Bien sûr que si. Mais ça n’a pas d’importance – parce que quelqu’un voulait que ce soit fait… et donc, ce fut fait.

Source: NY Times

Dingue, non? Cette mise en œuvre unilatérale des obligations pendant le Covid, sans égard à la volonté de l’individu pour lui-même et pour sa famille, fut pour les crétins qui se réunissent chaque année au Forum Economique Mondial un pur régal autoritaire. Je suis certain que ça a amené de nombreux participants à penser: nous l’avons fait avec les vaccins – nous les avons empêchés de voyager, nous avons mis leur emploi et leurs moyens de subsistance en jeu et nous les avons même arrêtés et emprisonnés – nous pouvons désormais le faire avec n’importe quoi d’autre.

Je n’ai pas besoin d’être à Davos cette semaine pour comprendre que j’ai peu de choses en commun avec les membres du Forum Economique Mondial. Je le sais parce que j’étais récemment à Washington DC lors de la dernière branlette collective réunion mondiale du Fonds Monétaire International.

Ceux qui pensent que ces réunions rassemblent des personnes qui vivent comme eux et les représentent se trompent lourdement: je n’ai jamais vu autant de Rolex, de Bentley, de tenues à cent mille dollars et, surtout, de sécurité armée, que dans un rayon de dix pâtés de maisons autour du FMI cette semaine-là.

C’était un festival d' »ambassadeurs » mondiaux qui ressemblaient collectivement à un amalgame de tous les méchants corrompus qu’on peut voir dans les films de James Bond.

Gardant cela à l’esprit, jetons un coup d’œil aux idées remarquables que le Forum… a proposées cette année pour « façonner les programmes mondiaux, régionaux et industriels ».

Tout le monde sait que la peur est le meilleur moyen d’amener les gens à écouter et à faire ce qu’on leur dit (voir: vaccinations, Covid, Fauci et. al pgs. 1-∞). Ceci étant dit, le Forum s’est ouvert par un joyeux babil, avec notamment la proclamation que « nous sommes maintenant confrontés… à une extinction massive » et que « l’avenir de l’humanité est en danger. »

Putain de merde – pourquoi ne pas l’avoir dit plus tôt? Je ferais bien d’écouter les recommandations du FEM sur la manière de régler ce problème, parce que « extinction massive » ne figure nulle part dans mon agenda de 2023… et j’ai un rendez-vous à ne pas manquer chez le dentiste dans plusieurs semaines.

Un type qui a clairement bien lu le mémorandum sur la « peur » – et qui, à en juger par son emportement, avait en plus des aiguillons à bétail réglés à fond plantés dans le cul – c’est Al Gore.

L’homme qui avait prédit, à tort, que l’Arctique serait aujourd’hui complètement dépourvu de glace a profité du FEM pour faire sa meilleure imitation de Keith Olbermann [NdT. ex-présentateur démocrate des news – le lien renvoie vers une tirade grotesque et insultante envers les anti-vaxx] en hurlant à pleins poumons sans reprendre son souffle sur diverses questions sociales, telles que le changement climatique.

Al nous a également rappelé poliment que nous n’obéissons pas assez vite à son goût:

« Nous devons agir! Donc, pour répondre à votre question, je dirais qu’il nous faut éprouver un sentiment d’urgence beaucoup plus fort que celui que nous avons eu jusqu’à présent… et que nous devons avoir… et que nous devons faire des changements! »

Voici Al Gore qui parlait hier au FEM de Davos de la prochaine vague de « un milliard de réfugiés climatiques » qui causeront aux nations occidentales la « perte de leur capacité à s’auto-gouverner ». Il en parle comme d’un problème, comme si ce n’était pas exactement ce qu’attendent les mondialistes dans son genre.

« Nous continuons à y injecter 162 millions de tonnes [de gaz à effet de serre] chaque jour et la quantité accumulée piège maintenant autant de chaleur supplémentaire que celle qui serait libérée par 600 000 bombes atomiques de classe Hiroshima explosant chaque jour sur la Terre », a-t-il poursuivi. « C’est ce qui fait bouillir les océans, [NdT. il faudra donc annuler vos vacances à la mer] crée ces rivières atmosphériques, et les bombes de pluie, et aspire l’humidité de la terre, et crée les sécheresses, et fait fondre la glace et augmente le niveau de la mer, et cause ces vagues de réfugiés climatiques! »

Putain de merde… des bombes de pluie?! Pourquoi tu ne l’as pas dit plus tôt? Je ferais bien d’écouter les recommandations du FEM sur la manière exacte de résoudre cet autre problème.

Pendant ce temps, assis à côté d’Al, juste bien placé pour recevoir ses postillons pendant qu’il hurlait, se trouvait le président colombien Gustavo Francisco Petro Urrego. [NdT. pour l’anecdote, ils sont dans une merde noire en Colombie]

Gusto a creusé profondément la toile complexe de son esprit pour y trouver la suggestion, digne d’un jeu d’échecs 4D, que le capitalisme tel qu’il existe aujourd’hui condamnera irrévocablement l’humanité parce qu’il a créé le changement climatique.

Merde encore. Mais on est vraiment incapables de faire quoi que ce soit de bien?

Par conséquent, sa solution, toute en nuances, consiste à supprimer complètement le capitalisme et, pouf, le problème du réchauffement climatique disparaît avec lui. Son raisonnement est solide comme le roc:

« [Nous] parlons de politique et de discours politiquement corrects alors que nous savons que les statistiques signifient que nous atteignons un point de non-retour? », a-t-il déclaré. « Le capitalisme que nous connaissons aujourd’hui a une force motrice et une logique, qui est d’augmenter nos profits de cette manière, et c’est ainsi que nous parlons de l’histoire pour tout réglementer sans frontières politiques ou sociales. C’est celle que nous avons. Cela a donné lieu à une sorte d’anarchie mondiale. »

« Nous devons mettre un terme à cela si nous voulons vivre sur notre planète. Notre capitalisme peut-il le faire? D’après les données actuelles, nous ne pourrons pas le faire. Par conséquent, nous devrions peut-être mener la réflexion suivante: si le capitalisme en est incapable, soit l’humanité mourra avec lui, soit l’humanité vaincra le capitalisme pour que nous puissions vivre sur notre planète. »

Le président colombien Urrego au FEM: « Le capitalisme a engendré » le réchauffement climatique et notre situation « d’anarchie mondiale »
« L’humanité doit vaincre le capitalisme pour que nous puissions vivre sur notre planète » [NdT. avec de nombreuses fautes d’anglais, ce type est un analphabète à la Bourla]

Et puis bien sûr, sur la scène latérale […], il y avait un panel intitulé « Le danger manifeste et immédiat de la désinformation », ironiquement dirigé par un journaliste récemment licencié dont l’émission, aussi ironiquement appelée Reliable Sources [Sources fiables], a été, aussi ironiquement, virée de la télévision par câble pour, je suppose, avoir mortellement cumulé le fait d’avoir presque tout faux et celui d’être généralement nul à chier.

Ce journaliste, Brian Stelter, a interviewé la vice-présidente de la Commission Européenne, Věra Jourová, dont je vous garantis que vous n’avez jamais entendu parler avant de lire son nom aujourd’hui. Ce qui ne l’empêche pas de vous dire que votre liberté d’expression devrait non seulement vous être retirée, mais aussi constituer un délit lorsqu’elle est utilisée pour exprimer des opinions impopulaires.

Elle a dit à Stelter, le moniteur de désinformation: « Nous avons besoin des personnes qui comprennent la langue et la jurisprudence dans le pays, car ce qui est qualifié de discours de haine — un discours de haine illégal, que vous aurez bientôt aussi aux États-Unis… Je pense qu’il existe une raison solide pour que cela soit inscrit dans le droit pénal. »

Portez une attention particulière au regard brûlant d’inquiétude réelle sur le visage de Stelter.

Ce n’est pas nouveau, l’année dernière le thème était le même – « recalibrer » ce que vous pouvez et ne pouvez pas dire. Bien sûr, les directives de discours « approuvées » ne seront pas données par Dieu ni par la constitution de votre pays ou de votre État, mais par une douzaine de marxistes, désireux de suivre la ligne de l’initiative mondialiste par tous les moyens possibles. Après tout, ils sont désormais Dieu. Ils sont désormais la constitution.

Dans un prochain podcast avec Chris DeMuth Jr, je soulève l’idée que, quelle que soit leur idéologie ou leur politique, les gens en général en ont assez d’être involontairement assignés à participer à des causes sociales, quelles qu’elles soient.

Ce n’est pas parce que je travaille pour une certaine entreprise, que j’utilise certains produits ou que j’achète dans certains magasins que je m’aligne sur les politiques et les idéologies de ces personnes, de ces lieux et de ces choses – fin de l’histoire. C’est pourquoi je trouve offensant d’entrer dans un Whole Foods et de voir un panneau qui dit des conneries comme « La haine n’a pas sa place ici » accroché au-dessus de l’entrée principale.

Je suis socialement libéral et je veux que les gens vivent leur vie comme ils l’entendent sans empiéter sur les droits des autres. Je n’ai pas besoin d’un panneau dans une épicerie pour me le dire. En fait, c’est dégradant et insultant.

Dans le même ordre d’idées, je suis un citoyen du monde – mais je n’ai pas besoin d’un forum mondial pour parler en mon nom ou pour m’engager involontairement dans une cause idéologique ou de justice sociale qu’ils jugent importante. Ce qui est le mieux pour une personne n’est pas nécessairement le mieux pour une autre, et l’arrogance d’un « groupe d’êtres humains sélectionnés » qui pense pouvoir parler et agir pour tout le monde sous le prétexte fabriqué de « sauver la planète » et de faire ce qui est le mieux pour chacun révèle tout ce qu’il y a à savoir sur ces sociopathes.

Mais ne dites pas ça à John Kerry – il s’est presque consacré lui-même comme divinité extraterrestre. Ici, on croirait entendre un membre officiel de la Sea Org de Ron Hubbard.

John Kerry déclare que « nous, un groupe d’êtres humains sélectionnés » parlent de « sauver la planète » au FEM. « C’est quasiment extra-terrestre », a-t-il ajouté.

Et enfin, vous le savez déjà tous, leur hypocrisie est éblouissante.

Les mêmes personnes qui se plaignent du changement climatique s’y sont rendues en jet privé. Quand ils rentrent chez eux, ils conduisent des véhicules électriques remplis de métaux de batterie extraits par des enfants en Afrique. Ils portent des chaussures, des chemises et des pantalons fabriqués dans des ateliers clandestins. Ils utilisent des iPhones fabriqués par des ouvriers en Chine qui endurent des conditions de travail horribles. Ils utilisent des produits pétroliers tous les jours. Ils se plaignent des inégalités mais soutiennent la suppression des droits individuels, les monnaies numériques traçables, les scores de crédit social et un système bancaire central qui creuse systématiquement le fossé des inégalités.

L’aéroport privé à Davos est plein.
L’élite y parque ses jets privés, puis se rend au FEM en hélicoptère pour y discuter politique climatique.

Oui, les mêmes personnes qui prétendent travailler à l’amélioration de l’existence des Terriens vivent dans des couches sociales dont vous, moi et nos amis ne ferons jamais partie et dont nous ne voudrions jamais faire partie.

Parce que même si nous utilisons les mêmes iPhones et le même pétrole, nous ne nous plantons pas au milieu de la place en clamant à quel point nous sommes vertueux. Nous essayons de faire les choses que nous savons être justes dans nos coeurs, et nous savons que nous faisons du mieux que nous pouvons avec ce que nous avons. C’est un accomplissement suffisant pour beaucoup d’entre nous. Nous n’avons pas besoin de nous auto-consacrer.

En fin de compte, qu’est-ce que cela signifie? Cela signifie que si le Forum Economique Mondial est vraiment à la recherche d’idées nouvelles, novatrices et originales qui aideront les citoyens de la Terre, il devrait peut-être simplement essayer de nous foutre la paix, bordel.

La catastrophe des catastrophes: des milliards de personnes se retrouvent avec une réponse immunitaire défaillante – par Radagast.

Je ne sais pas si on en parle même sur le Web francophone mais il y a une info sur laquelle se sont récemment jetés, comme la misère sur le monde, de nombreux toubibs que je lis/relaie sur ce blog: l’IgG4.

C’est-à-dire le fait que la protéine de pointe de l’injection module la réponse immunitaire pour augmenter la proportion de l’immunoglobuline G4, ce qui est (encore) une mauvaise nouvelle. Vous allez comprendre pourquoi dans un instant.

Typiquement, John Paul écrivait là-dessus il y a plusieurs mois, c’est-à-dire bien avant tout le monde. J’aurais dû relayer l’info à l’époque mais je traduis assez peu ses articles médicaux sachant qu’ils seront, typiquement aussi, assez peu lus. Il faut avouer qu’il est assez pointu sur le sujet, ce qui implique qu’il faut suivre ses analyses au fil de plusieurs articles très denses, sans se faire larguer en route. En voici un plus facilement accessible, d’un auteur néerlandais, pour changer. Je ne vous garantis pas que sa conclusion est scientifiquement exacte – j’ai posé la question à John sans recevoir de réponse – mais le papier a le mérite d’exister et de présenter les données.

Il y a une référence au réchauffement climatique anthropocentrique à la fin, ce qui a le don de m’agacer et devrait vous agacer aussi. Sorry!

Note 27/01: John Paul m’a répondu au sujet du sérieux de cet article (voir ci-dessous). Je publierai ce qu’il a écrit sur le sujet si je trouve le temps.

Bonjour John.

Est-ce que ça tient la route ou est-ce que ce n’est que du sensationnalisme?

Skidmark, Jan 16

Ça ne tient pas tellement la route, ça me semble être beaucoup de sensationnalisme avec des « preuves » tangentiellement liées, d’ailleurs utilisées par la plupart des Alt-Covid pour promouvoir des narratifs spécifiques.

Je suis très méfiant à l’égard de beaucoup de gens maintenant, alors prends les informations que tu vois chez eux et même chez moi, avec précaution, même si j’essaie résolument d’être 100% honnête.

John Paul, Jan 20

Source.


La catastrophe des catastrophes: des milliards de personnes se retrouvent avec une réponse immunitaire défaillante.

Radagast

24 décembre 2022

Faites-moi donc plaisir et servez-vous un verre, vous en aurez besoin à la fin de cet article.

Je vais essayer d’éviter de répéter ce que nous avons déjà abordé dans les deux articles précédents sur ce sujet. Après la vaccination à l’ARNm, la réponse immunitaire contre la protéine de pointe bascule vers les IgG4, ce qui correspond à la façon dont le corps réagit après une exposition répétée à des substances qu’il lui faut tolérer, comme le venin d’abeille, le pollen ou les protéines d’arachide.

Tout d’abord, le tableau général de ce que l’on voudrait observer après une infection par le SARS-COV-2:

À gauche, vous voyez qui effectue la neutralisation, à droite, vous voyez quel pourcentage du total des anticorps ils représentent. Bien qu’ils ne représentent que 3% de votre quantité d’anticorps, les IgG3 effectuent 42,2% de la neutralisation.

L’IgA est occupée à combattre le virus dans le mucus [NdT. particulièrement efficace chez les Japonais, comme le rappelait ici le Dr Fukushima], l’IgM répond à l’infection en réduisant la charge virale, puis l’IgG3 se joint au combat et traque le virus dans ses derniers retranchements, afin que votre organisme ne finisse pas par tolérer ce méchant sarbecovirus en arrière-plan.

Si ce n’était pas encore évident, pour une raison quelconque, notre corps semble tolérer la propagation de ce virus dans notre population. Regardez ce qui arrive à mon pauvre petit pays:

Les niveaux de ce virus dans les eaux usées sont de nouveau à des niveaux records. Il est clair que la population n’apprend pas à reléguer ce virus au second plan.

Le nombre de décès augmente à l’unisson de la charge virale, car la surmortalité n’est pas un produit direct du vaccin [NdT. pas toujours], mais un produit indirect du vaccin qui interfère avec notre réponse à ce virus:

Nous avons eu une grande vague de décès en mars 2020, puis nous avons eu deux hivers meurtriers, donc la surmortalité est maintenant censée être négative. Nous avons déjà « épuisé » les personnes susceptibles de mourir pendant la saison de la grippe. Pourtant, 27% de personnes de plus que prévu sont mortes la semaine dernière. Ce serait censé inquiéter les personnes dont le QI est supérieur à la température ambiante, mais celles-ci se contentent de qualifier ce phénomène d’ « inexpliqué » et tentent de l’ignorer.

Je vous le signale parce que je me suis disputé sur Twitter avec l’un des auteurs de l’étude que nous allons examiner, qui insiste sur le fait que ses résultats, qui correspondent à ceux des autres équipes dont j’ai présenté les résultats dans les deux derniers articles, sont « inattendus », mais « ne sont pas inquiétants ». Honnêtement, je doute un peu qu’il le pense vraiment. Je vais expliquer ici pourquoi les résultats sont inquiétants, alors commençons par examiner leurs résultats et ce qui est réellement nouveau.

Vous connaissez déjà l’histoire: après la deuxième injection, les IgG4 commencent à apparaître. Cela s’aggrave avec les infections perthérapeutiques [breakthrough infections], puis cela s’aggrave encore avec la troisième injection. Nous avons maintenant des résultats actualisés sur les infections perthérapeutiques après la troisième injection. Et ça va vous choquer, mais ça empire encore:

En moyenne, les quatre personnes qui ont contracté une infection après leur booster sont maintenant à 42,45% d’IgG4. L’ensemble de la cohorte est à 19,27%, contre seulement 0,04% auparavant, de sorte que ceux qui n’ont pas encore eu d’infection perthérapeutiques se retrouveront dans une situation similaire: une réponse entièrement dominée par les IgG4.

La seule nouvelle chose utile que ces messieurs dames ont faite est de poser la question évidente: est-ce la norme pour d’autres agents pathogènes auxquels nous sommes couramment exposés? Ils se sont donc penchés sur un autre virus, le virus qui fait souffrir beaucoup d’enfants en ce moment, le VRS. Ils ont vu que nous ne réagissons pas au VRS par une réponse IgG4:

Personne n’a montré cette réponse au VRS et on ne l’observe même pas vraiment après une vaccination constante contre le tétanos.

Une réponse IgG4 à une infection respiratoire n’est tout simplement pas souhaitable. Parmi les IgG, ce sont principalement les IgG3 et quelques IgG1 qui sont souhaitables. L’un des auteurs affirme que le passage aux IgG4 n’a pas d’importance, car les anticorps ne servent pas seulement à déclencher la phagocytose (vos cellules immunitaires qui mangent les particules virales), ils servent aussi à la neutralisation.

Tout ça est bien beau, mais on se heurte à deux problèmes:

  1. Le virus évolue. Il évolue rapidement pour éviter les anticorps les plus neutralisants. Le potentiel de neutralisation contre XBB et BQ.1 a pratiquement disparu.
  2. Les IgG4 ne sont pas vraiment faites pour la neutralisation. Parmi les IgG, l’IgG3 est le meilleur neutralisateur de virus. Ce que font les IgG3 dans le cas du SARS2, c’est que leurs queues se lient ensemble. Cela signifie que sur les quatre sous-classes, l’IgG3 présente une neutralisation 50 fois plus forte contre le SARS2 que les trois autres sous-classes.

Et maintenant, il est temps de boire ce verre, car regardez ce qui arrive aux IgG3 après trois injections:

Il reste quelques IgG3 chez certaines personnes après la deuxième injection, mais au moment où elles reçoivent la troisième injection, elles sont toutes tombées à zéro.

Si vous vous demandez comment on en arrive à ces graphiques bizarres:

Cela a probablement quelque chose à voir avec le fait que nous débarrassons notre corps de l’anticorps IgG le plus compétent contre ce virus, en le remplaçant par un anticorps que nous utilisons pour tolérer des choses comme le pollen, les protéines d’arachide ou le venin d’abeille.

Cela ne s’est jamais produit auparavant. Il y a maintenant les inconnues connues, comme la question de savoir si le corps finit par tolérer des infections persistantes en raison de cette réponse complètement dominée par les IgG4, ainsi que les inconnues inconnues, des questions que nous devrions nous poser et que la plupart des gens n’ont même pas réalisé que nous devions nous poser.

Voici la grande question que je me pose: l’expérience a échoué, on a créé une réponse anticorps à dominante IgG4 chez bientôt des milliards de personnes. La réponse en anticorps IgG4 est homogène, ce sont les mêmes épitopes que tout le monde apprend maintenant à tolérer.

Vous êtes prêts?

Qu’est-ce que cela signifie pour les autres virus?

C’est la grande question qui fait mal. Si vous me disiez que chacun a une réponse immunitaire différente à différentes régions de la protéine de pointe, mais que tout le monde déploie maintenant des anticorps IgG4 contre ces régions, ce serait déjà une mauvaise nouvelle pour notre relation avec le SARS-COV-2.

Mais restez avec moi, je ressors encore une fois ce vieux tableau:

Vous voyez la réponse immunitaire des non vaccinés en A, en bas. Vous voyez qu’elle est assez différente chez tout le monde.

Vous voyez la réponse immunitaire des vaccinés en haut. Vous voyez qu’elle est assez similaire chez tout le monde, avec des régions distinctes qui reçoivent la réponse la plus forte.

Pour certaines de ces régions, le virus est indifférent à notre réponse en anticorps, donc ces régions ont tendance à rester les mêmes. Dans d’autres régions, la réponse des anticorps interfère, et le virus mute pour modifier ces régions. Cela signifie qu’au bout d’un certain temps, la réponse IgG est rappelée pour un sous-ensemble de plus en plus restreint de ces régions, de sorte qu’on obtient une forte réponse IgG4 pour une poignée d’épitopes, MAIS CES EPITOPES SONT LES MÊMES POUR TOUT LE MONDE!

Ce que je tente de dire, c’est qu’il existe désormais certaines chaînes d’acides aminés non-soi [étrangères] que des milliards d’êtres humains dans le monde apprennent soudainement à tolérer. Les virus respiratoires à ARN fonctionnent tous avec des blocs de construction assez similaires.

Certaines de ces chaînes d’acides aminés que nous tolérons maintenant dans le cas du SARS2 sont des chaînes que l’on retrouve également dans d’autres virus respiratoires. Et il y aura des virus respiratoires qui ne possèdent pas encore ces chaînes, mais qui peuvent muter pour les incorporer dans des emplacements où ils doivent actuellement faire face à de puissants anticorps IgG3.

En d’autres termes: une évolution homogène de la population vers les IgG4 pour certains anticorps peut finir par avoir un impact sur notre relation avec les virus respiratoires autres que le SARS2. On pourrait s’attendre, par exemple, à ce que les personnes vaccinées deviennent de meilleurs propagateurs asymptomatiques d’autres virus respiratoires, comme le VRS. Nous constatons l’existence d’anticorps à réaction croisée entre le SARS2 et les virus corona humains. Voulez-vous que ces anticorps passent des IgG3 aux IgG4? Probablement pas.

Il me semble que l’hypothèse plausible qui mérite d’être étudiée est que la recrudescence massive du VRS dans les pays occidentaux serait la conséquence du fait que les adultes vaccinés commencent à tolérer le VRS, ce qui entraîne une augmentation des infections chez les enfants, puisqu’ils y sont exposés plus souvent. Comme les enfants contractent maintenant ces infections auprès d’adultes vaccinés plutôt que d’autres enfants, la dose infectieuse qu’ils reçoivent aura tendance à être plus élevée. Cela pourrait suffire à expliquer la virulence plus élevée observée chez les enfants.

L’atteinte immunitaire des enfants par l’infection par le SARS2 est également une hypothèse qui mérite d’être étudiée, bien sûr, mais une propagation asymptomatique à partir des adultes est également possible.

Il faut garder à l’esprit que le passage complet aux IgG4 ne se produit qu’après des infections perthérapeutiques après le booster. En d’autres termes, les virus non-SARS2 n’ont pas encore eu beaucoup de temps pour évoluer et s’adapter au nouveau monde dans lequel nous vivons, où tout le monde se retrouve avec un étrange sous-ensemble d’anticorps IgG4 pour certains épitopes.

Les anticorps IgG se lient principalement à des régions d’environ 5 à 6 acides aminés, bien que cela varie beaucoup. Si un autre virus, comme le VRS, la grippe ou les virus corona humains, possède une telle région, il risque de s’en trouver très heureux! L’un de ces méchants anticorps IgG3 qui lui rendaient la vie misérable a disparu, remplacé par un anticorps IgG4 qui n’est pas capable de lier sa queue aux autres anticorps IgG4 pour une meilleure neutralisation.

Et s’il ne possède pas encore une telle région, mais qu’il pourrait éventuellement y parvenir après avoir échangé un acide aminé contre un autre, on pourrait se demander, le moment venu, pourquoi on se retrouve soudainement confronté à un gros problème de grippe, de VRS ou d’un autre agent pathogène.

Encore une fois, je suis désolé de ne pas avoir bien compris cela il y a deux ans. Je l’ai compris de manière assez basique. J’ai compris le grand principe important: on ne peut pas homogénéiser la réponse immunitaire de la population à un virus respiratoire, c’est profondément dangereux.

Rappelez-vous ce que j’ai écrit il y a longtemps:

L’un des facteurs nécessaires pour que notre espèce atteigne des densités de population aussi élevées que celles que nous avons atteintes aujourd’hui est la diversité de notre réponse immunitaire d’une personne à l’autre.

Si nous avions des gènes HLA très peu diversifiés, nous aurions tous une réponse immunitaire très similaire aux agents pathogènes. Le manque de diversité dans leurs gènes HLA est l’un des facteurs qui ont rendu les Amérindiens si vulnérables aux virus introduits par les colonisateurs européens: ces virus pouvaient se propager dans un environnement où la réponse immunitaire était homogène, ce qui a permis à ces virus d’évoluer pour tirer le meilleur parti de cet environnement particulier.

Si nous avions des gènes HLA peu diversifiés, les agents pathogènes développeraient des variants permettant de surmonter cette réponse immunitaire particulière. La diversité de notre réponse immunitaire empêche que cela ne se produise: une modification particulière n’est pas d’un grand secours pour un agent pathogène, car chacun réagit à l’agent pathogène d’une manière différente.

Avec les vaccins à base de protéine de pointe, nous avons fait exactement la pire chose que l’on puisse faire: nous avons homogénéisé la réponse immunitaire humaine à un nouveau virus qui devient rapidement plus diversifié génétiquement.

Il s’agit à nouveau du même principe de base que j’ai décrit ci-dessus, mais cette fois-ci, nous nous concentrons sur le passage à la classe IgG4. Je ne m’inquiéterais pas de l’impact sur les autres agents pathogènes si le passage aux IgG4 différait d’une personne à l’autre. Mais tout le monde se retrouve maintenant avec des combinaisons d’acides aminés sélectionnées qui n’existent pas dans notre propre corps (c’est-à-dire des peptides que nous ne tolérerions normalement pas et que nous pourchasserions avec des anticorps s’ils apparaissaient dans notre sang), que tout le monde apprend maintenant à tolérer!

Nous sommes intervenus dans quelque chose que nous ne comprenons pas bien, à l’échelle de milliards de personnes.

Permettez-moi de vous rapporter une anecdote. Il y a longtemps, au 19e siècle, un Suédois du nom d’Arrhenius, parent d’une Suédoise autiste dont vous avez peut-être entendu parler, a réalisé que nous étions en train de modifier l’atmosphère. Les gens ont trouvé cela plutôt bien, car ils supposaient que cela se produirait lentement. Finalement, la plupart des gens ont oublié ce phénomène.

Dans les années 60, nous avons réalisé que nous émettions beaucoup de ce gaz étrange, qui modifiait l’atmosphère. Là encore, les experts ne s’inquiétaient pas. « L’océan s’en chargera probablement », tel était le consensus de personnes très intelligentes, DONT LA SPÉCIALITÉ ÉTAIT D’ÉTUDIER CE TYPE DE CHOSE. Ce n’est que dans les années 1980 que tout le monde a reconnu que nous avions affaire à un véritable problème.

Dans ce contexte, je voudrais que vous jetiez un coup d’œil au scientifique qui a annoncé ses conclusions sur Twitter:

Et portons un toast à tout notre travail qui a permis de découvrir quelque chose qui pourrait signifier que des milliards de personnes sont condamnées.

Si nous pensions que des milliards de personnes sont condamnées, noux n’aurions pas fait la fête. C’est une découverte intéressante mais pas de quoi s’inquiéter.

Je suis un anonyme hollandais qui a abandonné ses études avec une prédilection pour d’obscurs produits psychédéliques, il est virologue avec un doctorat. Je comprendrais parfaitement que vous souhaitiez le croire plutôt que moi, c’est la réponse que la plupart des gens semblent avoir.

Mais ce que je vois, c’est un scientifique qui dit « Eh, l’océan s’en chargera ».

C’est un virologue et les choses ne vont pas bien dans le domaine des virus. Trop de gens meurent. Nous avons un sarbecovirus qui persiste. Les hôpitaux du monde occidental ne peuvent plus faire face à la charge des malades.

Et le plus important de tout: les enfants tombent malades.

Peut-être ne faudrait-il pas doter des milliards de personnes d’un répertoire d’anticorps IgG4 au profil similaire ciblant un virus respiratoire à ARN. Peut-être toutes sortes de virus respiratoires et d’autres agents pathogènes peuvent-ils s’en servir comme d’une opportunité.

On a mené une expérience sans précédent sur des milliards de personnes, nos systèmes immunitaires réagissent maintenant d’une manière sans précédent à un pathogène respiratoire et nous voyons maintenant un nombre sans précédent de personnes malades d’infections respiratoires.

Si vous êtes virologue, je crois que c’est le moment où vous êtes censé être inquiet.

Mise à jour 1: Une critique que vous pourriez faire de mon avertissement, à savoir qu’une évolution vers les IgG4 pourrait également avoir un impact sur d’autres agents pathogènes respiratoires, est que la réactivité croisée des anticorps pourrait ne pas être suffisante.

Pourtant, nous savons déjà qu’il doit y avoir une réactivité croisée importante entre le SARS2 et un certain nombre d’autres virus respiratoires à ARN, pour une raison simple: les vaccins antigrippaux sous-unitaires (c’est-à-dire non vivants) ont montré une nette réduction de 89% du risque d’infection grave par le SARS-CoV-2.

Si les anticorps de la grippe ont un impact sur le SARS2, les anticorps du SARS2 ont un impact sur la grippe. Et si les anticorps du SARS2 évoluent vers la tolérance, cela aura un impact sur la grippe. L’impact ne fera que s’accentuer au fil du temps, à mesure que ces autres virus s’adapteront par mutation et sélection naturelle pour tirer le meilleur parti de cette évolution vers les IgG4.


Sur le pic pétrolier en tant que nouveau crime de tromperie infligé au monde par les banquiers centraux pour soutenir leur programme de contrôle et de mort et détourner l’opposition à ce programme – par Katherine Watt.

Une analyse du « pic pétrolier », pour complèter le papier précédent. Katherine fait partie des quelques très rares analystes à qui je fais encore confiance à ce stade, avec Sasha Latypova, Catherine Austin Fitts, John Titus, quelques médecins indépendants et bien entendu John Paul. J’avais traité du « pic pétrolier » avec notamment un papier de Gail Tverberg, qui s’appuie abondamment sur les travaux cités dans le présent article, et celui-ci de Eliott Freed, deux analyses que Katherine met ici très bien en perspective.

Vous pouvez commencer par la petite vidéo ci-dessous, très bien produite. Je ne suis pas fan de la chaîne PragerU mais il faut leur reconnaître le mérite d’être très factuels et rigoureux. C’est en anglais mais si vous activez d’abord les sous-titres, puis vous allez dans Règlages>Sous-titres>Traduire automatiquement>Français (de préférence), vous avez un sous-titrage nickel.

Source.


Sur le pic pétrolier en tant que nouveau crime de tromperie infligé au monde par les banquiers centraux pour soutenir leur programme de contrôle et de mort et détourner l’opposition à ce programme.

En plus du Covid-19, des armes biologiques injectables, des banques centrales, des monnaies fiduciaires, des programmes de géo-ingénierie et de changement climatique.

Katherine Watt

30 décembre 2022

Extrait du billet du 19 juillet 2022:

Commentaire d’un lecteur sur le billet de la semaine dernière intitulé « Thinking Through Possible Future Scenarios » [Réflexion sur les scénarios d’avenir possibles]:

L’inévitable désastre économique est-il toujours le lot des civilisations en chute libre? À la lumière de ce qui suit, veuillez commenter!

Perfect Storm, Energy, Finance and the End of Growth [Tempête parfaite, énergie, finance et fin de la croissance], rapport de Tim Morgan, Responsable Mondial de la Recherche pour le courtage Tullett Prebon, janvier 2013.

Ma réponse, légèrement étoffée:

Je l’ai téléchargé et l’ai parcouru.

Je me suis intéressée à ces questions à l’origine par le biais de la théorie du « pic pétrolier », en lisant le livre de Richard Heinberg de 2005 intitulé The Party’s Over: Oil, War and the Fate of Industrial Societies [La Fête est finie: Pétrole, guerre et destin des sociétés industrielles], qui exposait les implications des travaux du géologue et géophysicien M. King Hubbert sur les réserves de pétrole et le rendement énergétique de l’énergie investie (Energy Return on Energy Invested – EROEI).

Les travaux de Hubbert étaient liés aux effets des ressources pétrolières limitées sur les systèmes financiers et économiques qui dépendent d’un pétrole bon marché et facilement accessible pour fonctionner correctement.

Les systèmes financiers et économiques basés sur l’endettement, en particulier.

Les travaux de Hubbert et Heinberg étaient étroitement liés au rapport Limites de la Croissance publié par le Club de Rome en 1972.

De 2005 à 2020, j’ai considéré le pic pétrolier et l’EROEI comme des problèmes géochimiques et techniques qui nécessitaient une relocalisation des systèmes de prise de décision, d’alimentation, d’eau, de production économique et de distribution, en tant que réponses pratiques à la résolution des problèmes.

J’ai donc travaillé avec le Community Environmental Legal Defense Fund [Fonds de défense juridique de l’environnement communautaire] sur des projets de gouvernement local basés sur les droits, et j’ai créé et/ou soutenu plusieurs petites organisations travaillant sur le développement de systèmes alimentaires locaux, l’acquisition de compétences en homesteading et des campagnes de protection de l’approvisionnement en eau.

J’ai effectué des recherches et écrit sur ces questions dans une série de blogs destinés aux lecteurs de la communauté du New Jersey où j’ai vécu de 2002 à 2008, et de la communauté de Pennsylvanie où je vis depuis 2008. J’ai lancé Bailiwick News en 2016.

C’est dans cette arène que j’ai appris ce qu’est l’État administratif, en regardant les législateurs et les juges élus locaux se faire écraser – sans opposer beaucoup de résistance – par des administrateurs publics professionnels non élus, notamment des directeurs de canton, des avocats de canton et des directeurs de planification et de zonage, en collaboration avec des dirigeants d’entreprises privées et quasi privées, en particulier dans les domaines de l’investissement immobilier, du développement foncier et de l’ingénierie.

Cependant.

Depuis 2020, observant en temps réel la manipulation massive des données Covid pour influencer et contrôler le comportement des groupes et des individus, j’en suis arrivée à la conclusion que le rapport du Club de Rome sur les Limites de la Croissance, le mouvement du pic pétrolier, la panique de la surpopulation, la panique du changement climatique et autres, ont fait partie du même projet multigénérationnel d’opération de manipulation psychologique […] des mondialistes.

Rien que des mensonges.

Tous racontés dans le but d’obscurcir l’intellect, de désorienter, d’effrayer et de contrôler les hommes et les femmes.

Je ne connais pas le véritable état des réserves mondiales de pétrole; je sais seulement ce que l’Agence Internationale de l’Energie (créée en 1974) et d’autres institutions mondialistes capturées disent publiquement à propos des réserves de pétrole.

Il est possible que la surconsommation de ressources, l’endettement et l’effondrement économique soient toujours le lot des civilisations en chute libre, et qu’il s’agisse simplement d’un processus naturel à l’échelle mondiale, manipulé à des fins personnelles par les élites au sommet de la structure de pouvoir de la civilisation actuelle.

Mais il est également possible que cette histoire précise de surconsommation des ressources mondiales, de destruction écologique, de dette et d’effondrement économique soit créée, mise au point et/ou projetée dans l’esprit des gens du monde entier en ce moment même, par ces mêmes élites, non seulement pour leur gain personnel, mais aussi au service de Satan, dans le but de livrer les âmes humaines à la damnation éternelle en détruisant la foi en Dieu.

Aujourd’hui, je penche pour la deuxième interprétation des événements.

Le sujet du pic pétrolier est revenu récemment dans un fil de discussion sur le Substack de Sasha Latypova.

Un lecteur a commenté, adoptant la position selon laquelle les mondialistes « exterminent » les gens pour prévenir d’autres formes de chaos mortel, comme les famines, les crashs économiques et les guerres de ressources, en raison de la pénurie d’énergie fossile liée au pic pétrolier.

Il a cité ce même rapport « Perfect Storm » de 2013 de l’échange de juillet (ci-dessus) comme « le document définitif qui relie tout » et a désigné les sables bitumineux et le forage en eaux profondes comme preuves à l’appui de l’affirmation selon laquelle les limites naturelles des réserves de combustibles fossiles sont la motivation de base.

Comme je l’ai écrit en juillet, j’avais l’habitude de penser que le pic pétrolier était la clé, et j’ai travaillé principalement à partir de cette vision du monde de 2005 à 2020.

Je ne trouve plus ce cadre plausible, car je suis trop consciente de l’efficacité avec laquelle les mondialistes et leurs sbires manipulent les données, les informations et la propagande pour se rapprocher de leurs objectifs géopolitiques et autres, et de l’utilité de l’anxiété généralisée concernant le pic pétrolier et le changement climatique dans ce processus de manipulation.

Il est maintenant clair pour moi que la BRI [Banque des Règlements Internationaux] et ses propriétaires, ainsi que leurs pairs institutionnels dans d’autres organisations internationales (comme le Club de Rome/ »Limites à la Croissance« /Donella Meadows) sont en position, depuis très longtemps, de manipuler les données et les analyses produites par M. King Hubbert et d’autres géophysiciens, ainsi que des scientifiques de l’environnement/du climat, de telle sorte que « Limites à la Croissance » n’est pas un modèle basé sur des faits, mais une projection ou un plan basé sur leur intention et leur capacité à manipuler l’accès aux réserves de combustibles fossiles et à manipuler les aspects du climat, afin de soutenir leurs efforts pour centraliser le pouvoir et le contrôle.

Ils ont l’argent et la maîtrise du projet pour forer des kilomètres sous la mer à la recherche de pétrole, extraire du pétrole du sable à la vapeur et lâcher des bombes dans des trous, non pas parce que ce sont les seules sources d’approvisionnement restantes, mais simplement pour perpétuer la fraude.

C’est le même mode d’emploi que celui qu’ils utilisent pour manipuler les informations sur ce qui se passe dans le cadre du programme Covid, tuer et rendre malades des millions de personnes avec des injections d’armes biologiques, et mentir sur ce qu’ils font.

Je suis maintenant d’avis que « l’économie » n’est également qu’une fraude massive, et qu’aucun des chiffres présentés par les banquiers centraux au cours des 100 dernières années – ou plus – n’est digne de confiance ou ne devrait être utilisé pour prendre des décisions sociétales ou personnelles sur ce qu’il faut faire ensuite.

Ce ne sont que des mensonges, du début à la fin, racontés par les banquiers centraux, dans le but de centraliser le contrôle direct et quotidien de 8 milliards de personnes, tout en envoyant 7,5 milliards d’entre vers une mort prématurée à l’aide de mensonges, d’armes biologiques, de pulvérisations chimiques, de famine forcée par le biais de perturbations de l’approvisionnement alimentaire, de perturbations de l’approvisionnement énergétique, de manipulations monétaires et d’autres outils de leur arsenal.

Ils font tout cela et bien plus encore, tout en organisant des exercices de simulation séquentiels et détaillés et en publiant des plans détaillés décrivant ce qu’ils ont l’intention de faire, qui correspondent à ce qu’ils font réellement, dans le but d’humilier rituellement leurs ennemis: nous.

En conséquence, je ne crois plus qu’il existe des limites naturelles à la production et à la distribution de nourriture, ni qu’il existe des limites naturelles à l’approvisionnement en énergie fossile.

Les pénuries et les catastrophes sont orchestrées par les banquiers centraux.

Un autre intervenant dans le fil de discussion a cité d’autres sources de données et a proposé un débat, comparant le scepticisme à l’égard du pic pétrolier au déni de l’existence du 11 septembre ou de Covid-19.

J’ai examiné les données sur le pic pétrolier. Je ne fais plus confiance aux sources de ces données.

Je ne veux donc pas en débattre, car la vraie question n’est pas celle de l’information. La question est de savoir si les sources d’information sont dignes de confiance. Et je ne pense pas que nier le pic pétrolier soit comparable à nier le 11 septembre ou le Covid. Il est cohérent de penser que ces trois événements sont des manipulations, impliquant des informations et des données fabriquées, qui ont néanmoins eu et ont toujours des effets directement observables sur la vie des gens.

Le débat public sur le pic pétrolier (tel qu’il est) n’a pas vraiment d’importance, cependant.

Que vous croyiez que le pic pétrolier s’est produit en 2005 et que la pénurie d’énergie est basée sur des limites géochimiques et techniques réelles de forage, ou que vous croyiez que le pic pétrolier est une campagne de propagande et que les pénuries sont et continueront d’être fabriquées, la décentralisation de la capacité de production des produits de première nécessité, y compris les informations véridiques, et la décentralisation des systèmes de gouvernance pour maintenir l’ordre social, sont des réponses utiles aux deux interprétations des événements passés et actuels.

Même si l’approvisionnement en énergie fossile est encore abondant, les personnes qui organisent depuis longtemps les perturbations des chaînes d’approvisionnement et des systèmes financiers et monétaires seront probablement en mesure de continuer à le faire dans un avenir prévisible.

La seule différence importante entre les deux points de vue est la différence entre le niveau où on place la responsabilité.

Là encore, la déviation et la suppression de la vérité ne servent qu’à masquer le pouvoir et les actes des prédateurs-parasites mondialistes.

Les personnes qui croient à la propagande sur le pic pétrolier et le changement climatique concentrent leurs réactions sur le changement de comportement et la réduction de la liberté de mouvement des gens ordinaires qui essaient de vivre, d’apprendre, de travailler, d’adorer Dieu et d’élever des enfants.

Les personnes qui percent à jour la propagande, jusqu’aux hommes et aux femmes qui se sont positionnés pour contrôler l’accès aux informations véridiques et aux ressources nécessaires à la vie, se concentrent sur l’élargissement de notre accès aux informations véridiques, sur l’élargissement de notre amplitude de mouvement pour produire et obtenir des réserves d’eau, de nourriture et d’énergie adéquates et contrôlées localement, et sur le rétablissement ou la création de systèmes financiers et d’autorités gouvernementales légitimes.

Massacre des Saints Innocents. Peinture de Guido Reni.

Pourquoi je ne crois pas à l’annonce concernant la fusion – par Miles Mathis.

Note: je publie de façon assez sporadique et désordonnée depuis plus de trois semaines, ce qui continuera jusqu’à ce que j’ai rattrapé mon retard. C’est à cause d’une « grippe » tenace (un mois!) dont je commence à peine à sortir. Mon épouse a fini par retracer l’origine de la contamination à une famille d’injectés qui fait Covid sur Covid, duquel ils sont porteurs à vie (j’y reviens dans un article prochain), et dont le système immunitaire foireux en fait des réservoirs et des bouillons de culture pour d’autres virus tels que celui-ci, les rendant manifestement plus virulents.

Il y a aujourd’hui plus de cinq milliards de ces armes biologiques ambulantes en circulation et une volonté évidente de les utiliser pour détruire la santé de l’autre moitié de l’humanité. J’envisage sérieusement de m’imposer une quarantaine définitive de ces Typhoid Mary d’un nouveau genre, en attendant leur lente mais inéluctable disparition du pool génétique humain. La question est maintenant de savoir si quelqu’un a une meilleure solution à proposer.


Premier réflexe – appelons ça de l’instinct – en entendant cette annonce il y a un mois: encore une arnaque. Comme on pouvait s’en douter, Miles a aussitôt publié un article assez complet où il démonte l’entourloupe scientifique. Il rappelle aussi une des fonctions classiques de ce genre de fable, la ponction de l’argent public. Il en omet d’autres, comme la vieille obsession mystique de l’élite pour le soleil, inspiration derrière leur autre imposture équivalente, la bombe nucléaire. Pour certains de leurs tout premiers fakes, nos amis américains ne se donnaient même pas la peine de faire exploser quoi que ce soit et filmaient… le lever du soleil. On annonce d’ailleurs ici (voir la vidéo ci-dessous) que la fusion contribuera à la force de dissuasion américaine. Quoi?!! Même selon la fable officielle, la fusion est censée être un moyen de production d’électricité en milieu hautement contrôlé et on tente déjà de nous le vendre comme une arme? Tout ça s’adresse à une masse bien dressée à croire n’importe quoi dès qu’il s’agit de la grandeur de leur pays.

Il y a aussi à voir dans ce nouveau gigantesque mensonge un pas de plus vers le point de non-retour qui se profile à grande vitesse: on nous parle maintenant, tout comme pour le passage à l’hydrogène « vert » – qui ne verra non plus jamais le jour – d’une échéance de dix ans avant le développement commercial des centrales à fusion. Ce sont les dix ans nécessaires à la réduction drastique de la production d’énergie par 1) la destruction accélérée du réseau pétrole (j’y reviens juste après), 2) le démantèlement définitif des centrales nucléaires classiques, 3) l’abandon du projet de super centrales européennes (prenez le temps de regarder cette interview de Fabien Bouglé à partir de 25:45), 4) la mise en place de solutions énergétiques « renouvelables », qui garantiront l’instabilité permanente du réseau. Pour un point de la situation vous pouvez relire ceci. Mais que le système soit durable ou non (il ne l’est pas) n’est même pas la question. La question est que le projet a changé, et que les investisseurs ont déjà placé leurs billes dans le suivant, en se faisant un paquet de pognon à détruire celui-ci. N’en doutez pas, après le Covid, l’énergie et son (dé)financement sont les armes de destruction massive choisies pour la mise à mort du système et des peuples.

Addendum 19 janvier: mauvaise source (verbale), mauvaises infos! Le prix de l’électricité a en fait diminué en janvier (ici et ici). L’augmentation (de 300 à 400%) doit être en réalité calculée depuis son début, c’est-à-dire la « guerre en Ukraine ». Et question nucléaire, on en a bien fermé une le 1er janvier mais la fermeture de deux autres centrales est repoussée de dix ans (ici). Je cesse définitivement de me fier à cette source. Sorry. Le reste est juste.

Je ne sais pas comment ça se présente chez vous mais 2023 commence fort ici en Belgique. Le prix de l’électricité est multiplié par dix à partir de ce mois de janvier, y compris pour la consommation domestique. Les contrats à prix fixe sont évidemment tous automatiquement résiliés. Les petits commerces encore ouverts sont vides. Malgré que (ou parce que) ils n’ont rien vendu pour les fêtes, il n’y aura même pas de période de soldes. La grande distribution, qui s’est déjà réorganisée en mode hangar avec personnel minimum, ne verra vraisemblablement pas la fin de l’année. Je rappelle encore une fois qu’il est assez difficile de se procurer de la nourriture dans des magasins fermés. Excepté ceux qui auront eu la prévoyance/l’occasion d’investir dans leur propre infrastructure d’énergie, les autres tentent de mettre de côté pour faire face à leur facture délirante, qui dépasse dans certains cas leurs revenus mensuels. Le point positif est que ça incitera tout ce petit monde à moins gaspiller.

Pour conclure sur un ton plus léger, les conférences de presse autour des diverses autres arnaques offraient déjà un spectacle assez lamentable – voir celle de l’équipe de Curiosity. Celle-ci réunit une troupe de bras cassés d’un autre niveau, dont on peut légitimement douter qu’ils attachent eux-mêmes leurs lacets de chaussures. Un peu comme la faune du FEM à la manoeuvre aux USA, en France et ailleurs – celle qui a pénétré dans les cabinets – soit c’est tout ce qu’ils ont trouvé, soit c’est de l’humour. Détail croustillant à ne pas manquer à 6:43, le drapeau américain s’écroule derrière le gugusse qui sort: « Hopefully that’s not representative. » [J’espère que ce n’est pas annonciateur]

Ok, c’est donc bien de l’humour.

Source.


Traduction

Pourquoi je ne crois pas à l’annonce concernant la fusion

par Miles Mathis

Première publication le 22 décembre 2022

La première raison pour laquelle je n’y crois pas, c’est que je ne crois actuellement à aucune affirmation officielle, dans le domaine scientifique ou autre. Nous vivons une époque de totale et complète corruption, et certains sont prêts à raconter n’importe quoi pour obtenir des fonds. Je vous ai présenté des centaines d’exemples récents de fraudes extravagantes, il faudrait donc être fou pour croire ce qu’on nous dit. L’annonce du gouvernement a été faite par la Secrétaire à l’Énergie Jennifer Granholm, une menteuse notoire. Je ne lui ferais pas confiance pour me donner l’heure exacte.

C’est une goule de premier ordre, avec un visage couvert d’énormes verrues, qu’elle a fait effacer sur cette photo. Juste pour info.

La deuxième raison pour laquelle je n’y crois pas, c’est le timing. Ils ont désespérément besoin de gros titres positifs en ce moment, pour contrebalancer tous les négatifs. La science officielle est en chute libre à cause de cette même corruption et de décennies de mensonges colossaux et de vols du Trésor public. L’aube de 2023 marque la fin d’une longue série d’implosions très apparentes, notamment la fraude Apollo, la fraude de la navette spatiale, la fraude des atterrissages sur Mars, les fraudes de SpaceX, la fraude de Blue Origin, la fraude de Higgs, la fraude de BICEP, la fraude de LIGO et, actuellement, la fraude du cycle solaire, dans laquelle l’Air Force falsifie les données de base du Soleil. Et ce ne sont là que neuf exemples sur des milliers.

La troisième raison pour laquelle je n’y crois pas est que tout ça émane de Lawrence Livermore et du Ministère de l’Énergie, en conjonction avec le Ministère de la Défense. Tous trois sont connus pour être de vastes gouffres à pognon, qui siphonnent des trillions de recettes fiscales pour des projets fantômes. Du néant. Des millions ont été dépensés pour cette recherche sur la fusion et ce financement va désormais exploser dans les années à venir. Comme le programme spatial, le programme nucléaire n’est que de l’argent jeté par les fenêtres. C’est une vaste conjuration, une conspiration criminelle de premier ordre.

La quatrième raison pour laquelle je n’y crois pas est que cela ne fait que dix mois que le JET (Joint European Torus – le plus grand réacteur de fusion du monde) a annoncé une grande avancée dans la fusion, en produisant un processus de cinq secondes et 59MJ. Ils ont créé une température de 150 millions de °C, soit exactement la moitié de la température que les Américains revendiquent maintenant. Alors comment avons-nous pu surclasser le « plus grand réacteur de fusion du monde » en seulement 10 mois? Plus important encore, le JET a admis en février dernier être loin de la surunité, en injectant environ trois fois plus d’énergie qu’il n’en a retiré. Mais l’élément important de cette annonce était la promotion d’ITER, le gigantesque réacteur de fusion français pour lequel ils ont dépensé des milliards et qui, affirme-t-on, produira 10 surunités. C’est le but de tout cela, voyez-vous: encore des projets de pillage du Trésor public, avec des milliards de dollars de vos impôts alloués à ces faux projets où on tire au laser et où on déclare n’importe quoi.

La cinquième raison pour laquelle je n’y crois pas est qu’il est très difficile d’obtenir la moindre information sur le processus employé ici. Toutes les annonces ne sont que du brassage de vent, et je n’ai pas pu trouver de lien vers un seul article. Dans les quelques « explications scientifiques » présentées, tout ce que j’ai pu trouver, c’est qu’ils opéraient une fusion vers de l’hélium5, ce qui est très improbable. Il vous suffit d’aller sur Wikipedia, où vous trouverez qu’ils ont créé de grands isotopes d’hélium depuis longtemps sans jamais aucune revendication d’énergie positive dans leur désintégration. Et, fait révélateur, ils n’ont pas créé d’hélium5. Les héliums 6 et 8 sont les plus courants, et ils ne sont pas vraiment fusionnés, car ils sont constitués d’un halo. Un halo signifie que les baryons supplémentaires ne sont pas pris en sandwich dans le noyau, mais orbitent autour de lui.

La sixième raison pour laquelle je n’y crois pas est qu’il n’y a pratiquement aucun moyen de vérifier cette découverte, puisqu’ils affirment avoir créé une température de 300 millions de degrés Celsius avec des lasers. Très peu d’endroits autres que Lawrence Livermore peuvent créer ces conditions, et tous ces endroits appartiennent également au gouvernement. Il n’y a donc aucun moyen de confirmer cette découverte de manière indépendante. Un autre problème est que, bien qu’ils affirment que la température a recréé les conditions d’une étoile, les étoiles ne sont en réalité pas aussi chaudes. Le centre du Soleil est estimé à 15 millions de degrés, par exemple, et jusqu’à récemment, tous les sites scientifiques admettaient que nous ne pouvions pas créer cette température. Mais nous pouvons tout à coup créer une température 20 fois plus élevée?

La septième raison pour laquelle je n’y crois pas est un petit calcul mathématique. Le gain net d’énergie était à peu près suffisant pour faire bouillir 8 litres d’eau, alors que la source d’énergie était constituée de 192 lasers à haute énergie concentrés sur un « grain de poivre », créant 300 millions de degrés C. Combien de litres d’eau pourrait-on faire bouillir avec toute cette énergie? Je ne sais pas, mais de l’ordre d’un million, je suppose. Donc la production fractionnée était si faible qu’elle serait en dessous des marges d’erreur de mesure. En d’autres termes, tout ceci pourrait n’être que résiduel. Du bruit.

La huitième raison pour laquelle je n’y crois pas est qu’on ne s’attendrait pas à tomber sur une méthode que la Nature n’utilise pas. La Nature étant censée être très efficace, on s’attendrait à ce que nos laboratoires imitent la méthode de la Nature, non à ce qu’ils visent une méthode exotique nécessitant davantage d’apport d’énergie. Les étoiles n’opèrent pas de fusion pas en commençant par du deutérium et du tritium, bien qu’elles en disposent. Pourquoi pas, si elles peuvent plus facilement parvenir à la fusion de cette manière? On me dira que c’est parce que ça nécessite des températures plus élevées que celles que les étoiles peuvent atteindre, mais cela a-t-il un sens? Cela impliquerait que nous sommes plus puissants et inventifs que les étoiles, n’est-ce pas, il faut vraiment avoir envie d’y croire. Non, si nous pouvons gérer 300 millions de degrés, nous pouvons en gérer 15 millions, alors pourquoi ne pas opérer de fusion comme le fait le Soleil? On me dira que dans le cas du Soleil la pression joue un rôle, mais la densité du Soleil est bien moindre qu’ici. Le Soleil est un plasma, rappelez-vous, une sorte de gaz chaud ou de semi-liquide. Alors comment créerait-il une telle pression supplémentaire? Même en supposant que le noyau solaire soit plus dense, il ne serait pas des millions de fois plus dense. Nous sommes en fait capables de créer des pressions bien supérieures à celles que le noyau solaire est censé avoir, alors pourquoi ne pas le faire? Non, rien de tout ça n’a le moindre sens, comme d’habitude.

La neuvième raison pour laquelle je n’y crois pas est que je ne crois pas que la fusion soit au départ un événement sur-unitaire. Ce qui voudrait dire qu’il est impossible pour nous de fusionner, par définition. La fission est sur-unitaire puisque l’énergie est stockée dans le noyau. Lorsque les étoiles créent des noyaux, elles créent des flux ou des chemins de charge qui enferment les baryons dans une architecture spécifique. Cette architecture est une énergie stockée, de sorte que lorsqu’elle est brisée, l’énergie qui l’a créée est libérée. Mais ce n’est pas le cas de la fusion. La fusion et la fission sont des processus opposés, et on ne peut pas stocker de l’énergie dans les deux sens. C’est une contradiction dans les termes. Lorsque le Soleil opère une fusion, l’énergie « créée » n’est pas libérée d’une architecture stockée. Elle n’est pas « créée » du tout. En bref, le Soleil reçoit une charge provenant du noyau galactique, qu’il recycle à travers son corps en utilisant le spin [rotation], en l’attirant aux pôles et en la libérant à l’équateur. Lorsque cette charge traverse son corps, tout ce qui se trouve dans le Soleil est mis en spin. Pas seulement le Soleil dans son ensemble, mais toutes les particules du Soleil. Au fur et à mesure de leur spin, elles accumulent de nouveaux spins, les photons étant transformés en leptons et en baryons. Ces particules entrent ensuite en collision et s’organisent en d’autres spins, ce qui nous donne tous les éléments. Mais pour ce faire, il faut une perte d’énergie. Une partie de l’énergie du champ de charge est stockée dans ces chemins de charge, de sorte qu’il y a en fait moins d’énergie qui sort du Soleil que ce qu’il y entre. Ou encore, l’énergie est conservée, comme c’est toujours le cas, mais l’énergie de la charge disponible diminue, puisqu’une partie de celle-ci est retenue dans le noyau. Donc, dans ce sens, le Soleil dans son ensemble est un dispositif sous-unitaire. La fusion ne semble être sur-unitaire que parce que nous mesurons l’énorme énergie qui sort du Soleil et ignorons l’énorme énergie qui y entre.

Comme vous pouvez le constater, j’espère, cette analyse détruit totalement la possibilité de la fusion comme producteur d’énergie ici sur Terre, qu’elle soit chaude ou froide. La fusion verrouille nécessairement une partie de l’énergie entrante dans l’architecture nucléaire, ce qui en fait pour nous, par définition, un événement sous-unitaire.

Vous direz: « Non, l’énergie provient de la fission ultérieure, puisque l’hélium5 se décompose spontanément ». Mais ça ne peut pas fonctionner car l’hélium5 se désintègre en hélium4 et en un neutron. Nos blocs de construction étaient le deutérium et le tritium, et le tritium est déjà radioactif ou enclin à se désintégrer, donc son énergie n’est pas bien stockée. Et la désintégration de l’hélium5 ne devrait produire presque aucune énergie elle-même, puisque le neutron n’était pas lié au départ. Aucune énergie n’a été liée dans ce lien. Le neutron n’était pas lié, il était simplement plaqué là temporairement, sans créer de lien. La rupture de la liaison ne devrait donc créer pratiquement aucune énergie. Le résultat de la désintégration de l’hélium4 a beaucoup d’énergie stockée dans ses liaisons, bien plus que le deutérium et le tritium combinés, donc il ne peut y avoir d’énergie ici.

Pour voir cela d’une autre manière, rappelez-vous que le tritium se désintègre également en libérant ce neutron supplémentaire, tout comme l’hélium5. Mais comme le tritium est plus stable que l’hélium5, le neutron est davantage lié au tritium. Autrement dit, il y avait plus d’énergie disponible à partir de la fission du tritium que celle de l’hélium5, donc transformer le tritium en hélium5 ne nous aidera pas, n’est-ce pas? Nous aurions dû obtenir plus d’énergie dans la fission du tritium lors de cette perte de neutron qu’avec l’hélium5.

On me dira que le tritium « se désintègre » en hélium 3, mais ce n’est pas le type de fission spontanée dont je parle. En fait, le terme « désintégration » est mal choisi, n’est-ce pas? Le tritium ne peut pas se désintégrer en hélium, puisque ce serait une chose plus petite qui se désintégrerait en une chose plus grande. Oui, le tritium est susceptible de se transformer en hélium dans notre environnement, mais cela n’a rien à voir avec le type de désintégration que l’on observe avec l’uranium ou le plutonium. L’uranium se désintègre en noyaux plus petits comme le baryum et le krypton. Donc, encore une fois, nous ne devrions pas utiliser le mot désintégration dans les deux sens. C’est très confus, je suppose que c’est volontaire. Le tritium ne se désintègre pas en hélium et ne libère pas d’électrons, puisque cette équation ne s’équilibre pas:

[voir l’équation dans le document original]

Comme je l’ai déjà montré, le tritium ne libère pas d’électron, il est frappé par un positron. Son neutron le plus exposé et le moins lié est frappé par un positron, et dans le choc, les deux particules sont inversées. Le positron devient un électron et retrace le chemin du positron vers l’extérieur, expliquant pourquoi nous avons manqué sa trace. Seul le spin externe du neutron s’inverse, et il devient un proton. Donc, encore une fois, comme pour la désintégration bêta, aucune désintégration n’est impliquée avec le tritium.

Pour obtenir de l’énergie de l’hélium5 en fission, il faudrait que ses liaisons centrales soient rompues et qu’il se désintègre en quelque chose d’encore plus simple que le deutérium et le tritium. Par exemple, si l’on nous disait que l’hélium5 se décompose spontanément en cinq baryons, je pourrais croire cette annonce. Mais en l’état actuel des choses, cette annonce est complètement illogique du simple point de vue de la construction de base.


Texte original

Why I Don’t Believe the Fusion Announcement

by Miles Mathis

First published December 22, 2022

The first reason I don’t believe it is that I don’t believe any claims coming out of the mainstream right now, science or otherwise. We are living through a time of utter and complete corruption, and people will say anything for funding. I have shown you hundreds of recents examples of extravagant fraud, so we would have to be fools to believe anything we are being told. The government announcement was made by Energy Secretary Jennifer Granholm, a notorious liar. I wouldn’t trust her to tell me the correct time.

She is a major ghoul, with a face covered in huge moles, which she had removed from that photo. Just so you know.

The second reason I don’t believe it is the timing. They are desperately in need of positive headlines right now, to counter-balance all the negative ones. Mainstream science is in an absolute freefall due to that very same corruption and decades of huge lies and thefts from the treasury. As we approach 2023, we are at the end of a long line of very conspicuous implosions, including the Apollo fraud, the Space Shuttle Fraud, the Mars landings fraud, the SpaceX frauds, the Blue Origin fraud, the Higgs fraud, the BICEP fraud, the LIGO fraud, and currently the Solar Cycle fraud, in which the Air Force is falsifying basic data from the Sun. And those are just nine examples of literally thousands.

The third reason I don’t believe it is that this is coming out of Lawrence Livermore and the Department of Energy, in conjunction with the Department of Defense. All three are known to be vast money pits, stealing trillions in taxes for phantoms. Nothings. Millions have been spent on this fusion research and now that funding will balloon over the coming years. As with the space program, the nuclear program is all money down the drain. It is a vast conjob, a criminal conspiracy of the first order.

The fourth reason I don’t believe it is that it has only been ten months since JET (Joint European Torus—the world’s largest fusion reactor) announced a big breakthrough in fusion, obtaining a process of five seconds and 59MJ. They created a temperature of 150 million C, exactly half the temperature the Americans are now claiming. So how did we outdo the “world’s largest fusion reactor” in just 10 months? Even more to the point, JET admitted last February that they were nowhere near over-unity, putting roughly three times the energy in as they got out. But the important thing in that announcement was the promotion of ITER, the gigantic French fusion reactor they have spent billions on, which—it is claimed—will produce 10X overunity. That is what this is all about, you see: more suck-from-the-treasury projects, with billions of your taxdollars going to these fake projects where they fire lasers and make wild claims.

The fifth reason I don’t believe it is that it is very difficult to get any information about the process here. All the announcements are just horntooting, and I couldn’t even find a link to a paper. In the few “explanations of the science” involved here, all I was able to find was that they were fusing into Helium5, which is very unlikely. All you have to do is go to Wikipedia, where you will find that they have been creating big isotopes of Helium for a long time without any claim of positive energy out in the decay. And, tellingly, they haven’t been creating Helium5. Helium6 and 8 are the most common, and those aren’t really fused, being made of a halo. A halo means the extra baryons aren’t sandwiched in the nucleus, but are orbiting it.

The sixth reason I don’t believe it is that there is almost no way to check this discovery, since they are claiming they created a temperature of 300 million C with lasers. Very few places other than Lawrence Livermore can create those conditions, and all those places are also government owned. So there is no way to independently confirm any of this. Also a problem is that although they say that temperature recreated conditions in a star, stars are not actually anything like that hot. The center of the Sun is thought to be 15 million degrees, for instance, and until recently all science sites were admitting we couldn’t create that temperature. But suddenly we can create a temperature 20 times hotter?

The seventh reason I don’t believe it is doing a little math. The net gain in energy was about enough to boil 2 gallons of water, while the source of energy was 192 high energy lasers focused on one “peppercorn”, creating 300 million degrees C. How many gallons of water could you boil with all that energy? I don’t know, but on the order of a million, I would guess. So the fractional output was so low it would fall beneath margins of error in measurement. In others words, this could all just be residue. Buzz.

The eighth reason I don’t believe it that you would not expect us to trip on some method Nature wasn’t using. Nature is supposed to be very efficient, so you would expect our labs to mimic Nature’s method, not aim for some exotic method that required more input energy. Stars don’t fuse by starting with deuterium and tritium, though they have it available. Why not, if they can fuse in this way more easily? I will be told that it is because it requires higher temperatures than stars can manage, but does that make any sense? That would imply that we are more powerful and inventive than stars, doesn’t it, which does take some believing. No, if we can manage 300 million degrees, we can manage 15 million, so why not fuse as the Sun does? I will be told that the Sun also uses pressure, but the density of the Sun is much less than here. The Sun is a plasma, remember, a sort of hot gas or semi-liquid. So how does it create all that extra pressure? Even assuming the Solar core is denser, it would not be millions of times denser. We can actually create pressures far above what the Solar core is thought to have, so why not do it? No, none of this makes any sense, as usual.

The ninth reason I don’t believe it is that I don’t believe fusion is an over-unity event to start with. Which would mean it is impossible for us to fuse, by definition. Fission is over-unity since energy isstored in the nucleus. When stars create nuclei, they create charge streams or paths that lock baryons together in a specific architecture. That architecture is stored energy, so that when it is broken, the energy to create it is released. But that isn’t true of fusion. Fusion and fission are opposite processes, and you cannot store energy in both directions. It is a contradiction in terms. When the Sun fuses, the energy “created” isn’t released from some stored architecture. It isn’t “created” at all. In short, the Sun takes in charge coming to it from the Galactic Core, recycling that charge through its body using spin, pulling it in at the poles and releasing it on the equator. As that charge passes through its body, everything in the Sun is spun up. Not just the Sun as a whole, but all particles in the Sun. As they are spun up, they stack on more spins, with photons being spun up into leptons and baryons. Those particles then collide and arrange in further spin-ups, giving us all the elements. But to do that requires an energy loss. Some of the energy of the charge field is stored in those charge paths, so there is actually less energy coming out of the Sun than going in. Or, energy is conserved, as it always is, but available charge energy decreases, since some of it is tied up in the nucleus. So in this sense, the Sun as a whole is an under-unity device. Fusion only seems to be over-unity since we measure the huge energy coming out of the Sun and ignore the huge energy coming in.

As I hope you can see, that analysis totally destroys the possibility of fusion as an energy producer here on Earth, either hot or cold. Fusion necessarily locks some of the incoming energy into the nuclear architecture, making it an under-unity event for us by definition.

You will say, “No, the energy is from the subsequent fission, since Helium5 breaks down spontaneously”. But that can’t work because Helium5 decays into Helium4 and a neutron. Our building blocks were Deuterium and Tritium, and Tritium is already radioactive or prone to decay, so its energy is not well-stored. And the decay of Helium5 should produce almost no energy itself, since the neutron was never bound to start with. No energy was bound in that link. The neutron wasn’t bound, it was just sort of pressed in there temporarily, without creating a bond. So breaking the bond should create almost no energy. The decay result Helium4 has a lot of energy stored in its bonds, far more than Deuterium and Tritium combined, so there can be no energy out here.

To see that in another way, remember that Tritium also decays by releasing that extra neutron, just like Helium5. But since Tritium is more stable than Helium5, the neutron was bound more with Tritium. Meaning, there was more energy available from fission with Tritium than Helium5, so turning Tritium into Helium5 won’t help us, will it? We should have gotten more energy in fission from Tritium in that neutron loss than from Helium5.

I will be told Tritium “decays” into Helium3, but that isn’t the sort of spontaneous fission I am talking about. In fact, “decay” is a misnomer there isn’t it? Tritium can’t decay into Helium, since that would be a smaller thing decaying into a larger thing. Yes, Tritium is prone to become Helium in our environment, but that has nothing to do with the sort of decay we see with Uranium or Plutonium. Uranium decays into smaller nuclei like Barium and Krypton. So, again, we shouldn’t use the word decay in both directions. It is highly confusing, I assume on purpose. Tritium doesn’t decay into Helium and release an electron, since that equation doesn’t balance:

[see equation in original document]

As I have shown before, Tritium doesn’t release an electron, it is hit by a positron. Its most exposedand least bound neutron is hit by a positron, and in the hit both particles are flipped. The positron becomes an electron and retraces the path of the positron out—explaining why we missed its track. Only the outer spin of the neutron flips, and it becomes a proton. So, again, as with beta decay, no decay is involved with Tritium.

To get any energy from Helium 5 in fission, its central bonds would have to be broken, with it decaying into something even simpler than Deuterium and Tritium. For instance, if we were told Helium5 spontaneously decayed into five baryons, I might believe this announcement. But as it is, the announcement is completely illogical just as a matter of basic construction.

Ça n’a pas d’importance – par le Dr Ah Kahn Syed.

Source.


Ça n’a pas d’importance

Ne vous laissez pas distraire par le spectacle

Dr Ah Kahn Syed

25 décembre

Nous venons de vivre quelques semaines intéressantes dans l’arène de la « conspiration COVID™ » (oui, c’est nous, apparemment). Les rapports de luttes intestines abondent – ce qui est bizarre car presque tout ce que nous avons prédit s’est concrétisé, en particulier l’Iatrocide fomenté par les gouvernements avec une combinaison de confinements, de masques et des pires vaccins jamais vus.

iatrocide 1. L’acte de tuer un patient avec un traitement médical

On pourrait donc penser que la « Team Reality » (alias #mousearmy) serait en train de se détendre sur une plage en sirotant des margaritas dans des gobelets « Je vous l’avais bien dit ».

Pas du tout, apparemment. Comme si nous n’avions pas assez souffert ces trois dernières années de fascisme médical et scientifique. Notre margarita de plage ressemble plus à

J’ai donc pensé que c’était le bon moment pour diffuser un petit message.
Arrêtez de vous laisser distraire.

Toutes ces querelles internes sont du théâtre Kabuki. Ça l’a toujours été. Et ça n’a pas d’importance. Non, sérieusement, ça n’a pas d’importance.

Que signifie théâtre Kabuki ?
Le kabuki est une forme de théâtre classique au Japon, connue pour ses costumes élaborés et son jeu dynamique. Les expressions « théâtre kabuki », « danse kabuki » ou « pièce kabuki » sont parfois utilisées dans le discours politique pour décrire un événement caractérisé davantage par le spectacle que par le contenu.

Ça n’a pas d’importance que JJ Couey ait critiqué son ami Charles Rixey dans son stream, car tous deux ont raison. Charles a raison de dire que la séquence virale présentée comme « l’origine de la pandémie » a été fabriquée. Et JJ a raison de dire qu’un tel virus ne peut pas créer à lui seul une pandémie mortelle [NdT. voir mon article ici].

Ça n’a pas d’importance que Michael Senger ait mal interprété la prise de bec sur son substack et ait déclaré que JJ avait « rejeté l’hypothèse du laboratoire » – parce que c’est faux. Il a simplement dit que ça n’avait pas d’importance parce qu’ils n’auraient jamais pu fabriquer un virus suffisamment transmissible et mortel pour provoquer la « pire pandémie de l’Histoire ». Cela signifie que les coronavirus de ce type, même s’ils peuvent provoquer une épidémie locale, n’ont pas la stabilité génomique nécessaire pour traverser le monde en conservant leur virulence. En tout cas, pas sans le type d’aide que celle dont le MERS a eu besoin pour provoquer de multiples épidémies dans le monde.

Ça n’a pas d’importance que Robert Malone poursuive les Breggin pour avoir osé le mettre en cause… alors qu’ils avaient le droit de le faire. Robert Malone a-t-il raison de faire ça? Peut-être, peut-être pas. Mais ça n’a pas d’importance. C’est un spectacle.

Ça n’a pas d’importance que Maajid Nawaz et Alexandros Marinos se disputent sur Twitter au sujet d’Elon Musk. Alexandros a raison et Maajid a raison. Ils parlent juste à contre-sens. C’est encore un spectacle.

Je suis heureux d’avoir une conversation de bonne foi sur tout sujet lié à Elon. Je suis aussi préoccupé que n’importe qui par le fait que la MDBC s’érige autour de nous et j’ai tiré la sonnette d’alarme très tôt et souvent.
Encore une fois, veuillez lire mon article. Il aborde des sujets que vous évitez (délibérément ou non) dans cette réponse.

Ça n’a pas d’importance que mon ami Mathew Crawford se soit brouillé avec Steve Kirsch – parce que soit Mathew est un véritable pilier de la statistique, comme je le crois, soit ses nombreuses analyses détaillées seront exposées comme étant incorrectes. Elles ne l’ont pas été. Elles ne le seront pas. Il fournit toujours des justificatifs.

Ça n’a pas d’importance qu’Alex Berenson pense que ceux qui croient que l’Ivermectine a une activité antivirale sont des fous furieux – parce que la base de preuves est si forte que Berenson se retrouve le bec dans l’eau et que les personnes attentives n’ont plus besoin de lui prêter attention.

Ça n’a pas d’importance que l’affaire Kassam contre Hazzard ait été « perdue ». Ce qui a de l’importance, c’est que l’affaire a mis en lumière l’échec lamentable des tribunaux qui a conduit le juge Robert Beech-Jones à dire au peuple que « la coercition reste un consentement ». Ce qui a de l’importance c’est que Tony Nikolic ait apporté la preuve que les tribunaux savaient que:

  • les vaccins ne réduisaient pas la transmission
  • les taux d’infection étaient plus élevés chez les vaccinés
  • les preuves justifiant les confinements, les masques et les vaccins n’existaient pas
  • l’Administration des produits thérapeutiques a menti en disant qu’elle avait un avocat au tribunal pour cacher le fait que l’avocat de Pfizer agissait en son nom
  • des décès avaient été signalés dès le début de l’administration des vaccins COVID
  • le principal expert témoin du gouvernement a reçu 65 millions de dollars de subventions gouvernementales et n’a jamais traité un patient atteint du COVID.
L’expert de l’État dans la principale affaire australienne Kassam contre Hazard (à l’époque) n’avait jamais traité de patient COVID. Mais le juge Beech Jones a estimé qu’elle était un témoin « impressionnant ». Les nombreux médecins/experts qui avaient traité des patients ont été rejetés par la cour. Un vote de défiance, je pense !

Ça n’a pas d’importance que l’ivermectine « fonctionne » ou ne « fonctionne » pas dans le cas du COVID et de toute autre infection virale. Ce qui compte, c’est que les médecins qui utilisaient l’ivermectine – comme Pierre Kory, Brian Tyson, Zev Zelenko et Lynn Fynn – ont réellement pris la peine de traiter le patient sans suivre un protocole anonyme. Ce qui signifie que leurs patients ont également reçu des antibiotiques pour traiter la pneumonie secondaire qui était en fait la cause des décès de personnes âgées.

https://mobile.twitter.com/TheJikky/status/1604543666135367680

3 comprimés.

C’est ce qu’ils ont refusé aux personnes âgées qui ont été diagnostiquées avec une « pneumonie COVID » parce qu’on leur a dit de ne pas la traiter. C’était une pneumonie bactérienne. Elles sont mortes.

Si elles n’avaient pas eu le test, elles auraient eu les comprimés.

Qu’est-ce qui a de l’importance alors?

Ce qui a de l’importance, c’est ce que nous savons.

Déterminez ce que vous savez et le reste n’a pas d’importance, car il y a suffisamment d’éléments pour justifier l’arrestation massive des membres du gouvernement qui ont conspiré à un démocide.

Voici ce que nous savons :

  1. Le nombre de personnes décédées en avril 2020 et en janvier 2021 est supérieur au nombre de personnes qui seraient normalement mortes.
  2. Dans certains pays, le taux de mortalité global était normal pour 2020, ce qui signifie que l’impact de la « pandémie » était soit mineur, soit un effet d’entraînement.
  3. Les laboratoires ont effectué des tests PCR pour détecter un brin d’ARN, qui s’est révélé positif chez certaines personnes.
  4. Ces tests PCR étaient plus susceptibles d’être positifs au moment où il y avait des décès.
  5. Les amorces pour ces tests PCR étaient commerciales (sauf en Nouvelle-Galles du Sud en 2020) et nous ne savons donc pas ce qu’ils testaient.
  6. Les amorces utilisées pour les premiers tests PCR en Chine1 étaient erronées et n’ont donc pas pu détecter le « SARS-CoV-2 » :

    Amorce directe : 5′-TCAGAATGCCAATCTCCCCAAC-3′
    Amorce inverse : 5′-AAAGGTCCACCCGATACATTGA-3′
    Sonde : 5′ CY5-CTAGTTACACTAGCCATCCTTACTGC-3′
  7. Les protocoles de prise en charge des pneumonies post-virales ont été modifiés en avril 2020 pour supprimer les antibiotiques.

NOM DE DIEU.
Pourquoi les médecins ont-ils accepté sans hésiter de ne pas traiter les personnes de 80 ans pour une pneumonie post-virale en 2020-2022, alors que c’était la norme de soins auparavant?

Parce qu’on leur a dit de le faire en 2019.
Par une institution appelée…
[Vous allez adorer ça….]

  1. Si vous êtes une personne âgée atteinte d’une pneumonie post-virale et que l’on vous refuse des antibiotiques, vous mourrez très probablement.
  2. L’écrasante majorité des décès en Chine concernait des patients traités à Wuhan selon les protocoles de Wuhan. La Chine continentale a connu un taux de mortalité quasi nul pour une maladie censément nouvelle et censément originaire de ce pays.
  1. La même maladie en dehors de Wuhan (Hubei) présentait un risque de décès2 7,5 fois inférieur à celui de la maladie survenant à Wuhan (Hubei). Cela n’est pas attribuable au hasard3.
  1. La Chine – l’épicentre supposé du « nouveau coronavirus non traitable » a vu le taux de mortalité par COVID par million d’habitants le plus bas du monde en 2020 et 2021. Ce n’est pas possible au regard de l’histoire présentée.
Nombre de décès par million sur Our World in Data pour 7 pays. La Chine est la ligne plate (indétectable) en bas.
  1. Sur le motif d’une « nouvelle pandémie de coronavirus à fort taux de mortalité », le monde entier (partout sauf la Chine) a été soumis à:
  2. Sur le motif de la « pandémie » provenant de Chine, qui n’a pas affecté la Chine de manière appréciable, les économies du monde ont été arrêtées et vous vivez toujours avec les conséquences.
  3. Pour certaines personnes, les obligations de vaccination et l’ingérence du gouvernement dans les traitements médicaux ont entraîné la mort. C’est la réalité. La suppression des antibiotiques dans le traitement standard de la pneumonie post-virale s’est faite au même rythme dans le monde entier. Comment cela a-t-il pu se produire? Par MAGIC: Un consortium dirigé par l’Université de Liverpool et l’OMS.
  1. Ces décès dus au COVID n’avaient pas à se produire. Les personnes affiliées à Andrew Owen de MAGIC ont été dénoncées par Tess Lawrie pour avoir admis une influence financière indue dans le rejet de l’ivermectine comme thérapie. Mais l’ivermectine n’était qu’une partie du problème, car les protocoles utilisant l’ivermectine étaient accompagnés d’antibiotiques (doxycycline ou azithromycine) qui prévenaient la pneumonie bactérienne.

Que s’est-il donc réellement passé?

Voici mon évaluation de la situation en tenant compte des faits connus ci-dessus. Vous êtes invités à exprimer votre désaccord et les commentaires sont ouverts. Je vous encourage à tenter de réfuter ces propos.

Il n’y a jamais eu de pandémie d’un quelconque virus mortel. Les séquences fabriquées par Baric, Daszak, Shi et leurs copains dans les laboratoires de virologie du monde entier sont des séquences virales d’ARN, mais elles sont synthétiques. Elles peuvent être distribuées efficacement par le biais de clones4 (production en laboratoire de séquences d’ARN) au lieu de lâcher sur le monde un coronavirus à ARN instable et réel, qui régresserait probablement et échouerait en tant qu’arme biologique. Ce qu’ils ont avancé (un nouveau coronavirus mortel effrayant provoquant une pandémie) est pratiquement impossible, mais la peur était bien réelle.

Afin de persuader les gens de l’existence d’un virus pandémique mortel, le PCC (qui dicte les protocoles médicaux) de Wuhan a autorisé la diffusion d’un clone viral qui provoquait une maladie conduisant à une pneumonie bactérienne. Ensuite, soit ils ont refusé le traitement antibiotique pour les cas de Wuhan seulement (tuant des gens), soit ils n’ont signalé que les cas qui n’avaient pas répondu aux antibiotiques (produisant un biais de sélection dans les rapports). Dans un cas comme dans l’autre, cela a produit un taux de mortalité artificiellement gonflé parmi les cas de Wuhan, qui n’a pas été reproduit dans le reste de la Chine. C’est ainsi qu’est née la peur de la pandémie.

Une fois que des cas d’infection virale (qui auraient pu n’être que des coronavirus en circulation, car les tests PCR n’étaient pas assez spécifiques pour détecter uniquement le « COVID ») ont été observés dans d’autres pays, la propagande a été mobilisée (lancée par le PCC et reprise par l’Occident via Tony Fauci) pour s’assurer que les antibiotiques normalement utilisés dans les pneumonies post-virales ne le soient pas dans les pneumonies « post-COVID ». Il n’y avait aucune raison médicale à cela, seulement une raison politique. Le raisonnement politique consistait à s’assurer que les populations étaient suffisamment terrifiées par ce virus effrayant pour accepter les confinements, les masques et ensuite les vaccins expérimentaux. Aucune de ces mesures n’aurait dû être prise, car elles ne figuraient pas dans les plans de lutte contre la pandémie élaborés avant 2020. N’oubliez pas non plus qu’aucun des confinements chinois n’était réel. Tout cela n’était que de la propagande.

Lorsque l’on prend du recul et que l’on voit le monde entier se fermer, se masquer, rejeter en bloc les droits de l’homme après que la Chine ait soi-disant vaincu un super-virus en confinant une ville, en s’appuyant sur de fausses vidéos montrant des habitants tombant raides morts, l’imposture du confinement apparaît comme une évidence gênante.

Les masques étaient de la propagande destinée à entretenir la peur. Les confinements étaient conçus pour neutraliser les économies non chinoises, de telle sorte que la seule économie à croître en 2020 a été celle de la Chine. Une fois ces deux piliers de la fausse pandémie mis en place, la voie était ouverte pour l’introduction des vaccins « d’urgence », pour lesquels la technologie de thérapie génique à ARNm était prête à être utilisée.

Au lieu de s’opposer à la propagande du PCC, l’Occident a continué à suivre la même fausse piste. Ils ont ignoré le fait que la Chine continentale refusait les vaccins à ARNm. Ils ont mobilisé des personnes telles que Gideon Meyerowitz-Katz, dont le laboratoire est ouvertement affilié au CDC5 chinois, pour promouvoir la propagande du confinement, du masque et du vaccin.

26 février 2020: L’OMS ne recommande pas le port du masque pour les personnes non-soignantes pour empêcher la propagation du Covid19. Pourquoi? Ce que j’ai vu chez ceux qui portent un masque: il se touchent le visage, il se curent le nez, il lèchent leur doigts, etc.
3 décembre 2022: Le meilleur dans ce tweet c’est que tandis que je participais à cette discussion, je prenais aussi la défense des masques auprès de quelqu’un qui pense qu’ils ne servent à rien mais évidemment ce n’est pas suffisant pour les tordus extrémistes.

Ce faisant, le monde s’est aligné sur les dictats mondiaux fournis par les protocoles de l’application MAGIC qui disaient aux médecins de ne pas utiliser d’antibiotiques dans les pneumonies post-COVID. Et en faisant cela, les médecins du monde entier ont collaboré – sciemment ou non – à un Iatrocide mondial qui aurait pu être entièrement évité.

Les protocoles vantés par Zelenko et Kory étaient simples. Hydroxychloroquine ou ivermectine (qui sont des anti-inflammatoires ou des antiviraux dans la phase précoce), zinc (qui est un antiviral) et doxycycline ou azithromycine (qui prévient ou traite la pneumonie secondaire, cause de décès dans la majorité des cas de « COVID »). Des médicaments parmi les plus sûrs de la planète. Pourtant, nous n’étions pas autorisés à les utiliser, parce que l’OMS, Fauci et Andrew Owen le disaient. Et puis le gouvernement est intervenu pour restreindre leur prescription.

L’hydroxychloroquine ou l’ivermectine n’étaient peut-être même pas tellement importantes. Plus probablement, tout ce qui était nécessaire était les « #3comprimés » [#3tablets] d’azithromycine qui représentent un cours de traitement pour la pneumonie acquise en communauté. Moins d’un dollar dans de nombreux pays. Si vous aviez un « test COVID » négatif, on vous donnait ces comprimés. Si le test était positif, on ne vous les donnait pas. Une personne âgée atteinte d’une pneumonie post COVID non traitée était placée sur la chemin de la mort.

Un dollar. 3 comprimés. C’est le prix que l’OMS a jugé trop élevé pour traiter vos parents âgés.

Je suppose que le directeur de l’OMS, Tedros, en dit trop sur cette photo. Mais là encore, il n’en est pas à son premier rodéo démocidaire, ayant été le ministre de la santé qui a supervisé la discrimination systématique en matière de santé mise en évidence dans le rapport 2010 de Human Rights Watch.

Mais bien sûr, tout ce qu’il fait maintenant c’est uniquement pour protéger mamie.

1 dollar. 3 comprimés. Portez un masque. Prenez votre vaccin. Restez à l’intérieur. N’écoutez pas les réactionnaires. Contentez-vous de vous conformer. C’est pour votre sécurité.

Une dernière question… qui sommes-nous censés saluer le bras tendu cette fois-ci?


  1. https://journals.lww.com/cmj/fulltext/2020/06050/clinical_characteristics_of_fatal_and_recovered.1.aspx

    Voir aussi https://t.me/Virusluege/10
  2. Voici le document du CDC chinois. N’oubliez pas que seuls les documents approuvés par le PCC sont autorisés à être publiés. Cela signifie que soit le taux de mortalité de Hubei était plus élevé que celui du reste de la Chine, soit le PCC voulait faire croire au monde que le taux de mortalité de Hubei était plus élevé que celui du reste de la Chine. Ça n’a pas d’importance. Cela signifie que des personnes se sont vu refuser un traitement médical pour promouvoir l’idée qu’une effroyable pandémie de coronavirus se préparait.
    https://arkmedic.substack.com/api/v1/file/4885838c-6c88-4684-86dd-68a37256b46c.pdf
  3. Chi-carré p = 4,3e-55, soit zéro.
  4. https://www.pnas.org/doi/10.1073/pnas.1311542110
Génétique inverse avec un ADNc infectieux complet du coronavirus du syndrome respiratoire du Moyen-Orient
  1. Le bulletin d’information de Powerlab provenant de leur site web. Le réseau est décrit aux pages 10-11
    https://arkmedic.substack.com/api/v1/file/f666f9fe-8920-4811-a976-74ce36cd5fe1.pdf

Armes biologiques, produits en autorisation d’utilisation d’urgence, nouveaux médicaments expérimentaux, crise constitutionnelle – par Katherine Watt.

Katherine Watt est une alliée des plus précieuses pour comprendre comment l’état de guerre biosécuritaire a pu légalement et juridiquement se mettre en place aux États-Unis. Ceci concerne également au premier plan les pays européens qui ont passé contrat avec les firmes pharmaceutiques (vous voyez lesquelles), par une astuce légale typiquement américaine qui octroie à ces contrats précédence sur les lois nationales. Je traduis l’article de Katherine Watt à ce sujet, dès que je le retrouve – j’ai compté, j’ai plus de 900 onglets ouverts…

Les deux derniers paragraphes sont humoristiques, mais j’avais pensé sérieusement à ce genre de manoeuvre. Je ne vois pas pourquoi ce seraient toujours les mêmes qui s’amusent.

Source.


Armes biologiques, produits en autorisation d’utilisation d’urgence, nouveaux médicaments expérimentaux, crise constitutionnelle.

Katherine Watt

3 janvier

Orientation pour les nouveaux lecteurs. Plus d’informations sur la page À propos.

Pour les lecteurs souhaitant vérifier les citations légales de ce billet, vous pouvez les trouver dans la chronologie du billet épinglé American Domestic Bioterrorism Program. [NdT. dont j’ai traduit la seule conclusion ici, les références juridiques rendant la lecture interminable]

On m’a récemment envoyé un lien vers l’interview de Karen Kingston avec Greg Hunter, publiée le 24 décembre 2022, et on m’a demandé mon avis sur les points qu’elle aborde entre 22:00 et 28:00. Au cours de ce segment, Karen Kingston discute des implications juridiques de l’approbation par la FDA, le 23 août 2021, du Nouveau Médicament Expérimental (Investigational New Drug – IND) du produit Comirnaty de Pfizer, qui est « juridiquement distinct », comme pouvant percer les boucliers de responsabilité civile et pénale de l’Autorisation d’Utilisation d’Urgence (Emergency Use Authorization – EUA).

Je comprends son point de vue, mais je ne suis pas d’accord avec son analyse.

Je ne pense pas que les lois d’urgence de l’EUA ou de la santé publique soient contraignantes, en tant que lois de santé publique et de réglementation des médicaments.

Je pense qu’elles ne sont contraignantes que dans le sens où elles transfèrent toutes les utilisations et implications légales des produits des programmes de santé publique au programme d’armes chimiques et biologiques (50 USC 1511 et seq.).

Ainsi, dans le cadre d’un état de guerre, d’un état d’urgence national et/ou d’un état d’urgence de santé publique, tous les Américains sont classés comme ennemis de l’État (le prétexte employé par le gouvernement fédéral du District de Columbia1), comme insurgés, rebelles ou étrangers, et peuvent être légalement ciblés pour être tués, en utilisant toutes les armes que le gouvernement fédéral et ses militaires jugent appropriées, à la discrétion du Président et du Secrétaire à la Défense.

Parmi les nombreux documents utiles que les lecteurs m’ont envoyés au sujet de la prise de pouvoir de l’exécutif et du droit militaire pendant la guerre de Sécession, il existe des preuves à l’appui de l’argument selon lequel le statut de droit militaire n’a jamais été levé lorsque les hostilités sur le champ de bataille ont pris fin en 1865.

Au lieu de cela, de nombreuses générations d’Américains – de toutes les races, classes et ethnies – sont nées, ont vécu et sont mortes sous une occupation militaire fédérale secrète, illégitime et financiarisée.

Sans le savoir.

Depuis le début de la guerre de Sécession en 1861 jusqu’à l’AUMF (autorisation de recours à la force militaire)/Proclamation 7463 de 2001, les banquiers centraux mondialistes ont eu suffisamment de contrôle sur les leviers qu’ils voulaient contrôler pour permettre à certaines dispositions de la séparation des pouvoirs de la Constitution de sembler fonctionner de façon plus ou moins intacte, y compris un certain contrôle du Congrès, un certain contrôle judiciaire et certains droits limités des États, fournissant un certain contrepoids au Président et aux agences exécutives et administratives.

Au fil des décennies, les banquiers centraux planifiaient et se préparaient à prendre davantage de pouvoir, et à mettre en place des mécanismes de transfert discrets, tels que le Federal Reserve Act de 1913, l’Executive Order 6102 et la House Joint Resolution 192 de 1933, ainsi que les accords de Bretton Woods de 1945, tout en construisant l’architecture juridique, financière et scientifique du programme de bioterrorisme.

En 2001, ils voulaient plus de contrôle et étaient prêts à risquer d’être un peu plus visibles pour l’obtenir.

En septembre 2001, sous le couvert de la peur suscitée par le 11 septembre et les attaques à l’anthrax, un autre niveau d’urgence nationale/état de guerre (« Guerre Mondiale contre la Terreur ») a été mis en place, par le biais de l’Autorisation du Congrès pour le Recours à la Force Militaire (AUMF) et la Proclamation 7463 de George W. Bush, Déclaration d’Urgence Nationale en Raison de Certaines Attaques Terroristes, promulguée sous la Loi d’Urgence Nationale de 1975 et renouvelée chaque année depuis.

Ces mesures ont été rapidement suivies de la loi PATRIOT en octobre 2001, de la création du Département de la Sécurité Intérieure en novembre 2002 et de l’expansion des programmes d’état policier biomédical au cours des deux décennies suivantes par le biais de la loi PREP, de la loi Project Bioshield et plus encore.

En 2019, ils voulaient prendre un contrôle encore plus direct, étaient prêts à risquer de s’exposer encore un peu plus, et avaient placé plus de pièces sur l’échiquier pour centraliser plus de pouvoir dans des conditions d’urgence de santé publique.

Ainsi, en 2020, sous la couverture de la peur suscitée par le Covid-19, une autre couche de contrôle est entrée en vigueur, par la détermination en janvier 2020 de l’existence d’une urgence de santé publique (Alex Azar, secrétaire du HHS) et la proclamation 9994 de Donald Trump du 13 mars 2022, Déclaration d’une Urgence Nationale concernant l’Épidémie de Nouveau Coronavirus (COVID-19), également en vertu de la Loi sur les Urgences Nationales de 1975.

Également renouvelée chaque année depuis.

[Et positionnée comme une Guerre Mondiale contre les Humains Susceptibles aux Maladies Communicables: traduction de l’Agenda pour la Sécurité Sanitaire Mondiale intégré dans les règlements et traités de l’Organisation Mondiale de la Santé, et dans les programmes fédéraux américains. Voir la section 5955 du NDAA pour l’année fiscale 2023].

Je pense que la solution pour sortir de ce pétrin est que le peuple, le Congrès, les tribunaux et les gouvernements des États reconnaissent ouvertement la crise constitutionnelle déclenchée pendant la guerre de Sécession et renforcée depuis par les banquiers centraux et la branche exécutive/état administratif.

Ça craint.

Les affaires civiles et pénales introduites entre-temps, dans le cadre des structures pseudo-juridiques actuelles qui ont été conçues par les banquiers centraux pour rendre la Constitution inopérante et, par conséquent, trahir le peuple, peuvent contribuer à préciser quand et comment nos structures juridiques actuelles ont perdu leur légitimité et à indiquer quelques pistes pour revenir au fondement constitutionnel original.

Je pense également – aussi étrange que cela puisse paraître – que certaines des corrections les plus importantes seraient remarquablement simples à mettre en œuvre, une fois que les majorités du Congrès, les juges fédéraux et les gouverneurs des États, les procureurs généraux et les législateurs commenceraient à comprendre la situation de guerre et à changer de camp, passant des banquiers centraux à la Constitution+Peuple.

Les archives de la guerre de Sécession et les événements qui s’en sont suivis appuient fortement l’argument selon lequel le Congrès est une pseudo-institution fictive depuis 1863 environ, occupant les sièges vides du vrai Congrès par un accord mutuel et secret entre les dirigeants conscients – pour participer à l’illusion et la promulguer – et l’ignorance pure et simple par l’ensemble de ses membres du fait qu’il s’agit d’une illusion.

Avec un bon leadership et une forte pression populaire, les hommes et les femmes vivants assis dans ces sièges pourraient ouvertement présenter des résolutions, débattre et voter pour révoquer leur consentement à participer au mensonge, et ainsi réoccuper le vrai Congrès.

Si une telle résolution était adoptée, elle effacerait tous les statuts du Congrès, toutes les agences et réglementations fédérales dérivées, et tous les ordres et proclamations présidentiels, depuis 1861.

Y compris toutes les lois d’urgence nationale et d’urgence de santé publique qui, pour l’instant, semblent protéger les tueurs de toute poursuite pénale pour les atrocités de masse qu’ils ont commises ces trois dernières années.

Une grand reset constitutionnel, en quelque sorte.

À partir de ce retour aux principes fondateurs, le vrai Congrès et les États pourraient commencer à débattre et à adopter des lois conformes à la Constitution, accompagnés par une population beaucoup plus alerte et des tribunaux fonctionnels positionnés pour examiner et annuler les lois inconstitutionnelles.

Pour m’amuser, j’imagine parfois qu’en vertu de la propriété transitive du wokeness, n’importe qui pourrait « s’identifier » à John Roberts, Juge en Chef de la Cour Suprême des États-Unis, entrer et prendre le contrôle de la SCOTUS (Cour suprême des Etats-Unis) et de son registre, et demander à des avocats publics et privés de déposer des dossiers contestant la constitutionnalité des lois d’habilitation du programme américain de bioterrorisme domestique, des décrets, des règlements des agences et de leurs fictions juridiques précurseurs.

Comment les agents de sécurité des tribunaux pourraient-ils refuser de s’incliner devant les noms propres, les identités et les autorités légales que nous préférons?

Adoration du Saint Nom de Jésus. Peinture d’El Greco.
  1. J’ai appris récemment que les événements du 6 janvier se déroulant dans le district de Columbia sont probablement significatifs, en termes de structure corporative du pays et de statut juridique des hommes et des femmes qui ont traversé les 10 miles carrés du district de Columbia, alors qu’une déclaration d’urgence de santé publique/d’urgence nationale était en vigueur.

    Je ne me souviens pas s’il y a eu d’autres grandes manifestations politiques à Washington depuis janvier 2020. Si c’est le cas, je ne sais pas comment le Ministère de la Justice rationalise le fait de jeter les prisonniers politiques du 6 janvier en prison mais pas ceux de Black Lives Matter, par exemple, ou même s’ils essaieront de rationaliser ce traitement disparate. Il est probable que les manifestants du 6 janvier et leur allégeance claire à la Constitution avaient le potentiel d’interférer avec la tentative de contrôle des banquiers centraux, alors que les manifestants de BLM ne l’avaient pas.

    Quoi qu’il en soit, je pense maintenant que les accusations d’intrusion et d’insurrection sont peut-être davantage liées au fait que les manifestants du 6 janvier sont entrés à Washington, et non dans le bâtiment du Capitole lui-même. Ou, plus précisément, qu’ils ont dû être frauduleusement incités, par des agents du FBI infiltrés, à entrer dans le bâtiment du Capitole, afin de fournir une fausse façade pour les accusations d’intrusion et d’insurrection qui passerait mieux dans les médias propagandistes.

Mourir aux urgences.

Personne ne devrait mourir aux urgences. En tout cas pas par manque de soins.

C’est pourquoi la fermeture et/ou le manque de personnel des services d’urgence sont au minimum de la non-assistance à personnes en danger – ou plus simplement, un meurtre en série, avec préméditation.

Les chiffres en France, au Royaume-Uni… si on peut encore se fier aux chiffres. En France, toujours, avec juste en-dessous un article assez surréaliste sur un certain président « à l’écoute » du personnel soignant – après quoi il proposera des réformes. Vous vous souvenez de qui a viré le personnel médical rétif à l’injection, qu’il refuse à ce jour de réintégrer?

Voici, condensés en un seul, le contenu de deux articles (ici et ici) du Dr Reid G Sheftall, chirurgien cardiaque pédiatrique, et avant ça chirurgien plastique, homme courageux qui a écrit un bouquin sur les coupables de l’Opération Covid (que vous pouvez acheter via son Substack pour moins de dix dollars). Mais ce n’est pas pour ce bouquin, sûrement très instructif, que je le relaye ici.

J’avais gardé pour plus tard son témoignage, qui montre à quel point il est important de ne pas laisser détruire la relation patient/médecin et laisser la place à la digitalisation de la médecine – celle du Grand Reset – qui n’en a rien à foutre de vous. Je l’avais gardé aussi parce qu’il m’a beaucoup ému.

Les urgentistes et les médecins comme le Dr Sheftall peuvent vous sauver la vie, ou celle de votre enfant. Soutenez-les, bordel!


Première partie

Dr Reid G Sheftall

11 mars 2022

Source.

[…]

A propos de la petite fille de 6 ans, voyons si vous pourrez trouver la solution. Elle avait été impliquée dans un accident dans le break familial, un soir, sur le chemin du retour après avoir mangé dans un restaurant avec sa mère.

Ce mois-là, je faisais un stage en chirurgie pédiatrique à l’hôpital pour enfants d’Akron, dans l’Ohio. J’étais seul, de garde en chirurgie, la nuit où elles se sont présentées, il y a presque 29 ans. Ce n’est plus une petite fille. Elle doit avoir 35 ans aujourd’hui.

Elle et sa mère portaient leur ceinture de sécurité et personne ne semblait avoir été blessé. Néanmoins, sa mère souhaitait la faire examiner et a demandé à l’ambulance de l’amener à l’hôpital pour enfants d’Akron. Une maman intelligente… Les enfants expriment leurs plaintes très différemment des adultes parce qu’ils ont peur de recevoir une piqûre ou pire. S’ils pensent que leur problème risque de nécessiter un traitement, ils minimiseront leurs blessures. Le simple fait de voir le médecin entrer dans leur compartiment aux urgences les fera taire.

Je venais d’arriver dans ma chambre d’appel à 22 heures, après une dure journée de travail, et je regardais le lit trop court d’un pied que l’on nous avait fourni dans ce qui avait sûrement connu des jours meilleurs en tant que placard de rangement. Il ne me restait plus qu’une chose à faire. M’assurer qu’il n’y ait pas de problème non résolu aux urgences. Je n’avais pas envie d’être réveillé juste après m’être assoupi. Rester debout pendant mon service est bien moins douloureux que d’être tiré d’un sommeil profond par une sonnerie de téléphone – une petite perle de sagesse que l’on apprend en tant qu’étudiant en médecine. Après une rapide prière, demandant à notre Créateur une salle d’urgence vide, j’ai passé l’appel en bas.

Le médecin des urgences me dit qu’il n’y avait personne en bas, hormis une petite fille qui avait eu un accrochage avec sa mère. « Aucune plainte de douleur nulle part et son examen est négatif », dit-il. « Je la renvoie chez elle. » « Donc je n’ai pas besoin de descendre pour la voir? » « Non. Pas la peine. Elle va rentrer chez elle dans quelques minutes, dès que j’aurai fini une autre décharge. »

« Ahhhh. La félicité, le paradis, le bonheur – choisis ton mot préféré, pas besoin de dictionnaire », me dis-je en m’allongeant dans mes vêtements, y compris ma blouse blanche, car l’enlever me ferait perdre quelques secondes sur le temps de sommeil que je convoitais. Au bout d’une petite minute de sommeil, qu’est-ce que j’ai entendu? Oh non, la petite voix dans ma tête, le « petit sadique » comme je l’appelle, la voix qui n’est jamais la bienvenue mais qui a toujours raison.

« Gardez-la quelques minutes, s’il vous plaît. J’arrive tout de suite. » S’il y a une chose que j’ai apprise en trois ans d’internat, c’est qu’il faut examiner tout le monde, même si ça semble bénin. Et il y avait un directeur de programme impitoyable à l’hôpital pour enfants d’Akron, un chirurgien extraordinaire, dur comme la pierre, dont j’étais terrifié – nous l’étions tous – qui s’appelait Clifford Boeckman et qui m’aurait mis en pièces si j’avais montré le moindre signe de paresse.

La pression sanguine de la petite fille était de 91/50. Son pouls était de 88, sa température normale. On lui avait posé une intraveineuse, avec maintien de la veine ouverte (KVO). L’examen physique était conforme à ce que le médecin urgentiste avait dit, elle avait un ventre non tendu. Il n’y avait pas de défense. Les bruits intestinaux étaient normaux ou légèrement atténués, je n’étais pas sûr. Elle n’avait pas faim, mais elle avait soif et avait demandé de l’eau à sa mère.

Sa mère, assise sur une chaise en plastique, s’est contorsionnée le thorax sans se lever, et a pris une tasse dans la sacoche qu’elle portait.

« Qu’est-ce que c’est? », ai-je demandé.

« C’est un gobelet que je transporte partout… ».

J’ai levé la main, « Non, non. non. » ( Chaque chirurgien a l’habitude d’interdire toute nourriture ou boisson par voie orale lorsqu’il examine un patient aux urgences. Si une intervention chirurgicale est nécessaire, nous voulons que l’estomac soit aussi vide que possible lorsque nous mettons les gens sous anesthésie générale, en raison de la possibilité de vomir et d’aspiration du contenu de l’estomac dans les poumons – un problème grave).

Je ne savais pas si le médecin urgentiste avait regardé sa poitrine ou non. Elle portait encore sa chemise boutonnée ou peut-être l’avait-il examinée et demandé à sa mère de la lui remettre après l’examen. Il avait juste écrit « Poumons clairs » dans le dossier, ce qui était le cas. J’ai demandé à sa mère si l’autre médecin avait examiné sa poitrine. Elle a dit, « Je ne sais pas… peut-être quand je l’ai inscrite? » Peu importe. Il faut toujours tout vérifier.

Sur le côté gauche de sa poitrine, juste au-dessus de son mamelon, il y avait une marque étrange d’environ 5 cm de long et 2 cm de large, tachetée et de couleur rouge-violet.

Elle n’était pas du tout sensible, ce qui m’a paru très étrange.

J’ai demandé à sa mère si c’était nouveau. Sa mère ne l’avait pas vue. Ça avait l’air récent.

« Quelqu’un t’a frappé là, chéri? »

« Non. Je veux de l’eau! », a-t-elle exigé.

J’ai fait « non » à sa mère, ce qui m’a rendu soudainement très impopulaire.

J’ai fait une prise de sang – ouais, assurément persona non grata à ce stade – que j’ai envoyée pour un hémogramme complet, des électrolytes comme Na+, K+, Cl-, etc. J’ai demandé à l’infirmière de lui prélever un échantillon d’urine, mais elle n’a pas pu le faire. Sa mère a pris la relève et est revenue de la salle de bains en haussant les épaules. J’ai augmenté sa perfusion à 50 cc.

Il y a quelque chose qui m’échappe. Impossible de faire pipi. Accident de voiture… ceinture de sécurité bouclée… aucune douleur nulle part… étrange bleu sur la poitrine… Allez, réfléchis!

« Parlez-moi de cet accident. A quelle vitesse rouliez-vous? » « Pas vite – 55, peut-être – quelqu’un a tourné à gauche, juste devant nous, comme s’il essayait de fuir quelqu’un. » « Quel genre de voiture conduisiez-vous? » « Country Squire. » « Un de ces breaks des années 70? Pas d’airbags, hein? » « C’est une vieille voiture. Ma mère nous l’a laissée. » « Et vous êtes sûre qu’elle n’a rien heurté… le tableau de bord, ou quelque chose qu’elle avait sur les genoux? » « Non. J’ai mis ma main droite pour la protéger et elle a fait une embardée en avant, mais elle n’a rien touché. »

Je ne vous dirai pas quels tests j’ai demandés et quel traitement j’ai initié, car cela dévoilerait la réponse et gâcherait le plaisir de ceux qui veulent deviner ce qui s’est passé.

Je peux cependant vous raconter cette partie de l’histoire très compliquée.

En moins d’une heure, j’aurais réveillé un juge local et l’aurais convaincu d’émettre une ordonnance judiciaire défiant les souhaits de ses parents, puisque la vie de la petite fille en dépendait.

Vous avez maintenant toutes les informations nécessaires pour comprendre ce qui s’est passé.

Réponse demain.


Deuxième partie

Source.

Dr Reid G Sheftall

11 mars 2022

Ce n’est que lorsque j’ai rassemblé tous les détails de l’accident ainsi que l’image mentale de la petite fille faisant une embardée en avant que j’ai réalisé que j’avais une urgence chirurgicale sur les bras.

La petite fille se vidait de son sang sous mes yeux.

J’ai ouvert l’intraveineuse à fond, j’ai dit à l’infirmière d’appeler le laboratoire, « Dites-leur de faire le prélèvement et d’appeler les résultats au bloc opératoire… et dites-leur de faire un groupage et un croisement pour 5 unités de concentré de globules rouges ». J’ai déverrouillé le chariot et l’ai poussé hors de la salle d’urgence vers les ascenseurs.

« Qu’est-ce qui se passe? Qu’est-ce qui ne va pas? » « Votre fille fait une hémorragie interne. Elle a perdu beaucoup de sang. Nous devons l’emmener à l’étage et arrêter ça. Appelez votre mari ou la personne qui doit venir et dites-lui de venir maintenant. »

J’ai repris sa tension dans l’ascenseur. Elle était de 79/40. Son pouls était de 115. Quand on est arrivés aux portes de la salle d’opération, les infirmières étaient là à l’attendre et l’ont emmenée.

Cet accident n’était pas un « accrochage ». La mère de la fille a dit qu’elle roulait à 55 km/h et que le type qui l’a percutée « conduisait comme s’il essayait de fuir quelqu’un », ce qui signifie qu’il tournait à 55 km/h au moins sur la route secondaire. Il les a percutés de face à un angle de 45 à 67 degrés, très probablement, de sorte que le vecteur de vitesse direct dans leur voiture était au minimum de 40 km/h (55/racine carrée de 2) et au maximum de 55 x (racine carrée de 3 sur 2 = 48 km/h). Leur voiture s’est donc arrêtée net. Mes connaissances en physique m’ont aidé à comprendre le pouvoir de l’inertie sur l’anatomie délicate d’un petit enfant. S’arrêter brusquement à 55 km/h avec l’aide d’une simple ceinture de sécurité a mis en évidence la seule pathophysiologie qui pouvait tout expliquer.

La marque étrange sur sa poitrine était due à la ceinture de sécurité. Lorsque les voitures se sont percutées, son thorax a été stoppé mais le contenu de son abdomen a continué à avancer sur quelques centimètres avant de s’arrêter. Je ne savais pas de quoi il s’agissait au début, ni même s’il s’agissait d’une artère ou d’une veine, mais un vaisseau de l’abdomen avait été avulsé ou déchiré à l’intérieur de l’abdomen par l’étirement qui s’est produit entre le contenu abdominal mobile (comme les intestins) et le contenu abdominal fixé au thorax et attaché au péritoine (comme l’aorte).

Et c’est exactement ce que nous avons trouvé lors de l’opération. Quand on a ouvert l’abdomen, tout était rempli de sang. Il se déversait sur les côtés de notre incision. Quelques secondes après avoir retiré le sang et aspiré la cavité péritonéale, nous avons trouvé la source. L’artère mésentérique supérieure (qui alimente les intestins grêles et une partie du côlon) avait été arrachée de son point d’origine sur l’aorte lorsque les intestins se sont déplacés plus loin que l’aorte relativement fixe, lors de l’action d’arrêt. L’AMS est une petite artère et le chirurgien de garde, qui était déjà dans la salle, a dû poser ses boucles et la recoudre de manière circonférentielle, ce qui n’est pas une mince affaire.

Pendant ce temps, cette petite fille avait besoin de sang. Son taux d’hémoglobine était revenu à 5,7 mg/dl, soit environ la moitié de ce qu’il devrait être, au moment où les infirmières l’emmenaient dans la salle d’opération. Cette petite fille avait perdu la moitié de son volume sanguin dans son abdomen dans les deux heures environ qui avaient suivi l’accident. Elle avait besoin d’une transfusion. Il y avait un sérieux problème. Sa famille était des Témoins de Jéhovah.

Les adeptes de cette religion ne croient non seulement pas à l’utilisation du sang d’une autre personne pour maintenir la vie, mais n’autorisent pas non plus les transfusions avec leur propre sang. Je le savais avant cette nuit-là car j’avais une amie à Jacksonville, en Floride, où j’ai grandi, dont la famille était des Témoins de Jéhovah stricts.

Sa mère a refusé que je commande du sang pour la petite fille. « Elle va mourir dans l’heure qui vient – peut-être même avant – si vous ne me laissez pas commencer la transfusion immédiatement – je veux dire, pas dans 30 minutes quand vous aurez enfin changé d’avis. Je veux dire maintenant. »

Elle a appelé son mari, mais n’a pas eu de réponse. Il était en route (c’était à l’époque avant les téléphones portables). « Nous ne croyons pas… » « Je comprends tout ça. Mais vous devez y consentir ou elle va mourir. » « Non, je ne peux pas signer ça. Ça va à l’encontre de notre religion ». « Je suis sous pression ici, alors je vais le dire une fois de plus. Nous allons trouver le problème et arrêter l’hémorragie. Je comprends combien vos croyances religieuses sont importantes. Son hémoglobine était de 5,7 quand on a fait la prise de sang en bas. C’était il y a environ 20 minutes. Elle est probablement à 4 virgule quelque chose maintenant. Elle est censée être à 11. Dans peu de temps, elle aura perdu les 2/3 de tout le sang qu’elle avait dans son corps et c’est en gros le maximum qu’une personne puisse perdre en peu de temps et survivre. Si vous n’êtes pas d’accord et ne signez pas ce consentement, je vais demander à un juge de confier la garde parentale à moi-même ou au médecin traitant qui est en train d’arriver. » Elle a penché la tête vers le sol pour cacher ses larmes et a hoché la tête en disant « non ».

Je suis allé au poste des infirmières et leur ai demandé d’appeler un juge compatissant pour qu’on puisse transfuser la fille. « Le laboratoire prépare le sang. Qu’ils l’amènent et on l’accrochera dans la salle d’opération quand on aura des nouvelles du juge. » Puis je suis allé me changer pour mettre une blouse.

Quand je suis entré dans la salle d’opération après m’être lavé les mains, un anesthésiste était en train de l’intuber et l’infirmière de bloc était prête avec les instruments. Après m’avoir enfilé ma blouse stérile et aidé à mettre mes gants, le circulateur a terminé le « gommage » à la bétadine et m’a ensuite remis la « peinture » que j’ai appliquée sur la patiente. L’infirmière de bloc et moi avons drapé la patiente. À ce moment-là, le chirurgien titulaire a pointé sa tête dans la pièce et a dit: « J’arrive tout de suite. »

En attendant que le titulaire entre, j’ai remarqué pour la première fois que le ventre de la jeune fille était un peu gonflé et je me suis demandé comment cela avait pu m’échapper auparavant. Je pense que c’était dû à la tendance des ventres à s’aplatir lorsque les patients sont allongés sur le dos. Pour ce que ça vaut, sa mère ne l’avait pas remarqué non plus.

Je savais juste que ce truc était plein de sang et que sa pression allait chuter à la seconde où on ouvrirait la cavité abdominale. J’ai regardé par-dessus les rideaux l’anesthésiste, un jeune Chinois d’une trentaine d’années que je connaissais bien. « Chris, sa pression va chuter quand on ouvrira l’abdomen. » « Je m’en occupe. » « Merci. »

Le titulaire est entré et l’infirmière lui a tendu le scalpel. Il me l’a tendu et a dit : « De là à là » en plaçant les index juste en dessous de l’apophyse xiphoïde et juste au-dessus de la symphose pubienne. « Facile. Elle est aussi maigre qu’Ally McBeal », en m’avertissant d’y aller léger et de ne pas descendre trop profondément pour ne pas couper la linea alba en même temps ou jusqu’à la cavité péritonéale où je risquerais de couper les intestins. Elle avait un huitième de pouce de graisse sous-Q comme tampon et j’ai réussi à diviser la peau sans blesser quoi que ce soit en dessous. Et c’était là, la belle ligne blanche du fascia entre les ventres bilatéralement symétriques du muscle grand droit de l’abdomen.

« Vas-y doucement. »

J’ai fait ce qu’on m’a dit. Une petite incision. Puis une autre. Puis une autre. Puis ça a giclé, jailli. J’ai instinctivement mis mon doigt sur le trou. Il m’a pris le scalpel et en un éclair, il a élargi l’ouverture et nous y étions. Le sang coulait sur les côtés de l’incision lorsqu’il a mis l’écarteur et l’a ouvert avec une manivelle. L’infirmière m’a tendu le cell-saver (un dispositif d’aspiration utilisé pour préserver le sang du patient qui peut être utilisé pour l’auto-transfusion). Je l’ai déposé dans le coin de la cavité abdominale et je l’ai laissé aspirer pendant que nous récupérions des poignées de gelée à moitié coagulée entre les boucles de l’intestin et les cavités de chaque côté. Nous en avons récupéré autant que possible dans des bols stériles qui seraient vidés plus tard par le cell-saver.

Une fois la plus grande partie du vieux sang évacuée, il était facile de voir du sang rouge vif provenant de l’emplacement de l’aorte. On a emballé les intestins avec des éponges. Il a remplacé son index qui bloquait le trou de l’aorte par le mien et a entrepris de trouver l’AMS dans le mésentère de l’intestin grêle.

À ce moment-là, l’infirmière de l’accueil a passé la tête dans la pièce et a dit que le juge était en ligne.

« Passez-le-moi ».

Je peux vous dire que c’était vraiment quelque chose d’entendre un juge nous dire par haut-parleur, « C’est bien le Dr Sheftall? » « Oui, M. le Juge, c’est moi. » « Je vous accorde le quelque chose quelque chose (je ne me souviens plus du nom technique). Vous êtes libre de fournir tout traitement nécessaire, y compris la transfusion sanguine, que vous jugez nécessaire. Cela ne vous exonère pas de toute responsabilité en cas de négligence, si elle devait se produire. »  » Je comprends, M. le Juge. Merci et excusez-moi de vous déranger à cette heure-ci. » « Clic. »

Et le tour était joué. On a immédiatement accroché des poches de sang, en commençant par son propre sang provenant du cell-saver, soit près de deux unités, puis de la banque de sang. Son premier prélèvement en salle de réveil était supérieur à 7,7 mg/dl. Elle était déjà hors de danger.

Lorsque je suis sorti de l’unité de soins intensifs plus tard ce matin-là après l’avoir installée, les parents m’attendaient.

« Je suis désolé, Monsieur, d’avoir violé les principes religieux que vous avez choisis pour votre famille, mais je n’avais pas le choix. » Il m’a serré vigoureusement la main avec ses deux mains et d’une voix tremblante, il a dit « Merci ».

Je pense que ça s’est bien passé pour toutes les personnes impliquées, car ça leur a enlevé la décision des mains. Nous étions tous les trois dans une position intenable. Ils étaient fortement religieux et ne pouvaient se résoudre à violer leur foi de Témoins de Jéhovah, mais ils ne voulaient pas non plus perdre leur fille, évidemment. Quant à moi, il n’était pas question de laisser la petite fille se vider de son sang, avec ou sans consentement. Je suis très reconnaissant au juge parce qu’il m’a tiré d’affaire. J’aurais très certainement été appelé sur le tapis et probablement expulsé de l’internat en chirurgie pour avoir pratiqué une procédure sur une mineure, même aussi relativement bénigne qu’une transfusion sanguine, alors que les parents m’avaient interdit de le faire.

Explication de la raison pour laquelle tous les signes et symptômes étaient logiques:

La soif extrême, l’incapacité à faire pipi, la chute de la tension artérielle et l’augmentation du pouls étaient tous dus à la perte de volume sanguin. Les reins conservent l’eau pour maintenir la pression artérielle lorsque le volume sanguin est faible. C’est pourquoi l’urine devient plus jaune (moins claire) lorsque nous sommes déshydratés.

L’absence de douleur à l’abdomen s’explique par le fait que la seule blessure était l’artère avulsée, ce qui ne causerait qu’une douleur négligeable. Si plus de temps s’était écoulé jusqu’au moment où ses intestins auraient commencé à devenir ischémiques puis gangrenés, la douleur aurait été atroce.

L’ecchymose sur sa poitrine due à une ceinture de sécurité large et plate était indolore, car c’est la pression par rapport à la force qui provoque la douleur. C’est pourquoi il est plus douloureux de frapper quelqu’un avec un tournevis que de le frapper avec son poing avec la même force. P=F/S. Plus la surface de la force est petite, plus la pression est grande.

Les bruits intestinaux sourds étaient dus au sang entourant les intestins.

Comme la vie de cette petite fille aurait pu facilement être emportée. Elle allait être renvoyée chez elle sans aucune plainte de douleur corporelle. Elle aurait bu beaucoup d’eau, d’abord dans le hall des urgences, puis dans la voiture et à la maison. Cela aurait fait monter sa tension artérielle suffisamment pour l’empêcher de s’évanouir. Elle serait probablement morte chez elle après avoir été mise au lit.

Il n’y avait vraiment aucune raison de demander des analyses, si ce n’est que j’ai commencé à avoir le sentiment que quelque chose n’allait pas, probablement lorsque j’ai vu la grosse ecchymose indolore sur sa poitrine et qu’elle et sa mère ne savaient pas d’où elle venait. Je sais qu’on leur avait déjà dit qu’elles allaient rentrer chez elles et qu’elles étaient impatientes de partir car il se faisait très tard. D’une certaine manière, j’essayais de gagner du temps en demandant les analyses. Mais quand elle n’a pas pu me donner un échantillon d’urine, j’ai su qu’il se passait quelque chose de très grave. Sauf dans des cas comme celui-ci, on peut toujours produire de l’urine.

Nous avons tous déjà été victimes d’accidents mineurs (bien que celui-ci n’était pas mineur comme je l’ai montré) et nous nous sommes sentis secoués mais parfaitement normaux par la suite. Imaginez être impliqué dans un accident et vous sentir parfaitement normal, rentrer chez vous, et mourir trois heures plus tard. C’est ce qui a failli arriver.

Elle a aujourd’hui 35 ans.

Les hommes qui voulaient qu’on leur foute la paix.

Un auditeur de NoAgenda proposait récemment un nouvel acronyme, qui pouvait aussi servir de hashtag: LUTFA. À ne pas confondre avec Lutfat, ce très joli prénom africain.

LUTFA, pour Leave Us The Fuck Alone – Foutez-Nous La Paix, Bordel (plus ou moins).

#LUTFA

Je prévenais déjà en janvier 2021 (deux ans déjà, comme le temps passe) notre ami Klaus que ce monde verrait une colère impossible à imaginer. Il se trouve qu’un lecteur de ZeroHedge m’avait devancé de six mois, dans un commentaire sous cet article (archivé donc il faut être inscrit pour le lire, sorry). Il s’intitule « Boiling Point » : le point d’ébullition.

Mon épouse (française) me parle souvent de la situation épouvantable dans son pays natal: boulangers, médecins, services d’urgence, etc. Je ne sais pas si c’est d’eux que ça viendra mais ce que je sais c’est que ça viendra, tôt ou tard. Et, même si c’est difficile à croire maintenant, il y aura un avant et il y aura un après.

Nous sommes dans l’avant, rempli du tumulte de la propagande odieuse d’une part et de la résistance bavarde de l’autre, qui fantasme inutilement sur procès, justice, voire vengeance.

L’après sera plus silencieux.


La force de mort la plus terrifiante, vient des mains des « hommes qui voulaient qu’on leur foute la paix ».

Ils essaient, avec beaucoup d’énergie, de ne s’occuper que de leurs affaires et de subvenir à leurs besoins et à ceux de leurs proches.

Ils résistent à toute impulsion de riposter, conscients du changement de vie obligatoire et permanent qui en résulterait.

Ils savent qu’à la minute où ils ripostent, leur vie telle qu’ils l’ont vécue est terminée.

Ce moment où les « hommes qui voulaient qu’on leur foute la paix » sont obligés de riposter, est un peu une forme de suicide. Ils tuent littéralement la personne qu’ils étaient…

C’est pourquoi, lorsqu’ils sont forcés de recourir à la violence, ces « hommes qui voulaient qu’on leur foute la paix », se battent avec un esprit de vengeance sans bornes contre ceux qui ont assassiné leur ancienne vie. Ils se battent avec une haine brute, et une pulsion telle que ceux qui ne font que se livrer à des jeux de politique et de terreur ne peuvent concevoir. La VRAIE TERREUR viendra frapper à la porte de la Gauche, et ils pleureront, hurleront, et imploreront la pitié… mais tout cela tombera dans l’oreille d’un sourd.

Aucune erreur n’a été commise: un hymne à la justice – par Margaret Anna Alice.

Donc 2023, Année de la Redevabilité? De la Justice?

Comme le répète (plaisamment) Adam Curry, les coupables auront-ils la tête rasée et les fera-t-on défiler sur les avenues? Le Grand Jury de Fuellmich aura-t-il finalement gain de cause?

On verra bien mais j’ai comme un doute.

En attendant, pour sortir des discours – volontairement? – naïfs à la Christian Perrone des « erreurs commises », en voici un autre nettement plus à charge. Les nombreux liens dans le texte renvoient principalement vers des articles de l’auteur (en anglais), c’est donc en plus d’un poéme un récapitulatif serré et cinglant de ces trois dernières années et un genre de catalogue de son Substack, dont des lettres ouvertes à tel ou tel acteur de l’Opération. Je les ai parcourues, elles sont nettement moins féroces que ce que j’écris et ce que je publierai ensuite.

A propos de férocité, le prochain (très court) article parle d’un truc qui va vraiment arriver.

Source.


Aucune erreur n’a été commise:
un hymne à la justice

Margaret Anna Alice

1er janvier

Le poème qui suit a été inspiré par une conversation avec Mike Yeadon. Nous avons tous deux remarqué, indépendamment l’un de l’autre, l’utilisation croissante de termes comme « bâclé » et « bavure » pour décrire les crimes contre l’humanité perpétrés sous le couvert du COVID. Même les personnes bien intentionnées qui partagent des valeurs et des objectifs similaires tombent parfois dans ce piège tendu par ceux qui préparent leur saut en parachute pour échapper à toute culpabilité.

Cet Hymne à la Justice est ma tentative de décrire succinctement l’intentionnalité calculée qui sous-tend la tyrannie du COVID, et je demande votre aide pour diffuser le message clair que #MistakesWereNOTMade [#AUCUNEErreurNaEteCommise]. S’il vous plaît, partagez ce poème et gardez-le à portée de main pour la prochaine fois que quelqu’un tentera de minimiser par du verbiage les atrocités commises. Faisons de 2023 l’Année de la Redevabilité afin que personne n’ose répéter de tels actes à l’avenir.

Aucune erreur n’a été commise:
Un hymne à la justice

par Margaret Anna Alice

Le Génocide Arménien n’était pas une erreur.
L’Holodomor n’était pas une erreur.
La Solution Finale n’était pas une erreur.
Le Grand Bond en avant n’était pas une erreur.
Les Champs de la Mort n’étaient pas une erreur.

Quel que soit le génocide, ce n’était pas une erreur.
Ça inclut le Grand Démocide des années 2020.
Insinuer le contraire, c’est Leur offrir la porte de sortie qu’ils cherchent.

Ce n’était pas bâclé.
Ce n’était pas une bavure.
Ce n’était pas une gaffe.

Ce n’était pas de l’incompétence.
Ce n’était pas un manque de connaissances.
Ce n’était pas une hystérie de masse spontanée.

La planification s’est faite au vu et au su de tous.
La planification se fait toujours au vu et au su de tous.

Les philanthropathes ont acheté La $cience™.
Les modélisateurs ont planifié les mensonges.
Les testeurs ont concocté la crise.
Les ONG ont loué les universitaires.
Les $cientifiques ont fabriqué les résultats.
Les porte-paroles ont recraché les points de discussion.

Les organisations ont déclaré l’urgence.
Les gouvernements ont érigé les murs.
Les ministères ont réécrit les règles.
Les gouverneurs ont annulé les droits.
Les politiciens ont voté les lois.
Les banquiers ont installé la grille de contrôle.

Les larbins ont blanchi l’argent.
Le Ministère de la Défense a passé les commandes.
Les sociétés ont rempli les contrats.
Les régulateurs ont approuvé la solution.
Les lois ont protégé les sous-traitants.
Les agences ont ignoré les signaux.

Les magnats ont consolidé les médias.
Les psychologues ont conçu les messages.
Les propagandistes ont scandé les slogans.
Les vitrificateurs de faits ont dénigré les dissidents.
Les censeurs ont réduit au silence ceux qui posaient des questions.
Les bottes militaires ont piétiné les récalcitrants.

Les tyrans ont sommé.
Les marionnettistes ont tiré les ficelles.
Les marionnettes ont dansé.
Les complices ont exécuté.
Les médecins ont ordonné.
Les hôpitaux ont administré.

Les laveurs de cerveau ont écrit des scénarios.
Les embobinés ont bêlé.
Les totalitarisés ont intimidé.
Les Covidiens ont mouchardé.
Les parents ont capitulé.
Les bons citoyens ont cru… et oublié.

Ça a été calculé.
Ça a été formulé.
Ça a été étudié sur des groupes.
Ça a été articulé.
Ça a été fabriqué.
Ça a été falsifié.
Ça a été imposé.
Ça a été infligé.
Ça a été nié.

Nous avons été terrorisés.
Nous avons été isolés.
Nous avons été embrouillés.

Nous avons été déshumanisés.
Nous avons été blessés.
Nous avons été tués.

Ne les laissez pas s’en tirer comme ça.
Ne les laissez pas s’en tirer comme ça.
Ne les laissez pas s’en tirer comme ça.

© Margaret Anna Alice, LLC