Une brève histoire des banques centrales – la plus grande escroquerie jamais inventée – par Lily.

Mon principal message aujourd’hui est simple: l’âme de l’argent n’appartient ni à une grande entreprise technologique ni à un grand livre de comptes anonyme. L’âme de l’argent, c’est la confiance. La question est donc la suivante: quelle est l’institution la mieux placée pour générer la confiance? Je soutiens que les banques centrales ont été et continuent d’être les institutions les mieux placées pour instaurer la confiance à l’ère numérique.

Agustín Carstens, Directeur général de la BRI, « Les monnaies numériques et l’âme de l’argent », discours au Goethe University’s Institute for Law and Finance, 18 janvier 2022

Je publie ceci comme promis, à l’usage de tous ceux qui ne seraient pas familiers avec le sujet: la création de la monnaie par les banques centrales. L’article est assez simple, bien écrit, très didactique – et pour autant que je sache, exact. Il complète très bien celui-ci. Ça parle surtout de la Réserve Fédérale américaine mais ça fonctionne également pour les autres banques centrales. Vous y retrouverez d’ailleurs des manoeuvres bien d’actualité. Lisez-le si vous voulez comprendre comment on réussit à ruiner un pays aussi riche que la France.

Et si vous voulez être vraiment, vraiment en colère…

Source.


Une brève histoire des banques centrales – la plus grande escroquerie jamais inventée

Un cartel bancaire privé entièrement contrôlé par l’élite a secrètement retiré aux gouvernements – et par conséquent au « peuple » – le pouvoir de créer la monnaie

Lily

22 mars

Quel meilleur moment que maintenant pour parler de l’escroquerie que constituent notre masse monétaire et notre système bancaire? Le public pense que toute la monnaie est émise et contrôlée par le gouvernement, mais c’est faux. L’argent est aujourd’hui entièrement produit par des sociétés privées, c’est-à-dire des banques, à l’exception des pièces de monnaie, qui représentent moins de 0,05% du montant total de l’argent en circulation. Aux États-Unis, la Réserve Fédérale, une institution bancaire commerciale, supervise l’émission des billets, tandis que la Banque d’Angleterre – une institution privée, ce qui paraîtra sans doute étrange à beaucoup – est responsable de la frappe de votre argent au Royaume-Uni.

Chose étonnante, les gouvernements se voient ensuite accorder des prêts de cet argent, qui doivent être remboursés avec des intérêts. En conséquence, c’est là la véritable cause de nos énormes dettes nationales, qui ne cessent de croître, et non l’augmentation des dépenses publiques ou quoi que ce soit d’autre, comme le prétendent malhonnêtement nos gouvernements manipulés. Le seul moyen de rembourser cette dette est que le monopole bancaire imprime (puis prête) une quantité croissante d’argent, avec chaque fois sa propre composante d’intérêt. Tous les impôts que nous payons au gouvernement sont utilisés pour rembourser cette dette aux banquiers, contrairement à ce que l’on voudrait nous faire croire; ils ne sont pas utilisés pour financer les actions du gouvernement ou les services publics. Pour remplir davantage les poches des familles de banquiers d’élite déjà incroyablement riches, y compris la Royauté, fortement soupçonnée d’être l’un des principaux actionnaires de la Banque d’Angleterre, on utilise une part énorme et croissante de nos salaires qui nous sont volés sous la forme d’impôts directs et indirects. Le cycle se poursuit au fil des décennies et des siècles.

« L’intérêt a toujours été le principal instrument du Pouvoir de l’Argent. Il a pris le contrôle de la planète en déclenchant des guerres, en finançant les deux camps et en endettant lourdement les gouvernements. L’intérêt est un transfert de richesse des 80% les plus pauvres vers les 10% les plus riches. Les chiffres globaux ne sont pas connus, mais en Allemagne, un milliard de dollars par jour est payé par les 80% les plus pauvres. Si l’on extrapole à l’échelle mondiale, cela signifie que la ploutocratie draine entre 5 et 10 trillions de dollars par an ».

Les pièces de monnaie et les billets de banque ne représentent toutefois qu’environ 3% de la masse monétaire totale. Les 97% restants sont créés par les banques commerciales sous forme de prêts, aujourd’hui par la saisie astucieuse de chiffres sur un écran d’ordinateur, et historiquement par une comptabilité astucieuse. Toutes ces actions s’accompagnent bien sûr d’une dette intégrée sous la forme d’intérêts à payer.

Lorsqu’une banque accorde un crédit, elle augmente simplement du montant du prêt le solde des dépôts de l’emprunteur à la banque. L’argent n’a pas été précédemment versé à la banque par qui que ce soit, et n’a pas été retiré du dépôt de quelqu’un d’autre. C’est de l’argent tout neuf que la banque a créé pour que l’emprunteur puisse l’utiliser. Les banques commerciales sont leur unique source de financement. Chaque dollar en circulation, qu’il s’agisse d’argent liquide ou de crédit, doit être emprunté. Les banques prospèrent si elles produisent suffisamment de fausse monnaie; dans le cas contraire, elles périssent.

Il ne fait aucun doute que nous ne disposons pas d’un système monétaire fiable. L’effroyable absurdité de notre état d’impuissance est presque incroyable dès lors que l’on comprend parfaitement la situation, mais c’est pourtant bien le cas. C’est le sujet le plus important que toute personne intelligente puisse explorer et étudier.

[…]

« Le capital doit se protéger de toutes les manières possibles, à la fois par association et par législation. Les dettes doivent être recouvrées, les hypothèques saisies aussi rapidement que possible. Lorsque, par le biais de la loi, les gens du peuple perdront leurs maisons, ils deviendront plus dociles et plus faciles à gouverner par la puissance du gouvernement appliquée par un pouvoir central des riches sous l’égide de financiers de premier plan. Ces vérités sont bien connues de nos grands hommes, aujourd’hui engagés dans la formation d’un impérialisme qui gouvernera le monde. En divisant les électeurs grâce au système des partis politiques, nous pouvons les amener à dépenser leur énergie en luttes intestines sur des questions sans importance. C’est ainsi, par une action discrète, que nous pouvons nous assurer ce qui a été si bien planifié et si bien accompli ». – Montagu Norman, gouverneur de la Banque d’Angleterre, s’adressant à l’Association des banquiers des États-Unis, New York, 1924.

EN FAIT, LA BANQUE N’ÉTAIT PAS UNE IDÉE ÉLITISTE

L’histoire de la monnaie moderne commence il y a environ 500 ans, dans l’Europe de la Renaissance. À cette époque, le papier-monnaie n’existait pas et l’essentiel de l’argent liquide était constitué de pièces d’or et d’argent. Les pièces d’or étaient, bien sûr, extrêmement résistantes et avaient une valeur intrinsèque en elles-mêmes (contrairement à la monnaie papier), mais elles étaient également lourdes, difficiles à transporter en grandes quantités et, si elles n’étaient pas stockées correctement, elles étaient susceptibles d’être volées. Les gens se mirent à déposer leurs pièces chez des orfèvres qui disposaient de chambres fortes et de coffres-forts où ils pouvaient les conserver en toute sécurité sans craindre qu’elles soient volées. Ces orfèvres proposaient des reçus en papier qui pouvaient être échangés à tout moment contre la quantité d’or spécifiée. Au fil du temps, ces reçus pratiques finirent par remplacer dans les échanges les monnaies moins pratiques qu’ils représentaient.

Les orfèvres finirent par se rendre compte que seuls 10% environ de ces reçus étaient convertis en or réel à quelque moment que ce soit. Tant qu’ils veillaient à conserver 10% de la valeur de leurs prêts en cours sous forme d’or physique pour répondre à toute demande, ils pouvaient prêter l’or qu’ils avaient en leur possession avec intérêt, encore et encore. C’est ainsi que fut créé le papier-monnaie (billets), qui était en fait un reçu pour un prêt d’or. Désormais, les billets et les prêts pouvaient représenter jusqu’à dix fois la valeur de l’or qu’ils possédaient. Le même or pouvait être donné dix fois à un taux d’intérêt de 20%, soit un rendement annuel de 200% sur un or qui n’existait même pas! Les orfèvres, naturellement soucieux de ne pas se surendetter, s’enrichirent considérablement aux dépens du public sans créer la moindre valeur réelle. Seul le capital était crédité dans la masse monétaire, ce qui entraîna une dette qui dépassa finalement la richesse combinée de la population. Cell-ci dut continuer à emprunter du papier-monnaie pour combler l’écart, ce qui amena la richesse des villes et au final celle de la nation à être canalisée vers les coffres des orfèvres, que l’on désigna alors sous le nom de « banquiers », tandis que la nation s’enfonçait de plus en plus dans la dette.

L’ÉLITE ENTRE EN SCÈNE

La Banque d’Angleterre a été créée en 1694 à la suite d’un coup d’État planifié de longue date par « l’élite », dans le but de s’approprier le processus de création monétaire à l’échelle mondiale. Sa succursale néerlandaise a été la première à établir une banque « centrale » pour faciliter cette escroquerie. En 1609, la Banque d’Amsterdam, la première « banque centrale » au monde, fut créée. Guillaume III, le prince d’Orange, et son épouse Marie (la fille de James), furent assis sur le trône britannique en 1688 après que le roi catholique James II ait été usurpé par les forces de l’élite anglaise travaillant avec leurs homologues hollandais. Cela fut rendu possible par le fait que la force d’invasion de Guillaume débarqua dans le port de Brixham, dans le Devon, au sud-ouest de l’Angleterre, et que des protestants anglais de haut rang, y compris le Parlement, soutinrent ses prétentions au trône. Finalement, Jacques fut contraint de fuir en France, où il resta jusqu’à sa mort en 1701.

Cependant, l’un des mandats de Guillaume, une fois devenu roi d’Angleterre, fut d’instaurer les mêmes conditions économiques précaires que celles qui avaient prévalu en Hollande pendant près d’un siècle. La Banque d’Angleterre fut créée et établie en 1694 suite à la revendication de l’élite bancaire d’avoir la possibilité d’obtenir en Angleterre les mêmes profits scandaleux que ceux dont disposaient les banquiers hollandais. Le mécène de ce plan était le banquier marchand londonien William Paterson, membre de la dynastie mérovingienne et initié à l’Ordre d’Orange. En 1693, il soumit au Parlement une pétition demandant la création d’une société chargée de prêter au gouvernement un million deux cent mille livres à un taux d’intérêt de 8%, ainsi que le pouvoir d’émettre des billets. Cette demande fut dûment autorisée après un « grand débat », et la construction de l’institution qui a contribué plus que toute autre à l’esclavage économique des peuples, non seulement en Grande-Bretagne mais aussi dans le reste du monde, commença après quelques faux départs et quelques contestations vite étouffées. (Nous savons tous que les Britanniques sont en fait les champions du monde de l’esclavage classique et des atrocités contre l’humanité, mais nous en reparlerons un autre jour).

« Je ne me soucie pas de savoir quelle marionnette sera placée sur le trône d’Angleterre pour diriger l’Empire sur lequel le soleil ne se couche jamais. L’homme qui contrôle la masse monétaire de la Grande-Bretagne contrôle l’Empire britannique, et je contrôle la masse monétaire britannique. » Nathan Mayer Rothschild

Quelqu’un pourrait-il m’expliquer pourquoi un gouvernement accepterait de telles conditions et renoncerait ainsi à la possibilité d’émettre de la monnaie à taux zéro, tout en acceptant de payer à une société privée 8% d’intérêts sur un prêt dont il n’aurait même pas eu besoin s’il avait conservé la possibilité d’émettre sa propre monnaie? Il n’y a qu’une seule explication, et celle-ci, à mon avis, en dit long.

« Le système bancaire moderne fabrique de l’argent à partir de rien. Ce processus est peut-être le tour de passe-passe le plus stupéfiant jamais inventé. Le système bancaire a été conçu dans l’iniquité et est né dans le péché. Les banquiers possèdent la terre. Prenez-la leur, mais laissez-leur le pouvoir de créer de l’argent et, d’un simple trait de plume, ils créeront suffisamment d’argent pour la racheter. Retirez-leur ce grand pouvoir et toutes les grandes fortunes comme la mienne disparaîtront, car ce serait alors un monde meilleur et plus heureux à vivre. Mais si vous voulez continuer à être les esclaves des banquiers et à payer le coût de votre propre esclavage, alors laissez les banquiers continuer à créer de l’argent et à contrôler le crédit ». – Sir Josiah Stamp, Président de la Banque d’Angleterre et deuxième homme le plus riche de Grande-Bretagne dans les années 1920.

Merci, Josiah. Dans l’Amérique du XIXe siècle, les banques privées créaient leurs propres billets de banque pour des montants allant jusqu’à dix fois leurs réserves d’or réelles, en adoptant le modèle de la Banque d’Angleterre. Ce type de système bancaire est appelé « réserve fractionnaire », ce qui signifie qu’une partie seulement du total des dépôts gérés par une banque est conservée en réserve pour répondre aux demandes des déposants. Cependant, les « ruées » sur les banques, au cours desquelles les clients exigèrent tous leur or en même temps, conduisirent à la faillite de plusieurs banques et créèrent une instabilité dans le système. La Réserve Fédérale étant une organisation privée, elle a le pouvoir de produire des billets de la Réserve Fédérale et de les prêter au gouvernement américain moyennant un intérêt. En conséquence, le système de billets de banque privé fut intégré en un système de billets de banque national en 1913. Ces billets, intialement imprimés uniquement pour couvrir les coûts, devinrent finalement la base de la monnaie nationale américaine.

La Banque des États-Unis fut une tentative, au début du XIXe siècle, d’établir une banque centrale aux États-Unis avant la création de la Réserve Fédérale. Voici quelques commentaires formulés à ce sujet par le président américain de l’époque.

« Messieurs, j’ai des hommes qui vous observent depuis longtemps et je suis convaincu que vous avez utilisé les fonds de la banque pour spéculer sur les denrées alimentaires du pays. Lorsque vous gagniez, vous vous répartissiez les bénéfices et lorsque vous perdiez, vous les imputiez à la banque. Vous me dites que si je retire les dépôts de la banque et si j’annule sa charte, je ruinerai dix mille familles. C’est peut-être vrai, messieurs, mais c’est votre péché! Si je vous laisse faire, vous ruinerez cinquante mille familles, et ce sera mon péché! Vous êtes un repaire de vipères et de voleurs. J’ai l’intention de vous mettre en déroute, et par le Dieu éternel, je vous mettrai en déroute. Si seulement les gens comprenaient l’abjecte injustice de notre système bancaire et monétaire, il y aurait une révolution avant demain matin ». – Andrew Jackson, ancien président des États-Unis1

La Loi sur la Réserve Fédérale a été promulguée par le Congrès aux petites heures du 23 décembre 1913, sans aucune opposition car la majorité des membres du Congrès étaient déjà partis pour leurs vacances de Noël. La Loi elle-même était un document volumineux qui n’avait été présenté au Congrès que la veille, ce qui ne laissait guère le temps d’en faire une lecture superficielle, et encore moins un examen approfondi.

« Je suis un homme très malheureux. Sans le vouloir, j’ai ruiné mon pays. Une grande nation industrielle est contrôlée par son système de crédit. Notre système de crédit est concentré. La croissance de la nation et toutes nos activités sont donc entre les mains d’un petit nombre d’hommes. Nous sommes devenus l’un des gouvernements les plus mal dirigés, l’un des plus complètement contrôlés et dominés du monde civilisé. Ce n’est plus un gouvernement fondé sur la libre opinion, ni sur la conviction et le vote de la majorité, mais un gouvernement fondé sur l’opinion et la contrainte d’un petit groupe d’hommes dominants ». – L’ancien président des États-Unis, Woodrow Wilson, plusieurs années après avoir signé la création de la Réserve Fédérale2

L’INFLATION EST UN VOL

Le terrible résultat de l’augmentation de la masse monétaire est que les prix augmentent parce qu’il faut perpétuellement imprimer plus d’argent pour payer les intérêts sur l’argent qui existe déjà. Ce n’est ni bon pour les pauvres, ni mauvais pour les riches, et ce n’est pas non plus transitoire. Il s’agit d’un processus continu qui dure depuis des siècles et qui n’est qu’une retombée inutile d’un système profondément répugnant. Plus d’argent en concurrence pour les mêmes produits fait monter les prix, la valeur de la monnaie baisse et les consommateurs perdent la valeur de leur épargne et de leur argent. L’élite financière accuse alors le gouvernement de gonfler la monnaie pour soutenir ses dépenses extravagantes. Les pièces de monnaie sont la seule forme d’argent que les gouvernements émettent réellement. Il s’agit d’un joli petit tour de passe-passe utilisé par les banquiers et leurs caniches médiatiques.

Le dollar au XXème siècle – graphique chronologique du changement de pouvoir d’achat du dollar américain

  • Création de la Réserve Fédérale
  • Première Guerre mondiale
  • Hyper-inflation en Allemagne
  • Krach de 1929
  • Dépression des années ’30
  • Interdiction de la détention d’or aux États-Unis
  • Deuxième Guerre mondiale
  • Guerre de Corée
  • Guerre du Vietnam
  • Découplage du dollar à l’or
  • Détention d’or à nouveau légale
  • Guerre « froide »
  • Opération « Tempête du Désert »
  • Guerre contre le terrorisme

La dette nationale des États-Unis s’élève à 31 trillions de dollars à l’heure où j’écris ces lignes, et elle augmente rapidement. Comment ces fonds seront-ils un jour remboursés? Ils ne pourront jamais l’être, de quelque manière que ce soit, c’est un fait incontestable. Cela donne donc aux banquiers centraux le « droit » de faire pratiquement ce qu’ils veulent de nos vies parce que nous et notre progéniture sommes endettés envers eux et sommes leurs esclaves pour toujours.

Cela peut paraître peu, mais cette liasse contient 1 million de dollars. Elle est en fait suffisamment petite pour que vous puissiez la tenir dans vos mains et l’emporter.

100 millions de dollars, c’est un peu plus respectable, même si 1 million de dollars semble un peu terne. Il tiennent commodément sur une palette classique.

Et puis, 1 milliard de dollars. Vous devriez être en mesure de le transporter en camion.

Voyons maintenant UN TRILLION de dollars. C’est le chiffre qui a fait couler beaucoup d’encre ces derniers temps. Un million de millions et un millier de milliards font un trillion. Il s’agit d’un 1 suivi de 12 zéros.

Nous en sommes maintenant à 1 000 000 000 000 $. (Les palettes sont empilées en double).

Par conséquent, si vous entendez quelqu’un dire en passant l’expression « un trillion de dollars/livres », il se réfère à ce montant.

Par ailleurs, seriez-vous surpris d’apprendre que la durée de vie moyenne d’un être humain est nettement inférieure à un million d’heures (657 000 heures pour une durée de 75 ans), même si des chiffres d’un million et de beaucoup plus sont couramment évoqués de nos jours? Ou, autrement dit, un peu moins de 40 millions de minutes. Et moins de 0,75 million de jours se sont écoulés depuis la prétendue naissance du Christ, il y a plus de 2000 ans.

Ou encore, mettons-nous dans une cave avec la dette nationale américaine actuelle en billets d’un dollar. On vous dit alors que vous êtes libre de conserver tous les billets que vous signez. Pour faciliter les choses, disons qu’il vous faut une seconde pour signer un billet, que vous ne mangez pas, que vous ne dormez pas et que vous ne faites rien de ce que la nature vous demande de faire. Au bout de 20 minutes, vous avez assez d’argent pour acheter un MacBook Pro haut de gamme. Après 11 jours et 13 heures, vous aurez dépassé votre premier million. Après environ 31 ans, vous êtes milliardaire. Et après 982351 ans (et ce n’est pas une faute de frappe), vous possédez la dette nationale américaine actuelle. Je vous laisse faire le calcul pour savoir de combien elle aura augmenté pendant cette période.

Comme nous l’avons vu maintenant, les banques ne créent pas les intérêts payables sur leurs soi-disant « prêts » au gouvernement, mais seulement le principal sous forme de monnaie. Étant donné que l’on imprime davantage d’argent uniquement pour payer les intérêts dus aux banques, le déficit ne cesse de se creuser. En fait, cela signifie que la masse monétaire doit doubler tous les 14 ans pour faire face aux seuls paiements d’intérêts. Une livre prêtée à 5% devient deux livres en 14 ans. En d’autres termes, tous les 14 ans, les banques volent au gouvernement autant d’argent en paiements d’intérêts qu’il y en avait dans l’ensemble de l’économie au cours des 14 années précédentes! Il s’agit sans doute du plus grand tour de passe-passe jamais joué à une race humaine vulnérable. C’est la véritable cause de l’inflation, ce qui peut expliquer pourquoi une miche de pain qui coûte aujourd’hui environ 1,00 $ ne coûtait que 2 cents en 1911. Pourtant, les gens pensent que c’est normal et que c’est « la façon dont notre monde fonctionne ».

« Les banquiers mondiaux, en actionnant quelques leviers simples qui contrôlent les flux d’argent, peuvent faire ou défaire des économies entières. En contrôlant les communiqués de presse sur les stratégies économiques qui façonnent les tendances nationales, l’élite du pouvoir est en mesure non seulement de resserrer son emprise sur la structure économique de ce pays, mais aussi d’étendre ce contrôle au monde entier. En toute logique, les détenteurs d’un tel pouvoir voudraient rester dans l’ombre, invisibles aux yeux du citoyen moyen. » – Aldous Huxley

La source absolue de la pauvreté et de la servitude économique mondiales qui caractérisent l’état déplorable du globe aujourd’hui est la confiscation de la capacité à produire de l’argent par ces super-criminels. Ces élites sont responsables d’un génocide généralisé puisqu’elles contrôlent les ressources mondiales, tuent des millions de personnes par la famine et la maladie, et exercent un contrôle total sur nous tous. Cette réalité ne peut en aucun cas être niée.

« La Réserve Fédérale a été créée en 1913 pour financer les deux parties des deux guerres mondiales qui ont suivi. En d’autres termes, ces guerres ont été financées par le crédit du contribuable américain. En plus d’en tirer profit, les banquiers illuminati utilisent la guerre pour nous asservir par la dette, provoquer des changements sociaux et consolider leur pouvoir. » – Dr. Henry Makow, chercheur et auteur, 2011

Alors, où sont les manifestations de rue, les intrusions publiques à la Banque d’Angleterre, à la BCE à Francfort, à la Réserve Fédérale de New York, et les appels véhéments à la réforme financière lancés par la presse et le gouvernement? Malheureusement, nous sommes trompés et contrôlés en pensant que tout va bien et que le système actuel est « la seule voie » via un procédé de contrôle de l’esprit connu sous le nom d’éducation publique, la propagande diffusée par les médias et le syndrome d’autosurveillance qui affecte l’ensemble de la population, du haut en bas de l’échelle. Nous sommes conditionnés à penser que nous sommes impuissants et incapables de modifier de manière significative la « façon dont le monde fonctionne », même lorsqu’il devient évident que quelque chose ne va pas. Il n’y a rien à voir, Messieurs, dames. Retournez au travail. Tout est en ordre.

Les banques sont autorisées à créer de l’argent à partir de rien et à percevoir des intérêts pour ce tour de passe-passe, pendant que les masses doivent les gagner. Le droit de créer de l’argent, c’est le droit à l’effet de levier, et c’est ce levier financier qui les hisse au sommet de la pyramide. Sans cet effet de levier, ils ne seraient pas en mesure de créer de telles quantités de richesse et de contrôle. La seule façon de détruire ce système et de créer une monnaie équitable est de sensibiliser les gens. Une fois qu’ils comprennent le « truc », tout le château de cartes commence à s’effondrer.

À tout le moins, et si l’idée de décentraliser la monnaie est trop farfelue pour vous parce que vous aimez quand même que quelqu’un vous gouverne et vous contrôle, les gouvernements doivent récupérer leur autorité légale d’imprimer et d’émettre de l’argent afin de résoudre cette situation. En supprimant le système de réserves fractionnaires, les banques seraient obligées de ne prêter que leurs liquidités disponibles. Les gouvernements pourraient rembourser immédiatement toutes les dettes nationales, les impôts pourraient être réduits, voire supprimés, et des programmes sociaux soutenus par le gouvernement pourraient être mis en place, bénéficiant à l’ensemble de la population plutôt qu’à une petite clique d’élites. Malgré ce que l’on croit généralement, tous nos impôts servent à rembourser la dette des banques, et non à fournir des services au grand public.

Le récit véridique d’une affaire judiciaire importante qui s’est déroulée dans le Minnesota, aux États-Unis, en 1969, mérite d’être raconté. Il n’est guère surprenant que l’affaire First National Bank of Montgomery v. Daly n’ait pas fait l’objet d’une large couverture à l’époque ou par la suite. Pourtant, ce drame judiciaire épique est d’une importance cruciale. L’avocat Jerome Daly, le défendeur, avait déclaré, lorsque la banque avait tenté de saisir son hypothèque de 14 000 dollars, qu’il n’y avait pas eu de « contrepartie » au prêt. La contrepartie est un terme utilisé dans le jargon juridique pour désigner « l’élément échangé » et constitue un élément essentiel de toute transaction juridique. M. Daly avait fait valoir que la banque n’avait fourni aucune contrepartie pour son prêt parce qu’elle avait effectivement « créé » l’argent par la comptabilité, « à partir de rien », et qu’elle n’avait donc pas subi de perte (autre point juridique essentiel) du fait de son refus ou de son incapacité à rembourser l’argent.

Le juge associé William Drexler, qui enregistrait les débats, n’avait accordé aucun crédit à la défense jusqu’à ce que M. Morgan, le président de la banque, vienne témoigner à la barre. Lors du contre-interrogatoire, Morgan a reconnu avec désinvolture que la banque fabriquait fréquemment de l’argent « à partir de rien » pour tous ses prêts et hypothèques, et qu’il s’agissait en fait d’une procédure standard dans toutes les banques, à la grande surprise de Drexler et de toutes les autres personnes présentes. Martin Mahoney, le président du tribunal, déclara: « Pour moi, cela équivaut exactement à de la fraude », ce à quoi les membres du jury acquiescèrent et murmurèrent leur accord. Dans son résumé de l’affaire, le juge Mahoney déclara ce qui suit: « Le plaignant (la banque) a admis avoir créé, avec la Banque de Réserve Fédérale de Minneapolis, la totalité des 14 000,00 $ en argent et en crédit dans ses propres livres, par une écriture comptable. Il s’agit de la contrepartie utilisée pour soutenir la note de crédit datée du 8 mai 1964 et l’hypothèque de la même date. L’argent et le crédit sont apparus pour la première fois lorsqu’ils ont été créés. Morgan a admis qu’il n’existait aucune loi ou statut des États-Unis lui donnant le droit d’agir de la sorte. Une contrepartie légale doit exister et être offerte à l’appui de la note ».

Le défendeur a conservé sa maison après que le tribunal eut rejeté à juste titre la tentative de saisie de la banque. Cette affaire aurait dû avoir des ramifications gigantesques. Une décision déclarant que les prêts des banquiers n’ont aucune valeur aurait pu entraîner l’effondrement des systèmes financiers et bancaires dans le monde entier s’il s’avérait qu’ils accordaient des crédits sans contrepartie plutôt que de les garantir avec de l’argent qu’ils possédaient réellement dans leurs coffres et qu’ils avaient été autorisés à émettre.

Plus tard, Jerome Daly déclara dans un article de presse local: « Cette décision, juridiquement fondée, a pour effet de déclarer nulles et non avenues toutes les hypothèques privées sur les biens immobiliers et personnels, ainsi que toutes les obligations américaines et nationales détenues par la Réserve Fédérale, les banques nationales et les banques d’État. Cela équivaut à une émancipation de cette nation de la dette personnelle, nationale et étatique prétendument due à ce système bancaire. Chaque Américain se doit d’étudier cette décision avec circonspection, car la question de la liberté ou de l’esclavage en dépend ».

Bien que le jugement n’ait jamais été formellement contesté ou annulé, il n’est peut-être pas nécessaire de mentionner qu’il n’a absolument pas influencé la pratique acceptée. Sans surprise, le juge Mahoney est décédé moins de six mois après le procès dans un « accident » très suspect impliquant une sorte d’empoisonnement. Le juge Mahoney avait juré de poursuivre et de dénoncer la banque. Toute personne qui s’oppose à ces individus et à leurs méthodes diaboliques doit être écartée.

Depuis que cette affaire a créé un précédent, de nombreux autres défendeurs ont tenté de faire annuler des prêts et des hypothèques en utilisant la même défense que Daly, mais sans grand succès. En fait, un juge a déclaré officieusement: « Si je vous autorisais à faire cela, vous et tous les autres feriez tomber le système. Je ne vous permettrai pas d’entrer dans la banque par la porte arrière. Nous n’entrerons pas dans cette pièce derrière ce rideau! »

À ce stade de la narration, il est également important de souligner que le fonctionnement de la production monétaire a été conçu de telle sorte que, croyez-le ou non, l’acte de signer une demande d’hypothèque ou de prêt crée en réalité la quantité d’argent demandée. La seule différence réelle est que si la société de financement détermine que le demandeur a une cote de crédit suffisamment élevée pour qu’elle prenne le risque de prêter l’argent qui a été initialement créé par le processus, elle peut également profiter des intérêts qui en résultent. Si la demande est rejetée, il ne reste plus que le capital. C’est pourquoi il n’est pas du tout « immoral » de ne pas rembourser des hypothèques ou des prêts. L’argent n’aurait pas été créé si la demande n’avait jamais été introduite. Pour être clair, c’est la signature du demandeur qui crée l' »argent » à partir de rien.

Maintenant, certains petits malins « éduqués » vous diront: « les banques ne créent pas de l’argent « à partir de rien ». C’est ridicule. Elles le créent à partir d’actifs! Et les actifs, c’est loin d’être rien! » Oui, les actifs qui leur appartiennent et qui ont déjà été payés avec de l’argent qui n’existait pas vraiment sont maintenant utilisés comme quelque chose qui a de la valeur pour justifier la création d’argent. Peu importe la manière de procéder ou de présenter les choses: de l’argent est créé à partir de rien. Et même si l’on considère l’histoire des actifs comme convaincante, l’argent continue d’être créé et le cycle se poursuit.


« Lorsqu’un groupe d’hommes appartenant à une civilisation adopte le pillage comme mode de vie, il finit par construire un cadre juridique qui l’autorise et un code moral qui l’élève. » – François Bastiat (1801-1850)

Certains pensent que les Banques de Réserve Fédérale sont des branches du gouvernement américain. Ce n’est pas le cas. Ce sont des monopoles privés du crédit qui exploitent les citoyens américains au profit de leurs propres prêteurs riches et prédateurs, ainsi que de leurs escrocs nationaux et étrangers. Le plus grand crime de l’histoire a été la mise à sac des États-Unis par la Fed. La Fed a tout fait pour dissimuler son autorité, mais en réalité, elle a détourné le pouvoir exécutif. Elle dirige tout dans ce pays et toutes nos relations internationales. Les gouvernements peuvent être faits ou défaits à volonté.

Pour démasquer ce crime, où sont les légions de législateurs, d’économistes, de spécialistes financiers, d’analystes de la City et d’experts financiers des médias? S’il n’y en a pas, c’est parce que la majorité d’entre eux ne voient pas plus loin que le bout de leur nez et qu’ils se contentent d’accepter le battage publicitaire puissant et persuasif qui leur est servi d’en haut par le moulin à propagande qu’est notre soi-disant système « éducatif » et les médias complices.

Ceux qui en ont déjà entendu parler croient qu’il s’agit d’une stupide théorie du complot avancée par des « fous » ou des « gauchistes tarés » ou des « théoriciens du complot de droite », et le petit nombre de ceux qui sont vraiment au courant se taisent pour ne pas compromettre leur propre position bien rémunérée ou même parce qu’ils craignent pour leur vie et celle de leurs proches. Tel est le fonctionnement réel du système. En tant qu’espèce, nous devons tous nous « réveiller » rapidement.

L’élite a au final utilisé ce faux système monétaire pour créer un environnement idéal pour tromper les gens et les inciter à adopter un matérialisme extrême, une autre épouvantable escroquerie. Et leur prochain chef-d’œuvre est juste au coin de la rue: les MNBC [Monnaie Digitale de Banque Centrale, voir ici]. L’asservissement ultime de chaque être humain.

La Fed a déclaré qu’elle ne renflouerait pas les banques, mais que tous les déposants seraient remboursés. Y compris ceux dont les dépôts de plus de 250 000 dollars sont garantis par la FDIC. Cependant, ma théorie est que ces dépôts seront remboursés par une MNBC américaine.

En conclusion: si vous travaillez pour une banque, je regrette de le dire, vous êtes un criminel – ou du moins complice de l’un des plus grands crimes contre l’humanité.

Le véritable pouvoir de façonner ce monde a toujours été entre vos mains.
Faites le bon choix.


  1. Jackson survécut à une tentative d’assassinat lorsque l’arme de l’assassin potentiel s’enraya peu de temps après avoir fait cette déclaration et l’annulation de la Banque des États-Unis qui s’ensuivit. Personne ne fut arrêté.
  2. Depuis que cette prétendue citation est devenue populaire, les vérificateurs de faits se sont empressés de dire qu’il était faux que Wilson ait jamais dit cela ou que la citation avait été mal interprétée. Je vous laisse décider ce que vous voulez croire, honnêtement je m’en fiche un peu.

Édition du dimanche – spéciale nettoyage de printemps.

Un escalier se balaie en commençant par le haut.

Proverbe roumain

J’ai assez peu publié ces derniers temps, à cause d’un truc bizarre qui porte en fait un nom: « information overload » ou surcharge informationnelle. Plus de mille onglets ouverts sur mon navigateur. C’est donc le moment de faire un sérieux tri, pour éviter à mes lecteurs le même effet.

Avant tout, prudence! C’est officiel: le passage à l’heure d’été augmente (de 8%!) les risques de crise cardiaque et d’AVC. Heureusement, ce risque supplémentaire ne dure que deux jours. Donc pas d’effort inconsidéré avant mardi matin. Pensez à votre santé.

Je ne sais pas, moi. Une grève?


À mes amis et lecteurs français

https://www.bobmoran.co.uk/other-work/encore-original-artwork

La nouvelle la plus importante, c’est évidemment la grève en France. C’est d’ailleurs bien plus qu’une grève, mais je ne vous apprends rien.

Apparemment, la révolte commence à faire tache d’huile sur la Belgique et l’Allemagne – dont on va parler un peu plus bas. C’est assez impressionnant.

C’est mon épouse (française) qui me tient au courant de la situation, en consultant les infos disponibles sur le Net, et même sur certains média mainstream (!), où de nombreux commentateurs font le boulot bien mieux que je ne pourrais le faire.

J’écris donc ceci juste pour, selon la formule consacrée, réaffirmer mon soutien aux Français. Et aussi leur dire ce qui suit.

La France, j’y suis souvent allé et j’en ai beaucoup de souvenirs, dont un que j’ai déjà évoqué ici, où la police parisienne m’avait tiré d’une situation très risquée. De braves gens, à l’époque. Moins maintenant.

La France, j’y ai des souvenirs de ma famille, de celle de mon épouse. De paysages, de gens, de tranches de vie. Et un qui me revient souvent, pour une raison que j’avais eu jusqu’à présent du mal à définir. C’était à l’occasion d’une halte dans un relais d’autoroute. Il y avait là de nombreuses petites familles françaises, qui soufflaient un peu, se restauraient, flânaient. Ce qui m’avait frappé, c’étaient les hommes. Bien bâtis, leur silhouette typique taillée en V, pas forcément grands mais qui dégageaient une force à la fois calme et intimidante et croyez-moi, je ne suis pas vite impressionné – malgré ma tête de clown, c’est généralement moi qui impressionne. Là, je voyais un peuple qui vivait paisiblement sans rien demander à personne. Des hommes qui voulaient qu’on leur foute la paix, en somme. Des gens qu’il vaut mieux ne pas trop emmerder.

Je sais aujourd’hui mettre des mots sur ce que j’ai vu ce jour là, et qui défile maintenant dans les rues. Ce que j’ai vu, c’est l’âme d’une nation.

… et alors, l’économie?

J’avais prévu de publier quelques articles sur l’économie, éventuellement la suite de celui-ci. Cette deuxième partie ne traitant quasiment que de crypto-monnaie, je laisse tomber parce que 1) je n’y connais rien, et ne sais dont pas juger de la validité de ces monnaies et 2) ce n’est tout simplement pas le moment. De toute manière, une monnaie virtuelle qui dépend totalement du réseau Internet ne me semble pas une très bonne idée. Internet est un outil du renseignement depuis le début, comme le rappelle un article de Tessa Lena que j’ai à traduire.

Je mets aussi provisoirement en suspens la transcription promise de la vidéo de John Titus, très intéressante mais également un peu trop technique pour l’heure.

Je traduirai par contre celui-ci, à la fois très basique et didactique, qui pourra servir à expliquer à ceux qui abordent le sujet – notamment la jeune génération – à saisir l’enjeu premier de l’économie, à savoir le contrôle de la monnaie par les banques centrales.

À ce propos, vous savez sans doute que Christine Lagarde, actuelle Présidente de la Banque Centrale Européenne, s’est fait piéger comme une lycéenne par un type très habile et assez rigolo, qui s’est fait passer pour Zelensky lors d’un appel Zoom de vingt minutes. On apprend finalement assez peu de choses de ce qu’elle balance – à son insu – le principal étant que l’euro numérique est prévu pour le mois d’octobre, et que la surveillance des dépenses individuelles ne toucherait que les sommes au-dessus de 300, 400 euros. Ce qui m’a le plus étonné, c’est son côté finalement bienveillant, à vouloir opposer une monnaie européenne aux futures crypto-monnaies de Amazon et consorts, à vouloir modérer l’inflation, à regretter les augmentations de prix de l’alimentation. Contrairement à la plupart des analystes « alternatifs », je ne vois pas Mme Lagarde comme le Diable en personne. Son côté atlantiste ne me la rend pas très sympathique mais elle est extrêmement compétente et fait très bien son boulot.

Le problème, c’est son boulot. Elle dirige une banque centrale.

Initiales BBB

Yoepie! le BBB – pour BoerBurgerBeweging (Mouvement citoyen fermier), le parti politique néerlandais qui défend le droit des fermiers contre leur éviction par leur gouvernement – vient de faire un score historique (plus de 30%) aux élections du Conseil Provincial! C’est une grande victoire démocratique!

Euh, non.

Comme l’explique ici Michael Yon et ici Eva Vlaardingerbroek (un beau brin de fille), le BBB est en fait une saloperie de plus dans l’arsenal de l’opposition contrôlée, qui n’en a rien à caler des fermiers et adopte le discours frauduleux de l’ennemi sur la nocivité de l’azote, pour en faire un sujet de négociation. C’est un faux parti « conseillé » (comme dans « cabinet de conseil », suivez mon regard) par un machin nommé Remarkable, un bureau de consultance dont vous trouverez la liste des clients ici – en résumé, le who’s who de Big Ag et Big Pharma.

Thierry Baudet rappelle ici:

Soutenue par la presse, Caroline van der Plas a le vent en poupe et s’est assurée un nombre improbable de sièges.

C’est impressionnant, mais aussi inquiétant. Car son parti soutient la ligne du cartel sur tous les points essentiels. En effet, BBB est favorable à la transition énergétique, au rachat des agriculteurs, à l’UE, à la guerre en Ukraine et aux accords arc-en-ciel.

Comme l’ont relevé certains blogueurs, BBB, c’est aussi Build Back Better. Et c’est aussi, par un curieux hasard, la barrière hémato-encéphalique – Brain-Blood Barrier. Normal, ils essaient d’entrer dans votre cerveau. C’est leur métier.

Nyctereutes procyonoides

… ou chien viverin – en anglais, raccoon dog. Ce petit chien sauvage très sympa est maintenant accusé d’être le vecteur du SARS-CoV-2 par les suspects habituels: un truc appelé SAGO (Scientific Advisory Group for Origins of Novel Pathogens), organe consultatif permanent de l’OMS, dans lequel on retrouve notamment (liste complète ici) notre ami Christian Drosten, le faux docteur – surnommé le Dr Fauci allemand – qui a étonnamment séquencé le test PCR sans disposer de la séquence génomique du virus, et le Dr Supaporn Wacharapluesadee, un proche collaborateur d’EcoHealth Alliance et de Peter Daszak. Cette sensationnelle révélation zoonotique est reprise dans un article du New York Times. Rien que des gens dignes de confiance, donc.

Ach!

À ce propos, nouvel article de Robert Kogon (déjà publié ici, ici et ici), dont l’acharnement sur le rôle de l’Allemagne dans l’Opération Covid semble intarissable. On y voit une photo de Drosten en visite à l’Institut de Virologie de Wuhan en 2015, ainsi qu’une certaine Angela Merkel, également de passage à Wuhan en septembre 2019. On y apprend aussi que Wuhan dispose d’un autre laboratoire de recherche sur le gain de fonction, affilié à l’hôpital même où Mme Merkel s’est rendue ainsi qu’à l’Université de Duisburg-Essen, et que ce laboratoire se situe en fait à l’épicentre exact du premier cluster déclaré par la Chine.

Bon, c’est loin d’expliquer tout, notamment le fait que le Covid circulait déjà depuis des mois en Europe et aux États-Unis. On notera toutefois une certaine consonnance germanique dans le dossier: Drosten, Merkel, BioNTech, Schwab, von der Leyen…

Il y avait aussi, souvent cité dans le cadre du « génocide vaccinal », ce célèbre Chancelier allemand dont je ne retombe plus sur le nom, un excité cocaïnomane mis en place par les Rothschild pour détruire sa nation et la placer sous coupe de la finance internationale.

Un truc impensable en France.

Coïncidite

Parmi les centaines de publications sur le sujet, vous pouvez notamment lire cet article de ma compatriote Senta Depuydt sur l’épidémie de mort subite en Allemagne.

Ou plus simplement, vous pouvez ouvrir votre boîte aux lettres. Dans la brochure mensuelle de ma commune, à la rubrique « État Civil »:

  • trois naissances,
  • quatorze décès.

Le taux de remplacement est plutôt mal barre. Qu’à cela ne tienne, aux États-Unis on pourra bientôt fondre les catégories naissance et décès en une seule puisque…

QUATRE injections ARNm Covid pour les bébés américains avant leur dix mois

En, fait quatre au minimum. Igor Chudov explique dans cet article:

La FDA a approuvé la QUATRIÈME injection COVID pour les nourrissons. […]

Cette séquence de vaccination peut être achevée dans les quatre mois suivant le début de la vaccination à six mois. Par conséquent, un nourrisson de 10 mois pourrait recevoir quatre doses de vaccin Covid à ARNm.

Si vous pensez que quatre doses de vaccin Covid sont un peu trop pour un enfant de 10 mois, réfléchissez à ceci: toute mère assez folle pour soumettre son enfant aux vaccins Covid en recevra également pendant la grossesse et l’allaitement. […]

Comme les vaccins Covid sont transmis par le lait maternel, un bébé de 10 mois pourrait être exposé à HUIT vaccins Covid au cours de sa vie, y compris avant sa naissance.

Outre les effets indésirables sur les organes et le système sanguin, cet autre article pose la question de la fertilité future des bébés de sexe féminin, sachant que la protéine de pointe a la propriété de fusionner les cellules (syncitia) et que les oocytes (les ovules, donc) ont la plus haute proportion (95%) de récepteurs ACE2 et de TMPRSS2 (69%), auxquels se lie la protéine de pointe.

À tout hasard, je publierai un dernier article-résumé de Spartacus sur l’injection Covid, destiné à ceux qui n’auraient toujours pas compris. Mais il faut bien reconnaître que l’Opération est essentiellement terminée, les dégâts accomplis, et hormis quelques fous furieux, plus personne ne se fera injecter ce machin. La prochaine étape, c’est le retournement de veste.

C’est pas moi, c’est lui

Robert Redfield, l’ex-directeur des CDC américains a déclaré lors d’une audience devant le Select Subcommittee:

« Trois choses se sont produites dans ce laboratoire, qui sont « très inhabituelles », a déclaré le Dr Robert Redfield:

  1. « Ils ont supprimé les séquences, ce qui est très irrégulier. Les chercheurs n’aiment généralement pas faire cela ».
  2. « Ils ont fait passer le commandement et le contrôle du laboratoire d’un contrôle civil à un contrôle militaire, ce qui est très inhabituel. »
  3. « Ils ont confié à un entrepreneur le soin de refaire le système de ventilation de ce laboratoire. »

Bref, Redfield fait partie de la multitude de mauvais acteurs prêts à reconnaître tout et n’importe quoi – essentiellement, tout ce qu’on savait déjà depuis deux ans – pour tirer leur épingle du jeu, quitte à jeter leurs (ex-)associés sous l’autobus, comme on dit en anglais.

Un exemple parmi des centaines, sur le Substack de Jeff Childers:

Ensuite, sur Fox News en prime time avec Laura Ingraham, le médecin californien Michael Huang a déclaré qu’il ne recommandait plus le vaccin et s’est excusé: « Je dois m’excuser au nom de ma profession. Les médecins sont vraiment tombés sur la tête, et ils ont refusé d’écouter les patients lorsqu’ils se présentaient avec des symptômes de lésions dues aux vaccins. »

Laura a ensuite demandé: « Le gouvernement devrait-il recommander les vaccins covid … quels qu’ils soient? » Le Dr Huang a répondu avec bon sens: « Si on tombe malade, on appelle pas le CDC ou la FDA pour obtenir des recommandations […] le gouvernement devrait laisser les médecins pratiquer la médecine. »

Cette tendance est un phénomène fascinant, en particulier parce que je n’ai jamais vu un seul de ces individus prendre la direction opposée. Ce que je veux dire, c’est qu’on ne voit jamais rien du genre:

Intervieweur: Avez-vous des regrets concernant la pandémie ?

Docteur: Je regrette d’avoir été initialement opposé au masquage, mais je me rends compte aujourd’hui que si nous avions masqué un peu plus durement, un peu plus longtemps, avec quelques couches supplémentaires, nous aurions pu éviter tous ces problèmes et peut-être même apprendre à respirer sans oxygène.

Bienvenue à Marburg: son église, son centre commercial, son virus

Meryl Nass publie ceci, que je traduirai vu que ce n’est pas très long et assez amusant. Intro:

Vous avez peut-être entendu dire que le virus de Marburg faisait son apparition en Afrique de l’Ouest. Le message implicite est: « Ayez très peur ».

Juste à temps, le NIAID (l’ancien fief de Fauci) dispose d’un vaccin prêt à être testé sur de malheureux Africains, après avoir été testé sur 40 malheureux Américains. Et une fois qu’ils auront convaincu les gouvernements ou d’autres acheteurs de l’obtenir, qui touchera les royalties? Le NIAID, bien sûr. Et ses employés pourront percevoir jusqu’à 150 000 dollars par an si leur nom figure sur le brevet. C’est parfait, puisque le produit a été développé et breveté aux frais du contribuable. […]

La croisière s’amuse

Suite à la révélation de Seymour Hersh, le New York Times (lien archivé ici) et Die Zeit ont publié une nouvelle histoire, très amusante elle aussi, sur les auteurs de l’attentat contre les gazoducs russes. En fait, ça n’a rien à voir avec les États-Unis, voyez-vous. C’est une équipe de six personnes, russes ou ukrainiens, détenteurs de faux passeports, qui ont loué un yacht et posé des explosifs sur les gazoducs. Il y avait un médecin parmi eux, la plongée à cette profondeur présentant un risque pour la santé. Ils ont malheureusement négligé de bien nettoyer le yacht après eux, et y ont laissé des traces d’explosifs qui les ont trahis. Mon conseil: la prochaine fois, engagez aussi une femme d’ouvrage.

Vladimir trouve cette histoire ridicule – on le comprend:

« Je suis certain qu’il s’agit d’une ineptie complète. Une explosion de ce type – d’une telle puissance, à une telle profondeur, ne peut être réalisée que par des spécialistes, et soutenue par toute la puissance d’un État, possédant certaines technologies. »

Sputnik (accès censuré en Europe de l’Ouest, sorry) résume ainsi son point de vue:

Il a également suggéré que l’on devrait probablement se demander qui serait intéressé par la destruction de Nord Stream, notant que, théoriquement, les États-Unis auraient pu être l’une de ces entités, car un tel acte de sabotage les aiderait à couper le flux de gaz russe vers le marché européen afin que les États-Unis puissent y fournir une plus grande quantité de leur propre gaz naturel liquéfié, beaucoup plus coûteux.

Le président russe a ajouté que la réparation des gazoducs Nord Stream endommagés ne serait pas une mince affaire, mais qu’elle était probablement possible, même si elle nécessitait du temps, de l’argent et de nouvelles technologies.

Il a toutefois fait remarquer que le projet Nord Stream n’aurait d’avenir que si les partenaires européens de la Russie se souvenaient de leur propre intérêt national, car il semblerait qu’actuellement, ils fassent tout ce qu’on leur dit « depuis l’autre côté de l’océan ».

Comment ça? L’Allemagne et la France ne seraient dont pas des pays souverains? Et la démocratie dans tout ça?

Plus récemment, les autorités danoises ont trouvé un machin tubulaire près du Nord Stream 1 – encore intact – et ont invité les gestionnaires – russes – du gazoduc à assister à sa récupération. Si personne ne le réclame, il sera à eux dans un an.

Pauvres présidents

Toujours dans le registre de la farce, Vladimir a été condamné pour crime de guerre par la Cour Pénale Internationale pour avoir « déporté » 16 000 enfants ukrainiens vers la Russie. Heureusement pour lui, il n’a pas arraché les bébés de leurs couveuses pour les jeter au sol. C’est dur de voir Vladimir traité comme un paria, malgré sa mise en place de l’obligation vaccinale, de l’identité numérique, de la monnaie digitale, de l’agenda climatique – bref, de l’Agenda 2030. Pauvre Vladimir.

De son côté, Trump effectue une tournée triomphale pour préparer sa réinvestiture, ou peut-être pour un dernier tour de piste avant de finir en prison, on ne sait pas encore, pour avoir acheté le silence d’une star du porno. Pauvre Donald.

La froide réalité, c’est qu’aucun de ces gusses n’est jamais arrivé à ce poste sans être le poulain de l’un ou l’autre service de renseignement, qui les contrôle de A à Z avec quelques dossiers compromettants. Demandez donc à Ron Paul – que j’ai soutenu à l’époque, malgré que je n’ai évidemment pas de droit de vote – comment il a été écarté de la course à la présidence par cette crapule gluante de Mitt Romney. Que l’une de ces marionnettes dévie un tant soit peu de sa feuille de route et il se prend un tireur isolé, un Watergate, un souci de santé ou un malencontreux accident.

Ou le Covid.

Le débat autour de la culpabilité de Trump dans l’Opération Warp Speed – et donc sa responsabilité pour les centaines de milliers, voire les millions de victimes des injections – n’est pas encore clos aux États-Unis. Certain(e)s, comme Jaime Jessop, rappellent, à juste titre, qu’il a fait très tôt la promotion de l’hydroxychloroquine et qu’il a probablement ensuite été contraint de signer pour le programme du Ministère de la Défense. Katherine Watt ne lui laisse pas le bénéfice du doute: il n’est qu’une des deux faces de la même pièce, celle de l’usurpation du pouvoir. Il a au minimum trahi la confiance de son peuple et continue aujourd’hui à défendre les injections – « ses » vaccins.

C’est donc soit un abruti, soit un vendu. Il avait promis au début de son mandat de consulter Robert F Kennedy Jr sur les vaccins, il ne l’a jamais fait. Il a laissé en poste Anthony Fauci et Deborah Birx, dont Scott Atlas donne un aperçu saisissant de la duplicité et de l’incompétence. Il n’a tenu aucune promesse électorale et n’en tiendra aucune s’il est réélu.

En bref, ce sont les « familles » qui dirigent la haute finance, la haute finance qui dirige la CIA, la CIA qui dirige les États-Unis, et les États-Unis qui dirigent l’Europe et les pays « alignés ». Du moins encore pour quelques semaines, parce qu’à force d’embrouiller, de déboussoler et de camer à zéro leur troupeau, la CIA a bel et bien détruit son propre pays. Le tout est maintenant de ne pas les suivre dans le gouffre.

Euh, euh, euh…

Un truc intéressant à observer chez quelques épaves de la pièce de théâtre internationale: de Jens Stoltenberg à Elon Musk en passant, bien entendu, par Biden, complétement sénile, de plus en plus semblent de plus en plus souvent incapables d’aligner trois mots sans trébucher, bégayer, hésiter ou commettre quelque gaffe monumentale. Je vous ferais bien un jubilé de l’aphasie galopante de ces personnages mais euh, euh, je crains que ce soit, euh, contagieux.

Pendant les travaux, la vente continue

Pendant ce temps, la Russie autorise l’Ukraine à exporter son grain pour 120 jours supplémentaires, ce qui assurera la sécurité alimentaire « des pays ‘à revenu faible ou moyen inférieur’ comme l’Egypte, le Kenya et le Soudan » – et accessoirement, la balance commerciale ukrainienne. La Pologne va livrer quatre Mig-29 – en fin de carrière – à l’Ukraine, qui, ô surprise, « seront remplacés par des appareils sud-coréens FA-50 et des F-35 américains ». La Slovaquie leur enverra treize de ces mêmes vieux coucous (qu’elle remplacera par …), pendant que la Tchéquie passe contrat pour la livraison de tanks gonflables à 100 000 dollars la pièce. Ça fait cher le ballon mais on pourra toujours les recycler en plaine de jeux après guerre – si Vladimir veut bien renvoyer les enfants chez eux – ou les gonfler à l’hélium pour jouer une blague à la chinoise à l’aviation russe. Le Royaume Uni inclura des pilotes ukrainiens dans son programme de formation sur chasseurs: c’est pour permettre à l’Ukraine de « disposer d’une armée capable de défendre ses intérêts dans le futur » – on sait donc qu’il y a un futur pour ce pays. De son côté, Washington assure la formation de deux pilotes – sur simulateur – tout en déclarant ne pas vouloir envoyer de F-16, pour « ne pas créer une escalade du conflit », tandis que Macron déclare que côté livraison de Mirage, « rien n’est interdit« . Merci, on avait remarqué.

Ukraine, Nord Stream, énergie, etc. même plan d’entreprise: on déstocke, on casse d’un côté, on reconstruit « en mieux » de l’autre, et on soigne la facture. 411 milliards pour reconstruire l’Ukraine. Pas de quoi payer? Pas grave, on garde le pays et on l’intègre à l’UE. Ça fera des ressources à piller et des contribuables à ponctionner en plus. Business is business.

Sex and drugs and rock’n’roll

Je me demande finalement si le gars dont j’ai publié deux articles (ici et ici) ne serait pas un agent… Son insistance à me convaincre des bienfaits des drogues psychotropes semble un peu suspecte. Il avait répondu à ceci en orientant son discours vers un autre domaine, qui sert également de levier aux opérations du renseignement: le sexe.

Très bien parlons sexe, ça fait vendre.

Je viens de lire un papier de Miles, qui rejoint d’assez près ce que me dit mon épouse de la misère que vit la génération montante en Belgique, complètement déboussolée. L’Opération (c’est le cas de le dire) Transgenre qui leur est infligée d’en haut ne fait évidemment rien pour arranger la situation. Vous pouvez en (re)lire ici un témoignage, qui vient du Royaume Uni.

Question drogue, j’ai déjà plus ou moins tout dit. En tout cas assez pour passer pour un vieil emmerdeur pète-sec.

Il reste donc le rock’n’roll. Faudra un jour que je vous parle de Todd Rundgren.

En attendant, voici un échantillon de ce que j’écoute. C’est du psybient. Eh oui, en plus du rock de mes jeunes années (punk), j’écoute aussi (sur mon mp3 ou bien fort sur ma chaîne) du nu-jazz allemand – DePhazz, Club des Belugas, Dzihan & Kamien, Moca – et ça, de la musique de drogués. Voyez seulement dans quel état s’est mis cette pauvre fille dans le public! Je fais parfois ça dans mon atelier…

Attention toutefois, cette musique est dangereuse: vous accrochez, vous ne voudrez plus jamais rien écouter d’autre. C’est de la joie, c’est de la danse, c’est de la drogue.

Allez, encore un, pour la route. La souris qui mange du fromage.


Bon, c’est déjà assez long, ce sera tout pour aujourd’hui. Il reste des dizaines d’infos à traiter mais j’avais dit que je ferais un tri.

Pour conclure…

… la petite histoire du proverbe cité en début de page. Je vous garantis l’authenticité de l’anecdote.

Un de mes camarades de l’époque avait lu ce proverbe au verso de la feuille de son éphéméride. C’était le 25 décembre 1989. La date est facile à retenir: en plus d’être le jour de Noël, c’est celui où Nicolae Ceaușescu et sa délicieuse épouse furent fusillés dans une arrière-cour, après un procès expéditif où ils se virent accusés et jugés coupables de « génocide par la famine, la privation de chauffage et d’éclairage », et d’avoir causé la mort de milliers de dissidents à son régime dictatorial.

Et encore pire, selon les termes exacts de l’accusation:

Mais votre crime le plus abominable a été de détruire l’âme de la nation.

Eh oui.

À bientôt et bon courage.

Quelques études de référence.

Je publie cet article un peu aride uniquement pour les références des études qui y sont mentionnées, à l’usage de ceux qui voudraient creuser le sujet et/ou faire valoir leur droit de refuser les injections Covid-19. Ces études confirment scientifiquement ce qu’on avait déjà appris d’autres observations et études indépendantes, à savoir que:

  • il n’existe aucune justification pour l’injection aux moins de 25 ans (nonobstant d’autres études similaires sur d’autres tranches d’âge);
  • l’immunité naturelle est largement supérieure à celle induite par les injections, qui devient rapidement négative, phénomène aggravé par leur répétition;
  • les produits injectables ne répondent pas aux normes d’exigence de qualité;
  • ils favorisent l’émergence de variants;
  • ces variants échappent à l’immunité vaccinale;
  • la charge virale des personnes injectées est supérieure à celle des personnes non-injectées;
  • l’attribution au Covid des dommages au système cardio-vasculaire observés mondialement est une imposture, ce sont bien des effets secondaires des injections.

Note: j’ai traduit in extenso le texte qui figure sur le captures d’écran par souci de complétude et laissé de côté la seconde partie purement technique de l’article.

Source.


Le séquençage profond des vaccins bivalents Moderna et Pfizer identifie une contamination des vecteurs d’expression conçus pour l’amplification des plasmides dans les bactéries [extrait]

Anandamide

16 février 2023

Introduction

Alors que les universités américaines continuent de rendre obligatoires les injections exemptes de responsabilité (vaccins COVID) pour les étudiants présentant un risque limité de contracter le COVID, il devient impératif que davantage d’informations publiques soient disponibles concernant les ingrédients de ces vaccins expérimentaux. L’EMA et la TGA ont toutes deux pris note de la fragmentation de l’ARN et des tests Western Blot par frottis qui suggèrent que le processus de fabrication du vaccin manque de fidélité et de transparence. Peu après la publication des données de la TGA, Patel et al. (Pfizer) ont publié un article tentant de dissiper ces inquiétudes. Jessica Rose a couvert ce sujet ici.

Le consentement éclairé ne peut être obtenu avec des produits thérapeutiques mal caractérisés.

Nous entrons maintenant dans la troisième année du COVID et il est maintenant de plus en plus clair quels groupes démographiques sont à risque. Il a été démontré à plusieurs reprises que le groupe d’âge des étudiants (moins de 25 ans) présentait un risque très faible de contracter le COVID. Pourtant, les effets indésirables induits par le vaccin chez les étudiants de cette tranche d’âge sont plus élevés que pour tout autre vaccin jamais administré. Krug et al. ont observé un risque de 1:6250 de myo/péricardite chez les jeunes de 16-17 ans (Krug et al).

Mansanguan et al.

Manifestation cardiovasculaire du vaccin COVID-19 à base d’ARNm BNT162b2 chez les adolescents

Résumé

Cette étude porte sur la manifestation cardiovasculaire, en particulier les événements de myocardite et de péricardite, après l’injection du vaccin BNT162b2 mRNA COVID-19 chez des adolescents thaïlandais. Cette étude de cohorte prospective a recruté des étudiants âgés de 13 à 18 ans de deux écoles, qui ont reçu la deuxième dose du vaccin BNT162b2 mRNA COVID-19. Les données comprenant les données démographiques, les symptômes, les signes vitaux, l’ECG, l’échocardiographie et les enzymes cardiaques ont été recueillies au début de l’étude, au jour 3, au jour 7 et au jour 14 (facultatif) à l’aide de formulaires d’enregistrement des cas. Nous avons recruté 314 participants ; parmi eux, 13 ont été perdus de vue, ce qui laisse 301 participants pour l’analyse. Les signes et symptômes cardiovasculaires les plus fréquents étaient la tachycardie (7,64%), l’essoufflement (6,64%), les palpitations (4,32%), les douleurs thoraciques (4,32%) et l’hypertension (3,99%). Un même participant pouvait présenter plus d’un signe et/ou symptôme. Sept participants (2,33%) présentaient au moins un biomarqueur cardiaque élevé ou des évaluations de laboratoire positives. Des manifestations cardiovasculaires ont été constatées chez 29,24 % des patients, allant de la tachycardie ou palpitation à la myopéricardite. La myopéricardite a été confirmée chez un patient après la vaccination. Deux patients ont eu une péricardite suspectée et quatre patients ont eu une myocardite subclinique suspectée. En conclusion, la manifestation cardiovasculaire chez les adolescents après la vaccination BNT162b2 mRNA COVID-19 comprenait la tachycardie, les palpitations et la myopéricardite. La présentation clinique de la myopéricardite après la vaccination était généralement légère et temporaire, tous les cas se rétablissant complètement en 14 jours. Par conséquent, les adolescents recevant des vaccins à ARNm doivent être surveillés pour les effets secondaires cardiovasculaires. Enregistrement de l’essai clinique: NCT05288231.

L’ « étude thaïlandaise » (Mansanguan et al) implique des taux de risque cardiaque encore plus élevés chez les étudiants, où 29,24 % des étudiants (n=301) ont présenté des manifestations cardiovasculaires. Des études incluant 23 millions de patients nordiques ont observé un taux significatif de myocardite dans ce groupe d’âge également. Cette étude, bien que plus importante, n’était pas aussi contrôlée que l’étude thaïlandaise dans la mesure où Mansanguan et al. ont pris des mesures de base des patients et ont exploré d’autres dommages que la myo/péricardite.

Ces risques ne sont pas observés suite au C19 lui-même.

Tuvali et al.

Incidence de la myocardite et de la péricardite chez les patients non vaccinés après la vaccination par le COVID-19 – Une vaste étude basée sur la population

Résumé

La myocardite et la péricardite sont des séquelles cardiaques post-aiguës potentielles de l’infection par le COVID-19, résultant de réponses immunitaires adaptatives. Notre objectif était d’étudier l’incidence de la myocardite et de la péricardite post-aiguës liées à l’infection par COVID-19. Étude de cohorte rétrospective de 196 992 adultes après une infection par COVID-19 chez les membres des services de santé Clalit en Israël entre mars 2020 et janvier 2021. Les diagnostics de myocardite et de péricardite des patients hospitalisés ont été récupérés à partir du jour 10 après une PCR positive. Le suivi a été censuré le 28 février 2021, avec une observation minimale de 18 jours. La cohorte de contrôle, composée de 590 976 adultes présentant au moins une PCR négative et aucune PCR positive, était appariée en fonction de l’âge et du sexe. Le programme de vaccination israélien ayant été lancé le 20 décembre 2020, l’appariement temporel de la cohorte de contrôle a été calculé à rebours à partir du 15 décembre 2020. Neuf patients post-COVID-19 ont développé une myocardite (0,0046%), et onze patients ont été diagnostiqués avec une péricardite (0,0056%). Dans la cohorte témoin, 27 patients ont eu une myocardite (0,0046%) et 52 une péricardite (0,0088%). L’âge (rapport de risque ajusté [RRa] 0,96, intervalle de confiance [IC] à 95%; 0,93 à 1,00) et le sexe masculin (RRa 4,42; IC à 95%, 1,64 à 11,96) ont été associés à la myocardite. Le sexe masculin (aHR 1,93 ; IC à 95%, 1,09 à 3,41) et la maladie vasculaire périphérique (aHR 4,20; IC à 95%, 1,50 à 11,72) étaient associés à la péricardite. L’infection post COVID-19 n’a pas été associée à la myocardite (aHR 1,08; IC 95% 0,45 à 2,56) ou à la péricardite (aHR 0,53; IC 95% 0,25 à 1,13). Nous n’avons pas observé d’incidence accrue de péricardite ou de myocardite chez les patients adultes se remettant d’une infection à COVID-19.

Mots clés: COVID-19, myocardite, péricardite

Des résultats similaires sont observés dans Aquaro et al. et Sechi et al. où la myocardite dérivée du C19 n’est pas différente des taux de fond.

Aquaro et al.

Incidence des myocardites et péricardites aiguës pendant la pandémie de coronavirus 2019: comparaison avec la période prépandémique

Résumé

Contexte: Il a été proposé que la myocardite et la péricardite représentent une proportion des lésions cardiaques au cours de l’infection par le SARS-CoV-2. L’impact de la pandémie de COVID-19 sur l’incidence de cette maladie cardiaque inflammatoire aiguë n’a pas été systématiquement évalué.

Objectif: examiner l’incidence et la prévalence des troubles cardiaques inflammatoires avant et pendant la pandémie de COVID-19.

Méthodes: Nous avons comparé l’incidence et la prévalence des maladies cardiaques inflammatoires aiguës (myocardite, péricardite) dans les provinces de Pise, Lucca et Livourne dans deux intervalles de temps: avant (PRECOVID, du 1er juin 2018 au 31 mai 2019) et pendant la pandémie COVID-19 (COVID, du 1er juin 2020 à mai 2021).

Résultats: Au total, 259 cas de cardiopathie inflammatoire (myocardite et/ou péricardite) sont survenus dans les zones d’intérêt. L’incidence annuelle était de 11,3 cas pour 100 000 habitants. En particulier, 138 cas sont survenus dans la période pré-COVID et 121 dans la période COVID. L’incidence annuelle des cardiopathies inflammatoires n’était pas significativement différente (12,1/100 000 dans la période PRECOVID contre 10,3/100 000 dans la période COVID, P = 0,22). L’incidence annuelle des myocardites était significativement plus élevée dans PRECOVID que dans COVID, respectivement 8,1/100 000/an contre 5,9/100 000/an (P = 0,047), soit une réduction nette de 27% des cas. En particulier, l’incidence de la myocardite était significativement plus faible dans COVID que dans PRECOVID dans la classe d’âge 18-24 ans. Malgré cela, les myocardites de la période COVID présentaient plus d’anomalies du mouvement de la paroi et une plus grande étendue du LGE. En revanche, l’incidence annuelle des péricardites n’était pas significativement différente (4,03/100 000 vs, 4,47/100 000, P = 0,61).

Conclusion: Malgré un rôle étiologique possible du SARS-CoV-2 et une augmentation prévisible de l’incidence de la myocardite et de la péricardite, les données de cette étude préliminaire, avec un échantillon géographiquement limité, suggèrent une diminution de la myocardite aiguë et une incidence stable de la péricardite et de la myopéricardite/périmyocardite.

Une méta-analyse le confirme.

Cette différence de risque cardiaque entre le vaccin et le virus ne devrait pas être une surprise. L’administration intramusculaire (IM) s’accompagne d’un accès potentiel immédiat au système vasculaire. Des études évaluant des infirmières qualifiées utilisant des techniques d’aspiration ont un taux de risque de 1,9% de toucher une veine ou une artère. Le taux d’injection intraveineuse accidentelle en dentisterie est encore plus élevé, soit 4% avec aspiration. Les vaccins SARs-CoV-2 ne nécessitent même pas d’aspiration et ont probablement un taux d’injection IV accidentelle plus élevé. Marc Girardot a traité ce sujet en détail.

Du côté opposé de cette équation du risque, nous constatons que l’infection par le C19 procure une immunité plus durable que les vaccins axés sur les protéines de pointe. L’immunité naturelle fournit des anticorps muqueux et une reconnaissance par les cellules T du protéome dérivé de l’ensemble du génome viral de 30 kb, alors que les vaccins se concentrent sur une petite région de ~4 kb (1273 acides aminés) du virus.

Cette stratégie vaccinale à épitope étroit produit maintenant des mutants d’échappement documentés où la majorité des mutations de Delta à Omicron sont des variants changeant les acides aminés dans le domaine de protéine de pointe ciblé par le programme de vaccination. Cet enrichissement en variants qui modifient les acides aminés par rapport aux variants synonymes est le signe distinctif de la sélection. Les vaccins qui n’arrêtent pas la transmission et ne parviennent pas à limiter la charge virale du patient, laissent l’horloge évolutive du virus (RdRp polymérase) intacte mais ne font que détourner l’évolution autour de la pagaie que l’on a placée dans la rivière. Chau et al. ont démontré des charges virales plus élevées chez les vaccinés. L’étude a porté sur plusieurs variants, mais d’autres études suggèrent des charges virales égales ou légèrement inférieures chez les vaccinés. Même dans ces cas, la variance est de quelques CTs et de l’ordre de 10^8. Dahdouh et al. ont montré jusqu’à 10 CT de variance dans les prélèvements seuls, ce qui suggère de nombreux facteurs de confusion dans ces études. La petite variation de CT est de l’ordre de 100 millions de molécules et est si élevée à la fois chez les vaccinés et les non-vaccinés qu’une différence de 2 CT n’est pas pertinente étant donné les ordres de grandeur inférieurs requis pour une dose infectieuse minimale (10^6).

Chau et al. ‘étude vietnamienne’

Constatations

Entre le 11 et le 25 juin 2021 (7-8 semaines après la deuxième dose), 69 membres du personnel ont été testés positifs au SARS-CoV-2. 62 ont participé à l’étude. La plupart étaient asymptomatiques ou légèrement symptomatiques et tous se sont rétablis. Vingt-deux séquences génomiques complètes ont été obtenues; tous étaient des variants Delta et étaient phylogénétiquement distincts des virus contemporains obtenus dans la communauté ou chez des patients hospitalisés avant l’épidémie. Les charges virales déduites des valeurs Ct étaient 251 fois plus élevées que chez les cas infectés par la souche originale en mars/avril 2020. Le délai médian entre le diagnostic et la PCR négative était de 21 jours (de 8 à 33). Les anticorps neutralisants (exprimés en pourcentage d’inhibition) mesurés après la deuxième dose de vaccin, ou au moment du diagnostic, étaient plus faibles chez les cas que chez les témoins non infectés et entièrement vaccinés (médiane (IQR): 69,4 (50,7-89,1) contre 91,3 (79,6-94,9), p=0,005 et 59,4 (32,5-73,1) contre 91,1 (77,3-94,2), p=0,002). Il n’y avait pas de corrélation entre les taux d’anticorps neutralisants induits par le vaccin et les pics de charge virale ou l’apparition de symptômes.

Il est clairement établi que ces vaccins n’arrêtent pas la transmission et des études récentes de la clinique de Cleveland (préimpression) démontrent même une efficacité négative du vaccin avec chaque vaccin supplémentaire. Elles démontrent également un effet dépendant de la dose ou un « gradient biologique », qui est l’un des principes des conditions de causalité de Bradford Hill. Cela implique que les vaccins affaiblissent le système immunitaire des patients et les rendent plus sensibles au C19 et à d’autres infections.

Ainsi, les politiques de vaccination dans les universités semblent violer l’éthique médicale fondamentale car elles demandent aux étudiants d’absorber une intervention médicale à risque/bénéfice négatif pour protéger des professeurs plus âgés. Elles utilisent leurs étudiants comme des boucliers humains tout en omettant d’informer que le bouclier a un coût « roulette russe » pour son utilisateur. Il s’agit d’une coercition non éclairée et non d’un consentement éclairé.

Ceci est particulièrement vrai pour les vaccins qui n’arrêtent pas la transmission et qui, dans plusieurs études, montrent des signes d’efficacité négative du vaccin (Barnstable Mass). L’étude Barnstable Mass menée par le CDC a montré des taux d’infection plus élevés chez les vaccinés. L’Australie est maintenant vaccinée à 96% (16+ 2 doses) et les hôpitaux sont saturés à plus de 96% de patients vaccinés. La surmortalité en Australie est plus élevée après la vaccination que pendant la pandémie qui a précédé la vaccination.

Les rappels bivalents n’ont jamais été étudiés de manière adéquate dans ce groupe d’âge d’étudiants. Paul Offit aurait déclaré que « tout était déjà décidé à l’avance » pour l’approbation de ces vaccins. Au lieu d’effectuer des ECR [études cliniqus randomisées] à grande échelle, on a surtout utilisé des données sur des souris, comme pour l’approbation des boosters bivalents. Même les ECR réalisés sur le BNT162b2 et le mRNA1273 ont été réanalysés par des chercheurs indépendants (Fraiman et al) et ont montré qu’ils ne procuraient aucun avantage (Bardosh et al).

Byram Bridle explique comment la commercialisation sélective du score de réduction du risque relatif de Pfizer constituait une violation de la politique de la FDA. Pourtant, elle a été accueillie par un tonnerre d’applaudissements.

Les premiers vaccins qui ciblaient la protéine de pointe Wuhan-1 n’ont jamais fourni de contrôle de qualité du séquençage de l’ADN lot par lot. Ils n’ont jamais fourni la moindre preuve de la fidélité transcriptionnelle ou traductionnelle de ces pro-médicaments. Ceci est de la plus haute importance car les vaccins incorporent un nucléotide sujet aux erreurs connu sous le nom de N1-méthyl-pseudouridine (m1Ψ) dont on sait qu’il augmente le taux d’erreurs de transcription à 250-300/Million ou 1 erreur tous les 4 000 nucléotides (Chen et al). Cela se traduit par une erreur dans chaque molécule de vaccin synthétisée et 14-34 trillions sont injectés avec les vaccins Pfizer et Moderna respectivement. Si les essais sur une seule molécule (séquençage de Pacific Biosciences) utilisés pour estimer ce taux d’erreur se manifestent dans des études humaines réelles, il s’agit d’un degré de complexité extraordinaire.

Pour aggraver encore les choses, l’impact de cette base sur la fidélité du ribosome est inconnu, mais les tentatives publiées de modéliser l’impact des pseudouridines (et non du N1-méthyl-pseudoU ou m1Ψ) sur la fidélité ont montré des augmentations substantielles du décalage du cadre ribosomal, de l’ablation des codons d’arrêt et des erreurs de traduction (Fernandez et al). Une étude qui a tenté, sans succès, de remettre en cause ces résultats est présentée ici.

Le laboratoire d’Andrew Fire a séquencé les premiers vaccins mais n’a jamais divulgué les données brutes de séquençage. Ces données sont nécessaires pour répondre aux préoccupations concernant les taux d’erreurs de transcription et les hétéroplasmies.

Il n’existe aucune donnée de séquençage publique pour les nouveaux vaccins bivalents administrés aux enfants. Selon les CDC, plus de 50 millions de vaccins bivalents ont été administrés à ce jour.

Pfizer prévoit des ventes importantes pour les 3 prochaines années.

Pfizer prévoit près de 500 millions de doses de COVID ARNm en 2023-2026, les années 2025 et 2026 étant un combo COVID/Grippe ARNm. La part de Pfizer, au prix récemment annoncé de 120 $/dose, s’élève à 37 milliards de dollars pour les seuls États-Unis. Ils anticipent une énorme VACHE À LAIT.

[…]

OH MON DIEU! Pfizer fait muter le COVID!!! – par Sasha Latypova.

Je me rends compte que j’ai assez peu relayé Sasha depuis son interview et ceci, ce qui est un comble vu que c’est une des seules voix « alt-Covid » à qui je fais confiance – même remarque pour Katherine Watt. Depuis cette fameuse interview – beaucoup lue, vu que je suis un des seuls à la publier en français et que mes lecteurs ont du goût – Sasha a créé son propre Substack. J’y pêcherai d’autres articles prochainement. Pour ne rien gâcher, elle y joint habituellement une photo de ses magnifiques peintures, comme elle. Une femme d’une beauté stupéfiante, d’une grande intelligence et d’un grand courage – et ukrainienne, ce qui devrait m’éviter, j’espère, la ridicule étiquette « pro-russe ».

Voici un billet très ponctuel – avec un peu de retard, que je rattrape lentement mais sûrement – qui démonte une intox dont j’imagine que tout le monde parle, pas toujours à bon escient. Ponctuel ou non, comme tout ce qu’écrit Sasha, c’est une lecture essentielle. En préambule, pour mieux comprendre la maintenant célèbre notion de « gain de fonction » et ses limites, je vous renvoie à mon article sur JJ Couey.

Source.


OH MON DIEU! Pfizer fait muter le COVID!!!

Un scénario de film où « Contagion » rencontre « Idiocratie »

Sasha Latypova

26 janvier

Un billet en vitesse. On m’a demandé de commenter la vidéo « explosive » publiée par le Projet Veritas, dans laquelle un « cadre supérieur en R&D de Pfizer » fait des déclarations sur « l’évolution dirigée » du virus du covid, que Pfizer envisage de mettre en œuvre.

D’abord, concernant cette personne. Je ne sais pas qui il est, certaines personnes tentent actuellement de vérifier s’il travaille chez Pfizer. Supposons pour l’instant qu’il travaille chez Pfizer. Son titre est directeur des opérations de R&D et de la planification scientifique. Il faut bien comprendre que ce domaine n’est PAS un domaine scientifique. Il ne travaille pas dans un laboratoire. Il gratte du papier, crée des présentations PowerPoint et d’autres documents et parle aux fournisseurs. Pfizer EXTERNALISE tout le travail scientifique et les essais cliniques. Personne en interne chez Pfizer ne fait quoi que ce soit en rapport avec le produit afin de se dégager de toute responsabilité et de laisser les sous-traitants commettre des fraudes en leur nom (afin que les dirigeants aient toujours une dénégation plausible).

De plus, ce type n’est pas intelligent. Il est ivre, mais il a aussi clairement un QI moyen. C’est exactement ce genre de personne que Pfizer a embauché en masse au cours des dix dernières années ou presque, tout en se débarrassant de personnes intelligentes et expérimentées qui savaient comment concevoir et développer des médicaments, parce qu’elles posaient trop de questions gênantes et ne se seraient pas laissées embobiner si facilement pour implémenter un meurtre de masse sous le nom de « réponse covid ».

Bien sûr, ce type n’a aucune morale.

Il parle de « virus mutant » ou d’ « évolution dirigée » et les décrit de la même manière que Peter Daszak et Ralph Baric dans leurs propositions au NIH – mêmes termes, mêmes plans expérimentaux et mêmes idées, et ce même scénario existe depuis des décennies. Savez-vous comment je le sais? J’ai un livre sur les armes bio-chimiques publié en 1970 en Union Soviétique, et j’en ai aussi un publié par le NIH en 2018. Ils répètent les mêmes choses et les mêmes concepts. Le type de Pfizer a probablement tiré son scénario des mémos de BARDA/DARPA. BARDA finance 50% de la R&D pharmaceutique aujourd’hui. Il ne s’agit cependant que d’un narratif. Il n’y a aucun moyen de « faire muter des virus » en laboratoire comme ils le laissent entendre – pour les rendre artificiellement plus mortels et plus transmissibles à la fois. Il s’agit d’un conte de fées de propagande avec un objectif très précis. Vous devriez être très prudents à l’égard de toute personne (de « leur » côté ou du « nôtre ») qui le répète en prenant un air sérieux.

Bien sûr, les scientifiques peuvent expérimenter avec des soupes d’ADN/ARN et faire se développer des choses dans des boîtes de Pétri. Ils peuvent concevoir des mutations sur ordinateur et essayer diverses concoctions. S’agit-il de « virus » qui peuvent « s’échapper d’un laboratoire » et « infecter le monde »? Non. La preuve en est qu’alors qu’il y a 1000 laboratoires biologiques aux États-Unis et dans le monde occidental qui jouent avec des virus, aucune pandémie ou épidémie n’a résulté de ces activités. Je vous assure que pas un seul laboratoire académique n’a jamais été capable de suivre les procédures opérationnelles standard de base, et s’il existait une chose telle qu’une « fuite de virus dangereux », nous en aurions constamment. Si une telle chose existe réellement et que nous en avons eu constamment, cela signifie que nous sommes tous déjà bien adaptés à ces fuites! Des regroupements locaux de maladies ont été détectés, il s’agit probablement de « tests de déploiement » plutôt que d’une véritable « fuite ». Ils s’éteignent d’eux-mêmes à chaque fois.

Des souris s’échappent de ces laboratoires tout le temps – où est la pandémie de souris?

The Mouse King [NdT. article de Sasha sur ce sujet, très rigolo et bien écrit – faudra que je traduise?]

L’homme dans la vidéo parle de faire passer les virus d’un animal à l’autre – une technique de longue date dont on sait qu’elle ne donne rien, car les virus ne font que s’atténuer dans ce processus. Et ce, pour autant que l’on puisse reproduire une infection d’un animal à l’autre. C’est impossible. Pfizer s’est rendu célèbre pour son incapacité à infecter les singes avec le virus Sars-Cov-2 dans ses études précliniques pour son « vaccin ». Et dans ces études, ils n’essaient même pas de produire une infection d’animal à animal (parce qu’ils savent que cela ne fonctionne pas), ils pulvérisent les animaux directement dans le nez et la bouche, et généralement la quantité de liquide est suffisante pour atteindre les poumons et leur donner une pneumonie, surtout pour les petites espèces comme les souris.

En parlant de souris, vous vous souvenez de la récente étude tristement célèbre de l’université de Boston où l’on a « muté le virus » pour produire un covid tueur à 80%? [NdT. j’avais naïvement relayé l’histoire avant de la rétracter avec cet article] Aucune souris n’a été infectée par d’autres souris et 8 souris sur 10 qui sont mortes ont été euthanasiées par les chercheurs parce que (elles allaient mourir?). Oui, celui-là. C’est la même histoire de science bidon que cette personne ivre déballe au journaliste du Projet Veritas qui pense avoir un scoop!

Une autre affirmation tout droit sortie de BARDA/DARPA – il s’agit de « prédire les mutations » et de « développer des vaccins de manière proactive ». Un non-sens total. Vendu par des psychopathes titulaires d’un doctorat à un public désespérément crédule et à des politiciens qui acquiescent et accordent des milliards de dollars de financement pour la « préparation à la pandémie ». C’est là que se situe le nœud du problème. Il ne s’agit pas seulement d’un babillage stupide et scientifiquement inepte. Il s’agit en fait d’un récit de propagande militarisée très bien pensé, destiné à faire avancer la chose la plus importante pour les auteurs de ce crime mondial:

Ces criminels ont désespérément besoin, à tout prix, que vous croyiez que « la mutation de virus en laboratoire » aboutit à un résultat terrifiant, qui peut ensuite être « divulgué ». Que tout le monde peut le faire, même un étudiant en doctorat dans son garage*. Que nos ennemis le font et qu’ils vont « libérer » un virus super terrifiant à tout moment, à moins que le gouvernement ne soit « préparé » en constituant un stock de « vaccins prédictifs » qui peuvent être déployés en quelques jours après la détection d’un nouveau virus terrifiant en Chine. Ou à Tombouctou.

(*) [NdT. je suppose qu’il faut que je rétracte aussi ceci et que je remette en question l’intégrité de l’auteur]

Connaissez-vous l’histoire de cette ville italienne au bord de la mer où toutes les vitrines des magasins se faisaient briser, et une fois remplacées, briser à nouveau, et où enfin un couple de gars sympas passait dans chaque magasin et vendait une « protection » aux propriétaires de magasins et où les vitrines restaient intactes tant que la protection était payée chaque mois? Savez-vous qui brisait les vitrines?

C’est la même histoire, mais racontée avec des marionnettes qui coiffent des casquettes de spécialistes des virus. Sauf que les auteurs de l’histoire sont plus intelligents que les frères italiens – ils convainquent tout le monde par la propagande et quelques produits chimiques habilement déployés que des virus terrifiants seront libérés (ou fuiront), puis vendent la « protection » du gouvernement. Cette fois, dans cette phase, ils comptent tuer pour de bon – ils se préparent à orchestrer la panique mondiale en prétendant qu’un terrifiant virus évolutif prédictif muté a effectivement fui d’un laboratoire (et n’a pas sauté d’une chauve-souris sur un marché comme la dernière fois). Ils ont déjà toutes les images vidéo de personnes tombant mortes dans les rues et autres matériels de propagande promotionnelle prêts à l’emploi. Ils l’annonceront dans un endroit reculé, et le traqueur de virus de Johns Hopkins s’emballera et se mettra au rouge dans le monde entier. Puis, dans les jours qui suivront, ils disposeront du « vaccin qui sauve des vies » et procéderont à la mise en place d’obligations, de quarantaines, d’injections, etc. dans un climat de panique totale, en attribuant toutes leurs morts à l’effrayant virus muté.

S’il vous plaît, NE TOMBEZ PAS DANS LE PANNEAU!

Je n’en suis pas certaine, mais je soupçonne fortement le Projet Veritas d’être ici victime de sa propre blague. Ils se sont fait avoir par les agences de défense qui ont « divulgué » ces informations « super secrètes » (qui sont placardées partout dans leurs documents publics et sur leurs sites Web, il suffit de les lire et le PV a avalé l’hameçon, la ligne et le plomb.

PS. Peu importe si la personne interrogée ici travaille vraiment pour Pfizer et croit vraiment ce qu’elle dit dans cette vidéo. Je suis presque sûr qu’il le croit et qu’il le fait. C’est là l’essentiel. Du moment où on embauche des personnes d’un poids intellectuel limité et au sens moral non opérationnel (le système universitaire actuel est parfaitement adapté à la production de ce profil), il est facile de les former pour qu’ils répètent les propos voulus avec conviction.

Tout a commencé avant l’épidémie: chronologie du projet de vaccin de BioNTech et de Pfizer – par Robert Kogon.

Encore un article de Robert Kogon, qui complète bien les deux précédents. Je bouclerai le tout avec ma propre synthèse.

Source.


Tout a commencé avant l’épidémie: chronologie du projet de vaccin de BioNTech et de Pfizer

Robert Kogon

30 janvier

Les étranges vidéos de Projet Veritas [NdT. je reviens juste après sur cette nouvelle intox] qui sont devenues ultra-virales sur Twitter ont sans aucun doute semé davantage de confusion dans l’esprit du public. Mais le véritable développeur et propriétaire du vaccin Covid-19 dit « Pfizer » est la société allemande BioNTech. La technologie de l’ARNm sous-jacente appartient à BioNTech et – à supposer que cela se soit produit – si une entreprise a modifié l’ARNm pour coder pour un variant maison du virus, ce doit être BioNTech.

Quoi qu’il en soit, comme nous l’avons vu dans mon dernier article, bien que le PDG de BioNTech, Ugur Sahin, affirme dans le livre The Vaccine que BioNTech a lancé son projet de vaccin Covid-19 le 27 janvier 2020, nous savons que ce n’est pas vrai : un rapport d’étude de BioNTech publié en réponse à une demande de FOIA montre que la société avait en fait déjà commencé les tests précliniques (sur les animaux) le 14 janvier.

C’est déjà assez étonnant, car le 14 janvier 2020 n’était que 2 semaines après le premier rapport des cas de Covid-19 à Wuhan. Ce même jour, d’ailleurs, l’OMS disait qu’il n’y avait pas de « preuve évidente » de transmission interhumaine. (Voir le tweet de l’OMS ici.) Pourquoi BioNTech aurait-elle commencé à travailler sur un vaccin contre le Covid-19 sans preuve évidente de transmission interhumaine?

A ce stade, Pfizer ne faisait pas partie du projet de vaccin C-19 de BioNTech. Comme raconté dans The Vaccine, la petite entreprise allemande, qui n’avait jamais eu de produit sur le marché, n’a réussi à recruter la multinationale américaine comme partenaire que trois mois plus tard (p. 156).

Nous savons donc que BioNTech a commencé les tests précliniques le 14 janvier. Mais, bien sûr, cela signifie que le projet en tant que tel a dû être lancé encore plus tôt. La formulation testée devait d’abord être produite. Dans ce cas, cela signifiait d’abord fabriquer l’ARNm, puis le formuler dans des nanoparticules lipidiques.

Comme évoqué dans mon dernier article, c’était en fait le but de l’étude : tester les performances de l’ARNm BioNTech formulé dans des lipides fabriqués par la société canadienne Acuitas. BioNTech n’était pas encore en mesure de fabriquer de l’ARNm codant pour un élément quelconque du virus SARS-CoV-2 – le génome complet n’avait été publié que la veille – et utilisait plutôt de l’ARNm codant pour un antigène de substitution (luciférase).

Combien de temps fallait-il donc pour que la formulation soit prête à être testée ? Heureusement, le livre de Sahin, coécrit par sa femme Özlem Türeci et le journaliste Joe Miller, fournit des détails techniques et logistiques pertinents. D’après le livre, la fabrication de l’ARNm – un processus comportant « des dizaines de milliers d’étapes » (p. 182) – prend cinq jours (p. 170 et 171).

Cinq jours nous amènent donc au 9 janvier. Mais l’ARNm doit encore être enveloppé dans les lipides, ce qui pose un problème logistique particulier: BioNTech ne peut pas le faire elle-même à son siège de Mayence, en Allemagne.

BioNTech disposait de ses propres lipides, mais ils se sont révélés inadaptés. Pour que l’ARNm soit enveloppé dans les lipides d’Acuitas, il a fallu l’expédier à un sous-traitant autrichien du nom de Polymun, près de Vienne.

L’ARNm a été transporté en voiture – un trajet de 8 heures, selon Sahin et Türeci – puis formulé dans les lipides par Polymun, et enfin la formulation a été ramenée à Mayence. Dans le livre, Sahin et Türeci décrivent un lot d’ARNm destiné à une étude ultérieure sur l’animal, qui a été achevé le 2 mars, expédié à Polymun, puis retourné à Mayence enveloppé dans les lipides le 9 mars (pp. 116 et 123).

Cela ajoute donc 5 jours supplémentaires, ce qui nous amènerait maintenant au 4 janvier. Mais il se trouve que BioNTech n’a pas effectué les tests sur les animaux elle-même. Ces tests ont également été sous-traités et réalisés dans d’autres centres d’essais. Dans The Vaccine, Sahin et Türeci notent que l’étude préclinique ultérieure a commencé le 11 mars, 2 jours après la livraison de l’ARNm encapsulé dans un lipide.

En ajoutant deux jours supplémentaires à notre calendrier, nous arrivons au 2 janvier. Le 2 janvier 2020 n’est pas deux semaines, mais seulement deux jours après le premier signalement de cas de Covid-19 à Wuhan le 31 décembre 2019.

Mais avant de pouvoir être fabriquée, il va sans dire qu’il fallait d’abord concevoir et développer la formulation à tester; et prendre contact avec Polymun et Acuitas pour obtenir les autorisations requises et organiser la collaboration nécessaire. Tout cela prend du temps.

Il est impossible d’éviter la conclusion que le projet de vaccin Covid-19 de BioNTech a en fait dû commencer avant même qu’aucun cas de Covid-19 n’ait été signalé! La question évidente est: comment est-ce possible?

Climat: Témoignage de John R. Christy devant la Chambre des Représentants des États-Unis.

Ce témoignage date de 2016. Il est, selon la formule consacrée, plus que jamais d’actualité, maintenant que nos amis du FEM – et la majorité des gouvernements – ont décidé de tout miser sur « l’urgence climatique », pour passer à la moulinette élevage, alimentation, industrie, énergie, transports et liberté individuelle. Il complète la série de John Dee sur la mesure des températures au Royaume-Uni, que j’avais commencé à traduire et publier puis interrompue vu le manque d’intérêt des lecteurs – dommage. Je vous invite vivement à lire celui-ci, quitte à survoler les passages plus techniques (qui ne sont pas inabordables), et à en retirer le principe général. On y retrouve les méthodes classiques de modélisation frauduleuse, bidouillage des mesures et censure des scientifiques indépendants, mises en oeuvre pour le Covid et ses produits dérivés.

Comme il est question ici de « consensus scientifique », considérez ceci comme le deuxième volet de la série d’articles que j’ai commencée il y a quelque temps.

Les principales abréviations utilisées ici sont:

  • LT: basse troposphère (low troposphere)
  • MT: troposphère moyenne (mid-troposphere)
  • GIEC: Groupe d’experts Intergouvernemental sur l’Evolution du Climat
  • UAH: Université d’Alabama à Huntsville
  • NMAT: Température nocturne de l’air marin (Night Marine Air Temperature)
  • NOAA: Agence américaine d’observation océanique et atmosphérique (National Oceanic and Atmospheric Administration)
  • NCEI: Centres nationaux d’information sur l’environnement (National Centers for Environmental Information)
  • APE: Agence pour la Protection de l’Environnement américaine (Environment Protection Agency – EPA)
  • UKMet: Service national britannique de météorologie

Source.


Traduction

Commission des sciences, de l’espace et de la technologie de la Chambre des Représentants des États-Unis

2 février 2016

Témoignage de John R. Christy

Université d’Alabama à Huntsville.

Je m’appelle John R. Christy, Professeur émérite en Sciences de l’Atmosphère, Climatologue d’État de l’Alabama et Directeur du Centre des Sciences du Système Terrestre à l’Université d’Alabama à Huntsville. J’ai été auteur principal, auteur collaborateur et réviseur des évaluations du GIEC des Nations Unies, j’ai reçu la médaille de la NASA pour réalisations scientifiques exceptionnelles et, en 2002, j’ai été élu membre de l’American Meteorological Society.

C’est un privilège pour moi d’offrir mon analyse de la situation actuelle concernant (1) les ensembles de données de température utilisés pour étudier le climat, (2) notre compréhension fondamentale du changement climatique et (3) l’effet que des réglementations, telles que l’accord de Paris, pourraient avoir sur le climat. J’ai également joint un extrait de mon témoignage au Sénat en décembre dernier, dans lequel j’aborde (1) la notion populaire selon laquelle les événements climatiques extrêmes augmentent en raison du changement climatique d’origine humaine (ce n’est pas le cas), et (2) la direction malheureuse prise par la recherche dans ce domaine.

La meilleure façon de décrire mon domaine de recherche est de dire qu’il s’agit de construire des ensembles de données à partir de rien pour mieux comprendre ce que fait le climat et pourquoi il le fait – une activité que j’ai commencée adolescent il y a plus de 50 ans. J’ai utilisé des observations de surface traditionnelles ainsi que des mesures effectuées par des ballons et des satellites pour documenter l’histoire du climat. Un grand nombre de nos ensembles de données UAH sont utilisés pour tester des hypothèses sur la variabilité et le changement climatiques.

(1.1) Données de température de la couche supérieure de l’air provenant de satellites et de ballons

Je commencerai par une discussion qui a été suscitée par une campagne de plus en plus active d’affirmations négatives faites à l’encontre des observations, c’est-à-dire des données, des températures de l’air supérieur. La Figure 1, en particulier, a attiré une attention considérable de la part de ceux qui considèrent que le système climatique subit une transformation rapide, causée par l’homme, vers un climat auquel les gens auront beaucoup de mal à s’adapter. Ce simple graphique montre que la projection moyenne du modèle, sur laquelle se fondent leurs craintes (ou leurs espoirs?), est médiocre en ce qui concerne la mesure fondamentale de la température censée être la plus sensible aux gaz à effet de serre supplémentaires – la température atmosphérique globale de la couche située entre la surface et 15 000 mètres. [La couche représentée est connue sous le nom de troposphère moyenne ou MT et est utilisée parce qu’elle chevauche la région de l’atmosphère tropicale qui présente la plus grande signature anticipée de la réponse à l’effet de serre par masse globale – entre 6 000 et 15 000 mètres]. Le graphique indique que la théorie sur la façon dont les changements climatiques se produisent, et l’impact associé des gaz à effet de serre supplémentaires, n’est pas suffisamment bien comprise pour reproduire le climat passé [voir la partie (2)]. En effet, les modèles surchauffent clairement l’atmosphère. Le problème qui se pose pour le Congrès est que des projections de modèles aussi manifestement déficientes sont utilisées pour élaborer des politiques.

Fig. 1: Valeurs moyennes sur cinq ans de la température globale annuelle moyenne (1979-2015) (appelée « troposphérique moyenne » ou « MT ») telle que représentée par la moyenne des 102 modèles climatiques CMIP5 du GIEC (rouge), la moyenne de 3 ensembles de données satellitaires (vert – UAH, RSS, NOAA) et 4 ensembles de données par ballon (bleu, NOAA, UKMet, RICH, RAOBCORE).

Ce résultat remettant en cause la théorie actuelle du réchauffement par effet de serre de manière relativement directe, plusieurs attaques bien financées ont été lancées contre ceux d’entre nous qui éloaborent et utilisent ces ensembles de données et contre les ensembles de données eux-mêmes. En tant que climatologue, je me suis retrouvé, avec des collègues partageant les mêmes idées, projeté dans un monde plus étroitement associé à la diffamation et à la diversion, que l’on trouve par exemple dans la politique de Washington, plutôt qu’à un discours objectif et dépassionné communément admis dans le domaine scientifique. Les enquêtes menées sur nous par le Congrès et les médias sont motivées par l’idée que quiconque n’est pas d’accord avec le point de vue de l’establishment climatique sur le dangereux changement climatique doit être à la solde d’organisations calomnieuses ou être mentalement déficient.

C’est également dans ce milieu qu’est propagé le matériel promotionnel, c’est-à-dire la propagande, qui tente de discréditer ces données (et les chercheurs) par des allégations qui ne mènent à rien.

Plusieurs de ces allégations contre les données sont apparues il y a quelques semaines sous la forme d’une vidéo bien ficelée. J’aborderai ses principales affirmations avec le matériel suivant, qui, sous une forme similaire, est apparu dans la littérature évaluée par les pairs au fil des ans.

La vidéo en question a été promue par un groupe de pression sur le changement climatique (Yale Climate Connections, http://www.yaleclimateconnections.org/2016/01/over-reliance-on-satellite-data-alone-criticized/) dans laquelle des scientifiques renommés font des affirmations pour la plupart dénuées de sens ou complètement fausses par rapport aux preuves de la Fig. 1. Je souhaite faire quatre remarques concernant cette vidéo et démontrer la tactique de diversion pour laquelle ce genre de vidéos orientées, ainsi que les médias qui les imitent joyeusement, se sont rendus célèbres.

Premièrement, il est affirmé que les satellites ne mesurent pas la température. En réalité, les capteurs des satellites mesurent la température par les radiations émises – la même méthode qu’un médecin utilise pour mesurer la température corporelle avec une grande précision à l’aide d’une sonde auriculaire. L’oxygène atmosphérique émet des micro-ondes, dont l’intensité est directement proportionnelle à la température de l’oxygène, et donc de l’atmosphère. Le fait que les satellites mesurent la température est évident dans le graphique suivant, qui compare les données satellitaires de l’UAH aux températures calculées à partir des thermistances des ballons. Soit dit en passant, la plupart des mesures de la température de surface sont indirectes et utilisent une résistance électronique.

Fig. 2: Variations moyennes de température mesurées dans 59 stations de radiosondage aux États-Unis (fabricant VIZ) et en Australie.

Deuxièmement, les scientifiques affirment que la chute verticale (décroissance orbitale) des satellites due à la friction atmosphérique provoque un refroidissement parasite dans le temps. Cette chute verticale a un impact non mesurable sur la couche (MT) utilisée ici et constitue donc une affirmation dénuée de sens. Dans des versions beaucoup plus anciennes d’un autre produit de couche (LT ou Basse Troposphère), ce problème existait, mais il a été facilement corrigé il y a près de 20 ans. Ainsi, le fait de soulever des problèmes qui affectaient une variable différente qui, de toute façon, a été corrigée il y a de nombreuses années est une manœuvre de diversion évidente qui, à mon avis, démontre la faiblesse de leur position.

Troisièmement, les scientifiques parlent des faux changements de température qui se produisent lorsque les satellites dérivent dans la direction est-ouest, le problème dit de la dérive diurne (que nous avons été les premiers à détecter et à prendre en compte). Ils parlent d’une erreur de signe dans la procédure de correction qui a modifié la tendance. Encore une fois, cette erreur n’était pas un facteur dans la couche MT de la Fig. 1, mais pour la couche LT, qui est différente. Et, encore une fois, cette question a été traitée pour la LT il y a 10 ans.

Enfin, bien que cela ne soit pas spécifiquement mentionné dans cette vidéo, certains de ces scientifiques prétendent que la Fig. 1 ci-dessus est en quelque sorte manipulée, dans le but de cacher leur croyance dans les prouesses et la validité des modèles climatiques. À cela, au contraire, je réponds que nous avons présenté les données de la manière la plus significative possible. Il s’agit ici du taux de réchauffement de l’atmosphère globale, c’est-à-dire de la tendance. Cette mesure nous indique à quelle vitesse la chaleur s’accumule dans l’atmosphère – la mesure fondamentale du réchauffement climatique. Pour représenter visuellement ce phénomène, j’ai ajusté tous les ensembles de données afin qu’ils aient une origine commune. Pensez à cette analogie: j’ai participé à plus de 500 courses au cours des 25 dernières années et, à chaque fois, tous les coureurs partent du même endroit au même moment dans le simple but de déterminer qui est le plus rapide, et de combien, à l’arrivée. Il est évident que la vitesse globale relative des coureurs est déterminée par leur position au moment où ils franchissent la ligne d’arrivée, mais ils doivent tous partir ensemble.

De la même manière, j’ai construit le graphique de façon à ce que la ligne de tendance de toutes les séries chronologiques de température commence au même point en termes d’amplitude et de temps (valeur zéro en 1979) afin que le lecteur puisse voir l’ampleur de l’écart à la ligne d’arrivée (2015). Un aperçu de cette méthode est illustré à la Fig. 3 où je présente ce qui est vu à la Fig. 1, sauf qu’il s’agit uniquement de la ligne de tendance sans les variations qui se produisent chaque année en raison des volcans et autres facteurs. Cela revient à tracer la vitesse moyenne globale d’un coureur le long du parcours, même s’il a probablement couru plus lentement dans les montées et plus vite dans les descentes.

Cette image indique que les modèles, en moyenne, réchauffent cette couche globale environ 2,5 fois plus vite que ce que les observations indiquent. Il s’agit d’une différence significative non expliquée, qui indique que la théorie de l’impact de l’effet de serre sur la température atmosphérique n’est pas suffisamment connue pour même reproduire ce qui s’est déjà produit. Nous ne parlons pas ici de 10 ou 15 ans, mais de 37 ans – bien plus d’un tiers de siècle. Le fait que deux types de systèmes de mesure très indépendants (ballons et satellites) construits par une variété d’institutions (gouvernement, université, privé) montrent tous un taux de réchauffement beaucoup plus lent donne une grande confiance dans leur résultat. Ainsi, les preuves suggèrent fortement que la théorie, telle qu’elle est incarnée dans les modèles, va beaucoup trop loin en forçant l’atmosphère à retenir la chaleur alors qu’en réalité, l’atmosphère a les moyens d’évacuer cette chaleur et se réchauffe donc à un rythme beaucoup plus lent.

Fig. 3: La ligne de tendance linéaire sur la période 1979-2015. Les couleurs représentent les mêmes données sources que dans la Fig. 1.

J’ai montré ici que pour l’atmosphère globale, les modèles surchauffent l’atmosphère d’un facteur d’environ 2,5. Par ailleurs, si on se concentre sur les tropiques, les modèles montrent un réchauffement par effet de serre encore plus important dans cette couche. Cependant, un calcul similaire avec les observations présentées à la Fig. 3 indique que les modèles surchauffent l’atmosphère tropicale d’un facteur d’environ 3, (modèles +0,265, satellites +0,095, ballons +0,073 °C/décennie), ce qui indique à nouveau que la théorie actuelle est en contradiction avec les faits. (voir à nouveau la section 2).

C’est une stratégie téméraire, à mon avis, que de promouvoir activement les résultats des modèles climatiques théoriques tout en attaquant les multiples lignes de preuves issues d’observations. Il convient de noter qu’aucun des ensembles de données d’observation n’est parfait et qu’il est sain de continuer à les examiner, mais lorsque de multiples groupes indépendants génèrent les ensembles de données et que les résultats de deux systèmes totalement indépendants (ballons et satellites) concordent étroitement et sont en désaccord avec les résultats du modèle, on ne peut que se poser des questions sur la décision de lancer une offensive contre les données. Cela n’a d’après moi aucun sens scientifique.

(1.2) Questions relatives à la température de surface

Il existe plusieurs problèmes concernant les ensembles de données sur la température de surface qui sont trop complexes pour être abordés dans ce document. Je me concentrerai sur quelques points qui me sont familiers et sur lesquels j’ai publié.

(1.2.a) La température de surface comme mesure pour détecter l’influence de l’augmentation des concentrations de gaz à effet de serre

L’un de mes nombreux centres d’intérêt en matière de climat est la manière dont les températures de surface sont mesurées et dont elles sont affectées par leur environnement, en particulier au-dessus des terres. Dans plusieurs articles (Christy et al. 2006 J. Climate, Christy et al. 2009 J. Climate, Christy 2013 J. Appl. Meteor. Clim. et Christy et al. 2016 J. Appl. Meteor. Clim.) j’ai examiné de près les stations individuelles dans différentes régions et je suis arrivé à la conclusion que l’ampleur du signal relativement faible que nous recherchons dans le changement climatique d’origine humaine est susceptible d’être faussé par la croissance de l’infrastructure autour des stations thermométriques et la variété des changements que ces stations subissent au fil du temps, ainsi que la variabilité des hauts et des bas naturels du climat. Il est difficile d’ajuster ces facteurs de contamination afin d’extraire un ensemble de données pures pour la détection de l’effet de serre, car souvent, l’influence non climatique se manifeste très progressivement, exactement comme on l’attendrait des réactions à une intensification de l’effet de serre.

En examinant les températures de l’océan (Christy et al. 2001, Geophys. Res. Lett.), j’ai découvert que les tendances de la température de l’eau (1m de profondeur) ne suivent pas bien celles de la température de l’air juste au-dessus de l’eau (3m), même si les deux sont mesurées sur la même bouée pendant 20 ans. Ceci est important pour la discussion ci-dessous où la NOAA a utilisé les températures de l’air marin pour ajuster les mesures de la température de l’eau à partir de navires.

Il existe de nombreux autres facteurs qui rendent les ensembles de données sur la température de surface peu efficaces pour la détection d’un réchauffement accru dû à l’effet de serre, (a) le manque de couverture géographique systématique dans le temps, (b) les méthodes et instruments de mesure non systématiques dans le temps et l’espace, (c) la mesure ponctuelle représente au mieux une zone locale minuscule et (d) est facilement affectée par de légers changements dans l’environnement, qui peuvent se produire par exemple lorsqu’une station se déplace. Des efforts considérables ont été déployés pour essayer d’ajuster les données brutes de surface afin d’obtenir une série chronologique qui représenterait celle d’un environnement vierge, et j’ai dirigé ou participé à certains de ces efforts (par exemple pour la Californie centrale dans Christy et al. 2006 et pour l’Afrique de l’Est dans Christy et al. 2009 et Christy 2013).

Ainsi, fort d’une expérience dans la construction d’ensembles de données de température de surface, par satellite et par ballon, et en tenant compte du signal que nous recherchons pour détecter une intensification de l’effet de serre, il me semble que l’utilisation des mesures atmosphériques globales offre la meilleure opportunité de répondre aux questions sur la réaction du climat à ce changement de composition atmosphérique induit par l’homme. L’atmosphère profonde est beaucoup plus cohérente dans l’espace et dans le temps en termes de variations. Elle n’est pas affectée par le développement humain à la surface. Elle est mesurée systématiquement. Certes, les températures mesurées par satellite et par ballon nécessitent leurs propres ajustements et ne peuvent être considérées comme « parfaites », mais elles offrent une indépendance l’une par rapport à l’autre qui permet des études de comparaison directe. En ce qui concerne la détection de l’intensification de l’effet de serre, il se trouve que la troposphère, comme l’indiquent les modèles, est la région atmosphérique qui réagit le plus, c’est-à-dire qui se réchauffe le plus rapidement, et constitue donc, à mon avis, une mesure qui offre un meilleur moyen de détecter l’influence humaine sur le climat.

(1.2.b) Le nouveau jeu de données sur les températures de surface de la NOAA

Une série d’articles a été publiée l’année dernière (notamment Huang et al. 2015 J. Climate, Karl et al. 2015 Science) décrivant un nouvel ensemble de données sur la température de surface élaboré par la NOAA qui indique un réchauffement un peu plus important au cours des 10 à 25 dernières années que les versions précédentes. Le principal changement concernait les températures de l’eau de mer dans l’ensemble de données désormais connu sous le nom de ERSSTv4. Ce changement a introduit un réchauffement supplémentaire dans les données à partir de 1990 environ. La principale raison de ce nouveau réchauffement, comme le notent les auteurs, est l’ajustement appliqué aux données des bouées, ajoutant environ +0,12 °C aux relevés des bouées. En 1980, seuls 10% environ des rapports de données provenaient de bouées, mais en 2000, 90% environ étaient des données de bouées. Ainsi, étant donné que l’influence des données des bouées a augmenté de manière significative au fil du temps, le simple ajout d’un biais à toutes les bouées dès le début a créé une tendance plus chaude à mesure qu’elles devenaient la principale source d’information.

Un certain contexte est nécessaire. Contrairement aux ensembles de données des satellites et des ballons qui mesurent une quantité systématique (essentiellement la température de l’air atmosphérique), les ensembles de données sur la température de surface sont un mélange de températures de l’air (sur terre) et de l’eau (sur l’océan) mesurées à l’aide d’une gamme considérable d’instruments, d’expositions et de méthodes. Sur terre, les stations météorologiques mesurent la température de l’air dans différents types d’abris pour instruments et par différentes techniques à un niveau d’environ 1,5m au-dessus du sol. Au-dessus de l’océan, cependant, la température utilisée est celle de l’eau elle-même, et non celle de l’air au-dessus, de sorte que les ensembles traditionnels de données sur la surface du globe ne mesurent pas un paramètre physique homogène sur terre et dans l’océan. En outre, la profondeur à laquelle est mesurée la température de l’eau est très variable, de 0,6 à 15 mètres environ, et les méthodes utilisées vont des seaux remontés sur le pont dans lesquels on insère un thermomètre aux températures de l’admission du moteur, beaucoup plus profondes dans l’eau, en passant par les bouées, dérivantes ou amarrées au fond. Le fait que la température varie en fonction de la profondeur est donc un problème à résoudre avant de pouvoir tenter de construire un ensemble de données systématique. De plus, les mesures ne sont pas cohérentes dans l’espace et dans le temps, et de grandes régions, comme l’Afrique et les océans du Sud, ne sont pas mesurées.

N’oubliez pas que même si la tendance de cet ensemble de données de la NOAA est devenue plus positive au cours des 10 à 20 dernières années, elle reste inférieure aux projections des modèles climatiques à long terme. Pour les périodes plus longues, comme la période depuis 1979, date à laquelle les satellites ont commencé à mesurer les températures atmosphériques globales, le nouvel ensemble de données mondiales est similaire à celui du Centre Hadley (1979-2015: NOAA +0,155 °C/décennie, Centre Hadley UKMet, +0,165 °C/décennie). Cependant, des questions subsistent concernant le nouvel ensemble de données sur l’eau de mer de la NOAA, notamment sur la manière dont il indique un réchauffement plus important que les autres au cours des 20 dernières années. La Figure 4 présente les tendances océaniques pour la région 20S à 60N (c’est-à-dire les océans tropicaux et de l’hémisphère nord – il y avait trop peu de données au sud du 20S pour y générer des températures de l’air proche de la surface). Quatre ensembles de données sont représentés: NOAA (NOAA, rouge), Centre Hadley (HadCRUT4, orange), une température préliminaire de l’air proche de la surface sur les océans par mon étudiant diplômé Rob Junod (jaune) et la température de l’air de la couche profonde de l’UAH provenant des satellites (bleu). Les données NOAA et HadCRUT4 sont des températures de l’eau de mer près de la surface, elles devraient donc être identiques.

La NOAA a utilisé une curieuse variable de référence pour calibrer les températures de l’eau mesurées à partir des prises d’eau des navires – la température de l’air marin nocturne (NMAT). C’est curieux car les NMAT elles-mêmes nécessitent des ajustements considérables, c’est-à-dire des corrections pour la hauteur du pont du navire, etc. Quoi qu’il en soit, à partir de là, les données des bouées ont ensuite été ajustées pour correspondre aux données des navires. Il semble donc que le processus d’ajustement fondamental dépende des NMAT pour ajuster les données des navires et ensuite ajuster les données des bouées. Le produit final de la NOAA mélange toutes ces données, et comme la représentation géographique des différents systèmes a changé de façon spectaculaire (comme on l’a noté, d’environ 10% de bouées et 90% de navires en 1980 à 90% de bouées et 10% de navires aujourd’hui – Huang et al. 2015), un ajustement appliqué aux bouées influencera automatiquement la tendance.

Je suis conscient que le Comité a cherché à obtenir des informations sur ce curieux processus et a demandé à la NOAA de générer des ensembles de données basés uniquement sur des systèmes de mesure cohérents, c’est-à-dire des navires seuls, des bouées seules et des NMATs seuls, afin de voir si l’un des systèmes aurait pu influencer les tendances de manière inappropriée en raison des changements de distribution. La NOAA n’a pas été en mesure de répondre à cette demande. En même temps, j’ai demandé à mon étudiant diplômé, Rob Junod, de faire le travail pour le NMAT. Ce qui est présenté ici est préliminaire, mais suit une grande partie des travaux précédents sur les NMAT (développés au National Oceanographic Centre et au Centre Hadley au Royaume-Uni) avec l’avantage supplémentaire d’être mis à jour en 2014. La meilleure couverture géographique des données a été trouvée entre 20°S et 60°N. Cette zone a donc également été appliquée aux autres ensembles de données pour une comparaison entre éléments identiques. Les résultats sont présentés à la Figure 4, dans laquelle toutes les tendances se terminent en 2014 mais couvrent des périodes par tranches de deux ans, de 20 ans à 10 ans.

Figure 4. Tendances décennales (°C/décennie) de quatre ensembles de données de température sur les océans de 20°S à 60°N pour des périodes variables se terminant en 2014. Le rouge et l’orange sont des ensembles de données sur la température de l’eau de mer en surface provenant de la NOAA et du Centre Hadley (HadCRUT4). Le jaune est un ensemble de données de température de l’air proche de la surface (Night Marine Air Temperature) construit par l’UAH (préliminaire). Le bleu est la tendance de la température de l’atmosphère profonde (de la surface à 10 000 mètres ou basse troposphère) à partir des émissions de micro-ondes captées par les satellites (également UAHv6.0b5).

Un certain nombre d’observations sautent aux yeux dans la Fig. 4. (1) En termes de tendance de température, les températures de l’air sont inférieures à celles de l’eau (comme indiqué dans mon étude de 2001 mentionnée ci-dessus.) (2) NOAA réchauffe le plus rapidement dans toutes les périodes. (3) Au cours des 10 à 14 dernières années, les tendances de l’HadCRUT4 concordent mieux avec la série de données sur la température de l’air proche de la surface (étant proche de zéro et soutenant la notion de hiatus) qu’avec les tendances de sa quantité physiquement identique de la NOAA. (4) L’ampleur des tendances des NMAT se situe entre les tendances de l’atmosphère profonde et de l’eau de mer.

Cette figure génère également un certain nombre de questions sur la qualité des données. (1) Si les NMAT ont été utilisées pour calibrer les températures des navires, puis les navires pour calibrer les températures des bouées, pourquoi la série de données de la NOAA diffère-t-elle autant de son point de référence de base – les NMAT? (2) A quoi ressemblent les séries temporelles et quelles sont les tendances de la sous-période pour l’eau de mer lorsque seuls les navires et/ou les bouées sont utilisés pour construire l’ensemble de données pour les 20-25 dernières années? (3) Que montre la série chronologique de la série de données NMAT de la NOAA (c’est-à-dire leur référence)?

Les véritables questions scientifiques ici sont celles qui ont une importance significative pour la compréhension de la façon dont les gaz à effet de serre supplémentaires pourraient affecter le climat, comme le montre la section suivante.

(2) Dans quelle mesure comprenons-nous le changement climatique?

L’un des objectifs scientifiques essentiels de notre époque est de déterminer si les émissions dues aux activités humaines ont un impact sur le climat et, si oui, dans quelle mesure. Cette tâche est d’autant plus difficile que nous savons que le système climatique est déjà soumis à des changements importants sans l’influence de l’homme. Étant donné qu’il n’existe pas de dispositif de mesure qui détermine explicitement la cause des changements climatiques que nous pouvons mesurer, comme la température, notre science doit adopter une approche différente pour chercher à comprendre ce qui cause les changements, c’est-à-dire quelle part est naturelle et quelle part est induite par l’homme. L’approche de base aujourd’hui utilise des modèles climatiques. (Les projections de ces modèles sont également utilisées pour les politiques en matière de carbone).

Il est important de comprendre que les résultats de ces modèles (c’est-à-dire les projections du climat futur et le lien spécifique que l’augmentation du CO2 pourrait avoir sur le climat) sont définis comme des hypothèses ou des affirmations scientifiques – les résultats des modèles ne peuvent être considérés comme une preuve des liens entre les variations climatiques et les gaz à effet de serre. Ces modèles sont des programmes informatiques complexes qui tentent de décrire, à l’aide d’équations mathématiques, le plus grand nombre possible de facteurs affectant le climat et d’estimer ainsi comment le climat pourrait évoluer à l’avenir. On espère que le modèle fournira des réponses précises aux variables climatiques, comme la température, lorsque des gaz à effet de serre supplémentaires sont inclus dans le modèle. Cependant, les équations de presque tous les processus climatiques importants ne sont pas exactes et représentent les meilleures approximations que les modélisateurs peuvent concevoir et que les ordinateurs peuvent gérer à ce stade.

Un aspect fondamental de la méthode scientifique est que si nous affirmons comprendre un système (tel que le système climatique), nous devons être en mesure de prédire son comportement. Si nous sommes incapables de faire des prédictions précises, c’est qu’au moins certains des facteurs du système ne sont pas bien définis ou peut-être même manquants. [Notez toutefois que le fait de reproduire le comportement du système (c’est-à-dire de reproduire « ce » que fait le climat) ne garantit pas que la physique fondamentale est bien connue. En d’autres termes, il est possible d’obtenir la bonne réponse pour les mauvaises raisons, c’est-à-dire obtenir le « quoi » du climat mais manquer le « pourquoi »].

Comprenons-nous comment les gaz à effet de serre affectent le climat, c’est-à-dire le lien entre les émissions et les effets climatiques? Comme indiqué plus haut, une mesure très élémentaire pour les études climatiques est la température de la couche atmosphérique principale appelée troposphère, qui s’étend en gros de la surface à une altitude de 15 000 mètres. Il s’agit de la couche qui, selon les modèles, devrait se réchauffer de manière significative avec l’augmentation du CO2, et même plus rapidement que la surface. Contrairement à la température de surface, cette température globale nous renseigne sur le nœud de la question du réchauffement climatique: quelle quantité de chaleur s’accumule dans l’atmosphère mondiale? Et, selon les modèles, ce réchauffement causé par le CO2 devrait être facilement détectable à l’heure actuelle. Il s’agit d’un bon test de notre compréhension du système climatique, car depuis 1979, nous disposons de deux moyens indépendants pour surveiller cette couche: les satellites depuis le ciel et les ballons équipés de thermomètres lâchés depuis la surface.

J’ai pu accéder à 102 simulations de modèles climatiques CMIP-5 rcp4.5 (representative concentration pathways) des températures atmosphériques pour la couche troposphérique et générer des températures globales à partir des modèles pour une comparaison entre éléments identiques avec les observations des satellites et des ballons. Ces modèles ont été développés dans des institutions du monde entier et utilisés dans l’évaluation scientifique du GIEC AR5 (2013).

Ci-dessus: Variations de la température moyenne mondiale de la troposphère moyenne (moyennes sur 5 ans) pour 32 modèles (lignes) représentant 102 simulations individuelles. Les cercles (ballons) et les carrés (satellites) représentent les observations. Le modèle russe (INM-CM4) était le seul modèle proche des observations.

Les informations contenues dans cette figure montrent clairement que les modèles ont une forte tendance à surchauffer l’atmosphère par rapport aux observations réelles. En moyenne, les modèles réchauffent l’atmosphère mondiale à un rythme 2,5 fois supérieur à celui du monde réel. Il ne s’agit pas d’un épisode à court terme, spécialement sélectionné, mais d’une période de 37 ans, soit plus d’un tiers de siècle. C’est également la période où la concentration de gaz à effet de serre est la plus élevée, et donc celle où la réaction devrait être la plus importante.

Si l’on suit la méthode scientifique consistant à confronter les affirmations aux données, on peut conclure que les modèles ne représentent pas fidèlement au moins certains des processus importants qui influent sur le climat, car ils n’ont pas été en mesure de « prévoir » ce qui s’est déjà produit. En d’autres termes, ces modèles ont échoué au simple test consistant à nous dire « ce qui » s’est déjà produit, et ne seraient donc pas en mesure de nous donner une réponse fiable à la question de savoir « ce qui » pourrait se produire à l’avenir et « pourquoi ». En tant que tels, ils seraient d’une valeur très discutable pour déterminer une politique qui devrait dépendre d’une compréhension très sûre du fonctionnement du système climatique.

Il existe une mesure climatique connexe qui utilise également la température atmosphérique qui, dans les modèles, a une réaction encore plus importante que celle de la moyenne mondiale présentée ci-dessus. Cette mesure constitue donc un test plus solide pour comprendre la performance des modèles en ce qui concerne spécifiquement les gaz à effet de serre. Dans les modèles, l’atmosphère tropicale se réchauffe de manière significative en réponse à l’ajout de gaz à effet de serre – plus que la température atmosphérique moyenne mondiale.

Ci-dessus: Variations de la température moyenne de la troposphère moyenne tropicale (moyennes sur 5 ans) pour 32 modèles (lignes) représentant 102 simulations individuelles. Les cercles (ballons) et les carrés (satellites) représentent les observations.

Dans la comparaison tropicale présentée ici, la disparité entre les modèles et les observations est encore plus grande, les modèles réchauffant en moyenne cette région atmosphérique d’un facteur trois plus important que dans la réalité. Un tel résultat renforce l’implication ci-dessus que les modèles ont encore beaucoup d’améliorations à faire avant que nous puissions avoir confiance qu’ils fourniront des informations sur ce que le climat peut faire dans le futur ou même pourquoi le climat varie comme il le fait. Pour la question qui nous occupe, les estimations de la manière dont la température mondiale pourrait être affectée par les réductions d’émissions prévues par les réglementations seraient exagérées et non fiables.

(3) L’impact climatique des réglementations (c.-à-d. Paris) ne sera pas attribuable ou détectable

Personne ne connaît l’impact climatique des réductions d’émissions de carbone proposées et convenues à Paris. La principale raison en est que les pays disposent d’une grande latitude pour en faire autant ou aussi peu qu’ils le souhaitent. Si l’on examine l’histoire des émissions mondiales de carbone, il est clair que les pays, en particulier les pays en développement, continueront à chercher à développer l’utilisation de l’énergie par la combustion du carbone en raison de son caractère abordable et des avantages considérables qu’il procure à leurs citoyens.

Dans tous les cas, l’impact sur la température mondiale des réductions actuelles et proposées des gaz à effet de serre sera, au mieux, minuscule. Pour le démontrer, supposons, par exemple, que les émissions totales des États-Unis soient réduites à zéro, à partir du 13 mai 2015 dernier (date d’une audience à laquelle j’ai témoigné). En d’autres termes, à partir de ce jour et à l’avenir, il n’y aurait plus d’industrie, plus de voitures, plus de services publics, plus de personnes – c’est-à-dire que les États-Unis cesseraient d’exister à partir de ce jour. Les réglementations, bien sûr, ne réduiront les émissions que dans une faible mesure, mais pour montrer à quel point l’impact de la réglementation sera minuscule, nous allons tout simplement aller au-delà de la réalité et faire disparaître les États-Unis. Nous tenterons ainsi de répondre à la question de l’impact du changement climatique dû à la réduction des émissions.

À l’aide de l’outil d’impact du GIEC de l’ONU connu sous le nom de Modèle d’évaluation des changements climatiques induits par les gaz à effet de serre ou MAGICC [Model for the Assessment of Greenhouse-gas Induced Climate Change], Rob Junod, étudiant diplômé, et moi-même avons réduit la croissance prévue des émissions mondiales totales en fonction de la contribution des émissions américaines à partir de cette date. Nous avons également utilisé la valeur de la sensibilité du climat d’équilibre déterminée par des techniques empiriques, soit 1,8°C. Après 50 ans, l’impact tel que déterminé par ces calculs de modèle ne serait que de 0,05 à 0,08°C – une quantité inférieure à celle de la fluctuation de la température mondiale d’un mois à l’autre. [Ces calculs ont utilisé les scénarios d’émissions A1B-AIM et AIF-MI, les émissions américaines représentant 14% à 17% des émissions mondiales de 2015. Il existe des preuves que la sensibilité du climat est inférieure à 1,8°C, ce qui diminuerait encore ces projections].

Comme indiqué, l’impact sur les émissions mondiales et le climat mondial des récents accords de Paris concernant les émissions mondiales n’est pas exactement quantifiable. Il est pratiquement impossible de prévoir le comportement de chaque pays en matière d’émissions, sans compter qu’il est impossible de savoir comment les systèmes énergétiques eux-mêmes évolueront dans le temps.

Étant donné que l’arrêt des émissions de l’ensemble de notre pays aurait un impact calculé si minime sur le climat mondial, il est évident que des réductions fractionnées des émissions par le biais de la réglementation produiraient des résultats imperceptibles. En d’autres termes, il n’y aurait aucune preuve à l’avenir pour démontrer qu’un impact climatique particulier a été induit par les réglementations proposées et promulguées. Ainsi, les réglementations n’auront aucune conséquence significative ou utile sur le système climatique physique – même si l’on croit que les modèles climatiques sont des outils de prédiction utiles.

Résumé

Le changement climatique est un sujet très vaste qui présente de nombreuses difficultés. Nos connaissances de base sur l’évolution du climat (c’est-à-dire les mesures) sont entachées d’incertitudes. Dans mon témoignage d’aujourd’hui, j’ai montré que la température atmosphérique globale est suffisamment bien mesurée pour démontrer que notre compréhension de la façon dont les gaz à effet de serre affectent le climat est nettement insuffisante pour expliquer le climat depuis 1979. En particulier, le changement réel de la mesure fondamentale de la signature du réchauffement par effet de serre – la température atmosphérique globale où les modèles indiquent que la preuve la plus directe du réchauffement par effet de serre devrait se trouver – est considérablement déformé par les modèles. Bien qu’aucun ensemble de données ne soit parfait, la manière dont les ensembles de données de surface ont été élaborés laisse de nombreuses questions sans réponse, en particulier pour la récente mise à jour de la NOAA qui montre un réchauffement plus important que les autres. Enfin, les réglementations déjà appliquées ou en cours de proposition, telles que celles de l’Accord de Paris, n’auront pratiquement aucun impact sur l’évolution du climat.

Annexe A

Cette annexe est un extrait de mon témoignage écrit présenté lors de l’audience suivante:

Comité du Sénat américain sur le commerce, les sciences et les transports

Sous-comité sur l’espace, la science et la compétitivité

8 déc. 2015

Témoignage de John R. Christy

Université d’Alabama à Huntsville.

Impacts présumés des changements climatiques d’origine humaine concernant les événements extrêmes.

Une grande partie de la préoccupation liée à l’augmentation des concentrations de gaz à effet de serre s’est reportée, au cours de la dernière décennie, des changements de température globale aux changements dans les événements extrêmes, c’est-à-dire les événements qui ont généralement un impact négatif sur l’économie. Ces événements peuvent être des vagues de chaleur, des inondations, des ouragans, etc.

En ce qui concerne les vagues de chaleur, voici le nombre de jours de 100°F observés aux États-Unis à partir d’un ensemble contrôlé de stations météorologiques. Non seulement il est clair que le nombre de jours de chaleur n’a pas augmenté, mais il est intéressant de constater qu’au cours des dernières années, on en a observé une relative rareté.

Ci-dessus: Nombre moyen de jours par station dans chaque année atteignant ou dépassant 100°F dans 982 stations de la base de données USHCN (NOAA/NCEI, préparé par JRChristy).

Les incendies de forêt et les feux de friches sont documentés pour les États-Unis. Les données ci-dessous indiquent qu’il n’y a pas eu de changement dans la fréquence des incendies de forêt. La superficie (non représentée) montre également peu de changement.

Ci-dessus: Nombre d’incendies de forêt aux États-Unis. La gestion de ces événements change, et donc leur nombre également, mais le nombre d’événements depuis 1985 est resté constant. (National Interagency Fire Center https://www.nifc.gov/fireInfo/nfn.htm)

Ci-dessus: Nombre d’incendies de forêt aux États-Unis par an depuis 1965.

Les deux chiffres ci-dessus montrent que la fréquence des incendies n’a pas augmenté aux États-Unis au cours des dernières décennies.

Les affirmations selon lesquelles les sécheresses et les inondations sont en augmentation peuvent également être examinées à la lumière des données d’observation.

Ci-dessus: Étendue surfacique mondiale de cinq niveaux de sécheresse pour 1982-2012 où la sécheresse est indiquée en rangs percentiles avec D0 < 30, D1 < 20, D2 < 10, D3 < 5 et D4 < 2 percentiles de la disponibilité moyenne de l’humidité. (Hao et al. 2014)

Ci-dessus: Fraction surfacique de la zone contiguë des États-Unis dans des conditions très humides (bleu) ou très sèches (rouge). NOAA/NCEI.

Les deux figures ci-dessus montrent que les conditions d’humidité n’ont pas montré de tendance à la baisse (plus de sécheresse) ou à la hausse (plus d’humidité à grande échelle). Ces informations sont rarement consultées lorsqu’il est plus commode de faire des affirmations non fondées selon lesquelles les extrêmes d’humidité, c’est-à-dire les sécheresses et les inondations (qui ont toujours existé), deviennent en quelque sorte encore plus extrêmes. Sur des périodes plus courtes et dans certains endroits, il est prouvé que les précipitations les plus fortes ont tendance à être plus importantes. Il ne s’agit pas d’un phénomène universel et il n’a pas été établi que ces changements puissent être dus à des modifications des concentrations de gaz à effet de serre, comme cela a été démontré précédemment, car les projections des modèles sont incapables de reproduire les mesures les plus simples.

Ci-dessus: Production mondiale de céréales 1961-2012. Organisation des Nations Unies pour l’alimentation et l’agriculture [FAO – Food and Agriculture Organization].

Il est facile de trouver des documents attestant de l’augmentation constante de la production de céréales. On peut s’interroger sur l’allégation du Conseil Fédéral de la Qualité de l’Environnement selon laquelle le changement climatique induit par l’homme a causé un « préjudice à l’agriculture », car si l’on considère la croissance totale de la production, qui semble s’accélérer, on pourrait supposer qu’aucun « préjudice » n’a été causé pendant une période d’augmentation des gaz à effet de serre.

Au vu des preuves fournies dans les exemples ci-dessus, il est évidemment difficile d’établir les affirmations concernant la détérioration des conditions dues au changement climatique d’origine humaine, ou plus généralement que tout changement pourrait être directement lié à l’augmentation du CO2. Ce point est également lié à la question de la capacité des modèles climatiques mentionnée précédemment. Il est clair que les modèles climatiques ne sont pas à la hauteur sur certaines questions très fondamentales de la variabilité climatique, étant incapables de reproduire « ce qui » s’est passé en matière de température globale, et donc de savoir « pourquoi » cela s’est produit. Il est donc prématuré d’affirmer que l’on connaît les causes des changements de diverses mesures exotiques du temps, telles que l’intensité des précipitations sur de courtes périodes, qui ne sont même pas explicitement générées dans les résultats des modèles climatiques.

Le décevant processus scientifique

J’ai beaucoup écrit, lors de précédentes audiences du Congrès et à d’autres occasions, sur l’incapacité de la communauté scientifique à aborder objectivement l’étude du climat et du changement climatique. (Voir l’annexe) La science du climat est une science obscure comportant de grandes incertitudes sur de nombreux éléments critiques tels que la répartition des nuages et les échanges thermiques de surface. Comme nous l’avons mentionné plus haut, il n’existe pas d’instrumentation objective qui puisse nous dire « pourquoi » les changements se produisent. Cela étant, il ne nous reste que des hypothèses (affirmations) à avancer, puis à tester. Les informations fournies ci-dessus montrent clairement, selon moi, que la compréhension théorique actuelle du « pourquoi » des changements climatiques, telle qu’incarnée dans les modèles (et sur laquelle la politique actuelle est basée), échoue à ces tests. En effet, le point de vue théorique (modèle) tel qu’il est exprimé dans le RE5 du GIEC a dans tous les cas surestimé la réaction de la température atmosphérique tropicale globale aux gaz à effet de serre supplémentaires (voir ci-dessus et la figure 10.SM.1 du matériel supplémentaire du GIEC), ce qui indique que la compréhension théorique de la réaction du climat est trop sensible aux gaz à effet de serre.

L’un des problèmes de notre science est lié au processus de financement des études climatiques, dont la grande majorité est assurée par des agences fédérales. Les décisions de financement sont prises par des personnes, et ces personnes ont des préjugés. Notre science a également connu une évolution vers une science de « consensus », où l' »accord » entre les personnes et les groupes est considéré comme supérieur à une enquête déterminée et objective. La triste progression des événements ici a même conduit à des enquêtes du Congrès destinées à faire taire (avec un certain succès) ceux dont les voix, y compris la mienne, ont contesté les points de vue politiquement corrects sur le climat (c’est-à-dire l’enquête du Congrès par le représentant Grijalva, 22 février 2015, http://www.scribd.com/doc/256811029/Letter-to-UAH-re-John-Christy).

Aujourd’hui, les décisions de financement sont prises par des comités d’examen. Dans ce processus, de nombreuses propositions de financement sont soumises aux agences, mais ces dernières ne disposent que d’une fraction des fonds disponibles pour soutenir les propositions, de sorte que seules quelques propositions peuvent être financées et celles-ci sont sélectionnées par les comités. Dans le domaine du climat, il est clair que les agences sont convaincues de la vision consensuelle d’un changement climatique dangereux, comme l’indiquent leurs diverses déclarations et communiqués de presse sur la question. Par conséquent, lorsqu’une proposition contraire est soumise, qui cherche à découvrir d’autres explications possibles que les gaz à effet de serre pour les petits changements que nous observons actuellement, ou une proposition qui cherche à examiner rigoureusement et objectivement les résultats des modèles climatiques, elle n’a pratiquement aucune chance d’être financée. Cela se produit parce que le comité détermine par un vote majoritaire qui financer, et avec une concurrence serrée, tout parti pris de quelques membres du comité contre une proposition contraire est suffisant pour être rejeté. Bien sûr, les agences prétendront que tout est fait en toute objectivité, mais ce serait précisément la réponse attendue d’une personne faisant déjà partie du « consensus » et dont l’agence a déclaré sa position sur le changement climatique. Ceci m’amène au « consensus scientifique ».

L’expression « consensus scientifique » est souvent invoquée dans les débats sur le changement climatique pour étayer une affirmation. Il s’agit d’une forme d' »argument d’autorité ». Le consensus est toutefois une notion politique, et non une notion scientifique. Comme j’ai témoigné devant l’Inter-Academy Council en juin 2010, comme je l’ai écrit dans Nature la même année (Christy 2010), et comme je l’ai documenté dans mon témoignage écrit pour plusieurs audiences du Congrès (par exemple, House Space, Science and Technology, 31 mars 2011), le GIEC et d’autres évaluations similaires ne représentent pas pour moi un consensus de beaucoup plus que le consensus de ceux qui sont sélectionnés pour être d’accord avec un consensus particulier.

Le contenu de ces rapports sur le climat est en fait sous le contrôle d’un nombre relativement restreint d’individus – je les appelle souvent « l’establishment du climat » – qui, au fil des ans, en sont venus, à mon avis, à agir comme des gardiens de l’opinion et de l’information scientifiques, plutôt que comme des intermédiaires. Les voix de ceux d’entre nous qui s’opposent à certaines déclarations et à certaines emphases dans ces évaluations sont, dans l’ensemble, rejetées plutôt que prises en compte. Cet establishment inclut les mêmes personnes qui deviennent les « experts » appelés à promouvoir les affirmations du GIEC dans les rapports gouvernementaux tels que la conclusion de mise en danger par l’Agence de Protection de l’Environnement.

Comme je l’ai souligné dans mes précédents témoignages, ces « experts » deviennent les auteurs et les évaluateurs de leurs propres recherches par rapport aux recherches qui remettent en cause leur travail. Cela devient un conflit d’intérêt évident. Mais avec le luxe d’avoir le « dernier mot » en tant qu’auteurs « experts » des rapports, les opinions alternatives disparaissent. Ce n’est pas un processus qui fournit les meilleures informations aux représentants du peuple. Le Congrès américain doit disposer de l’ensemble des points de vue sur des questions telles que le changement climatique qui sont (a) caractérisées par une ambiguïté considérable (voir les résultats des modèles) (b) utilisées pour promouvoir des actions réglementaires qui seront économiquement préjudiciables au peuple américain et, le plus ironique, (c) n’auront aucun impact sur ce que fera le climat.

J’ai souvent déclaré que la science du climat est une science « obscure ». Nous ne disposons pas de méthodes de laboratoire pour tester nos hypothèses, contrairement à de nombreuses autres sciences. Par conséquent, ce qui passe pour de la science inclut l’opinion, les arguments d’autorité, les communiqués de presse spectaculaires et les notions floues de consensus générées par des groupes présélectionnés. Ce n’est pas de la science.

Nous savons, grâce aux courriels du Climategate et à de nombreuses autres sources, que le GIEC a eu des problèmes avec ceux qui adoptent des positions sur le changement climatique différentes de celles qu’il promeut. Il existe cependant une autre façon de traiter ce problème. Puisque l’activité du GIEC et la recherche sur le climat en général sont financées par les contribuables américains, je propose que cinq à dix pour cent des fonds soient alloués à un groupe de scientifiques reconnus pour produire une évaluation qui exprime des hypothèses alternatives légitimes qui ont été (à leur avis) marginalisées, déformées ou ignorées dans les rapports précédents du GIEC (et donc dans l’Endangerment Finding de l’APE et les National Climate Assessments).

De telles activités sont souvent appelées rapports « Red Team » [équipes rouges] et sont largement utilisées par le gouvernement et l’industrie. Les décisions relatives au financement des « Red Teams » ne devraient pas être confiées à l' »establishment » actuel, mais à des panels composés de scientifiques accrédités ayant l’expérience de l’examen de ces questions. Certains efforts dans ce sens ont été déployés par le secteur privé (par exemple, le Groupe d’Experts Non-gouvernemental International sur l’Evolution du Climat, à l’adresse http://nipccreport.org/ et Michaels (2012) ADDENDUM: Global Climate Change Impacts in the United States). Je pense que les décideurs politiques, avec l’argent du public, devraient soutenir activement la collecte de toutes les informations essentielles pour aborder cette science trouble et vicieuse, puisque le public paiera en fin de compte le coût de toute législation censée agir sur le climat.

Les sujets à aborder dans cette évaluation de la « Red Team » seraient, par exemple, les suivants : (a) les preuves d’une faible sensibilité du climat à l’augmentation des gaz à effet de serre, (b) le rôle et l’importance de la variabilité naturelle et imprévue, (c) une évaluation rigoureuse et indépendante des résultats des modèles climatiques, (d) une discussion approfondie de l’incertitude, (e) l’accent mis sur les paramètres les plus directement liés au taux d’accumulation de chaleur dans le système climatique, (f) l’analyse des nombreuses conséquences, y compris les avantages, qui résultent de l’augmentation du CO2, et (g) l’importance d’une énergie abordable et accessible pour la santé et le bien-être de l’homme.

L’objectif de cette proposition est de fournir au Congrès et aux autres décideurs une évaluation parallèle, scientifiquement fondée, de l’état de la science du climat, qui aborde des questions qui n’ont pas été ou ont été sous-représentées dans les rapports précédents sur le climat, financés par les contribuables et dirigés par le gouvernement. En d’autres termes, nos décideurs politiques ont besoin de voir l’ensemble des découvertes concernant le changement climatique.

Résumé de l’extrait

Les messages des deux points soulignés dans l’extrait ci-dessus sont les suivants: (1) les affirmations concernant l’augmentation de la fréquence et de l’intensité des événements extrêmes ne sont généralement pas étayées par des observations réelles et, (2) les informations officielles sur la science du climat sont largement contrôlées par les agences par le biais (a) des choix de financement de la recherche et (b) de la sélection minutieuse (c’est-à-dire biaisée) des auteurs de rapports tels que l’Endangerment Finding de l’APE et le National Climate Assessment.


Texte original

U.S. House Committee on Science, Space & Technology

2 Feb 2016

Testimony of John R. Christy

University of Alabama in Huntsville.

I am John R. Christy, Distinguished Professor of Atmospheric Science, Alabama’s State Climatologist and Director of the Earth System Science Center at The University of Alabama in Huntsville. I have served as Lead Author, Contributing Author and Reviewer of United Nations IPCC assessments, have been awarded NASA’s Medal for Exceptional Scientific Achievement, and in 2002 was elected a Fellow of the American Meteorological Society.

It is a privilege for me to offer my analysis of the current situation regarding (1) the temperature datasets used to study climate, (2) our basic understanding of climate change and (3) the effect that regulations, such as the Paris agreement, might have on climate. I have also attached an extract from my Senate Testimony last December in which I address (1) the popular notion that extreme climate events are increasing due to human-induced climate change (they are not), and (2) the unfortunate direction research in this area has taken.

My research area might be best described as building datasets from scratch to advance our understanding of what the climate is doing and why – an activity I began as a teenager over 50 years ago. I have used traditional surface observations as well as measurements from balloons and satellites to document the climate story. Many of our UAH datasets are used to test hypotheses of climate variability and change.

(1.1) Upper air temperature data from satellites and balloons

I shall begin with a discussion that was precipitated by an increasingly active campaign of negative assertions made against the observations, i.e. the data, of upper air temperatures. Figure 1 in particular has drawn considerable attention from those who view the climate system as undergoing a rapid, human-caused transformation into a climate to which people would have great difficulty adapting. This simple chart tells the story that the average model projection, on which their fears (or hopes?) are based, does poorly for the fundamental temperature metric that is allegedly the most responsive to extra greenhouse gases – the bulk atmospheric temperature of the layer from the surface to 50,000ft. [The layer shown is known as the mid-troposphere or MT and is used because it overlaps with the region of the tropical atmosphere that has the largest anticipated signature of the greenhouse response by bulk mass – between 20,000 and 50,000 feet.] The chart indicates that the theory of how climate changes occur, and the associated impact of extra greenhouse gases, is not understood well enough to even reproduce the past climate [much more in section (2)]. Indeed, the models clearly over-cook the atmosphere. The issue for congress here is that such demonstrably deficient model projections are being used to make policy.

Fig. 1: Five-year averaged values of annual mean (1979-2015) global bulk (termed “mid-tropospheric” or “MT”) temperature as depicted by the average of 102 IPCC CMIP5 climate models (red), the average of 3 satellite datasets (green – UAH, RSS, NOAA) and 4 balloon datasets (blue, NOAA, UKMet, RICH, RAOBCORE).

Because this result challenges the current theory of greenhouse warming in relatively straightforward fashion, there have been several well-funded attacks on those of us who build and use such datasets and on the datasets themselves. As a climate scientist I’ve found myself, along with fellow like-minded colleagues, tossed into a world more closely associated with character assassination and misdirection, found in Washington politics for example, rather than objective, dispassionate discourse commonly assumed for the scientific endeavor. Investigations of us by congress and the media are spurred by the idea that anyone who disagrees with the climate establishment’s view of dangerous climate change must be on the payroll of scurrilous organizations or otherwise mentally deficient.

Also thrust into this milieu is promotional material, i.e., propaganda, attempting to discredit these data (and researchers) with claims that amount to nothing.

Several of these allegations against the data appeared a few weeks ago in the form of a well-made video. I shall address the main assertions with the following material, which in similar form has appeared in the peer-reviewed literature through the years.

The video of interest was promoted by a climate change pressure group (Yale Climate Connections, http://www.yaleclimateconnections.org/2016/01/over-reliance-on-satellite-data-alone-criticized/) in which well-known scientists make claims that are mostly meaningless or completely wrong relative to the evidence in Fig. 1. I wish to make four points regarding the video and demonstrate the misdirection for which such agendized videos, along with a happily mimicking media, are so famous.

First, the claim is made the satellites do not measure temperature. In reality, the sensors on satellites measure temperature by emitted radiation – the same method that a physician uses to measure your body temperature to high precision using an ear probe. Atmospheric oxygen emits microwaves, the intensity of which is directly proportional to the temperature of the oxygen, and thus the atmosphere. That the satellites measure temperature is evident by the following chart which compares our UAH satellite data with temperatures calculated from balloon thermistors. As an aside, most surface temperature measurements are indirect, using electronic resistance.

Fig. 2: Average temperature variations measured at 59 radiosonde stations in the U.S. (VIZ manufacturer) and Australia.

Secondly, the scientists claim that the vertical drop (orbital decay) of the satellites due to atmospheric friction causes spurious cooling through time. This vertical fall has an immeasurable impact on the layer (MT) used here and so is a meaningless claim. In much earlier versions of another layer product (LT or Lower Troposphere), this was a problem, but was easily corrected almost 20 years ago. Thus, bringing up issues that affected a different variable that, in any case, was fixed many years ago is a clear misdirection that, in my view, demonstrates the weakness of their position.

Thirdly, the scientists speak of the spurious temperature changes that occur as the satellites drift in the east-west direction, the so-called diurnal drift problem (which was first detected and accounted for by us). They speak of a sign error in the correction procedure that changed the trend. Again, this error was not a factor in the MT layer in Fig. 1, but for the different LT layer. And, again, this issue was dealt with for LT 10 years ago.

Finally, though not specifically mentioned in this video, some of these scientists claim Fig. 1 above is somehow manipulated to hide their belief in the prowess and validity of the climate models. To this, on the contrary, I say that we have displayed the data in its most meaningful way. The issue here is the rate of warming of the bulk atmosphere, i.e., the trend. This metric tells us how rapidly heat is accumulating in the atmosphere – the fundamental metric of global warming. To depict this visually, I have adjusted all of the datasets so that they have a common origin. Think of this analogy: I have run over 500 races in the past 25 years, and in each one all of the runners start at the same place at the same time for the simple purpose of determining who is fastest and by how much at the finish line. Obviously, the overall relative speed of the runners is most clearly determined by their placement as they cross the finish line – but they must all start together.

In the same way I constructed the chart so that the trend line of all of the temperature time series starts at the same point in magnitude and time (zero value at 1979) so the viewer may see how wide the spread is at the finish line (2015). One way to look at this is seen in Fig. 3 where I provide what is seen in Fig. 1 except this is only the trend line without the variations that occur from year due to volcanoes and such. This is analogous to plotting the overall average speed of a runner along the course even though they likely ran slower on an uphill, and faster on a downhill.

This image indicates the models, on average, warm this global layer about 2.5 times faster than the observations indicate. This is a significant difference that has not beenexplained and indicates the theory of greenhouse impact on atmospheric temperature is not sufficiently known to even reproduce what has already happened. We are not talking about 10 or 15 years here, but 37 years – well over a third of a century. That two very independent types of measuring systems (balloons and satellites) constructed by a variety of institutions (government, university, private) all showing the much slower rate of warming gives high confidence in its result. Thus, the evidence here strongly suggests the theory, as embodied in models, goes much too far in forcing the atmosphere to retain heat when in reality the atmosphere has a means to relinquish that heat and thus warms at a much slower rate.

Fig. 3: The linear trend line over the period 1979-2015. The colors represent the same source data as in fig. 1.

I’ve shown here that for the global bulk atmosphere, the models overwarm the atmosphere by a factor of about 2.5. As a further note, if one focuses on the tropics, the models show an even stronger greenhouse warming in this layer. However, a similar calculation with observations as shown in Fig. 3 indicates the models over-warm the tropical atmosphere by a factor of approximately 3, (Models +0.265, Satellites +0.095, Balloons +0.073 °C/decade) again indicating the current theory is at odds with the facts. (again, see section 2.)

It is a bold strategy in my view to actively promote the output of theoretical climate models while attacking the multiple lines of evidence from observations. Note that none of the observational datasets are perfect and continued scrutiny is healthy, but when multiple, independent groups generate the datasets and then when the results for two completely independent systems (balloons and satellites) agree closely with each other and disagree with the model output, one is left scratching one’s head at the decision to launch an offensive against the data. This doesn’t make scientific sense to me.

(1.2) Surface temperature issues

There are several issues regarding surface temperature datasets that are too involved to discuss in this material. I shall focus on a few points with which I am familiar and on which I have published.

(1.2.a) Surface temperature as a metric for detecting the influence of the increasing concentrations of greenhouse gases

One of my many climate interests is the way surface temperatures are measured and how surface temperatures, especially over land, are affected by their surroundings. In several papers (Christy et al. 2006 J. Climate, Christy et al. 2009 J. Climate, Christy 2013 J. Appl. Meteor. Clim., Christy et al. 2016 J. Appl. Meteor. Clim.) I closely examined individual stations in different regions and have come to the conclusion that the magnitude of the relatively small signal we seek in human-induced climate change is easily convoluted by the growth of infrastructure around the thermometer stations and the variety of changes these stations undergo through time, as well as the variability of the natural ups and downs of climate. It is difficult to adjust for these contaminating factors to extract a pure dataset for greenhouse detection because often the non-climatic influence comes along very gradually just as is expected of the response to the enhanced greenhouse effect.

In examining ocean temperatures (Christy et al. 2001, Geophys. Res. Lett.) I discovered that the trends of the water temperature (1m depth) do not track well with those of the air temperature just above the water (3m), even if both are measured on the same buoy over 20 years. This is important for the discussion below where NOAA used marine air temperatures to adjust water temperature measurements from ships.

There are many other factors that render surface temperature datasets to be of low effectiveness for the detection of enhanced greenhouse warming, (a) lack of systematic geographical coverage in time, (b) unsystematic measuring methods and instrumentationin time and space, (c) the point measurement represents at best a tiny, local area and (d) is easily impacted by slight changes in the surroundings, which can occur for example when a station moves. There have been huge efforts to try and adjust the raw surface data to give a time series that would represent that of a pristine environment, and I have led or been a part in some of these (e.g. for Central California in Christy et al. 2006 and East Africa in Christy et al. 2009 and Christy 2013).

Thus, having experience in building surface, satellite and balloon temperature datasets, and taking into account the signal we are looking for to detect the enhanced greenhouse effect, the evidence suggests to me that utilizing the bulk atmospheric measurements provides the best opportunity to answer questions about the climate’s response to this human-induced change in atmospheric composition. The deep atmosphere is much more coherent in space and time in terms of its variations. It is not affected by human development at the surface. It is measured systematically. To be sure, satellite and balloon temperatures require their own adjustments and cannot be considered “perfect”, but do offer an independence from one another to allow direct comparison studies. Regarding the detection of the enhanced greenhouse effect, the troposphere, as indicated by models, happens to be the atmospheric region that will respond the most, i.e. warm the fastest, and thus, in my view, is a metric that provides a better way to detect human influence on the climate.

(1.2.b) The new NOAA surface temperature dataset

A series of papers appeared last year (including Huang et al. 2015 J. Climate, Karl et al. 2015 Science) describing a new surface temperature dataset constructed by NOAA which indicated a bit more warming in the past 10 to 25 years than the previous versions. The key change dealt with seawater temperatures in the dataset now known as ERSSTv4. This change introduced an additional warming into the record from about 1990 onward. The main reason for this new warming, as the authors note, was the adjustment applied to buoy data, adding about +0.12 °C to the buoy readings. In 1980, only about 10 percent of the data reports were from buoys, but by 2000 about 90 percent were buoy data. Thus, because the influence of the buoy data grew significantly through time, the simple addition of a bias to all the buoys from the beginning created a warmer trend as they became the dominate source of information.

Some background is necessary. Unlike satellite and balloon datasets which measure a systematic quantity (essentially atmospheric air temperature), surface temperature datasets are a mixture of air (over land) and water (over ocean) temperatures measured over a considerable range of instruments, exposures and methods. Over land, weather stations measure the temperature of the air in varying types of instrument shelters and by varying techniques at a level about 5 ft above the ground. Over the ocean, however, the temperature utilized is that of the water itself, not the air above, so traditional global surface datasets do not measure a homogenous physical parameter over land versus ocean. Further, the depth of the water temperature measurement is quite varied from 2 ft to 50 ft or so, by methods that range from buckets drawn up on deck into which a thermometer is inserted to engine-intake temperatures much deeper in the water and to buoys, drifting or moored to the bottom. So the fact temperature varies by depth is an issue to tackle before the possibility of constructing a systematic dataset may be attempted. Then too, the measurements are not spatially or temporally consistent with large regions, such as Africa and the southern oceans, unmeasured.

Keep in mind that even though the trend of this NOAA dataset became more positive in the past 10 to 20 years, it is still below climate model projections over the longer term. For longer periods, such as the period since 1979 when satellites began measuring bulk atmospheric temperatures, the new global dataset is similar to that of the Hadley Centre (1979-2015: NOAA +0.155 °C/decade, Hadley Centre UKMet, +0.165 °C/decade). However, there are questions that remain concerning the new NOAA seawater dataset, especially how it indicates more warming in the last 20 years than others. Figure 4 displays the ocean trends for the region 20S to 60N (i.e. tropical and northern hemisphere oceans – there was too little data south of 20S for generating near-surface air temperatures there). There are 4 datasets represented, NOAA (NOAA, red), Hadley Centre (HadCRUT4, orange), a preliminary near-surface air temperature over the oceans by my graduate student Rob Junod (yellow) and the UAH deep layer air temperature from satellites (blue). Both NOAA and HadCRUT4 are temperatures of the seawater near the surface, so should be the same.

NOAA used a curious reference variable to calibrate the water temperatures measured from ship intakes – the Night Marine Air Temperature (NMAT). This is curious because there are considerable adjustments required for the NMATs themselves, i.e. corrections for height of ship deck, etc. In any case, from this, the buoy data were then adjusted to match the ship data. It appears, then, that the foundational adjustment process depends on NMATs to adjust the ship data to then adjust the buoy data. The final product from NOAA mixes all of these together, and because the geographic representation of the different systems changed dramatically (as noted, from approximately 10% buoys and 90% ships in 1980 to 90% buoys and 10% ships today – Huang et al. 2015), an adjustment applied to the buoys will automatically influence the trend.

I’m aware that the Committee sought information about this curious process and asked NOAA to generate datasets based only on consistent measuring systems, i.e. ships alone, buoys alone and NMATs alone, to see if one system might have impacted the trends improperly due to distribution changes. NOAA was unable to accommodate this request. At the same time I asked my graduate student, Rob Junod, to do the work for NMAT. What is presented here is preliminary, but follows much of the previous work on NMATs (developed at the National Oceanographic Centre and the Hadley Centre in the UK) with that added advantage of being updated to 2014. The best geographical data coverage was found to be 20°S to 60°N, so this area was also applied to the other datasets for an apples to apples comparison. The results are shown in Fig. 4 in which all trends end in 2014 but cover periods in two-year increments from 20 years to 10 years.

Figure 4. Decadal trends (°C/decade) of four temperature datasets over the oceans from 20°S to 60°N for varying periods ending in 2014. Red and orange are surface seawater temperature datasets from NOAA and the Hadley Centre (HadCRUT4). Yellow is a near-surface air temperature dataset (Night Marine Air Temperature) built by UAH (preliminary). Blue is the temperature trend of the deep atmosphere (surface to 35,000 ft or Lower Troposphere) from microwave emissions captured by satellites (also UAHv6.0b5.)

A number of observations are evident in Fig. 4. (1) In terms of the temperature trend, the air temperatures are less than those of the water (as indicated in my 2001 study mentioned above.) (2) NOAA warms the fastest in all periods. (3) In the past 10-14years, the trends of the HadCRUT4 agree better with the near-surface air temperature dataset (being near zero and supporting the notion of a hiatus) than with the trends from its physically-identical quantity from NOAA. (4) The magnitude of the NMAT trends lies between the trends of the deep atmospheric and sea water.

This figure generates a number of data quality questions too. (1) If NMATs were used to calibrate the ship temperatures and then the ships were used to calibrate the buoy temperatures, why does the NOAA dataset differ so much from its basic reference point – NMATs? (2) What do the time series look like and what are the sub-period trends for seawater under the condition that only ships and/or only buoys are used to build the dataset for the past 20-25 years? (3) What does the time series of NOAA’s NMAT (i.e. their reference) dataset show?

The real science questions here are those which have significant importance to the understanding of how extra greenhouse gases might affect the climate as shown in the following section.

(2) How well do we understand climate change?

A critical scientific goal in our era is to determine whether emissions from human activities impact the climate and if so by how much. This is made especially difficult because we know the climate system already is subject to significant changes without the influence of humans. Because there is no measuring device that explicitly determines the cause of the climate changes we can measure, such as temperature, our science must take a different approach to seek understanding as to what causes the changes, i.e. how much is natural and how much is human induced. The basic approach today utilizes climate models. (The projections of these models are being utilized for carbon policies as well.)

It is important to understand that output from these models, (i.e. projections of the future climate and the specific link that increasing CO2 might have on the climate) are properly defined as scientific hypotheses or claims – model output cannot be considered as providing proof of the links between climate variations and greenhouse gases. These models are complex computer programs which attempt to describe through mathematical equations as many factors that affect the climate as is possible and thus estimate how the climate might change in the future. The model, it is hoped, will provide accurate responses of the climate variables, like temperature, when extra greenhouse gases are included in the model. However, the equations for nearly all of the important climate processes are not exact, representing the best approximations modelers can devise and that computers can handle at this point.

A fundamental aspect of the scientific method is that if we say we understand a system (such as the climate system) then we should be able to predict its behavior. If we are unable to make accurate predictions, then at least some of the factors in the system are not well defined or perhaps even missing. [Note, however, that merely replicating the behavior of the system (i.e. reproducing “what” the climate does) does not guarantee that the fundamental physics are well-known. In other words, it is possible to obtain the right answer for the wrong reasons, i.e. getting the “what” of climate right but missing the “why”.]

Do we understand how greenhouse gases affect the climate, i.e. the link between emissions and climate effects? As noted above, a very basic metric for climate studies is the temperature of the bulk atmospheric layer known as the troposphere, roughly from the surface to 50,000 ft altitude. This is the layer that, according to models, should warm significantly as CO2 increases – even faster than the surface. Unlike the surface temperature, this bulk temperature informs us about the crux of the global warming question – how much heat is accumulating in the global atmosphere? And, this CO2- caused warming should be easily detectible by now, according to models. This provides a good test of how well we understand the climate system because since 1979 we have had two independent means of monitoring this layer – satellites from above and balloons with thermometers released from the surface.

I was able to access 102 CMIP-5 rcp4.5 (representative concentration pathways) climate model simulations of the atmospheric temperatures for the tropospheric layer and generate bulk temperatures from the models for an apples-to-apples comparison with the observations from satellites and balloons. These models were developed in institutions throughout the world and used in the IPCC AR5 Scientific Assessment (2013).

Above: Global average mid-tropospheric temperature variations (5-year averages) for 32 models (lines) representing 102 individual simulations. Circles (balloons) and squares (satellites) depict the observations. The Russian model (INM-CM4) was the only model close to the observations.

The information in this figure provides clear evidence that the models have a strong tendency to over-warm the atmosphere relative to actual observations. On average the models warm the global atmosphere at a rate 2.5 times that of the real world. This is not a short-term, specially-selected episode, but represents the past 37 years, over a third of a century. This is also the period with the highest concentration of greenhouse gases and thus the period in which the response should be of largest magnitude.

Following the scientific method of testing claims against data, we would conclude that the models do not accurately represent at least some of the important processes that impact the climate because they were unable to “predict” what has already occurred. In other words, these models failed at the simple test of telling us “what” has already happened, and thus would not be in a position to give us a confident answer to “what” may happen in the future and “why.” As such, they would be of highly questionable value in determining policy that should depend on a very confident understanding of how the climate system works.

There is a related climate metric that also utilizes atmospheric temperature which in models has an even larger response than that of the global average shown above. This metric, then, provides a stronger test for understanding how well models perform regarding greenhouse gases specifically. In the models, the tropical atmosphere warms significantly in response to the added greenhouse gases – more so than that of the global average atmospheric temperature.

Above: Tropical average mid-tropospheric temperature variations (5-year averages) for 32 models (lines) representing 102 individual simulations. Circles (balloons) and squares (satellites) depict the observations.

In the tropical comparison here, the disparity between models and observations is even greater, with models on average warming this atmospheric region by a factor of three times greater than in reality. Such a result re-enforces the implication above that the models have much improvement to undergo before we may have confidence they will provide information about what the climate may do in the future or even why the climate varies as it does. For the issue at hand, estimates of how the global temperature might be affected by emission reductions from regulations would be exaggerated and not reliable.

(3) Climate Impact of Regulations (i.e. Paris) Will Not Be Attributable or Detectable

No one knows the climate impact of the proposed carbon emission reductions agreed to in Paris. The main reason for this is that there is considerable latitude for countries to do as little or as much as they desire. Examining the history of global carbon emissions, it is clear that countries, especially developing countries, will continue to seek to expand energy use through carbon combustion because of their affordability in providing considerable positive benefits to their citizens.

In any case, impact on global temperature for current and proposed reductions in greenhouse gases will be tiny at best. To demonstrate this, let us assume, for example, that the total emissions from the United States were reduced to zero, as of last May 13th, 2015 (the date of a hearing at which I testified). In other words as of that day and going forward, there would be no industry, no cars, no utilities, no people – i.e. the United States would cease to exist as of that day. Regulations, of course, will only reduce emissions a small amount, but to make the point of how minuscule the regulatory impact will be, we shall simply go way beyond reality and cause the United States to vanish. With this we shall attempt to answer the question of climate change impact due to emissions reductions.

Using the U.N. IPCC impact tool known as Model for the Assessment of Greenhouse-gas Induced Climate Change or MAGICC, graduate student Rob Junod and I reduced the projected growth in total global emissions by U.S. emission contribution starting on this date and continuing on. We also used the value of the equilibrium climate sensitivity as determined from empirical techniques of 1.8 °C. After 50 years, the impact as determined by these model calculations would be only 0.05 to 0.08 °C – an amount less than that which the global temperature fluctuates from month to month. [These calculations used emission scenarios A1B-AIM and AIF-MI with U.S. emissions comprising 14 percent to 17 percent of the 2015 global emissions. There is evidence that the climate sensitivity is less than 1.8 °C, which would further lower these projections.]

As noted, the impact on global emission and global climate of the recent agreements in Paris regarding global emissions is not exactly quantifiable. Knowing how each country will behave regarding their emissions is essentially impossible to predict besides the added issue of not knowing how energy systems themselves will evolve over time.

Because halting the emissions of our entire country would have such a tiny calculated impact on global climate, it is obvious that fractional reductions in emissions through regulation would produce imperceptible results. In other words, there would be no evidence in the future to demonstrate that a particular climate impact was induced by the proposed and enacted regulations. Thus, the regulations will have no meaningful or useful consequence on the physical climate system – even if one believes climate models are useful tools for prediction.

Summary

Climate change is a wide-ranging topic with many difficulties. Our basic knowledge about what the climate is doing (i.e. measurements) is plagued by uncertainties. In my testimony today I have given evidence that the bulk atmospheric temperature is measured well-enough to demonstrate that our understanding of how greenhouse gases affect the climate is significantly inadequate to explain the climate since 1979. In particular, the actual change of the fundamental metric of the greenhouse warming signature – the bulk atmospheric temperature where models indicate the most direct evidence for greenhouse warming should lie – is significantly misrepresented by the models. Though no dataset is perfect, the way in which surface datasets have been constructed leaves many unanswered questions, especially for the recent NOAA update which shows more warming than the others. Finally, regulations already enforced or being proposed, such as those from the Paris Agreement, will have virtually no impact on whatever the climate is going to do.

Appendix A

This appendix is an extract from my written testimony presented at the following Hearing:

U.S. Senate Committee on Commerce, Science, & Transportation

Subcommittee on Space, Science and Competitiveness

8 Dec 2015

Testimony of John R. Christy

University of Alabama in Huntsville.

Alleged impacts of human-induced climate changes regarding extreme events

Much of the alarm related to increasing greenhouse gas concentrations shifted in the past decade from global temperature changes to changes in extreme events, i.e. those events which typically have a negative impact on the economy. These events may be heat waves, floods, hurricanes, etc.

In terms of heat waves, below is the number of 100°F days observed in the U.S. from a controlled set of weather stations. It is not only clear that hot days have not increased, but it is interesting that in the most recent years there has been a relative dearth of them.

Above: Average number of days per-station in each year reaching or exceeding 100°F in 982 stations of the USHCN database (NOAA/NCEI, prepared by JRChristy).

Forest and wild fires are documented for the US. The evidence below indicates there has not been any change in frequency of wildfires. Acreage (not shown) shows little change as well.

Above: Number of U.S. wildfires. As the management of these events changes, and thus the number also changes, but the number of events since 1985 has remained constant. (National Interagency Fire Center https://www.nifc.gov/fireInfo/nfn.htm)

Above: Number of U.S. forest fires per year since 1965.

The two figures above demonstrate that fire events have not increased in frequency in the United States during the past several decades.

The claims that droughts and floods are increasing may be examined by the observational record as well.

Above: Global areal extent of five levels of drought for 1982-2012 where dryness is indicated in percentile rankings with D0 < 30, D1 < 20, D2 < 10, D3 < 5 and D4 < 2 percentile of average moisture availability. (Hao et al. 2014)

Above: Areal fraction of conterminous U.S. under very wet (blue) or very dry (red) conditions. NOAA/NCEI.

The two figures above demonstrate that moisture conditions have not shown a tendency to have decreased (more drought) or increased (more large-scale wetness). Such information is rarely consulted when it is more convenient simply to make unsubstantiated claims that moisture extremes, i.e. droughts and floods (which have always occurred), are somehow becoming even more extreme. Over shorter periods and in certain locations, there is evidence that the heaviest precipitation events are tending to be greater. This is not a universal phenomenon and it has not been established that such changes may be due to changes in greenhouse gas concentrations as demonstrated earlier because the model projections are unable to reproduce the simplest of metrics.

Above: World grain production 1961-2012. U.N. Food and Agriculture Organization.

It is a simple matter to find documentation of the ever-rising production of grains. One wonders about the Federal Council on Environmental Quality’s allegation that there has been “harm to agriculture” from human-induced climate change because when viewing the total growth in production, which appears to be accelerating, one would assume no “harm” has been done during a period of rising greenhouse gases.

With the evidence in these examples above, it is obviously difficult to establish the claims about worsening conditions due to human-caused climate change, or more generally that any change could be directly linked to increasing CO2. This point also relates to the issue of climate model capability noted earlier. It is clear that climate models fall short on some very basic issues of climate variability, being unable to reproduce “what” has happened regarding global temperature, and therefore not knowing “why” any of it happened. It is therefore premature to claim that one knows the causes for changes in various exotic measures of weather, such as rainfall intensity over short periods, which are not even explicitly generated in climate model output.

The Disappointing Scientific Process

I have written much for previous congressional hearings and other venues about the failure of the scientific community to objectively approach the study of climate and climate change. (See Appendix) Climate science is a murky science with large uncertainties on many critical components such as cloud distributions and surface heat exchanges. As mentioned above, there is no objective instrumentation that can tell us “why” changes occur. That being the case, we are left with hypotheses (claims) to put forward and then to test. The information given above, in my view, is clear evidence that the current theoretical understanding of “why” the climate changes, as embodied in models (and on which current policy is based), fails such tests. Indeed, the theoretical (model) view as expressed in the IPCC AR5 in every case overestimated the bulk tropical atmospheric temperature response of extra greenhouse gases (see above and IPCC Supplementary Material Figure 10.SM.1) indicating the theoretical understanding of the climate response is too sensitive to greenhouse gases.

One problem with our science relates to the funding process for climate studies, the vast majority of which is provided through federal agencies. Funding decisions are decided by people, and people have biases. Our science has also seen the move toward “consensus” science where “agreement” between people and groups is elevated above determined, objective investigation. The sad progression of events here has even led to congressional investigations designed to silence (with some success) those whose voices, including my own, have challenged the politically-correct views on climate (i.e. congressional investigation by Rep. Grijalva, 22 Feb 2015, http://www.scribd.com/doc/256811029/Letter-to-UAH-re-John-Christy.)

Today, funding decisions are made by review panels. In this process, many proposals for funding are submitted to the agencies, but the agencies only have a fraction of the funds available to support the proposals, so only a few proposals can be funded and these are selected by panels. In the area of climate, it is clear the agencies are convinced of the consensus view of dangerous climate change as indicated by their various statements and press releases on the issue. Therefore, when a contrarian proposal is submitted that seeks to discover other possible explanations besides greenhouse gases for the small changes we now see, or one that seeks to rigorously and objectively investigate climate model output, there is virtually no chance for funding. This occurs because the panel determines by majority vote whom to fund, and with tight competition, any bias by just a couple of panel members against a contrarian proposal is sufficient for rejection. Of course, the agencies will claim all is done in complete objectivity, but that would be precisely the expected response of someone already within the “consensus” and whose agency has stated its position on climate change. This brings me to “consensus science.”

The term “consensus science” will often be appealed to regarding arguments about climate change to bolster an assertion. This is a form of “argument from authority.” Consensus, however, is a political notion, not a scientific notion. As I testified to the Inter-Academy Council in June 2010, wrote in Nature that same year (Christy 2010), and documented in my written testimony for several congressional hearings (e.g., House Space, Science and Technology, 31 Mar 2011) the IPCC and other similar Assessments do not represent for me a consensus of much more than the consensus of those selected to agree with a particular consensus.

The content of these climate reports is actually under the control of a relatively small number of individuals – I often refer to them as the “climate establishment” – who through the years, in my opinion, came to act as gatekeepers of scientific opinion and information, rather than brokers. The voices of those of us who object to various statements and emphases in these assessments are by-in-large dismissed rather than accommodated. This establishment includes the same individuals who become the “experts” called on to promote IPCC claims in government reports such as the endangerment finding by the Environmental Protection Agency.

As outlined in my previous testimonies, these “experts” become the authors and evaluators of their own research relative to research which challenges their work. This becomes an obvious conflict of interest. But with the luxury of having the “last word” as “expert” authors of the reports, alternative views vanish. This is not a process that provides the best information to the peoples’ representatives. The U.S. Congress must have the full range of views on issues such as climate change which are (a) characterized by considerable ambiguity (see model results) (b) used to promote regulatory actions which will be economically detrimental to the American people and, most ironically, (c) will have no impact on whatever the climate will do.

I’ve often stated that climate science is a “murky” science. We do not have laboratory methods of testing our hypotheses as many other sciences do. As a result what passes for science includes, opinion, arguments-from-authority, dramatic press releases, and fuzzy notions of consensus generated by preselected groups. This is not science.

We know from Climategate emails and many other sources that the IPCC has had problems with those who take different positions on climate change than what the IPCC promotes. There is another way to deal with this however. Since the IPCC activity and climate research in general is funded by U.S. taxpayers, then I propose that five to ten percent of the funds be allocated to a group of well-credentialed scientists to produce an assessment that expresses legitimate, alternative hypotheses that have been (in their view) marginalized, misrepresented or ignored in previous IPCC reports (and thus the EPA Endangerment Finding and National Climate Assessments).

Such activities are often called “Red Team” reports and are widely used in government and industry. Decisions regarding funding for “Red Teams” should not be placed in the hands of the current “establishment” but in panels populated by credentialed scientists who have experience in examining these issues. Some efforts along this line have arisen from the private sector (i.e. The Non-governmental International Panel on Climate Change at http://nipccreport.org/ and Michaels (2012) ADDENDUM:Global Climate Change Impacts in the United States). I believe policymakers, with the public’s purse, should actively support the assembling all of the information that is vital to addressing this murky and wicked science, since the public will ultimately pay the cost of any legislation alleged to deal with climate.

Topics to be addressed in this “Red Team” assessment, for example, would include (a) evidence for a low climate sensitivity to increasing greenhouse gases, (b) the role and importance of natural, unforced variability, (c) a rigorous and independent evaluation of climate model output, (d) a thorough discussion of uncertainty, (e) a focus on metrics that most directly relate to the rate of accumulation of heat in the climate system, (f) analysis of the many consequences, including benefits, that result from CO2 increases, and (g) the importance that affordable and accessible energy has to human health and welfare.

What this proposal seeks is to provide to the Congress and other policymakers a parallel, scientifically-based assessment regarding the state of climate science which addresses issues which here-to-for have been un- or under-represented by previous tax-payer funded, government-directed climate reports. In other words, our policymakers need to see the entire range of findings regarding climate change.

Summary of Extract

The messages of the two points outlined in the extract above are: (1) the claims about increases in frequency and intensity of extreme events are generally not supported by actual observations and, (2) official information about climate science is largely controlled by agencies through (a) funding choices for research and (b) by the carefully-selected (i.e. biased) authorship of reports such as the EPA Endangerment Finding and the National Climate Assessment.

Pourquoi je ne crois pas à l’annonce concernant la fusion – par Miles Mathis.

Note: je publie de façon assez sporadique et désordonnée depuis plus de trois semaines, ce qui continuera jusqu’à ce que j’ai rattrapé mon retard. C’est à cause d’une « grippe » tenace (un mois!) dont je commence à peine à sortir. Mon épouse a fini par retracer l’origine de la contamination à une famille d’injectés qui fait Covid sur Covid, duquel ils sont porteurs à vie (j’y reviens dans un article prochain), et dont le système immunitaire foireux en fait des réservoirs et des bouillons de culture pour d’autres virus tels que celui-ci, les rendant manifestement plus virulents.

Il y a aujourd’hui plus de cinq milliards de ces armes biologiques ambulantes en circulation et une volonté évidente de les utiliser pour détruire la santé de l’autre moitié de l’humanité. J’envisage sérieusement de m’imposer une quarantaine définitive de ces Typhoid Mary d’un nouveau genre, en attendant leur lente mais inéluctable disparition du pool génétique humain. La question est maintenant de savoir si quelqu’un a une meilleure solution à proposer.


Premier réflexe – appelons ça de l’instinct – en entendant cette annonce il y a un mois: encore une arnaque. Comme on pouvait s’en douter, Miles a aussitôt publié un article assez complet où il démonte l’entourloupe scientifique. Il rappelle aussi une des fonctions classiques de ce genre de fable, la ponction de l’argent public. Il en omet d’autres, comme la vieille obsession mystique de l’élite pour le soleil, inspiration derrière leur autre imposture équivalente, la bombe nucléaire. Pour certains de leurs tout premiers fakes, nos amis américains ne se donnaient même pas la peine de faire exploser quoi que ce soit et filmaient… le lever du soleil. On annonce d’ailleurs ici (voir la vidéo ci-dessous) que la fusion contribuera à la force de dissuasion américaine. Quoi?!! Même selon la fable officielle, la fusion est censée être un moyen de production d’électricité en milieu hautement contrôlé et on tente déjà de nous le vendre comme une arme? Tout ça s’adresse à une masse bien dressée à croire n’importe quoi dès qu’il s’agit de la grandeur de leur pays.

Il y a aussi à voir dans ce nouveau gigantesque mensonge un pas de plus vers le point de non-retour qui se profile à grande vitesse: on nous parle maintenant, tout comme pour le passage à l’hydrogène « vert » – qui ne verra non plus jamais le jour – d’une échéance de dix ans avant le développement commercial des centrales à fusion. Ce sont les dix ans nécessaires à la réduction drastique de la production d’énergie par 1) la destruction accélérée du réseau pétrole (j’y reviens juste après), 2) le démantèlement définitif des centrales nucléaires classiques, 3) l’abandon du projet de super centrales européennes (prenez le temps de regarder cette interview de Fabien Bouglé à partir de 25:45), 4) la mise en place de solutions énergétiques « renouvelables », qui garantiront l’instabilité permanente du réseau. Pour un point de la situation vous pouvez relire ceci. Mais que le système soit durable ou non (il ne l’est pas) n’est même pas la question. La question est que le projet a changé, et que les investisseurs ont déjà placé leurs billes dans le suivant, en se faisant un paquet de pognon à détruire celui-ci. N’en doutez pas, après le Covid, l’énergie et son (dé)financement sont les armes de destruction massive choisies pour la mise à mort du système et des peuples.

Addendum 19 janvier: mauvaise source (verbale), mauvaises infos! Le prix de l’électricité a en fait diminué en janvier (ici et ici). L’augmentation (de 300 à 400%) doit être en réalité calculée depuis son début, c’est-à-dire la « guerre en Ukraine ». Et question nucléaire, on en a bien fermé une le 1er janvier mais la fermeture de deux autres centrales est repoussée de dix ans (ici). Je cesse définitivement de me fier à cette source. Sorry. Le reste est juste.

Je ne sais pas comment ça se présente chez vous mais 2023 commence fort ici en Belgique. Le prix de l’électricité est multiplié par dix à partir de ce mois de janvier, y compris pour la consommation domestique. Les contrats à prix fixe sont évidemment tous automatiquement résiliés. Les petits commerces encore ouverts sont vides. Malgré que (ou parce que) ils n’ont rien vendu pour les fêtes, il n’y aura même pas de période de soldes. La grande distribution, qui s’est déjà réorganisée en mode hangar avec personnel minimum, ne verra vraisemblablement pas la fin de l’année. Je rappelle encore une fois qu’il est assez difficile de se procurer de la nourriture dans des magasins fermés. Excepté ceux qui auront eu la prévoyance/l’occasion d’investir dans leur propre infrastructure d’énergie, les autres tentent de mettre de côté pour faire face à leur facture délirante, qui dépasse dans certains cas leurs revenus mensuels. Le point positif est que ça incitera tout ce petit monde à moins gaspiller.

Pour conclure sur un ton plus léger, les conférences de presse autour des diverses autres arnaques offraient déjà un spectacle assez lamentable – voir celle de l’équipe de Curiosity. Celle-ci réunit une troupe de bras cassés d’un autre niveau, dont on peut légitimement douter qu’ils attachent eux-mêmes leurs lacets de chaussures. Un peu comme la faune du FEM à la manoeuvre aux USA, en France et ailleurs – celle qui a pénétré dans les cabinets – soit c’est tout ce qu’ils ont trouvé, soit c’est de l’humour. Détail croustillant à ne pas manquer à 6:43, le drapeau américain s’écroule derrière le gugusse qui sort: « Hopefully that’s not representative. » [J’espère que ce n’est pas annonciateur]

Ok, c’est donc bien de l’humour.

Source.


Traduction

Pourquoi je ne crois pas à l’annonce concernant la fusion

par Miles Mathis

Première publication le 22 décembre 2022

La première raison pour laquelle je n’y crois pas, c’est que je ne crois actuellement à aucune affirmation officielle, dans le domaine scientifique ou autre. Nous vivons une époque de totale et complète corruption, et certains sont prêts à raconter n’importe quoi pour obtenir des fonds. Je vous ai présenté des centaines d’exemples récents de fraudes extravagantes, il faudrait donc être fou pour croire ce qu’on nous dit. L’annonce du gouvernement a été faite par la Secrétaire à l’Énergie Jennifer Granholm, une menteuse notoire. Je ne lui ferais pas confiance pour me donner l’heure exacte.

C’est une goule de premier ordre, avec un visage couvert d’énormes verrues, qu’elle a fait effacer sur cette photo. Juste pour info.

La deuxième raison pour laquelle je n’y crois pas, c’est le timing. Ils ont désespérément besoin de gros titres positifs en ce moment, pour contrebalancer tous les négatifs. La science officielle est en chute libre à cause de cette même corruption et de décennies de mensonges colossaux et de vols du Trésor public. L’aube de 2023 marque la fin d’une longue série d’implosions très apparentes, notamment la fraude Apollo, la fraude de la navette spatiale, la fraude des atterrissages sur Mars, les fraudes de SpaceX, la fraude de Blue Origin, la fraude de Higgs, la fraude de BICEP, la fraude de LIGO et, actuellement, la fraude du cycle solaire, dans laquelle l’Air Force falsifie les données de base du Soleil. Et ce ne sont là que neuf exemples sur des milliers.

La troisième raison pour laquelle je n’y crois pas est que tout ça émane de Lawrence Livermore et du Ministère de l’Énergie, en conjonction avec le Ministère de la Défense. Tous trois sont connus pour être de vastes gouffres à pognon, qui siphonnent des trillions de recettes fiscales pour des projets fantômes. Du néant. Des millions ont été dépensés pour cette recherche sur la fusion et ce financement va désormais exploser dans les années à venir. Comme le programme spatial, le programme nucléaire n’est que de l’argent jeté par les fenêtres. C’est une vaste conjuration, une conspiration criminelle de premier ordre.

La quatrième raison pour laquelle je n’y crois pas est que cela ne fait que dix mois que le JET (Joint European Torus – le plus grand réacteur de fusion du monde) a annoncé une grande avancée dans la fusion, en produisant un processus de cinq secondes et 59MJ. Ils ont créé une température de 150 millions de °C, soit exactement la moitié de la température que les Américains revendiquent maintenant. Alors comment avons-nous pu surclasser le « plus grand réacteur de fusion du monde » en seulement 10 mois? Plus important encore, le JET a admis en février dernier être loin de la surunité, en injectant environ trois fois plus d’énergie qu’il n’en a retiré. Mais l’élément important de cette annonce était la promotion d’ITER, le gigantesque réacteur de fusion français pour lequel ils ont dépensé des milliards et qui, affirme-t-on, produira 10 surunités. C’est le but de tout cela, voyez-vous: encore des projets de pillage du Trésor public, avec des milliards de dollars de vos impôts alloués à ces faux projets où on tire au laser et où on déclare n’importe quoi.

La cinquième raison pour laquelle je n’y crois pas est qu’il est très difficile d’obtenir la moindre information sur le processus employé ici. Toutes les annonces ne sont que du brassage de vent, et je n’ai pas pu trouver de lien vers un seul article. Dans les quelques « explications scientifiques » présentées, tout ce que j’ai pu trouver, c’est qu’ils opéraient une fusion vers de l’hélium5, ce qui est très improbable. Il vous suffit d’aller sur Wikipedia, où vous trouverez qu’ils ont créé de grands isotopes d’hélium depuis longtemps sans jamais aucune revendication d’énergie positive dans leur désintégration. Et, fait révélateur, ils n’ont pas créé d’hélium5. Les héliums 6 et 8 sont les plus courants, et ils ne sont pas vraiment fusionnés, car ils sont constitués d’un halo. Un halo signifie que les baryons supplémentaires ne sont pas pris en sandwich dans le noyau, mais orbitent autour de lui.

La sixième raison pour laquelle je n’y crois pas est qu’il n’y a pratiquement aucun moyen de vérifier cette découverte, puisqu’ils affirment avoir créé une température de 300 millions de degrés Celsius avec des lasers. Très peu d’endroits autres que Lawrence Livermore peuvent créer ces conditions, et tous ces endroits appartiennent également au gouvernement. Il n’y a donc aucun moyen de confirmer cette découverte de manière indépendante. Un autre problème est que, bien qu’ils affirment que la température a recréé les conditions d’une étoile, les étoiles ne sont en réalité pas aussi chaudes. Le centre du Soleil est estimé à 15 millions de degrés, par exemple, et jusqu’à récemment, tous les sites scientifiques admettaient que nous ne pouvions pas créer cette température. Mais nous pouvons tout à coup créer une température 20 fois plus élevée?

La septième raison pour laquelle je n’y crois pas est un petit calcul mathématique. Le gain net d’énergie était à peu près suffisant pour faire bouillir 8 litres d’eau, alors que la source d’énergie était constituée de 192 lasers à haute énergie concentrés sur un « grain de poivre », créant 300 millions de degrés C. Combien de litres d’eau pourrait-on faire bouillir avec toute cette énergie? Je ne sais pas, mais de l’ordre d’un million, je suppose. Donc la production fractionnée était si faible qu’elle serait en dessous des marges d’erreur de mesure. En d’autres termes, tout ceci pourrait n’être que résiduel. Du bruit.

La huitième raison pour laquelle je n’y crois pas est qu’on ne s’attendrait pas à tomber sur une méthode que la Nature n’utilise pas. La Nature étant censée être très efficace, on s’attendrait à ce que nos laboratoires imitent la méthode de la Nature, non à ce qu’ils visent une méthode exotique nécessitant davantage d’apport d’énergie. Les étoiles n’opèrent pas de fusion en commençant par du deutérium et du tritium, bien qu’elles en disposent. Pourquoi pas, si elles peuvent plus facilement parvenir à la fusion de cette manière? On me dira que c’est parce que ça nécessite des températures plus élevées que celles que les étoiles peuvent atteindre, mais cela a-t-il un sens? Cela impliquerait que nous sommes plus puissants et inventifs que les étoiles, n’est-ce pas, il faut vraiment avoir envie d’y croire. Non, si nous pouvons gérer 300 millions de degrés, nous pouvons en gérer 15 millions, alors pourquoi ne pas opérer de fusion comme le fait le Soleil? On me dira que dans le cas du Soleil la pression joue un rôle, mais la densité du Soleil est bien moindre qu’ici. Le Soleil est un plasma, rappelez-vous, une sorte de gaz chaud ou de semi-liquide. Alors comment créerait-il une telle pression supplémentaire? Même en supposant que le noyau solaire soit plus dense, il ne serait pas des millions de fois plus dense. Nous sommes en fait capables de créer des pressions bien supérieures à celles que le noyau solaire est censé avoir, alors pourquoi ne pas le faire? Non, rien de tout ça n’a le moindre sens, comme d’habitude.

La neuvième raison pour laquelle je n’y crois pas est que je ne crois pas que la fusion soit au départ un événement sur-unitaire. Ce qui voudrait dire qu’il est impossible pour nous de fusionner, par définition. La fission est sur-unitaire puisque l’énergie est stockée dans le noyau. Lorsque les étoiles créent des noyaux, elles créent des flux ou des chemins de charge qui enferment les baryons dans une architecture spécifique. Cette architecture est une énergie stockée, de sorte que lorsqu’elle est brisée, l’énergie qui l’a créée est libérée. Mais ce n’est pas le cas de la fusion. La fusion et la fission sont des processus opposés, et on ne peut pas stocker de l’énergie dans les deux sens. C’est une contradiction dans les termes. Lorsque le Soleil opère une fusion, l’énergie « créée » n’est pas libérée d’une architecture stockée. Elle n’est pas « créée » du tout. En bref, le Soleil reçoit une charge provenant du noyau galactique, qu’il recycle à travers son corps en utilisant le spin [rotation], en l’attirant aux pôles et en la libérant à l’équateur. Lorsque cette charge traverse son corps, tout ce qui se trouve dans le Soleil est mis en spin. Pas seulement le Soleil dans son ensemble, mais toutes les particules du Soleil. Au fur et à mesure de leur spin, elles accumulent de nouveaux spins, les photons étant transformés en leptons et en baryons. Ces particules entrent ensuite en collision et s’organisent en d’autres spins, ce qui nous donne tous les éléments. Mais pour ce faire, il faut une perte d’énergie. Une partie de l’énergie du champ de charge est stockée dans ces chemins de charge, de sorte qu’il y a en fait moins d’énergie qui sort du Soleil que ce qu’il y entre. Ou encore, l’énergie est conservée, comme c’est toujours le cas, mais l’énergie de la charge disponible diminue, puisqu’une partie de celle-ci est retenue dans le noyau. Donc, dans ce sens, le Soleil dans son ensemble est un dispositif sous-unitaire. La fusion ne semble être sur-unitaire que parce que nous mesurons l’énorme énergie qui sort du Soleil et ignorons l’énorme énergie qui y entre.

Comme vous pouvez le constater, j’espère, cette analyse détruit totalement la possibilité de la fusion comme producteur d’énergie ici sur Terre, qu’elle soit chaude ou froide. La fusion verrouille nécessairement une partie de l’énergie entrante dans l’architecture nucléaire, ce qui en fait pour nous, par définition, un événement sous-unitaire.

Vous direz: « Non, l’énergie provient de la fission ultérieure, puisque l’hélium5 se décompose spontanément ». Mais ça ne peut pas fonctionner car l’hélium5 se désintègre en hélium4 et en un neutron. Nos blocs de construction étaient le deutérium et le tritium, et le tritium est déjà radioactif ou enclin à se désintégrer, donc son énergie n’est pas bien stockée. Et la désintégration de l’hélium5 ne devrait produire presque aucune énergie elle-même, puisque le neutron n’était pas lié au départ. Aucune énergie n’a été liée dans ce lien. Le neutron n’était pas lié, il était simplement plaqué là temporairement, sans créer de lien. La rupture de la liaison ne devrait donc créer pratiquement aucune énergie. Le résultat de la désintégration de l’hélium4 a beaucoup d’énergie stockée dans ses liaisons, bien plus que le deutérium et le tritium combinés, donc il ne peut y avoir d’énergie ici.

Pour voir cela d’une autre manière, rappelez-vous que le tritium se désintègre également en libérant ce neutron supplémentaire, tout comme l’hélium5. Mais comme le tritium est plus stable que l’hélium5, le neutron est davantage lié au tritium. Autrement dit, il y avait plus d’énergie disponible à partir de la fission du tritium que celle de l’hélium5, donc transformer le tritium en hélium5 ne nous aidera pas, n’est-ce pas? Nous aurions dû obtenir plus d’énergie dans la fission du tritium lors de cette perte de neutron qu’avec l’hélium5.

On me dira que le tritium « se désintègre » en hélium 3, mais ce n’est pas le type de fission spontanée dont je parle. En fait, le terme « désintégration » est mal choisi, n’est-ce pas? Le tritium ne peut pas se désintégrer en hélium, puisque ce serait une chose plus petite qui se désintégrerait en une chose plus grande. Oui, le tritium est susceptible de se transformer en hélium dans notre environnement, mais cela n’a rien à voir avec le type de désintégration que l’on observe avec l’uranium ou le plutonium. L’uranium se désintègre en noyaux plus petits comme le baryum et le krypton. Donc, encore une fois, nous ne devrions pas utiliser le mot désintégration dans les deux sens. C’est très confus, je suppose que c’est volontaire. Le tritium ne se désintègre pas en hélium et ne libère pas d’électrons, puisque cette équation ne s’équilibre pas:

[voir l’équation dans le document original]

Comme je l’ai déjà montré, le tritium ne libère pas d’électron, il est frappé par un positron. Son neutron le plus exposé et le moins lié est frappé par un positron, et dans le choc, les deux particules sont inversées. Le positron devient un électron et retrace le chemin du positron vers l’extérieur, expliquant pourquoi nous avons manqué sa trace. Seul le spin externe du neutron s’inverse, et il devient un proton. Donc, encore une fois, comme pour la désintégration bêta, aucune désintégration n’est impliquée avec le tritium.

Pour obtenir de l’énergie de l’hélium5 en fission, il faudrait que ses liaisons centrales soient rompues et qu’il se désintègre en quelque chose d’encore plus simple que le deutérium et le tritium. Par exemple, si l’on nous disait que l’hélium5 se décompose spontanément en cinq baryons, je pourrais croire cette annonce. Mais en l’état actuel des choses, cette annonce est complètement illogique du simple point de vue de la construction de base.


Texte original

Why I Don’t Believe the Fusion Announcement

by Miles Mathis

First published December 22, 2022

The first reason I don’t believe it is that I don’t believe any claims coming out of the mainstream right now, science or otherwise. We are living through a time of utter and complete corruption, and people will say anything for funding. I have shown you hundreds of recents examples of extravagant fraud, so we would have to be fools to believe anything we are being told. The government announcement was made by Energy Secretary Jennifer Granholm, a notorious liar. I wouldn’t trust her to tell me the correct time.

She is a major ghoul, with a face covered in huge moles, which she had removed from that photo. Just so you know.

The second reason I don’t believe it is the timing. They are desperately in need of positive headlines right now, to counter-balance all the negative ones. Mainstream science is in an absolute freefall due to that very same corruption and decades of huge lies and thefts from the treasury. As we approach 2023, we are at the end of a long line of very conspicuous implosions, including the Apollo fraud, the Space Shuttle Fraud, the Mars landings fraud, the SpaceX frauds, the Blue Origin fraud, the Higgs fraud, the BICEP fraud, the LIGO fraud, and currently the Solar Cycle fraud, in which the Air Force is falsifying basic data from the Sun. And those are just nine examples of literally thousands.

The third reason I don’t believe it is that this is coming out of Lawrence Livermore and the Department of Energy, in conjunction with the Department of Defense. All three are known to be vast money pits, stealing trillions in taxes for phantoms. Nothings. Millions have been spent on this fusion research and now that funding will balloon over the coming years. As with the space program, the nuclear program is all money down the drain. It is a vast conjob, a criminal conspiracy of the first order.

The fourth reason I don’t believe it is that it has only been ten months since JET (Joint European Torus—the world’s largest fusion reactor) announced a big breakthrough in fusion, obtaining a process of five seconds and 59MJ. They created a temperature of 150 million C, exactly half the temperature the Americans are now claiming. So how did we outdo the “world’s largest fusion reactor” in just 10 months? Even more to the point, JET admitted last February that they were nowhere near over-unity, putting roughly three times the energy in as they got out. But the important thing in that announcement was the promotion of ITER, the gigantic French fusion reactor they have spent billions on, which—it is claimed—will produce 10X overunity. That is what this is all about, you see: more suck-from-the-treasury projects, with billions of your taxdollars going to these fake projects where they fire lasers and make wild claims.

The fifth reason I don’t believe it is that it is very difficult to get any information about the process here. All the announcements are just horntooting, and I couldn’t even find a link to a paper. In the few “explanations of the science” involved here, all I was able to find was that they were fusing into Helium5, which is very unlikely. All you have to do is go to Wikipedia, where you will find that they have been creating big isotopes of Helium for a long time without any claim of positive energy out in the decay. And, tellingly, they haven’t been creating Helium5. Helium6 and 8 are the most common, and those aren’t really fused, being made of a halo. A halo means the extra baryons aren’t sandwiched in the nucleus, but are orbiting it.

The sixth reason I don’t believe it is that there is almost no way to check this discovery, since they are claiming they created a temperature of 300 million C with lasers. Very few places other than Lawrence Livermore can create those conditions, and all those places are also government owned. So there is no way to independently confirm any of this. Also a problem is that although they say that temperature recreated conditions in a star, stars are not actually anything like that hot. The center of the Sun is thought to be 15 million degrees, for instance, and until recently all science sites were admitting we couldn’t create that temperature. But suddenly we can create a temperature 20 times hotter?

The seventh reason I don’t believe it is doing a little math. The net gain in energy was about enough to boil 2 gallons of water, while the source of energy was 192 high energy lasers focused on one “peppercorn”, creating 300 million degrees C. How many gallons of water could you boil with all that energy? I don’t know, but on the order of a million, I would guess. So the fractional output was so low it would fall beneath margins of error in measurement. In others words, this could all just be residue. Buzz.

The eighth reason I don’t believe it that you would not expect us to trip on some method Nature wasn’t using. Nature is supposed to be very efficient, so you would expect our labs to mimic Nature’s method, not aim for some exotic method that required more input energy. Stars don’t fuse by starting with deuterium and tritium, though they have it available. Why not, if they can fuse in this way more easily? I will be told that it is because it requires higher temperatures than stars can manage, but does that make any sense? That would imply that we are more powerful and inventive than stars, doesn’t it, which does take some believing. No, if we can manage 300 million degrees, we can manage 15 million, so why not fuse as the Sun does? I will be told that the Sun also uses pressure, but the density of the Sun is much less than here. The Sun is a plasma, remember, a sort of hot gas or semi-liquid. So how does it create all that extra pressure? Even assuming the Solar core is denser, it would not be millions of times denser. We can actually create pressures far above what the Solar core is thought to have, so why not do it? No, none of this makes any sense, as usual.

The ninth reason I don’t believe it is that I don’t believe fusion is an over-unity event to start with. Which would mean it is impossible for us to fuse, by definition. Fission is over-unity since energy isstored in the nucleus. When stars create nuclei, they create charge streams or paths that lock baryons together in a specific architecture. That architecture is stored energy, so that when it is broken, the energy to create it is released. But that isn’t true of fusion. Fusion and fission are opposite processes, and you cannot store energy in both directions. It is a contradiction in terms. When the Sun fuses, the energy “created” isn’t released from some stored architecture. It isn’t “created” at all. In short, the Sun takes in charge coming to it from the Galactic Core, recycling that charge through its body using spin, pulling it in at the poles and releasing it on the equator. As that charge passes through its body, everything in the Sun is spun up. Not just the Sun as a whole, but all particles in the Sun. As they are spun up, they stack on more spins, with photons being spun up into leptons and baryons. Those particles then collide and arrange in further spin-ups, giving us all the elements. But to do that requires an energy loss. Some of the energy of the charge field is stored in those charge paths, so there is actually less energy coming out of the Sun than going in. Or, energy is conserved, as it always is, but available charge energy decreases, since some of it is tied up in the nucleus. So in this sense, the Sun as a whole is an under-unity device. Fusion only seems to be over-unity since we measure the huge energy coming out of the Sun and ignore the huge energy coming in.

As I hope you can see, that analysis totally destroys the possibility of fusion as an energy producer here on Earth, either hot or cold. Fusion necessarily locks some of the incoming energy into the nuclear architecture, making it an under-unity event for us by definition.

You will say, “No, the energy is from the subsequent fission, since Helium5 breaks down spontaneously”. But that can’t work because Helium5 decays into Helium4 and a neutron. Our building blocks were Deuterium and Tritium, and Tritium is already radioactive or prone to decay, so its energy is not well-stored. And the decay of Helium5 should produce almost no energy itself, since the neutron was never bound to start with. No energy was bound in that link. The neutron wasn’t bound, it was just sort of pressed in there temporarily, without creating a bond. So breaking the bond should create almost no energy. The decay result Helium4 has a lot of energy stored in its bonds, far more than Deuterium and Tritium combined, so there can be no energy out here.

To see that in another way, remember that Tritium also decays by releasing that extra neutron, just like Helium5. But since Tritium is more stable than Helium5, the neutron was bound more with Tritium. Meaning, there was more energy available from fission with Tritium than Helium5, so turning Tritium into Helium5 won’t help us, will it? We should have gotten more energy in fission from Tritium in that neutron loss than from Helium5.

I will be told Tritium “decays” into Helium3, but that isn’t the sort of spontaneous fission I am talking about. In fact, “decay” is a misnomer there isn’t it? Tritium can’t decay into Helium, since that would be a smaller thing decaying into a larger thing. Yes, Tritium is prone to become Helium in our environment, but that has nothing to do with the sort of decay we see with Uranium or Plutonium. Uranium decays into smaller nuclei like Barium and Krypton. So, again, we shouldn’t use the word decay in both directions. It is highly confusing, I assume on purpose. Tritium doesn’t decay into Helium and release an electron, since that equation doesn’t balance:

[see equation in original document]

As I have shown before, Tritium doesn’t release an electron, it is hit by a positron. Its most exposedand least bound neutron is hit by a positron, and in the hit both particles are flipped. The positron becomes an electron and retraces the path of the positron out—explaining why we missed its track. Only the outer spin of the neutron flips, and it becomes a proton. So, again, as with beta decay, no decay is involved with Tritium.

To get any energy from Helium 5 in fission, its central bonds would have to be broken, with it decaying into something even simpler than Deuterium and Tritium. For instance, if we were told Helium5 spontaneously decayed into five baryons, I might believe this announcement. But as it is, the announcement is completely illogical just as a matter of basic construction.

Gain de fonction ou gain de pureté?

Cette courte absence m’a permis de consacrer beaucoup de temps libre à lire un paquet d’articles. Je reviens avec quelques infos et analyses intéressantes, en commençant par ceci.

On a beaucoup parlé du gain de fonction dans le cadre de la pathogénicité du SARS-CoV-2, sans vraiment définir ce qu’est le gain de fonction. Ce sujet a récemment été abordé par Jonathan Jay Couey, neurobiologiste et membre fondateur de DRASTIC (Decentralized Radical Autonomous Team Investigating Covid-19), qu’il a quitté depuis. Extrait d’un article du Sun du 2 mars 2021:

« DRASTIC est une équipe indépendante de scientifiques, d’analystes et d’enquêteurs qui se sont réunis pour enquêter sur les origines de Covid-19. Leurs travaux ont été cités dans le New York Post, le Washington Post, le Telegraph, le Mail on Sunday et sur Sky News en Australie. Bon nombre de ses membres ont choisi de rester anonymes afin de se protéger d’éventuelles représailles et de pouvoir mener des recherches potentiellement controversées sans que leur carrière en pâtisse. Il s’agirait de spécialistes de l’ingénierie, des mathématiques, de la biologie, du renseignement et des données de sources ouvertes, qui se sont rencontrés sur Twitter. »

Le site web de Couey est ici. Son exposé sur le gain de pureté est ici, suivi d’une analyse de la conférence zoom organisée par Robert F Kennedy Jr, à laquelle il a participé aux côtés de Meryl Nass, Jessica Rose, Tess Lawrie (noms familiers à mes lecteurs) et Robert Malone, dont il décrypte le discours très ambigu – ce que j’ai commencé ici.

Couey rassemble sur son site des interviews qu’il fait de médecins et autres professionnels de la santé et de la recherche, dont le Dr Walter Chestnut (Substack et site web), déjà publié sur ce blog, et Kevin McKernan (Substack), biologiste spécialisé dans la bio-ingénierie, fondateur de Medicinal Genomics, qui étudie rien moins que la génomique du cannabis.

Katherine Watt (ses articles traduits ici et ici) parle ici de la session zoom entre Couey et Matthew Crawford, que vous connaissez de cet article. C’est moi qui souligne:

Des informations très, très intéressantes.

Ceci correspond à l’analyse globale selon laquelle l' »épidémie » et tout ce qui en découle font partie d’une gigantesque fraude.

JJ Couey ne dit pas que la fraude serait le fait que les virus eux-mêmes n’existent pas.

La fraude réside dans le fait que les virus naturels, même s’ils sont manipulés et recombinés en laboratoire par des individus comme Ralph Baric, ne sont pas capables de provoquer des pandémies mondiales, en raison de leur diversité génétique intrinsèque, de la coévolution de nos systèmes immunitaires avec eux et de la manière dont ces deux éléments affectent leur capacité de réplication in vivo.

Les épidémies naturelles s’épuisent trop rapidement, après avoir infecté trop peu de personnes.

Mais les virus synthétiques purifiés en laboratoire, distribués artificiellement et sélectionnés pour leur capacité de réplication, peuvent être présentés au monde comme des virus naturels ou recombinants.

Et cette fraude, dont l’objectif est de créer la peur, pouvait être et a été la justification des masques, des tests, des confinements, des essais cliniques truqués, des campagnes de vaccination de masse par injection létale, des décrets, de la destruction économique, de la centralisation du pouvoir et de la concentration des financements.

[Le tout] partant du principe frauduleux que les pandémies virales constituent une menace véritable pour l’humanité [et] que les gouvernements peuvent et doivent exercer des pouvoirs insensés et investir d’énormes ressources financières dans les entreprises pharmaceutiques – en particulier les produits à base de nanoparticules d’ARNm/lipides – pour tenter de les contrôler.

Continuer de présenter cette fraude au public comme une vérité permet de poursuivre les dissimulations, les campagnes de diversion et autres guerres de l’information.

Pour ce que ça vaut, je vois les Malone (Robert et Jill) d’une manière différente de celle de Crawford. Je pense qu’ils sont des acteurs conscients et volontaires de cette opération criminelle.

Je ne pense pas qu’ils soient des participants réticents pour qui le jeu a soudainement dérapé, et qui cherchent maintenant des moyens de se désengager et de s’expliquer sans violer les termes de leurs autorisations de sécurité du Département de la Défense.

Cependant, ce n’est que mon opinion. Basée sur l’habileté du Dr Malone à éviter de se compromettre, et sur son étrange adhésion à l’image publicitaire de l’Homme-le-plus-intéressant [NdT. ce lien renvoie vers un article de Sage Hana qui taille un costard au Dr Malone, que je rhabillerai pour l’hiver dans un prochain article].

Pour bien comprendre ce qui précède, je vais tenter de résumer succintement quelques points de la présentation susmentionnée de Couey. Comme le fait Katherine Watt ci-dessus, je les replace dans le contexte des événements, ce qui amène logiquement aux questions qu’elle soulève, et aussi à une autre, qu’apparemment personne ne pense à poser.

Juste pour rappel, au début de la « pandémie », certains médecins s’étonnaient de l’étrange distribution de la maladie. Les « viro-sceptiques » y voyaient même la confirmation d’une autre cause, non-virale. Arthur Firstenberg a écrit un bouquin qui donnait comme cause unique du Covid la pollution électromagnétique ambiante générée par la nouvelle génération d’ondes millimétriques – en bref, la 5g. D’autres pointaient l’oxyde de graphène (supposément contenu dans des vaccins anti-grippaux antérieurs), associé à ce même genre d’ondes, comme cause des symptômes du Covid, et comme cause des effets « secondaires » des injections. D’autres enfin, comme le Dr Andrew Kauffman, niaient purement et simplement l’existence du virus, qu’ils identifiaient comme exosomes, et attribuaient les symptômes du Covid à leur hypothèse favorite, la « détoxification ». J’ai déjà traité de ces voies de garage ici.

Ce pseudo-débat a récemment repris un peu d’ampleur sur Substack. De nombreux scientifiques assez pointus, dont je traduis et re-publie ici certains articles, ont assez vite clos le débat par des arguments solides et très documentés sur les divers mécanismes de la pathologie du SARS-CoV-2. L’hypothèse aujourd’hui dominante, longtemps diabolisée, est que le SARS-CoV-2 – la souche dite « de Wuhan » – est issu d’une manipulation en laboratoire, un « gain de fonction » qui l’a rendu plus virulent – et plus mortel – pour l’être humain par rapport à un coronavirus « sauvage ».

Couey pose donc la question: qu’est-ce exactement qu’un gain de fonction? Je résume ce qu’il en dit dans son exposé. Il existe quatre méthodes de gain de fonction, dont trois – passage animal, culture cellulaire, récolte de virus sauvage – sont relativement aléatoires et n’offrent aucune garantie de résultat. La méthode de gain de fonction la plus aboutie est de travailler directement sur le virus. C’est cette méthode qui a vraisemblablement été utilisée pour la fabrication du SARS-CoV-2.

Il est en fait assez facile de créer des copies identiques de virus ARN in silico – appelées « clones » synthétiques – par un procédé employé dans les laboratoires de biologie moléculaire. On utilise pour les répliquer une méthode dite de l’ADN circulaire. Les virus ARN sont d’abord découpés en brins, qui correspondent à des fonctions distinctes du virus et sont conçus pour s’ajuster ensuite comme des pièces de puzzle – la pièce 2 ne s’ajuste qu’avec la pièce 1 et 3, la pièce 3 qu’avec la 2 et 4, etc. On utilise ensuite de l’ADN bactérien pour répliquer ces pièces, qui seront ensuite récoltées par filtration et ré-assemblées par ligation pour former des clones complets. On peut ainsi en fabriquer de grandes quantités et, contrairement à la réplication in vivo, quasiment sans aucune erreur dans le processus, grâce à la stabilité inhérente à l’ADN reproducteur. En plus d’un gain de fonction, on a donc ainsi créé ce que Couey appelle un « gain de pureté ».

Le SARS-CoV-2 est un virus ARN à simple brin qui utilise dans une population humaine l’ADN de l’hôte pour se reproduire. Lors de cette reproduction in vivo, contrairement à ce qui se passe en laboratoire, se produisent de nombreuses erreurs de réplication. Le résultat est qu’un grand nombre devient inapte à causer des symptômes, voire à se répliquer à nouveau – ce sont des virus à réplication défective ou à défaut de réplication. Le résultat est donc une masse de virus dont seule une fraction est identique au modèle de départ. Ils sont désignés par le terme « quasi-espèce » (quasi-species). Lorsqu’ils infectent un hôte, ils constituent un « essaim viral » (swarm), dont seul un petit pourcentage est virulent. C’est donc, pour ainsi dire, un premier mécanisme naturel de contrôle des épidémies.

Un autre mécanisme expliqué par Couey et repris par Katherine Watt ci-dessus, est que les hôtes qui développent une infection létale meurent avant d’avoir pu contaminer d’autres personnes. Qu’il y ait décès ou non, l’état général des infectés est de toute manière suffisamment mauvais pour qu’ils se retirent eux-mêmes très tôt de la circulation – à noter que le Dr Meryl Nass donne plusieurs contre-exemples de ce schéma lors de la susdite conférence zoom. Le virus en circulation s’éteint ensuite purement et simplement, faute d’hôtes. Pour cette raison, les virus à fort taux de létalité sont de très mauvais candidats pour créer une pandémie. Couey cite une fuite de laboratoire antérieure qui a suivi ce schéma (8 000 contaminations, 800 morts, fin de l’épidémie).

Depuis cette présentation, pour une raison qui m’échappe, Couey a succombé à une explication simpliste de la pandémie, rapportée ici avec enthousiasme par Michael Senger, un opposant contrôlé avec un bouquin à vendre sur la culpabilité de la Chine, sujet répété ad nauseam, sur lequel je reviens plus bas avec un point de vue assez différent. Couey pense aujourd’hui qu’il n’y aurait eu aucun nouveau pathogène et que la pandémie ne serait le fait que d’une simple manipulation statistique. Par conséquent, je ne parlerai plus de JJ Couey à l’avenir, pour les mêmes raisons qui me font abandonner tous ceux dont le raisonnement « plafonne » – ou dévie de manière suspecte. Je peux vous assurer avec 100% de certitude, de ma propre expérience et de celle de centaines de personnes dont j’ai lu le témoignage (dont celui-ci) que sa conclusion est fausse. C’est bien un nouveau pathogène, qui provoque un nouveau train de symptômes, aussi étrange qu’épouvantable.

En ce qui concerne la possibilité que ce virus se diffuse et crée une pandémie malgré cet inhérent défaut de réplication, Kevin McKernan donne une réponse – qui ne convainc pas tout le monde – sur cette page ainsi que dans ses commentaires sur cette page:

Mon interprétation de son podcast était qu’un clone infectieux ne durerait pas longtemps dans un essaim…

Je pense qu’il peut durer suffisamment longtemps pour faire le tour du globe comme l’a fait Alpha.

Il est rejoint sur ce point par le Dr Brian Mowrey, autre auteur très prolifique sur Substack, aux publications très fouillées et documentées. En résumé, son angle est de laisser toutes les options sur la table, ce qui donne parfois l’impression qu’il tente de noyer le poisson – c’est quelqu’un d’intéressant mais je lui fais très moyennement confiance. Il retrace une histoire hautement suspecte de la polio, vu ce qu’on en sait maintenant. Il conteste la date d’apparition du VRS, et donc son origine iatrogéne – le vaccin anti-poliomyélitique. Il continue encore aujourd’hui avec obstination à enquêter sur l’origine naturelle ou synthétique du virus. Pour le sujet qui nous intéresse dans cet article, il estime, contrairement à ce que comprend Couey, que la rémanence de certaines souches plaide plutôt en faveur d’un mécanisme de stabilité du génome viral et par conséquent – ça devient intéressant – il ne croit pas beaucoup à l’émergence spontanée de variants (il l’explique ici, ici et ici) et laisse ainsi la porte ouverte à une possibilité de diffusions volontaires et multiples de clones, à commencer par l’original. Pour des raisons techniques qu’il développe en détail, il soupçonne un acteur autre que la Chine ou les Etats-Unis. Il explique à ce propos, qu’il n’y a pas eu de pandémie à proprement parler mais un ensemble de foyers épidémiques distincts, hypothèse partagée par plusieurs autres médecins, notamment le Dr Lee Merritt, qui colle assez bien avec cette distribution étrange.

Voici la question, dont je parlais au début: vu que la souche originale de Wuhan, dont on comprend mieux les différents modes d’action, était manifestement dangereuse, vu que c’est chez les personnes injectées, qui produisent la protéine de pointe de cette souche précise, que l’on voit aujourd’hui des morts subites (SADS, voir ici), vu que les vidéos émanant de Chine début 2020 montraient un genre similaire de mort subite, ces vidéos, jugées frauduleuses, étaient-elles en fait authentiques? Montraient-elles les conséquences d’une diffusion d’arme biologique létale? Dans l’affirmative, ce fait donnerait un tout autre sens à la politique extrême de zéro Covid du PCC. Les Chinois savaient-ils quelque chose que nous ne savions pas – par exemple, les effets à long terme de la contamination au SARS-CoV-2?

J’ai à publier sur ces effets quelques articles du susmentionné Dr Chestnut, qui montrent que les personnes contaminées par le virus, l’injection et/ou l’excrétion vaccinale de personnes injectées, si on ne trouve aucun traitement adéquat, n’éliminent jamais cette protéine de pointe, qui continue à causer silencieusement des dégâts irréversibles aux organes, au système sanguin et au système immunitaire. Nous verrons donc une dépopulation, d’abord par les morts à court et moyen terme et la stérilisation, suivie par une réduction de l’espérance de vie au niveau global. L’arme parfaite. Le type qui a inventé ça est un génie.

Technocratique ou non, il semble que l’élite compte pour instaurer son système un rétablissement de l’ancien cadre féodal, ou du moins de la notion qu’ils en ont. En recréant l’exode rural par les « villes intelligentes », en recréant la disette alimentaire par la suppression de protéines animales essentielles, le rationnement et la pénurie permanente, en recréant l’indigence avec la ruine économique et l’appauvrissement institutionnel que permettront revenu universel et monnaie digitale programmable des banques centrales, en recréant le sacrifice patriotique par les sanctions contre la Russie, en recréant les anciens cultes par un système de croyances « vertes » et en recréant le spectre des grandes épidémies par une arme biologique destructice de la résistance humaine.

Les médecins sont redevenus de dangereux charlatans, les hôpitaux des mouroirs surchargés. Les gens ont froid, les gens ont faim. La misère et la peur du lendemain sont de retour.

Le Nouveau Normal n’a vraiment rien de nouveau.

Les sept heures de déposition de Fauci: ce qu’on en sait jusqu’à présent – par le Brownstone Institute.

Je vous propose quelques articles qui passent en revue des personnalités du monde médical, en commençant par le plus tristement célèbre. On trouve quelques répétitions inutiles dans celui-ci, et il oublie de mentionner les millions de morts causés par les « mesures ». Il y a d’autres articles que je publierais (conditionnel) si j’avais plus de temps mais il se passe pas mal de choses en ce moment.

Fauci inaugure une nouvelle tactique après l’amnistie pandémique: l’amnésie pandémique.

Source.


Les sept heures de déposition de Fauci: ce qu’on en sait jusqu’à présent

Brownstone Institute

22 novembre 2022

Aucune transcription n’est encore disponible et aucun journaliste n’a été admis. Mais grâce aux procureurs généraux qui ont intenté le procès, aux plaignants et à leur avocat, ainsi qu’aux autres parties impliquées dans le procès contre l’administration Biden, nous disposons de quelques informations sur la déposition d’Anthony « Je suis la Science » Fauci. Ce dernier a été la figure de proue de la réponse à la pandémie et il est accusé de collusion avec Big Tech pour faire taire la dissidence, en violation du Premier Amendement. 

La question de savoir si la déposition devait être publique a elle-même fait l’objet d’un débat juridiques. Le Ministère de la Justice a fait opposition à la publication de tout enregistrement et de toute information personnelle identifiable par crainte de harcèlement public, et cette exigence a été satisfaite. En conséquence, on ne dispose pas (encore) de transcription et on sent une grande réticence, même de la part des personnes présentes, à révéler l’intégralité des propos tenus. Les grands médias nationaux n’ont montré aucune volonté de s’intéresser à pour cette affaire. 

On dispose néanmoins d’informations par le biais de tweets sans ambigüité et d’un article rédigé par l’un des plaignants. Le fait marquant majeur est que Fauci est atteint d’un sévère cas d’amnésie. Le procureur général de la Louisiane, Jeff Landry, a rapporté que pendant sept heures, Fauci a essentiellement éludé toute question précise, répondant qu’il ne se rappelait pas clairement les détails qui pouvaient mettre en lumière son implication dans la censure de la parole. 

« Wow! Ça a été stupéfiant de passer 7 heures avec le Dr Fauci. L’homme qui, à lui seul, a détruit l’économie américaine en s’appuyant sur ‘la science’. Tout ça pour découvrir qu’il ne se souvient pratiquement de rien concernant sa réponse au Covid! »

Et ce, malgré les centaines de pages et les nombreuses déclarations publiques qui semblent confirmer que la Maison Blanche et de nombreuses agences gouvernementales ont collaboré très étroitement avec Google, Facebook, Twitter et d’autres, pour contrôler le récit durant près de deux ans. Une collaboration qui perdure probablement encore aujourd’hui. 

C’est Eric Schmitt, Procureur Général du Missouri et à présent Sénateur élu, qui a intenté le procès aux côtés du Procureur Général de Louisiane. Schmitt a tweeté « quelques éléments à retenir de la déposition de Fauci: Fauci savait que la théorie de la fuite du laboratoire était fondée, mais comme elle risquait de lui être reprochée, il a immédiatement cherché à la discréditer; il a défendu les mesures de confinement; le commun des mortels n’est pas en mesure de déterminer la meilleure solution pour lui-même. »

Il écrit également: « Au cours de la déposition de Fauci cette semaine, la sténographe a éternué. Fauci a exigé qu’elle porte un masque. Voilà, en novembre 2022, la mentalité de l’homme qui a verrouillé notre pays et détruit un nombre incalculable de vies et de moyens de subsistance. Les experts ont fait pareil. La dissidence a été censurée. En Amérique. Plus jamais ça ».

Le plaignant Aaron Kheritary, Chercheur Principal et Associé de Brownstone, explique ce qui suit:

MISE À JOUR: extrait de la déposition d’hier de Fauci dans l’affaire MO contre Biden. Fauci a confirmé avoir envoyé en février 2020 Clifford Lane, son adjoint au NIAID, en tant que représentant américain pour la délégation de l’OMS en Chine. Lane a convaincu Fauci que nous devrions imiter les mesures de confinement de la Chine. 

Le PCC avait annoncé que la Chine avait maîtrisé le virus grâce à des mesures de confinement draconiennes – une affirmation que l’on sait maintenant mensongère. Compte tenu de l’habitude de la Chine de falsifier les informations, Lane et Fauci auraient dû faire preuve de scepticisme face à cette affirmation. Les confinements constituaient une pratique totalement expérimentale et inédite. 

Comme l’a dit notre avocat, @Leftylockdowns1, Fauci « était apparemment prêt à baser son plaidoyer en faveur du confinement sur les observations d’un seul homme s’appuyant sur les rapports d’un dictateur ». Ce n’est pas exactement le niveau de preuve d’un essai randomisé en double aveugle, ni un quelconque niveau de preuve. 

Quelques jours après le retour de Lane, l’OMS a publié son rapport faisant l’éloge de la stratégie de la Chine: « L’utilisation intransigeante et rigoureuse par la Chine de mesures non pharmaceutiques [confinement] pour contenir la transmission du virus COVID-19 dans de multiples contextes offre des leçons essentielles pour une réponse mondiale ». 

« Cette réponse de santé publique plutôt unique et inédite de la Chine a permis d’inverser la progression des cas », affirme le rapport. Mon collègue @jeffreyatucker du @brownstoneinst a donné un aperçu ironique du rapport ému de l’OMS: « J’ai eu une vision du futur, et c’est Wuhan. » 

Le confinement s’est rapidement diffusé de la Chine vers l’Occident, vu qu’un nombre troublant d’apologistes occidentaux, en plus de l’OMS, se sont également penchés sur la réponse au covid du Parti Communiste Chinois. 

Les États-Unis et le Royaume-Uni ont emboité le pas au confinement de l’Italie, qui avait suivi la Chine, et tous les pays du monde, hormis une poignée, ont immédiatement suivi notre exemple. Quelques semaines plus tard, le monde entier était confiné. 

Depuis le début, la base factuelle de cette catastrophe politique mondiale était très mince. Nous vivons maintenant les conséquences de cette catastrophe. 

Jim Hoft, de Gateway Pundit, a ajouté des citations directes de Fauci confirmant pleinement le rapport de Brownstone sur le voyage éclair des NIH en Chine en février 2020:

John Sauer, « Et M. Lane, au retour de ce voyage, a dit que la gestion des Chinois était très structurée, organisée; exact?.. Avez-vous discuté avec M. Lane de ses impressions sur ce voyage lorsqu’il est revenu du voyage de l’OMS ? »

Dr Fauci: « La réponse est oui… Le Dr Lane a été très impressionné par la façon dont, du point de vue de la santé publique clinique, les Chinois géraient l’isolement, la recherche des contacts, la construction d’installations pour soigner les gens, et je pense que c’est ce qu’il voulait dire en parlant de [leur] gestion très structurée et organisée. »

Sauer: « Il a donc tiré la conclusion qu’il pourrait être nécessaire de prendre des mesures extrêmes, selon ses termes, pour imposer une distanciation sociale afin de maîtriser l’épidémie; exact? »

Fauci: « C’est ce que cela implique, oui… Il a discuté avec moi du fait que les Chinois avaient adopté une méthode très organisée pour tenter de contenir la propagation à Wuhan et ailleurs. Il n’a pas eu l’occasion d’aller à Wuhan, mais il était à Pékin, et je crois dans d’autres villes – au moins à Pékin – et il a mentionné leur manière très organisée, bien réglée de gérer l’épidémie.

Sauer: « Et donc sa réaction a été plutôt positive. Y a-t-il des leçons à tirer pour les États-Unis dans leur réponse à l’épidémie? »

Fauci: « Je crois que le Dr Lane est arrivé à la conclusion que, lorsqu’on est confronté à une maladie respiratoire fortement répandue, un moyen très courant et efficace de freiner la propagation rapide de la maladie est de mettre en œuvre des mesures de distanciation sociale… Le Dr Lane est un clinicien très avisé, et j’ai toutes les raisons de croire que son évaluation de la situation était précise et correcte. »

Pour être clair, ce que Fauci décrit ici, c’est une réponse politique qui consistait à souder les portes des appartements des gens et à exercer un contrôle totalitaire sur leurs déplacements, comme mise en œuvre « très organisée » et « bien réglée » de « mesures de distanciation sociale ».

Réfléchissez à ça. 

Hoft a fourni en outre les observations les plus détaillées à ce jour. Je cite ici l’intégralité de son rapport: 

  • Fauci est un menteur habile. Comme nous l’avons constaté depuis des mois dans ses commentaires publics, il ment quand il sent qu’il peut s’en tirer ou quand il sent qu’il n’y aura pas de conséquences significatives.
  • Fauci a fréquemment menti, à moins et jusqu’à ce qu’il soit confronté à des faits alternatifs. Par exemple, il a prétendu qu’il ne connaissait pas Ralph Baric (créateur du virus COVID) ou Peter Daszak (qui a négocié la subvention du NIAID de Fauci au laboratoire de biologie chinois de Wuhan), jusqu’à ce qu’il soit confronté à la preuve que son propre chef de cabinet lui a envoyé un courriel mentionnant que Daszak et Baric faisaient partie de l’équipe de Fauci!
  • Fauci a prétendu qu’il n’avait pas connaissance que son équipe de communication ne se coordonnait pas avec les entreprises de médias sociaux pour empêcher la « mal-information et la désinformation » jusqu’à ce qu’il soit forcé d’admettre qu’il avait effectivement connaissance de certains cas de coordination.
  • Fauci a continué à faire valoir l’affirmation, aujourd’hui démentie, selon laquelle le COVID-19 était un virus d’origine naturelle.
  • Fauci a déclaré que la désinformation et la mal-information (les informations avec lesquelles il n’est pas d’accord) mettent des vies en danger.
  • Fauci a refusé de donner une définition de la recherche sur le « gain de fonction », affirmant que ce terme était trop large pour être défini.
  • FAIT AMUSANT: jusqu’à TRÈS récemment, la fille de Fauci travaillait pour Twitter.
  • FAIT AMUSANT: Fauci est un hypocondriaque. Dans un moment bizarre et surprenant de sa déposition, Fauci a déchargé une partie de sa frustration sur la pauvre sténographe. La sténographe qui transcrivait la déposition a éternué, et Fauci a interrompu la déposition et a réprimandé la sténographe: « C’EST QUOI VOTRE PROBLÈME? Vous souffrez d’une maladie respiratoire parce qu’à l’ère du COVID, je suis inquiet à l’idée d’être près de vous. » Sténographe: « Je ne suis pas malade, j’ai juste des allergies. Mais je peux porter un masque. » Fauci: « Ok. Merci, parce que ce que je ne veux surtout pas, c’est attraper le COVID. » [NdT. ce qui précède semble indiquer/confirmer que Fauci est un véritable psychopathe) (à noter que (1) Fauci lui-même n’a porté de masque à aucun moment de la déposition, et (2) il était apparemment assis à plusieurs mètres de la journaliste judiciaire).
  • FAIT AMUSANT: lors d’un autre spasme d’hypocondrie de Fauci, Fauci a ostensiblement fait une moue répobatrice au procureur général de la Louisiane Jeff Landry après que Landry ait éternué dans la veste de son costume.
  • Stratégie de jeu. Chaque fois qu’il aborde un sujet difficile, il refuse malhonnêtement de définir les termes clés afin d’éviter d’être coincé et de devoir rendre des comptes. Par exemple, lorsqu’il a abordé le sujet de la recherche sur le « gain de fonction », il a refusé de reconnaître la signification de ce terme, objectant qu’il s’agissait d’un terme si large qu’il ne pouvait être défini.
  • Fauci a affirmé à plusieurs reprises qu’il « ne se rappelait pas » ou « n’arrivait pas à se souvenir », et a tenté de soutenir ces déclarations invraisemblables en faisant valoir le grand volume de courriels qu’il recevait ou les questions ou études qui atterrissaient sur son bureau. La quasi-totalité de ces affirmations n’est tout simplement pas crédible, car les incidents en question étaient soit récents, soit survenus au cours des trois dernières années, et ils étaient tous porteurs d’une forte connotation politique.
  • L’autre méthode de mensonge de Fauci consistait simplement à prétendre qu’il ne comprenait pas quelque chose, en espérant que l’avocat qui posait la question ne pourrait pas le prendre en défaut. Par exemple, il a manifestement menti à un moment donné lorsqu’il a prétendu ne pas savoir ce qu’était Meta (société mère de Facebook), jusqu’à ce qu’il soit forcé d’admettre qu’il savait en fait ce qu’était Meta.
  • Autre tactique de Fauci: lorsqu’il était forcé d’admettre qu’il avait fait une communication ou examiné un document clé à un moment clé, ou qu’il connaissait ou travaillait avec un individu clé, il essayait de minimiser chaque fait négatif en (1) minimisant l’importance de la communication, (2) suggérant que bien qu’il ait examiné le document clé, il ne l’a pas vraiment lu attentivement, ou (3) suggérant, avec une fausse humilité, qu’il n’était pas un expert dans le domaine X et qu’il ne comprenait donc pas pleinement l’étude scientifique en question, ou (4) affirmant que, bien qu’il « connaissait » la personne en question, il ne la connaissait pas vraiment bien car il rencontrait de nombreux médecins et scientifiques dans le cadre de son travail.
  • Autre tactique de tromperie de Fauci: jeter ses subordonnés par-dessus bord. Fauci est un champion de la survie dans le milieu de la bureaucratie. L’une des façons dont il a survécu aussi longtemps est de ne s’attribuer que le mérite des victoires et de rejeter les pertes sur ses infortunés subordonnés. Cette tendance s’est poursuivie lors de sa déposition, dans laquelle il a effrontément affirmé que, bien qu’il soit à la tête du NIAID et de son budget de 6 milliards de dollars, il n’a jamais eu connaissance de ce que ses subordonnés directs faisaient juste sous son nez. Fauci est disposé à rendre des comptes, tant qu’il a un subordonné à sacrifier.
  • Fauci a affirmé que l’hydroxychloroquine était « dangereuse » et avait des effets secondaires « toxiques »… Fauci a affirmé que l’HCQ était inefficace dans le traitement du COVID, mais n’a pas pu citer une seule étude pour étayer son affirmation. Fauci a également rejeté la liste des 371 études sur l’HCQ et son efficacité dans le traitement de la maladie lorsqu’on lui a présenté cette liste.
  • Fauci a admis avoir menti au public. Dans l’un des moments les plus étonnants de sa déposition, Fauci a admis qu’il avait sciemment fait de fausses déclarations de santé publique au début de la pandémie, en déconseillant aux gens d’utiliser des masques afin de les dissuader d’épuiser les stocks de masques.
  • Fauci a admis qu’il tenait ses idées de confinement de la Chine Communiste qui a mis en place ses confinements extrêmes en janvier 2020.

Jenin Younes, avocat des plaignants qui travaille avec la New Civil Liberties Alliance, a écrit sur Twitter: « Une de mes citations préférées de la déposition de Fauci aujourd’hui:  » Mon travail quotidien est très prenant, je dirige un institut de six milliards de dollars. Je n’ai pas le temps de me préoccuper de choses comme la Déclaration de Great Barrington. »

Gardez à l’esprit que nous disposons des archives complètes des courriels, dans lesquels Fauci s’attribue le mérite de s’être « prononcé très fermement et publiquement contre la Déclaration de Great Barrington« . 

En conclusion, nous avons ici un compte rendu révélateur de l’étonnant témoignage de Fauci, qui n’est choquant, pour ceux qui ont suivi cette affaire de près depuis le tout début, que parce qu’il confirme le degré de trahison que nous soupçonnions depuis longtemps d’être à la source de toute cette histoire de confinement aux États-Unis. Nous avons également eu confirmation que l’expression « distanciation sociale » n’est rien d’autre qu’un euphémisme désignant une attaque massive à la chinoise contre tout ce que nous appelions autrefois en Occident la liberté. 

Le Grand Pardon aura-t-il lieu?

On chausse ses bottes et ses gants en caoutchouc et on replonge dans la fosse septique de l’actualité.

Le narratif autour du Covid est en train d’évoluer lentement mais sûrement. Le foutage de gueule entre dans une nouvelle phase, qui n’est pas moins spectaculaire que la précédente. Voici quatre histoires qui tournent autour de cette nouvelle manoeuvre. Pour la quatrième, je vous laisse juges mais dans tous les cas, accrochez-vous à vos chaussettes.

Le tout est assez long, ça m’a pris pas mal de temps, mais croyez-moi, ça en vaut la peine. Je ne sais pas dans quelle mesure on en parle sur le Net francophone, vu que, comme vous le savez, je passe beaucoup de temps à lire des dizaines d’articles en anglais, d’où le fait que je suis aussi souvent le premier à en parler. Ceci sera donc peut-être une exclusivité?

Bon, ça c’est fait.

Un article dans « The Atlantic » – un des torchons américains qui servent de vitrine idéologique à la CIA – signé Emily Oster, fait le buzz, notamment sur Substack (ici, ici, ici et ailleurs, c’est en anglais) depuis sa parution le 31 octobre. Cette dame est professeur(e?) d’économie à l’Université de Stanford. Le papier de Mme Oster s’intitule « Déclarons une amnistie pandémique ». Personnellement je ne trouve pas ce qu’elle dit tellement choquant. Le problème est plutôt ce qu’elle ne dit pas. Voici un extrait d’un article précité sur Substack:

Je suis certaine que d’autres auteurs de Substack se joindront à moi pour exprimer leur incrédulité face à l’audace et au culot de cette femme qui suggère que nous devrions pardonner et oublier les crimes commis contre l’humanité simplement parce que les gens étaient « dans le noir » et faisaient pipi dans leur culotte à cause d’une maladie manifestement moins dangereuse pour la majorité de la population qu’une mauvaise grippe. Je voudrais juste ajouter mon grain de sel ici. Ils ne se contentaient pas de salir leurs slips et leurs matelas; certains saisissaient activement l’occasion (en piétinant les droits de l’homme) d’accroître leur richesse et/ou leur pouvoir grâce à la panique hystérique sans précédent générée par l’apparition du SARS-CoV-2. Emily Oster les soutenait:

Faire honte à ceux qui ne se sont pas fait vacciner ne fonctionnera maintenant plus (peut-être plus jamais).
Alors que faire?
Une pression de la famille sur l’individu: peut-être exiger le vaccin pour ce que les gens veulent faire (voyages en avion/train dans le pays, travail, événements sportifs): oui.
On peut le faire sans honte.

Maintenant, elle veut que nous pardonnions, que nous oubliions et que nous allions de l’avant – sans le moindre soupçon d’excuses pour son comportement déplorable ni aveu de culpabilité!

[…] On ne détruit pas les droits de l’homme, on ne met pas à la poubelle cent ans de science épidémiologique et immunologique, on ne déchire pas le Code de Nuremberg, on ne tue pas et on ne blesse pas des millions de personnes parce qu’on « était dans le noir ».

De Igor:

Nous savons intuitivement que quelque chose s’est très mal passé.

Nous devons nous assurer que cela ne se reproduira plus jamais pour les générations suivantes. D’une manière ou d’une autre, nous devons créer une force de dissuasion contre les futurs fraudeurs. Nous n’obtiendrons pas cette dissuasion en accordant à chacun une « amnistie » sans même savoir qui a fait quoi.

Est-il possible que chacun ait agi dans notre intérêt et que les erreurs n’aient pas été intentionnelles? Les personnes qui demandent l’amnistie sont-elles des sympathisants désorientés ou des criminels du Covid, qui ont empoisonné des millions de personnes par malveillance, cupidité et mépris de la sécurité? Pour avoir la réponse, nous devons d’abord savoir ce qui s’est passé!

Ce n’est qu’après une enquête révélant ce qui a eu lieu que nous pourrons juger si une « amnistie » est appropriée et, si oui, pour qui. Pas avant.

Vous aurez compris que l’affaire de Mme Oster n’est pas gagnée. J’ajouterai juste que l’ironie de sa demande, assez mal venue dans le contexte, est que cette dame attend le Grand Pardon sans proposer la moindre réparation, contrairement à ce qui se pratiquait dans le monde d’avant, entre gens de bonne volonté et plus particulièrement dans le cadre de la confession chrétienne, qui incluait la notion de pardon divin – je précise ceci pour mes plus jeunes lecteurs, qui n’ont peut-être jamais entendu parler de cette notion. Seul Dieu peut pardonner.

Sur l’échelle du toupet, Mme Oster est déjà assez bien placée, mais on a trouvé mieux.


Toujours dans la catégorie buzz, nous avons un certain Richard Rowe. Même s’il fait partie de la même sphère que Mme Oster – les « pro-vaccins » – il existe deux différences majeures entre elle et lui. Premièrement, il est ouvertement vindicatif et insultant envers les non-injectés, et deuxièmement, il est mort.

Les captures d’écran et les extraits proviennent de cet article en anglais. Je ne garantis pas l’authenticité de l’information, vu que le décès est daté du 28 octobre et l’article du 26. C’est donc soit une erreur soit de l’enfumage. Si c’est de l’enfumage, c’est qu’on tente d’y faire passer un message, et c’est ce message qui m’intéresse ici.

Dans des captures d’écran de la page Facebook de Richard Rowe, chauffeur routier et candidat du district 23, le politicien pro-vaccins de 41 ans se moquait des anti-vaccins qui, selon lui, ont « contribué à tuer 700 000 Américains » avant de décéder lui-même le 28 octobre 2021.

« Je vais être très clair: je me fous complètement de ce qui arrive aux anti-vaccins. Je m’en fous. Laissez Darwin faire son travail. Ils ont aidé à tuer 700.000 Américains. Je n’ai ni pitié ni de larmes à verser pour aucun d’entre eux. Ça s’est tari à présent. Désolé. A ce stade. J’espère juste qu’ils ressentent 1/10e de la douleur qu’ils ont causé à tous les autres. Les enfants iront bien. EUX, ils vont souffrir. Et putain, je pense qu’ils l’ont bien mérité. »

En postant une photo montrant sa carte de vaccin Covid, Rowe a reconnu qu’il se faisait vacciner alors qu’il avait déjà contracté le Covid, et il écrivait: « J’ai déjà eu le COVID l’année dernière, donc je ne m’inquiète pas de l’attraper. Mais je veux conserver mon sentiment arrogant de supériorité morale et intellectuelle tout en me moquant des anti-vax Darwiniens. C’est en fait assez noble, en réalité. »

Fait intéressant, Rowe est décédé le mois suivant. Un de ses amis a déclaré qu’il était mort subitement en promenant son chien.

Voilà le genre de type qui me rappelle les gosses dont je parle ici, ignorants, sûrs d’eux-mêmes et très forts tant qu’ils sont en groupe. Ces personnages passaient plus ou moins inaperçus avant que les choses se gâtent, mais on a vu leurs vraies couleurs dès que le cadre leur a été propice.

Quel cadre?

Evidemment, la diabolisation initiale de refuseniks de l’injection, qui représentaient un danger pour les injectés (on a toujours pas compris pourquoi, mais plus c’est con mieux ça passe). Le cadre se construisait alors autour de la mythologie des « vaccinés » en tant que gens altruistes et responsables, avec une pincée de devoir patriotique – celui traditionnellement brandi par les assassins de sang froid qui envoient les peuples au massacre, c’est-à-dire les gouvernements. Les non-injectés étaient d’ailleurs plus ou moins considérés comme des déserteurs – après tout, c’est une guerre. Mais comme je le disais en début d’article, le cadre est en train de changer, et pas qu’un peu, maintenant que les chiffres de la catastrophe sanitaire commencent à progressivement filtrer sur la place publique – à titre d’exemple, le pourcentage officiel des hospitalisés Covid est de 99% de « vaccinés », ça la fout mal. A part pour les acharnés de l’ignorance, le narratif devient donc intenable. Il fallait donc réactualiser le cadre. Suivez bien parce que la manipulation est assez subtile et extrêmement perverse.

A présent, les « vaccinés » sont toujours des héros altruistes et patriotiques puisqu’ils ont rempli leur devoir. Sauf qu’il faudra désormais les considérer comme des héros tombés au champ d’honneur. Voyez-vous, les injections étaient finalement assez dangereuses mais puisque le Parti agissait pour le bien du peuple, ceux qui ont obéi sont par avance normalisés (j’y reviens plus loin) et bien entendu, amnistiés. C’est la nouvelle ligne du Parti. Oui, celui d’Orwell.

Pour ceux qui n’auraient pas prêté attention, quasiment tout l’Occident vit à présent sous dictature communiste, désignée par l’appellation « démocratie ». Quelle que soit la nature du régime, c’est une démocratie. C’est devenu le leitmotiv. Pour rappel et comme exemple, les Etats-Unis d’Amérique sont une République constitutionnelle, c’est-à-dire l’opposé exact d’une « démocratie ». Le fait que ce slogan soit devenu omniprésent acte tout simplement le fait que la République n’existe plus, et qu’elle a effectivement été remplacée par une dictature communiste. Depuis que Biden occupe la Maison Blanche, la formule/mantra répétée dans les médias est « menace pour la démocratie » – à propos de « l’insurrection » du 6 janvier, des Républicains MAGA (pro-Trump) et plus généralement des blancs, non-woke, non-cisgenrés, etc. Bref, comme dans 1984 de Orwell, à propos de tout ce qui ne suit pas exactement la ligne du Parti. C’est-à-dire à peu près tout.

Permettez-moi d’insister sur ce point – ou alors lisez les bouquins de Vladimir Boukovski. Ceux qui demanderont « la liberté ou la mort » dans une dictature communiste, auront la mort. C’est à peu près tout ce que le communisme a à offrir en guise de liberté. On a promis la liberté aux vaccinés, ils auront la mort. Il me semble que c’est assez clair. Il n’y a d’ailleurs même pas besoin de demander quoi que ce soit. Le fait qu’on vous le promet est amplement suffisant. Ce sont eux qui décident. Apparemment, ils ont décidé que mourir était un acte patriotique. Engagez-vous. Il y a trop de gens sur Terre.

Richard Rowe était donc un vrai démocrate: il a obéi au Parti. Et c’était un vrai patriote: il est mort.

On aurait pu lui dire que ce n’était vraiment pas la peine. La vraie vie, ce n’est pas se faire injecter de la merde pour faire partie du groupe. Mais bon, c’est trop tard.


Troisième élément du nouveau narratif Covid, pas vraiment récent mais qui prend maintenant tout son sens: les dignitaires du Parti, Biden, Fauci, et Wolenski, prétendument hyper-injectés, après avoir pendant des mois vendu le « clotshot » (injection à caillots, j’aime bien l’appellation) comme forteresse infranchissable pour le virus, font le Covid?

A moins d’être un incurable naïf, il est impossible de croire que ces personnages 1) ait reçu une quelconque injection Covid, 2) ne disposent pas de traitement prophylactiques qui les mettent à l’abri du Covid – vitamine D, ivermectine, hydroxychloroquine/zinc, voire DRACO, 3) avoueraient avoir contracté le Covid sans raison, puisque ça contredit tout ce qu’ils ont seriné pendant des mois sur le vaccin – et qu’ils y ajoutent une mauvaise pub pour le Paxlovid.

Alors, pourquoi?

J’ai déjà en partie répondu à la question dans l’article sur le rebond de Fauci: c’est de la normalisation. Il faut normaliser le fait que les vaccins sont inefficaces. Et ce n’est pas tout, on présente dans les médias américains le fait qu’un candidat démocrate (j’ai oublié son nom) a souffert d’un récent AVC comme humanisant. Ce qui, bien que le vaccin ne soit pas cité, normalise aussi le fait qu’il est dangereux. Le Parti honore ainsi ceux qui ont fait le sacrifice. Comme Richard Rowe.

Comme je le disais plus haut, le cadre change. Le narratif de la « protection » des autres grâce au vaccin n’est plus le discours dominant, il est subtilement remplacé par une espèce de culte du martyr des injectés. Un culte de mort, donc. Après la phase d’arrogance, d’agressivité et de mépris des injectés, on va donc se retrouver face à une foule de malades chroniques portés en héros par le Parti et, du fond de leur misère humaine, des gens probablement jaloux et revanchards, ou quelque chose dans le genre. Ma constatation personnelle de la majorité des injectés est que, hormis ceux qui le regrettent humblement, ce sont généralement des lâches sournois et hypocrites – le profil typique de ceux qui se réfugient dans le groupe. Ceux qui n’ont aucun état d’âme à pousser les autres à la flotte.

Tout ça est assez moche. Si vous pensez que ça ne peut pas être pire, attendez de lire la suite…


Je reviens temporairement sur ma décision de boycotter les déclarations du Dr Robert Malone. Vous allez en comprendre l’intérêt, et le lien étroit avec les points précédents.

Je remercie au passage John et Adam pour les clips sonores qui suivent, avec leur traduction, extraits du 1500ème épisode de No Agendafélicitations les gars! C’est extrait d’une des récentes allocutions de Malone, dont je ne trouve pas le fichier original sur le Net, sorry, mais dont je suis certain de l’authenticité. Le découpage des clips est moyen, mais on s’en contentera.

Je veux que vous compreniez la différence entre la charge utile et la plateforme. Nous parlons des principes fondamentaux de la pharmacologie de cette catégorie de produits. Et je veux que vous compreniez comment et pourquoi on les impose. Il s’agit plutôt pour moi d’essayer de vous donner un aperçu et une compréhension de ce qui se passe, vu à travers cette seule lentille qu’est la technologie ARNm. J’ai parlé de la formation des masses, du Forum Economique Mondial, de l’Etat administratif. Il y a tellement de variables en jeu que nous pourrions en parler pendant huit heures, mais je vais me concentrer sur l’ARN. Pourquoi les vaccins ARNm? Pourquoi est-ce qu’on les impose?

[…] pourquoi c’est universel et global. Et comprenez que ce que vous avez vécu ici en Virginie reflète ce que des gens à qui je parlais il y a une heure et demie lors d’une conférence à Padoue, en Italie, [vivent]. Les mêmes choses ont été vécues au Brésil, dans tout le monde occidental. Pourquoi cela a-t-il été imposé? Quel est le besoin non satisfait auquel on répond? Je ne cherche pas à savoir s’ils ont raison ou tort. Je veux juste que vous compreniez la logique sous-jacente, du moins à la surface. Le problème qui se pose est que la technologie permettant aux individus de concevoir des armes biologiques est devenue si triviale qu’un étudiant de dernière année qui travaille à partir de là, ou quelqu’un d’un niveau d’éducation similaire, qui peut s’auto-former, qui travaille dans son garage avec du matériel qu’il peut trouver sur eBay, peut facilement recréer les combinaisons de pathogènes les plus mortelles que notre gouvernement a développées dans le programme de guerre biologique que nous avons mené pendant des années. Et je ne dis pas que nous ne le faisons plus, nous le faisons sous un autre nom, nous l’appelons recherche défensive sur les armes biologiques, pas recherche offensive sur les armes biologiques et je ne vois pas bien la différence. Mais c’est le langage qui est imposé par le traité de guerre biologique qui a été signé. Il fuit comme une passoire, mais je veux que vous compreniez, et juste pour définir le cadre, qu’avec la technologie traditionnelle des vaccins, nous prévoyons avoir des vaccins – si tout va bien – pour tous les agents de guerre biologique déployés jusqu’à la fin de la deuxième Guerre Mondiale – donc la tularémie, la variole et tout le reste – des vaccins pour tous les agents de guerre biologique déployés jusqu’à la fin de la deuxième Guerre Mondiale. Et nous les aurons tous d’ici 2050, si tout va bien.

Nous sommes maintenant dans un environnement dans lequel un jeune adulte ou un dangereux individu, dans n’importe quelle partie du monde, est en mesure de créer des armes biologiques très puissantes. Clairement, nous n’avons pas la capacité d’y répondre efficacement. C’est là le besoin médical non satisfait sous-jacent. C’est le problème et nous devons être très clairs à ce sujet. Nous sommes très remontés et je ne défends en aucun cas la façon dont cela a été déployé. Je ne dis pas que cette solution est la meilleure. Je dis simplement qu’il y a un besoin médical non satisfait, c’est-à-dire une menace très importante. Ce n’est pas anodin, ce n’est pas le fruit de l’imagination de Cheney, que des agents de guerre biologique puissent être fabriqués. Jusqu’à présent, c’est nous qui avons réalisé la majeure partie de l’ingénierie et ce qui va sortir du prochain livre de Bobby [NdT. Robert f. Kennedy Jr?] va vous faire exploser les circuits au regard de ce que nous avons fait en Géorgie et en Ukraine. Ces choses sont en cours de réalisation et le problème est qu’une fois qu’elles sont lâchées, ce que nous avons tous vécu au cours des trois dernières années – cela fait presque trois ans maintenant, en fait c’était en septembre, fin septembre, les données montrent que le début de l’épidémie était au moins en septembre 2019, si ce n’est plus tôt – une fois que ces choses sont lâchées, elles peuvent déferler sur le monde et la technologie est maintenant avancée au point que les agents pathogènes peuvent être modifiés de manière à être relativement spécifiques pour différents groupes ethniques en fonction de leur génétique. Les agents pathogènes peuvent être modifiés et je peux vous dire que mes amis ou ceux qui étaient mes copains à la DETRA, Defense Threat Reduction Agency, division chimie/bio, sont extrêmement conscients que des agents peuvent être modifiés pour cibler des groupes ethniques.

Voilà le champ de bataille, voilà l’environnement réel dans lequel nous nous trouvons. Nous devons donc disposer d’une technologie permettant une réaction rapide et de capacités qui puissent être déployées au niveau de la population. Cette technologie de l’ARN est l’une de celles, avec les anticorps monoclonaux, dont le gouvernement pense depuis longtemps qu’elles ont un énorme potentiel pour permettre ce type de réponse rapide. En fait, ils préfèrent les anticorps monoclonaux. Le principe qu’ils aiment vraiment chez ces anticorps monoclonaux est qu’on peut administrer ces produits à un contingent de forces spéciales. Ils se rendent sur le théâtre des opérations, font leur travail, reviennent, vont voir leur femme, les anticorps monoclonaux disparaissent, c’est réglé. Le problème est que la technologie n’a tout simplement pas fonctionné. La technologie des anticorps monoclonaux est trop lourde, trop encombrante et nous avons appris au cours des trois dernières années que les virus et les agents pathogènes peuvent évoluer pour échapper à cette technologie assez rapidement parce qu’ils [les anticorps monoclonaux] sont assez spécifiques. Nous avons tous observé l’évolution virale en temps réel. Nous en avons fait l’expérience. Voilà donc le besoin médical non satisfait auquel on tente de répondre. Du moins, c’est la justification sous-jacente, à savoir qu’il existe un besoin non satisfait d’une technologie qui permettra désormais une réponse rapide aux agents pathogènes émergents et aux agents pathogènes modifiés, tels que les agents pathogènes issus de la guerre biologique ou du terrorisme.

La vérité est que DARPA, qui est la branche de développement opérationnel, en fait la CIA, est tombée amoureuse de la technologie de l’ARN il y a plus de dix ans et a décidé de la capitaliser et de l’imposer sur le marché. Et par exemple, ce sont eux qui ont capitalisé à travers In-Q-Tel, leur bras d’investissement, les nouvelles installations de fabrication d’ARN au Canada. C’est un programme de la CIA, il n’y a aucune ambiguïté là-dessus. Je ne révèle pas de secrets d’État. La technologie a été littéralement sortie de la poubelle parce qu’elle avait été supprimée par Merck après que je l’ai développée il y a plus de trente ans et elle a été perfectionnée de manière très agressive par DARPA. DARPA a financé et essentiellement construit Moderna. Ils continuent à imposer tout ça et ils le font à travers le gouvernement. Et ce que vous voyez, c’est le pouvoir de la communauté du renseignement et du nouveau complexe industriel de la biodéfense qui s’est développé depuis les attaques à l’anthrax, et cela va même au-delà, dans leur capacité à imposer leur programme au gouvernement. Quand on voit tout ce qui est documenté par Paul, tous ces contournements des procédures et des règles normales, cela arrive parce que, dans une large mesure, notre communauté du renseignement l’impose par le biais de la structure administrative de l’État.

Tous ces contournements des procédures et des règles normales se produisent parce que notre communauté du renseignement les impose par le biais de la structure administrative de l’État. Et pourquoi le font-ils? Je pense que si nous prenons un peu de recul et essayons de leur accorder pour un moment le bénéfice du doute, je pense qu’ils croient devoir l’appuyer, devoir faire accepter cette technologie parce qu’il n’y a pas d’alternatives et que la menace est si grave à leur avis, dans leur monde d’agents secrets, la menace est si grave qu’il faut que quelque chose existe et c’est ce quelque chose auquel ils se sont accrochés. Et je ne dis pas ça pour les défendre. Je dis ça pour essayer de vous aider à comprendre ce à quoi vous avez été soumis.

Ok, réfléchissons deux minutes.

Je suis assez de l’avis de Adam Curry sur le gars. Il s’est lentement forgé une place dans le contingent des médecins qui luttent contre l’Opération Covid/Injections, à travers ses nombreuses interventions (le podcast de Joe Rogan, le FLCCC, l’équipe de Robert F. Kennedy Jr, etc.) d’où il peut maintenant apporter son témoignage d’insider des services secrets. Ce témoignage.

Ce discours n’est pas vraiment nouveau de la part de Malone, il l’évoque déjà dans l’interview dont j’ai fait la transcription et la traduction. Le Dr Igor Shepherd, qui provient du même milieu en URSS, fait également référence à ce genre de recherche militaire, aux objectifs exactement similaires – quoiqu’au contraire du Dr Malone, il est extrêmement remonté contre ce genre de pratique.

Le Dr Malone a beau déclarer ici ne pas porter de jugement sur ceux qui mènent cette opération, la façon dont il présente cette dernière est plutôt biaisée: tout ça était pour notre bien, pour nous protéger de futures attaques biologiques – dont je ne consteste absolument pas le risque réel, j’ai publié ceci sur le sujet. Je rappelle juste qu’on attend toujours une vraie attaque « terroriste », de n’importe quelle nature. Pour autant que je sache, toutes les opérations de ce type proviennent de réseaux gouvernementaux, voire internationaux, et elles sont toujours liés au réseau du Renseignement, y compris et surtout l’Opération Covid. Pour se faire une idée supplémentaire de la bonne foi du Dr Malone, il cite ici comme source fiable Dick Cheney, ancien Vice-Président des Etats-Unis sous George W. Bush, qui, s’il n’est pas lui-même un des organisateurs des attentats sous faux drapeau du 11 septembre, a systématiquement menti sur tous ses aspects, notamment le fait que les attaques subséquentes à l’anthrax, que mentionne ici le Dr Malone comme point de départ du « complexe industriel de la biodéfense », utilisaient une souche issue de Fort Detrick, le centre de recherches biologiques de l’Armée américaine. Si ce n’est pas du faux drapeau, je ne sais pas ce qu’est du faux drapeau. Et c’est le faux drapeau qui nous a menés au Covid et aux injections. Katherine Watt s’est tapé le boulot monstrueux de passer en revue tous les aménagements légaux qui ont permis l’opération en cours, en toute impunité. Sa conclusion.

Parlons maintenant des hasards.

Sommes-nous censés croire que ces « révélations » interviennent par hasard juste après que Alexandra Latypova ait déjà levé le voile sur le nid de vipères du Renseignement à l’oeuvre derrière toute l’Opération?

Sommes-nous aussi censés croire que le timing de l’Opération est le fait du hasard? Que le SARS-CoV-2 est sorti juste à point pour camoufler l’effondrement économique et financier qui avait commencé quelques semaines auparavant, juste à point pour opérer le plus grand hold-up économique de l’Histoire (voir ici), juste à point pour lancer à plein le Grand Reset?

Puisque, au fond, c’était pour notre bien, sommes-nous censés accepter qu’il faudrait aussi accorder à nos bienfaiteurs une « amnistie pandémique »?

Les Américains ont une expression que j’aime bien: « You must think we’re little children« .

Vous nous prenez vraiment pour des gosses!


Nous sommes bien d’accord que David Icke fait partie de l’opposition contrôlée. Il n’empêche qu’il est très intéressant d’écouter ce qu’il dit – je vous le répète, il faut écouter tout le monde. Ça prend du temps mais c’est très instructif. Et voici ce qu’il disait en 1997:

[…] qu’ils allaient créer en laboratoire de nouveaux virus résistants aux médicaments, qu’ils allaient les utiliser pour éliminer la population, qu’ils allaient utiliser les vaccinations pour éliminer la population. Ils allaient également changer la façon dont les soins de santé traitaient les personnes âgées, de sorte que de plus en plus de personnes âgées meurent et ne vivent pas longtemps parce que, de leur point de vue extraordinairement malade, les personnes âgées leur sont inutiles. Et ce que nous voyons maintenant très clairement, c’est une tentative de jouer cette carte de l’immunisation mondiale de masse, avec l’excuse de ce virus fabriqué, pour avoir accès aux corps, aux systèmes informatiques corporels, dirais-je, de quasiment tout le monde sur la planète. Et ils ne font pas ça parce qu’ils veulent protéger les gens de quoi que ce soit de bizarre. La force qui dit « faites-vous vacciner » est la force qui a créé le virus contre lequel ils disent de se faire vacciner. [NdT. c’est également l’avis de Spartacus] Ils font cela pour avoir accès à la population mondiale pour des raisons très, très malveillantes. Et ce que les gens doivent comprendre, c’est que ces familles n’ont pas la même perspective que nous sur la vie et le respect. Elles voient les humains comme du bétail, rien de plus que du bétail, comme la plupart des humains voient le bétail. Elles n’ont donc aucune empathie pour les conséquences de leurs actions sur la population humaine. Donc quand les gens disent « ils ne feraient jamais ça, mon pote ». Non, non, vous ne feriez jamais ça. Ils le font tout le temps.


Et on termine en musique.

Aucun d’entre vous n’a voulu m’aider quand je faisais du pain
Maintenant, vous voulez tous m’aider à le manger
Je vois que vous êtes très bien nourris
Ce qui indique que vous n’en avez pas besoin

Assez parlé!
Assez parlé!

Arrêtez-vous et je vous dirai ce que demain vous réserve
Arrêtez-vous et je vous dévoilerai le projet que j’ai pour vous

Prenez tous les leaders du monde entier
Mettez-les ensemble sur un grand ring
Télévisez ça comme le spectacle le plus minable de la planète
Et laissez-les se battre comme des diables pour voir qui est le roi

Ramassez les morceaux quand le combat est terminé
Alors vous découvrirez que la vie peut vraiment être amusante

Le prochain truc que je vous dirai sera vrai
Le dernier truc que je vous ai dit était faux
Rappellez-vous de ne rien faire quand vous ne savez pas quoi faire

Vous vouliez un monde que vous pouviez comprendre
Mais quelque chose est arrivé pendant que vous dormiez
Vous vouliez une vie agréable dont vous pourriez vous vanter
Dommage qu’ils aient pris les parties que vous vouliez garder

Assez parlé!
Assez parlé!

Arrêtez-vous et je vous dirai ce que demain vous réserve
Arrêtez-vous et je vous dévoilerai le projet que j’ai pour vous

Prenez tous les leaders du monde entier
Mettez-les ensemble sur un grand ring
Télévisez ça comme le spectacle le plus minable de la planète
Et laissez-les se battre comme des diables pour voir qui est le roi

Ramassez les morceaux quand le combat est terminé
Alors vous découvrirez que la vie peut vraiment être amusante

Assez parlé!

DEVO, « Enough said » (1981), Paroliers : Gen. Boy / Gerald Casale / Mark Allen Mothersbaugh

Assez parlé!