Solutions artificielles.

Commençons par lire la traduction de cet appel.

Il faut interrompre les expériences géantes en matière d’IA: Lettre ouverte

Nous demandons à tous les laboratoires d’IA d’interrompre immédiatement, pour une durée d’au moins six mois, la formation de systèmes d’IA plus puissants que le GPT-4

Les systèmes d’IA dotés d’une intelligence rivalisant avec celle de l’homme représentent des risques profonds pour la société et l’humanité, comme le montrent des recherches avancées[1] et comme le reconnaissent les principaux laboratoires d’IA[2]. Comme l’indiquent les principes d’Asilomar sur l’IA, universellement reconnus, l’IA avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre, et devrait être planifiée et gérée avec le soin et les ressources nécessaires. Malheureusement, ce niveau de planification et de gestion est absente, alors que les laboratoires d’IA se sont lancés ces derniers mois dans une course incontrôlée pour développer et déployer des intelligences numériques de plus en plus puissantes que personne – pas même leurs créateurs – ne parvient à comprendre, à prédire ou à contrôler de manière fiable.

Les systèmes d’IA contemporains rivalisent à présent avec les humains dans la réalisation de tâches courantes[3], et nous devons nous poser la question suivante: allons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges? Allons-nous automatiser tous les emplois, y compris ceux qui sont valorisants? Allons-nous développer des esprits non humains qui pourraient un jour nous surpasser en nombre, en intelligence, nous rendre obsolètes et nous remplacer? Allons-nous prendre le risque de perdre le contrôle de notre civilisation? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Nous ne devrions développer des systèmes d’IA performants que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être solidement justifiée et elle doit être proportionnelle à l’ampleur des effets potentiels d’un système. La récente déclaration de l’OpenAI concernant l’intelligence artificielle générale indique qu' »à un moment donné, il pourrait être important de faire appel à des experts indépendants avant de commencer à former les futurs systèmes, et pour les travaux les plus avancés, d’accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles ». Nous sommes d’accord. C’est maintenant qu’il faut agir.

C’est pourquoi nous demandons à tous les laboratoires d’IA d’interrompre immédiatement, pendant au moins six mois, la formation de systèmes d’IA plus puissants que le GPT-4. Cette pause devrait être visible et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements doivent intervenir et instaurer un moratoire.

Les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour élaborer et mettre en œuvre conjointement un ensemble de protocoles de sécurité communs pour la conception et le développement de l’IA avancée, rigoureusement contrôlés et supervisés par des experts externes indépendants. Ces protocoles devraient garantir la sûreté des systèmes qui y adhèrent au-delà de tout doute raisonnable[4], ce qui ne signifie pas une pause dans le développement de l’IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîte noire de plus en plus grands et imprévisibles, dotés de capacités émergentes.

La recherche et le développement dans le domaine de l’IA devraient être recentrés sur l’amélioration de la précision, de la sécurité, de l’interprétabilité, de la transparence, de la robustesse, de l’alignement, de la fiabilité et de la loyauté des systèmes puissants et à la pointe de la technologie d’aujourd’hui.

Parallèlement, les développeurs d’IA doivent collaborer avec les décideurs politiques pour accélérer considérablement le développement de systèmes robustes de gouvernance de l’IA. Ceux-ci devraient au minimum comprendre: de nouvelles autorités réglementaires compétentes dédiées à l’IA; la surveillance et le suivi des systèmes d’IA hautement performants et des grands pools de capacité de calcul; des systèmes de traçabilité et de filigrane pour aider à distinguer le réel du synthétique et à repérer les fuites de modèles; un écosystème robuste d’audit et de certification; un régime de responsabilité pour les dommages causés par l’IA; un financement public robuste pour la recherche technique sur la sécurité de l’IA; et des institutions dotées de ressources suffisantes pour faire face aux perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera.

L’humanité pourrait connaître un avenir florissant grâce à l’IA. Après être parvenus à créer des systèmes d’IA puissants, nous pouvons maintenant profiter d’un « été de l’IA » au cours duquel nous récolterons les fruits de nos efforts, nous concevrons ces systèmes pour le plus grand bénéfice de tous et nous donnerons à la société une chance de s’adapter. La société a mis en pause d’autres technologies aux effets potentiellement catastrophiques pour elle[5], et nous pouvons faire de même ici. Profitons d’un long été de l’IA et ne nous précipitons pas sans préparation vers l’automne.

C’est signé par un collectif de 1 300 professionnels, enseignants et experts dans le domaine. Après ces trois dernières années, voir des « parties prenantes » d’une nouvelle technologie émettre des soucis en matière d’éthique a de quoi surprendre, d’autant qu’on trouve dans la liste des signataires des personnages tels que Elon Musk, dont le projet Neurolink est de connecter votre cerveau au réseau – un des axes du transhumanisme – et dans la même veine, Yuval Noah Harari, l’Igor du FEM qui nous explique que les humains non transformés seront les nouveaux chimpanzés. Alors, qu’y a-t-il derrière ce soudain accès de bienveillance de ces pseudo-Frankenstein digitaux?

Pour ne pas changer, c’est de la normalisation. Un des objectifs est de vendre l’IA comme nécessaire et inévitable. Nous allons voir qu’il n’en est rien.

Décortiquons quelques passages:

« [des IA] que personne – pas même leurs créateurs – ne parvient à comprendre, à prédire ou à contrôler de manière fiable »

Autrement dit, c’est de la camelote, ils le savent et doivent ajuster leur stratégie.

« […] allons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges? »

L’IA puisant ses sources sur le Net, la propagande et les mensonges sont déjà bien établis, l’IA ne fera que les régurgiter.

« Allons-nous automatiser tous les emplois, y compris ceux qui sont valorisants? »

Faux problème et fausse question, les emplois n’ont fait que « s’automatiser » depuis l’invention des premiers outils. La vraie question est le choix politique et économique de création future de nouveaux secteurs d’activités utiles. Sur ce plan, les projets du FEM et du Green New Deal sont totalement déconnectés du réel. Ce sont des opérations autoritaires et dangereuses de mainmise et de contrôle financier, et ce sont les premiers promoteurs de l’IA.

« Allons-nous prendre le risque de perdre le contrôle de notre civilisation? »

Je l’ai déjà écrit, cette civilisation était condamnée depuis son dérapage vers une modèle de croissance infinie à base de monnaie créée par l’endettement, sous contrainte souterraine du monde anglo-saxon protestant et plus ouvertement, des entreprises militaires États-Uniennes appuyées sur la Fed (la phrase est trop longue, sorry). La dette n’étant pas remboursable, on crée une nouvelle fuite en avant, technocratique, sur le même schéma, confondre le moyen avec l’objectif, qui donnera le même résultat: la faillite. On ne fait que remplacer de l’artificiel monétaire par de l’artificiel virtuel, comme pour les monnaies digitales. Ça fonctionnera jusqu’à ce que ça ne fonctionne plus.

L’Occident, jugé incapable de rembourser son crédit, jouera officiellement le rôle de nouveau Tiers-Monde dans le prochain modèle choisi par la Banque, où domineront la Russie et la Chine, qui disposent d’un Parti qui élabore différentes politiques là où l’Occident dispose de différents partis qui élaborent tous la même politique – désastreuse. Si l’Occident veut échapper à ce triste destin, leurs peuples doivent commencer par s’affranchir de leurs élites monomaniaques – financières et politiques – et revenir à leur vocation première de pôle de civilisation aux valeurs chrétiennes. Comment, j’y reviens en fin d’article.

« Nous ne devrions développer des systèmes d’IA performants que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. »

L’IA n’est qu’un outil de plus dans le système, une pièce rapportée qui ne changera rien au problème de fond que je viens de décrire.

Cerise sur le gâteau:

« L’humanité pourrait connaître un avenir florissant grâce à l’IA. »

Nous voici de retour au fantasme futuriste de la voiture volante et des vacances sur Mars, remis au goût du jour pour les naïfs. Les lendemains qui chantent grâce à l’IA ne sont rien d’autre que la version high-tech de la doctrine du « bien commun », du communisme déguisé en futurisme – et aucun des deux ne fonctionne. On est juste passés de la politique-fiction à la science-fiction.

À propos de science-fiction, je vous recommande une très amusante nouvelle sur le sujet, écrite par Robert Sheckley en 1971, « Cruelles équations » (« Cruel equations »), qui met en scène un malheureux cosmonaute face à un robot-gardien particulièrement obtus. J’ai aussi publié ceci, qui donne une image réaliste de ce qu’est vraiment l’IA aujourd’hui. Les deux démontrent que, comme tout système, l’IA n’est jamais aussi bonne que ce qu’on y met. Or, la version publique de l’IA qu’on tente de nous fourguer est essentiellement une machine à calculer qui agence et régurgite les « informations » de la pire source imaginable: Internet. Une version adulte de ceci:

Je plains les pauvres gosses, dont je fais partie, qui ont dû se coltiner cette daube.

La version militarisée servira dans le domaine civil à gérer les zetabytes de données récoltées via smartphones, réseaux sociaux et Internet – un outil de surveillance et de contrôle du troupeau, sous tous ses aspects – biologiques, commerciaux, sociaux… Je rappelle qu’en anglais, intelligence désigne aussi les services de Renseignement. Prétendre que l’IA supplantera l’être humain dans le domaine de l’intelligence est un fantasme, une fable, et accessoirement une projection de l’ego de ses concepteurs et de ses commanditaires, qui brandissent un peu tôt des scénarios à la Terminator ou Robocop alors qu’on en est même pas à HAL 9000.

Alors pourquoi recommandent-ils de « nous asseoir calmement, prendre une pilule contre le stress et réfléchir à tout cela? » La froide réalité du terrain, c’est que le réseau de surveillance à base de 5g (et bientôt de 6g?) qui fera de nous tous des esclaves demandera un apport d’énergie irréalisable maintenant – on est encore loin de l’Internet des Corps, même si Amazon fait un test de réseau grandeur nature. C’est là une des vraies raison de la promotion tout azimut de la construction de centrales nucléaires. Le très servile Oliver Stone s’est d’ailleurs fendu d’un documentaire à ce sujet, sous alibi « climatique » évidemment. L’autre solution sera de nous priver d’énergie autant que possible et de nous parquer, histoire aussi de nous avoir sous la main, dans des « villes de 15 minutes », version actualisée du Projet Vénus, ce que je rappelais ici il y a bientôt trois ans. Je rappelle aussi qu’avant que les technocrates s’emparent du concept, ce genre de structure existait sous forme durable et portait un nom: un village.

L’autre froide réalité est que la majorité des start-ups de recherche ne parviendront pas à rentabiliser leurs investissements. Elles seront absorbées par quelques méga-sociétés de commerce et traitement des données, qui forment déjà un partenariat privé/gouvernements, sur le même modèle que Big Pharma/Ministère de la Défense. La faillite de la Silicon Valley Bank en était peut-être l’événement annonciateur.

24/04: j’ajoute à ce sujet ce courrier d’un auditeur de NoAgenda n°1549:

Salut Adam, je voulais juste te donner un aperçu des raisons pour lesquelles tout le monde croit à l’IA en tant que bouleversement de la technologie et du travail. S’il te plaît, ne mentionne pas mon nom si tu décides de lire ceci dans l’émission.

En bref, ils sont obligés d’y croire.

Toutes ces entreprises technologiques ont été gavées d’argent frais pendant la période du COVID, elles ont trop embauché et le regain d’activité de courte durée qu’elles ont connu pendant cette période est en train de se tarir.

Elles ont vu les vents contraires de l’économie et se sont accrochées à tout ce qui semblait être une solution. Tous ces nouveaux outils d’IA ont été lancés au moment précis où tout le monde cherchait une solution.

Aujourd’hui, le secteur est rempli de cadres intermédiaires qui n’ont jamais utilisé ces outils pour accomplir quoi que ce soit, mais qui croient au boniment parce que leur avenir financier en dépend. Ils pensent que cela permettra de décupler la productivité parce qu’ils ont besoin de quelque chose pour décupler la productivité de leurs employés.

Ce qui m’a fait prendre conscience de cette réalité, c’est qu’au cours d’une récente réunion au sein de mon entreprise, on a demandé au PDG à quoi lui servaient les outils d’IA. Il n’avait pas de réponse. En bref, il a joué avec ces outils en posant le même genre de questions inutiles que tout le monde, mais rien n’a été intégré dans son travail quotidien.

Nous avons ensuite eu une autre réunion dirigée par l’un des chefs de division, à qui l’on a demandé quelles étaient ses suggestions pour que les employés intègrent les outils dans leur travail. Il n’avait pas grand-chose à suggérer, si ce n’est de les utiliser pour reformuler des documents ou de s’en servir comme d’une sorte de filtre d’assurance qualité lors des interactions avec les clients.

En réalité, ces outils ne sont pas très utiles, surtout pour les employés compétents qui rédigent mieux que la moyenne. Du moins, je n’ai pas vu de preuve qu’ils le soient.

Vu tous les efforts déployés pour essayer de les intégrer dans notre travail, je suis sûr qu’il y aura des applications. Mais elles ne se traduiront jamais par les augmentations de productivité par 10 que tant de gens croient possibles.


Tout cela signifie-t-il qu’il faut lutter contre toute forme de surveillance, au nom de la « liberté »?

Pas du tout.

Désolé de contredire à peu près tous mes collègues anti-NOM mais à moins de la décentraliser complètement, cette société ne peut pas fonctionner sans un niveau élevé de surveillance. En réalité, aucun groupe humain ne peut s’en passer. Dans une tribu de taille naturelle (environ cinquante personne) cette surveillance fait partie intégrante du mode de vie: tout le monde connaît tout le monde – encore une fois, comme dans un village. La vraie question est de savoir qui surveille qui, et dans quel but. Comme je l’ai déjà maintes fois répété, la strate supérieure du pouvoir est majoritairement occupée par des paranoïaques incompétents, dont l’idée maîtresse est de maintenir au plus bas le niveau de maturité politique et économique du petit peuple.

Le véritable enjeu n’est donc pas l’intelligence de la machine mais, et ce n’est pas nouveau, l’idiotie humaine1, le manque d’autonomie et la servilité qui en résultent inevitablement. Si on veut revenir à la simplicité qui rendrait ce monde vivable, il faut se passer de ceux qui créent de faux problèmes pour nous fourguer leurs solutions: pandémie/vaccins, inflation/monnaies digitales, « urgence climatique »/privations, guerre/changement géopolitique, etc. Pour y arriver, il faut cesser de les aider, ce qui veut dire stopper la machine. Ne plus participer. C’est bien ce qui se profile en France et ailleurs en Europe mais comme le disait ce célèbre philosophe français, « On gueulait ‘Ce n’est qu’un début, continuons le combat!’ mais en fait, ce n’était qu’un combat, il fallait continuer le début. »

Son contemporain Gébé avait articulé autrement cette très bonne idée: on arrête tout et on réfléchit. Un moratoire de six mois? Ok, mais un moratoire de tout ce bordel, le temps de faire le tri.

Et de redevenir, nous, intelligents.


(1): J’ai à ce sujet deux études à traduire – à l’usage d’une éducatrice mais dont je vous ferai profiter – qui décrivent un danger bien concret, que Taiwan a d’ailleurs tenté de règlementer en 2015: les jeunes enfants développent des symptômes du spectre autiste lorsqu’ils sont trop exposés à des écrans. Eh oui, comme pour les « vaccins ».

Laisser un commentaire