Neuralink ne lit pas dans les pensées et n’y parviendra jamais – par VN Alexander.

L’article ci-dessous est une excellente mise à jour de celui-ci, et un chouette petit cours sur le fonctionnement du cerveau. Enfin, quand il fonctionne.

Pour info: « Elon Musk », sur la chaîne YouTube de Nex Wex. Pour ceux qui voudraient explorer ce « trou de lapin », attendez-vous à voir vos dernières illusions sur ce monde – s’il vous en reste – s’évaporer instantanément. J’ai prévenu.

Et pour se moquer, une autre des brillantes réalisations du susdit, ici.

Source.


Neuralink ne lit pas dans les pensées et n’y parviendra jamais

VN Alexander

7 avril 2024

Les grands titres de la presse s’enflamment:

« La lecture de l’esprit par l’IA est arrivée! »

« Neuralink permet à l’homme de contrôler l’ordinateur par la pensée! »

« Les implants d’IA des soldats chinois améliorent leurs capacités et leurs temps de réaction ».

Tous les implants neuronaux, qu’ils soient fabriqués par la société d’Elon Musk ou par d’autres instituts de recherche, sont capables de capter des impulsions électriques destinées au contrôle moteur. Ces dispositifs ne décodent pas les pensées.

Les pensées concernant des objets, des souvenirs, des croyances et des intentions sont des relations complexes de réverbération entre de multiples processus simultanés dans de multiples régions du cerveau. La pensée n’est pas un « code » – une séquence linéaire de bips – situé dans une zone spécifique du cerveau.

En janvier de cette année, les chercheurs de Neuralink ont implanté un dispositif de type Fitbit dans le cerveau du premier sujet expérimental humain. L’appareil comporte 64 fils qui s’enfoncent dans le tissu du cortex moteur, avec quelque 3 000 électrodes qui captent les décharges électriques qui se produisent lorsqu’une personne essaie de mouvoir son corps. La décision de se mouvoir, la volonté de se mouvoir et la motivation pour se mouvoir sont des processus plus complexes antérieurs au déclenchement des neurones moteurs.

Les chercheurs qui vantent les mérites des dispositifs de « lecture de l’esprit » sont peut-être si étroitement formés dans leurs domaines mécanistes qu’ils ne se rendent pas compte que l’appareil ne lit pas l’esprit et n’y parviendra jamais – ou peut-être qu’ils le comprennent, mais qu’ils veulent être en mesure de contrôler les impulsions motrices des gens avec du courant électrique.

Comme les grenouilles mortes de Galvani. [NdT. voir ici]

Dans cet essai, je décris trois implants neuronaux différents testés sur des personnes paralysées, en dépit du fait qu’il existe des dispositifs de communication plus sûrs susceptibles de fonctionner aussi bien, voire mieux. Les patients eux-mêmes semblent comprendre que les dispositifs implantés sont limités, mais ils espèrent que leur sacrifice permettra un jour de grandes avancées technologiques au profit d’autres personnes.

Après avoir décrit le fonctionnement des implants chez ces sujets, j’essaierai de comprendre pourquoi notre culture est tellement attachée à l’idée qu’une machine puisse un jour détecter ce que nous pensons. Il se peut, comme l’a noté Iain McGilchrist dans son livre de 2009, The Master and His Emissary: The Divided Brain and the Making of the Western World (Le maître et son émissaire: le cerveau divisé et la construction du monde occidental), que l’hémisphère gauche de notre cerveau, qui pense que les gens sont des machines, a pris le dessus.

Patient 1: Ann

En 2023, Ann s’est vu implanter un dispositif d’interface cerveau-ordinateur ( « Brain Computer Interface » ou BCI) à l’Institut des neurosciences Weill de l’Université de Californie à San Francisco. Les bras et les jambes d’Ann sont paralysés et elle est incapable de parler. Mais elle a des expressions faciales. Lorsqu’elle bouge la bouche comme pour parler, l’implant capte des impulsions dans son cortex moteur qui se dirigent vers ses muscles faciaux.

Les impulsions captées par l’implant neuronal sont transmises à un ordinateur, un réseau dit « neuronal », qui catégorise et identifie les impulsions associées à des mouvements faciaux spécifiques pour différents phonèmes. Pour entraîner l’IA, Ann a dû répéter différents sons de nombreuses fois pendant des semaines jusqu’à ce que l’ordinateur reconnaisse les schémas d’activité cérébrale associés à tous les sons de base de la parole. Les chercheurs affirment qu’il a suffi à l’ordinateur d’apprendre 39 phonèmes (combinaisons de voyelles et de consonnes) pour être capable d’identifier n’importe quel mot en anglais. Elle dispose désormais d’un vocabulaire de 1 024 mots qu’elle peut utiliser avec cet appareil.

Un avatar d’IA ressemblant à Ann et parlant par l’intermédiaire d’un synthétiseur vocal prononce à l’écran les mots qu’Ann articule.

Je me demande pourquoi Ann n’utilise pas le logiciel d’IA sophistiqué qui a été développé pour la lecture labiale, puisqu’elle est capable de prononcer des mots. Avec ce logiciel de lecture labiale et une caméra braquée sur son visage au lieu d’un implant dans son cerveau, elle pourrait sans doute facilement dépasser un vocabulaire de 1 024 mots.

Patient 2: Bravo1

Le deuxième patient, âgé d’une quarantaine d’années, est connu sous le nom de Bravo1. À la différence de Ann, il lui est impossible de mouvoir les muscles de son visage. La lecture labiale assistée par l’IA n’est pas envisageable. En 2021, des chercheurs de l’UC à San Francisco lui ont implanté un dispositif qui détecte les impulsions envoyées à ses cordes vocales. Le système est capable de détecter jusqu’à 18 mots par minute avec une précision de 75 à 93%, en appliquant une fonction d’« autocorrection ». Les différents schémas d’activation des cordes vocales étant difficiles à distinguer – même pour les logiciels IA de reconnaissance des schémas – le système, associé à un texte prédictif, lui permet de travailler sur une cinquantaine de mots.

Il convient de souligner que l’IA utilisée par les systèmes d’Ann et de Bravo1 est incapable de faire le lien entre les schémas électriques et les schémas vocaux, sans une formation et une coopération approfondies de la part du patient.

Ces implants ne seront jamais des dispositifs prêts à l’emploi capables de décrypter les impulsions envoyées aux cordes vocales ou aux muscles faciaux pour déterminer quels mots sont censés être prononcés. La personne dont l’activité cérébrale est analysée doit entraîner l’IA.

Par exemple, Bravo1 a dû essayer de prononcer inlassablement le mot « eau », tandis que l’IA enregistrait ce schéma et en faisait ensuite un modèle généralisé, qui est légèrement différent à chaque fois. Il a dû faire de même avec chacun des 50 mots que le programme peut maintenant identifier.

Je note que cet homme peut cligner des yeux. Il me semble qu’il pourrait apprendre le code morse. Là encore, une caméra pourrait être braquée sur son visage – et avec l’aide de l’IA pour prédire la prochaine lettre et le prochain mot – il serait capable de communiquer en code morse de manière beaucoup plus efficace et beaucoup plus sûre – sans subir de chirurgie cérébrale et sans avoir à tolérer un dispositif qui, à un moment donné, pourrait provoquer une inflammation dangereuse.

Patient 3: Nolan

Le premier cobaye de Neuralink est Nolan, 29 ans, qui a reçu un implant qui, contrairement à ceux implantés chez Ann et Bravo1, ne peut pas être entièrement retiré. Les fils des détecteurs de signaux moteurs sont si fins qu’ils pénètrent dans le tissu cérébral.

Contrairement à Ann et Bravo1, Nolan sait parler. Il sait aussi bouger la tête et les épaules. Il avait la possibilité d’utiliser un ordinateur à commande vocale. Il aurait également pu bénéficier d’un dispositif lui permettant d’utiliser sa tête comme une manette de jeu pour contrôler un curseur.

Stephen Hawking tapait sur un clavier en contractant les muscles de ses joues; il n’avait pas d’implant.

Comme pour les autres patients, l’implant de Nolan détecte les impulsions neurales qui contrôlent les mouvements. Nolan doit essayer de bouger sa main, comme il le ferait pour contrôler une souris d’ordinateur, et ces impulsions sont captées par l’implant et envoyées sans fil à un ordinateur qui les catégorise et, après entraînement, déplace la souris en conséquence.

L’ingénieur de Neuralink dans la vidéo, qui s’appelle Bliss, plaisante en disant que Nolan a des pouvoirs télékinésiques. La plupart des commentaires sous la vidéo reprennent ces affirmations.

Je ne sais pas si Nolan est capable de déplacer la souris sans essayer consciemment de le faire. Comme la marche, le déplacement d’une souris est l’une de ces compétences que l’on souhaite pouvoir exercer inconsciemment.

Dans la prochaine phase de la recherche, l’équipe de Neuralink souhaite implanter un second dispositif pour stimuler ses muscles, les deux dispositifs agissant comme un pont au-dessus de la zone endommagée de la moelle épinière de Nolan. Cette technologie, associée peut-être à un exosquelette, pourrait réellement améliorer la qualité de vie de Nolan. J’espère qu’il marchera un jour grâce à cette expérience. Je doute que ses pensées soient un jour lues par un ordinateur.

Lorsque Bliss a demandé à Nolan ce qu’il avait réussi à faire avec ses nouveaux pouvoirs, il a répondu qu’il avait pu jouer à des jeux vidéo jusqu’à 6 heures du matin.

Je pense que Nolan pourrait utiliser un des robots à commande vocale de Telsa comme assistant personnel. Peut-être Musk pourrait-il être persuadé de l’inclure dans l’offre faite à Nolan.

S’agit-il là du début de la technologie de lecture de l’esprit par l’IA? Ou est-il déjà clair que ce n’est pas la voie à suivre, car aucun de ces implants ne capte les pensées en tant que telles? Ils captent les impulsions motrices.

La chirurgie cérébrale pourrait vous aider à cliquer et à swiper plus rapidement

Elon Musk affirme que, dans un avenir proche, les personnes valides souhaiteront un implant Neuralink, afin de pouvoir interagir directement avec un ordinateur, l’ensemble d’Internet et même l’IA.

Attendez un peu. Qu’est-ce qu’il dit en fait? Les personnes implantées vont-elles fusionner avec l’IA et comprendre toutes les données des serveurs de Google avec l’œil de leur esprit, comme le laisse entendre cette illustration?

En fait, Musk estime que les personnes dotées de Neuralink pourront cliquer et swiper plus rapidement.

Ce n’est pas comme si l’IA allait être injectée dans l’ADN neuronal. Les personnes équipées d’un Neuralink continueront à utiliser des ordinateurs et des écrans externes.

Si on s’équipe d’un Neuralink, on remplace sa main – un outil d’interface perfectionné par des milliards d’années d’évolution – par une connexion Bluetooth à un appareil de type Fitbit qui ne fonctionnera pas forcément très bien.

Qui pourrait bien vouloir de ça? Les joueurs professionnels de jeux vidéo?

Le cerveau gauche, manipulateur de symboles, versus le cerveau droit, penseur

Dans ses travaux sur le fonctionnement et l’interaction des hémisphères gauche et droit du cerveau, Iain McGilchrist ne s’attèle pas à décrire la chimie extrêmement complexe qui sous-tend l’activité des ondes cérébrales. En effet, les chercheurs comme McGilchrist s’appuient principalement sur l’observation du comportement des personnes souffrant de lésions cérébrales pour comprendre le fonctionnement du cerveau. Si l’un des hémisphères est endommagé, des déficits neurologiques prévisibles en résulteront.

Mais dans l’ensemble, ce qui ressort clairement de la lecture de McGilchrist, c’est à quel point la pensée et l’action, la croyance et la mémoire sont des processus extrêmement complexes répartis dans les différentes régions du cerveau, qui dépendent les unes des autres pour créer du sens.

J’anime un webinaire mensuel intitulé « Nous ne sommes pas des machines », qui critique ceux qui pensent que l’intelligence artificielle est en fait intelligente, et j’essaie de montrer que les processus biologiques sont beaucoup plus complexes que les processus informatiques. Je pourrais dire à mes étudiants d’écouter McGilchrist et de laisser tomber le webinaire. Il explique clairement qu’il est illusoire de s’imaginer que l’on peut décoder les pensées en introduisant quelques milliers de sondes dans le cerveau de quelqu’un.

Selon McGilchrist, l’hémisphère gauche est mécaniste. Il est impliqué dans l’utilisation d’outils et traite les objets du monde comme inanimés et décontextualisés. Il est impliqué dans la production de la parole de la même manière que l’on manipule un outil, en utilisant des procédures prédéfinies avec des résultats prévisibles.

L’hémisphère droit fournit la contextualisation des mots, c’est-à-dire leur signification.

Différents types de signes: symboles, icônes et indices

Dans mon domaine, la biosémiotique, je dirais que l’hémisphère droit semble plus impliqué dans ce que nous appelons les signes ancrés, les icônes et les indices. Penser et agir intelligemment est une faculté dont sont capables tous les êtres vivants, y compris les microbes et les cellules individuelles. Et il semble qu’ils y arrivent en utilisant des signes ancrés.

L’icône, en tant que signe, associe une chose à une autre en vertu d’une similitude physique. Par exemple, si je veux représenter un chat, je peux l’imiter en faisant « miaou, miaou », et vous comprendrez ce que je veux dire parce que mon miaou ressemble au son que fait un chat. Dans les cellules d’un corps, un signe iconique peut être une molécule qui s’insère dans un récepteur en raison de sa forme similaire. La similitude physique crée une association. C’est ainsi que des choses peuvent devenir des signes d’autres choses (ou de résultats), en raison de relations contextualisées.

Un indice associe une chose à une autre chose (ou à un résultat) en vertu d’un vecteur physique. Un nourrisson peut communiquer ses désirs en pointant son index. On voit que le nourrisson est orienté vers l’objet. Pour prendre un exemple biologique, on peut considérer la moisissure visqueuse qui se met à pulser rapidement dans une direction spécifique, ce qui l’amène à se déplacer vers un gradient de nourriture détecté.

Ce type de signes tire sa signification du contexte et n’a pas besoin d’être appris.

En revanche, un autre type de signe, appelé symbole ou code, doit être appris parce qu’il n’est pas fondé sur des relations physiques. Par exemple, le mot « chat » fait arbitrairement référence à l’animal qui dit « miaou ».

Pour compléter l’argument de McGilchrist, je dirais que le prétendu « langage » de l’hémisphère gauche n’utilise pas d’icônes ou d’indices, dont les significations sont fondées sur le contexte. L’hémisphère gauche semble utiliser exclusivement la manipulation de symboles.

Comme nous l’avons vu, un symbole, en tant que type de signe, représente une chose par convention, c’est-à-dire qu’une marque, un son ou un motif est arbitrairement associé à une autre chose. Par exemple, dans le code Morse, les tirets et les points signifient arbitrairement des sons ou des nombres.

Les concepteurs d’ordinateurs n’ont aucun concept d’icônes, d’indices ou d’autres signes ancrés. C’est pourquoi les ordinateurs doivent être programmés, directement par un programmeur ou indirectement par le biais d’une formation par essais et erreurs.

Les ordinateurs n’utilisent pas d’icônes ni d’indices. Comme les hémisphères gauches, les ordinateurs sont strictement impliqués dans la manipulation de symboles. Les 1 et les 0 sont des symboles formant des motifs qui représentent d’autres types de symboles, de mots et de nombres.

Dans la mesure où l’IA peut imiter l’intelligence humaine, elle ne semble capable que d’imiter l’hémisphère gauche du cerveau, la partie qui ne réfléchit pas vraiment.

L’hémisphère gauche peut halluciner

Bien qu’aucun signe ne soit contextualisé dans un ordinateur, comme c’est le cas pour les icônes et les indices dans les organismes vivants, les ordinateurs peuvent détecter des similitudes statistiques dans les modèles faits de 1 et de 0. C’est ainsi qu’un ordinateur semble généraliser sur la base de similitudes pour, par exemple, vérifier l’orthographe. Les ordinateurs peuvent également détecter la fréquence d’apparition conjointe de différents motifs, et c’est ainsi qu’ils sont capables de prédire que le mot « poulet “ suivra plus probablement le mot ” grillade “ que le mot ” chat ». Mais ce type de fausse contextualisation repose sur un grand nombre de données qui fournissent les probabilités d’orientation. Ce système fonctionne comme une roulette truquée.

Une IA de type Large Language Model (LLM), telle que Chat-GPT ou Gemini ou Bard, peut affirmer que A et B sont associés l’un à l’autre, sur la base d’une identification incorrecte des similitudes ou des paires fréquentes. Cela doit être la source de ce que l’on appelle la tendance du LLM à « halluciner ».

Les patients souffrant de lésions cérébrales, dont l’hémisphère gauche domine, sont également sujets aux hallucinations.

Voulons-nous que l’hémisphère gauche soit aux commandes?

McGilchrist a remarqué que les réponses générées par ordinateur imitent la production vocale du cerveau gauche.

Il a également affirmé que, de plus en plus, notre société semble être dirigée par ceux dont l’hémisphère gauche est plus dominant que par ceux dont l’hémisphère droit est plus influent dans leurs processus de pensée.

Le cerveau gauche est bureaucratique, mécaniste. Il s’enlise dans des ornières et dépend du cerveau droit pour l’aider à changer de trajectoire. Les personnes souffrant de lésions de l’hémisphère droit, qui dépendent uniquement de l’hémisphère gauche, s’obstinent dans une voie même quand celle-ci est manifestement incorrecte.

L’hémisphère gauche, positiviste, agit comme s’il avait déjà toutes les bonnes réponses pour résoudre les problèmes. La dominance de l’hémisphère gauche conduit les gens à faire confiance aux dirigeants institutionnels pour mettre en œuvre des programmes passe-partout qui seraient censés fonctionner. Selon McGilchrist, lorsque ça ne fonctionne pas comme prévu, l’hémisphère gauche n’envisage pas la possibilité que sa solution soit tout simplement erronée, mais suppose qu’il faut faire encore plus de la même chose. Doubler la mise.

Ça vous rappelle quelque chose?


VN Alexander PhD est philosophe des sciences et romancier. Il vient de terminer un nouveau roman satirique, C0VlD-1984, The Musical.

Laisser un commentaire