Libres ensemble

Accueil - Libres, ensemble - « Avec l’IA, il y a une forte capacité de manipulation de nos cerveaux »

« Avec l’IA, il y a une forte capacité de manipulation de nos cerveaux »

Propos recueillis par Sandra Evrard · Rédactrice en chef

  Mise en ligne le 13 février 2024

Pour la plupart d’entre nous, ChatGPT est apparu dans notre univers digital l’année dernière. Cette sorte de boîte de Pandore de l’intelligence artificielle (IA) n’en finit pas de nous étonner, mais aussi de nous inquiéter. Suite à la parution de son dernier ouvrage, nous avons profité de l’occasion pour poser nos questions à l’un des grands spécialistes dans ce domaine, Hugues Bersini, directeur du Laboratoire d’intelligence artificielle de l’ULB.

Photo © kovop/Shutterstock

Dans votre livre, vous comparez l’intelligence artificielle au système neuronal humain. Quels sont les points communs et comment l’IA fonctionne-t-elle ?

Clairement, les systèmes d’intelligence artificielle actuels sont largement inspirés des systèmes d’organisation neuronaux de notre cerveau. Les réseaux de neurones qui sont à la base de ChatGPT, ce que l’on appelle l’apprentissage profond, l’IA générative, leur point commun avec le cerveau, c’est cette forme de connexion en couches. Chez l’humain, il y a une première couche qui reçoit l’information, par exemple les yeux, puis des couches successives la traitent pour arriver à une certaine forme d’abstraction. Ces réseaux de neurones multicouches sont autant de systèmes d’extraction de l’information et de recombinaison de l’information. Dès l’origine historique du développement de l’IA dans les années 1950, l’approche neurale dominait et l’on avait un peu abandonné cette piste, pensant que la biologie et l’activité neuronale humaine n’étaient pas si importantes. Une autre IA, qui analysait davantage la symbolique et fondée sur des règles (par exemple syntaxiques, dans le cas du traitement des langues) s’était imposée Mais les derniers progrès relatifs à l’IA ont réhabilité l’importance de cette architecture neuronale, fondée sur la mise en couches et l’apprentissage progressif. On s’est rendu compte qu’il ne fallait pas apprendre les règles à ChatGPT, qu’il apprenait à partir d’exemples et de l’expérience, pour en extraire les règles ortho-syntaxiques. Ceci, également grâce à la puissance de calcul extraordinaire des ordinateurs actuels et de l’énorme quantité d’informations que l’IA peut ingérer.

Hugues Bersini, ChatGPT. Il était une fois une IA régressive, éditions de l’Université de Bruxelles, coll. « Débats », 2023, 110 pages.

Pour donner un exemple, le premier système de l’IA c’était plutôt celui du correcteur d’orthographe à partir des règles assimilées, alors qu’aujourd’hui, ChatGPT apprend en fonctionnant et en allant chercher les ressources sur le Web avec une certaine logique qui ressemble à de la réflexion ?

Exactement. On peut s’étonner que ChatGPT respecte la syntaxe alors même qu’on ne lui a pas installé les règles de grammaire élémentaires dans son programme. Il les retrouve par induction et les apprend.

C’est ce qui effraie en fin de compte beaucoup de personnes, cette capacité d’adaptation et d’extrapolation. Partagez-vous ces craintes ?

Ce qui m’effraye, c’est qu’auparavant, les différents programmes fonctionnaient selon une logique induite lors de leur édification par l’humain, alors qu’aujourd’hui, ChatGPT a englouti toutes les productions humaines, qu’elles soient artistiques, scientifiques, technologiques ou textuelles, et il en a induit des capacités cognitives à faire de l’art, créer du texte, produire des mathématiques d’une certaine complexité. C’est un cerveau bluffant par ses capacités, fonctionnant avec une certaine autonomie et nous sommes un peu désarçonnés, car on ne voit pas ce qu’il y a à l’intérieur de la boîte. C’est une sorte de cerveau assez opaque, il ne nous informe pas sur sa méthodologie. La science ne peut pas progresser comme ça. C’est la première fois que nous sommes face à une technologie dont le fonctionnement nous échappe complètement. On ne sait pas comment cela fonctionne.

Les capacités de l’intelligence artificielle génère de nombreuses peurs liées à l’opacité de son fonctionnement autonome.

© photoschmidt/Shutterstock

Et jusqu’où peut aller son autonomie ?

En effet, et jusqu’où va son intelligence ? Partout, cette machine produit des choses parfois meilleures que ce que produit l’humain et l’on ne comprend pas comment elle procède. Il y a quelque chose de magique dans ChatGPT, mais même ses concepteurs sont bluffés par les capacités de leur machine, et c’est inquiétant. Ils ont mis en place une espèce de monstre d’une productivité inouïe et ils sont aujourd’hui les premiers à s’interroger, d’où la discussion sur un moratoire que j’ai poussé mes équipes à signer. Je n’ai pas peur de ce fantasme d’une prise de contrôle de la machine qui pourrait se retourner contre nous. Mais par contre, cette sorte de démission de l’intelligence humaine face à une machine qu’on laisse évoluer comme elle l’entend – parce que cela nous bluffe, parce que c’est fantastique, mais sans en comprendre le processus –, elle n’est pas acceptable au niveau scientifique. Noam Chomsky, grand linguiste, également activiste politique aux États-Unis et grand connaisseur de l’IA, regrette cette évolution. On rate le processus et on ne peut pas faire fonctionner la science de cette manière.

La façon dont est construite l’IA aujourd’hui risque d’entraîner des biais ou des préjugés et si ChatGPT va chercher ses informations sur le Web, on peut imaginer que cela se retrouve aussi dans ses résultats. Y a-t-il moyen de mettre en place des garde-fous face à d’éventuelles répétitions de préjugés qui seraient dangereux pour nos sociétés humaines ?

ChatGPT tombe en effet dans des travers psychologiques, des mécanismes de discriminations qui sont le reflet de ces quantités de textes dont il s’est abreuvé et il n’est donc pas à l’abri des stéréotypes qu’il risque de reproduire vu sa grande utilisation. Il y a donc une sorte de spirale qui peut se mettre en place, car si on utilise ChatGPT pour produire des textes, ceux-ci risquent d’être diffusés massivement. Et puisque l’on ne comprend pas son fonctionnement, c’est difficile de lui dire qu’il doit modifier sa façon de raisonner et de voir le monde. En revanche, il y a un système d’apprentissage par renforcement fondé sur la punition et la récompense en fonction du résultat de sa production. S’il produit un texte affligeant de stéréotypes ou d’hallucinations, c’est-à-dire que parfois il peut vraiment totalement délirer, il y a beaucoup de petites mains qui, à travers le monde et dans tous les langages, le corrigent en le punissant, en lui disant que ce n’est pas bon et qu’il doit produire autre chose. Petit à petit, ChatGPT peut donc se corriger grâce au retour des humains.

C’est une sorte de veille éthique ?

Oui, il y a une veille assurée par des centaines de milliers de personnes qui regardent ce que ChatGPT produit et lui donnent un retour. Mais chaque utilisateur participe aussi à cela, car lorsque nous ne sommes pas convaincus de ce qu’il produit, il va lui-même corriger le tir en fonction des retours donnés à ses propositions.

Quand on pose une question à ChatGPT, le « prompt », donc la manière dont on formule cette question, semble essentiel. Mais les résultats ne sont quand même pas toujours à la hauteur et loin d’être évidents pour les utilisateurs novices en la matière. Là aussi, un apprentissage est nécessaire, du côté humain cette fois ?

Cela fait en effet partie de la magie, et il y a d’ailleurs une nouvelle profession qui est celle d’ingénieur du prompt qui analyse comment rédiger ses prompts de la meilleure manière pour obtenir des productions de ChatGPT qui répondent le mieux à nos attentes. C’est un peu du bricolage avec des expertises naissantes. C’est un métier qui n’existait pas il y a un an. Nous travaillons beaucoup sur cela à l’ULB, notamment avec des chabots qui permettent aux étudiants de poser des questions sur les cours, en utilisant les contenus des syllabi afin de leur fournir les meilleures réponses. Beaucoup de métiers vont disparaître avec l’arrivée de ChatGPT, et d’autres arrivent…

ChatGPT n’est pas omnipotent : c’est bien l’utilisateur, par l’intermédiaire de ses demandes, qui est à l’origine des questions posées.

© SomYuZu/Shutterstock

Si vous deviez épingler des applications positives de cette IA, quelles seraient-elles ? Et quelle serait votre crainte principale ?

Je partage assez bien l’optimisme des grands développeurs de l’IA lorsqu’ils affirment qu’elle peut permettre d’affronter des menaces issues d’une sorte de complexification du monde dont on a perdu la maîtrise, en trouvant des solutions. On songe aux problèmes médicaux. La médecine est souvent citée en exemple, car personne ne viendrait nier les avantages d’un système qui peut guérir une maladie. Mais on peut aussi songer aux enjeux climatiques et environnementaux, aux problèmes économiques et sociétaux. L’IA propose des outils axés sur l’énergie renouvelable, mais aussi sur nos changements de comportements grâce à des systèmes de guidance et de conseils permettant de diminuer nos consommations par exemple. On voit aussi l’IA sur les champs de bataille, ce qui est un domaine sensible, mais cela permet aussi de remporter certains combats… Du côté négatif justement, ce qui me semble être le plus grand danger, notamment par rapport à l’IA générative, c’est de nous projeter dans un univers informationnel très confus dans lequel il devient impossible de trancher entre le vrai et le faux. C’est du jamais vu de pouvoir créer de fausses vérités aussi bluffantes. Avec l’IA, il y a une forte capacité de manipulation de nos cerveaux.

À (re)lire

Ouvrage collectif avec une contribution de Hugues Bersini, La fin de l’utopie Internet ? Les enjeux de la société numérique, Bruxelles, Centre d’Action Laïque/Fondation Henri La Fontaine, 2019, 194 pages.

Avant, il y avait toujours un humain ou un groupe dans les initiatives de manipulation via les algorithmes. On peut imaginer qu’il y aura toujours des humains derrière l’emploi de l’IA générative, mais elle a aujourd’hui aussi une capacité d’inventer n’importe quoi et de manipuler les consciences. Nous allons vivre une année électorale assez foisonnante, tant aux États-Unis qu’en Europe, et quand on voir la capacité des systèmes d’IA à nous manipuler et les potentiels dictateurs qui pourraient en faire l’usage comme c’est souvent le cas, c’est inquiétant. On va voir quel effet aura l’IA lorsqu’elle sera utilisée par gens qui n’ont pas forcément une approche bienveillante du monde. On a déjà vu comment cela s’est produit avec Taylor Swift qui semble être une personnalité décisive dans le processus électoral américain et quelles sont les répercussions du faux porno sur elle, pour la déstabiliser.

On constate en effet la propension de certaines personnes à adhérer à de fausses théories, ce qui fut notamment le cas durant la pandémie de Covid-19. Si on extrapole cela dans le domaine politique, cela pourrait être très grave.

Cela va encore plus loin, car jusqu’à présent, lorsque des idées farfelues étaient produites, les algorithmes « s’arrangeaient » pour les colporter vers les gens qui ont envie d’y croire. C’est ainsi qu’il y a une amplification des idées complotistes puisqu’il y a des gens qui sont très disposés à y croire, mais qui n’y avaient pas accès. Aujourd’hui, avec les réseaux sociaux, on arrive à cibler les bonnes personnes et on les conforte dans leurs a priori. Mais cela va plus loin avec l’IA qui est capable de manipuler les consciences en inventant des vérités, elle crée du complot et n’a plus besoin d’un homme derrière pour le faire et trouver les cibles grâce aux algorithmes. Elle va tout faire en connaissant vos cerveaux et ce que vous avez envie de voir. Ça, c’est quand même affolant !

Partager cette page sur :