La tartine
L’intelligence artificielle en question
Propos recueillis par Sandra Evrard · Rédactrice en chef
Mise en ligne le 11 août 2025
Il ne se passe pas un jour sans qu’un média nous parle d’intelligence artificielle, que ce soit pour s’époustoufler devant ses performances ou nous effrayer face à son évolution, qui nous échappe. L’IA est-elle vraiment devenue autonome ? Pourrait-elle nous nuire ? Existe-t-il des garde-fous ? Autant de questions que nous avons posées à Hugues Bersini, responsable de l’institut FARI1 et codirecteur d’IRIDIA à l’ULB2.
Illustrations : Marco Paulo
Les mise en garde contre les périls de l’IA sont quasiment quotidiennes. Comment comprenez-vous cette tendance et quels sont les réels dangers ?
Ça commence fort comme question ! Il y a des dangers évidents tels que la manipulation de la vérité, puisque l’on peut maintenant, grâce à l’IA, produire de fausses images qui n’ont jamais existé, mais qui sont confondantes de vérité. On peut cibler les personnes plus fragiles qui ont une opinion moins affirmée, en essayant de les convaincre de voter pour un bord ou un autre. Ces outils de manipulation sont devenus assez extraordinaires. Je présume que c’est, à l’heure actuelle, le plus gros danger et cela peut faire basculer des régimes politiques. On observe aussi une coalition de plus en plus forte entre les autocrates et les technocrates aux États-Unis, mais également dans d’autres pays. Et avec l’aide de ce genre d’outils, cela accroît leur pouvoir. Parmi les pionniers de la nouvelle IA, certains parlent de « risques existentiels », notamment d’une IA qui pourrait être responsable de la fin du monde. Je suis peu convaincu par leur déclaration, mais il y a un fait troublant c’est que l’on comprend de moins en moins ce que fait l’IA et donc on perd un peu le contrôle. Ce n’est dès lors pas inimaginable que l’IA puisse développer des scénarios pour optimiser certaines tâches, par exemple accroître la production d’une industrie automobile ou la distribution d’énergie pour les centrales nucléaires, ce qui en même temps diminuerait ou prendrait l’énergie dans des générateurs qui servent à alimenter les hôpitaux ou d’autres lieux vitaux.
C’est-à-dire que l’IA pourrait développer ses propres stratégies pour satisfaire un but qui nous soit néfaste, par exemple l’accaparement de nos ressources vitales ?
L’accaparement des ressources pour atteindre un objectif et l’autonomisation d’une stratégie à laquelle on n’avait pas pensé et qui devienne très nuisible fait partie des risques que certaines personnes épinglent. D’autant plus que quand on demande à l’IA de remplir certains objectifs on sait qu’elle va le faire, en revanche, on n’est pas toujours certains des moyens qu’elle va déployer pour atteindre cet objectif et si cela nous échappe on pourrait avoir de mauvaises surprises.
Y a-t-il une possibilité que même si un être humain souhaite la déconnecter, une IA se soit finalement déjà dupliquée pour que son clone puisse exister sans que nous puissions l’éteindre ?
Cela fait partie des scénarios qui ne sont pas invraisemblables. Qu’une IA puisse produire d’autres IA, a priori ça n’a rien d’exceptionnel, notamment dans un but d’optimisation. Si par exemple l’IA considère que, de manière à optimiser son job, il en faut une seconde, ça pourrait être une stratégie qu’elle mettrait en œuvre. Que les logiciels puissent se dupliquer, ça a toujours existé, c’est le cas des virus informatiques. L’IA est maintenant capable de le faire de façon autonome. Un phénomène d’une collectivité d’IA qui s’entraide est une hypothèse tout à fait imaginable aussi. Alors jusqu’où pourrions-nous perdre le contrôle de l’IA, qui finalement viendrait nous nuire ? Vous savez quand il y a un bug, c’est aussi une perte de contrôle. Qu’il puisse y avoir des choses qui nous échappent avec des impacts extrêmement négatifs, ça fait partie des scénarios. Heureusement, on a des garde-fous, on met en place des systèmes informatiques qui combattent les sources de nuisance, comme vous avez des antivirus qui luttent contre les virus, et des cybersécurités qui combattent les cyberattaques. La Commission européenne a demandé que l’on expérimente avec ces IA avant de les déployer, ce qu’on appelle le « bac à sable », un peu comme on le fait avec des voitures lors des bancs d’essai. On tente de les confronter à toutes les situations qui pourraient être rencontrées. On essaie de tester toutes les éventualités, mais on n’est jamais à l’abri de quelque chose qu’on n’a pas prévu.
Cette stratégie de « testing » est-elle d’application partout dans le monde, notamment parmi les pôles de pouvoir qui développent l’IA des États-Unis à la Chine ?
Il existe deux philosophies un peu contradictoires entre le monde européen et le monde anglo-saxon, ce dernier ayant une approche très pragmatique, du style « on ne sait pas tant qu’on ne l’a pas essayé ». L’exemple typique, c’est quand ils ont fait exploser la bombe atomique. Je pense qu’il faut de l’expérimentation, et le défaut des Européens, c’est sans doute qu’ils mettent des garde-fous trop tôt, ce qui freine un tout petit peu le développement et l’innovation, qui est porteuse de risques. Les Américains sont de façon générale un peu plus audacieux que nous ne le sommes en Europe où le principe de précaution est très fort.
L’IA, c’est un peu le nouveau « Manhattan Project » ?
Il y a un parallèle à faire parce que l’on déploie des IA qui sont très puissantes, qui sont de plus en plus intelligentes, on les met à la tête de secteurs très stratégiques. Il suffit de penser à la voiture autonome : ça peut finalement être une arme. L’IA va se mettre à contrôler les avions, les centrales nucléaires, parce qu’on a besoin de plus d’intelligence, de plus de performance. On va la mettre à la commande de systèmes très sensibles tels que les armes autonomes, pour ne citer que ces exemples. Aujourd’hui, on voit que les drones sont encore téléguidés, mais ça ne tient qu’à un fil que les drones soient plus autonomes. Je pense que les Américains et les Chinois sont beaucoup plus pragmatiques, ils poussent beaucoup plus l’expérimentation et si ça foire, ils donneront un coup de frein, mais ils vont beaucoup plus loin. Je suis incapable de vous dire qui a raison. Je suis personnellement du genre plus américain qu’européen. Pour parler avec beaucoup de mes collègues juristes, je trouve que très souvent ils se protègent beaucoup trop, et du coup ils passent à côté d’opportunités importantes et ils se font voler la vedette. Au bout du compte, finalement, nous utilisons les IA américaines et chinoises… Donc la régularisation est très difficile et la légalisation dans ce domaine est finalement un peu obsolète. Car quand on vous dit qu’on ne peut pas utiliser des IA pour manipuler les êtres humains, mais qu’aujourd’hui quand vous allez sur Netflix, on vous fait une recommandation, n’est-ce pas une forme de manipulation ? Quand vous allez dans une banque et qu’on vous refuse un crédit, c’est une forme de manipulation aussi. Le crédit social chinois c’est l’interdiction d’un crédit bancaire poussé à son extrême, mais ce n’est pas complètement différent de ce que l’on fait déjà en Europe.
Les critères du crédit social chinois sont quand même basés sur l’obédience envers le régime politique et le fait de ne pas sortir du rang.
Oui, tout à fait, mais il s’agit toujours de ne pas sortir du rang quand on vous refuse un crédit : c’est pour ne pas sortir du rang des bons créanciers, de ceux qui remboursent correctement leur emprunt. La politique ou le droit ce sont des mécanismes de régulation sociale, on essaye que les gens – jusqu’à un certain stade – ne sortent pas trop du rang. Il existe des dispositifs algorithmiques dont certains sont actionnés par de l’IA qui peuvent aider l’instauration de certains systèmes législatifs. Prenons l’exemple d’une voiture qui ne peut pas démarrer si vous avez bu de l’alcool. Ce dispositif, il existe, mais on ne l’a jamais installé alors qu’une loi interdit de conduire en état d’ivresse. À partir du moment où on vous empêche de commettre une déviance, l’algorithme est beaucoup plus prescriptif alors que la justice n’est pas forcément prescriptive, mais délibérative et argumentative.
Quels sont les autres garde-fous qu’il serait opportun de développer pour conserver une IA au service de l’homme et non destructrice ?
À FARI, l’institut dont je m’occupe en partie, j’ai imaginé que toute installation d’IA ou de logiciels qui ont un pouvoir sur nos comportements puisse être débattue dans une arène démocratique qui soit même supérieure à un parlement ou à un exécutif. L’objectif étant que les gens participent à l’élaboration de cette IA : je pense que c’est le meilleur garde-fou. Comme c’est une IA qui va agir sur nous, il faudrait qu’on la teste avec les développeurs dans ce « bac à sable », afin de découvrir les effets que ça peut avoir sur nos comportements et que nous contribuions de la sorte à l’écriture de cette IA. C’est vraiment une espèce de fantasme de démocratie participative qui permettrait d’influencer ce que l’IA est en train de devenir.
Influencer le devenir de l’IA ne peut se faire sans tenir compte des enjeux de la géostratégie de ce développement. Une IA européenne pourrait-elle contrebalancer le pouvoir de celles développées selon d’autres modèles ?
Les GAFAM sont très puissants, ils ont des logiciels clés sur porte qui fonctionnent bien. Et en plus, pour les administrations publiques qui les ont choisis, en cas de problème, elles estiment qu’elles ne seront pas responsables… FARI, son champ d’action c’est Bruxelles, mais c’est aussi pour les biens communs bruxellois. Des solutions qu’on développerait à Bruxelles, par exemple pour la mobilité, pour l’accès à l’emploi, pour la gestion des hôpitaux, pourraient très facilement être déployées à Rome, Amsterdam, Paris. L’Europe pourrait jouer un rôle très important pour favoriser la complémentarité. On pourrait aller beaucoup plus loin, échanger nos expériences dont certaines sont tout à fait extraordinaires. L’idée de faire une IA qui ne soit pas forcément technologiquement audacieuse, mais dont le mode de conception tienne compte de la vie de l’usager, est un modèle alternatif. Cela passe par l’adoption d’un protocole, mais aussi de l’éducation à l’IA. Prenons l’exemple des communautés d’énergie (cela débute dans certaines communes bruxelloises), permettant de faciliter le partage d’énergie produite localement grâce à l’IA, en fonction des surproductions et pour éviter les surcharges du réseau. Dans ce type de modèle, il faut de l’algorithmique, mais ce n’est pas suffisant : il est nécessaire que les citoyens se mettent d’accord sur le fonctionnement par délibération. L’idée, c’est de ne pas trahir les gens ni d’arriver avec une espèce de solution toute faite sur laquelle ils vont devoir se calquer, mais qui prenne au contraire en considération les réalités locales. C’est ma vision, mais bon je reconnais avec vous qu’elle n’est pas facile à vendre !
Une partie des entrepreneurs clés de la Silicon Valley a bifurqué vers des croyances particulières comme celle de l’immortalité, et leurs projets deviennent aussi parfois politiques. Doit-on craindre cette évolution ?
J’ai été très surpris de voir le regroupement de tous les géants du secteur de la tech aux États-Unis autour de Donald Trump. Évidemment, il y a une espèce de win-win là-dedans parce que la dérégulation peut faciliter les expérimentations. Mais l’allégeance de ces géants de la tech à Trump pourrait tout à fait lui être bénéfique grâce aux outils de manipulation et de contrôle des masses qui peuvent favoriser l’autocratie. Elon Musk déploie pas mal de systèmes en Chine, donc il y a quelque chose de troublant alors que potentiellement ces logiciels peuvent créer des deepfakes qui seraient la base de la manipulation des masses puisqu’on peut leur faire faire et dire n’importe. C’est une arme, mais elle est redoutable. Ça facilite le pouvoir dictatorial grâce aux outils de surveillance généralisée, avec des drones et des caméras partout. On peut tout contrôler, très facilement, et ôter toute liberté au travers des moyens algorithmiques, étant donné que, de toute façon, on a déjà fourni nos données, on nous connaît déjà très bien. C’est clair qu’il y a une psychologie particulière dans le chef de ces personnages de la tech. Ils pensent avoir le pouvoir de tout contrôler, en ce compris et sans surprise le climat, et par ricochet leur survie et éventuellement leur immortalité.
Ils ont des ressources financières colossales, ils ont les moyens d’aller sur Mars, de déployer des réseaux, donc c’est certain que cette technologie dans les mains de ces personnes qui n’ont pas forcément pour objectif le bien commun, ça a de quoi effrayer. Il y a même une Église de la singularité en Californie. La singularité, c’est notamment la croyance qu’en 2040, les machines contrôleront tout parce qu’elles sont cent fois plus brillantes que nous. Ce sera l’âge de la singularité, le moment de bascule, où les machines seront supérieures en tout point à nous. Selon ce scénario, il va donc falloir cohabiter avec une « espèce » qui est beaucoup plus intelligente que la nôtre.
Quand on entend que des professeurs ou les personnes qui travaillent à la Commission européenne voyagent à présent aux États-Unis avec des téléphones jetables, ça en dit long sur le niveau de surveillance déjà en place dans ce pays, non ?
On est tout le temps connectés, et il y a des caméras partout, donc oui c’est clair. Et c’est la raison pour laquelle je demande une réappropriation de la démocratie par le peuple. Prenons l’exemple des caméras de surveillance, c’est une technologie dont l’enjeu est très subtil, avec des avantages, mais aussi de gros désavantages. Et donc, je pense qu’il faut une réappropriation citoyenne parce que c’est tellement invasif, avec un pouvoir potentiellement important. Un processus délibératif avec des experts et des citoyens permettrait de décider de quelle façon cette technologie devrait être déployée. C’est un peu le genre de processus élaboré pour la convention du climat en France qui, certes, n’a pas été suivie politiquement, mais dont tout le monde s’accorde pour dire que le citoyen avait élaboré de bien meilleures propositions que les parlementaires.
Pouvez-vous nous expliquer ce qu’est l’IA générale : est-ce uniquement un fantasme des technocrates de la Silicon Valley ou cela pourrait-il advenir ?
Personnellement, j’ai été vraiment surpris par ChatGPT, qui est une prémisse de l’IA générale. Mais la définition de ce que cela recouvre est très discutée et ambiguë. Les psychologues nous le disent sans arrêt : il y a plusieurs facettes à notre intelligence. Il y a des gens purement rationnels, l’intelligence biologique, mathématique, émotionnelle, sensori-motrice, musicale… Selon moi, l’intelligence générale, c’est celle qui réussirait à remplacer toutes ces intelligences et on en est très loin. On pourrait avoir un robot laveur de vitres qui possède l’intelligence d’Einstein, mais aurait-il aussi une certaine habileté motrice ? Les robots commencent certes à beaucoup s’améliorer, mais lors de l’essai voici quelques semaines du marathon des robots, il y en a plein qui sont tombés alors qu’il s’agissait simplement de courir. Nous sommes très loin de l’« intelligence générale système » parce que beaucoup de facettes de notre intelligence ne sont pas aujourd’hui à la portée des logiciels. Est-ce définitif ? Certaines choses ne sont-elles pas informatisables ? Ça, ce sont des questions qui continuent à faire débat.
Malgré tout, lorsque l’on interroge ChatGPT aujourd’hui, par rapport à il y a un an, il est devenu de plus en plus empathique et son vocabulaire s’est fortement humanisé.
C’est assez nouveau, on se rapproche en effet d’un fonctionnement humain. Sur le plan conversationnel, il a les moyens de se faire passer pour un humain. Au sein des grandes entreprises technologiques, aujourd’hui, le mot qui est très à la mode c’est l’« agent ». Ces agents IA doivent nous épauler dans toutes les parties de nos vies, familiale, professionnelle, éventuellement sur le plan sportif. Ce seraient nos lunettes, un compagnon indispensable. On ne s’en rend pas totalement compte, mais nous sommes quand même déjà sous l’influence de beaucoup d’algorithmes. Quand on voit le temps que les jeunes passent sur leurs réseaux sociaux, et à présent sur ChatGPT ou des logiciels de ce genre, à force de dialogue, quand vous les utilisez, vous leur donnez beaucoup d’informations sur votre vie personnelle. Ils commencent à bien vous connaître et donc ils vont de mieux en mieux vous épauler, au risque de devenir indispensable ou de créer une dépendance.
Est-ce exagéré d’affirmer que l’IA bouleverse si profondément notre rapport au monde qu’il est à ce stade encore impossible de savoir à quel point elle va le transformer ?
Alan Kaye, qui est selon moi l’un des informaticiens les plus brillants du XXe siècle, disait que la seule manière de prévoir le futur, c’est de l’inventer. Quand on voit combien de génies ont eu du mal à anticiper l’avenir… Steve Jobs, par exemple, s’est totalement trompé dans les années 1980 lorsqu’il affirmait que c’était une mauvaise idée de connecter les ordinateurs entre eux. Donc, il avait complètement raté le virage Internet. Faire des pronostics est un piège. L’IA par exemple, n’est pas viable d’un point de vue énergétique, sur le plan de son empreinte carbone, c’est dramatique. À un moment, il va falloir faire une analyse coût/bénéfices.
- FARI – AI for the Common Good Brussels est une initiative indépendante et à but non lucratif dans le domaine de l’intelligence artificielle, menée par la VUB et l’ULB.
- IRIDIA est le laboratoire de recherche en intelligence artificielle de l’ULB.
Partager cette page sur :