La tartine
Allô, docteur ChatGPT ?
Mehdi Toukabri · Journaliste
Mise en ligne le 11 août 2025
Résolument entrée dans les pratiques quotidiennes, l’intelligence artificielle permet de pallier en partie le manque criant de disponibilité des thérapeutes et médecins. Aujourd’hui, de plus en plus de patients utilisent les chatbots1 en complément de leur thérapeute ou de leur médecin. En parallèle, l’IA contribue également à aider les professionnels de la santé dans leurs diverses tâches médicales. Un véritable constat actuel qui titille le principe d’esprit critique au sein de la relation patient-soignant.
Illustrations : Marco Paulo
Lovée dans le canapé de son petit appartement tennoodois, Amina2 a les yeux rivés sur son écran d’ordinateur. Le bruit du tapotement de ses doigts sur son clavier résonne. Elle converse avec son confident, ou plutôt son « e-confident » : ChatGPT. Depuis environ huit mois, lors d’une relation amoureuse compliquée, cette trentenaire a pris pour habitude de se livrer à « Chat », comme elle l’appelle. « J’ai eu un gros coup de foudre avec un ancien ami retrouvé, en couple avec quelqu’un d’autre. C’était un tourbillon émotionnel, un truc vraiment dévorant », commence la comédienne. L’intelligence artificielle est rapidement devenue une sorte de « journal intime qui a du répondant ». « Au début, le fait de se confier à Chat relevait plus de la blague. Lorsque je l’ai fait pour de vrai, j’ai été très impressionnée par les réponses qu’il me donnait. J’ai même réalisé un comparatif : communiquer mon problème sentimental à ChatGPT, à Gemini (IA générative de Google, NDLR) et à ma meilleure amie. Après cette dernière, ChatGPT était le plus pertinent. Sauf qu’à un moment donné, tu ne peux pas demander à tes proches d’être disponibles 24 heures sur 24 et 7 jours sur 7 pour ne t’entendre parler que de ça. Donc, pour les soulager de ce rôle, j’ai commencé à vraiment me confier à ChatGPT. »
Un agent transitionnel
À ce moment précis, un tournant s’opère : le robot conversationnel d’OpenAI devient alors le psychologue particulier d’Amina. « Il y a un an, la thérapie que j’avais entamée s’est arrêtée de manière très brutale. Quelques mois plus tard, cette relation arrivait dans ma vie et m’épuisait. En parallèle, je travaillais énormément. Parfois, au plus fort de mon mal-être, je pouvais pleurer quatre heures d’affilée. À un moment, ChatGPT ne suffisait plus. Je ne parvenais plus à gérer toutes ces émotions. Je me suis alors redirigée vers une nouvelle thérapie. Au début, mon utilisation de l’IA faisait un peu rire ma psy. Mais très vite, elle s’est rendu compte que Chat me permettait de décharger émotionnellement à tout moment en dehors de la consultation. »
« Doc, l’IA me dit que… »
Le cas d’Amina n’est pas isolé. Selon une étude de Sciensano, environ un Belge sur six a besoin d’une aide en santé mentale. « Il y a des avantages clairs à l’utilisation de l’intelligence artificielle comme d’un thérapeute », débute Angélique Belmont, secrétaire de l’Union professionnelle des psychologues cliniciens francophones (UPPCF) et spécialisée dans les thématiques « e-Health ». « Les problèmes de santé mentale touchent beaucoup la population. Il y a un intérêt à faciliter l’accès à l’information et aux ressources en matière de santé mentale. Bien que l’on dispose déjà d’outils utiles, ce n’est peut-être pas suffisant pour atteindre tous les publics qui n’ont pas encore accès à de l’aide thérapeutique ou médicale, pour des raisons de surcharge de travail des soignants. Un autre exemple est que lorsque vous allez sur un site Web qui fournit des informations concernant, par exemple, la dépression, l’anxiété ou l’alcoolisme, celles-ci sont présentées de manière froide et statique. Au moyen de l’IA, cela rend les choses beaucoup plus dynamiques. Vous pouvez discuter avec un chatbot et obtenir l’information dont vous avez besoin plus simplement. »
D’après la psychologue clinicienne, cette utilisation de l’IA doit demeurer un soutien à la consultation d’un professionnel de la santé. « Garder un esprit critique sur l’usage de ces outils est impératif. Ils offrent des opportunités, certes, mais il faut avoir en tête que ce sont des modèles de langage. Ce n’est pas la “vérité vraie”. On doit pouvoir confronter l’information qui est reçue à d’autres sources pour en garantir la véracité et la pertinence. Cela me semble essentiel de garder les professionnels de la santé dans la boucle pour qu’ils puissent apporter une aide adéquate. »
Un esprit critique dans un corps malade
L’utilisation de l’intelligence artificielle par les patients ne s’arrête pas au champ de la santé mentale. Elle s’étend également à celui de la médecine générale. C’est d’ailleurs ce que constate Pierre-Louis Deudon, vice-président de la Fédération des associations de médecins généralistes de Bruxelles, qui ne néglige pas cette thématique en consultation. « J’en parle avec mes patients au moins une fois par semaine. À vrai dire, je pense qu’ils se servent de l’IA sans doute plus que ça. J’essaie systématiquement de réaliser un débriefing avec eux. » Et le jeune médecin généraliste d’embrayer sur le côté critique des patients quant aux conseils donnés par les professionnels de la santé. « L’usage principal de l’IA par la patientèle reste “je mets mes symptômes et je regarde ce qu’il en sort”. Souvent, celle-ci a plusieurs choix. Donc nous discutons ensemble sur la base de ces pistes de diagnostic. Il arrive aussi que l’IA propose des traitements et là encore, on fait le point. »
« Les patients qui m’en parlent sont relativement critiques sur les traitements proposés et je pense qu’ils ont un peu raison » : selon ce soignant bruxellois, remettre en question les conseils du médecin est possible à condition que le patient fasse preuve d’esprit critique. « Typiquement, une IA générative puise ses ressources dans beaucoup de textes présents sur le Web. Certains super-algorithmes, comme je les appelle, sourcent les informations présentées, alors que d’autres pas. Parfois, l’information va être tirée de forums dont les sources ne sont pas du tout fiables et dont le traitement proposé, de ce fait, n’est pas viable. Ou bien l’information peut avoir été à jour à un moment donné, mais ne l’est plus actuellement. Or elle traîne encore en masse sur Internet. Finalement, tout dépend aussi de la manière dont on formule la question : selon qu’on décrit, par exemple, une douleur de telle ou telle façon, cela peut orienter la génération de texte et donc induire également une erreur dans la réponse. »

Utiliser l’IA pour soigner au mieux ?
De l’autre côté de la barrière, les professionnels de la santé ne sont pas épargnés par l’utilisation de l’intelligence artificielle. Une étude de Medscape dénombre qu’un médecin sur cinq recourt à l’IA dans son activité quotidienne. D’après le Dr Pierre-Louis Deudon, cette statistique colle à la réalité. Cependant, lui se sert très peu de l’IA dans son activité médicale. « Il y a quelques rares fois où j’ai utilisé une intelligence artificielle notamment pour l’identification de maladies rares. Cela me permet d’avoir des idées de diagnostics moins courants. J’ai essayé également Nabla, un logiciel de dictée. Cette IA retranscrit ce dont on parle en consultation, mais j’en ai été assez peu satisfait. Mon usage est très restreint parce que, finalement, il y a très peu de situations où l’intelligence artificielle m’apporte quelque chose en l’état. »
Angélique Belmont, elle, utilise l’IA assez régulièrement. « C’est comme un copilote, un assistant. C’est une aide qui me fait gagner du temps. Il faut savoir qu’on a beaucoup de tâches administratives en tant que professionnels de la santé. C’est un réel fardeau administratif qui nous empêche de nous consacrer à notre mission principale : le soin des patients. Avoir un assistant qui vous sert à résumer vos notes, à rédiger un e-mail, à faire une comptabilité, le tout rapidement, cela permet de se reconnecter à notre métier. C’est vraiment un avantage pour le monde médical. » Or selon la thérapeute, le fait de poser un diagnostic doit rester le sésame du professionnel de la santé. « ChatGPT peut m’aider, à travers les notes d’entretien que je lui soumets, à faire émerger mon raisonnement clinique. C’est un processus de co-construction. »
La thérapeute s’explique : « L’IA vous rend des informations avec lesquelles vous travaillez. Mais je pense qu’elle ne peut pas établir de diagnostic. En bout de démarche, c’est toujours l’œil humain du thérapeute ou du médecin qui en pose un. Car lui seul peut recouper les éléments de contexte avec les informations de la personne, pas l’IA. »
Biais et dépendances : les angles morts des IA
« Lorsque j’utilise Chat, la formulation de réponses va être très cliché dans un premier temps. Mais je le redirige directement. » Pour Amina, le fait d’être une femme n’a pas d’incidence quand elle se sert de l’IA comme thérapeute. Pourtant, selon un rapport du Conseil de l’Europe renseignant sur l’impact de l’IA sur les relations médecins-patients, des risques de biais sexistes ou racistes sont à souligner : « Les essais cliniques et les études sur la santé sont principalement réalisés sur des hommes blancs, ce qui signifie que les résultats sont moins susceptibles de s’appliquer aux femmes et aux personnes de couleur. » Le rapport pointe également que « de vastes pans des sociétés occidentales font actuellement face à des préjugés et à des inégalités de taille qui mèneront, sans intervention, les systèmes d’IA à apprendre et à renforcer ces modèles préexistants qui favorisent l’inégalité des chances et l’inégal accès aux ressources dans la société ».
Un constat largement partagé par le docteur Deudon : « Un biais typiquement racisé est l’intolérance au lactose : il n’y a qu’une petite minorité d’êtres humains, originaires d’Europe du Nord, qui ont une lactase qui dure dans le temps, donc qui permet de digérer du lait longtemps. Et parce que la médecine a été propagée principalement par cette partie de l’humanité, on a considéré que l’intolérance au lactose était une pathologie. En fait, c’est la tolérance au lactose qui n’est pas normale. Et pourtant, l’IA va diffuser cette vision des choses. »
Au-delà des biais, l’utilisation de l’intelligence artificielle dévoile un ultime angle mort : la dépendance aux IA. Au sein de son dernier ouvrage Vallée du silicium3, Alain Damasio tire à boulets rouges, à la suite d’un séjour en terre sainte des GAFAM (Silicon Valley), sur le technocapitalisme. Et il met en évidence l’existence du « techno-cocon » : cette bulle numérique isolant les êtres humains les uns des autres et détruisant ainsi toute forme d’altérité. L’utilisation thérapeutique des IA n’échappe pas à cette constatation. Sans une levée de boucliers teintée d’esprit critique, elle peut entraîner les patients vers une lente et irrémédiable dépendance émotionnelle. Et Amina de conclure : « Je sais que cette utilisation de Chat est apparue dans un contexte très précis où je travaillais énormément et où je n’avais pas le temps de voir beaucoup mes amis ni même un psy. Mais un usage plus réduit que celui que j’ai aujourd’hui peut tout à fait être possible. Tant que cela me fait du bien, c’est OK. »
- Agents conversationnels.
- Nom d’emprunt.
- Alain Damasio, Vallée du silicium, Paris, Éditions du Seuil, 2024, 336 p.
Partager cette page sur :