La tartine
L’IA, une machine
à fabriquer du doute ?
Lucie Barridez · Déléguée « Étude & Stratégie » au CAL/COM
Mise en ligne le 11 août 2025
La publication d’un article climatosceptique généré par une intelligence artificielle illustre une dérive préoccupante : l’utilisation des technologies pour produire des contenus pseudo-scientifiques susceptibles d’alimenter la désinformation. Si cette affaire peut prêter à sourire, elle révèle pourtant des fragilités systémiques dans la production scientifique contemporaine, exacerbées par le sous-financement de la recherche, la course à la publication et l’essor de revues peu rigoureuses. Dès lors, une question centrale : comment garantir la qualité de la recherche scientifique et faire de l’intelligence artificielle un outil au service de cette exigence ?
Illustrations : Marco Paulo
À quoi sert de réduire les émissions de CO2 dans la lutte contre le réchauffement climatique ? À rien, nous disent les climatosceptiques. C’est une vaste arnaque, un complot du gouvernement ! La preuve, le CO2 n’est pas la source du réchauffement climatique. C’est une étude scientifique qui le dit. Pour une fois, les climatosceptiques n’ont pas complètement tort. Cette étude existe bien, et s’intitule « Réévaluation critique de l’hypothèse du réchauffement planétaire lié aux émissions de CO2 ». Elle a été publiée le 21 mars 2025 dans la revue Science of Climate Change. À en croire celle-ci, toutes les conclusions et projections des rapports des experts de l’ONU sur le climat (GIEC) seraient donc fausses… rien que ça ! Sauf que là où le bât blesse, c’est que cet article a en fait été entièrement généré par l’intelligence artificielle Grok 3 Beta, créée par Elon Musk (lui-même climatosceptique). Qui plus est, il a été élaboré avec l’aide de scientifiques comme Willie Soon, un climatosceptique notoire qui a reçu plus d’un million de dollars de fonds provenant du secteur des énergies fossiles à travers sa carrière1. Notons encore le caractère frauduleux de la revue ayant publié cette étude puisqu’il s’agit d’une revue open access dont l’objectif avoué est de contredire les thèses du GIEC. Dès lors, il y a de quoi être nous-mêmes sceptiques sur la fiabilité de ce papier, non ?
L’ère de la désinformation 4.0
Ce fait peut paraître anodin et même amusant, tant il faut être crédule pour se fier à une étude entièrement générée par l’IA – qui plus est celle d’Elon Musk. Il convient toutefois de rester très vigilant quant aux dangers de cette pratique qui s’inscrit dans une double tendance. D’abord, celle du recours croissant aux stratégies de désinformation pour instrumentaliser l’opinion publique et servir des intérêts politiques particuliers et privés. Ensuite, celle de l’essor de l’utilisation des IA génératives pour produire du contenu informatif et scientifique. Dans ce contexte, l’IA apparaît comme un outil puissant pour la production et la diffusion massive de fake news vêtues d’une parure (pseudo-)scientifique grâce à laquelle elles ont plus de chances d’être perçues comme crédibles. La parution de fausses études scientifiques générées par l’IA est donc une problématique à prendre très au sérieux ! Cela brouille davantage les frontières entre le vrai et le faux, fragilise le débat public ainsi que la possibilité d’apporter réponses et solutions à des problèmes – tels que le réchauffement climatique. Surtout, cette pratique nuit à la qualité de la recherche scientifique et à la production des savoirs. À terme, cela risque de priver nos civilisations de tout progrès scientifique, voire pire, de les faire sombrer dans l’ignorance.
Même les scientifiques utilisent ChatGPT
Mais le buzz autour de cette fausse étude sur le réchauffement climatique a au moins le mérite de nous pousser à prendre au sérieux les questions suivantes : faut-il avoir recours à l’intelligence artificielle dans le domaine de la recherche ? Si oui, comment ? Avec quels risques et bénéfices ? Ne soyons pas naïfs, l’IA fait désormais partie de nos vies, et les chercheurs ne se privent pas de l’utiliser. Des outils comme Semantic Scholar et Connected Papers permettent d’obtenir rapidement une revue de la littérature scientifique sur un sujet donné et de visualiser les connexions entre articles.

D’autres modèles aident à la compréhension d’études, tels que Explainpaper, et servent à les synthétiser ainsi qu’à en tirer une analyse critique, comme le font Jenni AI et même ChatGPT. Ces nouvelles technologies ont surtout l’avantage de faire économiser du temps aux chercheurs, ce qui leur permet d’augmenter leur taux de production et de publication d’articles. Elles représentent donc un atout non négligeable dans un milieu qui n’échappe pas aux injonctions de la performance et où la sécurité d’emploi dépend d’un indice de productivité de plus en plus élevé. Aussi, elles peuvent très certainement contribuer à la qualité des recherches en accroissant leur précision et leur rigueur.
Fraude scientifique : l’IA accentue les risques mais n’a rien inventé
Toutefois, comme toutes technologies, les modèles d’IA comportent le risque d’être utilisés à mauvais escient. Un chercheur qui déciderait de déléguer l’entièreté de son travail à l’IA prend le risque de générer et de publier des articles frauduleux, c’est-à-dire au sein desquels les données ont été falsifiées, voire fabriquées de toutes pièces. Il existe donc une ambivalence (risques/bénéfices) liée à l’usage de l’IA dans le domaine de la recherche scientifique. Celle-ci est soulignée et analysée par Alice Rigor et Stéphanie Billot-Bonef dans un article publié en 2024 au sein de la revue Environnement, Risques & Santé2. Elles y dénoncent un véritable effet boule de neige induit par la production d’études falsifiées par l’IA, qui menace de nous conduire tout droit vers l’ère de la désinformation massive, puisque pour faire avancer la recherche, les scientifiques se réfèrent aux travaux antécédents sur le sujet3. Or si ceux-ci contiennent de fausses données, on risque de reproduire des erreurs et d’aboutir à la démonstration de thèses complètement fallacieuses.

Pour autant, la fraude scientifique n’est pas un phénomène nouveau et on trouve une pléthore de cas avant même que l’IA soit développée. Par exemple, en 1998, le chirurgien britannique Andrew Wakefield a publié dans The Lancet une étude affirmant un lien entre le vaccin ROR (rougeole-oreillons-rubéole) et l’autisme. Ce n’est qu’en 2010 que l’étude a été rétractée à la suite de révélations indiquant que les données avaient été manipulées et que Wakefield avait des conflits d’intérêts non divulgués4. Entre-temps, cette étude frauduleuse a largement contribué à alimenter le mouvement antivaccination. La question qu’il faut donc désormais se poser est la suivante : pourquoi et comment de fausses études parviennent-elles à être publiées ? Celle-ci interpelle d’autant plus lorsqu’on sait qu’il existe des balises permettant de détecter les données falsifiées, erronées ou fabriquées, et ainsi d’empêcher leur publication. Notamment le processus d’évaluation par les pairs qui prévoit la relecture d’une étude par un ou plusieurs chercheurs spécialistes du sujet traité afin de vérifier sa qualité et sa véracité.
Sauf que, comme le rappellent les autrices de l’article « Intégrité scientifique à l’heure de l’intelligence artificielle générative », il arrive que des chercheurs cèdent à la tentation de valider des articles frauduleux en échange d’une compensation financière ou de la promesse d’un traitement favorable pour leurs propres travaux à venir.
De plus, certaines étapes du processus de publication ne sont pas toujours respectées, en particulier dans les revues dites « prédatrices », qui se sont multipliées depuis l’essor de l’édition en accès libre, ou open access, au cours des vingt dernières années5. Celles-ci reposent sur le principe selon lequel c’est au chercheur ou à son institution de payer pour être publié. Elles tirent ainsi profit de la précarité grandissante au sein de la recherche scientifique, qui pousse certains chercheurs à utiliser ces revues open access comme vitrines pour obtenir des financements.
Financer la science, pas l’ignorance
En fin de compte, l’inquiétude concernant la propagation de fausses études liées à l’utilisation de l’intelligence artificielle dans le domaine de la recherche occulte en réalité l’éléphant dans la pièce : le sous-financement de la recherche scientifique. Aujourd’hui, les chercheurs consacrent une part considérable de leur temps à solliciter des subventions (souvent sans succès), au détriment de leur travail scientifique. Devant la pression de la publication, condition essentielle à l’obtention de financements, l’IA devient, pour certains, un outil de survie utilisé afin de produire rapidement des contenus, parfois aux dépens de leur rigueur. C’est également cette course concurrentielle à la publication qui alimente la prolifération de revues open access douteuses, prêtes à publier des articles peu contrôlés. Le système de relecture par les pairs, indispensable à la validation scientifique, pâtit lui aussi de ce manque de moyens : les experts n’ont pas assez de temps pour effectuer des vérifications approfondies. Conçue et utilisée de façon éthique, l’IA pourrait même être le remède à la publication de fausses études en aidant à repérer les incohérences et fraudes potentielles dans les publications. Encore faut-il que ces outils soient transparents et indépendants de tout intérêt privé.
- AFP, « Les climatosceptiques convaincus par une étude rédigée par l’IA d’Elon Musk : la fin de “l’escroquerie climatique” », mis en ligne sur lalibre.be, 4 mai 2025.
- Alice Rigor et Stéphanie Billot-Bonef, « Rigueur scientifique à l’heure de l’intelligence artificielle générative : ChatGPT et consorts, poison et antidote ? », dans Environnement, Risques & Santé, 2024/5, vol. 23, pp. 235-238.
- Ibid., p. 236.
- Yaroslav Pigenet, « Sept cas célèbres de scientifiques accusés de fraude », mis en ligne sur lejournal.cnrs.fr, 3 décembre 2014.
- Alice Rigor et Stéphanie Billot-Bonef, op. cit., p. 236.
Partager cette page sur :