La tartine
L’éthique
à l’épreuve du numérique
Sandra Evrard · Rédactrice en chef
Mise en ligne le 12 avril 2022
Le recours chaque fois plus massif à l’intelligence artificielle, aux algorithmes, aux applications et autres outils numériques pose de nombreuses questions d’ordre éthique. Depuis le respect de notre vie privée jusqu’au respect de la vie tout court en passant par l’exploitation des traces que nous laissons sur le Net, les choix posés dans l’utilisation des outils numériques se doivent d’être pensés minutieusement et à 360°.
Illustration : Philippe Joisson
L’information a défrayé la chronique fin février, sans susciter pourtant trop d’émois : la Chine a réussi à créer des utérus artificiels humains, gérés par une intelligence artificielle (IA) qui permet de veiller à l’apport nutritionnel des embryons, de monitorer la détection d’anomalies ou de problèmes pouvant survenir dans leur développement. Le but : relever le taux de natalité du pays, qui resterait drastiquement bas, malgré l’abandon de la politique de l’enfant unique en 2015. Heureusement, pour l’instant, la loi ne permet pas que ces tests humains se poursuivent au-delà de 14 jours, mais le projet est déjà en lui-même interpellant et pose une série de questions éthiques. À partir du moment où ce projet sera viable, quel type d’être humain ferons-nous naître et pour qui ? Pourrons-nous systématiquement choisir le sexe, quitte à engendrer un déséquilibre de genre ? Pourrons-nous sélectionner les gênes et selon quels critères ? Choisir le nombre d’enfants, malgré une surpopulation planétaire ? Ces enfants pourraient-ils être élevés sans parents, pour un dessein trouble ? Autant de questions qu’il est urgent de soulever à l’échelle mondiale pour éviter de sombrer dans une mauvaise série.
Avec ce type de projet, nous sommes déjà un cran plus loin que les interrogations éthiques qui se posaient sur la responsabilité des voitures autonomes ou d’autres processus gérés par une IA, qui pourraient avoir une incidence vitale sur l’être humain. Citons entre autres les diagnostics médicaux via l’IA qui comportent leur lot de positivité (par exemple, le fait de prévoir en amont un cancer ou d’autres maladies qui pourraient être prises en charge précocement), mais aussi de craintes (exploitation des données de santé à mauvais escient et impact sur notre bien-être psychique), la prédiction des crimes grâce aux algorithmes à l’intention de la police criminelle, ainsi que du système judiciaire, pour permettre aux juges américains d’établir « la vérité », ou l’emploi de robots militaires sur les champs de bataille. Tout cela ne relève déjà plus de la dystopie, même si des « améliorations » de ces processus sont encore en cours.
Des biais et le choix de programmation
La dimension liée au libre arbitre et au respect de notre intégrité tant psychique que physique, le choix de société que cela engendre et les effets collatéraux de ces recours à l’IA interrogent. D’autant plus que celle-ci est régulièrement accusée d’être source de biais entraînant des discriminations, avec des répercussions très terre à terre telles que l’accord de cartes de crédit et de prêts plus facilement octroyés aux hommes qu’aux femmes – question de statistiques salariales –, des chatbots qui émettent des propos racistes, des décisions de justice inéquitables, car rendues sur base de statistiques sociales et ethniques… Les exemples sont légion. Cela soulève la question du respect de l’État de droit et des droits fondamentaux dans une série d’applications. Mais aussi celui de la responsabilité, car si ces biais sont également constatés lorsqu’ils émanent d’êtres humains, ces derniers sont redevables devant la justice. Qu’en est-il de la responsabilité d’une machine ?
Au-delà du respect du droit, important en démocratie, intervient donc le questionnement moral, notamment dans le choix des outils numériques. C’est toute la problématique de la programmation des agents moraux artificiels. « Un agent moral artificiel peut être aussi bien une voiture autonome qu’un chatbot, cela recouvre en fait toutes les applications qui sont en prise avec des décisions. Pour la partie purement éthique et afin d’en donner une définition, cela revient à mon sens à répondre à la question : “Que devrions-nous faire en mobilisant des raisons morales du point de vue de l’univers, un point de vue neutre qui ne favorise pas un intérêt particulier ?” Ce sont donc des raisons altruistes, que tout le monde peut partager », explique sur TV5 Martin Gibert, chercheur en éthique de l’intelligence artificielle à l’Université de Montréal.
Pour faire simple et imagé, c’est la question de savoir comment, par exemple, programmer une voiture autonome si elle doit choisir entre provoquer un accident qui ferait trois victimes âgées et un autre qui serait fatal à un enfant, voire entre un bien matériel de valeur et un animal. On devine aisément la torture mentale que cela doit être d’avoir à répondre à ces questions. C’est pourtant le job des programmateurs d’IA et de tous les algorithmes qui se cachent derrière nombre d’applications que nous utilisons déjà, sur le Net, sur nos téléphones et dans tout objet connecté.
Ajoutons à cela, ainsi que différents articles de ce dossier l’expliquent, que le recours à l’IA a souvent comme optique première d’aspirer nos données personnelles afin de les exploiter commercialement. Les plateformes telles que Google, Facebook, Twitter, Netflix trient quelques milliards de données personnelles pour déterminer nos intérêts et affiner leurs propositions commerciales. Mais jusqu’où ira cette économie prédictive, basée sur de la propagande ciblée ? Là encore, tout dépend du curseur mis en amont par l’être humain qui plonge ses mains dans le cambouis numérique de la programmation et du sentiment de déresponsabilisation que procure l’anonymat.
Attention à
l’ethical washing !
Conscients des enjeux, de nombreuses entreprises, mais aussi des spécialistes de la question tentent néanmoins de définir des chartes éthiques qui permettent de fixer de bonnes pratiques et des guidelines. Mais à l’instar du greenwashing apparu au début des années 2000 avec les chartes de développement durable brandies par les entreprises soucieuses de verdir leur image, on parle actuellement d’ethical washing, donc de blanchiment éthique pratiqué au travers de chartes de façade. « Aujourd’hui, on a dépassé un nouveau palier de blanchiment grâce à l’utilisation de l’IA et du machine learning. Cela induit des biais, des discriminations, un manque de transparence et de fiabilité », expliquait Dominic Martin, philosophe au CRE (Centre de recherche en éthique) de Montréal, lors d’un webinaire organisé par FARI (un institut d’IA qui regroupe des chercheurs).
Illustration : © Philippe Joisson
En premier chef, le choix de paramétrage des algorithmes est fondamental. « Certains sont plus appropriés que d’autres et une organisation peut sélectionner l’outil qui la servira le mieux selon les buts qu’elle souhaite atteindre. Par exemple, les divers groupes ethniques peuvent être traités différemment par les algorithmes en fonction de leur appartenance d’après les paramètres choisis », confirme Dominic Martin.
Prétendre appliquer une éthique dans ce domaine au sein d’une entreprise alors que ce n’est pas vraiment le cas ou que les choix technologiques ne sont pas en adéquation avec cette optique est évidemment tentant… et effectivement d’application ici et là. Mais selon le philosophe montréalais, ce serait aussi inapproprié que court-termiste. « Cela donne une perception positive qui ne correspond pas à la réalité. L’ethical washing est néfaste car il entraîne ensuite de la déception et cela est contre-productif sur le plan de l’impact que cela a sur la société. »
Quelles balises pour l’IA ?
Parmi les solutions à envisager pour pallier cette problématique, il y a celle de la régulation. Sylvie Delacroix, professeure de droit et d’éthique à la Birmingham Law School, porte ses recherches sur la conception de systèmes informatiques destinés à des contextes chargés de moralité. Selon elle, « l’éthique et la régulation peuvent se renforcer si l’on trouve un équilibre entre les deux ». Ce que ne contredit pas la consultante en entreprises Katherine O’Keefe, qui estime que « l’éthique implique une attitude proactive pour que la parole se transforme en actes. Les principes doivent être suivis d’une politique, de procédures qui peuvent être contrôlées et mesurées. Ce sont des principes de gouvernance qui permettent de détecter le biais ou un problème quand cela ne fonctionne pas. Ils constituent donc un bon point de départ, faute de quoi, il s’agit d’une campagne publicitaire ». Lorsqu’elle établit une charte éthique avec les entreprises désireuses d’en signer une, la consultante insiste sur certains questionnements qui appellent des réponses claires : à qui cela va-t-il bénéficier ? Qui sera responsable ou qui risque d’être lésé ? Comment l’éthique est-elle intégrée dans la culture organisationnelle ? Comment sont gérés les challenges et les problèmes ? Enfin, elle insiste également sur ce dernier point : il faut communiquer sur les principes de l’éthique à toutes les parties prenantes au projet. Car si l’éthique est uniquement brandie pour se donner bonne conscience, elle ouvre la porte à de gros problèmes en aval, qui ne seront que plus difficiles à résoudre. Sylvie Delacroix enfonce d’ailleurs le clou : « L’éthique est développée depuis des siècles par la philosophie, par le droit, mais la manière dont elle est utilisée aujourd’hui me préoccupe. »
Quelle morale ?
« Il y a un autre enjeu dans l’influence, qui est celui du paternalisme », explique le chercheur en éthique de l’Université de Montréal. « C’est le fait d’influencer ou de manipuler les gens pour leur bien, comme avec les campagnes de santé. L’intelligence artificielle peut certainement aider, mais tout le problème du paternalisme, c’est que ceux qui l’appliquent assument qu’ils savent mieux que les gens ce qui est bon pour eux et ce n’est pas toujours le cas. L’IA permet de mieux manipuler les gens, elle offre donc de nouvelles possibilités au paternalisme. Mais si les valeurs morales de ce paternalisme ne sont pas bonnes, celui-ci peut poser de nombreux problèmes. Sachant que déterminer quelles sont les bonnes ou mauvaises valeurs morales est fluctuant en fonction des cultures. C’est ce que l’on appelle le relativisme moral, qui est le concept le plus accepté dans les populations en général.
On s’aperçoit en revanche que les gens ont des intuitions réalistes, c’est-à-dire qu’ils pensent qu’il y a des choses qui sont vraiment mal, quelle que soit la culture. L’exemple fréquemment donné est celui de l’esclavage qui était acceptable à une époque et qui ne l’est plus… » Ici encore, définir une (bonne) morale une fois pour toutes semble voué à l’échec et peu en phase avec les principes éthiques de base. Les champs d’application de l’IA étant multiples et pour certaines formes d’IA, encore inconnus, on ne peut généraliser des règles d’ensemble à adopter, une réflexion particulière doit s’enclencher dans chaque cas spécifique. Il semble néanmoins urgent que les États adoptent un cadre éthique commun sur une série de sujets fondamentaux touchant l’humanité dans son ensemble.
Partager cette page sur :