Libres, ensemble

Accueil - Libres, ensemble - Enquêtes pénales et reconnaissance faciale : attention, danger !

Enquêtes pénales et
reconnaissance faciale :
attention, danger !

    Élise Delhaise · Chargée d’enseignement à l’UNamur et chercheuse postdoctorante au CRIDS

Mise en ligne le 2 octobre 2023

Le recours à la reconnaissance automatique des plaques d’immatriculation au moyen de caméras dites « intelligentes » s’est généralisé en Belgique, notamment dans le cadre des enquêtes pénales. Qu’en est-il de la reconnaissance faciale ? La présente contribution a vocation à poser le cadre applicable à l’utilisation des systèmes de reconnaissance faciale ainsi qu’à épingler les éventuels risques qu’elle engendrerait pour nos droits et libertés fondamentaux.

Photo © Shutterstock

Les systèmes intelligents de reconnaissance automatique de plaques d’immatriculation sont « tout logiciel informatique intelligent permettant de traiter automatiquement les images enregistrées au moyen de caméras, pour en extraire les données de plaques d’immatriculation, sur la base de certains critères préétablis »1. Ce sont donc les plaques d’immatriculation qui sont reconnues par un système d’intelligence artificielle.

Dans le cas de la reconnaissance faciale, le système d’intelligence artificielle vise à traiter des données biométriques. Le Parlement européen, dans l’amendement no 188 à la Proposition de règlement relatif à l’intelligence artificielle, définit l’identification biométrique comme la « reconnaissance automatisée des caractéristiques physiques, physiologiques, comportementales et psychologiques humaines aux fins d’établir l’identité d’une personne en comparant ses données biométriques à [celles] de personnes stockées dans une base de données »2.

Vers des règles harmonisées

En avril 2021, la Commission européenne a déposé une proposition de règlement visant à élaborer des règles harmonisées concernant l’intelligence artificielle (IA)3. Cette proposition est établie selon une approche basée sur le risque. Ainsi, les systèmes d’IA sont « classés » selon le risque qu’ils représentent pour la santé, la sécurité, les droits fondamentaux des personnes et les valeurs de l’Union européenne. Quatre catégories ont été établies : les systèmes interdits en raison du risque inacceptable, les systèmes présentant un risque élevé, ceux présentant un risque faible et ceux présentant un risque minimal. Chaque catégorie est soumise à une réglementation propre en matière, par exemple, de contrôle du système, de mise en conformité, de transparence ou encore de tests préalables avant la mise sur le marché.

Il convient de distinguer l’identification biométrique à distance en temps réel de celle opérée a posteriori. L’identification en temps réel doit s’entendre comme « un système dans lequel l’acquisition des données biométriques, la comparaison et l’identification se déroulent sans décalage temporel significatif. Cela comprend non seulement l’identification instantanée, mais aussi [celle] avec un léger décalage afin d’éviter tout contournement des règles » (art. 3, 37). Le système d’identification a posteriori est, quant à lui, tout système qui n’opère pas en temps réel (art. 3, 38).

Seuls les systèmes d’identification en temps réel à des fins répressives étaient interdits dans la proposition initiale de la Commission (art. 5). Tous les autres systèmes d’identification à des fins autres que répressives, en temps réel ou a posteriori, devaient dès lors être classés parmi les systèmes dits « à haut risque ». L’identification à des fins répressives pouvait cependant être mobilisée si celle-ci était strictement nécessaire eu égard à l’un des objectifs suivants : la recherche ciblée de victimes potentielles spécifiques de la criminalité, notamment d’enfants disparus (art 5, d, i), la prévention d’une menace spécifique, substantielle et imminente pour la vie ou la sécurité physique des personnes physiques ou la prévention d’une attaque terroriste (art 5, d, ii) et la détection, la localisation, l’identification ou les poursuites à l’encontre de l’auteur ou du suspect d’une infraction pénale et punissable dans l’État membre concerné d’une peine ou d’une mesure de sûreté privatives de liberté d’une durée maximale de trois ans, déterminées par le droit de cet État membre (art. 5, d, iii).

Des modifications indispensables

Néanmoins, parmi les amendements soumis et adoptés par le Parlement en juin 2023, plusieurs modifications sont à souligner. Tout d’abord, le Parlement envisage d’interdire toute mise sur le marché d’un système de reconnaissance à distance en temps réel. Par conséquent, le recours à la reconnaissance faciale à des fins répressives est non seulement interdit mais également toute autre utilisation de ces systèmes de reconnaissance en temps réel (amendement no 220).  Ensuite, concernant les systèmes de reconnaissance biométrique à distance a posteriori, une nouvelle disposition est adoptée par le Parlement en juin 2023. En effet, « la mise en service ou l’utilisation de systèmes d’IA pour l’analyse d’images enregistrées provenant d’espaces accessibles au public au moyen de systèmes d’identification biométrique à distance “postérieurs” [sont interdits] à moins qu’ils ne soient soumis à une autorisation judiciaire préalable conformément au droit de l’Union et soient strictement nécessaires à la recherche ciblée liée à une infraction pénale grave spécifique4 […], qui a déjà eu lieu, à des fins répressives » (amendement no 227).

Il convient de distinguer l’identification biométrique à distance en temps réel de celle opérée a posteriori. Seuls les systèmes d’identification en temps réel à des fins répressives étaient jusqu’à présent interdits.

© Metamorworks/Shutterstock

Enfin, le Parlement modifie la catégorisation des systèmes d’identification biométrique. En effet, ceux-ci doivent être considérés comme des systèmes à haut risque, à l’exception de ceux interdits par l’article 5 de la proposition de règlement (amendement no 711). Par conséquent, dans la dernière version de cette proposition, tous les systèmes de reconnaissance faciale doivent être qualifiés de « systèmes à haut risque », à l’exception des systèmes d’identification interdits, à savoir les systèmes de reconnaissance faciale à distance en temps réel et les systèmes de reconnaissance faciale à distance a posteriori, pour lesquels une autorisation judiciaire préalable n’a pas été délivrée et dont l’utilisation n’est pas strictement nécessaire à la recherche ciblée d’une infraction grave.

Dans le cas de la reconnaissance faciale, le système d’intelligence artificielle vise à traiter des données biométriques. Le Parlement européen, dans son amendement no 188, définit l’identification biométrique comme la « reconnaissance automatisée des caractéristiques physiques, physiologiques, comportementales et psychologiques humaines aux fins d’établir l’identité d’une personne en comparant ses données biométriques à [celles] de personnes stockées dans une base de données »2.

Quels risques pour nos droits et libertés ?

Le recours à l’intelligence artificielle, et plus précisément à la reconnaissance faciale, n’est pas sans risque pour nos droits et libertés fondamentaux. Ainsi, des questions peuvent être soulevées concernant la protection des données, le respect de la vie privée, le risque de surveillance de masse ou encore la présomption d’innocence.

Tout d’abord, nous avons constaté que la reconnaissance faciale vise à identifier une personne sur la base de ses données biométriques. Il y a donc des bases de données qui sont mobilisées et un traitement de ces données. Il convient dès lors d’être particulièrement attentif au droit de la protection de ces dernières et notamment à l’articulation entre la proposition de règlement sur l’intelligence artificielle et les législations relatives à la protection des données dont, en particulier, le Règlement général sur la protection des données.

Ensuite, la reconnaissance faciale permet d’identifier une personne sur base de ses données biométriques mais permet également d’obtenir toute une série d’informations sur la vie privée de cette personne : ses déplacements, ses fréquentations, ses activités… Il existe par conséquent un véritable risque pour le droit au respect de la vie privée et familiale, mais aussi pour d’autres droits fondamentaux : liberté de circulation, liberté d’expression, liberté de religion, liberté d’association…

Concernant le risque de surveillance de masse, il est évidemment bien présent. En effet, afin de permettre la reconnaissance faciale, des milliers de données seraient collectées au quotidien, notamment via les caméras intelligentes. Nous pouvons ainsi prendre l’exemple de la reconnaissance automatique des plaques d’immatriculation. Tous les déplacements sont enregistrés, sans filtre en amont. Il convient donc d’être particulièrement vigilant quant au risque de surveillance de masse, avec une collecte généralisée de données.

Enfin, le recours à la reconnaissance faciale dans les enquêtes pénales pourrait menacer la présomption d’innocence, pour deux raisons principales. Premièrement, il est généralement admis que le risque d’erreur est relativement élevé, et principalement pour certains individus. Il convient donc d’évaluer la force probante à réserver à ces moyens technologiques. Secondement, l’utilisation de la reconnaissance faciale pourrait avoir pour effet de renverser la charge de la preuve. Cela reviendrait, pour un suspect identifié grâce à un système de reconnaissance faciale, à devoir prouver lui-même l’erreur du système d’intelligence artificielle l’ayant identifié dans un lieu accessible au public, par exemple.

Un outil à mobiliser dans les enquêtes pénales belges ?

Contrairement aux systèmes de reconnaissance des plaques d’immatriculation, les systèmes de reconnaissance faciale ne sont pas régis en droit de la procédure pénale belge. Il n’y est fait aucune référence ni dans le Code d’instruction criminelle, ni dans la loi sur la fonction de police, ni dans toute autre loi particulière. Le recours à ces systèmes par les services de police belges doit être par conséquent, à l’heure actuelle, considéré comme illégal.

Néanmoins, la reconnaissance faciale pourrait servir les enquêtes pénales dans les années à venir. Nous pensons notamment à la recherche d’enfants disparus, à la lutte contre l’exploitation sexuelle des enfants en ligne ou encore à la vérification de la présence d’un suspect sur les lieux de la commission d’une infraction.

Or, comme nous l’avons développé précédemment, cet outil n’est pas sans risque pour nos droits et libertés fondamentaux, et le risque d’erreur est important. De plus, la dernière version de la proposition de règlement vise à interdire toute utilisation des systèmes de reconnaissance biométrique à distance en temps réel.

Alors que la Commission européenne paraissait vouloir réserver un statut spécifique à la reconnaissance biométrique à distance à des fins répressives en la proscrivant, le Parlement européen va plus loin en interdisant tous les systèmes de reconnaissance biométrique à distance en temps réel. Il nous semble donc que les systèmes de reconnaissance faciale en temps réel ne pourraient pas, à court terme, être utilisés par les services de police ni en Belgique ni dans toute l’Union européenne.

Le difficile équilibre à trouver en procédure pénale entre efficacité des méthodes d’enquête et respect des droits et libertés fondamentaux demande un encadrement strict. C’est dans ce sens que la proposition de règlement relatif à l’intelligence artificielle a été conçue en entourant le recours à des systèmes d’intelligence artificielle de conditions strictes ou en en interdisant certains, à des fins de sauvegarde des droits fondamentaux. L’évolution du texte sera sans aucun doute à suivre avec attention dans les prochains mois afin de connaître l’avenir de la reconnaissance faciale dans les enquêtes pénales au sein de l’Union européenne.

  1. Loi sur la fonction de police du 5 août 1992, article 44/2, § 3, alinéa 3.
  2. Proposition de règlement du Parlement et du Conseil du 21 avril 2021 établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, COM (2021) 206 final.
  3. Ibid.
  4. Entre autres, le terrorisme, la traite des êtres humains et l’exploitation sexuelle des femmes et des enfants, le trafic illicite de drogues et le trafic illicite d’armes, le blanchiment d’argent, la corruption, la contrefaçon de moyens de paiement, la criminalité informatique et la criminalité organisée comme prévu dans le Traité sur le fonctionnement de l’Union européenne (art. 83, § 1er).

La reconnaissance faciale : quels risques pour les droits et libertés ?

Libres, ensemble · 30 avril 2023

Partager cette page sur :