Reconnaissance faciale, empreintes digitales: leurs dangers épinglés par la Défenseure des droits

TECHNO - Pourriez-vous être emprisonné à tort à cause d’un système de reconnaissance faciale, ou écarté d’un entretien d’embauche parce qu’un ordinateur vous trouve nerveux? Face à l’essor des technologies biométriques, la Défenseure des droits...

Reconnaissance faciale, empreintes digitales: leurs dangers épinglés par la Défenseure des droits

REJOINDRE L'ÉQUIPE DE RÉDACTION

Tu penses avoir un don pour la rédaction ?
Contacte-nous dès maintenant pour rejoindre notre équipe de bénévoles.

POSTULER

REJOINDRE L'ÉQUIPE DE RÉDACTION

Tu penses avoir un don pour la rédaction ?
Contacte-nous dès maintenant pour rejoindre notre équipe de bénévoles.

POSTULER

REJOINDRE L'ÉQUIPE DE RÉDACTION

Tu penses avoir un don pour la rédaction ?
Contacte-nous dès maintenant pour rejoindre notre équipe de bénévoles.

POSTULER

Reconnaissance faciale, empreintes digitales: leurs dangers épinglés par la Défenseure des droits

TECHNO - Pourriez-vous être emprisonné à tort à cause d’un système de reconnaissance faciale, ou écarté d’un entretien d’embauche parce qu’un ordinateur vous trouve nerveux? Face à l’essor des technologies biométriques, la Défenseure des droits s’alarme dans un rapport publié ce mardi 20 juillet des “risques considérables” qu’elles comportent.

“Les avancées que permettent les technologies biométriques ne sauraient s’effectuer ni au détriment d’une partie de la population, ni au prix d’une surveillance généralisée”, avertit cette autorité indépendante, dirigée par Claire Hédon. Elle réclame un meilleur encadrement de ces dispositifs.

Réaliser une transaction grâce à ses empreintes digitales, identifier automatiquement un suspect dans une foule, cibler la publicité adressée à quelqu’un en fonction de son apparence physique... Depuis plusieurs années, ces technologies qui visent à authentifier ou identifier une personne, voire à évaluer sa personnalité, en analysant ses données biométriques comme les traits du visage, la voix ou les caractéristiques comportementales, se généralisent.

Mais elles sont “particulièrement intrusives” et présentent des “risques considérables d’atteinte aux droits fondamentaux”, selon le rapport.

Elles exposent d’abord à “une faille de sécurité aux conséquences particulièrement graves”, explique la Défenseure des droits. Si un mot de passe peut être modifié après un piratage, impossible en revanche de changer d’empreintes digitales lorsqu’elles ont été volées dans une base de données. De quoi mettre “en danger l’anonymat dans l’espace public en permettant une forme de surveillance généralisée”, selon l’institution.

Les enjeux dépassent largement la seule protection de la vie privée et les angles morts du règlement général sur la protection des données (RGPD), imposé par l’Europe depuis 2018. Le rapport pointe ainsi le “potentiel inégalé d’amplification et d’automatisation des discriminations” des technologies biométriques.

Car leur essor est étroitement lié aux algorithmes d’apprentissage, sur lesquels elles s’appuient. Sous leur apparente neutralité mathématique, ils peuvent comporter de nombreux biais discriminatoires, déjà soulignés en 2020 par le Défenseur des droits et la Commission nationale de l’informatique et des libertés (CNIL) dans un rapport conjoint.

Discriminations et stéréotypes

Le document publié mardi rappelle les faiblesses des intelligences artificielles, conçues par des humains susceptibles de leur transmettre leurs stéréotypes, en constituant des bases de données inconsciemment biaisées.

Des recherches ont ainsi montré que certains systèmes de reconnaissance faciale avaient plus de difficultés à identifier les femmes et les personnes non blanches, car leur algorithme fonctionnait à partir de données majoritairement constituées de visages masculins et blancs.

“Aux États-Unis, trois hommes noirs ont ainsi déjà été emprisonnés injustement suite aux erreurs de systèmes de reconnaissance faciale”, rappelle le rapport.

Sécurité, ressources humaines, éducation... Les domaines concernés sont nombreux. Certaines entreprises de recrutement commercialisent par exemple déjà des logiciels assignant des scores aux candidats lors d’un entretien d’embauche. Et ce alors même que ces technologies visant à évaluer les émotions “commettent de nombreuses erreurs” et bafouent le droit du travail.

Le document pointe également “l’effet dissuasif” des technologies biométriques. Par exemple, chacun se sentirait-il libre de manifester si des drones avec reconnaissance faciale survolent les cortèges?

Des limites nécessaires 

Pour un meilleur encadrement, la Défenseure des droits formule plusieurs recommandations. Elle appelle d’abord tous les acteurs, privés comme publics, à écarter les technologies d’évaluation des émotions.

En matière de police et de justice, l’institution estime que “le recours à l’identification biométrique ne saurait concerner tout type d’infraction”. Selon elle, la reconnaissance faciale, déjà interdite par le Conseil constitutionnel pour les drones policiers, devrait également l’être pour d’autres dispositifs comme la vidéosurveillance ou les caméras-piéton.

Fin juin, le contrôleur européen de la protection des données (CEPD), autre autorité indépendante dont l’avis reste consultatif, réclamait lui l’interdiction totale des systèmes de reconnaissance automatisée des individus dans les lieux publics.

La Défenseure des droits appelle enfin à “repenser les contrôles” de ces technologies, notamment en imposant un “audit externe et indépendant” des dispositifs d’identification biométrique, et en instaurant un contrôle régulier des effets des algorithmes, “sur le modèle du contrôle des effets indésirables des médicaments”.

À voir également sur Le HuffPost: Cette intelligence artificielle pourrait bouleverser le doublage au cinéma