Facebook Twitter Linkedin Whatsapp
Bouton de la Rubrique Grand Angle

Technologies de reconnaissance faciale : pas si sûres que ça…

Lancées dans la course aux technologies de reconnaissance faciale, les GAFA semblent marquer le pas. Sur l’utilisation par les forces de l’ordre de sa technologie de reconnaissance faciale Rekognition, Amazon vient en effet de décider d’un moratoire d’une année, dans l’attente d’une réglementation de son utilisation ; IBM renonce à proposer sa technologie au grand public de crainte qu’elle serve à des fins de discrimination raciale ; le président de Microsoft attend lui aussi l’adoption d’une loi fédérale en réglementant l’usage pour vendre sa technologie aux services de police. La raison de ce recul ? Un incident illustrant les ratés de la machine, survenu en janvier à Detroit (Etats-Unis) et qui vient de donner lieu à une plainte en justice.

Caméra de surveillance

Parce qu’un logiciel avait jugé identiques la photo de son permis de conduire et l’image d’un voleur de montres capturée par des caméras de surveillance, Robert Williams a été arrêté et menotté devant chez lui, en présence de sa femme et de ses deux filles, âgées de 2 et 5 ans. Il a passé trente heures en détention. Après une nuit en cellule, des agents lui ont montré deux photos floues d’un homme noir. «J’ai pris le papier et je l’ai mis près de mon visage en disant : « J’espère que vous ne pensez pas que tous les hommes noirs se ressemblent »». L’un des policiers lui a rétorqué : «l’ordinateur a dû se tromper». Cette méprise est le premier cas documenté d’un faux positif de la technologie en situation de production.

Aux États-Unis, la technologie de reconnaissance faciale est déjà utilisée depuis plusieurs années par les services de police dans plusieurs États. Mais elle est accusée de manquer de fiabilité pour l’identification des minorités : le taux d’erreur est de 35 % pour les femmes noires.

À ces possibles confusions s’ajoute un autre problème, celui des mesures de protection des données et de la vie privée. L’entreprise responsable de l’exploitation du métro de São Paulo, la Companhia do Metropolitano de São Paulo (METRO), est accusée par une association de consommateurs de ne pas avoir prouvé qu’elle assurait la protection de la vie privée des utilisateurs lors de la mise en place d’un nouveau système de surveillance utilisant la technologie de reconnaissance faciale. Il est prévu que son système de vidéosurveillance, qui utilise actuellement 2 200 caméras, soit remplacé par 5 200 caméras numériques haute définition contrôlées de manière centralisée, permettant de scanner le visage de 4 millions de passagers par jour. Le but est d’améliorer les opérations de transport, mais aussi d’aider à trouver les criminels recherchés, grâce à une intégration de la base de données de la police. Or, METRO n’a pas fourni de rapport sur l’impact de l’utilisation de la reconnaissance faciale, ni d’études démontrant la sécurité des bases de données utilisées pour la mise en œuvre du nouveau système de surveillance, et n’a pas prévu l’impact des éventuelles fuites de données. METRO n’a pas non plus prévu des mesures de protection des données concernant les enfants et les adolescents, qui bénéficient d’une protection spéciale dans la Constitution du Brésil.

Certaines villes américaines commencent à faire machine arrière sur l’utilisation de ces technologies. Après San Francisco, Boston vient de voter l’interdiction pour les agents municipaux d’utiliser la reconnaissance faciale. Quant aux autorités européennes, elles se donnent entre trois et cinq ans pour prendre une décision. En France, excepté à Nice et dans les aéroports, des expérimentations ont lieu, mais l’empressement n’est plus de mise.

Source : ZD net

>> Revenir à l’accueil