L'utilisation de la reconnaissance faciale par la police viole les droits de l'homme, selon un tribunal britannique,
Cependant, la Cour n'a pas complètement interdit l'utilisation de la technologie

La technologie de reconnaissance faciale a été mise en œuvre à titre expérimental au Royaume-Uni, à la fois à Londres par le Met (Metropolitan Police Service) et dans le Pays de Galles par la police du pays. Mais une Cour d'appel a statué mardi que l'utilisation par la police de la technologie de reconnaissance faciale dans le Pays de Galles présente des « lacunes fondamentales » et viole plusieurs lois. Cette décision qui vient au terme d’une procédure très suivie par les opposants à la reconnaissance faciale est une grande victoire pour les défenseurs de la vie privée au Royaume-Uni.

L'organisation de défense des droits de l'homme Liberty revendique une victoire en Grande-Bretagne après qu'un tribunal a décidé que les essais de la police concernant la technologie de reconnaissance faciale enfreignaient les lois sur la vie privée. La Cour d'appel a statué que l'utilisation de systèmes de reconnaissance faciale automatique avait injustement porté atteinte au droit à la vie privée du plaignant nommé Ed Bridges. Les juges ont ajouté qu'il y avait des problèmes concernant la manière dont les données personnelles étaient traitées, et ont déclaré que les essais devraient être arrêtés pour le moment.


Ed Bridges, un résident de Cardiff, a porté plainte en 2019 contre la police, alléguant que le fait de se faire scanner le visage en 2017 et 2018 constituait une violation de ses droits légaux. La police du Pays de Galles a commencé son utilisation expérimentale de la technologie de reconnaissance faciale automatisée en 2017, en déployant ouvertement un système appelé AFR Locate lors de plusieurs dizaines d'événements majeurs tels que des matchs de football. La police a comparé les scans à des listes de surveillance d'individus connus afin d'identifier les personnes recherchées par la police, faisant l'objet d'un mandat d'arrêt ouvert ou étant d'une autre manière des personnes d'intérêt.

Bien qu'il ait été soutenu par Liberty, Bridges a perdu son procès en 2019, mais la Cour d'appel a annulé cette décision, estimant que le programme de reconnaissance faciale de la police du Pays de Galles était illégal. Un ordre publié mardi a déclaré que deux déploiements en décembre 2017 et mars 2018, et d'autres « sur une base continue ... n'étaient pas conformes à la loi ».

« Une trop grande discrétion est actuellement laissée aux policiers », ont déclaré trois juges de la Cour. « Il n'est pas clair qui peut être placé sur la liste de surveillance, ni qu'il existe des critères pour déterminer où l'AFR peut être déployé », ont ajouté les juges. Ils ont déclaré qu'il n'y avait pas eu d'évaluation adéquate de la protection des données, ce qui est requis par la loi sur la protection des données de 2018, et qu'il y avait eu violation du devoir d'égalité dans le secteur public qui vise à protéger contre la discrimination.

En 2018, la police de Galles a publié des données admettant qu'environ 2300 des près de 2500 correspondances - soit environ 92 % - des logiciels utilisés lors d'un événement en 2017 étaient des faux positifs. À Londres, une étude indépendante de 2019 a révélé que le système du Met avait un taux d'erreur de 81 %, avait rapporté Sky News, bien que la propre analyse du Met ait affirmé que le taux d'erreur était bien plus faible.

« Je suis ravi que la Cour ait reconnu que la reconnaissance faciale menace clairement nos droits », a déclaré Bridges après le jugement. « Cette technologie est un outil de surveillance de masse intrusif et discriminatoire... Nous devrions tous pouvoir utiliser nos espaces publics sans être soumis à une surveillance oppressive ».

La Cour n'interdit pas complètement l'utilisation de la technologie de reconnaissance faciale au Royaume-Uni

« Ce jugement est une victoire majeure dans la lutte contre la reconnaissance faciale discriminatoire et oppressive », a déclaré Megan Goulding, avocate à Liberty, qui a soutenu Bridges. « Il est temps que le gouvernement reconnaisse les graves dangers de cette technologie intrusive. La reconnaissance faciale est une menace pour notre liberté - elle n'a pas sa place dans nos rues ».

Cependant, le jugement de la Cour n'a pas complètement interdit l'utilisation de la technologie de reconnaissance faciale par les agences de l’État au Royaume-Uni, mais il réduit la portée de ce qui est permis et ce que les organismes d'application de la loi doivent faire pour être en conformité avec la loi sur les droits de l'homme.

La police du Pays de Galles a déclaré qu'elle « travaillerait avec » le jugement, mais qu'elle continuerait à utiliser le logiciel AFR Locate, qui, selon elle, a permis 61 arrestations à ce jour, a rapporté le quotidien The Independent. « Je suis convaincu que nous pouvons travailler avec ce jugement », a déclaré un porte-parole de la police du Pays de Galles, confirmant que l'agence n'a pas l'intention de contester la décision.

Le chef de la police, Matt Jukes, a déclaré : « Nos politiques ont déjà évolué depuis que les essais de 2017 et 2018 ont été examinés par les tribunaux, et nous sommes maintenant en discussion avec le ministère de l'Intérieur et le commissaire chargé des caméras de surveillance sur les ajustements supplémentaires que nous devrions faire et toute autre intervention nécessaire ».

Selon The Independent, Jeremy Vaughan, le responsable national de la reconnaissance faciale et chef adjoint de la police de Galles, a déclaré qu'il n'y avait « rien dans le jugement de la Cour d'appel qui compromette fondamentalement l'utilisation de la reconnaissance faciale ». Il a ajouté que « L'objectif de la technologie de reconnaissance faciale est d'assurer la sécurité du public et de nous aider à identifier les délinquants et à protéger les communautés contre les individus qui présentent un risque ».


Le jugement pourrait avoir un impact généralisé

Les juges avaient envisagé deux utilisations de cette technologie controversée à Cardiff, mais le jugement pourrait avoir un impact sur son utilisation croissante dans d'autres régions du Royaume-Uni. Les autres polices du pays qui déploient la technologie de reconnaissance faciale devront respecter les normes fixées par la décision de mardi. Cela inclut la police métropolitaine de Londres, qui a déployé un système similaire au début de cette année.

En 2020, le Met est passé à Clearview AI. Clearview AI combine des images de surveillance et des images tirées d'Internet, y compris des images de sites de médias sociaux comme Facebook, pour tenter d'identifier en masse des individus dans des espaces publics. Cela a provoqué des accusations selon lesquelles la technologie est dystopique.

En dehors de la Grande-Bretagne, l'utilisation par la police de la technologie de reconnaissance faciale aux États-Unis a fait l'objet d'une contestation accrue dans le cadre du mouvement national de protestation des droits civils de cette année en faveur des communautés noires et contre la brutalité policière. En juin, l'ACLU a déposé une plainte officielle contre la police de Detroit après avoir arrêté la mauvaise personne sur la base d'une correspondance faussement positive provenant d'un système d'identification faciale. Ce système identifie mal les suspects dans 96 % des cas, a admis plus tard le chef de la police de Detroit.

Les fournisseurs américains des systèmes de reconnaissance faciale ont également essayé de prendre leurs distances avec la police ces derniers mois. IBM s’est entièrement retiré du marché de la reconnaissance faciale en juin. Le PDG Arvind Krishna a déclaré à l'époque que « les vendeurs et les utilisateurs de systèmes d'IA ont une responsabilité partagée de s'assurer que l'IA est testée pour les biais, en particulier lorsqu'elle est utilisée par les forces de l'ordre, et que ces tests de biais sont vérifiés et signalés ».

Quelques jours plus tard, Amazon a suivi le mouvement en imposant un moratoire d'un an sur l'utilisation par la police de sa plateforme de reconnaissance faciale, Rekognition. Amazon espère que ce moratoire d'un an donnera au gouvernement suffisamment de temps pour mettre en œuvre des réglementations plus strictes pour régir l'utilisation éthique de cette technologie. Certains États et grandes villes aux États-Unis comme San Francisco ont déjà mis en place des mesures pour interdire l'usage de la reconnaissance faciale par les agences gouvernementales locales.

Source : Jugement de la Cour d’appel

Et vous ?

Que pensez-vous du jugement ?
Le jugement n’interdit pas complètement l’utilisation de la reconnaissance faciale par la police. Quel commentaire en faites-vous ?
La reconnaissance faciale peut-elle être adaptée à un usage éthique pour la police ?

Voir aussi :

Il est temps d'interdire toute utilisation gouvernementale de la reconnaissance faciale, même avec une réglementation, d'après Fight for the Future
« Les dictatures naissent souvent face à une menace » : un expert de l'ONU met en garde contre une menace à long terme pour la vie privée, dans le cadre de la surveillance du coronavirus
L'indignation face à la brutalité policière a finalement convaincu Amazon, Microsoft et IBM de mettre un frein à la vente de technologies de reconnaissance faciale aux forces de l'ordre
Trump en soutien d'un appel au boycott gouvernemental de Microsoft ? Le président US retweete une demande de sanctions pour refus de vendre la technologie de reconnaissance faciale à la police