Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Reconnaissance faciale : le chef de la police de Detroit admet un taux d’erreur de 96 %
    Reconnaissance faciale : un algorithme accuse à tort un Afro-Américain qui écope d’une garde à vue pour plus de 24 heures
    Et de poursuites auxquelles l’ACLU demande à la justice de mettre un terme

    Robert Julian-Borchak Williams, un Afro-Américain, se retrouve à gérer des démêlés avec la justice parce qu’un algorithme de reconnaissance faciale a, par « erreur », fait correspondre sa photo avec une vidéo d’une caméra de sécurité. La police a laissé filtrer que « l’ordinateur a dû se tromper. » Pourtant, le présumé voleur sort d’une audience de mise en accusation qui pourrait donner suite à d’autres. L’Union américaine pour les libertés civiles (ACLU) est sur le dossier et demande un arrêt total des poursuites judiciaires.


    Ce ne sera pas la première fois qu’un tiers se fasse arrêter pour un crime qu’il n’a pas commis. Néanmoins, pour ce qui est de la reconnaissance faciale, ce pourrait bien être le premier cas qui remonte jusqu’aux médias.

    La technologie de reconnaissance faciale, lorsqu’on lui concède de pouvoir donner de bons résultats, est déjà problématique en ceci qu’elle peut être vue comme une intrusion à la vie privée. Dans la pratique, elle est surtout connue pour l’une des plus grosses tares qu’elle continue d’exhiber : les nombreux faux positifs. Des études tour à tour mises en ligne par l’ACLU et l’institut américain des normes et de la technologie (NIST) mettent en exergue le fait que les systèmes de reconnaissance faciale sont nettement plus susceptibles de générer des erreurs lorsqu'ils tentent de faire correspondre des images représentant des personnes dites de couleur. Dans les chiffres, ceux-ci sont plus précis pour ce qui est des opérations d’identification d’individus blancs, mais sont 10 à 100 fois plus susceptibles de générer des faux positifs pour ce qui est des visages de Noirs et d’Asiatiques. Le NIST a également mis en avant le fait que les systèmes développés aux États-Unis sont très peu performants face aux visages des Amérindiens. C’est en tout cas ce qui ressort de l’étude de l’institut américain des normes et de la technologie qui a porté sur les performances de 189 algorithmes mis sur pied par 99 développeurs. L’évaluation des logiciels s’est faite sur plus de 18 millions d’images appartenant à plus de 8 millions d’individus.

    C’est de la non-prise en compte de ces éléments dont Robert Julian-Borchak Williams se retrouve victime. En effet, les données sont faussées à la base quand on sait que le logiciel de DataWorks Plus – le fournisseur de solution IA – intègre des algorithmes (d’entreprises en sous-traitance comme le Japonais Nec et l’Américain Rank One Computing) qui sont déjà tombés sous le coup de critiques du NIST en raison de biais raciaux évidents. De plus, DataWorks Plus reconnaît que les tests effectués sur les algorithmes pour attester de leur efficacité sont légers. « DataWorks ne mesure pas de façon formelle la précision ou le biais des systèmes. Nous sommes devenus des pseudo-experts de cette technologie », lance un responsable.


    L’ACLU s’est saisie du cas et a porté plainte de la part de Robert Williams. « À chaque étape, la police de Detroit s’est comportée de façon inadéquate. Elle s'est appuyée sans réfléchir sur une technologie de reconnaissance faciale défectueuse et raciste sans prendre de mesures raisonnables pour vérifier les informations fournies ; ceci, dans le cadre d’une enquête bâclée et incomplète », allègue l’organisation de défense des libertés.

    L'enquête a débuté lorsque cinq montres, d'une valeur d'environ 3800 dollars, ont été volées dans un magasin de luxe Shinola à Detroit en octobre 2018. Les enquêteurs ont examiné les images de sécurité et ont identifié un suspect : un homme apparemment noir portant une casquette de baseball et une veste sombre. En mars 2019, selon ce qui ressort de la plainte, la police de Detroit a procédé à une recherche par reconnaissance faciale en utilisant une image tirée des vidéos de surveillance. Cette recherche a permis de faire correspondre l'image à la photo du permis de conduire de M. Williams.

    Le vol dont Williams est accusé a eu lieu en octobre 2018, et en mars 2019, une photo de vidéo de surveillance du magasin a été téléchargée sur la base de données de reconnaissance faciale de l'État du Michigan. Le téléchargement aurait débouché sur une série de correspondances photographiques fournies par la suite au sein d'un document qui soulignait pourtant qu'elles ne constituaient pas un motif d'arrestation. Néanmoins, elles ont conduit à l'inclusion de la photo de M. Williams dans une série d'autres qui ont été montrées à l'agent de sécurité du magasin. Ce dernier, qui selon l'ACLU n'a pas été témoin du vol, a identifié Williams comme étant le responsable de l'acte.


    L'identification a conduit à l'arrestation de Williams devant son domicile en janvier. Il a ensuite été placé en garde à vue pendant 30 heures au total. Il rapporte de son échange avec les agents de police que l’un d’eux a déclaré que « l’ordinateur a dû se tromper » devant l’impossibilité d’établir sa culpabilité.


    Bien que l’affaire Williams ait fait l’objet de rejet deux semaines après son arrestation, elle pourrait donner lieu à de futures audiences. Ce dernier pourrait à nouveau être accusé sur la base d’éléments de son dossier. En effet, souligne l’ACLU, l'échantillon d'ADN, la photo d'identité et les empreintes digitales de Williams y figurent et son arrestation est enregistrée. L’Union américaine pour les libertés civiles (ACLU) pour sa part demande un arrêt total des poursuites judiciaires.

    Dans un souci d’encadrement, les fournisseurs de technologies de reconnaissance faciale en lien avec l’affaire entendent, pour ce qui les concerne, intégrer des moyens légaux supplémentaires au processus d’utilisation des outils qu’ils mettent à la disposition des forces de l’ordre. La police de Detroit restreint désormais l’usage de la technologie de reconnaissance faciale aux cas de crimes violents et d’invasions de domiciles.

    Sources : NYT, Reuters, ACLU

    Et vous ?

    Que pensez-vous de l’utilisation de la reconnaissance faciale de façon générale ?
    Est-ce une méthode qui a une quelconque utilité en matière de sécurité ?
    Comment alignez-vous le cas Williams avec l'actuel contexte US fait de violences policières ?

    Voir aussi :

    Google obtient le rejet d'un procès concernant la reconnaissance faciale, le juge citant le manque de « préjudices concrets » infligés aux plaignants
    Facebook rend open source le système de reconnaissance vocale Wav2letter++ et publie Flashlight, une bibliothèque d'apprentissage machine
    Google ne vendra pas la technologie de reconnaissance faciale pour l'instant, avant d'aborder d'importantes questions de technologie et de politique
    Une tête imprimée en 3D a pu tromper le système de reconnaissance faciale de plusieurs smartphones Android populaires lors d'un test
    Reconnaissance faciale : Microsoft appelle à une régulation mondiale, avant que cette technologie ne devienne problématique au sein de la société
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre éprouvé
    Hormis le débat sur la reconnaissance faciale, je ne suis pas certain de comprendre l'exact problème.

    La personne a été identifié par erreur par de la reconnaissance faciale. Le document fournissant la correspondance indique expressément que ce n'est pas une preuve à charge mais seulement un élément qui peuvent justifié une enquête plus approfondie, ce qui est exactement ce qu'est en train de faire la justice. Les policiers eux-même admettent que l'ordinateur a pu se tromper. Cela devrait donc déboucher rapidement sur une fin d'enquête et oui comme à son habitude, l'arrêt des poursuites peut-être lent mais il n'a pas été mis en prison pour ces deux semaines. Peut-être que ce n'est pas assez rapide pour certain mais ça me parait loin des scandales habituels.

    Donc je ne comprend pas l'intérêt de l'article, un témoin aussi peut se tromper quand il pense reconnaître quelqu'un, et il peut aussi avoir plus de mal à distinguer correctement certaines communautés que d'autres et ce sans racisme, tout simplement parce que son cerveau n'est pas autant rôdé à distinguer leur traits physiques. C'est pour cela qu'un témoignage seul n'est pas aussi incriminant qu'une preuve ADN par exemple.

  3. #3
    Membre expérimenté
    Même l'Ai est raciste, c'est dire dans quel monde on vit ! Il faut vite monter rune association black e-live matter !
    Voici la méthode de mon chef:

    copy (DateTimeToStr(Now),7,4)+
    copy (DateTimeToStr(Now),4,2)+copy (DateTimeToStr(Now),1,2)+copy (DateTimeToStr(Now),12,2)+
    copy (DateTimeToStr(Now),15,2)+copy (DateTimeToStr(Now),18,2)

    Je lui ai dit que FormatDateTime irait surement mieux


  4. #4
    Membre extrêmement actif
    Bien entendu, cette même IA n'a jamais fait d'erreur d'identification d'un vilain blanc, blond et yeux bleus???

    A un moment donné, la connerie atteint son paroxysme et arrive à détruire les causes les plus humanistes du monde!

    PS: J'ai un chien bicolor, noir et blanc. Pour les biens-pensants, est-ce que je dois le passer au cirage de couleur "noire" (ou faudrait-il dire "non-blanc", heu? Pas non plus, si on en croit les communicants de L'Oréal) au risque d'ouvrir une polémique "black face" ou le peindre en blanc au risque d'être traité de raciste parce que je nie la valeur de la couleur noire?

  5. #5
    Chroniqueuse Actualités

    Reconnaissance faciale : le chef de la police de Detroit admet un taux d’erreur de 96 %
    Reconnaissance faciale : le chef de la police de Detroit admet un taux d’erreur de 96 %,
    la police de Detroit croule sous les critiques pour une arrestation par erreur en usant de cette technologie

    La police de Detroit a utilisé une technologie de reconnaissance faciale très peu fiable, selon les propres statistiques du département de police de Detroit. L'utilisation de cette technologie a attiré l'attention nationale la semaine dernière après que l'union américaine des libertés civiles (UCLA) et le New York Times aient mis en lumière le cas de Robert Julian-Borchak Williams, un homme qui a été arrêté à tort à cause de cette technologie.

    Lors d'une réunion publique la semaine dernière, le chef de la police de Detroit, James Craig, a admis que la technologie, développée par une société appelée DataWorks Plus, ne permettait presque jamais de retrouver une correspondance directe et identifiait presque toujours mal les personnes. « Si nous utilisions le logiciel uniquement pour identifier les sujets, nous ne pourrions pas résoudre les affaires dans 95 à 97 % des cas. Si nous utilisions la technologie seule, pour identifier quelqu'un, je dirais que dans 96 % des cas, il y aurait une erreur d'identification », a-t-il déclaré.


    Todd Pastorini, directeur général de DataWorks Plus, a déclaré que l’entreprise ne tient pas de statistiques sur la précision du logiciel dans le monde réel, et qu'elle ne donne pas d'instructions spécifiques aux forces de l'ordre sur la manière d'utiliser le logiciel. « Il n'y a pas de statistiques pour cela. La question est la qualité des sondes utilisées. Je suis très réticent par rapport au dernier article du New York Times qui a été mal cité ou légèrement déformé en fonction du contexte utilisé. Vous savez peut-être comment fonctionne une pelle : vous la plantez dans le sol pour ramasser de la terre et vous l'utilisez peut-être comme une arme. La reconnaissance faciale a été utilisée comme une arme par les médias dans une certaine mesure. Je comprends le commentaire du chef de la police, mais malheureusement, beaucoup de gens ne le comprennent pas ». Pastorini a comparé le logiciel de DataWorks Plus à des systèmes automatisés d'identification d'empreintes digitales, où des dizaines ou des centaines de correspondances potentielles sont renvoyées.

    Le résultat est que les policiers prennent finalement la décision d'interroger et d'enquêter sur les gens en se basant sur le retour du logiciel et sur le jugement d'un inspecteur. Cela signifie que des personnes qui n'ont peut-être rien à voir avec un crime sont finalement interrogées et font l'objet d'une enquête par la police. À Detroit, cela signifie, presque exclusivement, des personnes noires.


    Des recherches ont montré que la précision des logiciels de reconnaissance faciale varie en fonction de la race du sujet, les suspects noirs étant moins souvent identifiés que les blancs. Les propres statistiques du département de la police de Detroit montrent que la technologie est utilisée presque exclusivement sur des suspects noirs.
    Selon les données de la police, 68 des 70 recherches de reconnaissance faciale ont été effectuées sur des suspects noirs, tandis que deux d'entre eux avaient un code racial "U" - probablement l'abréviation de " unknown ". Ces photos ont été tirées en grande partie des médias sociaux (31 cas sur 70) ou d'une caméra de sécurité (18 cas sur 70).

    Plusieurs villes ont interdit à la police d'utiliser un logiciel de reconnaissance faciale, qui présente des problèmes bien connus et de nombreux faux positifs également. Detroit, cependant, a un débat très public en 2019 sur l'utilisation de la reconnaissance faciale, et a plutôt décidé de réglementer son utilisation plutôt que de l'interdire complètement. À la fin de l'année dernière, la ville a adopté une politique qui interdit l'utilisation de la reconnaissance faciale pour surveiller la population à l'aide d'une caméra ou d'un appareil vidéo, interdit son utilisation sur les vidéos en direct et enregistrées, et restreint, mais n'interdit pas son utilisation lors des manifestations. Selon cette politique, le logiciel doit être utilisé uniquement sur une image fixe d'un individu et ne peut être utilisé que dans le cadre d'une enquête criminelle en cours. Le logiciel vérifie les images dans une base de données de photos de l'État, qui comprend des images de photos d'identité judiciaire. Dans le cadre de cette réglementation, le service de police est tenu de publier des rapports hebdomadaires sur l'utilisation de cette technologie.

    Julian-Borchak Williams a été arrêté avant que la réglementation n'entre en vigueur. Craig a déclaré lors de la réunion que les données transmises par le système de reconnaissance faciale de DataWorks étaient « une vidéo de qualité horrible. Elle était granuleuse... Elle n'aurait jamais pu être diffusée dans le cadre de la nouvelle politique... Si nous ne pouvons pas obtenir une bonne image, nous ne la transmettrons pas aux inspecteurs ».

    Craig et son collègue, le capitaine Ariq Tosqui, ont déclaré qu'ils veulent continuer à utiliser la reconnaissance faciale parce qu'ils disent qu'elle peut être un outil pour aider les enquêteurs même si elle ne conduit pas souvent à une arrestation. Mais même lorsqu'une personne n'est pas arrêtée à tort, son identification erronée par reconnaissance faciale peut souvent conduire un enquêteur à l'interroger, ce qui est au mieux un inconvénient et au pire une situation potentiellement mortelle. Selon Tosqui, cette technologie a été utilisée dans 185 affaires au total au fil des ans. Dans la majorité des cas, l'inspecteur a déclaré que le logiciel n'était pas utile.

    L'ACLU a demandé au département de police de Detroit et à d'autres services de police de cesser d'utiliser la technologie de reconnaissance faciale pour les enquêtes, compte tenu de son taux d'erreur élevé et de son impact sur la disparité raciale. Ces derniers mois, un nouveau mouvement a été lancé par les membres du conseil municipal de Detroit pour interdire l'utilisation de cette technologie. Le conseil municipal de Boston a voté la semaine dernière l'interdiction de l'utilisation de la technologie de reconnaissance faciale.

    Sources : Rapport DPD, Rapport de recherche Face Recognition Vendor Test, Rapport de réunion conseil municipal de Detroit

    Et vous ?

    Que pensez-vous de l’utilisation de la reconnaissance faciale de façon générale ?
    Est-ce une méthode qui a une quelconque utilité en matière de sécurité ?

    Voir aussi :

    Reconnaissance faciale : un algorithme accuse à tort un Afro-américain qui écope d'une garde à vue pour plus de 24 heures, et de poursuites auxquelles l'ACLU demande à la justice de mettre un terme

    Google ne vendra pas la technologie de reconnaissance faciale pour l'instant, avant d'aborder d'importantes questions de technologie et de politique

    Une tête imprimée en 3D a pu tromper le système de reconnaissance faciale de plusieurs smartphones Android populaires lors d'un test

    Reconnaissance faciale*: Microsoft appelle à une régulation mondiale, avant que cette technologie ne devienne problématique au sein de la société
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #6
    Membre extrêmement actif
    Reconnaissance faciale : le chef de la police de Detroit admet un taux d’erreur de 96 %,
    la police de Detroit croule sous les critiques pour une arrestation par erreur en usant de cette technologie
    Si la police de Détroit base son travail sur un logiciel qui donne des résultats faux dans 96% des cas, ce n'est plus un problème d'intelligence artificielle mais bien de... connerie humaine!

  7. #7
    Membre éclairé
    Voyons l ' algorithme est orienté et le datalake est volontairement petit , 96 % est tout sauf admissible

  8. #8
    Expert confirmé
    Citation Envoyé par Anselme45 Voir le message
    Si la police de Détroit base son travail sur un logiciel qui donne des résultats faux dans 96% des cas, ce n'est plus un problème d'intelligence artificielle mais bien de... connerie humaine!
    Il s'agit du même taux d'erreur qu'à Londres. Même fournisseur ?
    Repeat after me
    Le monsieur lutte pour la défense des libertés individuelles et collectives

    Repeat after me...

  9. #9
    Inactif  
    Oui enfin 96% d'erreurs ça ne veut rien dire.

    C'est une correspondance 1 vs 1 ? Dans ce cas il suffit de faire l'inverse de ce que sort l'algorithme.
    C'est une identification 1 vs N ? Dans ce cas, le taux d'erreur est très très bon.

    Déjà, il faudrait retirer les cas où on recherche une personne qui n'est pas dans la base, en même temps c'est un peu logique que si la personne n'est pas dans la base, elle ne pourra pas être la personne la plus proche. Et au lieu de se contenter de la personne la plus proche, prendre les N plus proches, et là le taux d'erreur va diminuer de manière très significative.


    Faut juste comprendre que ce n'est pas magique, on te sort des candidats probables, cela devrait grandement aider le travail de la Police, à elle de faire correctement son travail derrière. D'autant plus que j'imagine qu'ils utilisent des images de très faibles qualités, donc pas sûr qu'un humain ferait mieux.

  10. #10
    Expert éminent
    c'est une IA qui a été entrainée avec le vilain dataset du MIT ça, à tous les coups !


###raw>template_hook.ano_emploi###