IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #21
    Chroniqueur Actualités

    Homme Profil pro
    Webmaster
    Inscrit en
    Janvier 2014
    Messages
    1 089
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Webmaster
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 089
    Points : 26 554
    Points
    26 554
    Par défaut La police de Londres déploiera des caméras de reconnaissance faciale dans toute la ville
    La police de Londres déploiera des caméras de reconnaissance faciale dans toute la ville,
    les militants de protection de la vie privée ont qualifié cette décision de « menace grave pour les libertés civiles »

    Depuis 2017, la police du Royaume-Uni a démarré une opération de tests avec des caméras soutenues par un système d’intelligence artificielle (IA) (nommé AFR Locate) pour la reconnaissance faciale en temps réel des individus. Pour la phase de tests, le déploiement a été effectué dans un premier dans South Wales, une des quatre régions du pays de Galles. Lorsque le système a été déployé, les premiers tests effectués ont montré des insuffisances au niveau de la technologie de reconnaissance faciale. 98 % des cas d’alerte émis par le système d’intelligence artificielle étaient des faux positifs.

    Il faut savoir que pour effectuer une interpellation sur la base des détections effectuées par l’IA, le système effectue un croisement entre les images capturées en temps réel et celles enregistrées dans une base de données de personnes recherchées. Si la correspondance est établie, une alerte est envoyée aux agents de police qui prennent soin de vérifier que la reconnaissance effectuée n’est pas une erreur avant de procéder à une interpellation. Mais comme indiqué, le nombre de faux positifs était élevé et aucune arrestation n’a pu être effectuée.

    Face aux insuffisances avérées de l’IA, les autorités anglaises ont apporté des améliorations à l’algorithme soutenant par l’IA en sollicitant le concours de l’entreprise technologique japonaise NEC tout en poursuivant les tests. Après 12 mois de recherche, NEC a fourni un nouvel algorithme et une nouvelle application qui a permis de réduire considérablement le pourcentage de faux positifs par rapport aux premiers tests. Et entre 2017 et 2018, 450 personnes ont pu être mises aux arrêts grâce à ce système.

    Après les résultats dits concluants obtenus dans la région de South Wales et des améliorations apportées après les tests effectués dans quelques quartiers de Londres, la police britannique passe à un niveau supérieur et vient d’annoncer que le Service de Police Métropolitain de Londres (abrégé Met) compte utiliser pour la première fois la technologie de reconnaissance faciale en temps réel (abrégée LFR en anglais) dans des endroits spécifiques de Londres. Comme pour South Wales, les autorités britanniques déclarent que ces outils ont pour objectif de « lutter contre les délits graves, notamment la violence grave, les délits commis à l’aide d’armes à feu et à couteaux, l’exploitation sexuelle des enfants et à protéger les personnes vulnérables ».

    Les caméras devraient être déployées dans un mois, selon certaines sources. Le commissaire adjoint Nick Ephgrave explique qu’il « s’agit d’un développement important pour le Met et qui est vital pour nous aider à lutter contre la violence ». Il ajoute qu’une « technologie similaire est déjà largement utilisée au Royaume-Uni, dans le secteur privé. La nôtre a été testée par nos équipes technologiques pour une utilisation dans un environnement de police opérationnelle ».

    Nom : Reconnaissance faciale Londre.jpg
Affichages : 65363
Taille : 45,9 Ko

    Nous précisons que la technologie que la police londonienne compte utiliser est toujours celle de l’entreprise NEC. Le Met la présente comme « un outil supplémentaire pour les aider à faire ce que les agents ont toujours fait - essayer de localiser et d’arrêter les personnes recherchées ». Il ne s’agit donc pas d’une situation « où la technologie prend le relais des services de police traditionnels ». Plutôt, « il s’agit d’un système qui donne simplement aux agents de police une invite, suggérant que cette personne là-bas peut être la personne que vous recherchez. La décision revient toujours à un agent d’engager ou non quelqu’un », fait remarquer le Met.

    « Le Met commencera le déploiement opérationnel du LFR à des endroits où les renseignements suggèrent que nous sommes les plus susceptibles de localiser des délinquants graves. Chaque déploiement aura une liste de surveillance sur mesure composée d’images de personnes recherchées, principalement celles recherchées pour des délits graves et violents » explique le service de police. Et « lors d’un déploiement, les caméras seront concentrées sur une petite zone ciblée pour scanner les passants. Les caméras seront clairement signalées et les officiers déployés pour l’opération distribueront des dépliants sur l’activité. La technologie, qui est un système autonome, n’est liée à aucun autre système d’imagerie, tel que la vidéosurveillance, la vidéo corporelle ou l’ANPR », précise le Met. Mais avant le déploiement, le commissaire adjoint souligne qu’un dialogue sera engagé avec leurs partenaires et leurs communautés au niveau local.

    Si le Met présente cette initiative comme nécessaire et avantageuse pour l’efficacité des missions des agents de police, il n’en demeure pas moins que des appréhensions sont entretenues par les individus. Au niveau de la précision du système par exemple, le Met a déclaré que lors de ses tests qui ont été effectués avec le personnel de la police dont les images étaient dans la base de données, les résultats suggéraient que 70 % des suspects recherchés seraient identifiés en passant devant les caméras avec un taux de fausse alerte de 1 personne sur 1000. Mais un rapport de Human Rights, Big Data & Technology Project publié en juillet 2019 a rapporté qu’au cours des six tests effectués seulement 8 correspondances sur 42 ont donné des résultats fiables. De même, des militants ont averti que la précision pourrait être catastrophique pour les Noirs et les minorités ethniques, car le logiciel est formé à reconnaître principalement des visages des Blancs.

    Au-delà des inquiétudes concernant la fiabilité du système de reconnaissance faciale, certains défenseurs de la vie privée ont décrit le déploiement de ce système comme une attaque contre les libertés civiles. Silkie Carlo, directeur de Big Brother Watch, affirme pour sa part que « cette décision représente une énorme expansion de l’État de surveillance et une grave menace contre les libertés civiles au Royaume-Uni ». Pour ce dernier, « il s’agit d’une attaque à couper le souffle contre nos droits et nous allons la contester, notamment en envisageant d’urgence les prochaines étapes de notre action en justice contre le Met et le ministre de l’Intérieur. Cette décision entache instantanément le bilan du nouveau gouvernement en matière de droits de l’homme et nous appelons à un réexamen immédiat ».

    Mais le Royaume-Uni n’est pas le seul pays où ces technologies de surveillance de masse sont utilisées. Aussi bien la Chine, la Russie, les États-Unis que la France utilisent déjà ces systèmes basés sur l’intelligence artificielle. Pensez-vous que le Royaume-Uni devrait s’en passer pour assurer la sécurité de ses citoyens ?

    Source : Metropolitain Police, BBC, NYT, Daily Mail

    Et vous ?

    Quel est votre avis sur l’utilisation de la reconnaissance faciale pour identifier et arrêter les personnes recherchées ? Bonne solution ou outil à proscrire par les forces de l’ordre ?

    Selon vous, ces caméras sont-elles une menace grave contre les libertés civiles ?

    Voir aussi

    Les caméras de reconnaissance faciale : outils de sécurité ou d’espionnage de masse ?
    La Chine et d’autres pays adoptent de plus en plus ces outils
    Chine : la police se sert de la reconnaissance faciale pour arrêter un fugitif, la fiction Big Brother de 1984 est-elle devenue une réalité en 2018 ; ?
    Moscou utilise la reconnaissance faciale pour traiter les vidéos fournies par les caméras de surveillance publique, mesure de sécurité, espionnage ;
    USA : les représentants critiquent l’utilisation de technologie de reconnaissance faciale par le FBI et demandent une réglementation plus stricte
    Paris : la reconnaissance faciale pour le contrôle automatisé des passeports n’arrivera pas ce printemps, sa mise en service prévue pour le 18 juillet
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #22
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 593
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 593
    Points : 18 498
    Points
    18 498
    Par défaut
    Avant le boulot était fait par des humains :
    En Angleterre, la vidéosurveillance peut rapporter gros (2009)
    Voulez-vous jouer à Big Brother ? Pas le jeu télévisé, mais le roman de George Orwell, qui prévoyait un monde sous surveillance permanente ? Au Royaume-Uni, la société «Internet eyes» propose aux internautes (britanniques ou d'ailleurs) de se connecter à quatre caméras de vidéosurveillance installées dans des lieux publics. Depuis leur ordinateur, ils doivent alors observer le mieux possible ce qui se passe devant les objectifs. Et s'ils surprennent un délit ou, pire, un crime, c'est bingo pour eux. En prévenant le propriétaire de la caméra (police, entreprises ou commerces), l'internaute chanceux gagne des points qui peut, à terme, lui rapporter jusqu'à 1000 £ (1100 euros).
    Il y a beaucoup de caméras en Angleterre, c'est un peu comme à Nice.
    "Les Kouachi n'auraient pas passé trois carrefours": quand Estrosi vantait les mérites de la vidéosurveillance à Nice
    "Avec 999 caméras, et une caméra pour 343 habitants [alors qu'] à Paris, il y en a 1 pour 1532, je suis à peu près convaincu que si Paris avait été équipée du même réseau que le nôtre, les frères Kouachi n'auraient passé 3 carrefours sans être neutralisés et interpellés" croyait savoir l'édile niçois.
    Keith Flint 1969 - 2019

  3. #23
    Membre régulier
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Avril 2019
    Messages
    44
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Finistère (Bretagne)

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux

    Informations forums :
    Inscription : Avril 2019
    Messages : 44
    Points : 119
    Points
    119
    Par défaut Poete
    Le Citoyen Orwell serait fier !

  4. #24
    Membre à l'essai
    Homme Profil pro
    Développeur Java
    Inscrit en
    Septembre 2019
    Messages
    4
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 28
    Localisation : France, Isère (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur Java
    Secteur : Santé

    Informations forums :
    Inscription : Septembre 2019
    Messages : 4
    Points : 11
    Points
    11
    Par défaut
    Ils font la promo de Watch Dogs 3 sans le savoir

  5. #25
    Membre du Club
    Homme Profil pro
    Ingénieur systèmes et réseaux
    Inscrit en
    Avril 2020
    Messages
    46
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Ingénieur systèmes et réseaux

    Informations forums :
    Inscription : Avril 2020
    Messages : 46
    Points : 64
    Points
    64
    Par défaut
    Big brother is watching, j'ai l'impression que nos libertées individuelles disparaissent de plus en plus

  6. #26
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 844
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 844
    Points : 36 271
    Points
    36 271
    Par défaut Reconnaissance faciale : NEC affirme que son système permet d’identifier les personnes portant des masques
    Reconnaissance faciale : la société NEC affirme que son nouveau système permet d’identifier les personnes portant des masques,
    avec une précision supérieure à 99,9 %

    Limiter les contacts serait l'arme la plus puissante afin de tenir tête au COVID-19. Pour y contribuer, l’entreprise NEC Corp a conçu un système de reconnaissance faciale qui identifie les personnes même lorsqu'elles portent des masques. S'adaptant ainsi à ce qui est devenu une nouvelle norme sociale : le port du masque en communauté.

    NEC Corp est une multinationale japonaise de technologie de l'information et d'électronique, dont le siège est à Tokyo au Japon, connue sous le nom de Nippon Electric Company, Limited, avant de se rebaptiser NEC en 1983, elle fournit des solutions informatiques et de réseau, notamment des produits de cloud computing, d'IA, de plateforme IoT et de réseau 5G, aux entreprises, aux fournisseurs de services de communication et aux agences gouvernementales.

    Nom : necB.png
Affichages : 2531
Taille : 173,2 Ko

    L'entreprise qui est également le plus grand vendeur de PC au Japon travaillait déjà sur un système pour répondre aux besoins des personnes allergiques qui portent des masques, lorsque la pandémie de COVID-19 l'a incitée à accélérer son développement. « La demande était encore plus forte en raison de la situation du coronavirus et nous avons donc maintenant lancé cette technologie sur le marché », a déclaré Shinya Takashima, directrice adjointe de la division des plateformes numériques de NEC. Ella a également ajouté que cette technologie pourrait aider les gens à éviter le contact avec les surfaces dans toute une série de situations.

    Notons que : la reconnaissance faciale informatisée est une technologie relativement récente, que les services chargés de l’application de la loi déploient partout dans le monde afin d’identifier des personnes d’intérêt. Dans l’exemple du système de reconnaissance faciale d’INTERPOL (IFRS), elle contient des images faciales communiquées par plus de 179 pays. Associé à une application logicielle biométrique automatisée, ce système est capable d’identifier une personne ou d’en vérifier l’identité en comparant et en analysant les caractéristiques, formes et proportions des traits et contours de son visage.

    Le système développé par NEC détermine quand une personne porte un masque et se concentre sur les parties qui ne sont pas couvertes, telles que les yeux et les zones environnantes, pour vérifier l’identité du sujet. Les utilisateurs sont invités à enregistrer à l’avance une photo de leur visage. L’entreprise nippone affirme que la vérification prend moins d'une seconde et revendique un taux de précision supérieure à 99,9 %. Avant la pandémie de coronavirus, les algorithmes de reconnaissance faciale ne permettaient pas d'identifier 20 à 50 % des images de personnes portant un masque facial, selon un rapport du National Institute of Standards and Technology.

    Nom : MASQUES2.jpg
Affichages : 2172
Taille : 30,0 Ko

    Dans le cas du système IFRS par exemple, lorsqu’une image faciale (image de comparaison) est saisie dans le système, elle est automatiquement codée par un algorithme et comparée aux profils déjà enregistrés. On obtient ainsi une liste de « candidats » établie à partir des concordances les plus vraisemblables.

    « Nous faisons toujours appel à un processus manuel afin de corroborer les résultats du système automatisé. Les fonctionnaires d’INTERPOL qualifiés et expérimentés examinent avec soin les images pour y déceler les caractéristiques uniques qui permettront de déterminer s’il s’agit d’un candidat potentiel, d’un candidat à écarter ou d’un résultat non concluant », indique INTERPOL dans une communication sur son Site Web.
    Selon l'organisation internationale de police criminelle (INTERPOL), à la différence des méthodes fondées sur les empreintes digitales et l’ADN, qui ne changent pas au cours de la vie, la reconnaissance faciale doit tenir compte de différents facteurs, comme :
    • le vieillissement ;
    • la chirurgie plastique ;
    • le maquillage ;
    • les effets de la consommation de drogues ou de tabac ;
    • la pose du sujet.

    En août, l'utilisation de la technologie de reconnaissance faciale automatique (AFR) par les forces de police galloises a été jugée illégale dans une affaire portée par un militant des droits civils. Il avait déclaré que le fait d'avoir été identifié par l'AFR lui avait causé de la détresse.

    Aux États-Unis, Amazon et IBM, ont suspendu l'utilisation de logiciels de reconnaissance faciale par les policiers, afin de laisser aux législateurs le temps d'envisager une législation sur la manière dont ils devraient être déployés. La police de MET utilise la reconnaissance faciale NeoFace de NEC pour comparer les visages dans une foule avec ceux d'une liste préalablement établie.

    Le système peut être utilisé sur des portes sécurisées, dans les immeubles et autres installations. Permettant ainsi d’éviter la propagation des virus ou germes sur des surfaces, a déclaré Takashima. Il est actuellement évalué sur les paiements automatiques dans un magasin à Tokyo. Le nouveau système a été mis en vente en octobre 2020 et compte déjà parmi ses clients, la compagnie aérienne privée allemande (Lufthansa) et la compagnie aérienne nationale de la Suisse (Swiss International Airlines).

    Source : Reuters

    Et vous ?

    Ëtes-vous pour ou contre les systèmes de reconnaissance faciale ?

    Pensez-vous qu’identifier un visage avec un masque sera vraiment crédible comme le prétend la NEC ?

    Voir aussi :

    Des militants retournent les outils de reconnaissance faciale contre la police, « Nous approchons du seuil technologique où les petits peuvent faire la même chose que les grands »

    Le port d'un masque n'empêchera plus la reconnaissance faciale, le coronavirus ayant incité les sociétés à développer des solutions pour les personnes dont le visage est partiellement couvert

    Reconnaissance faciale : un algorithme accuse à tort un Afro-américain qui écope d'une garde à vue pour plus de 24 heures et de poursuites auxquelles l'ACLU demande à la justice de mettre un terme

    L'utilisation de la reconnaissance faciale par la police viole les droits de l'homme, selon un tribunal britannique, cependant, la Cour n'a pas complètement interdit l'utilisation de la technologie
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #27
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    99.9% ? Je ne me rappelle pas d'une étude avec de tels chiffres qui ne montrent pas de limites phénoménales dans la méthode d'application. Aussi une source serait la bienvenue pour aller creuser.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  8. #28
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 593
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 593
    Points : 18 498
    Points
    18 498
    Par défaut
    [blague]
    Nec affirme que son système permet d’identifier les personnes portant des masques ? Dans ce cas, qui se cache derrière ce masque ?

    [/blague]

    Citation Envoyé par Bruno Voir le message
    Le système peut être utilisé sur des portes sécurisées, dans les immeubles et autres installations. Permettant ainsi d’éviter la propagation des virus ou germes sur des surfaces, a déclaré Takashima. Il est actuellement évalué sur les paiements automatiques dans un magasin à Tokyo. Le nouveau système a été mis en vente en octobre 2020 et compte déjà parmi ses clients, la compagnie aérienne privée allemande (Lufthansa) et la compagnie aérienne nationale de la Suisse (Swiss International Airlines).
    Ils sont forts les types, ils ont réussi à sortir l'argument "permet d'éviter la propagation des virus"
    Keith Flint 1969 - 2019

  9. #29
    Membre à l'essai
    Femme Profil pro
    Étudiant
    Inscrit en
    Janvier 2021
    Messages
    8
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : Congo-Brazzaville

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Janvier 2021
    Messages : 8
    Points : 20
    Points
    20
    Par défaut
    Au regard des clients déjà présent sur son porte feuille, on peut être tenté de croire que le système est fiable. Toutefois, quel est l'intérêt d'investir sur des systèmes prenant en compte les masques plutôt que de se se concentrer sur la question suivante :
    Comment éradiquer cette pandémie ?

    Je suis contre ce système d'identification.

  10. #30
    Membre régulier
    Homme Profil pro
    Ingénieur intégration
    Inscrit en
    Mai 2017
    Messages
    6
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : Ingénieur intégration
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Mai 2017
    Messages : 6
    Points : 101
    Points
    101
    Par défaut Totall recall..ou le Face ID Gouvernemental
    Ce système a été vendu dans le but selon les officiels d'améliorer la sécurité..;; Baisse de la criminalité etc.. quant à l'efficacité il faudra sortir les chiffres d'avant sa mise en œuvre et les comparer après 2 années d'utilisation..Les voyous ont toujours une longueur d'avance..et pis les criminels et autres malfrats s'adaptent très bien aux nouvelles technologies.. On ira dans style total recall une puce dans le cerveau de ceux qui sont fichés et délinquants.. et on anticipera leur possibilité de passer à l'acte selon leur état émotionnel leur habitudes de déplacements ..Mais ayant bluffé tous les systèmes le bandit sera passé à l'acte et déja en fuite et retrouvé des semaines plus tard...La sécurité vous dites.

  11. #31
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 844
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 844
    Points : 36 271
    Points
    36 271
    Par défaut Les caméras à intelligence artificielle de Fusus se répandent alors que des personnes sont opposées
    Les caméras à intelligence artificielle de Fusus se répandent alors que des personnes sont opposées
    et ont refusé que le matériel et les logiciels soient installés dans leur quartier

    Le système de surveillance basé sur l’intelligence artificielle de Fusus se développe rapidement dans les petites villes comme dans les grandes. Il permet aux forces de l’ordre d’accéder simultanément aux flux en direct des caméras appartenant à différentes entités dans toute la ville. En plus de cela, il ajoute également la possibilité de rechercher des personnes portant certains vêtements, un sac particulier ou un véhicule donné.

    Les méthodes utilisées par Fusus pour faire équipe avec les services de police pour vendre sa technologie de surveillance ont été rendu public. Les conseils municipaux se demandent s’ils veulent disposer d’un système qui change qualitativement ce que les caméras de surveillance signifient pour les habitants d’une ville et les organismes publics. Si beaucoup ont adopté Fusus, d’autres s’y sont opposés et ont refusé que le matériel et les logiciels soient installés dans leur quartier.


    Le rythme de développement de l'intelligence artificielle est incroyablement élevé. Ces dernières années, la traduction de la recherche de pointe en applications pratiques a également commencé à prendre forme. L'IA n'est plus seulement l'apanage des géants de la technologie, mais elle est déployée dans des organisations de toutes sortes. Il existe toutefois une limite non technique à ce progrès. Tout ce qui est technologiquement possible n'est pas forcément souhaitable. Les promesses de l'IA sont immenses, mais les risques sont également importants.

    Aucun parent ne contesterait l'intérêt de retrouver un enfant perdu à l'aide d'un réseau de caméras de surveillance reconnaissant les visages. En même temps, il serait désagréable que ces caméras puissent être utilisées de manière arbitraire par le gouvernement. Malheureusement, il n'est pas évident de mettre en œuvre la première solution tout en empêchant la seconde.

    Fusus déploie une technologie de caméras intelligentes qui a été utilisée par le passé dans des pays comme l'Afrique du Sud, où les experts ont mis en garde contre la création d'une couverture de surveillance omniprésente. Aujourd'hui, une technologie dotée de certaines des mêmes capacités est utilisée dans les petites villes américaines.

    Nom : fusus.jpg
Affichages : 1321
Taille : 52,4 Ko

    La nécessité de la vidéosurveillance publique découle de l'objectif premier des autorités publiques de protéger les citoyens et leurs besoins sociaux et économiques. Cet objectif est souvent considéré comme une justification valable pour interférer avec la vie privée (même la Convention européenne des droits de l'homme laisse aux gouvernements la possibilité de limiter la vie privée pour des raisons de sécurité).

    Dans ce contexte, le terme « sécurité » est ambigu et il y a des désaccords sur son interaction avec la vie privée. Est-il nécessaire d’espionner toutes les personnes qui ont tapé « bombe » sur Google pour prévenir un attentat terroriste ? Ou est-ce simplement un chalutage dans l’espoir de trouver quelque chose d’utile tout en perdant la vie privée en tant que prise accessoire ? Quel niveau de sécurité doit-on atteindre pour que cela en vaille la peine de perdre un peu de vie privée ? Et quand perdons-nous trop de vie privée ? Où tracer la ligne ?

    Certaines personnes considèrent la vie privée comme notre « droit d’être laissé seul » ou comme « l’espace qui nous permet d’être et de nous définir en nous donnant un certain degré d’autonomie et en protégeant notre dignité ». Elles soutiennent que la limite doit être tracée lorsque l’identité personnelle fait partie des informations collectées sans consentement. Dans ce cas, lorsque le surveillant sait qui est le surveillé, c’est qu’il a trop empiété sur notre droit à la vie privée.

    Les défis juridiques et éthiques de l’utilisation des caméras à intelligence artificielle de Fusus en Europe

    Le système de Fusus a été adopté par de nombreux services de police à travers les États-Unis, avec environ 150 juridictions utilisant Fusus. Il est également utilisé à l'échelle internationale, notamment au Royaume-Uni. Le GDPR interdit déjà complètement l'utilisation, par exemple, de données biométriques (y compris les caractéristiques faciales, interdisant ainsi la reconnaissance faciale). Toutefois, les États membres de l'UE sont autorisés à faire des exceptions explicites.

    Aux Pays-Bas, par exemple, il est permis d'utiliser des données biométriques pour l'identification ou la vérification d'un sujet, à condition qu'elles soient proportionnelles à des « intérêts justifiables ». Dans les années à venir, nous verrons probablement des affaires juridiques concernant l'interprétation de cette disposition, car la « proportionnalité » est également sujette à discussion.

    Néanmoins, des règles différentes concernant l'utilisation des données à caractère personnel peuvent s'appliquer aux forces de l'ordre, comme c'est le cas aux Pays-Bas. Ces règles rendent la collecte de données moins transparente, ce qui est à la fois nécessaire du point de vue des autorités et dangereux du point de vue des citoyens.

    Plutôt que de vendre des caméras, le matériel et le logiciel de Fusus se greffent sur les installations existantes, qui peuvent comprendre des caméras de surveillance appartenant à l'État ou à des particuliers dans les entreprises et les foyers. Ils transforment les caméras muettes en caméras intelligentes.

    Les avantages et les inconvénients des caméras à intelligence artificielle de Fusus pour la sécurité publique

    En plus de s'intégrer aux installations de surveillance existantes, le matériel de Fusus, appelé SmartCORE, peut transformer les caméras en lecteurs automatiques de plaques d'immatriculation (ALPR). Il offrirait également des fonctions de reconnaissance faciale, bien que Fusus n'ait pas fourni d'éclaircissements à ce sujet.

    Le système de Fusus a été adopté par de nombreux services de police à travers les États-Unis, avec environ 150 juridictions utilisant Fusus. Il est également utilisé à l'échelle internationale, notamment au Royaume-Uni. Voici ce qu'en dit Beryl Lipton, chercheur à l'Electronic Frontier Foundation (EFF) : « le manque de transparence et d'échanges au sein de la communauté autour de Fusus exacerbe le problème de l'accès à l'information et de la protection des données. »

    Les caméras à intelligence artificielle de Fusus sont une technologie controversée qui soulève des questions éthiques, juridiques et sociales. D’un côté, elles peuvent offrir des avantages pour la sécurité publique, la prévention du crime et la résolution des enquêtes. De l’autre côté, elles peuvent porter atteinte à la vie privée, aux libertés civiles et aux droits de l’homme des citoyens.

    Selon certains analystes, les caméras à intelligence artificielle de Fusus ne devraient pas être déployées sans le consentement éclairé et le contrôle démocratique des communautés concernées. Il faut établir des normes claires et transparentes sur l’utilisation, le partage et le stockage des données collectées par ces caméras. Il faut également garantir le respect des principes d’équité, de responsabilité et de transparence de l’intelligence artificielle, afin d’éviter les biais, les erreurs et les abus. Le choix des personnes qui sont opposées et ont refusé que le matériel et les logiciels de Fusus soient installés dans leur quartier devrait être respecté.

    Source : Tweet

    Et vous ?

    Quelle est votre opinion sur l’installation et l’utilisation des caméras à intelligence artificielle de Fusus dans les villes ?

    Quelle est votre position sur la résistance et le refus de certaines personnes face aux caméras à intelligence artificielle de Fusus ?

    Voir aussi :

    Une étude met en garde contre l'utilisation des caméras thermiques et de l'IA pour pirater les mots de passe, à travers ces caméras les voleurs de mots de passe pourraient être sur vos traces

    Canon a installé dans ses bureaux chinois des caméras dotées d'une technologie de « reconnaissance des sourires » basée sur l'IA, qui ne laissent entrer que les employés souriants

    Les cybercriminels utilisent des brouilleurs pour perturber les caméras de sécurité WiFi, un avertissement est lancé à tous ceux qui utilisent des caméras de sécurité sans fil comme Ring
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #32
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 844
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 844
    Points : 36 271
    Points
    36 271
    Par défaut Le métro de Londres teste des outils de surveillance IA en temps réel pour repérer les délits
    Le métro de Londres teste des outils de surveillance IA en temps réel pour détecter les délits,
    des erreurs pouvant entraîner des conséquences importantes suscitent des interrogations

    Le métro de Londres a mené des tests d'outils de surveillance basés sur l'intelligence artificielle (IA) pour détecter les délits en temps réel. Pendant une période d'essai de douze mois, 11 algorithmes ont été utilisés pour surveiller les usagers de la station de métro Willesden Green, en combinant l'IA avec des images de vidéosurveillance en direct. Plus de 44 000 alertes ont été émises, signalant des comportements agressifs, des armes potentielles, des personnes tombant sur les voies, ou des fraudes tarifaires.

    Les documents révèlent des erreurs du système, suscitant des inquiétudes quant à la précision des algorithmes et aux questions de vie privée. Bien que l'essai ait visé à améliorer la sécurité, des experts soulignent la nécessité de réglementations et de consultations publiques transparentes pour l'utilisation de telles technologies dans les espaces publics.


    Des documents expliquent comment Transport for London (TfL), qui exploite le réseau de métro et de bus de la ville, a utilisé un large éventail d'algorithmes de vision par ordinateur pour suivre le comportement des personnes lorsqu'elles se trouvaient dans la station. C'est la première fois que tous les détails de l'essai sont rapportés, et cela fait suite à la déclaration de TfL, en décembre, d'étendre son utilisation de l'IA pour détecter l'évasion tarifaire à d'autres stations de la capitale britannique.

    Nom : Metro.jpg
Affichages : 5794
Taille : 40,2 Ko

    Lors de l'essai à Willesden Green - une station qui accueillait 25 000 visiteurs par jour avant la pandémie de COVID-19 - le système d'IA a été mis en place pour détecter les incidents de sécurité potentiels afin de permettre au personnel d'aider les personnes dans le besoin, mais il a également ciblé les comportements criminels et antisociaux. Trois documents fournis à WIRED expliquent comment les modèles d'IA ont été utilisés pour détecter les fauteuils roulants, les poussettes, les vapoteurs, les personnes accédant à des zones non autorisées ou se mettant en danger en s'approchant du bord des quais de gare.

    Les documents, qui sont partiellement nettoyés, montrent également que l'IA a commis des erreurs au cours de l'essai, par exemple en signalant les enfants qui suivaient leurs parents à travers les barrières de billets comme des fraudeurs potentiels, ou en n'étant pas capable de faire la différence entre un vélo pliant et un vélo non pliant. Des policiers ont également participé à l'essai en tenant une machette et un pistolet sous les yeux des caméras de vidéosurveillance, alors que la gare était fermée, afin d'aider le système à mieux détecter les armes.

    Les experts en protection de la vie privée qui ont examiné les documents mettent en doute la précision des algorithmes de détection d'objets. Ils affirment également que l'on ne sait pas exactement combien de personnes étaient au courant de l'essai, et préviennent que ces systèmes de surveillance pourraient facilement être étendus à l'avenir pour inclure des systèmes de détection plus sophistiqués ou des logiciels de reconnaissance faciale qui tentent d'identifier des individus spécifiques.

    « Bien que cet essai n'ait pas porté sur la reconnaissance faciale, l'utilisation de l'IA dans un espace public pour identifier des comportements, analyser le langage corporel et déduire des caractéristiques protégées soulève un grand nombre des mêmes questions scientifiques, éthiques, juridiques et sociétales que celles posées par les technologies de reconnaissance faciale », déclare Michael Birtwistle, directeur associé de l'Institut Ada Lovelace, un institut de recherche indépendant.

    La nouvelle frontière de la surveillance : intelligence artificielle, drones et reconnaissance faciale

    Ces dernières années, l'utilisation de l'IA dans les espaces publics pour détecter les comportements, les mouvements ou les identités des personnes s'est accrue, souvent sous le couvert d'approches de villes intelligentes. En juillet de l'année dernière, des rapports ont révélé que plusieurs stations de métro de la ville de New York utilisaient l'IA pour détecter les fraudes.

    La police aux États-Unis semble devenir l'un des principaux clients des entreprises de la Silicon Valley spécialisées dans le développement d'outils de surveillance. Des rapports indiquent une augmentation de l'utilisation de technologies d'espionnage, notamment des drones-espions, par les forces de l'ordre américaines. Selon une nouvelle enquête de la Northwestern Pritzker School of Law, environ 25 % des services de police ont actuellement recours à ces technologies.

    Ces dispositifs de surveillance sont fournis par des entreprises technologiques financées par des sociétés de capital-risque renommées à l'échelle mondiale. Les experts expriment leur préoccupation face à l'accroissement de la surveillance gouvernementale. La vente d'équipements de renseignement, de surveillance et d'espionnage à l'armée et aux forces de l'ordre gagne en popularité parmi les entreprises et les start-ups technologiques de la Silicon Valley.

    Cette tendance, selon les analystes et les défenseurs des droits de l'homme, renforce le contrôle des États et du gouvernement fédéral américains sur les citoyens. Ces équipements comprennent des drones de surveillance dotés d'intelligence artificielle, des robots autonomes patrouilleurs, des programmes de reconnaissance faciale, etc.

    Certains analystes trouvent étrange que la Silicon Valley soutienne les forces de l'ordre américaines dans leurs activités d'espionnage, étant donné que cela semble en contradiction avec les valeurs libertaires prônées par de nombreuses personnalités de la technologie qui ont grandi avec les débuts d'Internet. Bien que la Silicon Valley ait initialement fourni des composants à l'industrie militaire américaine dans les années 1950, ses relations avec l'État se sont tendues au fil du temps, passant des missiles autoguidés au commerce électronique et aux iPhones. Cependant, la situation semble évoluer actuellement.

    En 2019, des chercheurs chinois ont mis au point une caméra de 500 mégapixels dotée d'intelligence artificielle, capable d'identifier un visage au sein d'une foule de plusieurs milliers de personnes dans des environnements tels que les rues ou les stades, selon un rapport du quotidien britannique The Telegraph. Cette nouvelle technologie, présentée lors de la foire industrielle internationale de la Chine la semaine dernière, peut être intégrée à des systèmes de reconnaissance faciale et de surveillance en temps réel.

    La caméra de reconnaissance faciale, surnommée la « super caméra », offre une résolution quatre fois plus détaillée que l'œil humain et peut se connecter à d'autres appareils, expliquent les scientifiques. Grâce à son intelligence artificielle, la caméra est capable de scanner les détails faciaux de chaque individu et de détecter instantanément des cibles spécifiques au sein d'une foule importante. Cette avancée suscite des inquiétudes quant à l'atteinte possible d'un niveau critique dans la surveillance par reconnaissance faciale. Xiaoyang Zeng, l'un des chercheurs impliqués dans cette nouvelle technologie, a également souligné que l'appareil peut capturer des images fixes et enregistrer des vidéos simultanément, selon les informations rapportées par le Daily Mail.

    Le TfL déclare avoir utilisé des images de vidéosurveillance existantes, des algorithmes d'intelligence artificielle et de « nombreux modèles de détection » pour déceler des schémas de comportement. « En fournissant au personnel des stations des informations et des notifications sur les mouvements et le comportement des clients, ils pourront, nous l'espérons, réagir plus rapidement à toute situation », peut-on lire dans la réponse. Elle ajoute que l'essai a permis d'obtenir des informations sur l'évasion tarifaire qui « nous aideront dans nos approches et interventions futures » et que les données recueillies sont conformes à ses politiques en matière de données.

    Des systèmes développés dans des situations où il n'y a pas de lois spécifiques régissant leur utilisation

    Bon nombre de ces systèmes sont développés dans des situations où il n'y a pas de lois spécifiques régissant leur utilisation, avec des mises en garde contre un vide réglementaire au Royaume-Uni. « La normalisation de la surveillance par l'IA dans les centres de transport est une pente glissante vers un État de surveillance et doit faire l'objet d'une plus grande transparence et d'une consultation publique », déclare Stone de Big Brother Watch.

    Une étude du Joint Research Councils (JRC) met en garde contre les conséquences néfastes sur la santé mentale des employés dues à l'accroissement de la surveillance par les employeurs. Le rapport souligne que la surveillance excessive, incluant l'utilisation de webcams, l'enregistrement des frappes au clavier et les traceurs de mouvements, peut entraîner des problèmes de santé mentale, une baisse de productivité et des démissions. Pendant la pandémie, l'utilisation de ces technologies a considérablement augmenté, notamment dans le cadre du travail à distance. Le groupe parlementaire britannique multipartite (APPG) sur l'avenir du travail préconise une « loi sur la responsabilité des algorithmes » pour évaluer les impacts des régimes axés sur la performance.

    Selon l'APPG, les technologies de surveillance omniprésente et de fixation d'objectifs sont associées à des effets négatifs sur le bien-être mental et physique des travailleurs, en raison de la pression constante et de l'évaluation automatisée. Le rapport du JRC, intitulé Electronic Monitoring and Surveillance in the Workplace, met en lumière l'essor de la surveillance au travail, souvent soutenue par l'intelligence artificielle, tant dans l'économie du travail à l'aide de platesformes communes que dans les systèmes bureautiques classiques. Les différentes tendances nécessitent des réponses spécifiques, souligne l'auteur du rapport, Kirstie Ball, professeur à l'école de gestion de l'université de St Andrews.

    Les tests menés par le métro de Londres visaient également à déterminer si l'IA pouvait détecter les vélos dépliés ou non et les scooters électriques, qui sont en grande partie interdits sur le réseau de transport. « L'IA n'a pas pu faire la différence entre un vélo déplié et un vélo normal, ni entre un scooter électrique et un scooter pour enfants », indiquent les documents. Le modèle d'évasion tarifaire a également repéré les enfants. « Pendant les heures de transport scolaire, nous observions un pic d'alertes de talonnage de parents et d'enfants », indiquent les documents. Le système a été ajusté pour ne pas signaler les personnes « dont la taille est inférieure à la barrière ».

    En 2020, la police de Londres a dévoilé son projet de déploiement de caméras de reconnaissance faciale dans toute la ville, suscitant des préoccupations parmi les défenseurs de la vie privée qui ont qualifié cette initiative de menace sérieuse pour les libertés individuelles. Cette décision faisait suite à une série de tests lancés par la police du Royaume-Uni en 2017, mettant en œuvre des caméras dotées d'un système d'intelligence artificielle (IA) appelé AFR Locate pour la reconnaissance faciale en temps réel.

    Initialement testée dans la région de South Wales, cette technologie a montré des lacunes dès le début des essais, avec un taux élevé de faux positifs atteignant 98 %. Le système utilise un croisement entre les images en temps réel et celles stockées dans une base de données de personnes recherchées pour générer des alertes en cas de correspondance. Cependant, en raison des déficiences observées, aucune arrestation n'a pu être effectuée sur la base de ces alertes.

    Face à ces insuffisances, les autorités ont collaboré avec la société technologique japonaise NEC pour améliorer l'algorithme sous-jacent à l'IA. Après 12 mois de recherche, NEC a fourni un nouvel algorithme et une nouvelle application, réduisant considérablement le taux de faux positifs. Entre 2017 et 2018, cette amélioration a conduit à l'arrestation de 450 personnes.

    Suite à ces résultats jugés concluants, la police britannique, notamment le Service de Police Métropolitain de Londres (Met), annonce l'introduction de la technologie de reconnaissance faciale en temps réel (LFR) dans des endroits spécifiques de Londres. Cette initiative vise à lutter contre des délits graves, tels que la violence, l'utilisation d'armes à feu et à couteaux, l'exploitation sexuelle des enfants, ainsi qu'à protéger les personnes vulnérables.

    Le commissaire adjoint Nick Ephgrave souligne l'importance de cette avancée dans la lutte contre la violence, soulignant que des technologies similaires sont déjà largement utilisées dans le secteur privé au Royaume-Uni et qu'elles ont été testées spécifiquement pour une utilisation opérationnelle par les équipes technologiques de la police.

    Les risques soulevés par les experts en vie privée

    La combinaison de l'IA avec des images de vidéosurveillance en direct a généré plus de 44 000 alertes signalant divers comportements, allant de l'agressivité aux fraudes tarifaires. Ces résultats soulèvent des questions sur la fiabilité du système, mettant en évidence des erreurs susceptibles d'avoir des conséquences importantes.

    Bien que l'objectif de l'essai soit d'améliorer la sécurité, il est crucial de prendre en compte les erreurs du système et de mettre en place des réglementations strictes ainsi que des consultations publiques transparentes avant de déployer de telles technologies dans des espaces publics. La nécessité d'un équilibre entre la sécurité publique et la protection de la vie privée est cruciale, et des experts soulignent l'importance d'une approche réglementaire pour garantir que ces technologies ne compromettent pas les droits fondamentaux des citoyens.

    L'expérience souligne également la nécessité d'une surveillance et d'une évaluation constantes des systèmes d'IA pour minimiser les erreurs et les biais, tout en informant le public sur la manière dont ces technologies sont utilisées et réglementées. L'opinion critique exprimée par Madeleine Stone, une responsable plaidoyer au sein du groupe Big Brother Watch axé sur la protection de la vie privée, soulève des préoccupations légitimes quant à l'utilisation de la surveillance alimentée par l'IA dans le métro.


    Stone met en avant le fait que de nombreux voyageurs du métro seront « dérangés » en apprenant que les autorités les soumettent à une surveillance alimentée par l'IA. Elle souligne également que l'utilisation d'un algorithme pour déterminer si quelqu'un est « agressif » est « profondément défectueuse » et met en lumière le fait que le régulateur britannique des données a averti contre l'utilisation des technologies d'analyse des émotions.

    Cette critique met en évidence une série de préoccupations fondamentales, notamment le potentiel de violation de la vie privée, les erreurs possibles de l'algorithme dans l'évaluation du comportement humain, et le non-respect des avertissements des régulateurs de données. L'objection à l'utilisation de technologies d'analyse des émotions est particulièrement pertinente et souligne les risques de décisions automatisées basées sur des interprétations potentiellement biaisées ou inexactes des émotions humaines.

    Sources : Documents rendus publics, TfL

    Et vous ?

    Quel est votre avis sur le sujet ?

    Êtes-vous pour contre une consultation publique avant le déploiement de ces technologies ?

    Quelle est votre position vis-à-vis de l'usage des outils de surveillance IA en temps réel dans la détection des délits ? Êtes-vous en faveur ou opposé à cette pratique ?

    Voir aussi :

    La surveillance du lieu de travail par l'IA est en plein essor et nuit à la santé mentale des travailleurs, des députés britanniques demandent un renforcement de la réglementation pour y palier

    Les startups technologiques vendent à l'armée et à la police des dispositifs avancés de surveillance et d'espionnage, malgré les risques d'utilisation abusive et de violation de la vie privée

    La Chine dévoile une caméra de 500 mégapixels dotée d'IA capable d'identifier un seul visage parmi des dizaines de milliers de personnes, faisant craindre une répression accrue des libertés civiles

    La police de Londres déploiera des caméras de reconnaissance faciale dans toute la ville, les militants de protection de la vie privée ont qualifié cette décision de menace grave contre les libertés
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 231
    Dernier message: 12/01/2023, 10h02
  2. Réponses: 8
    Dernier message: 29/01/2019, 09h47
  3. Réponses: 3
    Dernier message: 07/07/2017, 17h14
  4. Réponses: 4
    Dernier message: 30/08/2016, 17h52
  5. Réponses: 11
    Dernier message: 18/03/2015, 09h33

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo