IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 941
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 941
    Par défaut Des policiers armés encerclent un lycéen après qu'une IA a confondu son paquet de chips Doritos avec une arme
    Des policiers armés encerclent et menottent un lycéen après qu'une IA a confondu son paquet de chips Doritos avec une arme à feu,
    déclenchant une alerte automatique. Quand la confiance aveugle dans l’IA met des vies en danger

    L’histoire aurait pu prêter à rire si elle n’avait pas été aussi inquiétante. Dans un lycée américain, un lycéen s’est retrouvé face à un dispositif policier d’envergure, armes au poing, parce qu’un système de surveillance doté d’intelligence artificielle a pris son paquet de Doritos pour… une arme à feu. Selon un rapport, l’incident s’est produit après qu’un algorithme de détection d’armes, intégré au système de caméras du campus, a déclenché une alerte automatique.

    L’IA, censée repérer les menaces potentielles en temps réel pour aider à contrer plus rapidement les tueries de masse, a cru discerner une silhouette d’arme dans la main de l’étudiant. En quelques minutes, plusieurs unités d’intervention ont convergé vers le bâtiment. Le lycéen, totalement surpris, a été plaqué au sol sous la menace d’armes avant que la méprise ne soit révélée : il ne portait qu’un paquet de chips orange.


    Un détecteur de sécurité à intelligence artificielle a provoqué un moment terrifiant pour un lycéen de Baltimore, dans le Maryland, après qu'un sac de chips vide fourré dans sa poche ait déclenché une alerte qui a fait intervenir la police.

    « C'était une situation effrayante. Je n'avais jamais vécu cela auparavant », a déclaré Taki Allen.

    Lundi, vers 19 heures, Allen raconte qu'il était assis devant le lycée Kenwood dans le comté de Baltimore, attendant qu'on vienne le chercher après son entraînement de football.

    Pendant qu'il attendait avec ses amis, Allen dit avoir mangé un paquet de Doritos, froissé le paquet et l'avoir mis dans sa poche.

    Ce qui s'est passé ensuite l'a complètement pris au dépourvu.

    « Vingt minutes plus tard, huit voitures de police se sont arrêtées près de nous », se souvient Allen. « Au début, je ne savais pas où ils allaient jusqu'à ce qu'ils se dirigent vers moi avec leurs armes, en me disant : « À terre ». Je me suis dit : « Quoi ? » Ils m'ont fait mettre à genoux, puis ils m'ont mis les mains derrière le dos et m'ont menotté. Ils m'ont fouillé et ont compris que je n'avais rien. Puis ils sont allés là où je me tenais et ont trouvé un sac de chips par terre. »

    Allen a demandé pourquoi les agents s'étaient approchés de lui.

    « Ils ont dit qu'un détecteur IA ou quelque chose comme ça avait détecté que j'avais une arme. Il m'a montré une photo. Je tenais juste un sac de Doritos comme ça », a décrit Allen. « Ils ont dit que ça ressemblait à une arme. »


    L'année dernière, les lycées du comté de Baltimore ont commencé à utiliser un système de détection des armes à feu qui utilise l'intelligence artificielle pour aider à détecter les armes potentielles en exploitant les caméras existantes dans les écoles. Le système peut identifier une arme potentielle, puis envoyer une alerte à l'équipe de sécurité de l'école et aux forces de l'ordre.

    Le grand-père d'Allen se dit non seulement bouleversé par la situation, mais aussi par la réaction qui a suivi : « Personne ne voudrait que cela arrive à son enfant », a déclaré Lamont Davis. « Personne, absolument personne ne voudrait que cela arrive à son enfant. »

    Les responsables de la police du comté de Baltimore ont fourni une lettre du directeur adressée aux parents. Elle dit notamment : « Vers 19 heures, l'administration scolaire a reçu une alerte indiquant qu'une personne se trouvant dans l'enceinte de l'école était peut-être en possession d'une arme. Le département de la sûreté et de la sécurité scolaires a rapidement examiné et annulé l'alerte initiale après avoir confirmé qu'il n'y avait pas d'arme. »

    La société à l'origine de la technologie de détection des armes à feu par IA s'appelle Omnilert.

    Nom : doritos.png
Affichages : 17370
Taille : 341,8 Ko

    L’illusion de la précision technologique

    Les entreprises qui conçoivent ces outils affirment souvent que leurs algorithmes peuvent « détecter les armes à feu en temps réel avec une précision de 99 % » (c'est le cas par exemple de Provectus ou d'Actuate.AI). Mais cette promesse repose sur des données entraînées dans des contextes contrôlés. Dans la réalité, les ombres, les reflets ou les postures humaines échappent souvent à la logique binaire des modèles. De plus, ces affirmations proviennent plutôt de documentations commerciales ou marketing (études de cas, blogs d’entreprises) que de validations publiques ou de revues académiques rigoureuses.

    Nom : 99.png
Affichages : 3269
Taille : 13,4 Ko

    L’intelligence artificielle ne comprend pas le monde : elle le devine à partir de motifs. Ce qu’elle interprète comme une arme n’est qu’une succession de pixels dont la forme statistique correspond à celle d’un pistolet. Et dans une société américaine obsédée par la prévention des drames, cette devinette numérique peut suffire à déclencher une opération tactique.

    Les spécialistes de la sécurité estiment que ces faux positifs ne sont pas anecdotiques :
    1. Une étude intitulée « The impact of AI errors in a human-in-the-loop process » montre que lorsque des systèmes algorithmiques donnent des résultats erronés, cela affecte la qualité du jugement humain dans la chaîne de décision — ce qui est très pertinent dans le contexte d’une alerte automatisée d’armes.
    2. Une recherche publiée dans Applied Sciences sur la « détection en temps réel d’armes » (« Effective Strategies for Enhancing Real-Time Weapons Detection in Video Surveillance ») indique que les systèmes de détection réduisent les faux positifs (ex. objets confondus avec des armes) via des techniques comme la « fenêtre temporelle » et un second classificateur — mais relèvent aussi des défis majeurs : conditions d’éclairage faible, objets simulant des armes, etc.
    3. La Federal Trade Commission a informé le public qu’une entreprise d’IA de détection d’armes (Evolv Technology) a été sanctionnée pour avoir « trompé » ses clients sur les capacités réelles de ses systèmes : fausse publicité sur la détection d’armes, nombreux faux positifs, armes non détectées.
    4. Une investigation montre que dans les écoles américaines, l’IA de détection d’armes a généré des alertes pour des objets inoffensifs (par exemple : arceau de danse ou arme factice) ou n’a pas détecté des armes comme les couteaux.

    Ces travaux suggèrent que, malgré des avancées techniques, les systèmes d’IA de détection d’armes ne sont pas infaillibles. Le problème majeur reste le faux positif (objet banal pris pour arme) et le faux négatif (arme non détectée). Par exemple, la recherche note que l’ajout d’une fenêtre temporelle (vérifier si l’objet reste visible plusieurs images consécutives) permet de réduire les faux positifs mais réduit aussi le nombre de détections d’armes véritables.

    De plus, les alertes erronées finissent par affecter le jugement humain : si l’algorithme se trompe souvent, les agents peuvent soit ignorer ensuite les alertes, soit déclencher des interventions inappropriées.


    La tentation de l’automatisation totale

    Cet incident illustre un changement profond dans la manière dont la sécurité publique s’articule. Auparavant, un agent humain filtrait les alertes et exerçait un jugement avant toute décision. Désormais, l’alerte est générée, classée et transmise automatiquement, sans validation humaine.

    Les partisans de ces technologies défendent leur usage au nom de la rapidité et de la réactivité : dans un contexte où chaque seconde compte, mieux vaut une fausse alerte qu’un drame. Mais cette logique du « mieux vaut prévenir » se transforme vite en spirale de sur-réaction. Plusieurs établissements américains ont d’ailleurs reconnu qu’ils n’avaient pas de protocole clair pour valider les alertes issues de l’IA. En d’autres termes, la machine peut appeler la police — et la police obéit.

    Quand la peur nourrit le marché

    Le déploiement de ces systèmes s’explique aussi par un puissant moteur économique. Depuis les tragédies de Parkland ou d’Uvalde, les institutions scolaires américaines dépensent des millions de dollars dans des technologies dites de prévention intelligente. Les start-ups promettent une sécurité augmentée grâce à la vision par ordinateur, la reconnaissance faciale ou les capteurs de sons d’armes à feu.

    Mais à mesure que ces dispositifs se multiplient, le nombre de fausses alertes augmente. Loin de rassurer, cette hyper technologisation entretient un climat d’angoisse. Chaque objet banal — une bouteille d’eau, un parapluie, un smartphone — peut devenir suspect.

    Le risque d’un « profilage automatisé du danger »

    Derrière la question technique, un autre problème émerge : celui du biais et du profilage. Les IA de détection d’armes, entraînées sur des jeux de données incomplets, tendent à sur-réagir à certains gestes, couleurs de peau ou types d’environnement. Dans plusieurs cas documentés, ces algorithmes ont signalé plus fréquemment des « menaces » lorsqu’il s’agissait de personnes noires ou latino-américaines.

    Le risque est donc double : une erreur de perception qui devient une justification d’intervention, et une discrimination algorithmique qui amplifie les réflexes raciaux inconscients déjà présents dans les forces de l’ordre.

    Une vigilance déshumanisée

    L’incident du paquet de Doritos symbolise une dérive plus large : la perte de confiance dans la capacité humaine à évaluer le réel. On remplace le regard attentif d’un agent par la vigilance d’un algorithme, qui observe tout mais ne comprend rien.

    Dans le feu de l’action, aucun policier n’a remis en question la véracité de l’alerte. L’IA avait « vu » une arme — donc il y avait une arme. Cette croyance dans l’infaillibilité technologique, nourrie par le marketing des entreprises de sécurité, menace de dissoudre le sens critique nécessaire à toute action policière.

    Faut-il interdire ces systèmes, ou simplement mieux les encadrer ? Certains experts plaident pour une approche hybride : conserver la détection automatique, mais exiger une validation humaine avant toute intervention. D’autres appellent à suspendre ces outils tant qu’ils ne font pas preuve d’une fiabilité totale — un idéal probablement inatteignable.

    Le véritable enjeu dépasse la simple erreur d’un algorithme : il touche à notre rapport collectif à la peur, à la confiance et au pouvoir. L’intelligence artificielle est censée nous protéger, mais si elle devient elle-même une source de menace, alors elle trahit sa mission première.

    Un futur sous surveillance algorithmique

    L’incident du « Doritos Gun » pourrait sembler anecdotique, mais il résonne comme un avertissement. L’intégration croissante de l’IA dans les systèmes de sécurité publique pose une question fondamentale : à quel point sommes-nous prêts à déléguer notre jugement à des machines ?

    Entre les promesses d’efficacité et le spectre d’une surveillance automatisée, la frontière devient de plus en plus floue. Chaque erreur d’interprétation algorithmique peut devenir un drame humain. Et tant que la vérification humaine ne redeviendra pas centrale dans ces dispositifs, la société risque d’apprendre — dans la douleur — que la vigilance artificielle ne remplacera jamais la prudence humaine.

    Sources : vidéo dans le texte, The impact of AI errors in a human-in-the-loop process, Effective Strategies for Enhancing Real-Time Weapons Detection in Video Surveillance, FTC, Education Week

    Et vous ?

    Quand une IA déclenche une alerte erronée qui mène à une intervention armée, qui doit être tenu responsable : le fabricant, la police, ou le système lui-même ?

    Faut-il instaurer une obligation légale de validation humaine avant toute action policière issue d’une détection algorithmique ?

    Les forces de l’ordre doivent-elles pouvoir s’appuyer sur une « preuve numérique » produite par une IA sans contrôle humain préalable ?

    Peut-on réellement faire confiance à des systèmes qui interprètent des pixels sans comprendre le contexte ?

    Le taux d’erreur tolérable pour une IA de sécurité devrait-il être zéro, ou la société doit-elle accepter un certain niveau de risque ?

    Les algorithmes de détection d’armes sont-ils suffisamment transparents pour être audités et corrigés par des experts indépendants ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre éprouvé
    Profil pro
    Inscrit en
    Octobre 2005
    Messages
    967
    Détails du profil
    Informations personnelles :
    Âge : 46
    Localisation : France

    Informations forums :
    Inscription : Octobre 2005
    Messages : 967
    Par défaut
    Ca rappelle cette scène de Robocop où l'ED-209 abat quelqu'un suite à un bug lors d'une démonstration.

    A ce stade, il est de notoriété publique que les IA ne sont pas fiables. Quiconque ne fait pas les vérifications nécessaires devrait être considéré responsable. Un fabricant qui n'explique pas que ces vérifications sont nécessaires devrait aussi être tenu responsable.

    J'espère que la famille du lycéen va porter plainte, pour, entre autres, mise en danger de la vie d'autrui, force excessive, dénonciation de crime imaginaire, et s'être fait passer pour une force de police.

  3. #3
    Membre éprouvé
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    1 107
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 1 107
    Par défaut
    détecter les armes à feu en temps réel avec une précision de 99 %
    Une 99% de quoi ? des jours ? --> 3.65 faux positifs par an
    des gens par jour ? --> 20 faux positifs /j sur un campus de 2000 pers.
    des gestes ou quelqu'un brandit quelque chose ?

    Ce qui est sûr, c'est que si le nombre de faux-positifs générés n'est pas calculé à l'avance, les forces de police ne sauront pas interpréter les alertes.
    Encore heureux qu'il n'ait pas été abattu à distance en raison du stress des policiers comme ça arrive vite aux USA. (comme tout le monde a des armes, les policiers tirent d'abord assez facilement...)

  4. #4
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    228
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 228
    Par défaut
    Ce qui met en danger dans cette affaire, c'est la surveillance de masse et le signalements automatiques :
    Bien plus que les IAs en elle-même qui ne sont là que pour compléter des textes.

  5. #5
    Expert confirmé

    Inscrit en
    Août 2006
    Messages
    3 980
    Détails du profil
    Informations forums :
    Inscription : Août 2006
    Messages : 3 980
    Par défaut
    Bonjour,

    Un de ces jours, c'est une IA qui appuiera sur le bouton nucléaire !

  6. #6
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    3 127
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 3 127
    Par défaut
    Il faut pas déconner avec les chips...
    Surtout celles au piment, elles peuvent faire de gros dégâts.

    Ma proposition pour combattre ce fléau.
    Un interrogatoire poussé de chaque personne sortant du super marché avec plus de 200g de chips au piment (ou 300g si c'est du paprika).

  7. #7
    Expert confirmé
    Homme Profil pro
    Responsable Données
    Inscrit en
    Janvier 2009
    Messages
    5 520
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 52
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Responsable Données

    Informations forums :
    Inscription : Janvier 2009
    Messages : 5 520
    Par défaut
    Popo : après les bombes au poivre, les chips au piment...

    J'imagine la une du Times: attentat à la voiture piégée, un homme arrêté avec 2 bouteilles de Tabasco dans le coffre.

    Tatayo

  8. #8
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 057
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 057
    Par défaut
    Ici, un faux positif et mieux qu'un faux négatif.

    Une IA qui croit voir une arme quand c'est un paquet de chips, c'est moins problématique qu'une IA qui laisse passer quelqu'un parce qu'elle a confondu son arme avec un paquet de chips.

    Les élèves ont loupé un peu de temps de cours, ça leur fait une anecdote, en plus ça fait manœuvre / simulation d'alerte / exercice de sécurité.
    Maintenant les élèves sont prêts
    Ce genre d’événement fait évoluer l'algorithme

Discussions similaires

  1. [A-XP] comment mailer des tables, les mettre a jour après
    Par grabuge41 dans le forum Modélisation
    Réponses: 2
    Dernier message: 20/03/2009, 18h17
  2. Des écoles publiques de bon niveau après DUT
    Par Nix6800 dans le forum Etudes
    Réponses: 8
    Dernier message: 07/07/2008, 16h40
  3. Réponses: 1
    Dernier message: 21/04/2008, 17h00
  4. Réponses: 8
    Dernier message: 21/02/2008, 23h50
  5. Réponses: 3
    Dernier message: 28/01/2007, 20h25

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo