IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

L’armée américaine teste un robot-chien armé au Moyen-Orient et allonge la liste des cas de course aux armes


Sujet :

Intelligence artificielle

  1. #21
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 947
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 947
    Points : 18 908
    Points
    18 908
    Par défaut
    Citation Envoyé par Bruno Voir le message
    À votre avis, comment les gouvernements peuvent-ils s’assurer que l’utilisation de l’IA dans les drones militaires est responsable et éthique ?
    L'important c'est de gagner la guerre, ce n'est pas d'être ethique.
    Les gagnants ne sont pas jugés, les USA ne se sont jamais excusé pour avoir largué des bombes atomiques et du Napalm sur des civils.

    Citation Envoyé par Bruno Voir le message
    Comment les militaires peuvent-ils s’assurer que les drones autonomes prennent des décisions éthiques et responsables ?
    Le problème ce n'est pas les décisions que prennent les drones autonomes, le problème c'est les ordres qu'ils recoivent.

    ====
    Pour les USA il y a un côté positif à l'utilisation de drone autonome, c'est qu'il y aura peut-être moins de militaires US qui vont se suicider.
    Etats-Unis : pour un soldat mort au combat, 10 vétérans se suicident
    22 suicides par jour ! Quand les dernières guerres des Etats-Unis ont coûté la vie à 4488 soldats, la vie civile a vu le suicide de 43.208 hommes et femmes anciens combattants sur 10 ans... Pour un mort sur le terrain, près de 10 anciens combattants se sont donné la mort.
    Cette moyenne du nombre de décès quotidiens de vétérans a fait frémir l'Amérique quand elle l'a appris. Près de 950 tentatives par mois.

  2. #22
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    975
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 975
    Points : 17 357
    Points
    17 357
    Par défaut Le Pentagone envisage la création de super-soldats cybernétiques qui ne ressentent rien lorsqu'ils tuent
    Les scientifiques du Pentagone discutent de la création de super-soldats cybernétiques qui ne ressentent rien lorsqu'ils tuent
    ce qui soulève des préoccupations d'ordre éthique

    Les États-Unis semblent se rapprocher davantage d'un monde où Skynet ne relèverait plus de la science-fiction. Le Pentagone envisage un avenir où il sera capable déployer sur le champ de bataille des "super-soldats" inspirés de Captain America et d'Iron Man. Il a décrit le soldat du futur comme un militaire qui sera inondé de stimulants antidouleur, amélioré avec des implants cérébraux, du sang synthétique et d'autres équipements technologiques. Cela devrait le transformer en une sorte de super-soldat invincible capable de tuer sans avoir de remords pouvant affecter sans santé mentale. En plaisant, certains ont suggéré que le super-soldat pourrait être éliminé à la fin de sa mission.

    À mesure que les progrès technologiques s'enchainent, les armées du monde entier se modernisent et intègrent les nouvelles trouvailles afin d'améliorer les capacités de leurs soldats sur le champ de bataille. Dans sa quête d'une machine à tuer hautement efficace, le Pentagone envisage de donner vie à un super soldat directement inspiré de Terminator ou de Captain America. Selon de hauts responsables américains, si les États-Unis ne développent pas de telles capacités, ils seront vulnérables à leurs ennemis qui travaillent déjà sur des systèmes similaires sans des préoccupations éthiques. Ils n'ont toutefois pas fourni des preuves étayant ces allégations.

    Mercredi, un groupe de militaires et de scientifiques proches de l'armée se sont réunis lors d'une conférence pour discuter de la possibilité de créer un super-soldat. Ils ont discuté des programmes de reproduction, des films Marvel, de Matrix et de diverses technologies sur lesquelles le Pentagone mène des recherches dans le but de créer un véritable super-soldat (doté d'implants cybernétiques) et de questions éthiques épineuses liées aux armes autonomes. L'exposé a eu lieu lors de la conférence Interservice/Industry Training, Simulation and Education Conference (I/ITSEC) une conférence annuelle où les dirigeants militaires viennent discuter du futur.


    Lors de l'événement, les entreprises de simulation font la démonstration de leurs nouveaux produits. C'est le genre d'endroit où les cadres et les généraux enfilent des casques de réalité virtuelle et parlent des vertus des simulateurs de réalité virtuelle. On peut y voir des membres du Congrès parler de l'importance des simulations et de la guerre. Par exemple, l'affiche officielle de l'édition 2019 de l'I/ITSEC indique : « Gagner la guerre de la cognition en repoussant les limites de la préparation et de la létalité ». Cette année, certains participants se sont réunis pour discuter des super-soldats lors d'un panel intitulé : « Black Swan-Dawn of the Super Soldier ».

    L'I/TSEC a annoncé le panel dans son programme avec une photo des experts à côté d'un "Master Chief posant, le super soldat génétiquement amélioré de la franchise de jeux vidéo Halo. « Nous disposons donc d'un large éventail de panélistes pour couvrir l'ensemble des aspects d'un super-soldat. Lorsque l'on parle de super-soldat, à quoi pense-t-on en général ? Nous pensons à Marvel, n'est-ce pas ? Captain America ou Iron Man », a déclaré en introduction Lauren Reinerman-Jones, analyste à la Defense Acquisition University. Les panélistes ont discuté longuement sur les rouages de ce qui est actuellement possible et de ce qui est sur le point de l'être.

    La conversation a également porté sur diverses questions éthiques. Lors de la conversation, la chercheuse J.J. Walcutt a parlé de sang synthétique et du remplacement des lunettes de vision nocturne par des gouttes pour les yeux (deux choses sur lesquelles le Pentagone travaillerait), tandis qu'une diapositive derrière elle montrait un "soldat du futur" dont le corps est "inondé de stimulants antidouleur" et qui a la "capacité de repousser les membres et de guérir rapidement les blessures comme un lézard". À côté, une citation fait référence à Robocop, un film de science-fiction qui met en scène un personnage mi-homme, mi-robot dans un monde dystopique.

    « Les soldats améliorés seraient réduits à des hommes bioniques, qui courent vite, n'ont pas besoin de dormir, mangent et boivent très peu, et peuvent se battre tout le temps. Une nouvelle espèce est née : l'Homo robocopus ». Il s'agit d'une citation tirée directement d'un rapport européen de 2019 sur les préoccupations éthiques des superpuissances mondiales qui tentent de créer des super-soldats. Lors de l'événement, un membre du public a demandé s'il était possible d'utiliser la technologie pour prolonger la vie des soldats vétérans qui ont des années d'expérience sur le champ de bataille ou pour améliorer les capacités des vieilles personnes.

    La personne a fait référence au livre de science-fiction "Old Man's War" (Le Vieil Homme et la Guerre) de l'écrivain américain John Scalzi. Le livre évoque un avenir où la Terre fait la guerre en offrant aux personnes âgées de nouveaux corps jeunes en échange d'un service militaire. Les panélistes ont déclaré que c'était une excellente idée. Selon Walcutt, cela pourrait donner aux vétérans retraités un but à atteindre et réduire les taux de dépression. Elle a noté : « si nous pouvons utiliser les gens, quelles que soient leurs capacités physiques, ou si nous pouvons améliorer leurs capacités, pourquoi ne pourrions-nous pas augmenter la longévité du service ? ».

    Richard McKinley, qui travaille sur la stimulation cérébrale non invasive pour l'armée de l'air américain, a déclaré que la Matrice commençait à devenir réelle. Pensez à la scène emblématique où Neo, interprété par l'acteur Keanu Reeves, a téléchargé instantanément dans son cerveau des années de compétences en kung-fu. Il a noté que son équipe travaille sur une technologie du même type. « Nous travaillons actuellement avec une société appelée Teledyne pour étudier les technologies capables d'écrire dans le cerveau à une très haute résolution. Nous n'en sommes qu'au tout début, et il reste encore beaucoup de développement à faire », a-t-il déclaré.

    « Nous n'en sommes qu'au début, et il reste encore beaucoup de développement à faire. Mais c'est quelque chose qui arrivera dans le futur, la possibilité de porter un appareil qui peut écrire des informations directement dans le cerveau de manière non invasive, sans aucune intervention chirurgicale, sans aucune sensation sur la peau », ajoute McKinley. L'un des panélistes, George Matook, un représentant du DEVCOM (U.S. Army Developmental Command) a déclaré que les États-Unis veulent donner vie à de puissants super-soldats, mais qu'il y a d'importantes limites éthiques et juridiques liées la création qu'il faut prendre en compte.


    « Quels risques sommes-nous prêts à prendre ? Il y a toutes ces choses merveilleuses que nous pouvons faire. Nous ne voulons pas d'un combat équitable. Nous ne voulons vraiment pas, ce n'est pas une chose honorable. Nous voulons que nos hommes surpassent tous les ennemis possibles, n'est-ce pas ? Alors pourquoi ne leur donnons-nous pas d'améliorations pharmaceutiques ? Pourquoi les faire courir toute la semaine alors qu'on pourrait simplement leur donner des stéroïdes ? Il y a toutes sortes d'autres choses que l'on peut faire si l'on change les normes sociétales et l'éthique. Et les lois, dans certains cas », a déclaré Matook.

    Il a insisté sur la nécessité de repousser les limites de l'éthique en laissant entendre que les ennemis des États-Unis pratiquaient l'eugénisme pour créer de meilleurs pilotes. Il n'a toutefois pas fourni des preuves de ce qu'il dit. « Nous pourrions nous retrouver dans une situation où nos soldats, aussi talentueux et entraînés qu'ils soient, seraient confrontés à un combat injuste parce qu'un autre pays serait prêt à dire : "hé, devinez quoi, vous, homme, êtes un bon aviateur. Vous, femme, êtes une bonne aviatrice. Vous allez faire les meilleurs bébés aviateurs que nous ayons jamais vus et je me fiche que vous ne soyez pas mariés », a-t-il déclaré.

    Irwin Hudson, un autre représentant du DEVCOM, a fait remarquer que le rapport coût-bénéfice de ces nouvelles technologies n'en valait peut-être pas la peine pour l'individu. Il a souligné que les stéroïdes font payer un lourd tribut à l'utilisateur et qu'il y a des conséquences à l'augmentation des performances des êtres humains. McKinley est d'accord et, fidèle à sa ligne de conduite, vante les avantages des améliorations non invasives : « je pense que la réversibilité est la grande nouveauté, n'est-ce pas ? Les gens ne veulent pas que des changements permanents soient apportés à leur corps avec des technologies qui sont relativement nouvelles ».

    Enfin, la question suivante a été posée aux panélistes : si vous apportez ce type de modifications à un individu, que faites-vous à la fin de son service ? Que se passe-t-il ? Ou bien ces personnes sont-elles littéralement la propriété du gouvernement à vie ? « La résiliation », a répondu Hudson, en faisant une plaisanterie sinistre. Selon des rapports parus ces dernières années, voici une partie de la technologie en cours de réalisation pour créer "l'Homo robocopus" :

    • micropuces cérébrales : la France développerait des micropuces pour améliorer les fonctions cérébrales des soldats ;
    • yeux bioniques : développés à Hong Kong, ils permettent aux utilisateurs d'avoir une vision infrarouge et nocturne ;
    • super-audition : le système de protection et de communication tactique des États-Unis comprend des oreillettes intelligentes qui améliorent l'audition des soldats au point de la rendre presque surhumaine ;
    • implant de santé : la DARPA, l'organe de recherche du Pentagone, mettrait au point des implants cyborg pour surveiller l'efficacité au combat ;
    • membres améliorés : un rapport du DEVCOM de l'armée américaine révèle des projets visant à équiper les soldats américains de membres améliorés pour accroître leur force ;
    • jambes exosquelettes : l'armée américaine aurait testé un exosquelette qui peut être fixé aux jambes des soldats et qui peut augmenter leur productivité jusqu'à 27 fois ;

      sang synthétique : le respirocyte est un globule rouge théorique qui pourrait aider les soldats à ne pas s'essouffler et à rester sous l'eau pendant des heures ;
    • immunité contre la douleur : l'initiative "Persistance au combat" (Pain Immunity) de la DARPA permettrait aux soldats de ne plus ressentir la douleur pendant 30 jours.


    Selon ces rapports, les superpuissances de la planète, les États-Unis et la Russie, ont déjà leurs propres programmes de recherche dans ce domaine. À titre d'exemple, une étude réalisée pour le compte du ministère américain de la Défense et intitulée "Cyborg Soldier 2050 : Human / Machine Fusion and the Implications for the Future of the DoD" publiée en 2019. Ces technologies, ainsi que toutes les questions éthiques qui les accompagnent (du moins certaines d'entre elles), feront l'objet d'un débat public dans un avenir proche, un avenir qui, pour beaucoup, est considéré comme plus incertain que jamais.

    Sources : I/ITSEC 2023 à Orlando (Floride), la DARPA, le rapport européen sur les super-soldats (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la quête du super-soldat cybernétique par les superpuissances ?
    Selon vous, pourquoi les armées ressentent-elles le besoin de développer de telles machines à tuer ?
    Que pensez-vous des technologies de renforcement des capacités des soldats qui seraient à l'étude ?
    Quelles sont les préoccupations éthiques que posent ces technologies ?

    Voir aussi

    L'armée américaine envisagerait d'équiper des chiens-robots semi-autonomes d'une nouvelle génération d'armes de combat, dans le but de les déployer avec les soldats sur les théâtres d'opérations

    L'armée américaine veut créer des robots lourds semi-autonomes armés de missiles pour accomplir certaines des tâches les plus dangereuses des soldats

    Le Pentagone accélère l'intégration de l'IA pour maintenir sa compétitivité face à la Chine, avec des indications selon lesquelles les États-Unis développeront des armes autonomes létales

  3. #23
    Membre émérite Avatar de Cpt Anderson
    Profil pro
    Développeur informatique
    Inscrit en
    Novembre 2005
    Messages
    632
    Détails du profil
    Informations personnelles :
    Âge : 50
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Novembre 2005
    Messages : 632
    Points : 2 502
    Points
    2 502
    Par défaut
    S'il en sont aux discussions publiques, c'est que dans les faits, le projet est beaucoup plus avancé que ce qui est dit. De toute façon, la puissance du complexe militaro-industriel US est tellement importante que personne ne pourra leur dicter quoi que ce soit.

  4. #24
    Membre éclairé
    Profil pro
    maçon
    Inscrit en
    Novembre 2004
    Messages
    276
    Détails du profil
    Informations personnelles :
    Localisation : France, Haute Loire (Auvergne)

    Informations professionnelles :
    Activité : maçon

    Informations forums :
    Inscription : Novembre 2004
    Messages : 276
    Points : 720
    Points
    720
    Par défaut
    Ce qui soulève des préoccupations d'ordre éthique
    A bon pourquoi il y a une code éthique dans la guerre "traditionnelle" ? La convention de Genève peut être ???
    Il n'y à qu'a voir ce qui se passe actuellement en Ukraine , en Israel (pour les conflits les plus médiatisés) où l'éthique est omni présente .
    Guerre à "l'ancienne" ou guerre "moderne" l'éthique n'a pas eu , n'a pas et n'aura jamais son mot à dire dans la guerre .
    La violence humaine est à l'aulne de sa connerie et comme la connerie est infinie ...
    Se faire massacrer par un soldat avec remords ou sans remord quelle différence ?
    Ah si bien sur les gouvernements n'auront pas prendre les séquelles post traumatiques à leur charge , et à payer des pensions ...

  5. #25
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 947
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 947
    Points : 18 908
    Points
    18 908
    Par défaut
    Citation Envoyé par Cpt Anderson Voir le message
    De toute façon, la puissance du complexe militaro-industriel US est tellement importante que personne ne pourra leur dicter quoi que ce soit.
    Si les USA perdent la prochaine guerre mondiale, alors les vainqueurs pourront punir les USA pour leur utilisation d'arme interdite.

    Citation Envoyé par olaxius Voir le message
    A bon pourquoi il y a une code éthique dans la guerre "traditionnelle" ? La convention de Genève peut être ???
    Si tu gagnes la guerre mondiale, ça va (voir les 2 bombes atomiques sur des civils japonais).
    Par contre si tu perds tu peux te faire sanctionner.

  6. #26
    Membre expert
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 220
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 220
    Points : 3 309
    Points
    3 309
    Par défaut
    Les scientifiques du Pentagone discutent de la création de super-soldats cybernétiques qui ne ressentent rien lorsqu'ils tuent
    Ha ouais ????

    Mais les décisionnaires qui contrôles les guerre et contrôlerons dans le futur ces super-soldats cybernétiques, il s ressentent quelque chose, eux ?


  7. #27
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 387
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 387
    Points : 4 198
    Points
    4 198
    Par défaut
    Citation Envoyé par OrthodoxWindows Voir le message
    Mais les décisionnaires qui contrôles les guerre et contrôlerons dans le futur ces super-soldats cybernétiques, il s ressentent quelque chose, eux ?
    Oui ce sont des gentils, ils n'aiment pas les méchants et seront donc heureux d'empêcher qu'ils fassent des choses de méchants.
    Que pensent ils de la diplomatie? Moi non plus je n'ai jamais compris cette passion pour les dinosaures et les chiffres....

  8. #28
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 947
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 947
    Points : 18 908
    Points
    18 908
    Par défaut
    Citation Envoyé par OrthodoxWindows Voir le message
    il s ressentent quelque chose, eux ?
    C'est peu probable.
    En haut de la hiérarchie des USA, il y a des gens qui ont demandés à ce que soit utilisé un paquet d'armes inhumaines, comme le Napalm, l'Agent Orange, les bombes atomiques, les munitions à l'uranium appauvri, le phosphore blanc, etc.
    Ils ont donné l'ordre de tuer des centaines de milliers de civils irakiens. Ils ont foutu la merde un peu partout sur terre.

    Ils s'en foutent des conséquences.
    Ukraine : Washington enverra des munitions à uranium appauvri, armes perforantes controversées
    Elles ont été employées au cours des deux guerres du Golfe de 1991 et 2003 ainsi qu'en ex-Yougoslavie pendant les années 1990.

    Le Pentagone a en outre reconnu s'être servi d'obus à l'uranium appauvri à deux reprises en 2015 dans des opérations contre le groupe Etat islamique en Syrie.

    Le Royaume-Uni avait déjà annoncé il y a plusieurs mois son intention de livrer des munitions contenant de l'uranium appauvri à l'Ukraine, initiative dénoncée par Moscou.
    L'autre chose qui serait intéressant de savoir c'est quelles drogues l'armée US donne à ses soldats.
    Pour accepter de suivre les ordres qu'on leur donne, ils doivent être sous produits.

    Par exemple on sait que pendant la seconde guerre mondiale les soldats prenaient de la pervitine, en gros c'est de la méthamphétamine.

  9. #29
    Membre éprouvé
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Août 2018
    Messages
    406
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Autre

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux

    Informations forums :
    Inscription : Août 2018
    Messages : 406
    Points : 1 240
    Points
    1 240
    Par défaut
    C'est un kasting pour un remake de l’homme qui valait 3 milliards ?

    Ou ils essaient juste de faire peur aux vilains, avec des hommes de paille alias des épouvantails ?

    Tout ceci me parait totalement irréaliste...

  10. #30
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 947
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 947
    Points : 18 908
    Points
    18 908
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Il a souligné que les stéroïdes font payer un lourd tribut à l'utilisateur et qu'il y a des conséquences à l'augmentation des performances des êtres humains.
    Ouais, il n'y a qu'a demandé aux championnes de CrossFit !
    Tout le monde sait que ça provoque une hypertrophie du clitoris, une voix plus grave, une augmentation de la pilosité faciale, des troubles menstruels, de l'acné, mais il y a d'autres conséquences.

    Citation Envoyé par Mathis Lucas Voir le message
    Tout ceci me parait totalement irréaliste...
    Avec le budget de l'armée US tout est possible.

    Citation Envoyé par Mathis Lucas Voir le message
    Ou ils essaient juste de faire peur aux vilains, avec des hommes de paille alias des épouvantails ?
    "Vilain" ne fonctionne pas dans ce contexte. Parce que ce sont les USA les vilains dans l'histoire.
    Peut-être qu'ennemi ça fonctionnerait.

    Après le truc, c'est qu'il faut que ces projets restent secret normalement, sinon d'autres pays vont essayer de faire la même chose.
    Pendant la paranoïa de la guerre froide, il y a eu plein d'idées bizarre qui ont été développés, parce que les USA se disaient "si ça trouve l'URSS est en train de développer tel type d'arme, donc il faut qu'on les rattrape".

    Quoi qu'il en soit il y a une guerre mondiale qui se prépare, les super puissances vont investir beaucoup dans le développement de technologie militaire.
    Il n'y a aucune considération éthique là-dedans.
    On parle d'un pays qui a envoyé 2 bombes atomiques sur des civils, et il est prêt à faire pire.
    Il n'y a aucune limite.

  11. #31
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    975
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 975
    Points : 17 357
    Points
    17 357
    Par défaut Le Pentagone va introduire 1 000 drones contrôlés par l'IA pour améliorer ses capacités de combat aérien
    L'armée de l'air américaine va introduire 1 000 drones contrôlés par l'IA pour améliorer ses capacités de combat aérien
    et réduire les coûts des avions militaires standard pilotés par des soldats

    Le Pentagone poursuit ses investissements dans la conception et le développement de véhicules militaires autonomes contrôlés par l'IA. Un rapport révèle que l'armée de l'air américaine envisage d'introduire 1 000 drones contrôlés par l'IA pour améliorer ses capacités de combat aérien. Ces drones accompagneront et protégeront les avions avec équipage, comme les chasseurs F-35 et les bombardiers B-21. Ils pourront porter leurs propres armes, frapper d'autres aéronefs et des cibles au sol et effectuer des missions de reconnaissance. Cependant, l'utilisation d'armes autonomes létales sur le champ de bataille suscite des préoccupations, notamment éthiques.

    Les analystes militaires suggèrent que la décision de l'armée de l'air américaine de déployer des drones contrôlés par l'IA répond à l'évolution de la dynamique du champ de bataille, notamment en Ukraine, où les drones sont devenus des multiplicateurs de force essentiels. Les véhicules aériens sans pilote auraient la capacité d'accroître l'efficacité opérationnelle et la flexibilité tactique, mais les experts avertissent que l'idée de laisser l'IA trancher les questions de vie ou de mort constitue une frontière dangereuse. Malgré cela, le Pentagone souhaite tirer parti de la technologie de l'IA pour renforcer sa supériorité aérienne.

    Le rapport, publié par le Wall Street Journal, indique que le choix de l'armée de l'air américaine d'introduire une flotte de 1 000 drones contrôlés par l'IA marque ainsi un changement important dans la stratégie militaire. Ces drones fonctionneront dans le cadre du programme Collaborative Combat Aircraft (CCA). Lancé au début des années 2000, le programme CCA vise à intégrer des drones pilotés par l'IA dans la flotte existante d'avions de combat pilotés. Ces drones équipés d'IA serviront de "coéquipiers", complétant, protégeant et soutenant les chasseurs conventionnels comme l'avion F-35 de cinquième génération.


    La flotte envisagée de drones, capable d'exécuter diverses tâches opérationnelles, notamment la reconnaissance et l'engagement de cibles aériennes et terrestres, devrait offrir des alternatives rentables aux avions de combat traditionnels. En d'autres termes, l'armée de l'air américaine a décidé d'utiliser activement les drones pilotés par l'IA en raison des coûts élevés de construction des avions militaires standard pilotés par des soldats. Elle espère que les drones permettront de disposer "de plus d'avions pour moins d'argent". Le coût de production est estimé à environ un tiers de celui d'un avion de chasse comparable.

    Selon le rapport, ces drones promettent d'alléger les pressions budgétaires et de rationaliser les dépenses de formation des pilotes. Et la première phase du programme devrait coûter environ 6 milliards de dollars, ce qui témoigne de l'ampleur et de l'ambition de l'entreprise. Dans le même temps, ce programme devrait contribuer à enrichir les entreprises de défense qui investissent de plus en plus dans la conception et le développement de véhicules militaires autonomes pilotés par une IA. Anduril Industries, Boeing et General Atomics, auraient déjà dévoilé les prototypes de leurs propositions de drones dotés d'une IA.

    Ces entreprises se disputent les contrats lucratifs du ministère américain de la Défense (DOD), en mettant en avant les progrès de la technologie de couplage homme-machine et de l'intégration de l'IA. Parallèlement, des géants de l'industrie comme Lockheed Martin et Northrop Grumman s'emploient activement à affiner leurs offres, soulignant ainsi le paysage concurrentiel du secteur de la défense. La société d'analyse de données Palantir, qui est un contractant du Pentagone, travaille également sur d'autres projets d'IA pour l'armée américaine. Elle développe notamment le système de station au sol TITAN doté d'une IA.

    Palantir affirme que le système TITAN est le premier véhicule défini par l'IA et qu'il aidera l'armée américaine à agir rapidement sur le champ de bataille. Les critiques dénoncent la militarisation des capacités de l'IA par Palantir. « TITAN propose des technologies qui changent la donne en matière de collecte, de traitement et de diffusion du renseignement sur le champ de bataille, ce qui nous donne un avantage décisif pour soutenir les opérations multi domaines », a déclaré le colonel américain Chris Anderson. Palantir affirme également que la station TITANT est conçue pour maximiser la facilité d'utilisation pour les soldats.

    L'introduction de drones contrôlés par l'IA annonce un changement de paradigme dans la guerre aérienne, combinant l'innovation technologique et l'agilité stratégique. Cependant, elle soulève de nombreuses préoccupations d'ordre éthiques. De nombreux experts appellent à "l'interdiction de la militarisation des capacités de l'IA et des armes autonomes létales". Mais leur appel reste jusque-là sans réponse et les tentatives visant à élaborer des normes pour réglementer ces développements sur le plan mondial ont été infructueuses. Un critique a déclaré :


    Le résultat était prévisible. Les drones contrôlés par l'IA sont une bombe atomique pour la guerre à terme. À grande échelle, ils constituent une arme qui a quelque chose de terrifiant : la guerre sans conséquences personnelles. Pour donner un exemple de la chose : vous cliquez sur un bouton, 400 drones partent, 250 reviennent, toutes vos cibles stratégiques sont mortes et aucun des "bons" n'est blessé. À terme, ils pourraient choisir leurs propres cibles.

    Il n'existe aucun système d'armement ou de défense des frontières qui protège contre un assaut de centaines ou de milliers de cibles. Ils ne sont tout simplement pas conçus pour cela. Vous pourriez attaquer n'importe quel point des États-Unis, de l'Europe, de la Russie, etc. avec un essaim de drones. Et le bilan serait catastrophique pour la cible. L'essaim perdrait en nombre, c'est certain, mais lorsque l'attaque se produit, une partie de l'essaim s'éteint et détruit les lanceurs et les canons. Les drones pilotés par l'IA sont le résultat final des machines de guerre.
    Un rapport paru en décembre dernier a révélé que les scientifiques du Pentagone discutent de la création de super-soldats cybernétiques qui ne ressentent rien lorsqu'ils tuent, ce qui rapproche davantage d'un monde où Skynet ne relèverait plus de la science-fiction. Le super-soldat du Pentagone est décrit comme le soldat du futur et sera inondé de stimulants antidouleur, amélioré avec des implants cérébraux, du sang synthétique et d'autres équipements technologiques. Cela devrait le transformer en une sorte d’arme de guerre invincible capable de tuer sans avoir de remords pouvant affecter ses capacités mentales.

    D'autres grandes puissances militaires, telles que la Chine et la Russie, auraient déjà leurs propres programmes de recherche dans ce domaine. Ces technologies, ainsi que toutes les questions éthiques qui les accompagnent (du moins certaines d'entre elles), feront l'objet d'un débat public dans un avenir proche, un avenir qui, pour beaucoup, est considéré comme plus incertain que jamais. Selon les analystes, les conflits du futur seront essentiellement technologiques, car l'IA est en train de changer le visage de la guerre. Toutefois, les risques pour l'humanité sont encore inconnus et font l'objet de très peu de débats publics.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'introduction par le Pentagone de drones contrôlés par l'IA ?
    Quels sont les risques relatifs à l'utilisation de ces drones sur les théâtres d'opérations ?
    À quoi pourraient ressembler les conflits du futur ? Quels sont les risques pour l'humanité ?
    Selon vous, peut-on laisser une machine pilotée par l'IA trancher les questions de vie ou de mort ?

    Voir aussi

    L'armée de l'air américaine teste un prototype de drone avec un logiciel basé sur l'intelligence artificielle

    Les scientifiques du Pentagone discutent de la création de super-soldats cybernétiques qui ne ressentent rien lorsqu'ils tuent, ce qui soulève des préoccupations d'ordre éthique

    Un projet de loi bipartisan américain vise à empêcher l'IA de lancer des armes nucléaires sans véritable contrôle humain, il affirme que l'IA ne devrait pas trancher les questions de vie ou de mort

  12. #32
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 301
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 301
    Points : 21 443
    Points
    21 443
    Par défaut Les robots humanoïdes pourraient combattre dès 2030, prédit un colonel de l'armée américaine
    Les robots humanoïdes pourraient combattre dès 2030, les humains augmentés et les robots humanoïdes pourraient être déployés efficacement sur le champ de bataille, prédit un colonel américain

    Un colonel de l'armée américaine a révélé un calendrier pour le déploiement effectif d'humains augmentés et de robots humanoïdes sur le champ de bataille, mais seulement lorsque les autorités seront sûres que les robots travaillent pour les humains - et non l'inverse.

    S'exprimant dans le cadre d'une table ronde intitulée "Humanoïdes ou humains augmentés : Accélérer l'autonomie grâce à l'IA" qui s'est tenue au Texas le mercredi 13 mars, le colonel Troy Denomy a déclaré : "Nous pensons surtout à la période entre 2030 et 2040".


    La discussion a eu lieu lors du festival South by Southwest à Austin, qui célèbre l'intersection de la technologie et du divertissement.

    Au cours de la discussion, des inquiétudes ont été exprimées quant aux risques liés à l'utilisation de l'IA et de la technologie robotique par l'armée.

    "Assurez-vous que le robot travaille pour l'homme et que l'homme ne travaille pas pour le robot", a averti M. Denomy.

    Selon lui, cela devrait être le cas avant que les robots de l'armée ne passent leur phase de test.

    M. Denomy a cité l'exemple d'un test de robot effectué récemment, au cours duquel certains des testeurs ont parfois eu l'impression que les robots contrôlaient la situation.

    "Nous avons récemment fait une démonstration de certaines capacités robotiques et nous en ferons une autre dans quelques semaines", a déclaré le colonel à l'auditoire.

    "Les chefs de ce peloton avaient environ 27 télécommandes accrochées à leur cou pour essayer de contrôler les différents robots."

    M. Denomy et le groupe d'experts ont convenu que les tâches telles que l'utilisation de plusieurs télécommandes pour un seul gadget doivent être automatisées avant que les robots puissent être utilisés efficacement par les forces américaines.

    "Ce que j'ai décrit avec les contrôleurs, c'est que les humains travaillent pour les robots. Nous devons donc inverser cette tendance", a-t-il ajouté.

    Selon M. Denomy, des gadgets améliorent déjà les capacités de l'armée, tels que des smartphones spéciaux et des drones adaptés.

    Les Marines ont également testé un chien robot équipé d'un lance-roquettes dévastateur M72 à la fin de l'année dernière.

    Cependant, M. Denomy a insisté sur la nécessité de faire participer les humains à l'utilisation de ces technologies dans les situations de combat.

    "Je pense que l'époque où une machine est capable de comprendre l'éthique est encore loin", a-t-il averti.

    Source : Troy Denomy, Colonel de l'armée américaine

    Et vous ?

    Quel est votre avis sur le sujet ?
    Pensez-vous que le point de vue du Colonel Denomy soit crédible ou pertinent ?

    Voir aussi :

    L'armée de l'air américaine va introduire 1 000 drones contrôlés par l'IA pour améliorer ses capacités de combat aérien et réduire les coûts des avions militaires standard pilotés par des soldats

    L'armée américaine envisagerait d'équiper des chiens-robots semi-autonomes d'une nouvelle génération d'armes de combat, dans le but de les déployer avec les soldats sur les théâtres d'opérations

  13. #33
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 110
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 110
    Points : 56 815
    Points
    56 815
    Par défaut Les USA et la Chine semblent engagés dans une course à l’armement de robots-chiens pour des applis militaires
    Les USA et la Chine semblent engagés dans une course à l’armement de robots à 4 pattes pour des applications militaires
    Les robots-chiens sont de meilleurs tireurs d’élite, d’après une étude

    Les USA et la Chine semblent engagés dans une course à l’armement de robots à 4 pattes pour des applications militaires. C’est ce qui ressort de nombreux rapports et vidéos disponibles dans un contexte d’appels à bannir l’utilisation d’armes autonomes sur les champs de bataille. Les développements d’armes animées par l’intelligence artificielle ont plus que jamais le vent en poupe.

    L'armée chinoise a récemment dévoilé un nouveau type de compagnon de combat pour ses soldats : un robot-chien avec une mitrailleuse attachée à son dos.

    Dans une vidéo diffusée par l'agence de presse gouvernementale CCTV, on voit des membres des militaires chinois opérer sur un champ de tir aux côtés d'un robot à quatre pattes sur lequel est monté ce qui semble être une variante du fusil d'assaut QBZ-95 de 5,8 x 42 mm, dans le cadre des récents exercices militaires conjoints Golden Dragon 24 menés par la Chine et le Cambodge dans le golfe de Thaïlande.

    Dans un scénario, les soldats chinois se tiennent de part et d'autre d'une porte tandis que le chien robot pénètre dans le bâtiment devant eux ; dans un autre, le robot tire une rafale de balles alors qu'il avance sur une cible.

    « Il peut servir de nouveau membre dans nos opérations de combat urbain, remplaçant nos membres pour mener la reconnaissance, identifier l'ennemi et frapper la cible pendant notre entraînement », rapporte la CCTV des propos d’un soldat chinois montrant le robot en train d'opérer.

    L'année dernière, le Pentagone a expérimenté l'équipement de robots terrestres quadrupèdes avec sa carabine standard M4A1 de 5,56 x 45 mm, le fusil XM7 de 6,8 mm que l'armée américaine est en train d'adopter dans le cadre de son programme « Next Generation Squad Weapon », et même l'arme antichar légère M72 qui est en service au sein des troupes américaines depuis la guerre du Vietnam. Quelques semaines avant que CCTV ne publie ses images de chiens robots armés en action, le Marine Corps Special Operations Command (MARSOC) a révélé qu'il expérimentait l'ajout à ses propres chiens mécanisés de systèmes d'armes montés basés sur le système d'armes à distance SENTRY de l'entreprise de défense Onyx, basé sur l'intelligence artificielle.

    Les responsables américains de la défense se sont empressés de souligner que le développement de robots-chiens armés était, à ce stade, purement expérimental, destiné à aider les planificateurs militaires à explorer le domaine du possible en ce qui concerne les applications potentielles de systèmes robotiques révolutionnaires dans un futur conflit, comme l'a déclaré un responsable de l'armée en août dernier. Mais comme les soldats de l'armée de terre effectuent des exercices d'assaut urbain avec des robots-chiens et que le corps des Marines envisage de plus en plus d'utiliser des quadrupèdes mécaniques pour renforcer les formations futures grâce à la robotique intelligente, l'armée américaine pourrait bien être obligée d'envisager sérieusement d'adopter des chiens robots armés pour le combat, avant la Chine.

    Ces robots s’appuient sur de complexes algorithmes de contrôle pour s’équilibrer et se déplacer

    Du point de vue du développeur informatique, il s’agit de kits matériel - à la présentation visuelle similaire à celle d’un chien sur pattes – programmable via des API fournies par les constructeurs. C’est au travers de ces dernières, ainsi que d’une série de modules d’extensions, que le développeur peut aller à l’essentiel de l’application à mettre en œuvre.

    Ces robots s’appuient à la base sur des applications à de la détection et suivi d’objets. Dans ce cas, il y a au préalable collecte des images provenant de caméras avant puis détection d’objet sur une classe spécifiée. Cette détection utilise Tensorflow via le tensorflow_object_detector. Il accepte n'importe quel modèle Tensorflow et permet au développeur de spécifier un sous-ensemble de classes de détection incluses dans le modèle. Il effectue cet ensemble d'opérations pour un nombre prédéfini d'itérations, en bloquant pendant une durée prédéfinie entre chaque itération. L'application détermine ensuite l'emplacement de la détection la plus fiable de la classe spécifiée et se dirige vers l'objet.

    L’application est organisée en trois ensembles de processus Python communiquant avec le robot Spot. Le diagramme des processus est illustré ci-dessous. Le processus principal communique avec le robot Spot via GRPC et reçoit constamment des images. Ces images sont poussées dans la RAW_IMAGES_QUEUE et lues par les processus Tensorflow. Ces processus détectent des objets dans les images et poussent l'emplacement dans PROCESSED_BOXES_QUEUE. Le thread principal détermine alors l'emplacement de l'objet et envoie des commandes au robot pour qu'il se dirige vers l'objet.

    Code Python : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    55
    56
    57
    58
    59
    60
    61
    62
    63
    64
    65
    66
    67
    68
    69
    70
    71
    72
    73
    74
    75
    76
    77
    78
    79
    80
    81
    82
    83
    84
    85
    86
    87
    88
    89
    90
    91
    92
    93
    94
    95
    96
    97
    98
    99
    100
    101
    102
    103
    104
    105
    106
    107
    108
    109
    110
    111
    112
    113
    114
    115
    116
    117
    118
    119
    120
    121
    122
    123
    124
    125
    126
    127
    128
    129
    130
    131
    132
    133
    134
    135
    136
    137
    138
    139
    140
    141
    142
    143
    144
    145
    146
    147
    148
    149
    150
    151
    152
    153
    154
    155
    156
    157
    158
    159
    160
    161
    162
    163
    164
    165
    166
    167
    168
    169
    170
    171
    172
    173
    174
    175
    176
    177
    178
    179
    180
    181
    182
    183
    184
    185
    186
    187
    188
    189
    190
    191
    192
    193
    194
    195
    196
    197
    198
    199
    200
    201
    202
    203
    204
    205
    206
    207
    208
    209
    210
    211
    212
    213
    214
    215
    216
    217
    218
    219
    220
    221
    222
    223
    224
    225
    226
    227
    228
    229
    230
    231
    232
    233
    234
    235
    236
    237
    238
    239
    240
    241
    242
    243
    244
    245
    246
    247
    248
    249
    250
    251
    252
    253
    254
    255
    256
    257
    258
    259
    260
    261
    262
    263
    264
    265
    266
    267
    268
    269
    270
    271
    272
    273
    274
    275
    276
    277
    278
    279
    280
    281
    282
    283
    284
    285
    286
    287
    288
    289
    290
    291
    292
    293
    294
    295
    296
    297
    298
    299
    300
    301
    302
    303
    304
    305
    306
    307
    308
    309
    310
    311
    312
    313
    314
    315
    316
    317
    318
    319
    320
    321
    322
    323
    324
    325
    326
    327
    328
    329
    330
    331
    332
    333
    334
    335
    336
    337
    338
    339
    340
    341
    342
    343
    344
    345
    346
    347
    348
    349
    350
    351
    352
    353
    354
    355
    356
    357
    358
    359
    360
    361
    362
    363
    364
    365
    366
    367
    368
    369
    370
    371
    372
    373
    374
    375
    376
    377
    378
    379
    380
    381
    382
    383
    384
    385
    386
    387
    388
    389
    390
    391
    392
    393
    394
    395
    396
    397
    398
    399
    400
    401
    402
    403
    404
    405
    406
    407
    408
    409
    410
    411
    412
    413
    414
    415
    416
    417
    418
    419
    420
    421
    422
    423
    424
    425
    426
    427
    428
    429
    430
    431
    432
    433
    434
    435
    436
    437
    438
    439
    440
    441
    442
    443
    444
    445
    446
    447
    448
    449
    450
    451
    452
    453
    454
    455
    456
    457
    458
    459
    460
    461
    462
    463
    464
    465
    466
    467
    468
    469
    470
    471
    472
    473
    474
    475
    476
    477
    478
    479
    480
    481
    482
    483
    484
    485
    486
    487
    488
    489
    490
    491
    492
    493
    494
    495
    496
    497
    498
    499
    500
    501
    502
    503
    504
    505
    506
    507
    508
    509
    510
    511
    512
    513
    514
    515
    516
    517
    518
    519
    520
    521
    522
    523
    524
    525
    526
    527
    528
    529
    530
    531
    532
    533
    534
    535
    536
    537
    538
    539
    540
    541
    542
    543
    544
    545
    546
    547
    548
    549
    550
    551
    552
    553
    554
    555
    556
    557
    558
    559
    560
    561
    562
    563
    564
    565
    566
    567
    568
    569
    570
    571
    572
    573
    574
    575
    576
    577
    578
    579
    580
    581
    582
    583
    584
    585
    586
    587
    588
    589
    590
    591
    592
    593
    594
    595
    596
    597
    598
    599
    600
    601
    602
    603
    604
    605
    606
    607
    608
    609
    610
    611
    612
    613
    614
    615
    616
    617
    618
    619
    620
    621
    622
    623
    624
    625
    626
    627
    628
    629
    630
    631
    632
    633
    634
    635
    636
    637
    638
    639
    640
    641
    642
    643
    644
    645
    646
    647
    648
    649
    650
    651
    652
    653
    654
    655
    656
    657
    658
    659
    660
    661
    662
    663
    664
    665
    666
    667
    668
    669
    670
    671
    672
    673
    674
    675
    676
    677
    678
    679
    680
    681
    682
    683
    684
    685
    686
    687
    688
    689
    690
    691
    692
    693
    694
    695
    696
    697
    698
    699
    700
    701
    702
    703
    704
    705
    706
    707
    708
    709
    710
    711
    712
    713
    714
    715
    716
    717
    718
    719
    720
    721
    722
    723
    724
    725
    726
    727
    728
    729
    730
    731
    732
    733
    734
    735
    736
    737
    738
    739
    740
    741
    742
    743
    744
    745
    746
    747
    748
    749
    750
    751
    752
    753
    754
    755
    756
    757
    758
    759
    760
    761
    762
    763
    764
    765
    766
    767
    768
    769
    770
    771
    772
    773
    774
    775
    776
    777
    778
    779
    780
    781
    782
    783
    784
    785
    786
    787
    788
    789
    790
    791
    792
    793
    794
    795
    796
    797
    798
    799
    800
    801
    802
    803
    804
    805
    806
    807
    808
    809
    810
    811
    812
    813
    814
    815
    816
    817
    818
    819
    820
    821
    822
    823
    824
    825
    826
    827
    828
    829
    830
    831
    832
    833
    834
    835
    836
    837
    838
    839
    # Copyright (c) 2023 Boston Dynamics, Inc.  All rights reserved.
    #
    # Downloading, reproducing, distributing or otherwise using the SDK Software
    # is subject to the terms and conditions of the Boston Dynamics Software
    # Development Kit License (20191101-BDSDK-SL).
     
    """Tutorial to show how to use the Boston Dynamics API to detect and follow an object"""
    import argparse
    import io
    import json
    import math
    import os
    import signal
    import sys
    import time
    from multiprocessing import Barrier, Process, Queue, Value
    from queue import Empty, Full
    from threading import BrokenBarrierError, Thread
     
    import cv2
    import numpy as np
    from PIL import Image
    from scipy import ndimage
    from tensorflow_object_detection import DetectorAPI
     
    import bosdyn.client
    import bosdyn.client.util
    from bosdyn import geometry
    from bosdyn.api import geometry_pb2 as geo
    from bosdyn.api import image_pb2, trajectory_pb2
    from bosdyn.api.image_pb2 import ImageSource
    from bosdyn.api.spot import robot_command_pb2 as spot_command_pb2
    from bosdyn.client.async_tasks import AsyncPeriodicQuery, AsyncTasks
    from bosdyn.client.frame_helpers import (GROUND_PLANE_FRAME_NAME, VISION_FRAME_NAME, get_a_tform_b,
                                             get_vision_tform_body)
    from bosdyn.client.image import ImageClient
    from bosdyn.client.lease import LeaseClient, LeaseKeepAlive
    from bosdyn.client.math_helpers import Quat, SE3Pose
    from bosdyn.client.robot_command import (CommandFailedError, CommandTimedOutError,
                                             RobotCommandBuilder, RobotCommandClient, blocking_stand)
    from bosdyn.client.robot_state import RobotStateClient
     
    LOGGER = bosdyn.client.util.get_logger()
     
    SHUTDOWN_FLAG = Value('i', 0)
     
    # Don't let the queues get too backed up
    QUEUE_MAXSIZE = 10
     
    # This is a multiprocessing.Queue for communication between the main process and the
    # Tensorflow processes.
    # Entries in this queue are in the format:
     
    # {
    #     'source': Name of the camera,
    #     'world_tform_cam': transform from VO to camera,
    #     'world_tform_gpe':  transform from VO to ground plane,
    #     'raw_image_time': Time when the image was collected,
    #     'cv_image': The decoded image,
    #     'visual_dims': (cols, rows),
    #     'depth_image': depth image proto,
    #     'system_cap_time': Time when the image was received by the main process,
    #     'image_queued_time': Time when the image was done preprocessing and queued
    # }
    RAW_IMAGES_QUEUE = Queue(QUEUE_MAXSIZE)
     
    # This is a multiprocessing.Queue for communication between the Tensorflow processes and
    # the bbox print process. This is meant for running in a containerized environment with no access
    # to an X display
    # Entries in this queue have the following fields in addition to those in :
    # {
    #   'processed_image_start_time':  Time when the image was received by the TF process,
    #   'processed_image_end_time':  Time when the image was processing for bounding boxes
    #   'boxes': list of detected bounding boxes for the processed image
    #   'classes': classes of objects,
    #   'scores': confidence scores,
    # }
    PROCESSED_BOXES_QUEUE = Queue(QUEUE_MAXSIZE)
     
    # Barrier for waiting on Tensorflow processes to start, initialized in main()
    TENSORFLOW_PROCESS_BARRIER = None
     
    COCO_CLASS_DICT = {
        1: 'person',
        2: 'bicycle',
        3: 'car',
        4: 'motorcycle',
        5: 'airplane',
        6: 'bus',
        7: 'train',
        8: 'truck',
        9: 'boat',
        10: 'trafficlight',
        11: 'firehydrant',
        13: 'stopsign',
        14: 'parkingmeter',
        15: 'bench',
        16: 'bird',
        17: 'cat',
        18: 'dog',
        19: 'horse',
        20: 'sheep',
        21: 'cow',
        22: 'elephant',
        23: 'bear',
        24: 'zebra',
        25: 'giraffe',
        27: 'backpack',
        28: 'umbrella',
        31: 'handbag',
        32: 'tie',
        33: 'suitcase',
        34: 'frisbee',
        35: 'skis',
        36: 'snowboard',
        37: 'sportsball',
        38: 'kite',
        39: 'baseballbat',
        40: 'baseballglove',
        41: 'skateboard',
        42: 'surfboard',
        43: 'tennisracket',
        44: 'bottle',
        46: 'wineglass',
        47: 'cup',
        48: 'fork',
        49: 'knife',
        50: 'spoon',
        51: 'bowl',
        52: 'banana',
        53: 'apple',
        54: 'sandwich',
        55: 'orange',
        56: 'broccoli',
        57: 'carrot',
        58: 'hotdog',
        59: 'pizza',
        60: 'donut',
        61: 'cake',
        62: 'chair',
        63: 'couch',
        64: 'pottedplant',
        65: 'bed',
        67: 'diningtable',
        70: 'toilet',
        72: 'tv',
        73: 'laptop',
        74: 'mouse',
        75: 'remote',
        76: 'keyboard',
        77: 'cellphone',
        78: 'microwave',
        79: 'oven',
        80: 'toaster',
        81: 'sink',
        82: 'refrigerator',
        84: 'book',
        85: 'clock',
        86: 'vase',
        87: 'scissors',
        88: 'teddybear',
        89: 'hairdrier',
        90: 'toothbrush'
    }
     
    # Mapping from visual to depth data
    VISUAL_SOURCE_TO_DEPTH_MAP_SOURCE = {
        'frontleft_fisheye_image': 'frontleft_depth_in_visual_frame',
        'frontright_fisheye_image': 'frontright_depth_in_visual_frame'
    }
    ROTATION_ANGLES = {
        'back_fisheye_image': 0,
        'frontleft_fisheye_image': -78,
        'frontright_fisheye_image': -102,
        'left_fisheye_image': 0,
        'right_fisheye_image': 180
    }
     
     
    def _update_thread(async_task):
        while True:
            async_task.update()
            time.sleep(0.01)
     
     
    class AsyncImage(AsyncPeriodicQuery):
        """Grab image."""
     
        def __init__(self, image_client, image_sources):
            # Period is set to be about 15 FPS
            super(AsyncImage, self).__init__('images', image_client, LOGGER, period_sec=0.067)
            self.image_sources = image_sources
     
        def _start_query(self):
            return self._client.get_image_from_sources_async(self.image_sources)
     
     
    class AsyncRobotState(AsyncPeriodicQuery):
        """Grab robot state."""
     
        def __init__(self, robot_state_client):
            # period is set to be about the same rate as detections on the CORE AI
            super(AsyncRobotState, self).__init__('robot_state', robot_state_client, LOGGER,
                                                  period_sec=0.02)
     
        def _start_query(self):
            return self._client.get_robot_state_async()
     
     
    def get_source_list(image_client):
        """Gets a list of image sources and filters based on config dictionary
     
        Args:
            image_client: Instantiated image client
        """
     
        # We are using only the visual images with their corresponding depth sensors
        sources = image_client.list_image_sources()
        source_list = []
        for source in sources:
            if source.image_type == ImageSource.IMAGE_TYPE_VISUAL:
                # only append if sensor has corresponding depth sensor
                if source.name in VISUAL_SOURCE_TO_DEPTH_MAP_SOURCE:
                    source_list.append(source.name)
                    source_list.append(VISUAL_SOURCE_TO_DEPTH_MAP_SOURCE[source.name])
        return source_list
     
     
    def capture_images(image_task, sleep_between_capture):
        """ Captures images and places them on the queue
     
        Args:
            image_task (AsyncImage): Async task that provides the images response to use
            sleep_between_capture (float): Time to sleep between each image capture
        """
        while not SHUTDOWN_FLAG.value:
            get_im_resp = image_task.proto
            start_time = time.time()
            if not get_im_resp:
                continue
            depth_responses = {
                img.source.name: img
                for img in get_im_resp
                if img.source.image_type == ImageSource.IMAGE_TYPE_DEPTH
            }
            entry = {}
            for im_resp in get_im_resp:
                if im_resp.source.image_type == ImageSource.IMAGE_TYPE_VISUAL:
                    source = im_resp.source.name
                    depth_source = VISUAL_SOURCE_TO_DEPTH_MAP_SOURCE[source]
                    depth_image = depth_responses[depth_source]
     
                    acquisition_time = im_resp.shot.acquisition_time
                    image_time = acquisition_time.seconds + acquisition_time.nanos * 1e-9
     
                    try:
                        image = Image.open(io.BytesIO(im_resp.shot.image.data))
                        source = im_resp.source.name
     
                        image = ndimage.rotate(image, ROTATION_ANGLES[source])
                        if im_resp.shot.image.pixel_format == image_pb2.Image.PIXEL_FORMAT_GREYSCALE_U8:
                            image = cv2.cvtColor(image, cv2.COLOR_GRAY2RGB)  # Converted to RGB for TF
                        tform_snapshot = im_resp.shot.transforms_snapshot
                        frame_name = im_resp.shot.frame_name_image_sensor
                        world_tform_cam = get_a_tform_b(tform_snapshot, VISION_FRAME_NAME, frame_name)
                        world_tform_gpe = get_a_tform_b(tform_snapshot, VISION_FRAME_NAME,
                                                        GROUND_PLANE_FRAME_NAME)
                        entry[source] = {
                            'source': source,
                            'world_tform_cam': world_tform_cam,
                            'world_tform_gpe': world_tform_gpe,
                            'raw_image_time': image_time,
                            'cv_image': image,
                            'visual_dims': (im_resp.shot.image.cols, im_resp.shot.image.rows),
                            'depth_image': depth_image,
                            'system_cap_time': start_time,
                            'image_queued_time': time.time()
                        }
                    except Exception as exc:  # pylint: disable=broad-except
                        print(f'Exception occurred during image capture {exc}')
            try:
                RAW_IMAGES_QUEUE.put_nowait(entry)
            except Full as exc:
                print(f'RAW_IMAGES_QUEUE is full: {exc}')
            time.sleep(sleep_between_capture)
     
     
    def start_tensorflow_processes(num_processes, model_path, detection_class, detection_threshold,
                                   max_processing_delay):
        """Starts Tensorflow processes in parallel.
     
        It does not keep track of the processes once they are started because they run indefinitely
        and are never joined back to the main process.
     
        Args:
            num_processes (int): Number of Tensorflow processes to start in parallel.
            model_path (str): Filepath to the Tensorflow model to use.
            detection_class (int): Detection class to detect
            detection_threshold (float): Detection threshold to apply to all Tensorflow detections.
            max_processing_delay (float): Allowed delay before processing an incoming image.
        """
        processes = []
        for _ in range(num_processes):
            process = Process(
                target=process_images, args=(
                    model_path,
                    detection_class,
                    detection_threshold,
                    max_processing_delay,
                ), daemon=True)
            process.start()
            processes.append(process)
        return processes
     
     
    def process_images(model_path, detection_class, detection_threshold, max_processing_delay):
        """Starts Tensorflow and detects objects in the incoming images.
     
        Args:
            model_path (str): Filepath to the Tensorflow model to use.
            detection_class (int): Detection class to detect
            detection_threshold (float): Detection threshold to apply to all Tensorflow detections.
            max_processing_delay (float): Allowed delay before processing an incoming image.
        """
     
        odapi = DetectorAPI(path_to_ckpt=model_path)
        num_processed_skips = 0
     
        if TENSORFLOW_PROCESS_BARRIER is None:
            return
     
        try:
            TENSORFLOW_PROCESS_BARRIER.wait()
        except BrokenBarrierError as exc:
            print(f'Error waiting for Tensorflow processes to initialize: {exc}')
            return False
     
        while not SHUTDOWN_FLAG.value:
            try:
                entry = RAW_IMAGES_QUEUE.get_nowait()
            except Empty:
                time.sleep(0.1)
                continue
            for _, capture in entry.items():
                start_time = time.time()
                processing_delay = time.time() - capture['raw_image_time']
                if processing_delay > max_processing_delay:
                    num_processed_skips += 1
                    print(f'skipped image because it took {processing_delay}')
                    continue  # Skip image due to delay
     
                image = capture['cv_image']
                boxes, scores, classes, _ = odapi.process_frame(image)
                confident_boxes = []
                confident_object_classes = []
                confident_scores = []
                if len(boxes) == 0:
                    print('no detections founds')
                    continue
                for box, score, box_class in sorted(zip(boxes, scores, classes), key=lambda x: x[1],
                                                    reverse=True):
                    if score > detection_threshold and box_class == detection_class:
                        confident_boxes.append(box)
                        confident_object_classes.append(COCO_CLASS_DICT[box_class])
                        confident_scores.append(score)
                        image = cv2.rectangle(image, (box[1], box[0]), (box[3], box[2]), (255, 0, 0), 2)
     
                capture['processed_image_start_time'] = start_time
                capture['processed_image_end_time'] = time.time()
                capture['boxes'] = confident_boxes
                capture['classes'] = confident_object_classes
                capture['scores'] = confident_scores
                capture['cv_image'] = image
            try:
                PROCESSED_BOXES_QUEUE.put_nowait(entry)
            except Full as exc:
                print(f'PROCESSED_BOXES_QUEUE is full: {exc}')
        print('tf process ending')
        return True
     
     
    def get_go_to(world_tform_object, robot_state, mobility_params, dist_margin=0.5):
        """Gets trajectory command to a goal location
     
        Args:
            world_tform_object (SE3Pose): Transform from vision frame to target object
            robot_state (RobotState): Current robot state
            mobility_params (MobilityParams): Mobility parameters
            dist_margin (float): Distance margin to target
        """
        vo_tform_robot = get_vision_tform_body(robot_state.kinematic_state.transforms_snapshot)
        print(f'robot pos: {vo_tform_robot}')
        delta_ewrt_vo = np.array(
            [world_tform_object.x - vo_tform_robot.x, world_tform_object.y - vo_tform_robot.y, 0])
        norm = np.linalg.norm(delta_ewrt_vo)
        if norm == 0:
            return None
        delta_ewrt_vo_norm = delta_ewrt_vo / norm
        heading = _get_heading(delta_ewrt_vo_norm)
        vo_tform_goal = np.array([
            world_tform_object.x - delta_ewrt_vo_norm[0] * dist_margin,
            world_tform_object.y - delta_ewrt_vo_norm[1] * dist_margin
        ])
        se2_pose = geo.SE2Pose(position=geo.Vec2(x=vo_tform_goal[0], y=vo_tform_goal[1]), angle=heading)
        tag_cmd = RobotCommandBuilder.synchro_se2_trajectory_command(se2_pose,
                                                                     frame_name=VISION_FRAME_NAME,
                                                                     params=mobility_params)
        return tag_cmd
     
     
    def _get_heading(xhat):
        zhat = [0.0, 0.0, 1.0]
        yhat = np.cross(zhat, xhat)
        mat = np.array([xhat, yhat, zhat]).transpose()
        return Quat.from_matrix(mat).to_yaw()
     
     
    def set_default_body_control():
        """Set default body control params to current body position"""
        footprint_R_body = geometry.EulerZXY()
        position = geo.Vec3(x=0.0, y=0.0, z=0.0)
        rotation = footprint_R_body.to_quaternion()
        pose = geo.SE3Pose(position=position, rotation=rotation)
        point = trajectory_pb2.SE3TrajectoryPoint(pose=pose)
        traj = trajectory_pb2.SE3Trajectory(points=[point])
        return spot_command_pb2.BodyControlParams(base_offset_rt_footprint=traj)
     
     
    def get_mobility_params():
        """Gets mobility parameters for following"""
        vel_desired = .75
        speed_limit = geo.SE2VelocityLimit(
            max_vel=geo.SE2Velocity(linear=geo.Vec2(x=vel_desired, y=vel_desired), angular=.25))
        body_control = set_default_body_control()
        mobility_params = spot_command_pb2.MobilityParams(vel_limit=speed_limit, obstacle_params=None,
                                                          body_control=body_control,
                                                          locomotion_hint=spot_command_pb2.HINT_TROT)
        return mobility_params
     
     
    def depth_to_xyz(depth, pixel_x, pixel_y, focal_length, principal_point):
        """Calculate the transform to point in image using camera intrinsics and depth"""
        x = depth * (pixel_x - principal_point.x) / focal_length.x
        y = depth * (pixel_y - principal_point.y) / focal_length.y
        z = depth
        return x, y, z
     
     
    def remove_ground_from_depth_image(raw_depth_image, focal_length, principal_point, world_tform_cam,
                                       world_tform_gpe, ground_tolerance=0.04):
        """ Simple ground plane removal algorithm. Uses ground height
            and does simple z distance filtering.
     
        Args:
            raw_depth_image (np.array): Depth image
            focal_length (Vec2): Focal length of camera that produced the depth image
            principal_point (Vec2): Principal point of camera that produced the depth image
            world_tform_cam (SE3Pose): Transform from VO to camera frame
            world_tform_gpe (SE3Pose): Transform from VO to GPE frame
            ground_tolerance (float): Distance in meters to add to the ground plane
        """
        new_depth_image = raw_depth_image
     
        # same functions as depth_to_xyz, but converted to np functions
        indices = np.indices(raw_depth_image.shape)
        xs = raw_depth_image * (indices[1] - principal_point.x) / focal_length.x
        ys = raw_depth_image * (indices[0] - principal_point.y) / focal_length.y
        zs = raw_depth_image
     
        # create xyz point cloud
        camera_tform_points = np.stack([xs, ys, zs], axis=2)
        # points in VO frame
        world_tform_points = world_tform_cam.transform_cloud(camera_tform_points)
        # array of booleans where True means the point was below the ground plane plus tolerance
        world_tform_points_mask = (world_tform_gpe.z - world_tform_points[:, :, 2]) < ground_tolerance
        # remove data below ground plane
        new_depth_image[world_tform_points_mask] = 0
        return new_depth_image
     
     
    def get_distance_to_closest_object_depth(x_min, x_max, y_min, y_max, depth_scale, raw_depth_image,
                                             histogram_bin_size=0.50, minimum_number_of_points=10,
                                             max_distance=8.0):
        """Make a histogram of distances to points in the cloud and take the closest distance with
        enough points.
     
        Args:
            x_min (int): minimum x coordinate (column) of object to find
            x_max (int): maximum x coordinate (column) of object to find
            y_min (int): minimum y coordinate (row) of object to find
            y_max (int): maximum y coordinate (row) of object to find
            depth_scale (float): depth scale of the image to convert from sensor value to meters
            raw_depth_image (np.array): matrix of depth pixels
            histogram_bin_size (float): size of each bin of distances
            minimum_number_of_points (int): minimum number of points before returning depth
            max_distance (float): maximum distance to object in meters
        """
        num_bins = math.ceil(max_distance / histogram_bin_size)
     
        # get a sub-rectangle of the bounding box out of the whole image, then flatten
        obj_depths = (raw_depth_image[y_min:y_max, x_min:x_max]).flatten()
        obj_depths = obj_depths / depth_scale
        obj_depths = obj_depths[obj_depths != 0]
     
        hist, hist_edges = np.histogram(obj_depths, bins=num_bins, range=(0, max_distance))
     
        edges_zipped = zip(hist_edges[:-1], hist_edges[1:])
        # Iterate over the histogram and return the first distance with enough points.
        for entry, edges in zip(hist, edges_zipped):
            if entry > minimum_number_of_points:
                filtered_depths = obj_depths[(obj_depths > edges[0]) & (obj_depths < edges[1])]
                if len(filtered_depths) == 0:
                    continue
                return np.mean(filtered_depths)
     
        return max_distance
     
     
    def rotate_about_origin_degrees(origin, point, angle):
        """
        Rotate a point counterclockwise by a given angle around a given origin.
     
        Args:
            origin (tuple): Origin to rotate the point around
            point (tuple): Point to rotate
            angle (float): Angle in degrees
        """
        return rotate_about_origin(origin, point, math.radians(angle))
     
     
    def rotate_about_origin(origin, point, angle):
        """
        Rotate a point counterclockwise by a given angle around a given origin.
     
        Args:
            origin (tuple): Origin to rotate the point around
            point (tuple): Point to rotate
            angle (float): Angle in radians
        """
        orig_x, orig_y = origin
        pnt_x, pnt_y = point
     
        ret_x = orig_x + math.cos(angle) * (pnt_x - orig_x) - math.sin(angle) * (pnt_y - orig_y)
        ret_y = orig_y + math.sin(angle) * (pnt_x - orig_x) + math.cos(angle) * (pnt_y - orig_y)
        return int(ret_x), int(ret_y)
     
     
    def get_object_position(world_tform_cam, world_tform_gpe, visual_dims, depth_image, bounding_box,
                            rotation_angle):
        """
        Extract the bounding box, then find the mode in that region.
     
        Args:
            world_tform_cam (SE3Pose): SE3 transform from world to camera frame
            visual_dims (Tuple): (cols, rows) tuple from the visual image
            depth_image (ImageResponse): From a depth camera corresponding to the visual_image
            bounding_box (list): Bounding box from tensorflow
            rotation_angle (float): Angle (in degrees) to rotate depth image to match cam image rotation
        """
     
        # Make sure there are two images.
        if visual_dims is None or depth_image is None:
            # Fail.
            return
     
        # Rotate bounding box back to original frame
        points = [(bounding_box[1], bounding_box[0]), (bounding_box[3], bounding_box[0]),
                  (bounding_box[3], bounding_box[2]), (bounding_box[1], bounding_box[2])]
     
        origin = (visual_dims[0] / 2, visual_dims[1] / 2)
     
        points_rot = [rotate_about_origin_degrees(origin, point, rotation_angle) for point in points]
     
        # Get the bounding box corners.
        y_min = max(0, min([point[1] for point in points_rot]))
        x_min = max(0, min([point[0] for point in points_rot]))
        y_max = min(visual_dims[1], max([point[1] for point in points_rot]))
        x_max = min(visual_dims[0], max([point[0] for point in points_rot]))
     
        # Check that the bounding box is valid.
        if (x_min < 0 or y_min < 0 or x_max > visual_dims[0] or y_max > visual_dims[1]):
            print(f'Bounding box is invalid: ({x_min}, {y_min}) | ({x_max}, {y_max})')
            print(f'Bounds: ({visual_dims[0]}, {visual_dims[1]})')
            return
     
        # Unpack the images.
        try:
            if depth_image.shot.image.pixel_format == image_pb2.Image.PIXEL_FORMAT_DEPTH_U16:
                dtype = np.uint16
            else:
                dtype = np.uint8
            img = np.fromstring(depth_image.shot.image.data, dtype=dtype)
            if depth_image.shot.image.format == image_pb2.Image.FORMAT_RAW:
                img = img.reshape(depth_image.shot.image.rows, depth_image.shot.image.cols)
            else:
                img = cv2.imdecode(img, -1)
            depth_image_pixels = img
            depth_image_pixels = remove_ground_from_depth_image(
                depth_image_pixels, depth_image.source.pinhole.intrinsics.focal_length,
                depth_image.source.pinhole.intrinsics.principal_point, world_tform_cam, world_tform_gpe)
            # Get the depth data from the region in the bounding box.
            max_distance = 8.0
            depth = get_distance_to_closest_object_depth(x_min, x_max, y_min, y_max,
                                                         depth_image.source.depth_scale,
                                                         depth_image_pixels, max_distance=max_distance)
     
            if depth >= max_distance:
                # Not enough depth data.
                print('Not enough depth data.')
                return False
            else:
                print(f'distance to object: {depth}')
     
            center_x = round((x_max - x_min) / 2.0 + x_min)
            center_y = round((y_max - y_min) / 2.0 + y_min)
     
            tform_x, tform_y, tform_z = depth_to_xyz(
                depth, center_x, center_y, depth_image.source.pinhole.intrinsics.focal_length,
                depth_image.source.pinhole.intrinsics.principal_point)
            camera_tform_obj = SE3Pose(tform_x, tform_y, tform_z, Quat())
     
            return world_tform_cam * camera_tform_obj
        except Exception as exc:  # pylint: disable=broad-except
            print(f'Error getting object position: {exc}')
            return
     
     
    def _check_model_path(model_path):
        if model_path is None or \
        not os.path.exists(model_path) or \
        not os.path.isfile(model_path):
            print(f'ERROR, could not find model file {model_path}')
            return False
        return True
     
     
    def _check_and_load_json_classes(config_path):
        if os.path.isfile(config_path):
            with open(config_path) as json_classes:
                global COCO_CLASS_DICT  # pylint: disable=global-statement
                COCO_CLASS_DICT = json.load(json_classes)
     
     
    def _find_highest_conf_source(processed_boxes_entry):
        highest_conf_source = None
        max_score = 0
        for key, capture in processed_boxes_entry.items():
            if 'scores' in capture.keys():
                if len(capture['scores']) > 0 and capture['scores'][0] > max_score:
                    highest_conf_source = key
                    max_score = capture['scores'][0]
        return highest_conf_source
     
     
    def signal_handler(signal, frame):
        print('Interrupt caught, shutting down')
        SHUTDOWN_FLAG.value = 1
     
     
    def main():
        """Command line interface."""
     
        parser = argparse.ArgumentParser()
        parser.add_argument(
            '--model-path', default='/model.pb', help=
            ('Local file path to the Tensorflow model, example pre-trained models can be found at '
             'https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/tf1_detection_zoo.md'
            ))
        parser.add_argument('--classes', default='/classes.json', type=str,
                            help='File containing json mapping of object class IDs to class names')
        parser.add_argument('--number-tensorflow-processes', default=1, type=int,
                            help='Number of Tensorflow processes to run in parallel')
        parser.add_argument('--detection-threshold', default=0.7, type=float,
                            help='Detection threshold to use for Tensorflow detections')
        parser.add_argument(
            '--sleep-between-capture', default=0.2, type=float,
            help=('Seconds to sleep between each image capture loop iteration, which captures '
                  'an image from all cameras'))
        parser.add_argument(
            '--detection-class', default=1, type=int,
            help=('Detection classes to use in the Tensorflow model.'
                  'Default is to use 1, which is a person in the Coco dataset'))
        parser.add_argument(
            '--max-processing-delay', default=7.0, type=float,
            help=('Maximum allowed delay for processing an image. '
                  'Any image older than this value will be skipped'))
        parser.add_argument('--test-mode', action='store_true',
                            help='Run application in test mode, don\'t execute commands')
     
        bosdyn.client.util.add_base_arguments(parser)
        bosdyn.client.util.add_payload_credentials_arguments(parser)
        options = parser.parse_args()
        signal.signal(signal.SIGINT, signal_handler)
        try:
            # Make sure the model path is a valid file
            if not _check_model_path(options.model_path):
                return False
     
            # Check for classes json file, otherwise use the COCO class dictionary
            _check_and_load_json_classes(options.classes)
     
            global TENSORFLOW_PROCESS_BARRIER  # pylint: disable=global-statement
            TENSORFLOW_PROCESS_BARRIER = Barrier(options.number_tensorflow_processes + 1)
            # Start Tensorflow processes
            tf_processes = start_tensorflow_processes(options.number_tensorflow_processes,
                                                      options.model_path, options.detection_class,
                                                      options.detection_threshold,
                                                      options.max_processing_delay)
     
            # sleep to give the Tensorflow processes time to initialize
            try:
                TENSORFLOW_PROCESS_BARRIER.wait()
            except BrokenBarrierError as exc:
                print(f'Error waiting for Tensorflow processes to initialize: {exc}')
                return False
            # Start the API related things
     
            # Create robot object with a world object client
            sdk = bosdyn.client.create_standard_sdk('SpotFollowClient')
            robot = sdk.create_robot(options.hostname)
     
            if options.payload_credentials_file:
                robot.authenticate_from_payload_credentials(
                    *bosdyn.client.util.get_guid_and_secret(options))
            else:
                bosdyn.client.util.authenticate(robot)
     
            # Time sync is necessary so that time-based filter requests can be converted
            robot.time_sync.wait_for_sync()
     
            # Verify the robot is not estopped and that an external application has registered and holds
            # an estop endpoint.
            assert not robot.is_estopped(), 'Robot is estopped. Please use an external E-Stop client,' \
                                            ' such as the estop SDK example, to configure E-Stop.'
     
            # Create the sdk clients
            robot_state_client = robot.ensure_client(RobotStateClient.default_service_name)
            robot_command_client = robot.ensure_client(RobotCommandClient.default_service_name)
            lease_client = robot.ensure_client(LeaseClient.default_service_name)
            image_client = robot.ensure_client(ImageClient.default_service_name)
            source_list = get_source_list(image_client)
            image_task = AsyncImage(image_client, source_list)
            robot_state_task = AsyncRobotState(robot_state_client)
            task_list = [image_task, robot_state_task]
            _async_tasks = AsyncTasks(task_list)
            print('Detect and follow client connected.')
     
            lease = lease_client.take()
            lease_keep = LeaseKeepAlive(lease_client)
            # Power on the robot and stand it up
            resp = robot.power_on()
            try:
                blocking_stand(robot_command_client)
            except CommandFailedError as exc:
                print(f'Error ({exc}) occurred while trying to stand. Check robot surroundings.')
                return False
            except CommandTimedOutError as exc:
                print(f'Stand command timed out: {exc}')
                return False
            print('Robot powered on and standing.')
            params_set = get_mobility_params()
     
            # This thread starts the async tasks for image and robot state retrieval
            update_thread = Thread(target=_update_thread, args=[_async_tasks])
            update_thread.daemon = True
            update_thread.start()
            # Wait for the first responses.
            while any(task.proto is None for task in task_list):
                time.sleep(0.1)
     
            # Start image capture process
            image_capture_thread = Process(target=capture_images,
                                           args=(image_task, options.sleep_between_capture),
                                           daemon=True)
            image_capture_thread.start()
            while not SHUTDOWN_FLAG.value:
                # This comes from the tensorflow processes and limits the rate of this loop
                try:
                    entry = PROCESSED_BOXES_QUEUE.get_nowait()
                except Empty:
                    continue
                # find the highest confidence bounding box
                highest_conf_source = _find_highest_conf_source(entry)
                if highest_conf_source is None:
                    # no boxes or scores found
                    continue
                capture_to_use = entry[highest_conf_source]
                raw_time = capture_to_use['raw_image_time']
                time_gap = time.time() - raw_time
                if time_gap > options.max_processing_delay:
                    continue  # Skip image due to delay
     
                # Find the transform to the highest confidence object using the depth sensor
                get_object_position_start = time.time()
                robot_state = robot_state_task.proto
                world_tform_gpe = get_a_tform_b(robot_state.kinematic_state.transforms_snapshot,
                                                VISION_FRAME_NAME, GROUND_PLANE_FRAME_NAME)
                world_tform_object = get_object_position(
                    capture_to_use['world_tform_cam'], world_tform_gpe, capture_to_use['visual_dims'],
                    capture_to_use['depth_image'], capture_to_use['boxes'][0],
                    ROTATION_ANGLES[capture_to_use['source']])
                get_object_position_end = time.time()
                print(f'system_cap_time: {capture_to_use["system_cap_time"]}, '
                      f'image_queued_time: {capture_to_use["image_queued_time"]}, '
                      f'processed_image_start_time: {capture_to_use["processed_image_start_time"]}, '
                      f'processed_image_end_time: {capture_to_use["processed_image_end_time"]}, '
                      f'get_object_position_start_time: {get_object_position_start}, '
                      f'get_object_position_end_time: {get_object_position_end}, ')
     
                # get_object_position can fail if there is insufficient depth sensor information
                if not world_tform_object:
                    continue
     
                scores = capture_to_use['scores']
                print(f'Position of object with confidence {scores[0]}: {world_tform_object}')
                print(f'Process latency: {time.time() - capture_to_use["system_cap_time"]}')
                tag_cmd = get_go_to(world_tform_object, robot_state, params_set)
                end_time = 15.0
                if tag_cmd is not None:
                    if not options.test_mode:
                        print('executing command')
                        robot_command_client.robot_command(lease=None, command=tag_cmd,
                                                           end_time_secs=time.time() + end_time)
                    else:
                        print('Running in test mode, skipping command.')
     
            # Shutdown lease keep-alive and return lease gracefully.
            lease_keep.shutdown()
            lease_client.return_lease(lease)
            return True
        except Exception as exc:  # pylint: disable=broad-except
            LOGGER.error('Spot Tensorflow Detector threw an exception: %s', exc)
            # Shutdown lease keep-alive and return lease gracefully.
            return False 
     
     
    if __name__ == '__main__':
        if not main():
            sys.exit(1)

    Tous les pays sont lancés dans le développement d’armes animées par l’intelligence artificielle

    Suite aux attaques menées par les militants du Hamas le 7 octobre dernier, les forces israéliennes ont frappé plus de 22 000 cibles à l'intérieur de Gaza. Depuis la fin de la trêve temporaire, le 1er décembre, l'armée de l'air israélienne a frappé plus de 3500 sites. Pour y parvenir, elle met à contribution une intelligence artificielle dénommée « Gospel » afin d'identifier en temps réel le plus grand nombre de cibles ennemies.


    En septembre 2022, l'armée israélienne a commencé à installer une arme automatique à un poste de contrôle très fréquenté de la ville d'Hébron (Al-Khalil), en Cisjordanie occupée. Les tourelles jumelles ont été installées au sommet d'une tour de garde surplombant le camp de réfugiés d'Al-Aroub. « Elle tire toute seule sans intervention de la part du soldat. Quand un soldat israélien voit un petit garçon, il appuie sur un bouton ou quelque chose comme ça et elle tire toute seule. Elle est très rapide, même plus rapide que les soldats. Les bombes lacrymogènes qu'il tire peuvent atteindre l'extrémité du camp et tout le reste », a déclaré un résident du camp.

    La tourelle télécommandée a été développée par la société de défense israélienne Smart Shooter, qui a mis au point un système de contrôle de tir autonome appelé SMASH, qui peut être fixé sur des fusils d'assaut pour suivre et verrouiller des cibles à l'aide d'un traitement d'image basé sur l'intelligence artificielle. Le site Web de la société appelle ce système "One Shot-One Hit" (qui pourrait être traduit en français par : "un tir - un succès". Elle se vante d'avoir réussi à "combiner un matériel simple à installer avec un logiciel de traitement d'image avancé pour transformer des armes légères de base en armes intelligentes du XXIe siècle".

    La société affirme que la technologie SMASH permet de surmonter les défis auxquels sont confrontés les soldats lors des batailles, tels que l'effort physique, la fatigue, le stress et la pression mentale pour viser avec précision et assurer le succès du tireur. « Notre objectif est de permettre à tous les corps d'infanterie de bénéficier des armes de précision. Quelle que soit l'expérience ou la mission du soldat, notre système lui permet de ne pas faire d'erreur lorsqu'il tire et de toucher la cible sans faute. Tout soldat devient un véritable tireur d'élite », a déclaré Michal Mor, fondateur et PDG de Smart Shooter, lors d'une interview en 2020.

    La tourelle vue à Hébron n'est pas annoncée sur le site Web de l'entreprise israélienne, mais deux autres tourelles automatisées, 'SMASH HOPPER' et 'SMASH HOPPER P', sont équipées de fusils d'assaut et du système Smart Shooter. « Le HOPPER peut être monté dans plusieurs configurations, notamment sur un trépied, un mât fixe, un navire de surface et des véhicules », indique le site Web de l'entreprise. Dans l'ensemble, l'entreprise indique que la technologie SMASH est censée améliorer l'efficacité des missions en engageant avec précision et en éliminant les cibles terrestres, aériennes, statiques ou mobiles, de jour comme de nuit.

    « Habituellement, le terroriste se trouve dans un environnement civil avec de nombreuses personnes que nous ne voulons pas blesser. Nous permettons au soldat de regarder à travers son système de contrôle de tir, pour s'assurer que la cible qu'il veut atteindre est la cible légitime. Une fois qu'il aura verrouillé la cible, le système s'assurera que la balle sera libérée lorsqu'il appuiera sur la gâchette, uniquement sur la cible légitime et qu'aucun des passants ne pourra être touché par l'arme », a déclaré Mor. Les militants des droits de l'homme s'inquiètent de "la déshumanisation numérique des systèmes d'armes".

    Selon les médias locaux, l'armée israélienne a déclaré qu'elle teste la possibilité d'utiliser le système pour appliquer des méthodes approuvées de dispersion de la foule, qui n'incluent pas le tir de balles réelles. « Dans le cadre des préparatifs améliorés de l'armée pour faire face aux personnes qui perturbent l'ordre dans la région, elle examine la possibilité d'utiliser des systèmes télécommandés pour employer des mesures approuvées de dispersion de foule. Cela n'inclut pas le contrôle à distance de tirs à balles réelles », explique un porte-parole de l'armée israélienne. Mais cela n'a pas suffi à calmer les craintes des militants des droits de l'homme.

    L'armée israélienne a également précisé qu'au cours de sa phase pilote, le système n'utilisera que des balles à pointe éponge. Cependant, des experts ont signalé qu'à plusieurs reprises, des balles à pointe éponge ont causé des blessures permanentes à des personnes en Cisjordanie occupée et en Israël, certaines ayant même perdu leurs yeux. Des militants des droits de l'homme d'Hébron ont exprimé leur inquiétude quant à la défaillance du système qui pourrait avoir un impact sur de nombreuses personnes, notant que le système a été placé au centre d'une zone fortement peuplée, avec des centaines de personnes passant à proximité.

    En outre, les militants des droits de l'homme, ainsi que d'autres critiques, affirment également que ce dispositif est un nouvel exemple de l'utilisation par Israël des Palestiniens comme cobayes, ce qui lui permettrait de commercialiser sa technologie militaire comme testée sur le terrain auprès des gouvernements du monde entier. « Je vois cela comme une transition du contrôle humain au contrôle technologique. En tant que Palestiniens, nous sommes devenus un objet d'expérimentation et de formation pour l'industrie militaire israélienne de haute technologie, qui n'est pas responsable de ce qu'elle fait », a déclaré un habitant de la région.

    Les armes létales autonomes sont de plus en plus utilisées dans le monde. Les drones, notamment les drones kamikazes, sont largement utilisés de l'Ukraine en l'Éthiopie et les armes télécommandées ont été utilisées par les États-Unis en Irak, par la Corée du Sud le long de la frontière avec la Corée du Nord et par les rebelles syriens. Par ailleurs, la dépendance de l'armée israélienne à l'égard des systèmes automatisés s'est accrue au fils des ans. Ces dernières années, Israël a adopté de plus en plus de systèmes automatisés à des fins militaires, dont certains sont controversés. Cela comprend des robots et des chars d'assaut dotés d'une intelligence artificielle.

    L'année dernière, un rapport a révélé qu'Israël avait déployé un système élaboré de caméras en Cisjordanie occupée pour contrôler et surveiller les Palestiniens. Ces caméras seraient reliées à une base de données appelée "Blue Wolf". La base de données comprendrait des détails et des photos des Palestiniens, notamment les numéros d'identité, l'âge, le sexe, l'adresse, les numéros de plaque d'immatriculation, les liens avec d'autres individus, le statut professionnel en Israël et les impressions négatives que les soldats ont du comportement d'un Palestinien lorsqu'ils le rencontrent. Hébron aurait été l'une des premières villes à utiliser ce système.

    Selon d'autres rapports, en 2018, l'armée israélienne a commencé à utiliser un drone capable de lancer des gaz lacrymogènes pour disperser les manifestants dans la bande de Gaza. En 2021, même la police israélienne aurait commencé à employer de tels drones contre des manifestants en Israël. Dans ce contexte, beaucoup estiment que le déploiement des armes létales autonomes va davantage s'accélérer. Elon Musk, PDG de Tesla, affirme : « les drones autonomes sont le futur. Ce n’est pas que je veuille que l’avenir soit ainsi fait, mais c’est juste que c’est inéluctable. L’ère des avions de chasse est révolue ».

    En Europe, Milrem Robotics, leader européen en matière de robotique et de systèmes autonomes, a partagé en juin dernier une vidéo mettant en scène un char doté d'une IA qui fait exploser des voitures et d'autres cibles. L'entrepreneur a déclaré que le char, baptisé Type-X, est conçu pour permettre aux troupes de "percer les positions défensives de l'ennemi avec un risque minimal". Il devrait fournir aux troupes "une puissance de feu et une utilisation tactique égales ou supérieures à celles d'une unité équipée de véhicules de combat d'infanterie". Les critiques ont déclaré que la démonstration reflète un futur dystopique de la guerre.

    C’est la raison de la récente demande du Pape aux dirigeants du G7 d’interdire l’utilisation d’armes autonomes

    Le pape François a prononcé un discours historique devant les dirigeants du G7, les exhortant à reconnaître qu'ils ont le pouvoir de décider si l'intelligence artificielle devient un outil terrifiant ou créatif, et leur demandant d'interdire l'utilisation d'armes autonomes dans les guerres. Sa sortie s’inscrit dans la suite du Rome Call for AI Ethics et de l’appel à un traité mondial contraignant pour réglementer l’intelligence artificielle.

    « Nous condamnerions l'humanité à un avenir sans espoir si nous retirions aux gens la capacité de prendre des décisions sur eux-mêmes et sur leur vie », a déclaré le Pape François lors du dernier sommet du G7 en Italie.

    « À la lumière de la tragédie que constituent les conflits armés, il est urgent de reconsidérer le développement et l'utilisation de dispositifs tels que les armes autonomes létales et, à terme, d'en interdire l'usage.

    Cela commence par un engagement effectif et concret à introduire un contrôle humain toujours plus important et adéquat. Aucune machine ne devrait jamais choisir de prendre la vie d'un être humain.

    Une telle mesure représenterait un affaiblissement du sens de l'humanité et du concept de dignité humaine », a-t-il ajouté.


    Et vous ?

    Êtes-vous surpris par la mise à contribution de l’intelligence artificielle sur les champs de bataille ?
    Que pensez-vous des divergences dans les négociations sur l'interdiction des armes autonomes ? Partagez-vous les avis selon lesquels elles constituent un indicateur de ce que l’atteinte d’un accord mondial contraignant ne sera pas possible ?

    Voir aussi :

    Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
    USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
    Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
    Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
    Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur

  14. #34
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 947
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 947
    Points : 18 908
    Points
    18 908
    Par défaut
    Citation Envoyé par Patrick Ruiz Voir le message
    Êtes-vous surpris par la mise à contribution de l’intelligence artificielle sur les champs de bataille ?
    Non.
    Les IA ont de nombreux avantages par rapport aux humains.
    - Elles sont plus performantes.
    - Elles suivent les ordres. *
    - Il n'y a pas d'histoire de trouble de stress post-traumatique.
    - Quand un robot meurt, t'as pas besoin de payer des funérailles.

    * : dans le film Running Man, un personnage reçoit l'ordre de tirer sur des civils et il refuse.

    Citation Envoyé par Patrick Ruiz Voir le message
    Que pensez-vous des divergences dans les négociations sur l'interdiction des armes autonomes ? Partagez-vous les avis selon lesquels elles constituent un indicateur de ce que l’atteinte d’un accord mondial contraignant ne sera pas possible ?
    Ils peuvent mettre en place tous les accords mondiaux qu'ils veulent, ils ne seront pas respectés. Est-ce que vous croyez que la convention de Genève est respecté en permanence par ceux qui l'ont signé ?
    Il y a une guerre mondiale qui s'approche, les pays cherchent à avoir un avantage sur l'ennemi.
    Celui qui gagnera la guerre, ne sera pas condamné. Les USA ne se sont jamais excusé pour avoir lancé 2 bombes atomiques sur des civils japonais.

    On ne peut pas empêcher des pays comme les USA de développer des robots tueurs.
    Au pire ils le feront en secret, comme ils ont l'habitude de le faire.

  15. #35
    Membre éprouvé
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Août 2018
    Messages
    406
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Autre

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux

    Informations forums :
    Inscription : Août 2018
    Messages : 406
    Points : 1 240
    Points
    1 240
    Par défaut
    On devrait purement et simplement interdire au niveau international toute forme de robots tueurs.

    De telles machines sont associables à des tueurs de masse, en nombre suffisant de tels robots deviendraient une armes de destruction massive inarrêtable.

    Imaginez une nation qui enverrai 100'000 robots tueurs ou plus encore sur le territoire d'un de ses voisins par désir d'expansionnisme, en tant que représailles ou allez savoir quoi d'autre... ;-(

  16. #36
    Expert éminent
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 728
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 728
    Points : 6 456
    Points
    6 456
    Par défaut
    pour des petites opérations spéciale ça sera effectivement très utile. Par exemple pour attaquer une grotte de taliban (chose que l'aérien ne peux faire et l'infanterie va prendre cher dans ce genre de combat).

    Mais pour des gros front comme en Russie-Ukraine, c'est impensable, l'argent nous rappelles que tous ce matos de pointe faible en nombre ne vaut pas de l'équipement bon marché en grande disponibilité. Les russes et Ukrainiens se battent grosso modo avec de l'équipement bon marché, il n'y a pas exosquelettes, pas de robots de guerre, de l'artillerie "bas de gamme" peu précise mais qui balance pleins d'obus bon marché eux aussi (pas d'obus a tête chercheuse avec l'ia).
    Si les drones sont très développé c'est parce que c'est moins cher que des avions.

    A l'inverse des drones par exemple qui ont complétement changé les stratégies militaires.
    Les chars sont devenue bien moins intéressant que par le passé par exemple pendant la WW2 a cause des drones.
    De même que les gros navires de guerres, la flotte russe n'a pas tenu face à des drones ukrainiens. Les drones iraniens par contre donne de très bon résultats pour les russes, le ratio cout/dégât est bon.

    Chose étrange je n'ai pas vu de bombe à fragmentation, je pensais que ces armes était très efficaces dans ce genre de conflit.

    Donc si ces robots chiens coute plus cher qu'un soldat et que les capacité de productions sont limité, ça n'aura pas d'impact majeur dans un conflit xxl.

  17. #37
    Membre éprouvé
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Août 2018
    Messages
    406
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Autre

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux

    Informations forums :
    Inscription : Août 2018
    Messages : 406
    Points : 1 240
    Points
    1 240
    Par défaut
    Citation Envoyé par calvaire Voir le message
    pour des petites opérations spéciale ça sera effectivement très utile. Par exemple pour attaquer une grotte de taliban (chose que l'aérien ne peux faire et l'infanterie va prendre cher dans ce genre de combat).

    Mais pour des gros front comme en Russie-Ukraine, c'est impensable, l'argent nous rappelles que tous ce matos de pointe faible en nombre ne vaut pas de l'équipement bon marché en grande disponibilité. Les russes et Ukrainiens se battent grosso modo avec de l'équipement bon marché, il n'y a pas exosquelettes, pas de robots de guerre, de l'artillerie "bas de gamme" peu précise mais qui balance pleins d'obus bon marché eux aussi (pas d'obus a tête chercheuse avec l'ia).
    Si les drones sont très développé c'est parce que c'est moins cher que des avions.

    A l'inverse des drones par exemple qui ont complétement changé les stratégies militaires.
    Les chars sont devenue bien moins intéressant que par le passé par exemple pendant la WW2 a cause des drones.
    De même que les gros navires de guerres, la flotte russe n'a pas tenu face à des drones ukrainiens. Les drones iraniens par contre donne de très bon résultats pour les russes, le ratio cout/dégât est bon.

    Chose étrange je n'ai pas vu de bombe à fragmentation, je pensais que ces armes était très efficaces dans ce genre de conflit.

    Donc si ces robots chiens coute plus cher qu'un soldat et que les capacité de productions sont limité, ça n'aura pas d'impact majeur dans un conflit xxl.
    Ton analyse n'est que très partielle, si les Ukrainiens sont fauchés comme les blés c'est une chose, mais c'est loin d'être le cas de tout le monde !!!

    Quand on considère le prix des avions, bateaux de guerre. sous-marins, des missiles de toute sorte (nucléaires y compris), fusées tactiques, etc, etc, une armée de 100'000 robots ne créé pas de trou particulièrement profond dans le budget militaire d'une grosse nation tel que les USA, la Chine ou la Russie... Ils auraient très clairement les moyens de développer de tels projets. Et d'autres nations tel l'Inde ou l'Iran pourraient également s'y mettre en rationalisant les choses. N'oublions pas que de nos jours, les prix de la technologie chutent de manière importante, ce en très peu de temps...

    Les drones utilisés en Ukraine sont majoritairement des drones civils militarisés a efficacité assez limités... il ne faut pas confondre ces "armes" avec les missiles tactiques qui ont étés employés pour atteindre la flotte russe ou d'autres cibles de ce genre.

  18. #38
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    975
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 975
    Points : 17 357
    Points
    17 357
    Par défaut Les robots tueurs de la Chine pourraient servir l'armée chinoise sur le champ de bataille d'ici deux ans
    Les robots tueurs de la Chine arrivent : les grandes puissances ont commencé à développer des "robots tueurs" entièrement autonomes et dotés d'une IA
    pour remplacer leurs soldats sur le champ de bataille

    La révolution robotique se met de plus en plus au service des forces armées des grandes puissances. Un nouveau rapport indique que les robots tueurs autonomes de la Chine sont en passe de servir l'armée chinoise sur le champ de bataille d'ici deux ans. Cette évolution ouvre la voie à une nouvelle ère dans laquelle la guerre sera pilotée par l'IA. Les experts mettent en garde contre ce développement qu'ils considèrent comme "un grand danger pour la survie de l'humanité". Outre la Chine, les États-Unis et plusieurs autres puissances sont également engagés dans une course effrénée à l'armement de robots quadrupèdes pour des applications militaires.

    De nombreux rapports et vidéos disponibles publiquement montrent que les forces armées de plusieurs pays expérimentent l'utilisation de "systèmes d'armes létales autonomes" (SALA) sur les théâtres d'opérations. L'armée chinoise a récemment dévoilé un nouveau type de compagnon de combat pour ses soldats : un robot-chien avec une mitrailleuse attachée sur son dos. Il s'agirait d'une variante du fusil d'assaut QBZ-95 de 5,8 x 42 mm. Une vidéo diffusée par l'agence de presse CCTV montre des militaires chinois opérer sur un champ de tir aux côtés du robot dans le cadre des exercices militaires conjoints avec le Cambodge.

    Le robot-chien déployé lors des exercices militaires a été fabriqué par la société chinoise Unitree Robotics. Dans l'un des scénarios, les soldats chinois se tenaient de part et d'autre d'une porte, tandis que le robot-chien pénètre dans le bâtiment devant eux. Dans un autre scénario, le robot-chien tire une rafale de balles alors qu'il avance vers une cible. « Il peut servir comme nouveau membre dans nos opérations de combat urbain, remplaçant nos membres pour mener la reconnaissance, identifier l'ennemi et frapper la cible pendant notre entraînement », explique un soldat chinois dans le reportage publié par CCTV.


    Selon un nouveau rapport de Newsweek, les robots tueurs autonomes de la Chine pourraient servir l'armée chinoise sur le champ de bataille d'ici deux ans. Le rapport indique que la Chine et la Russie ont déjà collaboré au développement d'armes autonomes dotées d'une IA. Lors d'un salon de l'armement près de Moscou en 2022, la Russie a présenté une version modifiée d'un robot-chien développé par Unitree Robotics. Elle a été rebaptisée M-81 et est équipée d'un lance-grenades propulsé par fusée. Mais selon certains experts, la Chine a une longueur d'avance dans le domaine et pourrait déployer ses robots tueurs en avance.

    « Je serais surpris de ne pas voir des machines autonomes sortir de Chine d'ici deux ans », affirme Francis Tusa, analyste de premier plan dans le domaine de la défense, pour National Security News. Il a ajouté que la Chine développe de nouveaux navires, sous-marins et avions dotés d'une technologie d'IA à une "vitesse vertigineuse". « Ils avancent quatre ou cinq fois plus vite que les États-Unis », a-t-il averti. Steve Goose, directeur des campagnes sur les armes pour Human Rights Watch, une ONG basée à New York, préconise de nouveaux cadres juridiques mondiaux afin de limiter l'utilisation de systèmes d'armes autonomes.

    « Malheureusement, la Chine semble avancer rapidement vers l'acquisition de robots tueurs, à l'instar d'autres grandes puissances militaires. La rhétorique de la Chine lors des réunions diplomatiques sur les robots tueurs (où elle appelle à des restrictions sur les armes létales autonomes) ne s'est pas reflétée dans ses actions », a déclaré Goose. La Chine aurait déjà commencé à utiliser des machines pilotées par l'IA pour développer des armes, ce qui, selon certains experts, pourrait tripler sa production de bombes et d'obus d'ici 2028. Outre la Chine et la Russie, les Occidentaux semblent tout aussi intéressés par ces armes.

    L'année dernière, le Pentagone a expérimenté l'équipement de robots terrestres quadrupèdes avec sa carabine standard M4A1 de 5,56 x 45 mm, le fusil XM7 de 6,8 mm que l'armée américaine est en train d'adopter dans le cadre de son programme « Next Generation Squad Weapon », et même l'arme antichar légère M72 LAW qui est en service au sein des troupes américaines depuis la guerre du Vietnam. Les responsables américains de la Défense se sont empressés de souligner que le développement de robots-chiens armés était, à ce stade, purement expérimental. Mais les préoccupations sont croissantes dans la communauté.


    Peu avant la diffusion de la vidéo de CCTV, le Marine Corps Special Operations Command (MARSOC) des États-Unis a révélé qu'il expérimente le montage sur ses propres robots-chiens d'armes basés sur le système d'armes à distance SENTRY de l'entreprise de défense Onyx. Les robots-chiens américains seront également dotés d'une technologie d'IA. Alors que Tusa a déclaré que le développement de ces systèmes en Occident serait retardé par des objections juridiques et éthiques, ainsi que par les remparts démocratiques auxquels se heurte l'obtention d'un financement militaire, Goose s'est, quant à lui, montré moins optimiste.

    En septembre 2022, l'armée israélienne a installé une arme automatique à un poste de contrôle très fréquenté de la ville d'Hébron (Al-Khalil), en Cisjordanie occupée. Les tourelles jumelles ont été installées au sommet d'une tour de garde surplombant le camp de réfugiés d'Al-Aroub. « Elle tire toute seule sans l'intervention d'un soldat. Quand un soldat israélien voit un petit garçon, il appuie sur un bouton ou quelque chose comme ça et elle tire toute seule. Elle est très rapide, plus rapide que les soldats. Les bombes lacrymogènes qu'il tire peuvent atteindre l'extrémité du camp et tout le reste », a déclaré un résident du camp.

    Selon les médias locaux, l'armée israélienne a déclaré qu'elle teste la possibilité d'utiliser le système pour appliquer des méthodes approuvées de dispersion de la foule, qui n'incluent pas le tir à balles réelles. « Dans le cadre des préparatifs de l'armée pour faire face aux personnes qui perturbent l'ordre, elle examine la possibilité d'utiliser des systèmes télécommandés pour employer des mesures approuvées de dispersion de foule. Cela n'inclut pas le contrôle à distance de tirs à balles réelles », explique un porte-parole de l'armée israélienne. Mais cela n'a pas suffi à calmer les craintes des militants des droits de l'homme.

    Les armes létales autonomes sont de plus en plus utilisées dans le monde. Les drones, notamment les drones kamikazes, sont largement utilisés en Ukraine et les armes télécommandées ont été utilisées par les États-Unis en Irak, par la Corée du Sud le long de la frontière avec la Corée du Nord et par les rebelles syriens. Par ailleurs, la dépendance de l'armée israélienne à l'égard des systèmes automatisés s'est accrue au fils des ans. Ces dernières années, Israël a adopté de plus en plus de systèmes automatisés à des fins militaires, dont certains sont controversés. Cela comprend des robots et des chars d'assaut dotés d'une IA.


    En Europe, Milrem Robotics, leader européen en matière de robotique et de systèmes autonomes, a partagé en juin dernier une vidéo mettant en scène un char doté d'une IA qui fait exploser des voitures et d'autres cibles. La société a déclaré que le char, baptisé Type-X, est conçu pour permettre aux troupes de "percer les positions défensives de l'ennemi avec un risque minimal". Il devrait fournir aux troupes "une puissance de feu et une utilisation tactique égales ou supérieures à celles d'une unité équipée de véhicules de combat d'infanterie". Les critiques ont déclaré que la démonstration reflète un futur dystopique de la guerre.

    De son côté, l'armée française a également testé le robot-chien Spot de Boston Dynamics dans plusieurs scénarios de combat, soulevant des questions quant à l'endroit où le robot sera déployé à l'avenir. Selon un rapport, le robot quadrupède était apparemment utilisé pour la reconnaissance lors d'un exercice d'entraînement de deux jours dans le but de "mesurer la valeur ajoutée des robots en action de combat". Cependant, ce déploiement soulève des questions sur la manière dont les machines de Boston Dynamics seront utilisées à l'avenir. Plus tard, Boston Dynamics a annoncé qu'il n'autorise pas la militarisation de ses robots.

    En mars 2023, un représentant américain à une conférence de l'ONU sur les systèmes d'armes létales autonomes a déclaré que ce n'était pas le bon moment pour commencer à légiférer contre leur développement. Ce progrès effréné a suscité de nombreuses mises en garde contre l'incapacité des systèmes d'armes létales autonomes à respecter les lois de la guerre, et à supprimer les réticences des pays à s'engager dans des conflits par crainte de sacrifier des troupes.

    Goose a déclaré que les tentatives en visant à limiter leur prolifération n'ont pas donné grand-chose de concret, car les institutions supranationales chargées de limiter leur utilisation tendent à être dominées par les pays les plus avancés en matière de robots tueurs (Russie, Chine et États-Unis). Sans un contrôle, Goose estime que les armes autonomes, tout comme les armes nucléaires et le changement climatique, représentent un grand danger pour la survie de l'humanité.

    Par ailleurs, des rapports indiquent que la politique des États-Unis en matière de robots tueurs et la poursuite de leur développement n'ont guère tenu compte des implications éthiques de ce type d'armes. Ils se seraient opposés à toute nouvelle interdiction ou restriction internationale sur les systèmes d'armes létales autonomes, appelant seulement à des codes de conduite volontaires, tout en se précipitant vers le déploiement de machines tueuses sur le champ de bataille.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la prolifération des systèmes d'armes létales autonomes ?
    Pourquoi les grandes puissances accélèrent-elles les projets de militarisation de l'IA et des robots ?
    Partagez-vous les craintes selon lesquelles ces armes représentent une menace pour la survie de l'humanité ?
    Que pensez-vous de l'échec des tentatives des institutions supranationales visant à limiter l'utilisation de ces armées ?

    Voir aussi

    Les USA et la Chine semblent engagés dans une course à l'armement de robots à 4 pattes pour des applications militaires, les robots-chiens sont de meilleurs tireurs d'élite, d'après une étude

    L'armée française teste Spot, le chien-robot de Boston Dynamics, dans des scénarios de combat, ce qui soulève des questions quant à l'endroit où le robot sera déployé à l'avenir

    L'armée américaine envisagerait d'équiper des chiens-robots semi-autonomes d'une nouvelle génération d'armes de combat, dans le but de les déployer avec les soldats sur les théâtres d'opérations

  19. #39
    Membre expérimenté

    Homme Profil pro
    Collégien
    Inscrit en
    Juillet 2010
    Messages
    568
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Afghanistan

    Informations professionnelles :
    Activité : Collégien

    Informations forums :
    Inscription : Juillet 2010
    Messages : 568
    Points : 1 444
    Points
    1 444
    Par défaut
    Ce n'est pas immorale puisque c'est une technologie développée par un régime communiste.

  20. #40
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 110
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 110
    Points : 56 815
    Points
    56 815
    Par défaut L’armée américaine teste un robot-chien armé au Moyen-Orient et allonge la liste des cas de course aux armes
    L’armée américaine teste un robot-chien armé au Moyen-Orient et allonge la liste des cas de course à l’armement
    Dans un contexte de protestations contre l’utilisation de l’IA sur les champs de bataille

    L'armée américaine teste des chiens-robots au Moyen-Orient. La manœuvre s’inscrit dans le tableau plus englobant de la mise en œuvre de l’intelligence artificielle sur les champs de bataille qui concerne plusieurs autres pays. Du point de vue du développeur informatique, ces robots sont des kits matériels - à la présentation visuelle similaire à celle d’un chien sur pattes – programmables via une API fournie par le constructeur. C’est au travers de cette dernière, ainsi que d’une série de modules d’extensions, que le développeur peut aller à l’essentiel de l’application à mettre en œuvre.

    Ces robots s’appuient sur de complexes algorithmes de contrôle pour s’équilibrer et se déplacer

    Ces robots s’appuient à la base sur des applications de détection et suivi d’objets. Dans ce cas, il y a au préalable collecte des images provenant de caméras avant puis détection d’objet sur une classe spécifiée. Cette détection utilise Tensorflow via le tensorflow_object_detector. Le robot accepte n'importe quel modèle Tensorflow et permet au développeur de spécifier un sous-ensemble de classes de détection incluses dans le modèle. Il effectue cet ensemble d'opérations pour un nombre prédéfini d'itérations, en bloquant pendant une durée prédéfinie entre chaque itération. L'application détermine ensuite l'emplacement de la détection la plus fiable de la classe spécifiée et se dirige vers l'objet.

    L’application est organisée en trois ensembles de processus Python communiquant avec le robot Spot. Le diagramme des processus est illustré ci-dessous. Le processus principal communique avec le robot Spot via GRPC et reçoit constamment des images. Ces images sont poussées dans la RAW_IMAGES_QUEUE et lues par les processus Tensorflow. Ces processus détectent des objets dans les images et poussent l'emplacement dans PROCESSED_BOXES_QUEUE. Le thread principal détermine alors l'emplacement de l'objet et envoie des commandes au robot pour qu'il se dirige vers l'objet.

    Code Python : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    55
    56
    57
    58
    59
    60
    61
    62
    63
    64
    65
    66
    67
    68
    69
    70
    71
    72
    73
    74
    75
    76
    77
    78
    79
    80
    81
    82
    83
    84
    85
    86
    87
    88
    89
    90
    91
    92
    93
    94
    95
    96
    97
    98
    99
    100
    101
    102
    103
    104
    105
    106
    107
    108
    109
    110
    111
    112
    113
    114
    115
    116
    117
    118
    119
    120
    121
    122
    123
    124
    125
    126
    127
    128
    129
    130
    131
    132
    133
    134
    135
    136
    137
    138
    139
    140
    141
    142
    143
    144
    145
    146
    147
    148
    149
    150
    151
    152
    153
    154
    155
    156
    157
    158
    159
    160
    161
    162
    163
    164
    165
    166
    167
    168
    169
    170
    171
    172
    173
    174
    175
    176
    177
    178
    179
    180
    181
    182
    183
    184
    185
    186
    187
    188
    189
    190
    191
    192
    193
    194
    195
    196
    197
    198
    199
    200
    201
    202
    203
    204
    205
    206
    207
    208
    209
    210
    211
    212
    213
    214
    215
    216
    217
    218
    219
    220
    221
    222
    223
    224
    225
    226
    227
    228
    229
    230
    231
    232
    233
    234
    235
    236
    237
    238
    239
    240
    241
    242
    243
    244
    245
    246
    247
    248
    249
    250
    251
    252
    253
    254
    255
    256
    257
    258
    259
    260
    261
    262
    263
    264
    265
    266
    267
    268
    269
    270
    271
    272
    273
    274
    275
    276
    277
    278
    279
    280
    281
    282
    283
    284
    285
    286
    287
    288
    289
    290
    291
    292
    293
    294
    295
    296
    297
    298
    299
    300
    301
    302
    303
    304
    305
    306
    307
    308
    309
    310
    311
    312
    313
    314
    315
    316
    317
    318
    319
    320
    321
    322
    323
    324
    325
    326
    327
    328
    329
    330
    331
    332
    333
    334
    335
    336
    337
    338
    339
    340
    341
    342
    343
    344
    345
    346
    347
    348
    349
    350
    351
    352
    353
    354
    355
    356
    357
    358
    359
    360
    361
    362
    363
    364
    365
    366
    367
    368
    369
    370
    371
    372
    373
    374
    375
    376
    377
    378
    379
    380
    381
    382
    383
    384
    385
    386
    387
    388
    389
    390
    391
    392
    393
    394
    395
    396
    397
    398
    399
    400
    401
    402
    403
    404
    405
    406
    407
    408
    409
    410
    411
    412
    413
    414
    415
    416
    417
    418
    419
    420
    421
    422
    423
    424
    425
    426
    427
    428
    429
    430
    431
    432
    433
    434
    435
    436
    437
    438
    439
    440
    441
    442
    443
    444
    445
    446
    447
    448
    449
    450
    451
    452
    453
    454
    455
    456
    457
    458
    459
    460
    461
    462
    463
    464
    465
    466
    467
    468
    469
    470
    471
    472
    473
    474
    475
    476
    477
    478
    479
    480
    481
    482
    483
    484
    485
    486
    487
    488
    489
    490
    491
    492
    493
    494
    495
    496
    497
    498
    499
    500
    501
    502
    503
    504
    505
    506
    507
    508
    509
    510
    511
    512
    513
    514
    515
    516
    517
    518
    519
    520
    521
    522
    523
    524
    525
    526
    527
    528
    529
    530
    531
    532
    533
    534
    535
    536
    537
    538
    539
    540
    541
    542
    543
    544
    545
    546
    547
    548
    549
    550
    551
    552
    553
    554
    555
    556
    557
    558
    559
    560
    561
    562
    563
    564
    565
    566
    567
    568
    569
    570
    571
    572
    573
    574
    575
    576
    577
    578
    579
    580
    581
    582
    583
    584
    585
    586
    587
    588
    589
    590
    591
    592
    593
    594
    595
    596
    597
    598
    599
    600
    601
    602
    603
    604
    605
    606
    607
    608
    609
    610
    611
    612
    613
    614
    615
    616
    617
    618
    619
    620
    621
    622
    623
    624
    625
    626
    627
    628
    629
    630
    631
    632
    633
    634
    635
    636
    637
    638
    639
    640
    641
    642
    643
    644
    645
    646
    647
    648
    649
    650
    651
    652
    653
    654
    655
    656
    657
    658
    659
    660
    661
    662
    663
    664
    665
    666
    667
    668
    669
    670
    671
    672
    673
    674
    675
    676
    677
    678
    679
    680
    681
    682
    683
    684
    685
    686
    687
    688
    689
    690
    691
    692
    693
    694
    695
    696
    697
    698
    699
    700
    701
    702
    703
    704
    705
    706
    707
    708
    709
    710
    711
    712
    713
    714
    715
    716
    717
    718
    719
    720
    721
    722
    723
    724
    725
    726
    727
    728
    729
    730
    731
    732
    733
    734
    735
    736
    737
    738
    739
    740
    741
    742
    743
    744
    745
    746
    747
    748
    749
    750
    751
    752
    753
    754
    755
    756
    757
    758
    759
    760
    761
    762
    763
    764
    765
    766
    767
    768
    769
    770
    771
    772
    773
    774
    775
    776
    777
    778
    779
    780
    781
    782
    783
    784
    785
    786
    787
    788
    789
    790
    791
    792
    793
    794
    795
    796
    797
    798
    799
    800
    801
    802
    803
    804
    805
    806
    807
    808
    809
    810
    811
    812
    813
    814
    815
    816
    817
    818
    819
    820
    821
    822
    823
    824
    825
    826
    827
    828
    829
    830
    831
    832
    833
    834
    835
    836
    837
    838
    839
    # Copyright (c) 2023 Boston Dynamics, Inc.  All rights reserved. 
    # 
    # Downloading, reproducing, distributing or otherwise using the SDK Software 
    # is subject to the terms and conditions of the Boston Dynamics Software 
    # Development Kit License (20191101-BDSDK-SL). 
     
    """Tutorial to show how to use the Boston Dynamics API to detect and follow an object""" 
    import argparse 
    import io 
    import json 
    import math 
    import os 
    import signal 
    import sys 
    import time 
    from multiprocessing import Barrier, Process, Queue, Value 
    from queue import Empty, Full 
    from threading import BrokenBarrierError, Thread 
     
    import cv2 
    import numpy as np 
    from PIL import Image 
    from scipy import ndimage 
    from tensorflow_object_detection import DetectorAPI 
     
    import bosdyn.client 
    import bosdyn.client.util 
    from bosdyn import geometry 
    from bosdyn.api import geometry_pb2 as geo 
    from bosdyn.api import image_pb2, trajectory_pb2 
    from bosdyn.api.image_pb2 import ImageSource 
    from bosdyn.api.spot import robot_command_pb2 as spot_command_pb2 
    from bosdyn.client.async_tasks import AsyncPeriodicQuery, AsyncTasks 
    from bosdyn.client.frame_helpers import (GROUND_PLANE_FRAME_NAME, VISION_FRAME_NAME, get_a_tform_b, 
                                             get_vision_tform_body) 
    from bosdyn.client.image import ImageClient 
    from bosdyn.client.lease import LeaseClient, LeaseKeepAlive 
    from bosdyn.client.math_helpers import Quat, SE3Pose 
    from bosdyn.client.robot_command import (CommandFailedError, CommandTimedOutError, 
                                             RobotCommandBuilder, RobotCommandClient, blocking_stand) 
    from bosdyn.client.robot_state import RobotStateClient 
     
    LOGGER = bosdyn.client.util.get_logger() 
     
    SHUTDOWN_FLAG = Value('i', 0) 
     
    # Don't let the queues get too backed up 
    QUEUE_MAXSIZE = 10 
     
    # This is a multiprocessing.Queue for communication between the main process and the 
    # Tensorflow processes. 
    # Entries in this queue are in the format: 
     
    # { 
    #     'source': Name of the camera, 
    #     'world_tform_cam': transform from VO to camera, 
    #     'world_tform_gpe':  transform from VO to ground plane, 
    #     'raw_image_time': Time when the image was collected, 
    #     'cv_image': The decoded image, 
    #     'visual_dims': (cols, rows), 
    #     'depth_image': depth image proto, 
    #     'system_cap_time': Time when the image was received by the main process, 
    #     'image_queued_time': Time when the image was done preprocessing and queued 
    # } 
    RAW_IMAGES_QUEUE = Queue(QUEUE_MAXSIZE) 
     
    # This is a multiprocessing.Queue for communication between the Tensorflow processes and 
    # the bbox print process. This is meant for running in a containerized environment with no access 
    # to an X display 
    # Entries in this queue have the following fields in addition to those in : 
    # { 
    #   'processed_image_start_time':  Time when the image was received by the TF process, 
    #   'processed_image_end_time':  Time when the image was processing for bounding boxes 
    #   'boxes': list of detected bounding boxes for the processed image 
    #   'classes': classes of objects, 
    #   'scores': confidence scores, 
    # } 
    PROCESSED_BOXES_QUEUE = Queue(QUEUE_MAXSIZE) 
     
    # Barrier for waiting on Tensorflow processes to start, initialized in main() 
    TENSORFLOW_PROCESS_BARRIER = None 
     
    COCO_CLASS_DICT = { 
        1: 'person', 
        2: 'bicycle', 
        3: 'car', 
        4: 'motorcycle', 
        5: 'airplane', 
        6: 'bus', 
        7: 'train', 
        8: 'truck', 
        9: 'boat', 
        10: 'trafficlight', 
        11: 'firehydrant', 
        13: 'stopsign', 
        14: 'parkingmeter', 
        15: 'bench', 
        16: 'bird', 
        17: 'cat', 
        18: 'dog', 
        19: 'horse', 
        20: 'sheep', 
        21: 'cow', 
        22: 'elephant', 
        23: 'bear', 
        24: 'zebra', 
        25: 'giraffe', 
        27: 'backpack', 
        28: 'umbrella', 
        31: 'handbag', 
        32: 'tie', 
        33: 'suitcase', 
        34: 'frisbee', 
        35: 'skis', 
        36: 'snowboard', 
        37: 'sportsball', 
        38: 'kite', 
        39: 'baseballbat', 
        40: 'baseballglove', 
        41: 'skateboard', 
        42: 'surfboard', 
        43: 'tennisracket', 
        44: 'bottle', 
        46: 'wineglass', 
        47: 'cup', 
        48: 'fork', 
        49: 'knife', 
        50: 'spoon', 
        51: 'bowl', 
        52: 'banana', 
        53: 'apple', 
        54: 'sandwich', 
        55: 'orange', 
        56: 'broccoli', 
        57: 'carrot', 
        58: 'hotdog', 
        59: 'pizza', 
        60: 'donut', 
        61: 'cake', 
        62: 'chair', 
        63: 'couch', 
        64: 'pottedplant', 
        65: 'bed', 
        67: 'diningtable', 
        70: 'toilet', 
        72: 'tv', 
        73: 'laptop', 
        74: 'mouse', 
        75: 'remote', 
        76: 'keyboard', 
        77: 'cellphone', 
        78: 'microwave', 
        79: 'oven', 
        80: 'toaster', 
        81: 'sink', 
        82: 'refrigerator', 
        84: 'book', 
        85: 'clock', 
        86: 'vase', 
        87: 'scissors', 
        88: 'teddybear', 
        89: 'hairdrier', 
        90: 'toothbrush' 
    } 
     
    # Mapping from visual to depth data 
    VISUAL_SOURCE_TO_DEPTH_MAP_SOURCE = { 
        'frontleft_fisheye_image': 'frontleft_depth_in_visual_frame', 
        'frontright_fisheye_image': 'frontright_depth_in_visual_frame' 
    } 
    ROTATION_ANGLES = { 
        'back_fisheye_image': 0, 
        'frontleft_fisheye_image': -78, 
        'frontright_fisheye_image': -102, 
        'left_fisheye_image': 0, 
        'right_fisheye_image': 180 
    } 
     
     
    def _update_thread(async_task): 
        while True: 
            async_task.update() 
            time.sleep(0.01) 
     
     
    class AsyncImage(AsyncPeriodicQuery): 
        """Grab image.""" 
     
        def __init__(self, image_client, image_sources): 
            # Period is set to be about 15 FPS 
            super(AsyncImage, self).__init__('images', image_client, LOGGER, period_sec=0.067) 
            self.image_sources = image_sources 
     
        def _start_query(self): 
            return self._client.get_image_from_sources_async(self.image_sources) 
     
     
    class AsyncRobotState(AsyncPeriodicQuery): 
        """Grab robot state.""" 
     
        def __init__(self, robot_state_client): 
            # period is set to be about the same rate as detections on the CORE AI 
            super(AsyncRobotState, self).__init__('robot_state', robot_state_client, LOGGER, 
                                                  period_sec=0.02) 
     
        def _start_query(self): 
            return self._client.get_robot_state_async() 
     
     
    def get_source_list(image_client): 
        """Gets a list of image sources and filters based on config dictionary 
      
        Args: 
            image_client: Instantiated image client 
        """ 
     
        # We are using only the visual images with their corresponding depth sensors 
        sources = image_client.list_image_sources() 
        source_list = [] 
        for source in sources: 
            if source.image_type == ImageSource.IMAGE_TYPE_VISUAL: 
                # only append if sensor has corresponding depth sensor 
                if source.name in VISUAL_SOURCE_TO_DEPTH_MAP_SOURCE: 
                    source_list.append(source.name) 
                    source_list.append(VISUAL_SOURCE_TO_DEPTH_MAP_SOURCE[source.name]) 
        return source_list 
     
     
    def capture_images(image_task, sleep_between_capture): 
        """ Captures images and places them on the queue 
      
        Args: 
            image_task (AsyncImage): Async task that provides the images response to use 
            sleep_between_capture (float): Time to sleep between each image capture 
        """ 
        while not SHUTDOWN_FLAG.value: 
            get_im_resp = image_task.proto 
            start_time = time.time() 
            if not get_im_resp: 
                continue 
            depth_responses = { 
                img.source.name: img 
                for img in get_im_resp 
                if img.source.image_type == ImageSource.IMAGE_TYPE_DEPTH 
            } 
            entry = {} 
            for im_resp in get_im_resp: 
                if im_resp.source.image_type == ImageSource.IMAGE_TYPE_VISUAL: 
                    source = im_resp.source.name 
                    depth_source = VISUAL_SOURCE_TO_DEPTH_MAP_SOURCE[source] 
                    depth_image = depth_responses[depth_source] 
     
                    acquisition_time = im_resp.shot.acquisition_time 
                    image_time = acquisition_time.seconds + acquisition_time.nanos * 1e-9 
     
                    try: 
                        image = Image.open(io.BytesIO(im_resp.shot.image.data)) 
                        source = im_resp.source.name 
     
                        image = ndimage.rotate(image, ROTATION_ANGLES[source]) 
                        if im_resp.shot.image.pixel_format == image_pb2.Image.PIXEL_FORMAT_GREYSCALE_U8: 
                            image = cv2.cvtColor(image, cv2.COLOR_GRAY2RGB)  # Converted to RGB for TF 
                        tform_snapshot = im_resp.shot.transforms_snapshot 
                        frame_name = im_resp.shot.frame_name_image_sensor 
                        world_tform_cam = get_a_tform_b(tform_snapshot, VISION_FRAME_NAME, frame_name) 
                        world_tform_gpe = get_a_tform_b(tform_snapshot, VISION_FRAME_NAME, 
                                                        GROUND_PLANE_FRAME_NAME) 
                        entry[source] = { 
                            'source': source, 
                            'world_tform_cam': world_tform_cam, 
                            'world_tform_gpe': world_tform_gpe, 
                            'raw_image_time': image_time, 
                            'cv_image': image, 
                            'visual_dims': (im_resp.shot.image.cols, im_resp.shot.image.rows), 
                            'depth_image': depth_image, 
                            'system_cap_time': start_time, 
                            'image_queued_time': time.time() 
                        } 
                    except Exception as exc:  # pylint: disable=broad-except 
                        print(f'Exception occurred during image capture {exc}') 
            try: 
                RAW_IMAGES_QUEUE.put_nowait(entry) 
            except Full as exc: 
                print(f'RAW_IMAGES_QUEUE is full: {exc}') 
            time.sleep(sleep_between_capture) 
     
     
    def start_tensorflow_processes(num_processes, model_path, detection_class, detection_threshold, 
                                   max_processing_delay): 
        """Starts Tensorflow processes in parallel. 
      
        It does not keep track of the processes once they are started because they run indefinitely 
        and are never joined back to the main process. 
      
        Args: 
            num_processes (int): Number of Tensorflow processes to start in parallel. 
            model_path (str): Filepath to the Tensorflow model to use. 
            detection_class (int): Detection class to detect 
            detection_threshold (float): Detection threshold to apply to all Tensorflow detections. 
            max_processing_delay (float): Allowed delay before processing an incoming image. 
        """ 
        processes = [] 
        for _ in range(num_processes): 
            process = Process( 
                target=process_images, args=( 
                    model_path, 
                    detection_class, 
                    detection_threshold, 
                    max_processing_delay, 
                ), daemon=True) 
            process.start() 
            processes.append(process) 
        return processes 
     
     
    def process_images(model_path, detection_class, detection_threshold, max_processing_delay): 
        """Starts Tensorflow and detects objects in the incoming images. 
      
        Args: 
            model_path (str): Filepath to the Tensorflow model to use. 
            detection_class (int): Detection class to detect 
            detection_threshold (float): Detection threshold to apply to all Tensorflow detections. 
            max_processing_delay (float): Allowed delay before processing an incoming image. 
        """ 
     
        odapi = DetectorAPI(path_to_ckpt=model_path) 
        num_processed_skips = 0 
     
        if TENSORFLOW_PROCESS_BARRIER is None: 
            return 
     
        try: 
            TENSORFLOW_PROCESS_BARRIER.wait() 
        except BrokenBarrierError as exc: 
            print(f'Error waiting for Tensorflow processes to initialize: {exc}') 
            return False 
     
        while not SHUTDOWN_FLAG.value: 
            try: 
                entry = RAW_IMAGES_QUEUE.get_nowait() 
            except Empty: 
                time.sleep(0.1) 
                continue 
            for _, capture in entry.items(): 
                start_time = time.time() 
                processing_delay = time.time() - capture['raw_image_time'] 
                if processing_delay > max_processing_delay: 
                    num_processed_skips += 1 
                    print(f'skipped image because it took {processing_delay}') 
                    continue  # Skip image due to delay 
     
                image = capture['cv_image'] 
                boxes, scores, classes, _ = odapi.process_frame(image) 
                confident_boxes = [] 
                confident_object_classes = [] 
                confident_scores = [] 
                if len(boxes) == 0: 
                    print('no detections founds') 
                    continue 
                for box, score, box_class in sorted(zip(boxes, scores, classes), key=lambda x: x[1], 
                                                    reverse=True): 
                    if score > detection_threshold and box_class == detection_class: 
                        confident_boxes.append(box) 
                        confident_object_classes.append(COCO_CLASS_DICT[box_class]) 
                        confident_scores.append(score) 
                        image = cv2.rectangle(image, (box[1], box[0]), (box[3], box[2]), (255, 0, 0), 2) 
     
                capture['processed_image_start_time'] = start_time 
                capture['processed_image_end_time'] = time.time() 
                capture['boxes'] = confident_boxes 
                capture['classes'] = confident_object_classes 
                capture['scores'] = confident_scores 
                capture['cv_image'] = image 
            try: 
                PROCESSED_BOXES_QUEUE.put_nowait(entry) 
            except Full as exc: 
                print(f'PROCESSED_BOXES_QUEUE is full: {exc}') 
        print('tf process ending') 
        return True 
     
     
    def get_go_to(world_tform_object, robot_state, mobility_params, dist_margin=0.5): 
        """Gets trajectory command to a goal location 
      
        Args: 
            world_tform_object (SE3Pose): Transform from vision frame to target object 
            robot_state (RobotState): Current robot state 
            mobility_params (MobilityParams): Mobility parameters 
            dist_margin (float): Distance margin to target 
        """ 
        vo_tform_robot = get_vision_tform_body(robot_state.kinematic_state.transforms_snapshot) 
        print(f'robot pos: {vo_tform_robot}') 
        delta_ewrt_vo = np.array( 
            [world_tform_object.x - vo_tform_robot.x, world_tform_object.y - vo_tform_robot.y, 0]) 
        norm = np.linalg.norm(delta_ewrt_vo) 
        if norm == 0: 
            return None 
        delta_ewrt_vo_norm = delta_ewrt_vo / norm 
        heading = _get_heading(delta_ewrt_vo_norm) 
        vo_tform_goal = np.array([ 
            world_tform_object.x - delta_ewrt_vo_norm[0] * dist_margin, 
            world_tform_object.y - delta_ewrt_vo_norm[1] * dist_margin 
        ]) 
        se2_pose = geo.SE2Pose(position=geo.Vec2(x=vo_tform_goal[0], y=vo_tform_goal[1]), angle=heading) 
        tag_cmd = RobotCommandBuilder.synchro_se2_trajectory_command(se2_pose, 
                                                                     frame_name=VISION_FRAME_NAME, 
                                                                     params=mobility_params) 
        return tag_cmd 
     
     
    def _get_heading(xhat): 
        zhat = [0.0, 0.0, 1.0] 
        yhat = np.cross(zhat, xhat) 
        mat = np.array([xhat, yhat, zhat]).transpose() 
        return Quat.from_matrix(mat).to_yaw() 
     
     
    def set_default_body_control(): 
        """Set default body control params to current body position""" 
        footprint_R_body = geometry.EulerZXY() 
        position = geo.Vec3(x=0.0, y=0.0, z=0.0) 
        rotation = footprint_R_body.to_quaternion() 
        pose = geo.SE3Pose(position=position, rotation=rotation) 
        point = trajectory_pb2.SE3TrajectoryPoint(pose=pose) 
        traj = trajectory_pb2.SE3Trajectory(points=[point]) 
        return spot_command_pb2.BodyControlParams(base_offset_rt_footprint=traj) 
     
     
    def get_mobility_params(): 
        """Gets mobility parameters for following""" 
        vel_desired = .75 
        speed_limit = geo.SE2VelocityLimit( 
            max_vel=geo.SE2Velocity(linear=geo.Vec2(x=vel_desired, y=vel_desired), angular=.25)) 
        body_control = set_default_body_control() 
        mobility_params = spot_command_pb2.MobilityParams(vel_limit=speed_limit, obstacle_params=None, 
                                                          body_control=body_control, 
                                                          locomotion_hint=spot_command_pb2.HINT_TROT) 
        return mobility_params 
     
     
    def depth_to_xyz(depth, pixel_x, pixel_y, focal_length, principal_point): 
        """Calculate the transform to point in image using camera intrinsics and depth""" 
        x = depth * (pixel_x - principal_point.x) / focal_length.x 
        y = depth * (pixel_y - principal_point.y) / focal_length.y 
        z = depth 
        return x, y, z 
     
     
    def remove_ground_from_depth_image(raw_depth_image, focal_length, principal_point, world_tform_cam, 
                                       world_tform_gpe, ground_tolerance=0.04): 
        """ Simple ground plane removal algorithm. Uses ground height 
            and does simple z distance filtering. 
      
        Args: 
            raw_depth_image (np.array): Depth image 
            focal_length (Vec2): Focal length of camera that produced the depth image 
            principal_point (Vec2): Principal point of camera that produced the depth image 
            world_tform_cam (SE3Pose): Transform from VO to camera frame 
            world_tform_gpe (SE3Pose): Transform from VO to GPE frame 
            ground_tolerance (float): Distance in meters to add to the ground plane 
        """ 
        new_depth_image = raw_depth_image 
     
        # same functions as depth_to_xyz, but converted to np functions 
        indices = np.indices(raw_depth_image.shape) 
        xs = raw_depth_image * (indices[1] - principal_point.x) / focal_length.x 
        ys = raw_depth_image * (indices[0] - principal_point.y) / focal_length.y 
        zs = raw_depth_image 
     
        # create xyz point cloud 
        camera_tform_points = np.stack([xs, ys, zs], axis=2) 
        # points in VO frame 
        world_tform_points = world_tform_cam.transform_cloud(camera_tform_points) 
        # array of booleans where True means the point was below the ground plane plus tolerance 
        world_tform_points_mask = (world_tform_gpe.z - world_tform_points[:, :, 2]) < ground_tolerance 
        # remove data below ground plane 
        new_depth_image[world_tform_points_mask] = 0 
        return new_depth_image 
     
     
    def get_distance_to_closest_object_depth(x_min, x_max, y_min, y_max, depth_scale, raw_depth_image, 
                                             histogram_bin_size=0.50, minimum_number_of_points=10, 
                                             max_distance=8.0): 
        """Make a histogram of distances to points in the cloud and take the closest distance with 
        enough points. 
      
        Args: 
            x_min (int): minimum x coordinate (column) of object to find 
            x_max (int): maximum x coordinate (column) of object to find 
            y_min (int): minimum y coordinate (row) of object to find 
            y_max (int): maximum y coordinate (row) of object to find 
            depth_scale (float): depth scale of the image to convert from sensor value to meters 
            raw_depth_image (np.array): matrix of depth pixels 
            histogram_bin_size (float): size of each bin of distances 
            minimum_number_of_points (int): minimum number of points before returning depth 
            max_distance (float): maximum distance to object in meters 
        """ 
        num_bins = math.ceil(max_distance / histogram_bin_size) 
     
        # get a sub-rectangle of the bounding box out of the whole image, then flatten 
        obj_depths = (raw_depth_image[y_min:y_max, x_min:x_max]).flatten() 
        obj_depths = obj_depths / depth_scale 
        obj_depths = obj_depths[obj_depths != 0] 
     
        hist, hist_edges = np.histogram(obj_depths, bins=num_bins, range=(0, max_distance)) 
     
        edges_zipped = zip(hist_edges[:-1], hist_edges[1:]) 
        # Iterate over the histogram and return the first distance with enough points. 
        for entry, edges in zip(hist, edges_zipped): 
            if entry > minimum_number_of_points: 
                filtered_depths = obj_depths[(obj_depths > edges[0]) & (obj_depths < edges[1])] 
                if len(filtered_depths) == 0: 
                    continue 
                return np.mean(filtered_depths) 
     
        return max_distance 
     
     
    def rotate_about_origin_degrees(origin, point, angle): 
        """ 
        Rotate a point counterclockwise by a given angle around a given origin. 
      
        Args: 
            origin (tuple): Origin to rotate the point around 
            point (tuple): Point to rotate 
            angle (float): Angle in degrees 
        """ 
        return rotate_about_origin(origin, point, math.radians(angle)) 
     
     
    def rotate_about_origin(origin, point, angle): 
        """ 
        Rotate a point counterclockwise by a given angle around a given origin. 
      
        Args: 
            origin (tuple): Origin to rotate the point around 
            point (tuple): Point to rotate 
            angle (float): Angle in radians 
        """ 
        orig_x, orig_y = origin 
        pnt_x, pnt_y = point 
     
        ret_x = orig_x + math.cos(angle) * (pnt_x - orig_x) - math.sin(angle) * (pnt_y - orig_y) 
        ret_y = orig_y + math.sin(angle) * (pnt_x - orig_x) + math.cos(angle) * (pnt_y - orig_y) 
        return int(ret_x), int(ret_y) 
     
     
    def get_object_position(world_tform_cam, world_tform_gpe, visual_dims, depth_image, bounding_box, 
                            rotation_angle): 
        """ 
        Extract the bounding box, then find the mode in that region. 
      
        Args: 
            world_tform_cam (SE3Pose): SE3 transform from world to camera frame 
            visual_dims (Tuple): (cols, rows) tuple from the visual image 
            depth_image (ImageResponse): From a depth camera corresponding to the visual_image 
            bounding_box (list): Bounding box from tensorflow 
            rotation_angle (float): Angle (in degrees) to rotate depth image to match cam image rotation 
        """ 
     
        # Make sure there are two images. 
        if visual_dims is None or depth_image is None: 
            # Fail. 
            return 
     
        # Rotate bounding box back to original frame 
        points = [(bounding_box[1], bounding_box[0]), (bounding_box[3], bounding_box[0]), 
                  (bounding_box[3], bounding_box[2]), (bounding_box[1], bounding_box[2])] 
     
        origin = (visual_dims[0] / 2, visual_dims[1] / 2) 
     
        points_rot = [rotate_about_origin_degrees(origin, point, rotation_angle) for point in points] 
     
        # Get the bounding box corners. 
        y_min = max(0, min([point[1] for point in points_rot])) 
        x_min = max(0, min([point[0] for point in points_rot])) 
        y_max = min(visual_dims[1], max([point[1] for point in points_rot])) 
        x_max = min(visual_dims[0], max([point[0] for point in points_rot])) 
     
        # Check that the bounding box is valid. 
        if (x_min < 0 or y_min < 0 or x_max > visual_dims[0] or y_max > visual_dims[1]): 
            print(f'Bounding box is invalid: ({x_min}, {y_min}) | ({x_max}, {y_max})') 
            print(f'Bounds: ({visual_dims[0]}, {visual_dims[1]})') 
            return 
     
        # Unpack the images. 
        try: 
            if depth_image.shot.image.pixel_format == image_pb2.Image.PIXEL_FORMAT_DEPTH_U16: 
                dtype = np.uint16 
            else: 
                dtype = np.uint8 
            img = np.fromstring(depth_image.shot.image.data, dtype=dtype) 
            if depth_image.shot.image.format == image_pb2.Image.FORMAT_RAW: 
                img = img.reshape(depth_image.shot.image.rows, depth_image.shot.image.cols) 
            else: 
                img = cv2.imdecode(img, -1) 
            depth_image_pixels = img 
            depth_image_pixels = remove_ground_from_depth_image( 
                depth_image_pixels, depth_image.source.pinhole.intrinsics.focal_length, 
                depth_image.source.pinhole.intrinsics.principal_point, world_tform_cam, world_tform_gpe) 
            # Get the depth data from the region in the bounding box. 
            max_distance = 8.0 
            depth = get_distance_to_closest_object_depth(x_min, x_max, y_min, y_max, 
                                                         depth_image.source.depth_scale, 
                                                         depth_image_pixels, max_distance=max_distance) 
     
            if depth >= max_distance: 
                # Not enough depth data. 
                print('Not enough depth data.') 
                return False 
            else: 
                print(f'distance to object: {depth}') 
     
            center_x = round((x_max - x_min) / 2.0 + x_min) 
            center_y = round((y_max - y_min) / 2.0 + y_min) 
     
            tform_x, tform_y, tform_z = depth_to_xyz( 
                depth, center_x, center_y, depth_image.source.pinhole.intrinsics.focal_length, 
                depth_image.source.pinhole.intrinsics.principal_point) 
            camera_tform_obj = SE3Pose(tform_x, tform_y, tform_z, Quat()) 
     
            return world_tform_cam * camera_tform_obj 
        except Exception as exc:  # pylint: disable=broad-except 
            print(f'Error getting object position: {exc}') 
            return 
     
     
    def _check_model_path(model_path): 
        if model_path is None or \ 
        not os.path.exists(model_path) or \ 
        not os.path.isfile(model_path): 
            print(f'ERROR, could not find model file {model_path}') 
            return False 
        return True 
     
     
    def _check_and_load_json_classes(config_path): 
        if os.path.isfile(config_path): 
            with open(config_path) as json_classes: 
                global COCO_CLASS_DICT  # pylint: disable=global-statement 
                COCO_CLASS_DICT = json.load(json_classes) 
     
     
    def _find_highest_conf_source(processed_boxes_entry): 
        highest_conf_source = None 
        max_score = 0 
        for key, capture in processed_boxes_entry.items(): 
            if 'scores' in capture.keys(): 
                if len(capture['scores']) > 0 and capture['scores'][0] > max_score: 
                    highest_conf_source = key 
                    max_score = capture['scores'][0] 
        return highest_conf_source 
     
     
    def signal_handler(signal, frame): 
        print('Interrupt caught, shutting down') 
        SHUTDOWN_FLAG.value = 1 
     
     
    def main(): 
        """Command line interface.""" 
     
        parser = argparse.ArgumentParser() 
        parser.add_argument( 
            '--model-path', default='/model.pb', help= 
            ('Local file path to the Tensorflow model, example pre-trained models can be found at ' 
             'https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/tf1_detection_zoo.md' 
            )) 
        parser.add_argument('--classes', default='/classes.json', type=str, 
                            help='File containing json mapping of object class IDs to class names') 
        parser.add_argument('--number-tensorflow-processes', default=1, type=int, 
                            help='Number of Tensorflow processes to run in parallel') 
        parser.add_argument('--detection-threshold', default=0.7, type=float, 
                            help='Detection threshold to use for Tensorflow detections') 
        parser.add_argument( 
            '--sleep-between-capture', default=0.2, type=float, 
            help=('Seconds to sleep between each image capture loop iteration, which captures ' 
                  'an image from all cameras')) 
        parser.add_argument( 
            '--detection-class', default=1, type=int, 
            help=('Detection classes to use in the Tensorflow model.' 
                  'Default is to use 1, which is a person in the Coco dataset')) 
        parser.add_argument( 
            '--max-processing-delay', default=7.0, type=float, 
            help=('Maximum allowed delay for processing an image. ' 
                  'Any image older than this value will be skipped')) 
        parser.add_argument('--test-mode', action='store_true', 
                            help='Run application in test mode, don\'t execute commands') 
     
        bosdyn.client.util.add_base_arguments(parser) 
        bosdyn.client.util.add_payload_credentials_arguments(parser) 
        options = parser.parse_args() 
        signal.signal(signal.SIGINT, signal_handler) 
        try: 
            # Make sure the model path is a valid file 
            if not _check_model_path(options.model_path): 
                return False 
     
            # Check for classes json file, otherwise use the COCO class dictionary 
            _check_and_load_json_classes(options.classes) 
     
            global TENSORFLOW_PROCESS_BARRIER  # pylint: disable=global-statement 
            TENSORFLOW_PROCESS_BARRIER = Barrier(options.number_tensorflow_processes + 1) 
            # Start Tensorflow processes 
            tf_processes = start_tensorflow_processes(options.number_tensorflow_processes, 
                                                      options.model_path, options.detection_class, 
                                                      options.detection_threshold, 
                                                      options.max_processing_delay) 
     
            # sleep to give the Tensorflow processes time to initialize 
            try: 
                TENSORFLOW_PROCESS_BARRIER.wait() 
            except BrokenBarrierError as exc: 
                print(f'Error waiting for Tensorflow processes to initialize: {exc}') 
                return False 
            # Start the API related things 
     
            # Create robot object with a world object client 
            sdk = bosdyn.client.create_standard_sdk('SpotFollowClient') 
            robot = sdk.create_robot(options.hostname) 
     
            if options.payload_credentials_file: 
                robot.authenticate_from_payload_credentials( 
                    *bosdyn.client.util.get_guid_and_secret(options)) 
            else: 
                bosdyn.client.util.authenticate(robot) 
     
            # Time sync is necessary so that time-based filter requests can be converted 
            robot.time_sync.wait_for_sync() 
     
            # Verify the robot is not estopped and that an external application has registered and holds 
            # an estop endpoint. 
            assert not robot.is_estopped(), 'Robot is estopped. Please use an external E-Stop client,' \ 
                                            ' such as the estop SDK example, to configure E-Stop.' 
     
            # Create the sdk clients 
            robot_state_client = robot.ensure_client(RobotStateClient.default_service_name) 
            robot_command_client = robot.ensure_client(RobotCommandClient.default_service_name) 
            lease_client = robot.ensure_client(LeaseClient.default_service_name) 
            image_client = robot.ensure_client(ImageClient.default_service_name) 
            source_list = get_source_list(image_client) 
            image_task = AsyncImage(image_client, source_list) 
            robot_state_task = AsyncRobotState(robot_state_client) 
            task_list = [image_task, robot_state_task] 
            _async_tasks = AsyncTasks(task_list) 
            print('Detect and follow client connected.') 
     
            lease = lease_client.take() 
            lease_keep = LeaseKeepAlive(lease_client) 
            # Power on the robot and stand it up 
            resp = robot.power_on() 
            try: 
                blocking_stand(robot_command_client) 
            except CommandFailedError as exc: 
                print(f'Error ({exc}) occurred while trying to stand. Check robot surroundings.') 
                return False 
            except CommandTimedOutError as exc: 
                print(f'Stand command timed out: {exc}') 
                return False 
            print('Robot powered on and standing.') 
            params_set = get_mobility_params() 
     
            # This thread starts the async tasks for image and robot state retrieval 
            update_thread = Thread(target=_update_thread, args=[_async_tasks]) 
            update_thread.daemon = True 
            update_thread.start() 
            # Wait for the first responses. 
            while any(task.proto is None for task in task_list): 
                time.sleep(0.1) 
     
            # Start image capture process 
            image_capture_thread = Process(target=capture_images, 
                                           args=(image_task, options.sleep_between_capture), 
                                           daemon=True) 
            image_capture_thread.start() 
            while not SHUTDOWN_FLAG.value: 
                # This comes from the tensorflow processes and limits the rate of this loop 
                try: 
                    entry = PROCESSED_BOXES_QUEUE.get_nowait() 
                except Empty: 
                    continue 
                # find the highest confidence bounding box 
                highest_conf_source = _find_highest_conf_source(entry) 
                if highest_conf_source is None: 
                    # no boxes or scores found 
                    continue 
                capture_to_use = entry[highest_conf_source] 
                raw_time = capture_to_use['raw_image_time'] 
                time_gap = time.time() - raw_time 
                if time_gap > options.max_processing_delay: 
                    continue  # Skip image due to delay 
     
                # Find the transform to the highest confidence object using the depth sensor 
                get_object_position_start = time.time() 
                robot_state = robot_state_task.proto 
                world_tform_gpe = get_a_tform_b(robot_state.kinematic_state.transforms_snapshot, 
                                                VISION_FRAME_NAME, GROUND_PLANE_FRAME_NAME) 
                world_tform_object = get_object_position( 
                    capture_to_use['world_tform_cam'], world_tform_gpe, capture_to_use['visual_dims'], 
                    capture_to_use['depth_image'], capture_to_use['boxes'][0], 
                    ROTATION_ANGLES[capture_to_use['source']]) 
                get_object_position_end = time.time() 
                print(f'system_cap_time: {capture_to_use["system_cap_time"]}, ' 
                      f'image_queued_time: {capture_to_use["image_queued_time"]}, ' 
                      f'processed_image_start_time: {capture_to_use["processed_image_start_time"]}, ' 
                      f'processed_image_end_time: {capture_to_use["processed_image_end_time"]}, ' 
                      f'get_object_position_start_time: {get_object_position_start}, ' 
                      f'get_object_position_end_time: {get_object_position_end}, ') 
     
                # get_object_position can fail if there is insufficient depth sensor information 
                if not world_tform_object: 
                    continue 
     
                scores = capture_to_use['scores'] 
                print(f'Position of object with confidence {scores[0]}: {world_tform_object}') 
                print(f'Process latency: {time.time() - capture_to_use["system_cap_time"]}') 
                tag_cmd = get_go_to(world_tform_object, robot_state, params_set) 
                end_time = 15.0 
                if tag_cmd is not None: 
                    if not options.test_mode: 
                        print('executing command') 
                        robot_command_client.robot_command(lease=None, command=tag_cmd, 
                                                           end_time_secs=time.time() + end_time) 
                    else: 
                        print('Running in test mode, skipping command.') 
     
            # Shutdown lease keep-alive and return lease gracefully. 
            lease_keep.shutdown() 
            lease_client.return_lease(lease) 
            return True 
        except Exception as exc:  # pylint: disable=broad-except 
            LOGGER.error('Spot Tensorflow Detector threw an exception: %s', exc) 
            # Shutdown lease keep-alive and return lease gracefully. 
            return False  
     
     
    if __name__ == '__main__': 
        if not main(): 
            sys.exit(1)

    L’initiative américaine se fait dans un contexte de course à l’armement de robots à 4 pattes pour des applications militaires. L'armée chinoise a dévoilé un nouveau type de compagnon de combat pour ses soldats : un robot-chien avec une mitrailleuse attachée à son dos. Dans une vidéo diffusée par l'agence de presse gouvernementale CCTV, on voit des membres des militaires chinois opérer sur un champ de tir aux côtés d'un robot à quatre pattes sur lequel est monté ce qui semble être une variante du fusil d'assaut QBZ-95 de 5,8 x 42 mm, dans le cadre des récents exercices militaires conjoints Golden Dragon 24 menés par la Chine et le Cambodge dans le golfe de Thaïlande.

    Dans un scénario, les soldats chinois se tiennent de part et d'autre d'une porte tandis que le chien robot pénètre dans le bâtiment devant eux ; dans un autre, le robot tire une rafale de balles alors qu'il avance sur une cible. « Il peut servir de nouveau membre dans nos opérations de combat urbain, remplaçant nos membres pour mener la reconnaissance, identifier l'ennemi et frapper la cible pendant notre entraînement », rapporte la CCTV des propos d’un soldat chinois montrant le robot en train d'opérer.

    L'année dernière, le Pentagone a expérimenté l'équipement de robots terrestres quadrupèdes avec sa carabine standard M4A1 de 5,56 x 45 mm, le fusil XM7 de 6,8 mm que l'armée américaine est en train d'adopter dans le cadre de son programme « Next Generation Squad Weapon », et même l'arme antichar légère M72 qui est en service au sein des troupes américaines depuis la guerre du Vietnam. Quelques semaines avant que CCTV ne publie ses images de chiens robots armés en action, le Marine Corps Special Operations Command (MARSOC) a révélé qu'il expérimentait l'ajout à ses propres chiens mécanisés de systèmes d'armes montés basés sur le système d'armes à distance SENTRY de l'entreprise de défense Onyx, basé sur l'intelligence artificielle.

    Les responsables américains de la défense se sont empressés de souligner que le développement de robots-chiens armés était, à ce stade, purement expérimental, destiné à aider les planificateurs militaires à explorer le domaine du possible en ce qui concerne les applications potentielles de systèmes robotiques révolutionnaires dans un futur conflit, comme l'a déclaré un responsable de l'armée en août dernier. Mais comme les soldats de l'armée de terre effectuent des exercices d'assaut urbain avec des robots-chiens et que le corps des Marines envisage de plus en plus d'utiliser des quadrupèdes mécaniques pour renforcer les formations futures grâce à la robotique intelligente, l'armée américaine pourrait bien être obligée d'envisager sérieusement d'adopter des chiens robots armés pour le combat, avant la Chine.

    Tous les pays sont lancés dans le développement d’armes animées par l’intelligence artificielle

    Suite aux attaques menées par les militants du Hamas le 7 octobre dernier, les forces israéliennes ont frappé plus de 22 000 cibles à l'intérieur de Gaza. Depuis la fin de la trêve temporaire, le 1er décembre, l'armée de l'air israélienne a frappé plus de 3500 sites. Pour y parvenir, elle met à contribution une intelligence artificielle dénommée « Gospel » afin d'identifier en temps réel le plus grand nombre de cibles ennemies.


    En septembre 2022, l'armée israélienne a commencé à installer une arme automatique à un poste de contrôle très fréquenté de la ville d'Hébron (Al-Khalil), en Cisjordanie occupée. Les tourelles jumelles ont été installées au sommet d'une tour de garde surplombant le camp de réfugiés d'Al-Aroub. « Elle tire toute seule sans intervention de la part du soldat. Quand un soldat israélien voit un petit garçon, il appuie sur un bouton ou quelque chose comme ça et elle tire toute seule. Elle est très rapide, même plus rapide que les soldats. Les bombes lacrymogènes qu'il tire peuvent atteindre l'extrémité du camp et tout le reste », a déclaré un résident du camp.

    La tourelle télécommandée a été développée par la société de défense israélienne Smart Shooter, qui a mis au point un système de contrôle de tir autonome appelé SMASH, qui peut être fixé sur des fusils d'assaut pour suivre et verrouiller des cibles à l'aide d'un traitement d'image basé sur l'intelligence artificielle. Le site Web de la société appelle ce système "One Shot-One Hit" (qui pourrait être traduit en français par : "un tir - un succès". Elle se vante d'avoir réussi à "combiner un matériel simple à installer avec un logiciel de traitement d'image avancé pour transformer des armes légères de base en armes intelligentes du XXIe siècle".

    La société affirme que la technologie SMASH permet de surmonter les défis auxquels sont confrontés les soldats lors des batailles, tels que l'effort physique, la fatigue, le stress et la pression mentale pour viser avec précision et assurer le succès du tireur. « Notre objectif est de permettre à tous les corps d'infanterie de bénéficier des armes de précision. Quelle que soit l'expérience ou la mission du soldat, notre système lui permet de ne pas faire d'erreur lorsqu'il tire et de toucher la cible sans faute. Tout soldat devient un véritable tireur d'élite », a déclaré Michal Mor, fondateur et PDG de Smart Shooter, lors d'une interview en 2020.

    La tourelle vue à Hébron n'est pas annoncée sur le site Web de l'entreprise israélienne, mais deux autres tourelles automatisées, 'SMASH HOPPER' et 'SMASH HOPPER P', sont équipées de fusils d'assaut et du système Smart Shooter. « Le HOPPER peut être monté dans plusieurs configurations, notamment sur un trépied, un mât fixe, un navire de surface et des véhicules », indique le site Web de l'entreprise. Dans l'ensemble, l'entreprise indique que la technologie SMASH est censée améliorer l'efficacité des missions en engageant avec précision et en éliminant les cibles terrestres, aériennes, statiques ou mobiles, de jour comme de nuit.

    « Habituellement, le terroriste se trouve dans un environnement civil avec de nombreuses personnes que nous ne voulons pas blesser. Nous permettons au soldat de regarder à travers son système de contrôle de tir, pour s'assurer que la cible qu'il veut atteindre est la cible légitime. Une fois qu'il aura verrouillé la cible, le système s'assurera que la balle sera libérée lorsqu'il appuiera sur la gâchette, uniquement sur la cible légitime et qu'aucun des passants ne pourra être touché par l'arme », a déclaré Mor. Les militants des droits de l'homme s'inquiètent de "la déshumanisation numérique des systèmes d'armes".

    Selon les médias locaux, l'armée israélienne a déclaré qu'elle teste la possibilité d'utiliser le système pour appliquer des méthodes approuvées de dispersion de la foule, qui n'incluent pas le tir de balles réelles. « Dans le cadre des préparatifs améliorés de l'armée pour faire face aux personnes qui perturbent l'ordre dans la région, elle examine la possibilité d'utiliser des systèmes télécommandés pour employer des mesures approuvées de dispersion de foule. Cela n'inclut pas le contrôle à distance de tirs à balles réelles », explique un porte-parole de l'armée israélienne. Mais cela n'a pas suffi à calmer les craintes des militants des droits de l'homme.

    L'armée israélienne a également précisé qu'au cours de sa phase pilote, le système n'utilisera que des balles à pointe éponge. Cependant, des experts ont signalé qu'à plusieurs reprises, des balles à pointe éponge ont causé des blessures permanentes à des personnes en Cisjordanie occupée et en Israël, certaines ayant même perdu leurs yeux. Des militants des droits de l'homme d'Hébron ont exprimé leur inquiétude quant à la défaillance du système qui pourrait avoir un impact sur de nombreuses personnes, notant que le système a été placé au centre d'une zone fortement peuplée, avec des centaines de personnes passant à proximité.

    En outre, les militants des droits de l'homme, ainsi que d'autres critiques, affirment également que ce dispositif est un nouvel exemple de l'utilisation par Israël des Palestiniens comme cobayes, ce qui lui permettrait de commercialiser sa technologie militaire comme testée sur le terrain auprès des gouvernements du monde entier. « Je vois cela comme une transition du contrôle humain au contrôle technologique. En tant que Palestiniens, nous sommes devenus un objet d'expérimentation et de formation pour l'industrie militaire israélienne de haute technologie, qui n'est pas responsable de ce qu'elle fait », a déclaré un habitant de la région.

    Les armes létales autonomes sont de plus en plus utilisées dans le monde. Les drones, notamment les drones kamikazes, sont largement utilisés de l'Ukraine en l'Éthiopie et les armes télécommandées ont été utilisées par les États-Unis en Irak, par la Corée du Sud le long de la frontière avec la Corée du Nord et par les rebelles syriens. Par ailleurs, la dépendance de l'armée israélienne à l'égard des systèmes automatisés s'est accrue au fils des ans. Ces dernières années, Israël a adopté de plus en plus de systèmes automatisés à des fins militaires, dont certains sont controversés. Cela comprend des robots et des chars d'assaut dotés d'une intelligence artificielle.

    L'année dernière, un rapport a révélé qu'Israël avait déployé un système élaboré de caméras en Cisjordanie occupée pour contrôler et surveiller les Palestiniens. Ces caméras seraient reliées à une base de données appelée "Blue Wolf". La base de données comprendrait des détails et des photos des Palestiniens, notamment les numéros d'identité, l'âge, le sexe, l'adresse, les numéros de plaque d'immatriculation, les liens avec d'autres individus, le statut professionnel en Israël et les impressions négatives que les soldats ont du comportement d'un Palestinien lorsqu'ils le rencontrent. Hébron aurait été l'une des premières villes à utiliser ce système.

    Selon d'autres rapports, en 2018, l'armée israélienne a commencé à utiliser un drone capable de lancer des gaz lacrymogènes pour disperser les manifestants dans la bande de Gaza. En 2021, même la police israélienne aurait commencé à employer de tels drones contre des manifestants en Israël. Dans ce contexte, beaucoup estiment que le déploiement des armes létales autonomes va davantage s'accélérer. Elon Musk, PDG de Tesla, affirme : « les drones autonomes sont le futur. Ce n’est pas que je veuille que l’avenir soit ainsi fait, mais c’est juste que c’est inéluctable. L’ère des avions de chasse est révolue ».

    En Europe, Milrem Robotics, leader européen en matière de robotique et de systèmes autonomes, a partagé en juin dernier une vidéo mettant en scène un char doté d'une IA qui fait exploser des voitures et d'autres cibles. L'entrepreneur a déclaré que le char, baptisé Type-X, est conçu pour permettre aux troupes de "percer les positions défensives de l'ennemi avec un risque minimal". Il devrait fournir aux troupes "une puissance de feu et une utilisation tactique égales ou supérieures à celles d'une unité équipée de véhicules de combat d'infanterie". Les critiques ont déclaré que la démonstration reflète un futur dystopique de la guerre.

    C’est la raison de la récente demande du Pape aux dirigeants du G7 d’interdire l’utilisation d’armes autonomes

    Le pape François a prononcé un discours historique devant les dirigeants du G7, les exhortant à reconnaître qu'ils ont le pouvoir de décider si l'intelligence artificielle devient un outil terrifiant ou créatif, et leur demandant d'interdire l'utilisation d'armes autonomes dans les guerres. Sa sortie s’inscrit dans la suite du Rome Call for AI Ethics et de l’appel à un traité mondial contraignant pour réglementer l’intelligence artificielle.

    « Nous condamnerions l'humanité à un avenir sans espoir si nous retirions aux gens la capacité de prendre des décisions sur eux-mêmes et sur leur vie », a déclaré le Pape François lors du dernier sommet du G7 en Italie.

    « À la lumière de la tragédie que constituent les conflits armés, il est urgent de reconsidérer le développement et l'utilisation de dispositifs tels que les armes autonomes létales et, à terme, d'en interdire l'usage.

    Cela commence par un engagement effectif et concret à introduire un contrôle humain toujours plus important et adéquat. Aucune machine ne devrait jamais choisir de prendre la vie d'un être humain.

    Une telle mesure représenterait un affaiblissement du sens de l'humanité et du concept de dignité humaine », a-t-il ajouté.

    Et vous ?

    Pour ou contre l'utilisation de l'IA à des fins militaires ? Si pour, à quel degré ou à quelles fins ? Si contre, pourquoi ?
    Êtes-vous surpris de la mise à contribution de l’intelligence artificielle sur les champs de bataille ?
    Que pensez-vous de ces divergences dans les négociations sur l'interdiction des armes autonomes ? Partagez-vous les avis selon lesquels elles constituent un indicateur de ce que l’atteinte d’un accord mondial contraignant ne sera pas possible ?

    Voir aussi :

    Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
    USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
    Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
    Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
    Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 28/11/2017, 21h42
  2. Réponses: 7
    Dernier message: 23/09/2016, 17h27
  3. Réponses: 23
    Dernier message: 04/07/2014, 10h29
  4. L'armée américaine surprise en train de pirater un logiciel
    Par Stéphane le calme dans le forum Actualités
    Réponses: 14
    Dernier message: 06/12/2013, 15h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo