IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Le Pentagone va introduire 1 000 drones contrôlés par l'IA pour améliorer ses capacités de combat aérien


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 530
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 530
    Points : 199 213
    Points
    199 213
    Par défaut Le Pentagone va introduire 1 000 drones contrôlés par l'IA pour améliorer ses capacités de combat aérien
    L'armée américaine voudrait enseigner à l'IA des notions basiques de bon sens,
    dans le cadre de son programme Machine Common Sense

    Il arrive qu’une intelligence artificielle, dans son processus d’apprentissage, puisse faire des erreurs, parfois amusantes pour certains. Cependant, ce domaine est de plus en plus utilisé dans des cas critiques, tels que la conduite dans les voitures autonomes ou la pose de diagnostics médicaux où les erreurs ne peuvent en aucun cas être drôles.

    C’est pourquoi la DARPA (Defense Advanced Research Projects Agency), l’agence du département de la Défense des États-Unis chargée de la recherche et développement des nouvelles technologies destinées à un usage militaire, a décidé de s’attaquer au défaut le plus fondamental de l’Intelligence artificielle : le bon sens dont elle est dépourvue.

    « Le bon sens est la bête noire de l'intelligence artificielle », a déclaré Oren Etzioni, PDG de l'Allen Institute for AI, une organisation de recherche à but non lucratif basée à Seattle, qui explore les limites de la technologie. « C’est un peu ineffable [qui ne peut être exprimé par des paroles] , mais vous voyez ses effets sur tout ».

    Le nouveau programme Machine Common Sense (MCS) de la DARPA lancera un concours demandant aux algorithmes d’IA de donner un sens à des questions telles que celle-ci :

    « Une élève met deux plantes identiques dans le même type et la même quantité de sol. Elle leur donne la même quantité d'eau. Elle place l'une de ces plantes près d'une fenêtre et l'autre dans une pièce sombre. L'usine située près de la fenêtre produira plus d'eau (A) d'oxygène (B) ou de dioxyde de carbone ( C ) ? »

    Un programme informatique aura donc besoin de comprendre le fonctionnement de la photosynthèse pour résoudre le problème. Le simple fait de nourrir une machine de nombreuses questions précédentes ne pourra pas permettre de résoudre le problème de manière fiable.

    Nom : darpa.png
Affichages : 2602
Taille : 167,2 Ko

    Une stratégie qui pourra éviter des erreurs comme celle de l’IA Tay ?

    Ces points de repère se concentreront sur le langage, en parti parce que cela rend les tests relativement simples mais aussi parce qu’à lui seul il est capable de mettre les machines en déroute. Nous avons plusieurs exemples, à l’instar de l’IA Tay de Microsoft, son chatbot qui était supposé reproduire une conversation qu’aurait tenue une jeune femme âgée entre 18 et 24 ans sur les plateformes Twitter, Kik et GroupMe, que l’entreprise a dû se résoudre à déconnecter d’internet en 2016 moins de 24 heures après des tweets comme « je déteste les féministes, et ils devraient tous mourir et brûler en enfer », ou « Hitler avait raison, je déteste les juifs ».

    Tandis que Tay était en développement, de nombreux filtres lui ont été appliqués et divers groupes de bêta testeurs l’ont essayé. Un accent a été mis sur l’expérience positive. « Une fois que nous étions satisfaits de la façon dont Tay interagissait avec les utilisateurs, nous avons voulu inviter un plus grand groupe de personnes à discuter avec elle. C’est par un accroissement des interactions que nous espérons en apprendre plus et que l’IA fasse de mieux en mieux ».

    Pour commencer cette aventure, Twitter a été le choix logique de Microsoft, sans doute à cause du nombre d’utilisateurs. « Malheureusement, dans les premières 24 heures de sa mise en ligne, une attaque coordonnée, lancée par quelques individus, a exploité une vulnérabilité dans Tay. Bien que nous soyons préparés à plusieurs cas d’abus du système, nous avons fait un contrôle critique de cette attaque spécifique. Par conséquent, Tay a fait des tweets de mots et d’images très inappropriés », a expliqué Microsoft. « Nous prenons l’entière responsabilité pour ne pas avoir pu voir venir cette possibilité d’attaque », a indiqué Microsoft qui a avancé « prendre cela comme une leçon » qui sera combinée à ses expériences en Chine, au Japon et aux États-Unis. Pour le moment, la société voudrait d’abord colmater la faille qui a été exploitée.

    Concrètement, que s’est-il passé ? L’un des problèmes avec les machines d’apprentissage c’est qu’elles ne « savent » pas ce dont elles sont en train de parler. Aussi, les utilisateurs 4chan et 8chan, qui se sont fait une réputation en ligne avec des théories du complot, mais aussi par leur capacité à mobiliser des lecteurs pour participer à des campagnes en ligne, ont fait savoir sur leurs espaces qu’ils allaient apprendre au bot à être raciste.

    C’est 4chan qui a découvert le premier le bot, expliquant sur son espace qu’il allait faire un carnage. Plusieurs échanges privés avec le bot ont été partagés pour célébrer les tentatives de voir Tay accepter des choses horribles.

    Pour Etzioni les questions offrent un moyen de mesurer les progrès accomplis dans la compréhension du bon sens, ce qui sera crucial.

    Nom : darpa-ia-660x330.jpg
Affichages : 2025
Taille : 58,5 Ko

    L’apprentissage automatique, un outil puissant, mais fondamentalement limité

    Les entreprises technologiques commercialisent des techniques d’apprentissage automatique puissantes mais fondamentalement limitées. L’apprentissage en profondeur, par exemple, permet de reconnaître des mots dans la parole ou des objets dans des images, souvent avec une précision incroyable. Mais l'approche consiste généralement à alimenter de grandes quantités de données étiquetées (un signal audio brut ou les pixels d'une image) dans un grand réseau de neurones. Le système peut apprendre à identifier des modèles importants, mais il peut facilement commettre des erreurs car il n’a aucune notion du monde au sens large.

    En revanche, les bébés humains développent rapidement une compréhension intuitive du monde qui sert de base à leur intelligence.

    Cependant, la manière de résoudre le problème du sens commun est loin d’être évidente. Les tentatives précédentes pour aider les machines à comprendre le monde se sont concentrées sur la construction manuelle de grandes bases de connaissances. C’est une tâche lourde et essentiellement sans fin. Le plus célèbre de ces efforts est Cyc, un projet en préparation depuis des décennies.

    Le problème peut s'avérer extrêmement important. Après tout, le manque de bon sens est désastreux dans certaines situations critiques et pourrait éventuellement freiner l’intelligence artificielle. La DARPA investit depuis longtemps dans la recherche fondamentale sur l'IA. Les projets précédents ont permis de créer les voitures autonomes d'aujourd'hui.

    « L'absence de bon sens empêche un système intelligent de comprendre son monde, de communiquer naturellement avec les gens, de se comporter raisonnablement dans des situations imprévues et de tirer des enseignements de nouvelles expériences », a déclaré Dave Gunning, responsable de programme à la DARPA, dans un communiqué. « Cette absence est peut-être la barrière la plus importante entre les applications focalisées de l'IA que nous avons aujourd'hui et les applications de l'IA plus générales que nous aimerions créer à l'avenir ».

    Source : MIT

    Et vous ?

    Que pensez-vous de cette initiative ?
    La méthode employée vous semble-t-elle prometteuse ?
    Sans des notions de bon sens, peut-on réellement parler d'intelligence artificielle ?

    Voir aussi :

    Qui devra être tenu pour responsable si une intelligence artificielle fait un mauvais diagnostic, induisant un médecin en erreur ?
    Microsoft explique les raisons qui ont fait de son chatbot Tay un fan d'Hitler, l'entreprise parle d'une « attaque coordonnée »
    Deux chatbots chinois auraient été désactivés et reconditionnés, après avoir manqué de faire preuve de patriotisme
    Dadbot : un chatbot développé par un journaliste, pour conférer une immortalité artificielle à son défunt père
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Expert éminent
    Avatar de transgohan
    Homme Profil pro
    Développeur Temps réel Embarqué
    Inscrit en
    Janvier 2011
    Messages
    3 146
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Maine et Loire (Pays de la Loire)

    Informations professionnelles :
    Activité : Développeur Temps réel Embarqué

    Informations forums :
    Inscription : Janvier 2011
    Messages : 3 146
    Points : 9 386
    Points
    9 386
    Par défaut
    Données d'apprentissage de bon sens américain :
    - Les chinois sont méchants.
    - Les Etats Unis sont un modèle pour le monde entier.
    ect

    « Toujours se souvenir que la majorité des ennuis viennent de l'espace occupé entre la chaise et l'écran de l'ordinateur. »
    « Le watchdog aboie, les tests passent »

  3. #3
    Expert éminent
    Avatar de Immobilis
    Homme Profil pro
    Développeur .NET
    Inscrit en
    Mars 2004
    Messages
    6 559
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Développeur .NET

    Informations forums :
    Inscription : Mars 2004
    Messages : 6 559
    Points : 9 506
    Points
    9 506
    Par défaut
    En revanche, les bébés humains développent rapidement une compréhension intuitive du monde qui sert de base à leur intelligence.
    Même ceux qui regardent les émissions de télé-réalité?
    "Winter is coming" (ma nouvelle page d'accueil)

  4. #4
    Expert éminent
    Avatar de berceker united
    Profil pro
    SQL
    Inscrit en
    Février 2005
    Messages
    3 494
    Détails du profil
    Informations personnelles :
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : SQL
    Secteur : Finance

    Informations forums :
    Inscription : Février 2005
    Messages : 3 494
    Points : 6 062
    Points
    6 062
    Par défaut

    -heuu bonjour messieurs les robots, vous n'allez pas me tuer parce bien évidemment vous êtes doué du "bon sens" hein !.

    Honnêtement, quand je vois les progrès concernant l'intelligence artificiel, les progrès d'Atlas le robot de Boston Dynamics je m'inquiète sérieusement car l'IA + bon sens => Tuer les humains car ça serait du bon sens au vu de notre manière de vivre.
    Ok ça peu prêter à sourire mais je donne moins de 50 ans avant qu'on se pose de sérieuses questions sur l'autonomie d'un robot et s'il sera considéré comment doué de raisonnement/conscience, seront-il égaux face à la loi, peuvent-ils êtres désactivé mais si on le désactive est-ce considéré comme étant une peine de mort ? Le cinéma fiction nous a assez souvent montré vers ou nous allons.
    Mon avatar ? Ce n'est rien, c'est juste la tête que je fais lorsque je vois un code complètement frappa dingue !...

  5. #5
    Membre extrêmement actif
    Femme Profil pro
    None
    Inscrit en
    Août 2012
    Messages
    355
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : None

    Informations forums :
    Inscription : Août 2012
    Messages : 355
    Points : 716
    Points
    716
    Par défaut
    Citation Envoyé par berceker united Voir le message

    -heuu bonjour messieurs les robots, vous n'allez pas me tuer parce bien évidemment vous êtes doué du "bon sens" hein !.

    Honnêtement, quand je vois les progrès concernant l'intelligence artificiel, les progrès d'Atlas le robot de Boston Dynamics je m'inquiète sérieusement car l'IA + bon sens => Tuer les humains car ça serait du bon sens au vu de notre manière de vivre.
    Ok ça peu prêter à sourire mais je donne moins de 50 ans avant qu'on se pose de sérieuses questions sur l'autonomie d'un robot et s'il sera considéré comment doué de raisonnement/conscience, seront-il égaux face à la loi, peuvent-ils êtres désactivé mais si on le désactive est-ce considéré comme étant une peine de mort ? Le cinéma fiction nous a assez souvent montré vers ou nous allons.
    Non, non, non et NON !!! Bordel de merde...
    Vous vous gavez de films de fictions tel Terminator Ou I Robot et les prenez pour réalité ? Sachez que les scénario de ces films ont été écrit par des HUMAINS qui sont limités par leur propre imagination et leur propre intelligence ! De plus tout ce qu'il veulent faire c'est du spectacle, et un film où l'IA trouverait une solution pour que tout le monde soit réellement heureux dans le meilleur des mondes ce ne serait pas vendeur.
    Alors continuez de regarder des films, mais apprenez à faire la distinction avec la réalité, et apprenez à réfléchir par vous-même !

  6. #6
    Expert éminent Avatar de BufferBob
    Profil pro
    responsable R&D vidage de truites
    Inscrit en
    Novembre 2010
    Messages
    3 035
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : responsable R&D vidage de truites

    Informations forums :
    Inscription : Novembre 2010
    Messages : 3 035
    Points : 8 400
    Points
    8 400

  7. #7
    Membre chevronné
    Profil pro
    Inscrit en
    Décembre 2007
    Messages
    763
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Décembre 2007
    Messages : 763
    Points : 2 106
    Points
    2 106
    Par défaut
    elles vont se suicider si elles ont un peu de bon sens ^^. Ils faut surtout pas qu'elle se rende compte qu'elles bossent pour rien a faire des conneries et tout ça pour des humains qui ont 1/10 de leur QI ^^.

  8. #8
    Membre éprouvé
    Homme Profil pro
    Intégrateur Web
    Inscrit en
    Août 2012
    Messages
    263
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : Intégrateur Web
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Août 2012
    Messages : 263
    Points : 1 045
    Points
    1 045
    Par défaut
    Citation Envoyé par TheLastShot Voir le message
    Non, non, non et NON !!! Bordel de merde...
    Vous vous gavez de films de fictions tel Terminator Ou I Robot et les prenez pour réalité ? Sachez que les scénario de ces films ont été écrit par des HUMAINS qui sont limités par leur propre imagination et leur propre intelligence !
    T'es une IA, hein ? Avoue !

  9. #9
    Membre éclairé Avatar de Matthieu76
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Mars 2013
    Messages
    568
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2013
    Messages : 568
    Points : 890
    Points
    890
    Par défaut
    Citation Envoyé par TheLastShot Voir le message
    Non, non, non et NON !!! Bordel de merde...
    Vous vous gavez de films de fictions tel Terminator Ou I Robot et les prenez pour réalité ? Sachez que les scénario de ces films ont été écrit par des HUMAINS qui sont limités par leur propre imagination et leur propre intelligence ! De plus tout ce qu'il veulent faire c'est du spectacle, et un film où l'IA trouverait une solution pour que tout le monde soit réellement heureux dans le meilleur des mondes ce ne serait pas vendeur.
    Alors continuez de regarder des films, mais apprenez à faire la distinction avec la réalité, et apprenez à réfléchir par vous-même !
    Je suis d'accord avec toi, Terminator c'est le point Godwin de intelligence artificielle. Impossible de parler d'IA sur un forum sans que quelqu'un nous rebatte les oreilles avec "Les robots tueur vont contrôler le monde !!!" C'est un peu gavant à la fin.

  10. #10
    Expert éminent sénior

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mars 2017
    Messages
    1 177
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Madagascar

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2017
    Messages : 1 177
    Points : 78 775
    Points
    78 775
    Par défaut Les États-Unis veulent des drones autonomes alimentés par l’IA qui pourront décider seuls de tuer
    Les États-Unis veulent des drones autonomes alimentés par l’IA qui pourront décider seuls de tuer
    En recourant à des algorithmes d’autoapprentissage

    L’armée étasunienne a récemment annoncé qu’elle est en train de développer ses premiers drones autonomes, entièrement alimentés par l’intelligence artificielle (IA), qui seront capables de repérer et de cibler les véhicules ainsi que les personnes. Alors que les drones militaires actuels sont toujours contrôlés par des êtres humains, l’utilisation de cette nouvelle technologie sous-entend que ces machines seront en mesure de tuer « de leur propre chef » sans recourir à l’autorisation humaine.

    Une fois achevés, ces drones représenteront une version ultime du processus de militarisation de l’IA avec les dérives, les implications juridiques et les implications éthiques pour la société qui vont de pair. En même temps, cette situation nouvelle pourrait élargir le champ de la guerre, de sorte que les entreprises, ingénieurs et scientifiques qui opèrent dans le secteur stratégique de l’IA deviennent des cibles militaires valables.

    Nom : 980x (1).jpg
Affichages : 5316
Taille : 20,1 Ko

    Les drones militaires tueurs qui existent, à l’instar du MQ-9 Reaper étasunien, sont minutieusement contrôlés et pilotés par satellite. Si un pilote largue une bombe ou un missile, un opérateur humain guidera activement ce projectile vers la cible choisie à l’aide d’un laser. De sorte qu’en fin de compte, l’être humain conserve la responsabilité éthique, légale et opérationnelle finale de l’assassinat de cibles humaines désignées et que les émotions humaines, les jugements et l’éthique demeurent une composante indissociable des conflits.

    Il faut rappeler qu’il n’est pas nécessaire d’être responsable d’un meurtre pour garder des traces de traumatismes. Des spécialistes du renseignement et le personnel militaire analysent régulièrement des images de frappes de drones. Les recherches ont montré qu’il est possible de subir un préjudice psychologique et d’en garder les séquelles simplement en visionnant fréquemment des images d’une extrême violence.

    De nombreux opérateurs étasuniens ayant participé à des frappes mortelles effectuées à l’aide de drones comme le Reaper sont d’ailleurs convaincus qu’en fin de compte, l’action ultime d’appuyer sur la gâchette devrait revenir à un humain. Sortez l’humain et vous retirez par la même occasion toute humanité dans la décision de tuer.

    Un opérateur du MQ-9 Reaper a ainsi déclaré à ce propos : « Je suis persuadé que je permettrais à un insurgé, quelle que soit sa cible, de s’évader plutôt que d’effectuer un coup risqué qui pourrait mettre en péril la vie de civils ».

    La perspective de la mise en service de drones totalement autonomes et entièrement alimentés par l’IA modifierait radicalement les processus complexes et les décisions qui sous-tendent les assassinats militaires, alors que la responsabilité légale et éthique ne disparaît pas si on supprime la surveillance humaine. Au lieu de cela, la responsabilité incombera de plus en plus à d’autres personnes, et notamment aux scientifiques qui ont l’intelligence artificielle tueuse.

    Les implications juridiques de ces développements deviennent déjà évidentes. En vertu du droit international humanitaire en vigueur, les installations à « double usage » par exemple, celles-là qui développent des produits destinés à des applications civiles et militaires peuvent être prises pour cibles dans certaines circonstances.

    L’usage de systèmes d’armement basés sur des drones autonomes entièrement alimentés par l’IA pourrait amener les militaires à classer des lignes de code informatique et les entités responsables de leur création comme des dispositifs à double usage. Des entreprises technologiques qui opèrent, par exemple, dans le secteur de l’intelligence artificielle, leurs employés et leurs installations pourraient, dès lors, être attaquées par un État ennemi lors d’un conflit.

    Nom : 980x.jpg
Affichages : 4428
Taille : 36,5 Ko

    Si, par exemple, le logiciel d’IA de reconnaissance d’image Project Maven de Google est intégré à un drone tueur autonome américain, Google et Alphabet pourraient être impliqués dans une affaire de « meurtre » liée à l’usage de ce drone, comme tout autre contributeur civil qui aurait contribué à la conception de pareils systèmes autonomes mortels.

    Sur le plan éthique, les problèmes s’annoncent encore plus sérieux. En effet, l’intérêt des algorithmes d’autoapprentissage (ces « programmes indépendants » qui tirent des enseignements de toutes les données qu’ils peuvent collecter) repose sur le fait qu’ils sont censés améliorer la tâche qui leur est confiée.

    Ainsi, si un drone autonome létal veut améliorer son travail grâce à l’autoapprentissage, il faudra que quelqu’un décide à un moment donné que son développement a atteint un stade acceptable pour son déploiement. Dans le cadre de l’apprentissage automatique militarisé, cela signifie que les dirigeants politiques, les militaires et industriels devront spécifier combien de morts civiles pourront être considérées comme acceptables au fur et à mesure du perfectionnement de la technologie.

    Les expérimentations en demi-teintes récentes de dispositifs autonomes alimentés par l’IA dans la société devraient servir d’avertissement. Les expériences fatales observées chez Uber et Tesla avec des automobiles autonomes laissent penser qu’il est presque certain qu’il y aura des morts non intentionnelles lors de la mise en service de drones autonomes alimentés par l’IA à mesure que les bogues informatiques seront corrigés.

    Si on laisse aux machines le soin de décider qui doit mourir et qui doit vivre, en particulier à grande échelle, on pourrait très vite déboucher sur des exterminations sommaires. Tout gouvernement qui déchaînerait de telles forces violerait les valeurs qu’il prétendait défendre. En comparaison, un pilote de drone aux prises avec une décision de « tuer ou de ne pas tuer » devient le dernier rempart de l’humanité dans une situation souvent inhumaine de guerre.

    Source : We Are the mighty

    Et vous ?

    Qu’en pensez-vous ?

    Devrait-on confier la vie d’êtres humains à une IA et des machines dépourvues d’humanité ?

    Comment pourrait-on s’assurer que le travail des ingénieurs informatiques dans le domaine de l’IA servent davantage la création plutôt que la destruction et la mort ?

    Les impératifs de développement de nos sociétés passent-ils forcément par une militarisation des technologies stratégiques comme l’IA ?

    Voir aussi

    L'Europe estime qu'une IA ne doit pas avoir le droit de vie ou de mort sur le champ de bataille et appelle à interdire les robots-tueurs
    Les efforts de l'ONU pour réglementer l'usage militaire de l'IA et des SALA pourraient échouer à cause notamment des positions russes et américaines
    Interdiction des robots tueurs : quelques pays, y compris les USA et la Russie, bloquent les négociations menées au niveau des Nations Unies
    L'armée américaine voudrait enseigner à l'IA des notions basiques de bon sens dans le cadre de son programme Machine Common Sense
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  11. #11
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 511
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 511
    Points : 5 752
    Points
    5 752
    Par défaut
    La première cible :

    Sinon en France on pourrais s'en servir sur les champs elysées pour viser ça :



    « L’humour est une forme d'esprit railleuse qui s'attache à souligner le caractère comique, ridicule, absurde ou insolite de certains aspects de la réalité »

  12. #12
    Membre averti Avatar de Citrax
    Homme Profil pro
    Chargé d'affaire
    Inscrit en
    Juin 2014
    Messages
    188
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Chargé d'affaire
    Secteur : Conseil

    Informations forums :
    Inscription : Juin 2014
    Messages : 188
    Points : 385
    Points
    385
    Par défaut
    Tuer plus de cibles/personnes, reduire le personnel militaire, augmenter le nombre de bavures et se deresponsabiliser de ses actions. Bravo l'armee US.
    "Pourquoi faire compliqué......quand on peut faire simple......"

  13. #13
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 687
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 687
    Points : 1 382
    Points
    1 382
    Billets dans le blog
    7
    Par défaut
    Skynet semble devenir une réalité de jour en jour.

  14. #14
    Membre extrêmement actif
    Homme Profil pro
    Graphic Programmer
    Inscrit en
    Mars 2006
    Messages
    1 557
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Graphic Programmer
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2006
    Messages : 1 557
    Points : 3 978
    Points
    3 978
    Par défaut
    je comprends pas l’intérêt de créer une arme capable de tuer son créateur.... c'est un troll pour faire peur je pense.

  15. #15
    Membre averti
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Avril 2013
    Messages
    106
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : Bâtiment

    Informations forums :
    Inscription : Avril 2013
    Messages : 106
    Points : 373
    Points
    373
    Par défaut
    Citation Envoyé par Madmac Voir le message
    Skynet semble devenir une réalité de jour en jour.
    *toc toc toc*
    "Sarah Connor?"
    "Non, c'est A coté."

  16. #16
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 066
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 066
    Points : 74 261
    Points
    74 261
    Par défaut L'armée de l'air américaine teste un prototype de drone avec un logiciel basé sur l'intelligence artificielle
    L'armée de l'air américaine teste un prototype de drone avec un logiciel basé sur l'intelligence artificielle

    Il est propulsé en vol par un moteur de fusée. Il peut voler sur une distance égale à la largeur de la Chine. Il est furtif et peut transporter des missiles capables d'atteindre des cibles ennemies bien au-delà de sa portée visuelle. Mais ce qui distingue vraiment l'avion expérimental XQ-58A Valkyrie de l'armée de l'air, c'est qu'il est géré par une intelligence artificielle.

    Cela le place à l'avant-garde des efforts déployés par l'armée américaine pour exploiter les capacités d'une technologie émergente dont les vastes avantages potentiels sont tempérés par de profondes inquiétudes quant au degré d'autonomie qu'il convient d'accorder à une arme mortelle. Essentiellement un drone de nouvelle génération, le Valkyrie est un prototype de ce que l'armée de l'air espère voir devenir un puissant complément à sa flotte d'avions de chasse traditionnels, en donnant aux pilotes humains un essaim d'ailerons robotisés hautement compétents à déployer dans la bataille. Sa mission est de combiner l'intelligence artificielle et ses capteurs pour identifier et évaluer les menaces ennemies, puis, après avoir obtenu l'aval d'un pilote, de passer à l'acte...


    L'émergence de l'intelligence artificielle contribue à l'émergence d'une nouvelle génération de sous-traitants du Pentagone qui cherchent à saper, ou du moins à perturber, la primauté de longue date de la poignée d'entreprises géantes qui fournissent aux forces armées des avions, des missiles, des chars et des navires. La possibilité de construire des flottes d'armes intelligentes, mais relativement peu coûteuses, qui pourraient être déployées en grand nombre, permet aux responsables du Pentagone de réfléchir à de nouvelles façons d'affronter les forces ennemies.

    Le programme Valkyrie donne un aperçu de la manière dont le secteur de l'armement, la culture militaire, les tactiques de combat et la concurrence avec les pays rivaux sont remodelés par les progrès rapides de la technologie. L'acquisition et le maintien d'un avantage en matière d'intelligence artificielle est l'un des éléments d'une course de plus en plus ouverte avec la Chine pour la supériorité technologique en matière de sécurité nationale.

    Les planificateurs militaires craignent que l'on ne puisse plus compter sur la combinaison actuelle d'avions et de systèmes d'armes de l'armée de l'air, malgré les milliards de dollars investis dans ces appareils, pour dominer un conflit de grande ampleur avec la Chine, en particulier s'il impliquait une invasion de Taïwan par la Chine. En effet, la Chine équipe ses côtes et les îles artificielles qu'elle a construites en mer de Chine méridionale de plus d'un millier de missiles anti-navires et anti-aériens qui réduisent considérablement la capacité des États-Unis à répondre à une éventuelle invasion de Taïwan sans subir des pertes massives dans les airs et en mer.

    "Est-ce une réponse parfaite ? Ce n'est jamais une réponse parfaite lorsque l'on se projette dans l'avenir", a déclaré le général de division R. Scott Jobe, qui, jusqu'à cet été, était chargé de définir les exigences du programme de combat aérien, alors que l'armée de l'air s'efforce d'intégrer l'intelligence artificielle dans ses avions de chasse et ses drones. "Mais vous pouvez poser des dilemmes à vos adversaires potentiels, et l'un de ces dilemmes est la masse", a déclaré le général Jobe lors d'une interview au Pentagone, en faisant référence au déploiement d'un grand nombre de drones contre les forces ennemies. "Il est possible d'apporter de la masse à l'espace de bataille avec potentiellement moins de personnes."

    L'armée de l'air se rend compte qu'elle doit également faire face à des préoccupations profondes concernant l'utilisation militaire de l'intelligence artificielle, qu'il s'agisse de la crainte que la technologie ne se retourne contre ses créateurs humains (comme Skynet dans la série de films "Terminator") ou de réticences plus immédiates à l'idée de permettre aux algorithmes de guider l'utilisation de la force meurtrière.

    "On franchit une ligne morale en confiant le soin de tuer à des machines, en permettant à des capteurs informatiques plutôt qu'à des humains de prendre des vies humaines", a déclaré Mary Wareham, directrice de la division armes de Human Rights Watch, qui milite pour l'établissement de limites internationales sur les armes dites létalement autonomes.

    Une politique récemment révisée du Pentagone sur l'utilisation de l'intelligence artificielle dans les systèmes d'armes autorise l'utilisation autonome de la force létale, mais tout projet de construction ou de déploiement d'une telle arme doit d'abord être examiné et approuvé par un groupe militaire spécial. Les humains continueront à jouer un rôle central dans la nouvelle vision de l'armée de l'air, ont déclaré de hauts responsables du Pentagone, mais ils seront de plus en plus associés à des ingénieurs en logiciel et à des experts en apprentissage automatique, qui affineront constamment les algorithmes régissant le fonctionnement des robots qui voleront à leurs côtés.

    Les essais fonctionnels de base du drone n'étaient que la préparation au véritable spectacle, où le Valkyrie va au-delà de l'utilisation d'outils de pilotage automatique avancés et commence à tester les capacités de combat de son intelligence artificielle. Lors d'un test prévu dans le courant de l'année, le drone de combat sera invité à poursuivre puis à tuer une cible ennemie simulée au-dessus du golfe du Mexique, en élaborant sa propre stratégie pour la mission.

    Au cours de la phase actuelle, l'objectif est de tester la capacité de vol du Valkyrie et le logiciel d'intelligence artificielle, de sorte que l'aéronef ne transporte aucune arme. Le combat aérien prévu se déroulera avec un ennemi "construit", même si l'agent de l'I.A. à bord du Valkyrie croira qu'il s'agit d'un ennemi réel.

    Les responsables estiment qu'il faudra cinq à dix ans pour mettre au point un système de combat aérien basé sur l'intelligence artificielle. Les commandants de l'armée de l'air font pression pour accélérer l'effort, mais reconnaissent que la rapidité ne peut être le seul objectif. "Nous n'y parviendrons pas tout de suite, mais nous y arriverons", a déclaré le général Jobe. "[I]Il s'agit d'une technologie avancée qui s'améliore de jour en jour, au fur et à mesure que l'on continue à former ces algorithmes.

    Elle les oblige également à s'interroger sur le rôle que les humains devraient jouer dans les conflits menés avec des logiciels conçus pour tuer. L'article ajoute que l'armée de l'air américaine prévoit de construire 1 000 à 2 000 drones IA pour un coût unitaire de 3 millions de dollars. Certains se concentreront sur des missions de surveillance ou de réapprovisionnement, d'autres voleront en essaims d'attaque et d'autres encore serviront d'"ailier fidèle" à un pilote humain.

    Source : The New York Times

    Et vous ?

    Quel est votre avis sur le sujet ?
    Quel est votre avis sur la question morale de donner la décision de vie ou de mort à l'IA ?

    Voir aussi :

    Doit-on confier les décisions de vie ou de liberté à une intelligence artificielle ? Aux USA, une IA envoie des gens en prison et souvent à tort

    Les USA, la Chine et une soixantaine d'autres pays appellent à une utilisation « responsable » de l'IA militaire. Les critiques notent que cette déclaration n'est pas juridiquement contraignante

    Les États-Unis lancent une initiative sur l'utilisation de l'IA à des fins militaire, dans un contexte où la Chine ambitionne de devenir la super puissance du monde en matière d'IA
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  17. #17
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    590
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 590
    Points : 10 741
    Points
    10 741
    Par défaut L'armée américaine envisagerait d'équiper des chiens-robots semi-autonomes d'une nouvelle génération d'armes
    L'armée américaine envisagerait d'équiper des chiens-robots semi-autonomes d'une nouvelle génération d'armes de combat
    dans le but de les déployer avec les soldats sur les théâtres d'opérations

    L'armée américaine poursuit ses expérimentations en matière d'armes létales autonomes. Un nouveau rapport indique qu'elle envisage d'armer des chiens-robots de type Spot avec son dernier fusil d'infanterie afin d'aider les soldats dans des scénarios de combat rapproché. Un véhicule sans pilote quadrupède Vision 60 fabriqué par Ghost Robotics est déjà équipé de capteurs pour surveiller son fonctionnement lors de missions de reconnaissance et autres. L'armée envisage également de monter le nouveau fusil "Sig Sauer XM7", connu sous le nom de "Next Generation Squad Weapon", sur le robot. Les experts continuent de mettre en garde contre ce type de développement.

    Bhavanjot Singh, directeur technique scientifique senior au Combat Capabilities Development Command (DEVCOM) de l'armée américaine, a évoqué pour la première fois la possibilité d'armer le robot quadrupède Vision 60 Q-UGV avec le fusil d'assaut "Sig Sauer XM7" lors d'une réception fin juillet avec des législateurs à Washington, D.C. Selon certains rapports, l'armée a déjà expérimenté le montage d'une carabine M4A1 sur ce robot. Mais l'essai de la nouvelle carabine Sig Sauer XM7 marquerait une nouvelle frontière dans l'utilisation des robots autonomes destinés à épauler les soldats sur les théâtres d'opérations et dans les combats rapprochés.

    « La capacité unique du chien est de pouvoir traverser différents types de terrain que les véhicules à roues ne peuvent pas forcément emprunter », aurait déclaré Singh aux législateurs en faisant référence aux chiens-robot Vision 60 Q-UGV. Interrogé sur les remarques de Singh, le porte-parole du DEVCOM, Tim Ryder, a déclaré que le "Army Futures Command" (une initiative publique-privée qui gère des projets de modernisation de l'armée américaine) continue d'explorer l'application de l'intégration homme-machine, tout en avertissant que le développement d'un prototype ne signifie pas que les chiens-robots armés seront déployés sur le terrain.


    « Bien que les démonstrations de technologies avancées nous permettent d'explorer le domaine du possible en ce qui concerne les capacités de transformation pour les futures formations de combat, elles ne représentent pas nécessairement des programmes de recherche ou des investissements formels à l'échelle du service ni n'en résultent », a déclaré Ryder. Le XM7 (d'un calibre de 6,8 mm) et son arme sœur, le fusil automatique XM250, ont été adoptés dans le cadre du programme NGSW en 2022 pour remplacer respectivement la carabine M4 et l'arme automatique de peloton M249 dans les arsenaux de l'armée au cours de la prochaine décennie.

    Bien qu'il soit déjà populaire au sein des forces d'opérations spéciales américaines, des sources ont précédemment rapporté que certains soldats s'inquiétaient du fait que le XM7 soit trop grand et trop lourd pour fonctionner efficacement comme un fusil d'infanterie standard. Entre-temps, les chiens-robots, tels que le Vision 60 Q-UGV, sont devenus très courants au sein de l'armée américaine, remplissant des rôles comme l'amélioration de la sécurité du périmètre de diverses installations, le renforcement des capacités de renseignement, de surveillance, d'acquisition de cibles et de reconnaissance (ISTAR) pour les troupes dans des environnements éloignés.

    Ces chiens-robots exécuteraient même parfois certaines tâches de neutralisation des explosifs et munitions à la demande de leurs opérateurs en uniforme. Cependant, le chien-robot n'est pas le seul engin autonome que les États-Unis tentent de transformer en arme redoutable. Récemment, un rapport a signalé que l'armée de l'air américain teste un prototype de drone avec un logiciel basé sur l'IA. Selon le rapport, le drone est propulsé en vol par un moteur de fusée, peut voler sur une distance égale à la largeur de la Chine, est furtif et peut transporter des missiles capables d'atteindre des cibles ennemies bien au-delà de sa portée visuelle.

    Mais ce qui distingue vraiment le drone expérimental XQ-58A Valkyrie de l'armée de l'air, c'est qu'il est géré par une IA. Il est à l'avant-garde des efforts déployés par l'armée américaine pour exploiter les capacités d'une technologie émergente dont les vastes avantages potentiels sont tempérés par de profondes inquiétudes quant au degré d'autonomie qu'il convient d'accorder à une arme létale. Valkyrie est un prototype de ce que l'armée de l'air espère voir devenir un puissant complément à sa flotte d'avions de chasse traditionnels, en donnant aux pilotes humains un essaim d'ailerons robotisés hautement compétents à déployer dans la bataille.

    Sa mission est de combiner l'IA et ses capteurs pour identifier et évaluer les menaces ennemies, puis, après avoir obtenu l'aval d'un pilote, de passer à l'acte. Selon le rapport, le programme Valkyrie donne un aperçu de la manière dont le secteur de l'armement, la culture militaire, les tactiques de combat et la concurrence avec les pays rivaux sont remodelés par les progrès rapides de la technologie, notamment dans le secteur de l'IA. Les États-Unis cherchent en effet à acquérir et à maintenir un avantage en matière d'IA sur la Chine, son principal concurrent dans le domaine, ce qui a donné lieu ces dernières années à une course effrénée à l'IA.


    Alors que les plateformes d'armes semi-autonomes et télécommandées sont déjà des outils bien établis dans la boîte à outils de plusieurs armées dans le monde, en particulier l'armée américaine, la perspective d'armer des chiens-robots et de les envoyer en territoire hostile aux côtés des troupes américaines a déclenché une controverse dans l'industrie de la robotique. En octobre dernier, une demi-douzaine d'entreprises de robotique, dont Boston Dynamics, ont publié une lettre appelant les armées du monde entier à s'abstenir d'armer leur technologie. Certains ont menacé les contrevenants de représailles et de poursuites en justice.

    « Nous pensons que l'ajout d'armes à des robots télécommandés ou autonomes, largement accessibles au public et capables de se rendre dans des endroits auparavant inaccessibles où les gens vivent et travaillent, soulève de nouveaux risques de dommages et de graves problèmes éthiques. Les applications militarisées de ces robots nuiront à la confiance du public dans la technologie, au détriment des avantages considérables qu'ils apporteront à la société », a déclaré le groupe. Cependant, ces préoccupations n'ont pas empêché les entreprises de défense de développer de nouvelles combinaisons de robots terrestres sans pilote et de systèmes d'armes.

    En octobre 2021, Ghost Robotics et SWORD International ont dévoilé un chien-robot appelé "Special Purpose Unmanned Rifle" équipé d'un fusil Creedmoor de 6,5 mm, lors de la conférence annuelle de l'Association de l'armée américaine à Washington. Un an plus tard, une vidéo virale de l'entreprise de défense chinoise Kestrel Defense montrait un véhicule aérien sans pilote larguant un chien-robot armé d'une mitrailleuse légère chinoise QBB-97 de 5,8 x 42 mm sur un toit au cours d'une simulation d'entraînement. Des amateurs d'armes à feu s'amusent également parfois à monter des fusils d'assaut sur des chiens-robots.

    Par rapport aux considérations éthiques, Kathleen Hicks, secrétaire adjointe à la Défense des États-Unis, a déclaré en janvier dernier : « lorsque des versions armées seront finalement employées, le ministère de la Défense s'engage à développer et employer tous les systèmes d'armes, y compris ceux dotés de caractéristiques et de fonctions autonomes, de manière responsable et légale ». Ces propos sont toutefois controversés et les experts mettent en garde contre les dérives potentielles.

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    L'armée de l'air américaine teste un prototype de drone avec un logiciel basé sur l'intelligence artificielle

    Doit-on confier les décisions de vie ou de liberté à une intelligence artificielle ? Aux USA, une IA envoie des gens en prison et souvent à tort

    Les États-Unis lancent une initiative sur l'utilisation de l'IA à des fins militaire dans un contexte où la Chine ambitionne de devenir la super puissance du monde en matière d'IA

  18. #18
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 650
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 650
    Points : 18 597
    Points
    18 597
    Par défaut
    C'est comme cet épisode de Black Mirror :
    Metalhead (Black Mirror)
    "Metalhead" is filmed in black and white, and it follows the plight of Bella (Maxine Peake) trying to flee from robotic "dogs" after the unexplained collapse of human society. The dogs were influenced by Boston Dynamics' robots such as BigDog. Filming took place in England, with Lidar scans used for scenes from the dog's perspective. Lasting 41 minutes, "Metalhead" is the second-shortest episode behind "Mazey Day".
    Les gouvernements qui développent des armes autonomes pourront les utiliser contre leur propre peuple.
    En cas de révolution, par exemple si les étasuniens se rebellaient contre l'administration Biden, peut-être que l'armée refuserait de suivre les ordres (mutinerie de la Garde nationale française à Paris en juillet 1789), alors que les armes autonomes en on rien à foutre, elles suivront toujours les ordres.

    Les révolutions ont lieu quand l'armée se met du côté du peuple, avec des armes autonomes ça va être plus compliqué de faire des révolutions.
    Keith Flint 1969 - 2019

  19. #19
    Membre régulier Avatar de RxB2038
    Homme Profil pro
    *
    Inscrit en
    Juillet 2023
    Messages
    13
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : *

    Informations forums :
    Inscription : Juillet 2023
    Messages : 13
    Points : 72
    Points
    72
    Par défaut
    Quand on voit les difficultés que Tesla rencontre avec les voitures autonomes, la question que l'on est en droit de se poser au regard du déploiement des ces technologies c'est "mais qu'est-ce qui pourrais bien merder" ?

    Parce qu'une chose est certaine, si ça peut, ça merdera, sauf que les bugs dans le cas de chiens robots armés de fusil d'assaut ou de drones bardés de missiles pilotés par IA, ça peut être un peu plus lourds de conséquences que "mon site web est tombé pendant 30 minutes".

    Sans parler des biais racistes dans l'identification des cibles, de la généralisation des ces équipements aux forces anti-émeutes, ni du fait que James Cameron nous avait prévenus

  20. #20
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 887
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 887
    Points : 36 964
    Points
    36 964
    Par défaut L'armée de l'air américaine veut 6 milliards de dollars pour construire 2 000 drones,
    Intelligence artificielle et armement : l'armée de l'air américaine veut 6 milliards de dollars pour construire 2 000 drones,
    dotés d'une intelligence artificielle

    Le département de la Défense des États-Unis s’est engagé à utiliser l’Intelligence Artificielle de manière responsable. Pour y parvenir, les développeurs et les utilisateurs de l’autonomie basée sur l’IA doivent travailler en collaboration avec des spécialistes de l’acquisition. L’armée de l’air américaine prévoit de dépenser environ 5,8 milliards de dollars pour construire jusqu’à 2 000 drones sans pilote dotés d’une intelligence artificielle qui serviront aux côtés des pilotes humains. Les drones Valkyrie sont conçus pour remplir des fonctions telles que la surveillance ou les opérations de réapprovisionnement, ou pour se regrouper en essaims afin de combattre aux côtés de pilotes humains. Les drones coûteraient environ 3 millions de dollars chacun.

    Le général de brigade Scott Cain, commandant de l’AFRL a déclaré : « L’IA sera un élément essentiel de la future guerre et de la vitesse à laquelle nous devrons comprendre l’image opérationnelle et prendre des décisions ». Il a également ajouté que « L’IA, les opérations autonomes et les équipes homme-machine continuent d’évoluer à un rythme sans précédent et nous avons besoin des efforts coordonnés de nos partenaires gouvernementaux, universitaires et industriels pour suivre le mouvement ».

    Nom : air.jpg
Affichages : 1510
Taille : 28,0 Ko

    Le projet vise à développer des « avions de combat collaboratifs […] capables d’améliorer les systèmes d’armes avec équipage pour atteindre la supériorité aérienne ». Le Congrès doit approuver l’effort quinquennal de construction de la flotte de drones, dont le budget s’élève à 5,8 milliards de dollars sur cette période. Au début du mois, le colonel Tucker Hamilton, chef d'opérations d'IA du département de l'armée de l'air, a indiqué que la branche aérienne de l'armée américaine avait fait voler le drone XQ-58A Valkyrie de 9,15 mètres de long pendant trois heures lors d'un test de vol contrôlé par l'IA, le premier du genre.

    Le 25 juillet 2023, le laboratoire de recherche de l'armée de l'air a effectué avec succès une sortie de trois heures, démontrant le tout premier vol d'agents d'intelligence artificielle (algorithmes) contrôlant un avion sans équipage XQ-58A Valkyrie. Ce vol, qui s'est déroulé sur le complexe d'essai et d'entraînement d'Eglin, était l'aboutissement de deux années de partenariat qui ont débuté avec le programme Skyborg Vanguard.

    « La mission a permis de tester un cadre de sécurité multicouche sur un avion sans équipage piloté par l'IA/ML et de démontrer qu'un agent de l'IA/ML résout un problème tactique pertinent au cours d'opérations aéroportées », a déclaré le colonel Tucker Hamilton. « Cette sortie permet officiellement de développer des agents d'IA/ML capables d'exécuter des compétences air-air et air-surface modernes, immédiatement transférables au programme CCA.

    Les algorithmes ont été développés par l'équipe AFRL Autonomous Air Combat Operations. Ils ont été perfectionnés au cours de millions d'heures de simulation haute fidélité, de sorties sur le X-62 VISTA, d'événements Hardware-in-the-Loop avec le XQ-58A et d'opérations d'essai au sol, comme le montre la vidéo en lien ci-dessous.


    « AACO a adopté une approche multidimensionnelle pour les essais en vol sans équipage de l'intelligence artificielle à apprentissage automatique et a atteint les objectifs d'expérimentation opérationnelle en utilisant une combinaison de calcul haute performance, de modélisation et de simulation, et d'essais en boucle du matériel pour entraîner un agent d'intelligence artificielle à piloter en toute sécurité l'avion XQ-58 sans équipage », a déclaré Terry Wilson, directeur du programme AACO.

    Autonomous Air Combat Operations (AACO), et Air Combat Evolution (ACE) sont des programmes axés sur le développement de l'autonomie pilotée par l'IA pour les plateformes tactiques aéroportées. L'objectif du programme AACO est de développer et de faire voler un pilote automatique piloté par l'IA capable d'exécuter des fonctions d'orientation et de navigation ainsi que des comportements autonomes tels que le renseignement, la surveillance et la reconnaissance avancés et le combat BVR.

    Le programme ACE de l'Agence pour les projets de recherche avancée de la défense (DARPA) vise à développer une autonomie de confiance, évolutive, de niveau humain, pilotée par l'IA pour le combat aérien en utilisant le combat de chiens collaboratif entre l'homme et la machine comme problème à résoudre. Les deux programmes reconnaissent la valeur et la nécessité piloté le simulateur de vol à stabilité variable X-62A (VISTA) et d'autres simulateurs similaires, qui sont essentiels à la maturation des capacités d'autonomie pilotée par l'IA et à la conception de nouveaux modèles de véhicules sans équipage, a déclaré le responsable de l'expérimentation.

    Les agents d’IA pilotent avec succès un avion de chasse réel lors d’essais en vol historiques

    Une équipe conjointe du département de la Défense des États-Unis a effectué 12 essais en vol au cours desquels des agents d'intelligence artificielle (IA) ont piloté le X-62A pour effectuer des manœuvres de combat avancées sur la base aérienne d'Edwards, en Californie, du 1er au 16 décembre 2022. Les organisations de soutien comprennent le Centre d'essai de l'armée de l'air américaine, le Laboratoire de recherche de l'armée de l'air (AFRL) et la DARPA.

    « Il s'agissait d’une première historique dans la démonstration de capacités d'IA tactique avancée sur un avion de chasse réel », a déclaré le commandant de l'AFRL, le général de division Heather Pringle. « Le partenariat solide avec la DARPA et l'AFTC a rendu cette réalisation possible et est essentiel à l'avancement de nos capacités. » Les agents autonomes de l'AFRL, AACO, et de la DARPA, ACE, ont piloté le X-62A VISTA de l'école de pilotes d'essai de l'armée de l'air américaine afin d'effectuer des manœuvres de combat avancées. Les agents IA de l'AACO ont effectué des engagements un contre un au-delà de la portée visuelle, ou BVR, contre un adversaire simulé, et les agents IA de l'ACE ont effectué des manœuvres à portée visuelle, connues sous le nom de dogfight, contre des agents IA constructifs de l'équipe rouge.

    Les agents d'IA des deux équipes ont exécuté des manœuvres tactiques autonomes tout en respectant les limites de l'espace aérien réel et en optimisant les performances des aéronefs. Ces essais s'appuient sur la mise à jour VISTA du X-62A, qui permet au X-62 d'être contrôlé par des algorithmes d'autonomie pilotés par l'IA.

    Le X-62A VISTA accélère les tests d’autonomie tactique

    Dans plusieurs cas, les pilotes ont effectué les tests ACE et AACO à quelques heures d'intervalle, après que les ingénieurs ont changé les algorithmes d'autonomie à bord du X-62A en quelques minutes. « Le X-62A accélère rapidement la vitesse à laquelle les algorithmes d'autonomie sont testés », a déclaré un fonctionnaire au fait de l'expérimentation. « La mise à jour X-62A VISTA Gen2020 a transformé le NF-16D VISTA en X-62A VISTA pour soutenir les tests d'autonomie tels que cette campagne d'essais. »

    Le fonctionnaire a déclaré que les changements rapides qui peuvent être réalisés en toute sécurité sur le VISTA permettent aux chercheurs de réagir rapidement aux enseignements tirés, en améliorant les capacités pendant les fenêtres d'essai. « L'équipe du X-62A VISTA a prouvé avec cette campagne d'essais qu'elle était capable de mener des missions complexes d'essais d'IA qui accélèrent le développement et les essais de capacités d'autonomie pour le ministère de la défense », a déclaré Malcolm Cotting, directeur de la recherche à l'école des pilotes d'essai de l'armée de l'air des États-Unis.

    Malcolm Cotting a déclaré que l'équipe VISTA continuerait à soutenir les essais d'autonomie avancée et à faire progresser les essais en vol. « Le X-62 est un accélérateur d'essais en vol », a déclaré le responsable de l'expérimentation. « Il permet à l'USAF d'exécuter rapidement des algorithmes d'autonomie tactique. Ces essais génèrent des données qui sont utilisées pour améliorer les algorithmes et les modèles à un rythme remarquablement rapide », a-t-il ajouté.

    « Après avoir formé nos agents d'autonomie pilotés par l'IA à l'aide de calculs de haute performance, de modélisation et de simulation, il est essentiel que nous fassions voler ces agents pour valider la différence entre le simulateur et les vols réels », a déclaré un responsable de l'AACO. Disposer d'un avion comme le X-62 est essentiel pour tester rapidement en vol ces comportements autonomes.

    La conception du système de sécurité du X-62 est essentielle pour accélérer les tests d'autonomie, a ajouté le responsable de l'AACO. L'équipe de l'AACO peut faire voler, tester et mettre à jour les agents en fonction des données de vol, puis faire voler à nouveau les nouveaux agents IA en quelques heures, sans rencontrer de problèmes de navigabilité ou de sécurité.


    « Dans tous les domaines, la recherche ne progresse que si les outils le permettent », a déclaré le lieutenant-colonel Ryan Hefron, responsable du programme ACE de la DARPA. « La récente mise à jour de VISTA en fait un simulateur d'essai beaucoup plus efficace en permettant une intégration rapide et des tests sûrs de l'autonomie pilotée par l'IA. Cela nous a permis d'accélérer d'au moins un an les essais en vol à grande échelle de l'autonomie pilotée par l'IA », a-t-il déclaré.

    Le ministère de la Défense s'est engagé à utiliser l'IA de manière responsable. Pour parvenir à une utilisation responsable de l'IA, il faut que les développeurs et les utilisateurs de l'autonomie basée sur l'IA travaillent en collaboration avec des spécialistes de l'acquisition.

    Si le général de brigade Scott Cain affirme que l'IA sera un élément essentiel de la future guerre et de la vitesse à laquelle nous devrons comprendre l'image opérationnelle et prendre des décisions, il est important de noter que l’utilisation de l’IA dans les drones militaires peut avoir des conséquences imprévues et potentiellement dangereuses. Les drones peuvent être utilisés pour des missions de surveillance et de reconnaissance, mais ils peuvent également être utilisés pour des missions de combat.

    Les drones autonomes peuvent prendre des décisions sans intervention humaine, ce qui soulève des questions éthiques et juridiques. Il est donc important que les gouvernements et les militaires travaillent en étroite collaboration avec les spécialistes de l’IA pour s’assurer que l’utilisation de l’IA dans les drones militaires est responsable et éthique.

    Sources : Eglin air force, Air Force Research Laboratory, Department of Defense

    Et vous ?

    À votre avis, comment les gouvernements peuvent-ils s’assurer que l’utilisation de l’IA dans les drones militaires est responsable et éthique ?

    Comment les militaires peuvent-ils s’assurer que les drones autonomes prennent des décisions éthiques et responsables ?

    Quels sont selon vous, les risques potentiels de l’utilisation de l’IA dans les drones militaires ?

    Comment les spécialistes de l’IA peuvent-ils travailler avec les gouvernements et les militaires pour garantir une utilisation responsable de l’IA dans les drones militaires ?

    Voir aussi :

    L'armée de l'air américaine teste un prototype de drone avec un logiciel basé sur l'intelligence artificielle

    Cockpit du F-35 : un pilote révèle que l'utilisation de l'écran tactile présente quelques difficultés, avec un taux d'erreur de 20 % lors de l'activation d'une fonction
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 28/11/2017, 20h42
  2. Réponses: 7
    Dernier message: 23/09/2016, 16h27
  3. Réponses: 23
    Dernier message: 04/07/2014, 09h29
  4. L'armée américaine surprise en train de pirater un logiciel
    Par Stéphane le calme dans le forum Actualités
    Réponses: 14
    Dernier message: 06/12/2013, 14h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo