1 pièce(s) jointe(s)
L'armée américaine veut transformer les chars d'assaut en machines à tuer alimentées par l'IA
L'armée américaine veut transformer les chars d'assaut en machines à tuer alimentées par l'IA
A travers son projet ATLAS, selon un rapport
Les ambitions de développement des utilisations létales de l’intelligence artificielle ne sont plus un secret pour personne. Pentagone a des projets dans ce sens. Le dernier projet connu qui compte utiliser l’IA pour rendre les chars d’assaut de combat terrestre autonomes se nomme ATLAS, système automatisé de ciblage et de létalité avancé. Selon un article de Quartz publié le mardi, le ministère de la Défense vient de faire un appel d’offres, dans le cadre d’ATLAS, pour la sélection des fournisseurs potentiels de la technologie d’IA parmi les experts de l'industrie et du milieu universitaire afin de l'aider à mettre au point une technologie qui permettrait à un véhicule de combat terrestre comme un char de détecter, de cibler et d'engager automatiquement des combattants ennemis.
Le Commandement des marchés de l'Armée de terre américaine compte utiliser l'intelligence artificielle et l'apprentissage automatique pour doter ces véhicules de combat terrestre de capacités autonomes de ciblage. Cela permettra aux armes « de détecter, d'identifier et d'engager des cibles au moins trois fois plus rapidement que le processus manuel actuel », selon l’appel d’offres. Un éminent chercheur en intelligence artificielle, qui a demandé l'interdiction de ces soi-disant « robots tueurs », a qualifié la nouvelle initiative de l'armée américaine d’ « un autre pas important vers des armes autonomes mortelles ».
Ce n’est pas la première tentative de mise au point d’armes de précision de l’armée américaine. Une autre initiative du département de la Défense des États-Unis dénommée « Project Maven », qui visait à utiliser l'intelligence artificielle à des fins militaires et qui impliquait l’IA de Google, avait été dévoilée l’an dernier par Le New York Times. Google avait déclaré que l'entreprise n'avait fourni que des « API TensorFlow » au département de la Défense, mais une lettre signée par des employés de l’entreprise, qui étaient contre le projet, a souligné que Google a mis à la disposition du département de la Défense son expertise de pointe en apprentissage machine et ses ingénieurs travaillant dans ce domaine. Google a été obligé, par la suite, d’abandonner sa participation dans le projet et s’est engagé à ne plus mettre son IA au service de la guerre sous la pression des employés et des organisations de défense des libertés telles que l’EFF.
Selon Quartz, ATLAS donnerait théoriquement à un char d'assaut la capacité de faire tout ce qui est nécessaire pour abattre une cible. Stuart Russell, professeur d'informatique à l'Université de Californie à Berkeley et expert renommé en intelligence artificielle, a confié à Quartz qu'il est profondément préoccupé par l'idée que les chars et autres véhicules de combat terrestres puissent éventuellement tirer par leurs propres moyens.
« Il semble bien que nous nous dirigions vers une course aux armements où l'interdiction actuelle de l'autonomie létale totale » – une section du droit militaire américain qui impose un certain niveau d'interaction humaine au moment de prendre la décision de tirer – « sera abandonnée dès qu'il sera politiquement commode de le faire », a dit Russell.
Le professeur Russell n’est pas à sa première opposition publique aux utilisations létales de l’IA. Selon Quartz, en 2017, il est apparu dans une vidéo d’une campagne pour arrêter les robots tueurs qui, selon les dirigeants de la campagne, « décideraient qui vit et meurt, sans autre intervention humaine, ce qui dépasse un seuil moral ».
Une autre interpellation, qui faite suite à la divulgation d’ATLAS, est venue de The Group, une coalition d'organisations non gouvernementales œuvrant à l'interdiction des armes autonomes et au maintien d'un « contrôle humain significatif sur l'usage de la force ». Selon The Group, le fait de laisser les machines choisir et attaquer des cibles pourrait entraîner le monde dans « une course aux armements robotique déstabilisante ». Toutefois, selon l’appel, après le ciblage automatique, la décision ultime de tirer reviendra toujours à un acteur humain.
ATLAS automatisera la détection et l’identification, mais une personne prendra toujours la décision de tirer
Selon Paul Scharre, directeur du Programme de technologie et de sécurité nationale au Center for a New American Security, un groupe de réflexion bipartisan à Washington, DC, une personne sera toujours celle qui prendra la décision de tirer, comme l'exige la loi. ATLAS ne ferra qu’utiliser un algorithme pour automatiser la détection et l’identification des cibles ainsi que « certaines parties du processus qui conduiront au tir ».
Selon M. Scharre, idéalement, le système « maximiserait le temps de réponse humaine et permettrait à l'opérateur humain de prendre une décision », dit M. Scharre. « Et une fois que l'humain a pris la décision, de pouvoir tirer avec précision ». Cette initiative peut, non seulement, réduire le risque de pertes civiles, de fratricide et d'autres conséquences involontaires, mais permettra également de préserver la vie des soldats américains sur le champ de bataille, a dit M. Scharre.
« Chaque fois que vous pouvez gagner même des fractions de seconde, c’est précieux », a dit Scharre. « Beaucoup de décisions d'engagement en temps de guerre sont très restreintes dans le temps. Si vous êtes dans un char d'assaut et que vous voyez le char de l'ennemi, ils peuvent probablement aussi vous voir. Et si vous êtes à portée pour les frapper, ils sont probablement à portée pour vous frapper. », a-t-il ajouté.
L'opposition à l’autonomisation des armes de guerre
Des centaines de systèmes de défense antimissiles autonomes et semi-autonomes sont actuellement utilisés, toutefois, ATLAS serait la première utilisation de ces armes par des véhicules de combat terrestre, selon M. Scharre. « Idéalement, cela réduirait les chances de manquer des cibles, ce qui est une bonne chose pour tout le monde », explique M. Scharre.
Cependant, cette position n’est pas encore partagée par tout le monde. En automne dernier, le secrétaire général de l'ONU, Antonio Guterres, a déclaré que « la perspective de machines ayant la discrétion et le pouvoir de prendre des vies humaines est moralement répugnante ». Certains opposants aux robots tueurs, comme Elon Musk, abordent la question dans ce même sens.
Par ailleurs, plus de 25 pays, dans le monde entier, ont appelé à l'interdiction des armes entièrement autonomes et ont demandé une mesure qui exige explicitement le contrôle humain lorsqu'il s'agit de la force meurtrière. Cependant, selon Quartz, les Etats-Unis, la Corée du Sud, la Russie, Israël et l'Australie ont fortement fait un pas en arrière et les sous-traitants de la défense, dont Boeing, Lockheed Martin, BAE Systems et Raytheon, continuent à investir massivement dans le développement d'armes sans pilote.
L’IA pourrait passer de ses utilisations nobles pour devenir l’arme de guerre du futur, et les efforts de l'ONU pour réglementer l'usage militaire de l'IA et des SALA (des systèmes d’armes létales autonomes) pourraient échouer. Selon un article de South China Morning Post publié en novembre dernier, en Chine, les enfants les plus brillants du pays sont sélectionnés pour être formés pour le développement d'armes létales basées sur l'IA. L’objectif, à long terme, selon l’article, étant de faire de ces enfants des docteurs dans leurs domaines de spécialité et de faire en sorte qu'ils deviennent les prochains leaders de la Chine en matière d'armes basées sur l'IA.
Source : Quartz
Et vous ?
:fleche: Qu’en pensez-vous ?
:fleche: Que pensez-vous de l’utilisation de l’IA pour rendre autonomes des armes de guerre ?
:fleche: Pensez-vous que les acteurs parviendront un jour à développer des règles éthiques qui limiteront l’IA dans ses utilisations recommandées ?
Lire aussi
:fleche: Les efforts de l'ONU pour réglementer l'usage militaire de l'IA et des SALA pourraient échouer, à cause notamment des positions russes et américaines
:fleche: Des employés de Microsoft demandent l'abandon du contrat à 480 M$ avec l'armée US, pour la fourniture de systèmes de réalité augmentée
:fleche: Chine : les enfants les plus brillants du pays sont sélectionnés pour être formés pour le développement d'armes létales, basées sur l'IA
:fleche: L'EFF appelle à ne pas utiliser l'intelligence artificielle pour la guerre, s'adressant à Google et aux entreprises de l'IA
:fleche: IA : un guide éthique en développement chez Google, pour répondre aux protestations contre la participation de l'entreprise à un projet du Pentagone
1 pièce(s) jointe(s)
L'armée américaine assure au public que ses chars robotiques adhèrent à la politique de meurtre de l'IA
L'Armée américaine rassure le public sur ses chars d'assaut alimentés par l'IA
en précisant qu'ils resteront toujours sous contrôle humain
La volonté de l'armée américaine à toujours se surpasser pour se doter d'équipements super sophistiqués n'est un secret pour personne. D'ailleurs, le département de la Défense des États-Unis a toujours bénéficié d'un énorme budget (706 milliards de dollars en 2018). Ces dernières années, avec l'intelligence artificielle qui est de plus en plus utilisée dans le domaine militaire, le pentagone avait lui aussi entrepris des projets dans ce sens et le dernier en date se nomme ATLAS, qui consistait à transformer les chars d'assaut en machines à tuer alimentées par l'IA.
Pour réaliser ce projet, l'armée US avait alors fait appel à des sociétés privées pour leur demander des idées sur la façon d’améliorer son système de ciblage semi-autonome, axé sur l’IA, prévu pour les chars. Comme le rapporte Gizmodo, après que plusieurs médias se soient opposés à cette utilisation potentiellement alarmante de l'intelligence artificielle, l'armée US a décidé d'ajouter une clause à l'appel à publication de livres blancs, afin de calmer les inquiétudes des civils tout en soulignant qu'ATLAS se conformerait à la politique du département de la défense sur le contrôle des robots par les humains.
La modification apportée consistait en l'ajout du passage suivant :
Citation:
Tout développement et utilisation de fonctions autonomes et semi-autonomes dans des systèmes d'arme, y compris des plates-formes avec et sans personnel, reste soumis aux règles de la directive 3000.09 du ministère de la Défense mise à jour en 2017. Rien dans cet avis ne doit être compris comme un changement de politique du département de la défense en faveur de l'autonomie dans les systèmes d'armes. Toutes les utilisations de l'apprentissage automatique et de l'intelligence artificielle dans ce programme seront évaluées afin de s'assurer qu'elles sont conformes aux normes légales et éthiques du département de la défense.
Si vous vous demandez en quoi consiste la directive 3000.09 du ministère de la Défense, et bien sachez qu'elle stipule qu'il est impératif que les êtres humains contrôlent les armes, de manière autonome ou non, afin de pouvoir exercer un jugement approprié sur l’emploi de la force. C'est donc l'humain qui devra finalement décider de tuer quelqu'un et pas seulement une machine. L'armée veut donc faire savoir par là qu'elle ne lancera pas des robots entièrement autonomes sur un champ de bataille et ne leur permettra pas de décider indépendamment de tuer quelqu'un.
On pourrait se demander pourquoi les Américains sont autant préoccupés par ces chars alimentés par l'IA quand on sait qu'ils n'ont rien dit en sachant que l'armée américaine utilise des avions-robotiques comme armes offensives depuis au moins la Seconde Guerre mondiale. Quoi qu'il en soit, il est évident que le ministère de la Défense continuera à progresser dans l'amélioration de ses armes, mais savoir si tout cela se passera toujours dans le respect des politiques écrites, là est toute la question.
Source : Gizmodo
Et vous ?
:fleche: Que pensez-vous de l’utilisation de l’IA pour rendre autonomes des armes de guerre ?
:fleche: Peut-on croire en ce qu'affirme l'armée américaine ?
:fleche: Pensez-vous que les acteurs parviendront un jour à développer des règles éthiques qui limiteront l’IA dans ses utilisations recommandées ?
Voir aussi :
:fleche: L'armée américaine voudrait enseigner à l'IA des notions basiques de bon sens dans le cadre de son programme Machine Common Sense
:fleche: L'armée américaine veut transformer les chars d'assaut en machines à tuer alimentées par l'IA, à travers son projet ATLAS, selon un rapport
:fleche: Les États-Unis veulent des drones autonomes alimentés par l'IA qui pourront décider seul de tuer, en recourant à des algorithmes d'autoapprentissage