Thalès, le leader français de la sécurité et la défense refuse de concevoir des robots tueurs autonomes
et appelle à une législation internationale
« Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre », ont averti Elon Musk et une centaine de spécialistes de l'IA et la robotique, dans une lettre ouverte en 2017. Dans cette lettre, ils appelaient les Nations Unies à agir le plus vite possible et bannir les robots tueurs.
Cet avertissement a toute sa raison d'être étant donné qu’aujourd’hui, plus d'une dizaine de pays – y compris les États-Unis, la Chine, Israël, la Corée du Sud, la Russie et la Grande-Bretagne – développent des systèmes d'armes autonomes, selon un rapport de Human Rights Watch. Mais qu'en est-il en France ?
Si la course aux armes létales autonomes était officiellement lancée, la France compterait sans doute sur son champion Thalès, le groupe d'électronique spécialisé dans l'aérospatiale, la défense, la sécurité, le transport terrestre et dont le siège social se situe dans le quartier de La Défense à Paris. Mais pour des questions d'éthique entre autres, le marchand d'armes français n'a pas l'intention de s'y mettre : le groupe technologique français refuse de concevoir des armes létales autonomes et appelle à une législation internationale claire pour l'application de l'intelligence artificielle au domaine de l'armement.
Face au développement rapide de l'intelligence artificielle (IA), il est urgent que la communauté internationale se dote d'un cadre réglementaire fort pour proscrire la création de « robots tueurs » autonomes, a plaidé jeudi le PDG du groupe technologique français Thales, Patrice Caine. Pour lui, « il faut que les pays mettent en place une législation au niveau international pour que le terrain de jeu soit clair pour tous » en ce qui concerne l'application de l'IA au domaine de l'armement, a rapporté le quotidien Ouest France.
Aux côtés de M. Caine, Yoshua Bengio, pionnier canadien de l'IA, a appuyé cet appel pour un cadre règlementaire clair. « Il y a deux aspects à considérer à propos des armes létales autonomes, qu'on surnomme les « robots tueurs » et qui n'ont rien d'un film, mais constituent au contraire un enjeu actuel pour les armées : il y a l'aspect moral et l'aspect sécuritaire », a fait valoir le chercheur, fondateur de l'institut de recherche Mila (Montreal Institute for Learning Algorithms).
D'un côté, « les machines ne comprennent pas, et ne comprendront pas dans un futur proche, le contexte moral ». Et de l'autre, « si ces armes deviennent faciles à acheter, car beaucoup d'entreprises en fabriquent, pensez aux drones construits avec des armes et de la détection faciale : vous aurez alors des assassinats ciblés visant des groupes de population en particulier », a-t-il mis en garde. Pour toutes ces raisons, Thales a tranché et « n'appliquera pas l'IA dans tout ce qui est létal (même) si les clients le demandent », a affirmé son PDG, refusant de « donner de l'autonomie à un système d'armes pour que de lui-même il puisse décider de tuer ou pas ».
Les Nations Unies travaillent actuellement sur la question d'une législation internationale, mais il semble qu'il sera impossible d'arriver un jour à des règles qui interdisent ce type d'armes : quelques pays, y compris les USA et la Russie, bloquent les négociations.
En septembre dernier, dans une série de réunions qui se sont tenues à Genève, un groupe de la Convention des Nations Unies sur certaines armes classiques (CCW) a en effet discuté de l'opportunité d'amener les négociations sur les armes entièrement autonomes dotées d'IA à un niveau formel qui pourrait déboucher sur un traité qui les interdit. Mais les réunions se sont terminées sans que les pays participants se rapprochent de règles internationales contraignantes. Les pays se sont juste entendus sur une liste de recommandations non contraignantes. Un petit nombre de pays -- notamment les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie -- auraient en effet empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs.
« N’importe quel État peut bloquer un progrès, et c'est ce qui s'est passé ici », avait déclaré Mary Wareham, coordinatrice de la campagne pour mettre fin aux robots tueurs (Campaign to Stop Killer Robots), au sortir des réunions. « Bien sûr, il est décevant qu’une petite minorité de grandes puissances militaires puisse freiner la volonté de la majorité », a-t-elle déclaré.
La position des États-Unis est loin d'être surprenante. En 2016, le pays de l'oncle Sam a testé des prototypes de robots militaires dans le Pacifique. N'oublions pas non plus le projet de drone militaire doté d'IA sur lequel le Pentagone a bénéficié de l'expertise de Google. Si à cela, on ajoute la déclaration du sous-secrétaire US à la défense selon laquelle il est important d'associer l'IA à l'armée, alors on comprend que les USA sont bien engagés dans cette course aux armes autonomes dotées d'IA. La Russie et l'Irak ne semblent pas non plus vouloir rester en marge.
C'est à la fin de 2013 que les Nations Unies ont mis le sujet à l'ordre du jour, mais depuis lors, peu de choses se sont produites. L'organisation n'a même pas été en mesure de s'entendre sur une définition des armes létales entièrement autonomes. Et en même temps, les positions autour de la table de négociation se durcissent, d'après les experts.
Pendant que les discussions trainent, certains pays prennent de l'avance sur les autres dans la course aux armes autonomes létales. Pour Thalès, c'est donc important que les négociations s'accélèrent, afin que « le terrain de jeu soit clair pour tous ». Le problème est que si les négociations n'aboutissent pas ou trainent, et que le géant français de la défense refuse de concevoir des armes létales autonomes, ce n'est pas évident que ses concurrents en fassent autant. Qu'adviendra-t-il alors si aucun accord n'est trouvé au niveau international et que la course vers les IA militaires s'accélère ? Thalès devrait-il suivre le mouvement pour éviter de perdre des parts de marché ou s'en tenir à ses principes ?
Source : Ouest France
Et vous ?
Que pensez-vous de la position de Thalès ?
Pensez-vous que c'est possible d'aboutir à une loi au niveau mondial qui sera acceptée de tous ?
Que devrait-il faire si aucun accord n'est trouvé au niveau international et que la course vers les IA militaires s'accélère ? Thalès devrait-il suivre le mouvement pour éviter de perdre des parts de marché ou s'en tenir à ses principes ?
En tant que développeur ou ingénieur, que feriez-vous si l'on vous demande de créer des IA létales sachant qu'un autre le fera à votre place si vous refusez ?
Voir aussi :
Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur
Partager