L'IA ne devrait pas être développée tant que son contrôle en toute sécurité n'est pas prouvé
Les efforts de l'ONU pour réglementer l'usage militaire de l’IA et des SALA pourraient échouer
À cause notamment des positions russes et américaines
Les premières discussions formelles visant à limiter ou interdire l’utilisation des systèmes d’armes létales autonomes (SALA), des robots de guerre pour faire simple, se sont tenues ces derniers mois à Genève sous l’égide de L’ONU. Ces discussions axées autour de la convention sur certaines armes classiques (CCAC) devraient permettre de soumettre ces dispositifs de guerre au droit international en identifiant les « SALA illicites » en fonction du niveau de contrôle attribué à l’homme.
À ce sujet, l’avis de la France est qu’il faudrait approfondir la distinction entre les systèmes dotés « d’automatismes », de complexité variable, et les systèmes « autonomes », qui ne font appel à aucune mesure de supervision humaine. La dernière rencontre officielle en date a eu lieu du 22 au 24 novembre 2017.
Il faut rappeler que des personnalités de renom comme l’astrophysicien britannique Stephen Hawking ou des chefs d’entreprises comme l'américain Elon Musk ont, à plusieurs reprises déjà, appelé à l’interdiction pure et simple des SALA. Dans une lettre ouverte rédigée à l'occasion de la 24e Conférence internationale sur l’IA (intelligence artificielle) en de juillet 2015, ces lanceurs d'alerte ont déclaré :
« Nous croyons que l’intelligence artificielle recèle un grand potentiel pour l’humanité de bien des manières, et cela doit être son objectif. L’utiliser pour se lancer dans une course aux armements est un projet néfaste. Il doit être empêché par une interdiction totale des armes offensives autonomes, qui fonctionnent sans contrôle humain significatif. »
« Si une grande puissance militaire progresse avec le développement d’armes liées à l’intelligence artificielle, une course mondiale aux armements est pratiquement inévitable, et le point final de cette trajectoire technologique est évident : les armes autonomes deviendront les kalachnikovs de demain. »
Tous les signataires de cette lettre ouverte ont estimé que l’absence d’un consensus qui permettrait d’encadrer le développement de l’intelligence artificielle dans le domaine militaire ouvrirait la voie à un scénario catastrophe dans lequel les machines seraient dotées de la capacité de tuer sans qu’il soit nécessaire de faire intervenir obligatoirement l’Homme.
En marge de la dernière réunion qui s’est tenue dans la capitale suisse, Moscou a souhaité envoyer un message fort à tous ceux qui voudraient dissuader la Russie de développer la technologie des robots de guerre, les fameux SALA.
D’après un rapport fourni par le site DefenceOne.com, une déclaration du gouvernement russe datant du 10 novembre dernier fait état de la ferme opposition du Kremlin contre toute interdiction visant à limiter ou interdire le développement des SALA ou des technologies liées à l’IA à des fins militaires qui serait prise au niveau de l’ONU.
Comme l’a expliqué Dmitri Ostaptchouk, le DG de 766 UPTK — l’entreprise militaire russe spécialisée dans la production de robots —, au média russe RT : « Le développement des robots au sein des forces armées est inévitable puisque les systèmes électroniques dépassent déjà l’être humain dans toutes les capacités. » De ce fait, le point de vue de la Russie semble clair et inflexible : quoi qu’il arrive la Russie développera et construira des SALA.
D’après la Fédération de Russie, « l’absence de réglementation claire sur de tels systèmes d’armement reste le principal problème dans la discussion sur les lois », mais « il est difficilement acceptable que l’encadrement des SALA restreigne la liberté de profiter des avantages des technologies autonomes qui représentent l’avenir de l’humanité. »
Il faut également préciser que de leur côté, les États-Unis estiment qu’il est encore « prématuré » d’envisager une interdiction des SALA, même si l’administration Trump dit soutenir le processus de la CCAC.
Le kremlin estime que les SALA représentent une catégorie d’armes extrêmement large et complexe dont la compréhension actuelle de l’humanité est plutôt approximative. Moscou ne comprend donc pas pourquoi des mesures préventives aussi prohibitives et restrictives devraient être envisagées. Sans parler du fait que, par le passé, plusieurs traités internationaux visant à contrôler la prolifération de systèmes d’armements particuliers (chimique, nucléaire ou autre) n’ont pas empêché certains États de développer ou d’utiliser ces armes interdites.
Source : DefenceOne, Publication de la Russie (PDF), Le monde diplomatique, RT
Et vous ?
:fleche: Qu’en pensez-vous ?
Voir aussi
:fleche: La Russie se prépare à envoyer un robot capable de tirer avec des pistolets à l'ISS ? Il ne s'agit pas d'un Terminator assure le vice-président russe
:fleche: Elon Musk appelle les Nations Unies à bannir les robots tueurs dans une lettre ouverte signée par 116 spécialistes de l'IA et la robotique
Interdiction des robots tueurs : quelques pays, y compris les USA et la Russie, bloquent les négociations
Interdiction des robots tueurs : quelques pays, y compris les USA et la Russie, bloquent les négociations
menées au niveau des Nations Unies
« Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre », ont averti Elon Musk et une centaine de spécialistes de l'IA et la robotique, dans une lettre ouverte l'année dernière. Dans cette lettre, ils appelaient les Nations Unies à agir le plus vite possible et bannir les robots tueurs.
Cet avertissement a toute sa raison d'être étant donné qu’aujourd’hui, plus d'une dizaine de pays – y compris les États-Unis, la Chine, Israël, la Corée du Sud, la Russie et la Grande-Bretagne – développent des systèmes d'armes autonomes, selon un rapport de Human Rights Watch. Les Nations Unies travaillent donc sur la question, mais il semble qu'il sera impossible d'arriver un jour à des règles qui interdisent ce type d'armes, ou du moins celles qui sont les plus dangereuses.
La semaine dernière, dans une série de réunions qui se sont tenues à Genève, un groupe de la Convention des Nations Unies sur certaines armes classiques (CCW) a en effet discuté de l'opportunité d'amener les négociations sur les armes entièrement autonomes dotées d'IA à un niveau formel qui pourrait déboucher sur un traité qui les interdit. Mais les réunions se sont terminées sans que les pays participants se rapprochent de règles internationales contraignantes. D'après le quotidien Politico, les pays se sont juste entendus sur une liste de recommandations non contraignantes. Un petit nombre de pays -- notamment les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie -- auraient en effet empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs.
« N’importe quel État peut bloquer un progrès, et c'est ce qui s'est passé ici », a déclaré Mary Wareham, coordinatrice de la campagne pour mettre fin aux robots tueurs (Campaign to Stop Killer Robots). « Bien sûr, il est décevant qu’une petite minorité de grandes puissances militaires puisse freiner la volonté de la majorité », a-t-elle déclaré. Son groupe représente 75 organisations non gouvernementales dans 32 pays qui luttent pour l'interdiction des armes utilisant la technologie de l'IA pour choisir leurs cibles. Elle indique que 26 pays approuvent une interdiction totale de ces armes.
La position des États-Unis est loin d'être surprenante. En 2016, le pays de l'oncle Sam a testé des prototypes de robots militaires dans le Pacifique. N'oublions pas non plus le projet de drone militaire doté d'IA sur lequel le Pentagone travaille avec Google. Si à cela, on ajoute la déclaration du sous-secrétaire US à la défense selon laquelle il est important d'associer l'IA à l'armée, alors on comprend que les USA sont bien engagés dans cette course aux armes autonomes dotées d'IA. La Russie et l'Irak ne semblent pas non plus vouloir rester en marge.
C'est à la fin de 2013 que les Nations Unies ont mis le sujet à l'ordre du jour, mais depuis lors, peu de choses se sont produites. L'organisation n'a même pas été en mesure de s'entendre sur une définition des armes létales entièrement autonomes. Et en même temps, les positions autour de la table de négociation se durcissent, d'après les experts. « Les divergences entre les différentes positions se creusent », a déclaré Frank Sauer, expert en armes autonomes à l'université de la Bundeswehr à Munich.
Pendant les discussions de la semaine dernière, beaucoup de pays ont réitéré leur appel à une réglementation forte, poussant les États-Unis à entamer des négociations formelles l’année prochaine. On pourrait donc espérer se diriger vers des règles internationales contraignantes, mais les opposants à une interdiction étaient fermes dans leur position, d'après Politico. Le document publié à la fin des discussions recommande donc que les pourparlers sur des mesures non contraignantes se poursuivent.
Source : Politico
Et vous ?
:fleche: Que pensez-vous de ces divergences dans les négociations sur l'interdiction des armes autonomes ?
:fleche: Avez-vous espoir que les négociations aboutissent à l'interdiction de ces armes ?
Voir aussi :
:fleche: Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
:fleche: USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
:fleche: Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
:fleche: Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
:fleche: Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur
1 pièce(s) jointe(s)
L'Europe estime qu'une IA ne doit pas avoir le droit de vie ou de mort sur le champ de bataille
L'Europe estime qu'une intelligence artificielle ne doit pas avoir le droit de vie ou de mort sur le champ de bataille,
et appelle à interdire les robots-tueurs
« Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre », ont averti Elon Musk et une centaine de spécialistes de l'IA et la robotique, dans une lettre ouverte l'année dernière. Dans cette lettre, ils appelaient les Nations Unies à agir le plus vite possible et bannir les robots tueurs.
Cet avertissement a toute sa raison d'être étant donné qu’aujourd’hui, plus d'une dizaine de pays – y compris les États-Unis, la Chine, Israël, la Corée du Sud, la Russie et la Grande-Bretagne – développent des systèmes d'armes autonomes, selon un rapport de Human Rights Watch. Les Nations Unies travaillent donc sur la question, mais le bout du tunnel (à savoir arriver à des règles qui interdisent ce type d'armes, ou du moins celles qui sont les plus dangereuses) semblent bien loin.
Fin août, dans une série de réunions qui se sont tenues à Genève, un groupe de la Convention des Nations Unies sur certaines armes classiques (CCW) a en effet discuté de l'opportunité d'amener les négociations sur les armes entièrement autonomes dotées d'IA à un niveau formel qui pourrait déboucher sur un traité qui les interdit. Mais les réunions se sont terminées sans que les pays participants se rapprochent de règles internationales contraignantes. D'après le quotidien Politico, les pays se sont juste entendus sur une liste de recommandations non contraignantes. Un petit nombre de pays -- notamment les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie -- auraient en effet empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs.
La position européenne
Le Parlement européen a adopté une résolution demandant une interdiction internationale des robots soi-disant tueurs. Il vise à anticiper le développement et l'utilisation de systèmes d'armes autonomes capables de tuer sans intervention humaine.
Une position affirmée qui peut être expliquée par le fait que les négociations à l’ONU n’ont pas abouti à un consensus, certains pays ayant déclaré que les avantages des armes autonomes devaient être explorés.
Néanmoins l’Europe n’est pas encore unanime. En effet, certains députés craignent que la législation ne limite les progrès scientifiques de l'intelligence artificielle. D’autres ont déclaré que cela pouvait devenir un problème de sécurité si certains pays autorisaient de telles armes alors que d’autres ne le faisaient pas.
« Je sais que cela pourrait ressembler à un débat sur un futur lointain ou sur la science-fiction. Ce n'est pas le cas », a déclaré Federica Mogherini, chef de la politique étrangère et de sécurité de l'UE lors du débat au Parlement européen.
Un situation qui peut provoquer une course aux armements
« Les systèmes d'armes autonomes doivent être interdits au niveau international », a déclaré Bodil Valero, porte-parole de la politique de sécurité du groupe Verts / ALE du Parlement européen. « Le pouvoir de décider de la vie et de la mort ne devrait jamais être retiré de la main de l'homme et donné aux machines ».
La résolution est en avance sur les négociations prévues aux Nations Unies en novembre, où plusieurs espèrent qu’un accord sur une interdiction internationale pourra être conclu.
« Des drones artificiellement intelligents aux pistolets automatisés qui peuvent choisir leurs propres cibles, les avancées technologiques en matière d’armement dépassent de loin le droit international », a déclaré Rasha Abdul Rahim, chercheur sur l’intelligence artificielle à Amnesty International.
« Il n'est pas trop tard pour changer de cap. L'interdiction de systèmes d'armes totalement autonomes pourrait empêcher certains scénarios vraiment dystopiques, comme une nouvelle course aux armements entre les superpuissances mondiales qui entraînerait une prolifération des armes autonomes ».
Source : BBC
Et vous ?
:fleche: Vous rangez-vous du côté des eurodéputés qui pensent que ce serait une erreur d'avoir une législation sur les robots tueurs car cela pourrait nuire aux avancées en matière d'intelligence artificielle ?
:fleche: Pensez-vous plutôt comme ceux qui pensent que cela pourraient devenir un problème de sécurité ?
Voir aussi :
:fleche: Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
:fleche: Les enfants sont susceptibles d'être influencés par les robots, selon une étude, suscitant des inquiétudes quant à leurs effets négatifs sur eux
:fleche: Il serait difficile pour les humains d'éteindre un robot qui les supplie de ne pas le faire, d'après une étude réalisée par des chercheurs allemands
:fleche: Intelligence artificielle : OpenAI annonce un système robotique capable de manipuler des objets avec une dextérité humaine
:fleche: Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA