2 pièce(s) jointe(s)
La résistance contre robots tueurs grandit
La résistance contre les robots tueurs grandit : des militants de 35 pays à Berlin pour s’opposer à ces armes
Et réclamer une initiative allemande
La résistance contre les robots tueurs animés par l’intelligence artificielle continue difficilement, mais de façon engagée afin d’emmener le maximum de pays, surtout ceux qui sont impliqués dans la recherche et le développement pour concevoir ces armes meurtrières, à rejoindre le mouvement. Selon un article publié hier par Deutsche Welle, le service international de diffusion de l’Allemagne, des militants de 35 pays s’étaient réunis à Berlin la semaine dernière pour demander l'interdiction des armes autonomes meurtrières. Ces militants engagés contre l’utilisation des armes autonomes veulent attirer l’attention des pays non encore engagés et surtout l’Allemagne dans la perspective de nouvelles négociations sur ces armes à Genève.
Noel Sharkey, l'une des figures de proue de la campagne pour arrêter les robots tueurs était présent à Berlin pour participer à la réunion internationale de la Campagne pour arrêter les robots tueurs qui s'est terminée vendredi. Noel Sharkey est un professeur émérite de l'université de Sheffield, aussi un spécialiste reconnu de la robotique et de l'intelligence artificielle. « Je peux vous construire un robot tueur en seulement deux semaines », a-t-il dit lors du rassemblement avec un regard avertisseur.
Sharkey s'oppose à l'idée de parler de « systèmes d'armes autonomes mortels » comme s'il s'agissait d'un roman de science-fiction, d’après Deutsche Welle. Le militant des droits de l’homme dit que, les systèmes d'armes entièrement autonomes sont une réalité bien établie. Pour lui, il n'est pas nécessaire de discuter de leur définition qui est déjà assez connue comme étant des armes qui cherchent, sélectionnent et attaquent des cibles par leurs propres moyens. C'est, par ailleurs, la définition que le Comité international de la Croix-Rouge (CICR) leur donne.
En effet, les soldats n'ont plus besoin d’appuyer sur la détente avec de telles armes. Ces robots, boostés par l’intelligence artificielle, utilisent eux-mêmes un logiciel intégré pour trouver et frapper des cibles. Ces armes peuvent prendre la forme de missiles, de véhicules terrestres sans pilote, de sous-marins ou d'essaims de mini-drones. 28 pays réclament actuellement l'interdiction des systèmes d'armes autonomes meurtrières, mais de nombreux pays s’y opposent encore.
Les premières discussions formelles visant à limiter ou interdire l’utilisation des systèmes d’armes létales autonomes (SALA) ou des robots de guerre, pour faire simple, se sont tenues au cours des derniers mois de l’année 2017 à Genève sous l’égide de L’ONU. Ces discussions axées autour de la convention sur certaines armes classiques (CCAC) devraient permettre de soumettre ces dispositifs de guerre au droit international en identifiant les « SALA illicites » en fonction du niveau de contrôle attribué à l’homme.
À ce sujet, la France a proposé d’approfondir la distinction entre les systèmes dotés « d’automatismes » de complexité variable et les systèmes « autonomes » qui ne font appel à aucune mesure de supervision humaine. Le gouvernement russe est resté fermement opposé à toute interdiction visant à limiter ou interdire le développement des SALA ou des technologies liées à l’IA à des fins militaires qui serait prise au niveau de l’ONU.
Selon un rapport fourni par le site DefenceOne.com le 10 novembre 2017, la Fédération de Russie soutenait que « l’absence de réglementation claire sur de tels systèmes d’armement reste le principal problème dans la discussion sur les lois », mais « il est difficilement acceptable que l’encadrement des SALA restreigne la liberté de profiter des avantages des technologies autonomes qui représentent l’avenir de l’humanité. » Les États-Unis de leur côté, ont estimé qu’il est encore « prématuré » d’envisager une interdiction des SALA, même si l’administration Trump dit soutenir le processus de la CCAC.
Dans une série de réunions qui se sont tenues à Genève en fin août 2018, les discussions sur l'opportunité d'amener les négociations sur les armes entièrement autonomes dotées d'IA à un niveau formel qui pourrait déboucher sur un traité qui les interdit n’a aboutit qu’à une liste de recommandations non contraignantes. Les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie auraient en effet empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs. C'est à la fin de 2013 que les Nations Unies ont mis le sujet à l'ordre du jour, mais depuis lors, peu de choses se sont produites. L'organisation n'a même pas été en mesure de s'entendre sur une définition des armes létales entièrement autonomes. Les militants des droits de l’homme devraient davantage s’armer de courage pour continuer le combat.
Un certain nombre d'organisations non gouvernementales (ONG) se sont jointes à la Campagne mondiale pour arrêter les robots tueurs à Berlin pour demander à l'Allemagne d’exiger que les systèmes d'armes autonomes qui violent le droit international soient interdits. En effet, pour ces militants, si l'Allemagne prenait l'initiative de se joindre au mouvement de l’interdiction, d'autres pays suivraient. Selon Deutsche Welle, le gouvernement allemand actuel a affirmé l’interdiction dans ses négociations de coalition en 2018, mais n'a prononcé que des déclarations politiques non contraignantes à l'ONU à Genève.
Selon Thomas Küchenmeister de l'ONG Facing Finance, « ce n'est pas suffisant pour établir une interdiction ». Selon lui, le gouvernement allemand devrait se joindre aux 28 pays qui réclament actuellement l'interdiction des systèmes d'armes autonomes meurtriers.
Le Secrétaire général de l'ONU, Antonio Guterres, et le Parlement européen sont également en faveur d'une interdiction. Le Parlement européen a adopté une résolution demandant une interdiction internationale des robots soi-disant tueurs qui vise à anticiper le développement et l'utilisation de systèmes d'armes autonomes capables de tuer sans intervention humaine. Le CICR affirme que l'utilisation de ces armes constitue une violation manifeste du droit international.
Récemment, la Société allemande d'informatique (GI), une organisation de chercheurs en informatique, ainsi que l'influente Association fédérale de l'industrie allemande (BDI), ont également appelé à une interdiction juridiquement contraignante. Mais l’Allemagne, dont les fabricants d’armes ont vendu en février dernier avec enthousiasme leurs nouvelles armes aux fonctions autonomes lors de la plus grande foire aux armes du Moyen-Orient à IDEX à Abu Dhabi, a toujours une position indécise quant à l’interdiction formelle des robots tueurs.
Les déclarations politiques non contraignantes du gouvernement allemand fournissent une « couverture parfaite » aux pays opposés à une interdiction
Selon Deutsche Welle, bien que des pays comme les États-Unis et la Chine soient en tête de l'utilisation de l'IA dans le monde, une grande partie de la recherche dont dépendent ces systèmes vient d'Europe. Cela donne beaucoup de poids aux voix européennes dans le débat en cours. Selon Noel Sharkey, « Si l'Allemagne prend la tête, d'autres suivront ». M. Sharkey prévient également que les déclarations politiques non contraignantes, comme celles que le gouvernement allemand défend actuellement, fournissent une « couverture parfaite » aux pays opposés à une interdiction. Ces pays comprennent la Russie, Israël et les États-Unis, selon le rapport de Deutsche Welle.
Cependant, le gouvernement allemand soutient qu'il est essentiellement en faveur d'une interdiction, mais qu'il avait fait pression sur la déclaration politique nettement plus faiblement pour des raisons tactiques. En effet, selon le gouvernement allemand, son approche consiste à maintenir un dialogue avec des pays comme les États-Unis, plutôt que de les aliéner complètement.
Toutefois, la lauréate du prix Nobel de la paix Jody Williams n'est pas du tout convaincue par cet argument. S'exprimant à Berlin, elle a appelé le ministre allemand des Affaires étrangères Heiko Maas à reconsidérer sa position. M. Williams a fait valoir que quiconque attend que les États-Unis se prononcent en faveur d'une interdiction attendra éternellement.
Des discussions internationales sur la façon de réglementer les droits de l'homme se tiendront à Genève, en Suisse, du 25 au 29 mars. Espérons qu’elles aboutiront à des recommandations contraignantes afin que les prédictions d’Elon Musk et d’une centaine de spécialistes de l'IA et de la robotique, selon lesquelles « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre », ne se réalisent pas.
Source : Deutsche Welle
Et vous ?
:fleche: Que pensez-vous de cette résistance ?
:fleche: Pensez-vous que c’est un combat crédible ou Don Quichotte qui se bat contre des moulins à vent ?
:fleche: Pensez-vous que ce combat aboutira un jour à une interdiction effective des robots tueurs ?
Lire aussi
:fleche: L'Armée américaine rassure le public sur ses chars d'assaut alimentés par l'IA, en précisant qu'ils resteront toujours sous contrôle humain
:fleche: Google promet de ne pas utiliser l'IA pour le développement d'armes, mais informe qu'il va continuer à coopérer avec les militaires
:fleche: Des scientifiques demandent l'interdiction du développement d'armes contrôlées par l'IA, en évoquant de nombreux problèmes sous-jacents
:fleche: Elon Musk appelle les Nations Unies à bannir les robots tueurs dans une lettre ouverte, signée par 116 spécialistes de l'IA et la robotique
:fleche: Que se passera-t-il si des robots tueurs sont piratés ou détournés ? La question fait débat au sein de la communauté scientifique
2 pièce(s) jointe(s)
Les pays développent rapidement des "robots tueurs" dotés d'IA qui tuent de manière indépendante
Les pays développent rapidement des "robots tueurs" dotés d'IA qui tuent de manière indépendante,
Mais ne parviennent pas à s'entendre sur des règles pour contrôler ces armes, avertissent des experts
La menace que représentent les "robots tueurs" ou armes autonomes létales a été largement démontrée. Entre autres, ils peuvent être faillibles au piratage et détournés pour se comporter de manière indésirable, « elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre », selon une lettre ouverte adressée aux Nations Unies par Elon Musk et co-signée par une multitude de spécialistes en IA.
Cependant, les pays continuent de développer rapidement ces armes autonomes, dotées d'une intelligence artificielle qui tuent de manière indépendante, alors qu’ils ne font aucun progrès dans la mise en place des règles communes à l’échelle mondiale concernant leur utilisation dans les guerres à venir, avertissent les experts en technologie et en droits de l'homme, selon un reportage de Nita Bhalla de Reuters.
Selon Bhalla, les systèmes d'armes semi-autonomes, y compris les drones, les missiles, les chars et les sous-marins, sont utilisés depuis des décennies pour éliminer des cibles dans les guerres modernes. Mais ils ne prennent pas de décisions autonomes hors de toute supervision de l'homme. Maintenant, des pays comme les États-Unis, la Russie et Israël investissent dans le développement de systèmes d'armes autonomes meurtriers (LAWS) qui peuvent identifier, cibler et tuer une personne par eux-mêmes – mais à ce jour, aucune loi internationale ne régit leur utilisation, s’inquiètent ces experts.
« Une sorte de contrôle humain est nécessaire... Seuls les êtres humains peuvent porter des jugements sur la distinction, la proportionnalité et les précautions à prendre au combat, en fonction du contexte », a déclaré Peter Maurer, président du Comité international de la Croix-Rouge (CICR). « (La recherche du consensus) est la grande question à laquelle nous sommes confrontés et, sans surprise, ceux qui ont aujourd'hui investi beaucoup de capacités et possèdent certaines compétences qui leur promettent des avantages, sont plus réticents que ceux qui ne le font pas », a-t-il ajouté.
Selon le rapport, les chercheurs d'Amnesty International, les analystes de la défense et les roboticiens affirment que les LAWS, telles que les robots militaires, ne sont plus confinés au domaine de la science-fiction ou des jeux vidéo, mais qu'elles progressent rapidement, passant des planches de graphisme aux laboratoires d'ingénierie de la défense. Ils continuent en disant qu’en quelques années, ils pourraient être déployés sur le champ de bataille par les armées des États, en peignant des scénarios dystopiques de nuées de drones se déplaçant dans une ville ou un village, balayant et tuant sélectivement leurs cibles en quelques secondes.
« Vous ne pouvez tout simplement pas faire confiance à un algorithme – aussi intelligent soit-il – pour rechercher, identifier et tuer la bonne cible ? »
À la lumière de ce qui précède, des groupes de défense des droits de l'homme et certains experts en technologie affirment que donner aux machines le pouvoir de la vie et de la mort viole les principes de la dignité humaine. Selon eux, non seulement les LAWS sont vulnérables à l'ingérence et au piratage, ce qui entraînerait une augmentation du nombre de décès de civils, mais leur déploiement soulèverait des questions quant à savoir qui serait tenu responsable en cas d'utilisation abusive.
« Ne vous laissez pas tromper par l'absurdité de l'intelligence de ces armes », a déclaré Noel Sharkey, président du Comité international pour le contrôle des armes robotisées. Sharkey, qui est également expert en IA et en robotique à l'université britannique de Sheffield, a ajouté que « Vous ne pouvez tout simplement pas faire confiance à un algorithme - aussi intelligent soit-il - pour rechercher, identifier et tuer la bonne cible, surtout dans la complexité de la guerre ».
Laura Nolan, un ancien travailleur de Google, qui a démissionné de l’entreprise en 2018 en signe de protestation contre son affectation dans un projet visant à améliorer considérablement la technologie des drones militaires du Pentagone, a demandé l'interdiction de toutes les machines à tuer qui ne sont pas utilisées par des humains. L’ex-ingénieur logiciel de Google a averti que ce nouveau type d’armes pourrait accidentellement déclencher une guerre ou provoquer des atrocités de masse.
Les Nations Unies travaillent sur la question des armes entièrement autonomes dotées d'IA afin de l’emmener à un niveau formel qui pourrait déboucher sur un traité qui interdit ces robots tueurs, mais le bout du tunnel semble bien loin. Mais une série de réunions, tenues en fin août 2018, se sont terminées sans que les pays participants se rapprochent de règles internationales contraignantes. Les pays se sont juste entendus sur une liste de recommandations non contraignantes. Un petit nombre de pays – notamment les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie – auraient en effet empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs.
Selon le reportage de Bhalla, une enquête menée en 2019 par Human Rights Watch (HRW) et la coalition mondiale Campaign to Stop Killer Robots a révélé que 61 % des personnes dans 26 pays, dont les États-Unis et Israël, s'opposaient au développement d'armes meurtrières totalement autonomes. Cependant, selon Mary Wareham, directrice du plaidoyer de la division des armes de HRW, ces pays ont tenu huit réunions dans le cadre de la Convention des Nations Unies sur certaines armes classiques depuis 2014 pour discuter de la question, et il n'y a eu aucun progrès.
« Il ne suffit pas que nous avancions dans le XXIe siècle sans règles établies », a déclaré Wareham, ajoutant que sans surveillance, davantage de nations développeraient des armes autonomes mortelles. « Nous devons avoir un nouveau traité international comme nous l'avons fait pour les mines terrestres et les armes à sous-munitions. Nous devons prévenir la tragédie évitable qui se prépare si nous ne réglementons pas nos robots tueurs », a-t-elle ajouté.
Les robots tueurs ne seront pas la proie d'émotions humaines telles que la peur ou la vengeance et réduiront le nombre de décès
Selon les experts en systèmes d'IA basés sur la défense, ces armes autonomes, si elles sont bien développées, peuvent rendre la guerre plus humaine, a rapporté Bhalla. Elles seront plus précises et plus efficaces, ne seront pas la proie d'émotions humaines telles que la peur ou la vengeance et réduiront au minimum les décès de civils et de soldats, ajoutent-ils.
« Du point de vue militaire, la préoccupation première est de protéger la sécurité du pays avec le moins de pertes de vies humaines - et cela signifie ses soldats », a déclaré Anuj Sharma, président de l'India Research Centre, qui travaille sur la guerre de l'IA. « Donc si vous pouvez retirer l'humain de l'équation autant que possible, c'est une victoire parce que cela signifie moins de sacs mortuaires pour rentrer chez soi - et c'est ce que tout le monde veut », a-t-il ajouté.
Selon le rapport, trente pays, dont le Brésil, l'Autriche et le Canada, sont en faveur d'une interdiction totale, tandis que des dizaines d'autres veulent un traité pour établir une forme de contrôle sur l'utilisation des LAWS, a déclaré Wareham. Selon elle, cela est dû en grande partie à quelques nations puissantes comme les États-Unis et la Russie qui disent qu'il est prématuré d'aller vers une réglementation, sans d'abord définir ces armes.
Quant aux États-Unis, ils disent qu’ils soutiennent les discussions à l'ONU, mais que « dicter un format particulier pour un résultat avant de travailler sur le fond" ne donnerait pas le meilleur résultat, d’après le rapport. Dans un communiqué, un porte-parole du département d'État a déclaré : « Les États-Unis se sont opposés aux appels à l'élaboration d'une interdiction et ne sont pas favorables à l'ouverture de négociations, que ce soit sur un instrument juridiquement contraignant ou sur une déclaration politique, pour le moment ».
« Nous ne devons pas être contre la technologie et nous devons nous garder de porter des jugements hâtifs sur les technologies émergentes ou futures, surtout compte tenu du fait que les armes "intelligentes" à guidage de précision ont permis à des militaires responsables de réduire les risques pour les civils lors d'opérations militaires », a-t-il ajouté.
Selon un commentateur qui s’insurge contre l'argument selon lequel l’IA est précise donc moins meurtrière, si l’IA peut être utilisée de façon plus sélective, elle peut également être utilisée pour tuer des villes entières. Il a par ailleurs ajouté que « quand vous pouvez aller à la guerre et qu'aucun de vos gens ne meurt, vous irez à la guerre plus souvent ». Qu’en pensez-vous ?
Source : Reuters
Et vous ?
:fleche: Qu’en pensez-vous ?
:fleche: Les robots tueurs réduiront au minimum les décès de civils et de soldats. Qu’en pensez-vous ?
:fleche: Pensez-vous que des règles contraignantes pour contrôler ces armes pourront être mises en œuvre un jour à l’échelle mondiale ?
Lire aussi
:fleche: Un ancien travailleur de Google craint que des « robots tueurs » ne provoquent des atrocités massives, l'ingénieur logiciel prévient que l'IA pourrait aussi déclencher accidentellement une guerre
:fleche: L'Europe estime qu'une IA ne doit pas avoir le droit de vie ou de mort sur le champ de bataille, et appelle à interdire les robots-tueurs
:fleche: Des scientifiques demandent l'interdiction du développement d'armes contrôlées par l'IA, en évoquant de nombreux problèmes sous-jacents
:fleche: Interdiction des robots tueurs : quelques pays, y compris les USA et la Russie, bloquent les négociations, menées au niveau des Nations Unies
Course aux armements : l'ONU échoue à nouveau à interdire l'utilisation des robots tueurs autonomes
Course aux armements : l’Organisation des Nations Unies échoue à nouveau dans l’établissement de règles internationales contraignantes
Visant à interdire l’utilisation des robots tueurs autonomes
La Convention des Nations unies sur certaines armes classiques s’est à nouveau penchée sur la question de l'interdiction des armes autonomes lors de sa dernière réunion d'examen quinquennale à Genève du 13 au 17 décembre 2021. Résultat : pas de consensus des parties prenantes sur l’établissement de règles internationales contraignantes visant à interdire l’utilisation des robots tueurs autonomes. Sur le terrain pourtant, des rapports font état de ce que la machine sait déjà prendre la décision d'appuyer sur la gâchette sans intervention humaine.
Les avis demeurent partagés sur la question de savoir si les robots tueurs autonomes doivent faire l’objet d’interdiction. En effet, l'utilisation d'armes autonomes meurtrières est en discussion aux Nations unies depuis 2015, dans le cadre de la Convention sur certaines armes classiques (CCAC). Les pays pionniers dans le domaine des systèmes d'armes autonomes, dont la Russie, les États-Unis et Israël, rejettent une interdiction contraignante en vertu du droit international. Ces poids lourds militaires sont face à un groupe d'États qui réclament une législation contraignante dans le cadre de la campagne menée par les ONG pour arrêter les robots tueurs.
« Tuer ou blesser des personnes sur la base de données collectées par des capteurs et traitées par des machines porterait atteinte à la dignité humaine. Human Rights Watch et d'autres organisations craignent que le fait de s'appuyer sur des algorithmes pour cibler des personnes déshumanise la guerre et érode notre humanité collective », lancent des intervenants du deuxième groupe pour l’interdiction des robots tueurs autonomes.
Chaque pays poursuit donc avec le développement desdites armes autonomes. Les États-Unis et Israël par exemple sont sur des des projets de construction de nouveaux chars d'assaut autonomes et semi-autonomes destinés à être utilisés sur le champ de bataille. Du côté des USA, il s'agit de former une famille de chars d'assaut robotisés lourdement armés pour combattre aux côtés des humains, sur les champs de bataille du futur.
Les véhicules sont prévus en trois classes de taille, dans trois degrés de létalité, dont léger, moyen et lourd, et pèseront jusqu'à 30 tonnes. Toute la famille des véhicules de combat robotisés utilisera des logiciels de navigation et des interfaces de commande communs déjà testés sur le terrain. Chaque variante utilisera les mêmes normes électroniques et mécaniques, une architecture ouverte dite modulaire, qui devrait permettre aux soldats sur le terrain de brancher et de faire fonctionner toute une gamme de charges utiles, des missiles aux générateurs de fumée en passant par les brouilleurs radio.
Pour l'instant, les robots seront télécommandés par des humains, à distance, depuis leur base. Quant à l'Israël, le pays veut construire le Carmel, un char d'assaut qui sera équipé de contrôleurs Xbox et d'une IA perfectionnée avec les jeux “StarCraft II” et “Doom”. Des prototypes de ce futur véhicule de combat blindé (AFV) de l'armée israélienne ont été dévoilés publiquement en août 2019. Vu de l'extérieur, il ressemble à n'importe quelle arme de guerre classique. Il est enrobé de couches d'acier très épaisses, certaines colorées en kaki traditionnel, d'autres en noir.
De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique la plus unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un adolescent.
Ce nouvel échec des discussions à l’ONU fait suite à des sorties d’experts de la filière visant à avertir contre les dangers de l’utilisation des robots autonomes tueurs : « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre. Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes détournées pour se comporter de manière indésirable. Nous n'avons pas assez de temps pour agir. Une fois que cette boîte de Pandore est ouverte, il sera difficile de la fermer. »
Source : Reuters
Et vous ?
:fleche: Que pensez-vous de ces divergences dans les négociations sur l'interdiction des armes autonomes ?
:fleche: Avez-vous espoir que les négociations aboutissent à l'interdiction de ces armes ?
Voir aussi :
:fleche: Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
:fleche: USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
:fleche: Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
:fleche: Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
:fleche: Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur