1 pièce(s) jointe(s)
Google s'engage à ne pas utiliser l'IA pour le développement d'armes
Google promet de ne pas utiliser l'IA pour le développement d'armes
Mais informe qu'il va continuer à coopérer avec les militaires
En mars, des rapports ont révélé la participation de Google dans un contrat de plusieurs milliards de dollars avec le Pentagone, des révélations qui ont suscité la colère de plusieurs milliers d’employés du géant de la recherche. Et pour cause, il a été révélé que Google aide le Pentagone à développer une IA pour analyser les vidéos par drone. Aussitôt, des organisations comme l’EFF et l’ICRAC ont mis en garde contre une éventuelle utilisation de l’IA pour développer des armes et pour la guerre.
L’implication de Google dans ce projet soulève certainement plusieurs questions d’ordre éthique, c’est pour cette raison que la firme a décidé de publier ce jeudi un guide regroupant les principes auxquels la société adhère pour le développement de l’intelligence artificielle. Parmi les limites que s’est fixées Google, il s’engage à ne pas utiliser son IA pour développer des armes, la surveillance illégale ou des technologies causant un préjudice global. Les nouvelles limites que s’est fixé pourrait aider l’entreprise à calmer l’euphorie de certains de ces employés.
Si Google s’engage à ne pas développer d’armes, il informe néanmoins qu’il va continuer à solliciter des contrats pour travailler avec le gouvernement sur des domaines tels que la cybersécurité, le recrutement militaire et la recherche et sauvetage, a dit Sundar Pichai, PDG de Google.
« Au sein de Google, nous utilisons l’IA pour rendre les produits plus pratiques, de l’email sans spam et plus facile à composer, à l'assistant personnel auquel vous pouvez parler naturellement, aux photos qui mettent en avant ce qui est amusant pour vous divertir, » a écrit Sundar Pichai. « Nous reconnaissons qu’une telle technologie aussi puissante soulève des questions aussi importantes sur son usage. La manière dont l'IA est développée et utilisée aura un impact significatif sur la société pendant de nombreuses années. En tant que leader dans l'IA, nous nous sentons une responsabilité particulière de faire les choses correctement. »
Le projet Maven sur lequel travaille Google vise à améliorer les opérations des drones en utilisant des technologies de reconnaissance d'images. Malgré la pétition des employés de Google et la démission d’au moins une douzaine de Googlers, la firme compte honorer le contrat jusqu’à son expiration en 2019. Selon certains rapports, Google viserait un autre contrat de 10 milliards de dollars avec le Pentagon, un projet auquel prétend aussi IBM, Microsoft et Amazon.
Avec le développement rapide de l’IA, ses applications ont été transférées des laboratoires de recherche aux applications directes dans plusieurs industries comme la défense et la santé. Et les géants de la Silicon Valley comme Google et ses grands rivaux sont devenus de véritables pionniers de la technologie, dotés d’outils capables d’analyser de larges quantités de données, faire des prédictions et identifier des anomalies de façon plus rapide que des humains.
Mais la décision de Google de se fixer des limites vient après des années de mises en garde contre le développement rapide de systèmes automatisés et le développement rapide de l’IA en général. Ainsi, une coalition de défenseurs des droits de l’Homme et d’entreprises technologiques a appelé à la mise sur pied de systèmes d’apprentissage machine respectueux des valeurs de la Déclaration des droits de l’homme.
À vrai dire, les craintes les plus farfelues sont en train de devenir une réalité, le potentiel des systèmes d’IA de mener des attaques par drone sans supervision ou identifier des dissidents grâce à la collecte en masse de données en ligne sont désormais possibles, autant d’exemples qui agacent les éthiciens et académiques. C’est pourquoi lors des dernières années, les critiques se sont multipliées au regard du développement de l’IA et de plus en plus de firmes de la Silicon Valley allouent plus de ressources pour la recherche et le développement d’une IA sans risque, à l’image d’Open IA et d’autres groupes de recherche partout dans le monde.
Google s’est fixé donc des limites éthiques aujourd’hui, mais il faut rappeler, cette promesse n’aurait pas pu avoir lieu si le grand public n’a pas été exposé au scandale du projet Maven, qui est devenu au final une véritable crise de relations publiques pour le géant de la recherche. Car, il faut le dire, lorsque Google s’est engagé dans le projet, la question d’éthique n’a pas été soulevée ni même considérée comme le révèlent les premiers échanges entre les directeurs de la firme, qui se sont concentrés surtout sur la rentabilité du projet et la crainte d’un contrecoup médiatique. Une fois que l’affaire a été révélée, Google a vite entrepris d’organiser des réunions et a prétendu que ce projet n’a pas une grande importance et que l’IA ne sera pas utilisée pour tuer des gens. Bien que la firme n’a pas forcément menti, les mêmes échanges par email entre les exécutifs de la société montrent que ce projet était destiné à évoluer plus tard pour rapporter 250 millions de dollars par an, une somme non négligeable !
Un responsable de Google a informé Reuters que la firme n’aurait pas participé au projet si ces principes étaient déjà en place. Le travail de Google dans le cadre du contrat se rapproche à l’armement, bien qu’il n’est pas destiné à tuer des gens.
Le responsable a décrit les principes comme un modèle auxquels peut adhérer tout développeur. Toutefois, Microsoft et d’autres firmes ont déjà mis en place leurs propres principes pour le développement de l’IA, mais l’attention particulière portée par la communauté aux efforts de Google est liée à la révélation du scandale et la protestation interne des employés contre le contrat de drones.
Source : Reuters
Et vous ?
:fleche: Pensez-vous que Google a ignoré volontairement la question d'éthique lorsqu'il s'est engagé avec le Pentagone dans le projet Maven ?
:fleche: Pensez-vous que la firme a déraillé de son slogan informel "Don't be evil" ?
Voir aussi :
:fleche: IA : Google ne renouvellera pas son contrat avec le DoD dans le projet controversé Maven, sa réputation est mise en jeu
:fleche: Une coalition appelle à l'implémentation de systèmes d'IA respectueux des droits de l'Homme, gouvernements et entreprises de la Tech interpellés
:fleche: USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
1 pièce(s) jointe(s)
Annulation du contrat IA entre Google et le DoD : quel est le déclencheur ?
Annulation du contrat IA entre Google et le DoD : quel est le déclencheur ?
Un « groupe de 9 » ingénieurs pour faire la loi à Mountain View ?
Entre les mois de mars et de juin de cette année, on est parti de Google aide le Pentagone à développer une IA pour analyser les vidéos capturées par drone à Google ne renouvellera pas son contrat avec le DoD dans le projet controversé Maven. À ceux qui ont manqué les multiples épisodes entre les deux mentionnés, on rappelle de façon brossée qu’il a fallu la mobilisation de plus de 3000 employés du géant technologique et d’organisations de protections des libertés sur Internet comme l’Electronic Frontier Foundation pour en arriver là.
Il n’y a pas de fumée sans feu, dit-on souvent. Alors, qu’est-ce qui a déclenché cette mobilisation qui a conduit Google à arrêter de collaborer avec le Pentagone dans le cadre de ce projet en intelligence artificielle dénommé Maven ? Réponse rapide : un groupe d’ingénieurs ou si vous préférez, le « groupe de 9. »
L’agence de presse Bloomberg rapporte en effet que plus tôt cette année, ce « groupe influent » d’ingénieurs du génie logiciel a été chargé d’implémenter un air gap – une espèce de cordon de sécurité autour de systèmes informatiques censés héberger des données sensibles. La manœuvre devait permettre à Google de passer le cap de la certification de son infrastructure informatique par le DoD et donc de se voir octroyer des contrats du genre dont on ne parle que dans des chambres noires. Seulement, pour le groupe de 9, une collaboration avec le Pentagone laissait entrevoir une utilisation de la technologie pour la guerre, ce contre quoi il a tenu à manifester son désaccord en refusant de procéder à la mise en œuvre de l’air gap. La suite, on la connaît avec l’effet boule de neige du vent de protestations.
Sans air gap, il devient difficile d’empoigner des portions du gâteau JEDI
De là à dire que le « groupe de 9 » fait la loi à Mountain View ? Ce serait peut-être un peu exagéré, mais le résultat est là : plus de projet Maven. En sus, il y a que sans air gap, le programme JEDI – un contrat de 10 milliards de dollars sur dix ans et pour lequel Google a manifesté un intérêt – s’éloigne. Bloomberg rapporte qu’Amazon et Microsoft disposent de cette certification qui fait tant défaut à Google, ce qui les place en pôle position pour se disputer des morceaux de ce gâteau.
Des membres de l’équipe dirigeante de l’entreprise comme Diane Greene – CEO de Google cloud – sont d’avis qu’elle doit continuer à collaborer avec les agences gouvernementales. « Les agences fédérales comptent parmi les plus gros investisseurs sur les solutions d’entreprise et commencent à graviter autour des services offerts sur le cloud », écrit Bloomberg pour aider à comprendre les raisons d’un tel positionnement. L’agence de presse rapporte que Google a mis une pause sur l’implémentation de l’air gap, mais la situation peut changer à tout moment le temps de trouver de nouvelles mains capables de faire le travail. Ce ne serait pas nouveau sous le ciel dans un contexte où les entreprises de la Tech sont acculées de toutes parts comme l’est Google, mais où l’on trouve certaines comme Amazon qui fournissent des solutions controversées aux forces de défense américaines.
Source : Bloomberg
Et vous ?
:fleche: Qu’en pensez-vous ? Ces entreprises de la Tech ont-elles vraiment le choix quand on sait que si elles ne se positionnent pas sur de tels créneaux quelqu’un d’autre le fera ?
:fleche: Que pensez-vous de ces ingénieurs qui refusent de participer à la conception d’armes sophistiquées ?
Voir aussi :
:fleche: USA : des associations s'érigent contre la technologie de reconnaissance faciale d'Amazon craignant une surveillance de masse par la police
:fleche: La police chinoise s'équipe de lunettes dotées d'une technologie de reconnaissance faciale, pour scanner les foules à la recherche de suspects
:fleche: Chine : la police se sert de la reconnaissance faciale pour arrêter un fugitif, la fiction Big Brother de 1984 est-elle devenue une réalité en 2018 ?
:fleche: Big data : la Chine a commencé à tester son système national de crédit social et menace de priver les citoyens mal notés de certains services de base
:fleche: Facebook veut utiliser la reconnaissance faciale pour vous prévenir, lorsque quelqu'un publie une photo de vous sur sa plateforme
:fleche: Mozilla publie une solution d'apprentissage profond pour la reconnaissance vocale, une implémentation TensorFlow de l'architecture Deep Speech
2 pièce(s) jointe(s)
Project Maven : Google a fait appel aux travailleurs de la gig economy pour entraîner son IA
Project Maven : Google a fait appel aux travailleurs de la gig economy pour entraîner son IA,
dont l'usage est militaire
Des millions de travailleurs de la gig economy du monde entier vivent maintenant de ce qu’on appelle des sites Web de crowdfunding - un travail qui relève du crowdsourcing ou de la division de tâches en minuscules portions à répartir sur un grand nombre de personnes. Les sites paient à peine 1 dollar de l’heure pour permettre aux utilisateurs d’accomplir des tâches brèves et répétitives, telles que l’identification de motifs sur des images et la production de critiques de produits.
La gig economy signifie, littéralement, l’économie des petits boulots. Le terme, très populaire aux États-Unis, désigne principalement les plateformes collaboratives comme Uber ou Deliveroo qui n’emploient pas des salariés, mais travaillent avec des micro-entrepreneurs (anciennement autoentrepreneurs, qui exercent une entreprise individuelle sous le régime fiscal de la microentreprise.)
Selon un nouveau rapport publié par The Intercept, Google a embauché des employés de la gig economy pour l'aider à mettre en place un programme controversé d'intelligence artificielle que la société avait associé au Pentagone.
Citation:
Envoyé par The Intercept
Certains de ces travailleurs de la gig economy aidaient inconsciemment à renforcer les capacités de drones sur les champs de bataille du Pentagone.
Le travail a été effectué dans le cadre d'une initiative du ministère de la Défense appelée Project Maven. L'année dernière, The Intercept a annoncé que le Pentagone avait discrètement fait appel à Google dans le cadre du projet de développement d'un programme d'intelligence artificielle destiné à aider les analystes de la Force aérienne à trier rapidement les milliers d'heures de vidéo de drones et à choisir des cibles sur le champ de bataille.
Cependant, le programme d'intelligence artificielle doit apprendre à être capable de distinguer les objets sur les vidéos - et pour que le programme puisse apprendre, il faut que quelqu'un l'enseigne. C’est ici qu’entrent sur scène les travailleurs de la gig economy, chargez de fournir le libellé initial des données d’image - identifiant correctement les parties d’une image - permettant au programme d’intelligence artificielle de Google de distinguer les bâtiments, les images, les arbres et d’autres objets. Le rôle des travailleurs de la gig economy a suscité peu d'attention.
The Intercept affirme avoir obtenus des courriels qui montrent que peu après que Google eût signé l'accord avec l'armée, le géant de la technologie a commencé à travailler pour étiqueter un ensemble d'images satellites capturées par une technologie connue sous le nom d'imagerie animée à grande échelle. En octobre 2017, Google a envoyé à une société appelée CrowdFlower - qui a ensuite pris le nom de Figure Eight - des images brutes contenant des instructions relatives à l'étiquetage des données. Le projet d’étiquetage des données a commencé à montrer des résultats rapidement au cours du mois suivant, alors que les ingénieurs élaboraient de meilleures directives à l’intention des travailleurs de la gig economy pour enseigner à l’intelligence artificielle l’identification des objets.
Le projet Maven, avec l'aide des travailleurs de la gig economy, a été conçu pour permettre aux responsables du Pentagone de procéder à une « analyse en temps quasi réel » et de « cliquer sur un bâtiment pour voir tout ce qui lui est associé », y compris des personnes et des véhicules, selon des documents obtenus par The Intercept.
Selon The Intercept, ces travailleurs ne savaient pas à qui leur travail était destiné ni ce à quoi ils contribuaient.
Citation:
Envoyé par The Intercept
Will Pleskow, responsable de compte chez Figure Eight, a confirmé le rôle de sa société dans l’initiative Project Maven lors d’un entretien avec The Intercept lors du AI Summit, un salon destiné aux entreprises du secteur de l’apprentissage automatique. Pleskow a déclaré que les travailleurs effectuant l'étiquetage des données, appelés « contributeurs », ne savaient pas qu'ils travaillaient pour Google ou pour l'armée, ce qui n'est pas un arrangement inhabituel.
« Nos clients ont la possibilité de montrer qui ils sont. La plupart du temps, cela reste anonyme », a déclaré Pleskow. Il a ajouté que son entreprise effectuait des tâches d'étiquetage d'image similaires pour améliorer la qualité de la technologie des véhicules autonomes, tels que les voitures sans conducteur.
Plusieurs travailleurs de Figure Eight ont déclaré à The Intercept qu'il n'était pas inhabituel de laisser les travailleurs dans l'ignorance à propos de la manière dont les résultats de leur chaîne de montage de données sont utilisés.
« Les contributeurs à la plateforme Figure Eight ne sont pas informés des destinataires des données », a déclaré un ancien animateur de groupe, qui utilisait son pseudonyme lorsque The Intercept a contacté des médias sociaux. « Habituellement, on leur donne une raison pour laquelle ils effectuent une tâche, telle que "Dessinez des boîtes autour d’un certain produit pour aider les machines à le reconnaître", mais ils ne savent rien de la société qui reçoit les données ».
En juin dernier, Google avait annoncé sa décision de ne pas renouveler son contrat avec le ministère de la Défense, car il concernait le projet Maven après que plus de 3 000 employés eurent signé une pétition pour protester contre son implication dans cette initiative. L'accord devrait se terminer en mars 2019.
Source : The Intercept
Et vous ?
:fleche: Qu'en pensez-vous ?
Voir aussi :
:fleche: Google lance Cloud Firestore, une base de données de documents NoSQL sans serveur, serait-elle meilleure que Firebase ?
:fleche: Après Facebook, c'est Google qui fait aussi passer Screenwise Meter, une application de collecte de données, sur les périphériques iOS
:fleche: La fermeture de Google+ pour les comptes grand public est prévue le 2 avril 2019, Google révèle aussi quand les données seront supprimées
:fleche: Google fait ses premiers pas vers la suppression des URL telles qu'on les connait sur le web avec déjà 2 projets en cours d'élaboration
:fleche: Google Chrome 72 est disponible pour Windows, macOS, Linux et Android : zoom sur les nouveautés
2 pièce(s) jointe(s)
L'Autriche veut des règles éthiques sur l'utilisation des robots tueurs dotés d'IA sur le champ de bataille
L'Autriche veut des règles éthiques sur l'utilisation des robots tueurs dotés d'IA sur le champ de bataille
le pays affirme que seuls les humains doivent décider des questions de vie ou de mort
Alors que les États-Unis et l'Israël accélèrent la construction de systèmes d'armes létales autonomes (SALA) ou semi-autonomes destinés aux champs de bataille, l'inquiétude semble monter du côté de certains pays, dont l'Autriche. Vienne a exprimé son inquiétude face à la prolifération de ces armes la semaine dernière et a appelé à la mise en place d'un système d'éthique international sur l'utilisation de robots tueurs et de drones au combat. Le gouvernement autrichien affirme qu'il veut que ce soient les humains, et non les algorithmes, qui décident des questions de vie ou de mort.
La question de l'utilisation éthique de robots tueurs et de drones sur le champ de bataille n'est pas un sujet nouveau, mais à ce jour, aucun consensus ne semble avoir été établi entre les gouvernements du monde. Vienne s'inquiète à ce propos et s'est lancée dans une initiative diplomatique visant à établir un cadre éthique pour l'utilisation de robots tueurs sur les champs de bataille du futur. Le ministre autrichien des Affaires étrangères Alexander Schallenberg a déclaré que des normes similaires à celles établies pour les mines terrestres et les armes à sous-munitions devraient être adoptées.
« Nous devons créer des règles avant que les robots tueurs n'atteignent le champ de bataille de cette Terre », a déclaré Schallenberg au journal allemand Welt am Sonntag. Il a ajouté que le gouvernement autrichien prévoyait d'organiser une conférence à Vienne en 2021 pour « lancer un processus qui, espérons-le, aboutira à une convention internationale sur l'utilisation de l'intelligence artificielle sur les champs de bataille ». « Jusqu'à présent, le thème n'a pas été suffisamment abordé au niveau diplomatique », a déclaré Schallenberg.
D'après ses dires, cette conférence permettra de créer un mouvement entre les États, les experts et les organisations non gouvernementales à la manière de la Croix-Rouge. En outre, soulignant la nécessité d'un cadre, Schallenberg a déclaré que les types de décisions prises dans les scénarios de combat ne devraient pas être laissés à l'intelligence artificielle. « La décision de vie ou de mort devrait être prise par une personne ayant une compréhension morale et éthique totale et non par un algorithme qui n'est qu'une suite de 0 et de 1 », a déclaré le ministre.
Les pays développent rapidement des robots tueurs autonomes
De nombreux pays consacrent davantage d'efforts au développement de robots tueurs dotés d'IA et capables de tuer de manière indépendante. Pourtant, les menaces liées à ces armes ont été démontrées à plusieurs reprises. Entre autres menaces, elles sont faillibles au piratage et peuvent être détournées pour se comporter de manière indésirable. Selon une lettre ouverte adressée aux Nations Unies par Elon Musk et cosignée par une multitude de spécialistes en IA, « elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre ».
Cependant, les pays continuent de développer rapidement ces armes autonomes, alors qu’ils ne font aucun progrès dans la mise en place des règles communes à l’échelle mondiale concernant leur utilisation dans les guerres à venir. Les États-Unis et l'Israël ont récemment dévoilé des projets de construction de nouveaux chars d'assaut autonomes et semi-autonomes destinés à être utilisés sur le champ de bataille. Du côté des USA, il s'agit de former une famille de chars d'assaut robotisés lourdement armés pour combattre aux côtés des humains, sur les champs de bataille du futur.
Les véhicules sont prévus en trois classes de taille, dans trois degrés de létalité, dont léger, moyen et lourd, et pèseront jusqu'à 30 tonnes. Toute la famille des véhicules de combat robotisés utilisera des logiciels de navigation et des interfaces de commande communs déjà testés sur le terrain. Chaque variante utilisera les mêmes normes électroniques et mécaniques, une architecture ouverte dite modulaire, qui devrait permettre aux soldats sur le terrain de brancher et de faire fonctionner toute une gamme de charges utiles, des missiles aux générateurs de fumée en passant par les brouilleurs radio.
Pour l'instant, les robots seront télécommandés par des humains, à distance, depuis leur base. Quant à l'Israël, le pays veut construire le Carmel, un char d'assaut qui sera équipé de contrôleurs Xbox et d'une IA perfectionnée avec les jeux “StarCraft II” et “Doom”. Des prototypes de ce futur véhicule de combat blindé (AFV) de l'armée israélienne ont été dévoilés publiquement en août 2019. Vu de l'extérieur, il ressemble à n'importe quelle arme de guerre classique. Il est enrobé de couches d'acier très épaisses, certaines colorées en kaki traditionnel, d'autres en noir.
De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique la plus unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un “adolescent”.
Les robots tueurs devraient-ils être interdits ?
Les avis sont partagés sur cette question. En effet, l'utilisation d'armes autonomes meurtrières est en discussion aux Nations unies depuis 2015, dans le cadre de la Convention sur certaines armes classiques (CCAC). Les pays pionniers dans le domaine des systèmes d'armes autonomes, dont la Russie, les États-Unis et Israël, rejettent une interdiction contraignante en vertu du droit international. Ces poids lourds militaires sont confrontés à un groupe d'États qui réclament une législation contraignante dans le cadre de la campagne menée par les ONG pour arrêter les robots tueurs.
En 2017, la Russie soutenait que « l’absence de réglementation claire sur de tels systèmes d’armement reste le principal problème dans la discussion sur les lois », mais « il est difficilement acceptable que l’encadrement des SALA restreigne la liberté de profiter des avantages des technologies autonomes qui représentent l’avenir de l’humanité ». De leur côté, les États-Unis ont estimé qu’il est encore « prématuré » d’envisager une interdiction des SALA, même si l’administration Trump disait soutenir le processus de la CCAC.
Ainsi, l'on estime qu'en 2018, les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie auraient empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs. C'est à la fin de 2013 que les Nations Unies ont mis le sujet à l'ordre du jour, mais depuis lors, peu de choses se sont produites. L'organisation n'a même pas été en mesure de s'entendre sur une définition des armes létales entièrement autonomes. Les militants des droits de l’homme devraient davantage s’armer de courage pour continuer le combat.
Selon le média allemand Deutsche Welle (DW), en tout, 30 pays souhaitent une interdiction totale de l'utilisation des robots tueurs dans le cadre de cette campagne, ainsi que le Parlement européen. Par ailleurs, en mars 2019, plusieurs militants de 35 pays s’étaient réunis à Berlin pour demander l'interdiction des armes autonomes meurtrières. Ces militants engagés contre l’utilisation des armes autonomes veulent attirer l’attention des pays non encore engagés et surtout l’Allemagne dans la perspective de nouvelles négociations sur ces armes à Genève.
Noel Sharkey, l'une des figures de proue de la campagne pour arrêter les robots tueurs, a déclaré à l'époque qu'il fallait arrêter de parler de « systèmes d'armes létales autonomes » comme s'il s'agissait d'un roman de science-fiction.
Source : Deutsche Welle
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Les robots tueurs devraient-ils être interdits ?
Voir aussi
:fleche: La résistance contre les robots tueurs grandit : des militants de 35 pays à Berlin pour s'opposer à ces armes et réclamer une initiative allemande
:fleche: L'armée américaine veut créer des robots lourds semi-autonomes armés de missiles pour accomplir certaines des tâches les plus dangereuses des soldats
:fleche: Carmel, le nouveau char d'Israël, sera équipé de contrôleurs X-Box et d'une IA perfectionnée avec les jeux "StarCraft II" et "Doom" dans un cockpit de style F-35
:fleche: Les pays développent rapidement des "robots tueurs" dotés d'IA qui tuent de manière indépendante, mais ne parviennent pas à s'entendre sur des règles pour contrôler ces armes, avertissent des experts