Et bien voilà ! C'est si compliqué de ne pas faire partie de l'empire du mal ...
Et bien voilà ! C'est si compliqué de ne pas faire partie de l'empire du mal ...
Aidez-nous à ne pas tuer trop de gens... la blague.
Bravo à Google d'avoir osé sortir de cette m***** .
Il faut avoir peu d'éthique pour développer ce genre de programme dans tous les cas, sans doute l'avidité ou l'égo qui entre en jeu.
De l'autre vous aurez la Chine et la Russie qui n'hésiteront pas une seconde à développer et vendre la technologie à d'autres qui n'auront eu aucune éthique.
Donc In Fine, le développement devra avoir lieu tant que l'organisme (qui sert à rien dans ce monde, en l'état) qui s'appel les Nations Unis n'aura pas mis les "Ola" sur ce genre de technologie folle qui nous pousse à toujours plus de pressions, de guerre, de pauvreté, de déséquilibre ... qui est d'ailleurs nullement lié au capitalisme, mais un manque de gouvernance mondiale.
C'est juste une pierre jetté dans la mare, ça ne fait que retarder les USA, ça ne l'arrêtera pas. Et je pense d'ailleurs que si elle faisait voter à l'U.N. une motion de non proliférations de l'IA a des fins militaires , on avancerait grandement, mais comme la Russie mettra sa motion de censure comme toujours... suite au prochain épisode
Les USA sont de très loin les plus avancé dans le domaine de l'IA militaire et comme cette technologie risque d'être un argument important dans la prochaine guerre mondiale, aucun pays ne va lâcher le truc (la Chine est en 2ieme position).
L’Organisation des Nations unies ne sert à rien, elle n'a jamais empêché le moindre conflit...
Les traités de non prolifération ne sont pas respectés, normalement les pays devraient diminuer leur arsenal nucléaire et c'est pas vraiment le cas... (Israël ne devrait pas avoir d'arme nucléaire et ils en ont beaucoup)
Si la monde est en crise c'est à cause de la finance. (si les nations pouvaient emprunter à taux 0, il y aurait beaucoup moins de problème...)
Maintenant il existe une dette non remboursable, quand ce genre de scénario ce produit il y a des chances que ça finisse en guerre.
La dette ce n'est pas anodin, contrairement à ce que beaucoup répètent.
Ça n'arrivera jamais. En tout cas je l’espère.
L'UE c'est un peu un gros gouvernement et c'est déjà bien assez ingouvernable comme ça...
Plus ça s'agrandit plus c'est le bordel.
Ils essaient juste de ne pas avoir trop de retard pour pouvoir se défendre face aux USA qui ont beaucoup d'avance dans ce domaine.
Vous connaissez le budget militaire US par rapport aux autres pays ?
Liste des pays par dépenses militaires
Les USA sont les premiers en surveillance, vu que les grosses entreprises collaborent avec eux (Google, Apple, Microsoft, Facebook, etc).
Depuis Snowden on sait que la NSA peut surveiller tout le monde sur la planète.
Le gouvernement US avait mis sur écoute Hollande et Merkel par exemple.
On avait presque oublié que la Chine et la Russie étaient les méchants alors que les USA sont les gentils. C'est totalement logique vu comment l'histoire s'est déroulée que ces pays agissent de cette manière et peu importe ce que vous pensez éthique ou non, ils souhaitent juste ne pas tout reperdre à nouveau à cause d'une entité. Certes, ce n'est pas souhaitable mais il faut bien rappeler qu'il y a une raison à tout ça et que son origine revient toujours au même pays.
L'objectif de Google c'est de faire de l'argent.
Donc pourquoi refuser un contrat ?
Les multinationales n'ont généralement pas d'éthique, le but c'est de faire de l'argent, donc il n'y a pas d'histoire de moral.
Comme quand IBM, Ford, Hugo Boss, etc ont travaillé pour les allemands durant la seconde guerre mondiale.
Ce serait chouettes qu'elles évitent de l'utiliser pour surveiller leur propre population.
Les pays développés deviennent des dictatures, nous sommes tous fiché automatiquement.
Aujourd'hui c'est la course à l'IA, les USA sont loin devant mais la Chine essaie de ne pas trop se faire devancer.
Ça fait super peur, mais quelque part ce n'est pas pire que les armes qu'on utilisé les USA au Vietnam, notamment l'Agent Orange de Monsanto (qu'il faut appeler Bayer maintenant) ou le Napalm.
Vladimir Poutine voit dans l’intelligence artificielle un moyen de dominer le monde :
En parlant de drone ça me rappelle ça :Le président a prédit que l’intelligence artificielle apporterait « des opportunités colossales et des menaces difficiles à prédire aujourd’hui, avant d’enchaîner, pour galvaniser la jeune Russie : celui qui deviendra le leader de cette sphère sera celui qui dominera le monde. »
Sans parler de l’Occident redouté, Poutine a néanmoins indiqué ses craintes : « Cela serait particulièrement regrettable que quelqu’un gagne une position de monopole [dans le développement de l’IA]. » En outre, le dirigeant ne dissocie pas ces avancées technologiques d’une future force de frappe des armes robotiques. Il s’est notamment étendu sur les drones, qu’il considère comme les armées de demain : « Quand les drones d’un parti seront détruits par ceux d’un autre, celui-ci n’aura pas d’autres choix que de se rendre. »
Iran shows off captured US drone
Quand un drone US capturé en 2011 fait progresser l'industrie de défense iranienne
=======Les Gardiens de la révolution ont construit et montré un drone dont la technologie est fortement inspirée de celle de l’engin américain ultrasecret RQ-170 Sentinel, saisi au-dessus du territoire iranien en 2011.
=======
Je n'en reviens pas que Google ait accepté de ne pas renouveler son contrat avec le ministère de la Défense des États-Unis dans le cadre du projet Maven.
C'est incroyable qu'un peu de communication et des démissions aient suffit.
Il y a aura peut être une entourloupe, Google va peut être bosser sur un autre projet que Maven pour le ministère de la Défense des États-Unis.
Google promet de ne pas utiliser l'IA pour le développement d'armes
Mais informe qu'il va continuer à coopérer avec les militaires
En mars, des rapports ont révélé la participation de Google dans un contrat de plusieurs milliards de dollars avec le Pentagone, des révélations qui ont suscité la colère de plusieurs milliers d’employés du géant de la recherche. Et pour cause, il a été révélé que Google aide le Pentagone à développer une IA pour analyser les vidéos par drone. Aussitôt, des organisations comme l’EFF et l’ICRAC ont mis en garde contre une éventuelle utilisation de l’IA pour développer des armes et pour la guerre.
L’implication de Google dans ce projet soulève certainement plusieurs questions d’ordre éthique, c’est pour cette raison que la firme a décidé de publier ce jeudi un guide regroupant les principes auxquels la société adhère pour le développement de l’intelligence artificielle. Parmi les limites que s’est fixées Google, il s’engage à ne pas utiliser son IA pour développer des armes, la surveillance illégale ou des technologies causant un préjudice global. Les nouvelles limites que s’est fixé pourrait aider l’entreprise à calmer l’euphorie de certains de ces employés.
Si Google s’engage à ne pas développer d’armes, il informe néanmoins qu’il va continuer à solliciter des contrats pour travailler avec le gouvernement sur des domaines tels que la cybersécurité, le recrutement militaire et la recherche et sauvetage, a dit Sundar Pichai, PDG de Google.
« Au sein de Google, nous utilisons l’IA pour rendre les produits plus pratiques, de l’email sans spam et plus facile à composer, à l'assistant personnel auquel vous pouvez parler naturellement, aux photos qui mettent en avant ce qui est amusant pour vous divertir, » a écrit Sundar Pichai. « Nous reconnaissons qu’une telle technologie aussi puissante soulève des questions aussi importantes sur son usage. La manière dont l'IA est développée et utilisée aura un impact significatif sur la société pendant de nombreuses années. En tant que leader dans l'IA, nous nous sentons une responsabilité particulière de faire les choses correctement. »
Le projet Maven sur lequel travaille Google vise à améliorer les opérations des drones en utilisant des technologies de reconnaissance d'images. Malgré la pétition des employés de Google et la démission d’au moins une douzaine de Googlers, la firme compte honorer le contrat jusqu’à son expiration en 2019. Selon certains rapports, Google viserait un autre contrat de 10 milliards de dollars avec le Pentagon, un projet auquel prétend aussi IBM, Microsoft et Amazon.
Avec le développement rapide de l’IA, ses applications ont été transférées des laboratoires de recherche aux applications directes dans plusieurs industries comme la défense et la santé. Et les géants de la Silicon Valley comme Google et ses grands rivaux sont devenus de véritables pionniers de la technologie, dotés d’outils capables d’analyser de larges quantités de données, faire des prédictions et identifier des anomalies de façon plus rapide que des humains.
Mais la décision de Google de se fixer des limites vient après des années de mises en garde contre le développement rapide de systèmes automatisés et le développement rapide de l’IA en général. Ainsi, une coalition de défenseurs des droits de l’Homme et d’entreprises technologiques a appelé à la mise sur pied de systèmes d’apprentissage machine respectueux des valeurs de la Déclaration des droits de l’homme.
À vrai dire, les craintes les plus farfelues sont en train de devenir une réalité, le potentiel des systèmes d’IA de mener des attaques par drone sans supervision ou identifier des dissidents grâce à la collecte en masse de données en ligne sont désormais possibles, autant d’exemples qui agacent les éthiciens et académiques. C’est pourquoi lors des dernières années, les critiques se sont multipliées au regard du développement de l’IA et de plus en plus de firmes de la Silicon Valley allouent plus de ressources pour la recherche et le développement d’une IA sans risque, à l’image d’Open IA et d’autres groupes de recherche partout dans le monde.
Google s’est fixé donc des limites éthiques aujourd’hui, mais il faut rappeler, cette promesse n’aurait pas pu avoir lieu si le grand public n’a pas été exposé au scandale du projet Maven, qui est devenu au final une véritable crise de relations publiques pour le géant de la recherche. Car, il faut le dire, lorsque Google s’est engagé dans le projet, la question d’éthique n’a pas été soulevée ni même considérée comme le révèlent les premiers échanges entre les directeurs de la firme, qui se sont concentrés surtout sur la rentabilité du projet et la crainte d’un contrecoup médiatique. Une fois que l’affaire a été révélée, Google a vite entrepris d’organiser des réunions et a prétendu que ce projet n’a pas une grande importance et que l’IA ne sera pas utilisée pour tuer des gens. Bien que la firme n’a pas forcément menti, les mêmes échanges par email entre les exécutifs de la société montrent que ce projet était destiné à évoluer plus tard pour rapporter 250 millions de dollars par an, une somme non négligeable !
Un responsable de Google a informé Reuters que la firme n’aurait pas participé au projet si ces principes étaient déjà en place. Le travail de Google dans le cadre du contrat se rapproche à l’armement, bien qu’il n’est pas destiné à tuer des gens.
Le responsable a décrit les principes comme un modèle auxquels peut adhérer tout développeur. Toutefois, Microsoft et d’autres firmes ont déjà mis en place leurs propres principes pour le développement de l’IA, mais l’attention particulière portée par la communauté aux efforts de Google est liée à la révélation du scandale et la protestation interne des employés contre le contrat de drones.
Source : Reuters
Et vous ?
Pensez-vous que Google a ignoré volontairement la question d'éthique lorsqu'il s'est engagé avec le Pentagone dans le projet Maven ?
Pensez-vous que la firme a déraillé de son slogan informel "Don't be evil" ?
Voir aussi :
IA : Google ne renouvellera pas son contrat avec le DoD dans le projet controversé Maven, sa réputation est mise en jeu
Une coalition appelle à l'implémentation de systèmes d'IA respectueux des droits de l'Homme, gouvernements et entreprises de la Tech interpellés
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
C'est les récentes " découvertes " au sujet des voitures autonomes qui ont voulu cela ?
Surtout que pour l'armée, il faut bien identifier l'objet avant d'agir, sinon, il y aura vraiment beaucoup de " victimes collatérales ".
Stratégiquement, certain ferait même un canon fictif pour forcer à paraitre découvert les forces qui leurs veulent du mal... (probabilités / statistiques)
Culturellement et religieuement, le "diable" est celui qui fait régner le mal et/ou qui puni ceux envoyer vers lui.
Ex: Hadès ou " les gardiens des enfers ". Pratiquement une boite de pandore.
L'enfers est comparable d'une certaine sorte à une prison où l'on ferait subir des sévis et où le directeur serait le diable, intellectuellement et culturellement parlant.
Religieusement, le diable y a été envoyer et y règne vue que c'est une zone de non droits pour les autres. Il peut ainsi faire tout ce qu'il souhaite et comme c'est lui le plus fort à cette endroit, il a le champs libre.
Dernière modification par MikeRowSoft ; 08/06/2018 à 15h59.
Ce sera dommage laissant la chance au robots s'il sont meilleurs que nous alors il merite de prendre la relève n'est ce pas l'une des lois de la nature qui laisse l'avantage au espèces qui dominent
Effectivement, vue de cette façon c'est pas l'armée qui apporte le " mieux vivre ". Pour peu que l'humain arrive à déterminer ce que c'est.
P.S. : j'y vois pas la même chose que les deux IA. Et même d'une personne à l'autre cela peut-être interprété différemment alors qu'il aurait passé leur vie ensemble sans jamais s'être quitté. (ex : bicéphale)
Dernière modification par MikeRowSoft ; 10/06/2018 à 11h20.
Annulation du contrat IA entre Google et le DoD : quel est le déclencheur ?
Un « groupe de 9 » ingénieurs pour faire la loi à Mountain View ?
Entre les mois de mars et de juin de cette année, on est parti de Google aide le Pentagone à développer une IA pour analyser les vidéos capturées par drone à Google ne renouvellera pas son contrat avec le DoD dans le projet controversé Maven. À ceux qui ont manqué les multiples épisodes entre les deux mentionnés, on rappelle de façon brossée qu’il a fallu la mobilisation de plus de 3000 employés du géant technologique et d’organisations de protections des libertés sur Internet comme l’Electronic Frontier Foundation pour en arriver là.
Il n’y a pas de fumée sans feu, dit-on souvent. Alors, qu’est-ce qui a déclenché cette mobilisation qui a conduit Google à arrêter de collaborer avec le Pentagone dans le cadre de ce projet en intelligence artificielle dénommé Maven ? Réponse rapide : un groupe d’ingénieurs ou si vous préférez, le « groupe de 9. »
L’agence de presse Bloomberg rapporte en effet que plus tôt cette année, ce « groupe influent » d’ingénieurs du génie logiciel a été chargé d’implémenter un air gap – une espèce de cordon de sécurité autour de systèmes informatiques censés héberger des données sensibles. La manœuvre devait permettre à Google de passer le cap de la certification de son infrastructure informatique par le DoD et donc de se voir octroyer des contrats du genre dont on ne parle que dans des chambres noires. Seulement, pour le groupe de 9, une collaboration avec le Pentagone laissait entrevoir une utilisation de la technologie pour la guerre, ce contre quoi il a tenu à manifester son désaccord en refusant de procéder à la mise en œuvre de l’air gap. La suite, on la connaît avec l’effet boule de neige du vent de protestations.
Sans air gap, il devient difficile d’empoigner des portions du gâteau JEDI
De là à dire que le « groupe de 9 » fait la loi à Mountain View ? Ce serait peut-être un peu exagéré, mais le résultat est là : plus de projet Maven. En sus, il y a que sans air gap, le programme JEDI – un contrat de 10 milliards de dollars sur dix ans et pour lequel Google a manifesté un intérêt – s’éloigne. Bloomberg rapporte qu’Amazon et Microsoft disposent de cette certification qui fait tant défaut à Google, ce qui les place en pôle position pour se disputer des morceaux de ce gâteau.
Des membres de l’équipe dirigeante de l’entreprise comme Diane Greene – CEO de Google cloud – sont d’avis qu’elle doit continuer à collaborer avec les agences gouvernementales. « Les agences fédérales comptent parmi les plus gros investisseurs sur les solutions d’entreprise et commencent à graviter autour des services offerts sur le cloud », écrit Bloomberg pour aider à comprendre les raisons d’un tel positionnement. L’agence de presse rapporte que Google a mis une pause sur l’implémentation de l’air gap, mais la situation peut changer à tout moment le temps de trouver de nouvelles mains capables de faire le travail. Ce ne serait pas nouveau sous le ciel dans un contexte où les entreprises de la Tech sont acculées de toutes parts comme l’est Google, mais où l’on trouve certaines comme Amazon qui fournissent des solutions controversées aux forces de défense américaines.
Source : Bloomberg
Et vous ?
Qu’en pensez-vous ? Ces entreprises de la Tech ont-elles vraiment le choix quand on sait que si elles ne se positionnent pas sur de tels créneaux quelqu’un d’autre le fera ?
Que pensez-vous de ces ingénieurs qui refusent de participer à la conception d’armes sophistiquées ?
Voir aussi :
USA : des associations s'érigent contre la technologie de reconnaissance faciale d'Amazon craignant une surveillance de masse par la police
La police chinoise s'équipe de lunettes dotées d'une technologie de reconnaissance faciale, pour scanner les foules à la recherche de suspects
Chine : la police se sert de la reconnaissance faciale pour arrêter un fugitif, la fiction Big Brother de 1984 est-elle devenue une réalité en 2018 ?
Big data : la Chine a commencé à tester son système national de crédit social et menace de priver les citoyens mal notés de certains services de base
Facebook veut utiliser la reconnaissance faciale pour vous prévenir, lorsque quelqu'un publie une photo de vous sur sa plateforme
Mozilla publie une solution d'apprentissage profond pour la reconnaissance vocale, une implémentation TensorFlow de l'architecture Deep Speech
Un gâteau JEDI?
Come to the Dark Side, we have cookies.
Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois ...
Je ne sais pas qui sont ces 9 personnes, mais elles ont intérêts a être relativement importantes pour Google, parce que là c'est assez hallucinant quand même.
@SofEvans c'est sur dis comme ca cela peut paraitre un peu abusé. Dans un cadre d'entreprises "classiques" ta réaction se comprends facilement, mais on est dans un cadre un peu particulier la quand meme...Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois …
Je trouve quand dans certains cas d'éthique il faut avoir le courage de montrer son désaccord. Il est facile après coup de se dire "j'y suis pour rien si mes productions sont utilisées pour tuer des gens, c'est mon patron qu'y m'a demandé".
Si faire certaines taches vont vraiment contre ton éthique, ben ne les fait pas . Quite à démissionner par la suite. La on parle de projets d'IA pour reconnaitre des gens dans un carde militaire, qui finira surement par des assassinats ciblés…
Si ton patron te dit:" écrit un programme pour notre drone qui différencie les civils des combatants et tire automatiquement, avec une marge d'erreur à la reconnaissance de 40%" (exemple arbitraire).
Pour moi, ne pas protester/refuser de faire cela équivaut a avoir une part responsabilité dans les morts civiles faites via TON travail. Tu peux pas te cacher derriere "on m'a dit de le faire c'est pas moi qui décide". Trop facile.
Project Maven : Google a fait appel aux travailleurs de la gig economy pour entraîner son IA,
dont l'usage est militaire
Des millions de travailleurs de la gig economy du monde entier vivent maintenant de ce qu’on appelle des sites Web de crowdfunding - un travail qui relève du crowdsourcing ou de la division de tâches en minuscules portions à répartir sur un grand nombre de personnes. Les sites paient à peine 1 dollar de l’heure pour permettre aux utilisateurs d’accomplir des tâches brèves et répétitives, telles que l’identification de motifs sur des images et la production de critiques de produits.
La gig economy signifie, littéralement, l’économie des petits boulots. Le terme, très populaire aux États-Unis, désigne principalement les plateformes collaboratives comme Uber ou Deliveroo qui n’emploient pas des salariés, mais travaillent avec des micro-entrepreneurs (anciennement autoentrepreneurs, qui exercent une entreprise individuelle sous le régime fiscal de la microentreprise.)
Selon un nouveau rapport publié par The Intercept, Google a embauché des employés de la gig economy pour l'aider à mettre en place un programme controversé d'intelligence artificielle que la société avait associé au Pentagone.
Envoyé par The Intercept
The Intercept affirme avoir obtenus des courriels qui montrent que peu après que Google eût signé l'accord avec l'armée, le géant de la technologie a commencé à travailler pour étiqueter un ensemble d'images satellites capturées par une technologie connue sous le nom d'imagerie animée à grande échelle. En octobre 2017, Google a envoyé à une société appelée CrowdFlower - qui a ensuite pris le nom de Figure Eight - des images brutes contenant des instructions relatives à l'étiquetage des données. Le projet d’étiquetage des données a commencé à montrer des résultats rapidement au cours du mois suivant, alors que les ingénieurs élaboraient de meilleures directives à l’intention des travailleurs de la gig economy pour enseigner à l’intelligence artificielle l’identification des objets.
Le projet Maven, avec l'aide des travailleurs de la gig economy, a été conçu pour permettre aux responsables du Pentagone de procéder à une « analyse en temps quasi réel » et de « cliquer sur un bâtiment pour voir tout ce qui lui est associé », y compris des personnes et des véhicules, selon des documents obtenus par The Intercept.
Selon The Intercept, ces travailleurs ne savaient pas à qui leur travail était destiné ni ce à quoi ils contribuaient.
En juin dernier, Google avait annoncé sa décision de ne pas renouveler son contrat avec le ministère de la Défense, car il concernait le projet Maven après que plus de 3 000 employés eurent signé une pétition pour protester contre son implication dans cette initiative. L'accord devrait se terminer en mars 2019.Envoyé par The Intercept
Source : The Intercept
Et vous ?
Qu'en pensez-vous ?
Voir aussi :
Google lance Cloud Firestore, une base de données de documents NoSQL sans serveur, serait-elle meilleure que Firebase ?
Après Facebook, c'est Google qui fait aussi passer Screenwise Meter, une application de collecte de données, sur les périphériques iOS
La fermeture de Google+ pour les comptes grand public est prévue le 2 avril 2019, Google révèle aussi quand les données seront supprimées
Google fait ses premiers pas vers la suppression des URL telles qu'on les connait sur le web avec déjà 2 projets en cours d'élaboration
Google Chrome 72 est disponible pour Windows, macOS, Linux et Android : zoom sur les nouveautés
Idée intéressante d'utiliser des petites mains pour faire avancer la reconnaissance d'objets... parler d'intelligence serait quand même un gros mot qui fait toujours débat.
Dommage que Google ne veut pas prendre parti à celà car je pense qu'il a beaucoup à y gagner tant sur le plan technologique, que de reconnaissance "The Brand".
Ce qui est rigolo c'est que les chinois n'ont aucune éthique de ce genre et donc seront les plus avancés d'ici peu et c'est là que les choses sérieuse commenceront
Perso ça me fait penser aux clodos utilisé par Aperture Science dans Portal 2.
Test Subject
Parfois on retrouve de la science-fiction dystopique dans la réalité.According to GLaDOS, Aperture Science's annual bring-your-daughter-to-work day "is the perfect time to have [one's daughter] tested", suggesting Test Subjects are (at least partially) chosen among daughters of Aperture employees. Other popular Aperture Science Test Subject gathering methods include paying homeless people insignificant wages, forcing employees to participate in tests, picking up orphans from orphanages or transferring psychiatric patients from Aperture-branded mental institutions. Compared to early testing phases, when Aperture seems to have hired the best of the best (such as "astronauts" "war heroes" and "olympians"), Aperture later shows both increasing issues with test subject quality and apparent investigations into the whereabouts of failed test subjects.
Google était très content de collaborer avec le gouvernement (ça devait être bien payé), mais quelques employés ont protesté, démissionné, et tout ça, du coup Google a fait marche arrière. (c'est possible que le programme continu en secret, c'est juste que l'image publique de Google était grillé, alors il fallait essayer de redorer le blason).
Ouais il parait que l'IA va jouer un grand rôle dans la prochaine guerre mondiale qui arrive.
Ça me fait peur un tel niveau de surveillance. Officiellement ils vont dire que c'est pour lutter contre le terrorisme, ou ce genre de connerie, mais en pratique ce sera peut-être autre chose.
L'Autriche veut des règles éthiques sur l'utilisation des robots tueurs dotés d'IA sur le champ de bataille
le pays affirme que seuls les humains doivent décider des questions de vie ou de mort
Alors que les États-Unis et l'Israël accélèrent la construction de systèmes d'armes létales autonomes (SALA) ou semi-autonomes destinés aux champs de bataille, l'inquiétude semble monter du côté de certains pays, dont l'Autriche. Vienne a exprimé son inquiétude face à la prolifération de ces armes la semaine dernière et a appelé à la mise en place d'un système d'éthique international sur l'utilisation de robots tueurs et de drones au combat. Le gouvernement autrichien affirme qu'il veut que ce soient les humains, et non les algorithmes, qui décident des questions de vie ou de mort.
La question de l'utilisation éthique de robots tueurs et de drones sur le champ de bataille n'est pas un sujet nouveau, mais à ce jour, aucun consensus ne semble avoir été établi entre les gouvernements du monde. Vienne s'inquiète à ce propos et s'est lancée dans une initiative diplomatique visant à établir un cadre éthique pour l'utilisation de robots tueurs sur les champs de bataille du futur. Le ministre autrichien des Affaires étrangères Alexander Schallenberg a déclaré que des normes similaires à celles établies pour les mines terrestres et les armes à sous-munitions devraient être adoptées.
« Nous devons créer des règles avant que les robots tueurs n'atteignent le champ de bataille de cette Terre », a déclaré Schallenberg au journal allemand Welt am Sonntag. Il a ajouté que le gouvernement autrichien prévoyait d'organiser une conférence à Vienne en 2021 pour « lancer un processus qui, espérons-le, aboutira à une convention internationale sur l'utilisation de l'intelligence artificielle sur les champs de bataille ». « Jusqu'à présent, le thème n'a pas été suffisamment abordé au niveau diplomatique », a déclaré Schallenberg.
D'après ses dires, cette conférence permettra de créer un mouvement entre les États, les experts et les organisations non gouvernementales à la manière de la Croix-Rouge. En outre, soulignant la nécessité d'un cadre, Schallenberg a déclaré que les types de décisions prises dans les scénarios de combat ne devraient pas être laissés à l'intelligence artificielle. « La décision de vie ou de mort devrait être prise par une personne ayant une compréhension morale et éthique totale et non par un algorithme qui n'est qu'une suite de 0 et de 1 », a déclaré le ministre.
Les pays développent rapidement des robots tueurs autonomes
De nombreux pays consacrent davantage d'efforts au développement de robots tueurs dotés d'IA et capables de tuer de manière indépendante. Pourtant, les menaces liées à ces armes ont été démontrées à plusieurs reprises. Entre autres menaces, elles sont faillibles au piratage et peuvent être détournées pour se comporter de manière indésirable. Selon une lettre ouverte adressée aux Nations Unies par Elon Musk et cosignée par une multitude de spécialistes en IA, « elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre ».
Cependant, les pays continuent de développer rapidement ces armes autonomes, alors qu’ils ne font aucun progrès dans la mise en place des règles communes à l’échelle mondiale concernant leur utilisation dans les guerres à venir. Les États-Unis et l'Israël ont récemment dévoilé des projets de construction de nouveaux chars d'assaut autonomes et semi-autonomes destinés à être utilisés sur le champ de bataille. Du côté des USA, il s'agit de former une famille de chars d'assaut robotisés lourdement armés pour combattre aux côtés des humains, sur les champs de bataille du futur.
Les véhicules sont prévus en trois classes de taille, dans trois degrés de létalité, dont léger, moyen et lourd, et pèseront jusqu'à 30 tonnes. Toute la famille des véhicules de combat robotisés utilisera des logiciels de navigation et des interfaces de commande communs déjà testés sur le terrain. Chaque variante utilisera les mêmes normes électroniques et mécaniques, une architecture ouverte dite modulaire, qui devrait permettre aux soldats sur le terrain de brancher et de faire fonctionner toute une gamme de charges utiles, des missiles aux générateurs de fumée en passant par les brouilleurs radio.
Pour l'instant, les robots seront télécommandés par des humains, à distance, depuis leur base. Quant à l'Israël, le pays veut construire le Carmel, un char d'assaut qui sera équipé de contrôleurs Xbox et d'une IA perfectionnée avec les jeux “StarCraft II” et “Doom”. Des prototypes de ce futur véhicule de combat blindé (AFV) de l'armée israélienne ont été dévoilés publiquement en août 2019. Vu de l'extérieur, il ressemble à n'importe quelle arme de guerre classique. Il est enrobé de couches d'acier très épaisses, certaines colorées en kaki traditionnel, d'autres en noir.
De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique la plus unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un “adolescent”.
Les robots tueurs devraient-ils être interdits ?
Les avis sont partagés sur cette question. En effet, l'utilisation d'armes autonomes meurtrières est en discussion aux Nations unies depuis 2015, dans le cadre de la Convention sur certaines armes classiques (CCAC). Les pays pionniers dans le domaine des systèmes d'armes autonomes, dont la Russie, les États-Unis et Israël, rejettent une interdiction contraignante en vertu du droit international. Ces poids lourds militaires sont confrontés à un groupe d'États qui réclament une législation contraignante dans le cadre de la campagne menée par les ONG pour arrêter les robots tueurs.
En 2017, la Russie soutenait que « l’absence de réglementation claire sur de tels systèmes d’armement reste le principal problème dans la discussion sur les lois », mais « il est difficilement acceptable que l’encadrement des SALA restreigne la liberté de profiter des avantages des technologies autonomes qui représentent l’avenir de l’humanité ». De leur côté, les États-Unis ont estimé qu’il est encore « prématuré » d’envisager une interdiction des SALA, même si l’administration Trump disait soutenir le processus de la CCAC.
Ainsi, l'on estime qu'en 2018, les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie auraient empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs. C'est à la fin de 2013 que les Nations Unies ont mis le sujet à l'ordre du jour, mais depuis lors, peu de choses se sont produites. L'organisation n'a même pas été en mesure de s'entendre sur une définition des armes létales entièrement autonomes. Les militants des droits de l’homme devraient davantage s’armer de courage pour continuer le combat.
Selon le média allemand Deutsche Welle (DW), en tout, 30 pays souhaitent une interdiction totale de l'utilisation des robots tueurs dans le cadre de cette campagne, ainsi que le Parlement européen. Par ailleurs, en mars 2019, plusieurs militants de 35 pays s’étaient réunis à Berlin pour demander l'interdiction des armes autonomes meurtrières. Ces militants engagés contre l’utilisation des armes autonomes veulent attirer l’attention des pays non encore engagés et surtout l’Allemagne dans la perspective de nouvelles négociations sur ces armes à Genève.
Noel Sharkey, l'une des figures de proue de la campagne pour arrêter les robots tueurs, a déclaré à l'époque qu'il fallait arrêter de parler de « systèmes d'armes létales autonomes » comme s'il s'agissait d'un roman de science-fiction.
Source : Deutsche Welle
Et vous ?
Quel est votre avis sur le sujet ?
Les robots tueurs devraient-ils être interdits ?
Voir aussi
La résistance contre les robots tueurs grandit : des militants de 35 pays à Berlin pour s'opposer à ces armes et réclamer une initiative allemande
L'armée américaine veut créer des robots lourds semi-autonomes armés de missiles pour accomplir certaines des tâches les plus dangereuses des soldats
Carmel, le nouveau char d'Israël, sera équipé de contrôleurs X-Box et d'une IA perfectionnée avec les jeux "StarCraft II" et "Doom" dans un cockpit de style F-35
Les pays développent rapidement des "robots tueurs" dotés d'IA qui tuent de manière indépendante, mais ne parviennent pas à s'entendre sur des règles pour contrôler ces armes, avertissent des experts
Ce serait chouette qu'on interdise aux états d'utiliser des robots contre leur peuple, par contre quand c'est la guerre il n'y a plus de règle.
ONU. Soixante-dix ans après les Conventions de Genève, les violations du droit international humanitaire qui ravagent la vie des civils en temps de guerre illustrent un échec catastrophique
Les pays peuvent signer toutes les conventions que vous voulez, les puissances militaire comme les USA et Israël continueront de développer des armes en secret. Quoi que parfois les pays sortent d'un traité officiellement :En Somalie, la crise des droits humains et humanitaire reste également l’une des plus graves au monde. Toutes les parties au conflit, et notamment les États-Unis, ont commis des violations du droit international relatif aux droits humains et du droit international humanitaire. Bien qu’ayant intensifié les frappes aériennes dans leur guerre opaque en Somalie ces deux dernières années, les États-Unis ont refusé d’admettre que leurs frappes avaient fait des victimes parmi les civils jusqu’à ce qu’une enquête d’Amnesty International les y force.
Israël a, à de nombreuses reprises, pris pour cible des civils et des biens de caractère civil lors d’opérations militaires à Gaza depuis 2008, causant une destruction de grande ampleur et faisant de nombreux morts parmi les civils. Entre mars 2018 et mars 2019, Israël a eu recours à une force meurtrière contre des manifestants palestiniens, faisant au moins 195 morts, dont des secouristes, des journalistes et des enfants. Des groupes armés palestiniens ont procédé à des tirs aveugles de roquettes en direction de quartiers civils d’Israël, faisant plusieurs morts.
Traité sur les forces nucléaires à portée intermédiaire
Il est probable que les armes autonomes jouent un rôle lors de la prochaine guerre mondiale. Les gouvernements investissent beaucoup dans l'IA militaire.Depuis 2007, Vladimir Poutine le met en cause à plusieurs reprises comme desservant les intérêts de la Russie face au développement de missiles par la Chine et au déploiement de systèmes de défense antimissile par les États-Unis. En octobre 2018, Donald Trump annonce son intention de retirer les États-Unis de ce traité. Les négociations menées avec la Russie ne débouchant sur aucun accord, Washington confirme formellement le 1er février 2019 que les États-Unis suspendent leurs obligations en vertu du traité FNI et entament le processus de retrait du traité FNI d'une durée de six mois. Moscou réplique le lendemain en annonçant à son tour se retirer de ce traité. Le retrait américain est officiel le 2 août 2019.
L’armée américaine investit 2 milliards de dollars dans l’intelligence artificielle
IA et informatique quantique : les Etats-Unis posent 1 milliard $ sur la tableLa Darpa, prestigieuse agence de recherche de l’armée, veut développer des machines qui seront « comme des collègues » pour les militaires.
Les États-Unis annoncent un investissement d’un milliard de dollars dans l’intelligence artificielle et l’informatique quantique. L’objectif ? Rester leader technologique, devant la Chine, notamment dans le domaine militaire…
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager