IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Un responsable US exhorte la Chine et la Russie à déclarer que l'IA ne contrôlera pas les armes nucléaires


Sujet :

Intelligence artificielle

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Invité
    Invité(e)
    Par défaut
    Ces avis confirment que l'AGI pourrait être soit une prospérité sans précédent, soit une catastrophe existentielle,
    N'est-ce pas ce a quoi est confronté l'espèce humaine actuellement ?
    Mais en quoi est-ce un choix ?

    Ma théorie c'est de la merde
    Hmm, ça c'est un peu le problème avec les théories ...
    #liminai_colossus:

  2. #2
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    551
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 551
    Par défaut
    Je ne vois pas comment un ASIC peut aider à la sécurité… ou plutôt, des tâches touchant de près ou de loin à la sécurité (MMU, TPM…) sont déjà intégré dans nos PC. Il faut des ASIC qui ne soient pas complètement contrôlé par nos PC (façon TPM où ll n’y a pas d’interface pour extraire les clés secrètes), mais pour faire quoi ?

    Non, la bonne approche est le développement de logiciels sûrs façon seL4. Cela coûte 7 fois le prix (pour une année de développement, 6 pour les éléments de preuve)… en espérant que l’IA change favorablement ce ratio !

  3. #3
    Membre actif
    Homme Profil pro
    Chômeur inutile
    Inscrit en
    Juillet 2012
    Messages
    96
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Chômeur inutile
    Secteur : Industrie

    Informations forums :
    Inscription : Juillet 2012
    Messages : 96
    Par défaut
    Un "bitaxe" a 150 euros éclate les meilleurs cartes graphiques pour le bitcoin

    Les ASICs peuvent être vus comme des coprocesseurs ultra rapides...

    Peut être qu'en cybersécurité ils peuvent avoir un rôle...C'est juste une idée

    L' "inline_assembly" n'existe pas pour rien....Les ASICs non plus

    Portions critiques du code

  4. #4
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    551
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 551
    Par défaut
    L'inline_assembly n'existe que pour gagner en vitesse (en supposant que tu optimises mieux que le compilateur), ou pour coder des choses que le langage support ne sait pas gérer (masquage des interruptions (STI/CLI), commutation de tâche, instructions SIMD (SSE)). On ne gagne pas vraiment en sécurité.

    Un ASIC sera une réponse pour des choses plus simple que ce que tu gèrerait avec un CPU, mais tu souhaites de la vitesse et ou de l'éfficacité énergétique. Cela va te permettre de créer un parefeu matériel par exemple - c'est une fonction de sécurité. Reste à voir si une implémentation matérielle peut filtrer les mails et PJ (sans compter le problème de mises à jour dès qu'un nouveau type de PJ autorisé doit être supporté).

    Mais ce n'est pas parce que c'est une bonne option dans certains cas que cela résout tous les autres problèmes.

    Je pense que l'on gagnera probablement plus en sécurité avec la généralisation de logiciel sans débordement de mémoire (Rust, C#, Ada...). Et le Graal ce sont les approches formelles (Spark de AdaCore, autre avec seL4...)

  5. #5
    Membre actif
    Homme Profil pro
    Chômeur inutile
    Inscrit en
    Juillet 2012
    Messages
    96
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Chômeur inutile
    Secteur : Industrie

    Informations forums :
    Inscription : Juillet 2012
    Messages : 96
    Par défaut
    En banalisant...encapsuler sans fuite mémoire?

    Il faut peut être aussi de la puissance brute pour 'descrambler'

  6. #6
    Membre actif
    Profil pro
    Inscrit en
    Novembre 2003
    Messages
    160
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2003
    Messages : 160
    Par défaut
    Il trace une limite à ne pas franchir et décide donc de stopper son avancée technologique, c'est sa volonté.
    Cependant, chaque personne a sa propre volonté, tout comme le reste de l'humanité.
    Lorsque deux concurrents s'affrontent et que l'un des deux choisit de rester à l'âge de pierre, lequel des deux se fait écraser ?

  7. #7
    Membre éclairé Avatar de pierre.E
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Janvier 2016
    Messages
    250
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués
    Secteur : Industrie

    Informations forums :
    Inscription : Janvier 2016
    Messages : 250
    Par défaut c'est la loi de l'évolution
    c'est l'évolution l etre humain sera remplace par des ia comme especes dominantes car l ia est plus adaptée à la vie dans l espace que des êtres biologiques et comme il faut conquérir l espace pour espérer survivre.......................

  8. #8
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 617
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 617
    Par défaut Joe Biden et Xi Jinping s'accordent que c'est l'homme et non l'IA qui contrôlera les armes nucléaires
    Le président américain Joe Biden et le président chinois Xi Jinping s'accordent sur le fait que ce sont les humains, et non l'IA, qui devraient contrôler les armes nucléaires

    Le président américain Joe Biden et le président chinois Xi Jinping s'accordent sur le fait que ce sont les humains, et non l'IA, qui devraient contrôler les armes nucléaires. Xi Jinping a critiqué les contrôles des exportations de technologies sensibles mis en place par Joe Biden, mais les deux ont convenu sur la nécessité d'examiner attentivement les risques potentiels de l'IA dans le domaine militaire.

    Dans un monde où la technologie évolue à un rythme sans précédent, la question du contrôle des armes nucléaires prend une nouvelle dimension. En mars 2024, un haut fonctionnaire américain a exhorté la Chine et la Russie à rejoindre les États-Unis, la France et la Grande-Bretagne en déclarant que seuls les humains, et jamais l’intelligence artificielle (IA), devraient prendre des décisions concernant le déploiement des armes nucléaires.

    Récemment, lors de leur dernière rencontre, le président américain Joe Biden et le président chinois Xi Jinping ont fait un premier pas pour limiter l'IA et les décisions nucléaires. Ils ont convenu que toute décision d'utiliser des armes nucléaires devait être contrôlée par des êtres humains et non par l'intelligence artificielle (IA). Cependant, Jake Sullivan, conseiller de Joe Biden en matière de sécurité nationale, a déclaré aux journalistes que l'accord constituait une première étape importante pour les deux puissances nucléaires dans la gestion d'un risque stratégique à long terme.

    L'objectif de Joe Biden lors de cette rencontre était de souligner l'importance de la stabilité des relations pendant la transition du pouvoir et d'essayer de consolider les progrès réalisés avec Xi Jinping sur des questions telles que la lutte contre les stupéfiants et le climat. En effet, cette rencontre était la dernière entre les deux présidents avant que le président élu Donald Trump ne prenne ses fonctions en janvier 2025.

    Xi Jinping a déclaré que son pays souhaitait travailler avec la future administration de Donald Trump. "La Chine est prête à travailler avec la nouvelle administration américaine pour maintenir la communication, élargir la coopération et gérer les différences", a déclaré Xi Jinping, tout en notant que "notre position consistant à sauvegarder résolument la souveraineté, la sécurité et les intérêts de développement de la Chine reste inchangée."


    Xi Jinping a critiqué les contrôles des exportations de technologies sensibles mis en place par Joe Biden

    Au début de la réunion de 90 minutes, qui s'est tenue en marge du sommet de la Coopération économique Asie-Pacifique à Lima, le président Xi Jinping a déclaré que la relation entre les deux pays était "la relation bilatérale la plus importante au monde", ce à quoi le président Joe Biden a fait écho. "La façon dont nous nous entendons aura un impact sur le reste du monde", a déclaré Joe Biden.

    Xi Jinping a noté que les relations bilatérales avaient "connu des hauts et des bas" au cours du mandat de Joe Biden, et s'en est pris plus particulièrement aux contrôles des exportations de technologies de pointe mis en place par l'administration Biden. Ces restrictions concernent les outils de fabrication de semi-conducteurs avancés, les types les plus avancés de puces semi-conductrices et les technologies utilisées dans les systèmes militaires, les missiles hypersoniques, les systèmes autonomes et la surveillance.

    Dans son discours d'ouverture, Xi Jinping s'est longuement attardé sur la concurrence à "l'ère de la révolution scientifique et technologique" et a déclaré : "Seule une coopération mutuellement bénéfique peut conduire à un développement commun. Un grand pays ne devrait pas poursuivre l'idée d'une "petite cour, de hautes clôtures"", ce qui constitue une référence directe à la politique de contrôle des exportations.

    Selon le conseiller Jake Sullivan, l'équipe de Joe Biden plaide auprès de la nouvelle administration pour qu'elle maintienne les contrôles à l'exportation. Avant la réunion, Jake Sullivan avait déclaré aux journalistes qu'il voyait une certaine continuité avec la future administration Trump, en citant le représentant Mike Waltz, que Donald Trump a nommé conseiller à la sécurité nationale, et le sénateur Marco Rubio, que Donald Trump nommera secrétaire d'État, pour l'importance qu'ils accordent aux défis stratégiques posés par la Chine.

    Donald Trump avait fait des droits de douane sur les importations de produits chinois une caractéristique de son premier mandat, droits de douane que Joe Biden a en grande partie maintenus, et avait promis pendant sa campagne d'augmenter à nouveau les droits de douane sur la Chine au cours de son second mandat.

    Jake Sullivan a déclaré que Joe Biden avait réitéré ses préoccupations concernant les pratiques commerciales de la Chine au cours de la réunion. Il a également indiqué que Joe Biden s'était inquiété du soutien apporté par la Chine à la base industrielle de défense de la Russie et qu'il avait exhorté Xi Jinping à user de son influence sur la Corée du Nord pour empêcher ce pays d'envoyer davantage de troupes se battre pour la Russie contre l'Ukraine.

    Les États-Unis ont commencé à étudier la possibilité d'utiliser les systèmes d'IA à des fins militaires

    En condradiction à ses déclarations, en février 2024, les États-Unis avaient étudié les utilisations militaires de l'IA qui peut soutenir et potentiellement perturber la planification et la prise de décision militaires. Le contrat entre Scale AI et le Pentagone servirait à fournir "un cadre permettant de déployer l'IA en toute sécurité en mesurant les performances des modèles, en offrant un retour d'information en temps réel aux combattants et en créant des ensembles d'évaluation spécialisés pour le secteur public afin de tester les modèles d'IA pour des applications de soutien militaire".

    Fait intéressant, avant l'annonce de ce contrat, OpenAI avait également supprimé discrètement l'interdiction des termes "militaire et guerre" de sa politique d'autorisation d'utilisation. OpenAI s'est notamment défendu en déclarant "viser à créer un ensemble de principes universels qui soient à la fois faciles à retenir et à appliquer".

    Mais les experts ont déclaré que la suppression des termes "militaire et guerre" laisse la porte ouverte à des contrats lucratifs avec l'armée américaine et d'autres armées. Les experts avertissent notamment que les applications de l'IA, y compris les systèmes d'armes autonomes létaux, communément appelés "robots tueurs", pourraient constituer une menace potentiellement existentielle pour l'humanité.

    Et vous ?

    Pensez-vous que cette rencontre est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Les robots tueurs de la Chine arrivent : les grandes puissances ont commencé à développer des "robots tueurs" entièrement autonomes et dotés d'une IA pour remplacer leurs soldats sur le champ de bataille

    L'armée US fait le premier achat confirmé d'un produit OpenAI pour les forces de combat pour « l'analyse unifiée du traitement des données », un objectif qui montre une ignorance des hallucinations de l'IA

    Des responsables mondiaux d'organisations diverses appellent au bannissement des robots tueurs et des armes pilotées par des IA : « C'est le tournant Oppenheimer de notre génération »
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  9. #9
    Membre averti
    Homme Profil pro
    Inscrit en
    Mai 2012
    Messages
    49
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Secteur : Santé

    Informations forums :
    Inscription : Mai 2012
    Messages : 49
    Par défaut Il a vraisemblablement raison
    L'enjeu de ces affirmations est substantiel. J'espère qu'il ne va rien lui arriver à cause de ces propos.

  10. #10
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 336
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 336
    Par défaut Course aux armements : l'ONU échoue à nouveau à interdire l'utilisation des robots tueurs autonomes
    Course aux armements : l’Organisation des Nations Unies échoue à nouveau dans l’établissement de règles internationales contraignantes
    Visant à interdire l’utilisation des robots tueurs autonomes

    La Convention des Nations unies sur certaines armes classiques s’est à nouveau penchée sur la question de l'interdiction des armes autonomes lors de sa dernière réunion d'examen quinquennale à Genève du 13 au 17 décembre 2021. Résultat : pas de consensus des parties prenantes sur l’établissement de règles internationales contraignantes visant à interdire l’utilisation des robots tueurs autonomes. Sur le terrain pourtant, des rapports font état de ce que la machine sait déjà prendre la décision d'appuyer sur la gâchette sans intervention humaine.

    Les avis demeurent partagés sur la question de savoir si les robots tueurs autonomes doivent faire l’objet d’interdiction. En effet, l'utilisation d'armes autonomes meurtrières est en discussion aux Nations unies depuis 2015, dans le cadre de la Convention sur certaines armes classiques (CCAC). Les pays pionniers dans le domaine des systèmes d'armes autonomes, dont la Russie, les États-Unis et Israël, rejettent une interdiction contraignante en vertu du droit international. Ces poids lourds militaires sont face à un groupe d'États qui réclament une législation contraignante dans le cadre de la campagne menée par les ONG pour arrêter les robots tueurs.

    « Tuer ou blesser des personnes sur la base de données collectées par des capteurs et traitées par des machines porterait atteinte à la dignité humaine. Human Rights Watch et d'autres organisations craignent que le fait de s'appuyer sur des algorithmes pour cibler des personnes déshumanise la guerre et érode notre humanité collective », lancent des intervenants du deuxième groupe pour l’interdiction des robots tueurs autonomes.

    Chaque pays poursuit donc avec le développement desdites armes autonomes. Les États-Unis et Israël par exemple sont sur des des projets de construction de nouveaux chars d'assaut autonomes et semi-autonomes destinés à être utilisés sur le champ de bataille. Du côté des USA, il s'agit de former une famille de chars d'assaut robotisés lourdement armés pour combattre aux côtés des humains, sur les champs de bataille du futur.

    Les véhicules sont prévus en trois classes de taille, dans trois degrés de létalité, dont léger, moyen et lourd, et pèseront jusqu'à 30 tonnes. Toute la famille des véhicules de combat robotisés utilisera des logiciels de navigation et des interfaces de commande communs déjà testés sur le terrain. Chaque variante utilisera les mêmes normes électroniques et mécaniques, une architecture ouverte dite modulaire, qui devrait permettre aux soldats sur le terrain de brancher et de faire fonctionner toute une gamme de charges utiles, des missiles aux générateurs de fumée en passant par les brouilleurs radio.

    Pour l'instant, les robots seront télécommandés par des humains, à distance, depuis leur base. Quant à l'Israël, le pays veut construire le Carmel, un char d'assaut qui sera équipé de contrôleurs Xbox et d'une IA perfectionnée avec les jeux “StarCraft II” et “Doom”. Des prototypes de ce futur véhicule de combat blindé (AFV) de l'armée israélienne ont été dévoilés publiquement en août 2019. Vu de l'extérieur, il ressemble à n'importe quelle arme de guerre classique. Il est enrobé de couches d'acier très épaisses, certaines colorées en kaki traditionnel, d'autres en noir.

    De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique la plus unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un adolescent.


    Ce nouvel échec des discussions à l’ONU fait suite à des sorties d’experts de la filière visant à avertir contre les dangers de l’utilisation des robots autonomes tueurs : « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre. Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes détournées pour se comporter de manière indésirable. Nous n'avons pas assez de temps pour agir. Une fois que cette boîte de Pandore est ouverte, il sera difficile de la fermer. »

    Source : Reuters

    Et vous ?

    Que pensez-vous de ces divergences dans les négociations sur l'interdiction des armes autonomes ?
    Avez-vous espoir que les négociations aboutissent à l'interdiction de ces armes ?

    Voir aussi :

    Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
    USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
    Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
    Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
    Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  11. #11
    Membre éprouvé Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 923
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 923
    Par défaut
    Les différentes parties sont déjà trop engagées dans leurs projets pour arrêter. Mais, pour la premières fois, les décideurs parlent de sécurité. source Ars Technica de fin novembre. En effet, qu'en serait-il si une personne malintentionnée ou un groupe terroriste venait à en prendre le contrôle ?...

    Ensuite peut-on faire confiance à Poutine, Israël ou les Etats-Unis pour en faire bon usage ? La plupart des conflits du XXIe siècle se passent dans des conditions de guerilla contre armée classique. Donc au milieu de populations civiles.

  12. #12
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 654
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 654
    Par défaut Le Massachusetts propose un projet de loi qui vise à interdire le montage d'armes à feu sur les robots
    Le Massachusetts propose un projet de loi qui vise à interdire le montage d'armes à feu sur les robots
    mais il fait l'objet de critiques en raison des exemptions prévues pour l'armée et la police

    Des élus du Massachusetts ont présenté la semaine dernière un projet de loi qui vise à interdire le montage d'armes à feu sur les robots. Plus précisément, le projet de loi interdirait la fabrication, la vente et l'utilisation de robots ou de drones équipés d'armes à feu. L'adoption de cette législation fera du Massachusetts le premier État à réglementer la fixation d'armes à feu sur les robots. Cependant, le projet de loi est fortement critiqué par les experts et la communauté, car il prévoit des exemptions pour l'armée et la police, ce qui selon les analystes le vide de tout son sens. Le projet de loi bénéficie toutefois du soutien d'entreprises locales de robotiques comme Boston Dynamics.

    L'idée que la course à l'armement puisse conduire à l'avènement de Skynet est crainte par un grand nombre de personnes. Par conséquent, au cours de ces dernières années, une campagne intensive a été entreprise contre l'utilisation des technologies de pointe pour améliorer les techniques et les matériels de guerre, notamment la fabrication d'armes semi-autonomes ou autonomes létales, le montage d'armes sur les robots et les drones, etc. Ces développements sont observés aussi bien dans le domaine civil que dans le domaine militaire (aux États-Unis, en Chine, en Israël, en Russie, etc.) et soulèvent de nombreuses préoccupations en matière d'éthique.

    Récemment, des élus du Massachusetts ont décidé de se lancer dans la lutte contre la prolifération de ces engins de la mort. La représentante Lindsay Sabadosa et le sénateur de l'État Michael Moore du Massachusetts ont proposé la semaine dernière un projet de loi qui interdirait la fabrication, la vente et l'utilisation de robots ou de drones équipés d'armes. Si le projet de loi est adopté, il s'agira de la première loi de ce type à être promulguée aux États-Unis. En outre, le projet de loi interdirait également l'utilisation de robots équipés d'armes pour menacer ou harceler des personnes, ainsi que leur utilisation pour contraindre physiquement des individus.


    Les contrevenants s'exposent à des amendes allant de 5 000 à 25 000 dollars. Le projet de loi est soutenu par des groupes de défense des droits civils et de dirigeants de l'industrie américaine de la robotique. « Ce projet de loi établit des garde-fous raisonnables autour de l'utilisation des robots pour harceler les membres du public et introduit des règles pour les forces de l'ordre afin de renforcer la confiance du public. J'espère que, si elle est adoptée, la législation pourra servir de modèle pour une réglementation responsable de la robotique dans d'autres États et au-delà », a déclaré le sénateur Moore dans un communiqué. Cependant, il y a un problème.

    Le projet de loi semble vouloir interdire uniquement aux civiles de fixer des armes sur les robots. La plupart des cas d'utilisation militaire semblent être protégés par le texte. Ainsi, l'interdiction par l'État des robots munis d'une arme ne s'appliquerait pas à l'armée américaine, aux entreprises du secteur de la défense ou aux équipes de déminage des forces de l'ordre. De plus, selon le projet de loi, les sociétés privées qui développent des technologies anti-armes, comme un robot qui s'arrête automatiquement lorsqu'il détecte des coups de feu, peuvent demander auprès du procureur général des dérogations qui seraient évaluées et proposées au cas par cas.

    Le projet de loi prévoit également l'obligation pour les forces de l'ordre d'obtenir un mandat avant d'utiliser des robots pour pénétrer dans une propriété privée ou effectuer une surveillance dans des situations où un mandat serait nécessaire pour un agent humain effectuant ce travail. Boston Dynamics, basée à Waltham dans le Massachusetts, l'ACLU du Massachusetts, MassRobotics et l'Association for Uncrewed Vehicle Systems International ont apportées leur soutien au projet de loi. Boston Dynamics, qui est un acteur majeur de l'industrie mondiale de la robotique, fait régulièrement la démonstration des capacités presque inédites de ses robots.

    « Les robots mobiles avancés sont des outils incroyables qui peuvent enrichir nos vies et assurer la sécurité des gens, mais les efforts improvisés pour armer les robots à usage général menacent la confiance du public et l'acceptation de cette technologie émergente », a déclaré Brendan Schulman, vice-président chargé de la politique et des relations gouvernementales chez Boston Dynamics. En effet, cette proposition de loi fait suite à un appel lancé l'année dernière par des concepteurs de robots, dont Boston Dynamics, pour que les législateurs interdisent aux consommateurs de monter des armes sur des dispositifs autonomes ou télécommandés.


    Bien que Boston Dynamics et ses concurrents ne vendent pas de robots équipés d'armes, de nombreuses vidéos ont été diffusées en ligne montrant des appareils qui ont été modifiés pour être équipés d'armes. Certains sont conçus pour ressembler à Spot, un robot canin de Boston Dynamics, avec un pistolet automatique fixé sur son dos. Il s'agit de modifications que l'entreprise n'autorise pas sur ses appareils. « Ces efforts découlent des cas que nous avons observés où des personnes ont acheté des robots prêts à l'emploi, les ont armés, les ont fait se promener en tirant et ont ensuite mis ces vidéos sur YouTube », a déclaré Schulman.

    Sabadosa, qui représente une circonscription centrée sur Northampton, a déclaré qu'elle était sensible aux préoccupations soulevées par les entreprises de robotique concernant l'utilisation abusive de leurs produits. « Nous nous trouvons à un moment où la technologie est en plein essor et où les choses changent vraiment. Il était donc important d'adopter une loi le plus rapidement possible », a-t-elle déclaré. Elle a également que les innovations des entreprises dans le domaine de la robotique avaient besoin d'être protégées. Selon elle, les robots offrent de bonnes perspectives et pourraient améliorer les conditions de vie humaine à l'avenir.

    « Les entrepreneurs ont besoin de la stabilité et de la prévoyance de notre législature, les communautés ont besoin de sécurité face à cette technologie qui évolue rapidement et, surtout, nous devons agir pour garantir la confiance et la sécurité du public. La robotique peut façonner, façonne et façonnera nos économies et nos vies pour le meilleur, et il est du devoir de mes collègues et de moi-même de maintenir notre attention sur cette technologie en développement », a déclaré Sabadosa. Le projet de loi sera assigné aux comités législatifs concernés, qui pourraient tenir des audiences sur la proposition plus tard cette année ou en 2024.

    « Nous espérons que cette proposition trouvera un écho auprès des gens, que nous ferons un travail d'éducation et que nous pourrons la faire avancer », a déclaré la représentante Sabadosa. Selon certains experts ayant étudié les questions liées à l'éthique de l'IA, l'approche des élus du Massachusetts est logique et pourrait donner lieu à des garde-fous solides. Juliet Floyd, professeur de philosophie à l'université de Boston, a déclaré : « étant donné que l'utilisation de drones et de robots en tant qu'armes est déjà probablement illégale, il ne serait pas particulièrement contraignant, et ce serait une bonne chose d'interdire de leur attacher des armes ».


    Nir Eisikovits, directeur du centre d'éthique appliquée de l'université de Boston (UMass Boston’s Center for Applied Ethics), a également soutenu l'approche du projet de loi. Il a averti les législateurs que l'utilisation de robots par les forces de l'ordre pourrait être problématique. « Il existe des préoccupations crédibles quant à la partialité des forces de l'ordre, même lorsqu'elles ne sont pas équipées de systèmes d'armes autonomes. Il est difficile de trouver un argument pour l'autoriser à utiliser de telles armes. C'est d'autant plus vrai que les systèmes d'IA sont eux-mêmes souvent en proie à des problèmes de partialité algorithmique », a-t-il déclaré.

    Denise Garcia, professeur à la Northeastern University et membre de l'Institute for Experiential Robotics de l'école, souhaiterait que les législateurs aillent encore plus loin et bloquent les robots armés et automatisés, même sur le champ de bataille. « L'armement des drones et des robots, qu'ils soient ou non assistés par l'IA, devrait être interdit. Les États-Unis sont déjà le pays le plus violent et le plus meurtrier de l'ensemble des pays développés. L'armement des robots et des drones pourrait aggraver la situation », a déclaré Garcia, qui est également vice-présidente du Comité international pour le contrôle des robots armés.

    De nombreux experts critiquent la législation en raison des exemptions faites au cas d'utilisation militaire. En fait, ces formes d'utilisation sont jugées problématiques et contraires à l'éthique, et les critiques souhaitent que le projet de loi interdise purement et simplement tout robot équipé d'une arme. Ils appellent à une législation beaucoup plus stricte au niveau fédéral. « La dernière chose que vous voulez, ce sont des robots piratés équipés d'armes. Des robots non piratés armés, c'est déjà bien assez. Tous les logiciels comportent des bogues. Il est tout simplement impossible de tester toutes les conditions dans le monde réel », écrit un critique.

    Source : le projet de loi du Massachusetts

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du projet de loi proposé par les élus du Massachusetts ?
    Ce projet de loi contribuera-t-il à la lutter contre la prolifération des robots armés ?
    Que pensez-vous des exemptions faites par le projet de loi à l'armée et à la police ?
    L'utilisation des robots armés par l'armée et la police est-elle nécessaire ? Pourquoi ?
    Selon vous, quelles sont les préoccupations éthiques que posent les robots armés ?

    Voir aussi

    L'armée américaine envisagerait d'équiper des chiens-robots semi-autonomes d'une nouvelle génération d'armes de combat, dans le but de les déployer avec les soldats sur les théâtres d'opérations

    « L'IA du Pentagone est plus éthique que celle de ses adversaires en raison du fait que les États-Unis sont une "société judéo-chrétienne" », affirme un général de l'armée de l'air américaine

    Doit-on confier les décisions de vie ou de liberté à une intelligence artificielle ? Aux USA, une IA envoie des gens en prison et souvent à tort

  13. #13
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 724
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 724
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Cependant, le projet de loi est fortement critiqué par les experts et la communauté, car il prévoit des exemptions pour l'armée et la police, ce qui selon les analystes le vide de tout son sens. Le projet de loi bénéficie toutefois du soutien d'entreprises locales de robotiques comme Boston Dynamics.
    Ok, c'est bien d'interdire aux gens de monter des armes sur des robots.

    Mais le danger c'est que l'armée utilise des robots tueurs.
    Si dans le futur une tentative de révolution a lieu aux USA, les révolutionnaires se feront exterminer par des robots tueurs.

    Aux Etats-Unis il y a une histoire de second amendement, les étasuniens sont censés avoir le droit de se défendre.
    Et là ça va être compliqué de se défendre quand le gouvernement US donnera l'ordre de massacrer le peuple.

  14. #14
    Membre éclairé
    Homme Profil pro
    Analyste d'exploitation
    Inscrit en
    Juin 2022
    Messages
    382
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 40
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Analyste d'exploitation

    Informations forums :
    Inscription : Juin 2022
    Messages : 382
    Par défaut
    Classique "Rules for thee, not for me" typiquement américain.

  15. #15
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 712
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 712
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par Prox_13 Voir le message
    Classique "Rules for thee, not for me" typiquement américain.
    Si la naissance de Skynet se produit, il sera Américain ou Chinois.

Discussions similaires

  1. Réponses: 2
    Dernier message: 20/09/2023, 22h03
  2. Comment créer un avatar sur votre site Web, j'ai beau eu chercher je n'est pas trouvé !
    Par denis18 dans le forum Mode d'emploi & aide aux nouveaux
    Réponses: 1
    Dernier message: 21/07/2020, 10h28
  3. Réponses: 1
    Dernier message: 14/05/2019, 20h03
  4. Réponses: 1
    Dernier message: 03/08/2016, 18h19
  5. [XL-2000] Comment fermer un fichier excel si il est ouvert mais sans bug s'il n'est pas ouvert
    Par Avinetor dans le forum Macros et VBA Excel
    Réponses: 5
    Dernier message: 05/06/2009, 15h09

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo