IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 259
    Points
    66 259
    Par défaut Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes
    Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes
    lors d'une conférence internationale sur l’IA

    La question de l'utilisation de l'IA pour le développement des armes autonomes agite de plus en plus le monde scientifique et militaire. Et c'est d'autant plus sérieux à cause des tentatives de développement d'armes autonomes de la part des industriels. En août 2016 déjà, les États-Unis d'Amérique et l'armée irakienne testaient leurs prototypes d'arme autonome. De même, les experts de l'IA n'hésitent pas à s'opposer au développement de ces armes. En 2017, un groupe d'experts de l'IA a appelé le Canada et l'Australie à lutter pour l'interdiction des robots tueurs autonomes. L'ONU aussi ne cesse de militer contre ces armes. Récemment, plus de 2400 professionnels de l’intelligence artificielle et de la robotique représentant 150 entreprises de 90 pays à travers le monde ont signé un engagement contre le développement des armes autonomes.

    En effet, à la Conférence mixte internationale sur l’intelligence artificielle de 2018 à Stockholm, un engagement a été signé pour exiger des gouvernements, des industries et des universités, la création « de normes, régulations et lois internationales contre les armes létales autonomes ». Le Future of Life Institute, organisateur de la Conférence, définit les armes létales autonomes, ou robots tueurs, comme des armes capables d’identifier, de cibler et de tuer une personne. « Ceci étant dit, aucun humain ne prend la décision finale d’autoriser la force létale », ajoute l’institut.

    Nom : killer-robot.jpg
Affichages : 1973
Taille : 26,3 Ko

    « L’intelligence artificielle a un immense potentiel pour aider le monde si nous empêchons qu’on en abuse. Les armes contrôlées par intelligence artificielle qui décident en toute indépendance de tuer des gens sont aussi répugnantes et déstabilisantes que les armes biologiques, et donc, devraient être traitées de la même manière », déclare Max Tegmark, le président de l’institut. Il ajoute qu’il se réjouit de voir les leaders du secteur de l’intelligence artificielle opter pour l’action et mettre en œuvre une mesure que les politiciens n’ont jamais réussi à mettre en place jusque-là.

    Les signataires de l’engagement se comptent parmi les sommités du domaine. Que ce soient les organisations comme DeepMind, la fondation XPRIZE, l’Association européenne pour l’intelligence artificielle ou les individus comme Elon Musk, les leaders du secteur de l’intelligence artificielle se sont prononcés sur la question des armes autonomes létales. Précisons que les drones sous le contrôle des humains et les systèmes autonomes de défense contre des attaques ne sont pas concernés par la question. Cet engagement fait suite à un boycott géant du Korea Advanced Institute of Science and Technology (KAIST) par plus de 50 chercheurs en avril dernier. Il avait été révélé qu’en dépit de l’interdiction des Nations Unies, l’institut coréen aurait été sur le point d’ouvrir un laboratoire d’armes autonomes en partenariat avec Hanwha Systems, une entreprise de défense construisant des armes à sous-munitions.

    Quelques jours après, en réponse au boycott, l’institut coréen avait fait savoir qu’il ne comptait pas participer au développement d’armes autonomes létales. Sung-Chul Shin, le président de KAIST avait alors déclaré que son institut n’avait pas « l’intention de participer au développement de systèmes d’armes autonomes létales et de robots tueurs ». Ayant également signé l’engagement à la Conférence, l’organisateur du boycott de l’institut coréen, Toby Walsh s’est prononcé sur la question et a déclaré que nous ne pouvions pas « remettre la décision quant à savoir qui vit et qui meurt aux machines ». Il ajoute que les machines manquent de l’éthique nécessaire pour qu’on leur confie ce genre de décisions et conclut sur une invitation à rejoindre le mouvement pour empêcher qu’avec les intelligences artificielles, les guerres ne prennent une autre dimension.

    Source : Business Insider

    Et vous ?

    Que pensez-vous du développement des armes autonomes ?

    Voir aussi

    Les efforts de l'ONU pour réglementer l'usage militaire de l'IA et des SALA pourraient échouer à cause notamment des positions russes et américaines

    Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud en partenariat avec le fabricant d'armes Hanwha Systems

    Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur

    Un groupe d'experts de l'IA appelle le Canada et l'Australie à lutter pour l'interdiction des robots tueurs autonomes paranoïa ou problème réel ?
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre émérite Avatar de Cpt Anderson
    Profil pro
    Développeur informatique
    Inscrit en
    Novembre 2005
    Messages
    624
    Détails du profil
    Informations personnelles :
    Âge : 49
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Novembre 2005
    Messages : 624
    Points : 2 477
    Points
    2 477
    Par défaut
    Les complexes militaro-industriels des US, de la France, d’Israël, de la Chine, de la Russie, du Royaume Uni pèsent des milliards d'euros et fait vivre des millions de personnes. Vouloir aller contre l'IA dans l'armement, c'est de la pure démagogie : toute avancé technologique a une origine militaire. Vouloir interdire la robotique dans le domaine militaire, c'est comme les accords sur le démantèlement sur les armes nucléaires, on fait semblant mais on sait très bien que les puissances nucléaires gardent leurs arsenaux.
    Voici la méthode de mon chef:

    copy (DateTimeToStr(Now),7,4)+
    copy (DateTimeToStr(Now),4,2)+copy (DateTimeToStr(Now),1,2)+copy (DateTimeToStr(Now),12,2)+
    copy (DateTimeToStr(Now),15,2)+copy (DateTimeToStr(Now),18,2)

    Je lui ai dit que FormatDateTime irait surement mieux


  3. #3
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 604
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 604
    Points : 18 520
    Points
    18 520
    Par défaut
    Citation Envoyé par Cpt Anderson Voir le message
    Vouloir interdire la robotique dans le domaine militaire, c'est comme les accords sur le démantèlement sur les armes nucléaires, on fait semblant mais on sait très bien que les puissances nucléaires gardent leurs arsenaux.
    Tout à fait et en plus il y a l'effet de paranoïa "Une rumeur nous indique que la Russie développe tel type d'arme interdit alors nous devons investir à fond pour rattraper notre retard dans ce domaine pour ne pas nous laisser dépasser".
    Et parfois les rumeurs sont totalement fausse, donc des pays développent des armes horribles en pensant qu'un autre pays l'avait fait avant...

    Les robots tueurs ça craint, mais on ne peut pas raisonner les puissances du monde.
    Les USA ne vont pas cesser de développer ce type d'arme, ils ont un budget énorme pour l'armée donc ils en profitent.

    D'un côté c'est peut être mieux que des robots tuent des humains.
    Parce que les soldats US deviennent fou, pour s'en sortir il y a bien le suicide, mais à part ça...
    Taux de suicide record au sein des forces spéciales américaines
    Bien qu'elle tente d'assurer le suivi psychologique des soldats de retour du front, l'armée américaine a perdu en 2012 davantage d'hommes par suicides — environ 350 — qu'au combat, a confié un autre responsable militaire américain. En 2013, ce nombre a légèrement diminué — 284, selon des statistiques arrêtées au 15 décembre — mais s'est maintenu à un niveau anormalement élevé.
    "Epidémie de suicides" chez les vétérans américains des guerres d'Afghanistan et d'Irak
    Alors que le taux de suicide dans la population est de 8,9 pour 100 000, la proportion chez les anciens militaires est de 18,7 à 20,8 pour 100 000. Le chiffre est encore plus élevé chez les jeunes âgés de 20 à 24 ans, où la proportion atteint 22,9 à 31,9 suicides pour une population de 100 000, soit quatre fois le taux de suicide enregistré chez les non militaires pour cette même tranche d'âge.
    Sinon il y a la drogue :
    VIETNAM: UNE ARMÉE DE DROGUÉS

    Pourquoi les GI sombrent-ils dans la drogue ?
    En Irak comme en Afghanistan, les soldats américains sont de plus en plus nombreux à chercher refuge dans la consommation d’héroïne ou d’autres stupéfiants. Une situation qui rappelle l’époque du Vietnam.
    Les soldats utilisent des drogues pendant le combat, c'était l'alcool pendant la première guerre mondiale, les amphétamines dans la seconde guerre mondiale.

    ====
    Bon après un robot ça coûte plus chère qu'un mercenaire, donc l'humain restera toujours là, parce que ça a moins de valeur qu'un robot.
    Keith Flint 1969 - 2019

  4. #4
    Futur Membre du Club
    Homme Profil pro
    Chef de projet MOA
    Inscrit en
    Avril 2015
    Messages
    8
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Essonne (Île de France)

    Informations professionnelles :
    Activité : Chef de projet MOA
    Secteur : Distribution

    Informations forums :
    Inscription : Avril 2015
    Messages : 8
    Points : 6
    Points
    6
    Par défaut Quel est le meilleur choix politique ?
    Dire que l’utilisation de robots militaires est inevitables est un discours fataliste. Il faut dés aujourd’hui commencer à légiférer sur ces questions. L’utilisation d’armes chimiques et bacteriologiques est interdite. On peut trés bien interdire l’utilisation d’armes lethales autonomes. Il faut bien comprendre que c’est l’homme qui est aux manettes de sa propre histoire. Les choix politiques peuvent nous emmener dans differentes directions. Lla direction la plus appropriée à la survie de l’humanité et de la vie en général me semble la meilleure et communement partagée. Les robots tueurs nous emmenent-ils dans cette direction ?

Discussions similaires

  1. Une faille zero day vient d’être découverte dans le noyau Linux
    Par Olivier Famien dans le forum Sécurité
    Réponses: 8
    Dernier message: 11/06/2016, 07h11
  2. Réponses: 2
    Dernier message: 15/04/2015, 01h32
  3. Pointer Events initié par Microsoft vient d’être recommandé par W3C
    Par Olivier Famien dans le forum Balisage (X)HTML et validation W3C
    Réponses: 0
    Dernier message: 26/02/2015, 19h12
  4. Réponses: 8
    Dernier message: 11/07/2008, 19h18

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo