IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

Plus de 60 pays appellent à une utilisation « responsable » de l'IA militaire

  1. #121
    Inactif  

    Profil pro
    Inscrit en
    Janvier 2011
    Messages
    3 064
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : Janvier 2011
    Messages : 3 064
    Points : 4 605
    Points
    4 605
    Par défaut
    Bonsoir,

    L'Autriche veut des règles éthiques sur l'utilisation des robots tueurs dotés d'IA sur le champ de bataille

    Quel est votre avis sur le sujet ?
    De la part d'un pays "bien pensant" comme l'Autriche c'est louable ... et perdu d'avance. Les USA , la Russie , Israel , Chine, et j'en passe ne vont pas attendre des législations de "bien pensant" ...

    De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique la plus unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un “adolescent”.
    Le Carmel israelien me fait bien rire ... la réutilisation de vieux M113 avec un armement "neuf" rien de révolutionnaire ... Éventuellement "l'automatisation" de roulement et du tir .

    Les robots tueur devraient-ils être interdits ?
    On se réveille un peu tard . Dans la logique oui. Dans la réalité c'est bien plus compliqué. Puis bon les "robots tueurs" et autres armes , mêmes des automates "tueurs" ne dates pas d'hier ...

    Citation Envoyé par Ryu2000 Voir le message
    Ce serait chouette qu'on interdise aux états d'utiliser des robots contre leur peuple, par contre quand c'est la guerre il n'y a plus de règle.
    Exactement , faites ce que je dis pas ce que je fais quoi ...

    ONU. Soixante-dix ans après les Conventions de Genève, les violations du droit international humanitaire qui ravagent la vie des civils en temps de guerre illustrent un échec catastrophique

    Citation Envoyé par Ryu2000 Voir le message
    Les pays peuvent signer toutes les conventions que vous voulez, les puissances militaire comme les USA et Israël continueront de développer des armes en secret. Quoi que parfois les pays sortent d'un traité officiellement :
    Comme d'hab , l'UE et sa bien pensance ... pendant ce temps nos allier/ennemis prennent de l'avance ... USA , Russie, Chine ...

    Citation Envoyé par Ryu2000 Voir le message
    Il est probable que les armes autonomes jouent un rôle lors de la prochaine guerre mondiale. Les gouvernements investissent beaucoup dans l'IA militaire.
    Hé beh oui , des sommes délirantes même !

    Citation Envoyé par Jesus63 Voir le message
    Je me coucherais moins bête, mais je ne suis pas sûr de pouvoir dormir après avoir lu ceci...
    En librairie parfois je zieute des revues comme "défence internationale" ou alors des sites spécialisés qui parlent des armées du monde. On serait étonné de voir par moment , les décisions même discrètes de certains pays ...

  2. #122
    Membre actif
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Octobre 2012
    Messages
    82
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 47
    Localisation : Suisse

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Finance

    Informations forums :
    Inscription : Octobre 2012
    Messages : 82
    Points : 277
    Points
    277
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    le pays affirme que seuls les humains doivent décider des questions de vie ou de mort
    Depuis quand les humains sont réellement capable d'une telle décision ?

    A travers toute la planète la notion même de vie ou de mort n'est pas unique.
    Rien qu'au US d'un état à un autre les conclusions sur la vie et la mort d'une personne sont différentes.

    Au moins avec une IA j'aurais l'impression d'une équité; Que si je pose mon arme celui en face ne vas pas me tirer dessus par nervosité.

  3. #123
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 590
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 590
    Points : 18 494
    Points
    18 494
    Par défaut
    Citation Envoyé par tanaka59 Voir le message
    Comme d'hab , l'UE et sa bien pensance ... pendant ce temps nos allier/ennemis prennent de l'avance ... USA , Russie, Chine ...
    Il doit y avoir des pays membre de l'UE qui sont en train d'augmenter leur budget militaire.
    L'armée française voit son budget poursuivre sa remontée en puissance
    En hausse pour la troisième année consécutive, le budget de la défense équivaut à un plan de relance pour l'industrie de la défense.
    L’Allemagne portera ses dépenses militaires à 2% du PIB d’ici 2031, promet Mme Kramp-Karrenbauer

    De toute façon je crois que les USA (OTAN) ont demandé aux autres pays d'augmenter leur budget militaire.
    Otan : les USA demandent aux pays de l'UE d'augmenter leurs budgets militaires
    La troisième guerre mondiale approche il faut se préparer un minimum. Même les Suisses préparent leur défense (parce que des gens vont essayer d'entrer en Suisse et il faut les en empêcher) : L'armée devrait obtenir 24 milliards pour 2020-2024.

    Citation Envoyé par tanaka59 Voir le message
    Hé beh oui , des sommes délirantes même !
    La FED créer des dollars à l'infini, les USA jouent avec un cheat code, quand t'as l'argent illimité tu peux injecter des milliards et des milliards sans aucune limite.
    Keith Flint 1969 - 2019

  4. #124
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 760
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 760
    Points : 7 183
    Points
    7 183
    Par défaut
    Les britanniques prévoient un quart de leurs effectifs en robots autonomes à l'horizon 2025(source zdnet). Dans une telle proportion, quid de la sécurité dans ce beau projet ?
    Repeat after me
    Le monsieur lutte pour la défense des libertés individuelles et collectives

    Repeat after me...

  5. #125
    Membre expérimenté Avatar de stigma
    Homme Profil pro
    Créateur jeux vidéo
    Inscrit en
    Octobre 2003
    Messages
    1 111
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 73
    Localisation : France, Pas de Calais (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Créateur jeux vidéo
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Octobre 2003
    Messages : 1 111
    Points : 1 612
    Points
    1 612
    Par défaut
    Apocalypse 9-10

  6. #126
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 437
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 437
    Points : 197 394
    Points
    197 394
    Par défaut Plus de 60 pays appellent à une utilisation « responsable » de l'IA militaire
    Les États-Unis, la Chine et une soixantaine d'autres pays appellent à une utilisation « responsable » de l'IA militaire,
    les critiques soulignent que cette déclaration n'est pas juridiquement contraignante

    Plus de 60 pays, dont les États-Unis et la Chine, ont signé jeudi un modeste « appel à l'action » approuvant l'utilisation responsable de l'intelligence artificielle (IA) dans l'armée. Des experts des droits de l'homme et des universitaires ont noté que la déclaration n'était pas juridiquement contraignante et ne répondait pas à des préoccupations telles que les drones guidés par l'IA, les «slaughterbots» qui pourraient tuer sans intervention humaine ou le risque qu'une IA puisse aggraver un conflit militaire.

    Cependant, la déclaration était un résultat tangible du premier sommet international sur l'IA militaire, coorganisé par les Pays-Bas et la Corée du Sud à La Haye.

    Les signataires ont déclaré qu'ils s'étaient engagés à développer et à utiliser l'IA militaire conformément aux « obligations juridiques internationales et d'une manière qui ne porte pas atteinte à la sécurité, à la stabilité et à la responsabilité internationales ».


    La montée et l'avancement soudains des systèmes d'intelligence artificielle au cours des derniers mois ont fait craindre ses effets potentiellement néfastes sur la société. Non seulement l'IA pourrait menacer les emplois humains et la créativité, mais l'utilisation de machines intelligentes dans la guerre pourrait avoir des conséquences catastrophiques. Pour faire face au danger des « slaughterbots », le premier Sommet mondial sur l'intelligence artificielle responsable dans le domaine militaire (REAIM) s'est tenu la semaine dernière, ce qui a conduit les pays à signer un accord pour placer l'utilisation responsable de l'IA plus haut dans l'agenda politique.

    Le nom « slaughterbots » (également appelés « systèmes d'armes létales autonomes » ou « robots tueurs ») est le nom d'une vidéo de plaidoyer pour le contrôle des armements de 2017 présentant un scénario dramatisé dans un futur proche où des essaims de microdrones bon marché utilisent l'intelligence artificielle et la reconnaissance faciale pour assassiner des opposants politiques sur la base de critères préprogrammés. La vidéo a été publiée sur YouTube par le Future of Life Institute et Stuart Russell, professeur d'informatique à Berkeley, le 12 novembre 2017. La vidéo est rapidement devenue virale, gagnant plusieurs millions de vues. La vidéo a également été projetée lors de la réunion de novembre 2017 de la Convention des Nations Unies sur certaines armes classiques à Genève.


    Un autre scénario parle de l'époque où tout le monde disait que les IA embarqués dans les robots tueurs ne cibleraient que des militaires, etc. avant une catastrophe à l'échelle mondiale. Regardez plutôt.


    Un groupe de dirigeants gouvernementaux, universitaires et militaires du monde entier a passé ces derniers jours à parler de la nécessité d'aborder l'utilisation de l'intelligence artificielle dans la guerre.

    Leurs conclusions ? Nous devons agir maintenant pour éviter de réglementer l'IA seulement après qu'elle a provoqué une catastrophe humanitaire ou un crime de guerre.

    Le premier sommet mondial sur l'intelligence artificielle responsable dans le domaine militaire, ou REAIM, a réuni des représentants de plus de 60 pays (dont les États-Unis et la Chine) à La Haye aux Pays-Bas pour discuter et finalement signer un appel à l'action sur la manière de rendre responsable l'utilisation de l'IA dans l'armée.

    La Russie n'a pas participé.

    Les signataires ont convenu que l'accélération de l'utilisation de l'IA signifie qu'il est essentiel d'agir maintenant pour établir des normes militaires internationales en matière d'IA, ainsi que pour résoudre les problèmes de manque de fiabilité de l'IA, la responsabilité des humains dans le processus décisionnel de l'IA, les conséquences involontaires de l'utilisation de l'IA et l'escalade potentielle des risques.

    L'un des moyens par lesquels le sommet espère atteindre ses objectifs consiste à créer une commission mondiale sur l'IA qui sensibilisera à la manière dont l'IA peut et doit être utilisée dans le domaine militaire, et à la manière dont cette technologie peut être développée et déployée de manière responsable.

    Nom : realm.png
Affichages : 2286
Taille : 619,4 Ko

    L'appel à l'action, signé par tous les participants à l'exception d'Israël, a confirmé que les nations s'étaient engagées à développer et à utiliser l'IA militaire conformément aux « obligations juridiques internationales et d'une manière qui ne porte pas atteinte à la sécurité, à la stabilité et à la responsabilité internationales ».

    La sous-secrétaire d'État américaine au contrôle des armements, Bonnie Jenkins, a appelé à une utilisation responsable de l'IA dans les situations militaires. « Nous invitons tous les États à se joindre à nous pour mettre en œuvre les normes internationales, en ce qui concerne le développement militaire et l'utilisation de l'IA et des armes autonomes », a déclaré Jenkins. « Nous tenons à souligner que nous sommes ouverts à un engagement avec tout pays souhaitant nous rejoindre ».

    Le représentant de la Chine, Jian Tan, a déclaré au sommet que les pays devraient « s'opposer à la recherche d'un avantage militaire absolu et de l'hégémonie par le biais de l'IA » et travailler par l'intermédiaire des Nations Unies.


    Les avantages et les inconvénients ont été évoqués durant le sommet

    Parmi les autres problèmes que les signataires ont convenu d'aborder, citons la fiabilité de l'IA militaire, les conséquences imprévues de son utilisation, les risques d'escalade et la manière dont les humains doivent être impliqués dans le processus de prise de décision.

    En 2019, le DoD a déclaré que les humains auront toujours le dernier mot sur la question de savoir si les systèmes d'armes autonomes ouvrent le feu sur des cibles réelles. En ce qui concerne les conséquences involontaires mentionnées dans la déclaration, certains craignent que la poussée de l'Inde vers des systèmes militaires alimentés par l'IA ne conduise à une guerre nucléaire avec le Pakistan en raison du risque accru de frappes préventives.

    Certains participants ont noté les avantages de l'utilisation de l'IA dans les conflits, en particulier en Ukraine, où l'apprentissage automatique et d'autres technologies ont été utilisés pour repousser un agresseur plus grand et plus puissant.

    Une discussion lors du sommet était de savoir dans quelle mesure les humains seraient responsables des actions entreprises par les systèmes autonomes, la conclusion semblant pencher vers les personnes étant les décideurs finaux lorsqu'il s'agit de tirer un système autonome ou d'adopter une action recommandée par une IA.

    « Imaginez un missile frappant un immeuble d'habitation », a déclaré le vice-premier ministre néerlandais Wopke Hoekstra. « En une fraction de seconde, l'IA peut détecter son impact et indiquer où les survivants pourraient se trouver. Encore plus impressionnant, l'IA aurait pu intercepter le missile en premier lieu. Pourtant, l'IA a également le potentiel de détruire en quelques secondes ».

    Hoekstra a poursuivi en expliquant dans son discours d'ouverture du sommet comment le statut actuel de l'IA lui rappelait les règles de guerre internationales antérieures établies pour prévenir les violations des droits de l'homme. « L'interdiction d'étendre les balles dum-dum qui ont laissé des victimes avec des blessures horribles, l'interdiction des armes biologiques et chimiques et le traité pour empêcher la propagation des armes nucléaires pourraient tous être considérés comme des parallèles », a déclaré Hoekstra.

    Mais il y a une grande différence entre les règles édictées pour empêcher l'utilisation d'armes inhumaines et l'IA : les autorités envisagent déjà d'agir avant que le pire ne se produise. « Nous avons la possibilité d'étendre et de renforcer l'ordre juridique international et d'empêcher qu'il ne s'effondre », a déclaré Hoekstra.

    Quant au type d'applications vers lesquelles une utilisation responsable de l'IA pourrait être utilisée en temps de guerre, la ministre néerlandaise de la Défense Kajsa Ollongren a laissé entendre qu'il n'y avait aucune raison pour qu'elle ne puisse pas être utilisée pour sauver des vies : « Avec les cadres et la législation appropriés en place, l'utilisation de l'IA rendra nos processus opérationnels et logistiques plus simples et plus efficaces. De cette façon, non seulement nous protégeons nos propres troupes, mais nous pouvons également limiter les dommages et les pertes dans la mesure du possible », dit Ollongren.

    Des limitations légales à l'utilisation de l'IA

    Les critiques disent que la déclaration n'est pas juridiquement contraignante et ne répond pas à de nombreuses autres préoccupations concernant l'utilisation de l'IA dans les conflits militaires, y compris les drones guidés par l'IA.

    D'autres craintes concernant les nombreuses applications potentielles de l'IA dans la guerre ont été soulevées la semaine dernière après que Lockheed Martin a révélé que son nouveau jet d'entraînement avait été piloté par l'intelligence artificielle pendant plus de 17 heures, marquant la première fois que l'IA était engagée de cette manière sur un avion tactique. Ailleurs, l'ancien PDG de Google et président d'Alphabet, Eric Schmidt, a déclaré que l'intelligence artificielle pourrait avoir un effet similaire sur les guerres comme l'introduction des armes nucléaires.

    La conférence intervient alors que l'intérêt pour l'IA est à son plus haut niveau grâce au lancement du programme ChatGPT d'OpenAI et que l'Ukraine a utilisé la reconnaissance faciale et les systèmes de ciblage assisté par l'IA dans sa lutte contre la Russie.

    Les organisateurs n'ont pas invité la Russie après son invasion de l'Ukraine en 2022, que Moscou appelle une « opération militaire spéciale ». L'Ukraine n'a pas participé.

    Israël a participé à la conférence, mais n'a pas signé la déclaration.

    La sous-secrétaire d'État américaine au contrôle des armements, Bonnie Jenkins, a proposé un cadre américain pour une utilisation militaire responsable de l'IA. Les États-Unis et d'autres pays puissants ont été réticents à accepter des limitations légales à l'utilisation de l'IA, de peur que cela ne les désavantage par rapport à leurs rivaux.

    En 2021, le comité d'éthique de l'armée française disait « non, mais » aux « robots tueurs »

    « Non » aux systèmes d’armes létaux pleinement autonomes (SALA), parfois résumés sous l’appellation « robots tueurs », mais la porte reste ouverte aux armes robotisées pilotées par l’homme. C’est en substance le contenu d’un avis rendu le 29 avril 2021 par le comité d’éthique de la défense, une structure de réflexion adossée au ministère français des Armées pour le conseiller sur les sujets les plus sensibles. Les membres de cette structure indépendante approuvent ainsi l’introduction d’une certaine dose d’autonomie dans les systèmes d’armes, mais pas question d'entériner le principe de « robots tueurs », qui excluent tout contrôle humain. Ces robots, boostés par l’intelligence artificielle, utilisent eux-mêmes un logiciel intégré pour trouver et frapper des cibles.

    Les conclusions du Comité sont claires : l'emploi par les forces armées de systèmes d'armes létales autonomes serait « absolument contraire au principe constitutionnel de nécessaire libre disposition de la force armée et au principe de continuité de la chaîne de commandement ». Par conséquent, l'emploi des SALA ne peut qu’être refusé tout comme la fabrication et l’exportation.

    Soit le rejet de l’utilisation, sur un théâtre de guerre, de toute forme d’arme programmée dont l’homme n’aurait pas la maîtrise complète. Ces systèmes sont acceptables à condition qu'ils soient toujours supervisés par l'Homme. En revanche, les systèmes d'armes létales complètement autonomes, qui excluent tout contrôle humain, pourraient donc se révéler dangereux et doivent être interdits. « La France confirme qu’elle ne développera et n’emploiera pas » de SALA, écrivent ainsi les dix-huit membres civils et militaires de ce comité où siège notamment l’ancien chef d’état-major des armées, le général Henri Bentégeat.

    Le comité d’éthique de la défense ne voit ainsi pas d’objection à l’introduction d’une certaine dose d’autonomie et donc de recours aux SALIA (systèmes d’armes létaux intégrant de l’autonomie). Ce qui distinguerait les SALA des SALIA, « c'est une différence de nature qui tient à la place de l'humain dans certaines fonctions critiques », peut-on lire dans le rapport.

    Les SALA ont été conçu pour faire évoluer ses propres règles de fonctionnement et redéfinir tout seul sa mission. Ils se passent ainsi de l’appréciation de la situation par le commandement. Les SALIA peuvent se voir attribuer la responsabilité et l’exécution de certaines tâches de façon autonome, mais de manière temporaire et uniquement pour des missions d’identification, de classification, d’interception ou d’engagement. Le comité d’éthique précise bien qu’ils ne peuvent prendre d’initiatives létales sans contrôle humain.

    La présence de robots aux côtés des combattants ne relève plus depuis longtemps de la science-fiction, pas plus que les systèmes automatisés. À terre ou sur mer, les missiles sol-air Aster sont capables d’identifier des cibles pénétrant leur périmètre de défense tout comme le système Phalanx CIWS sur les bâtiments américains.

    Conscient de la compétition qui s’est engagée à l’international et des risques de « décrochages » pour l’armée française, le comité ne ferme toutefois pas la porte à la recherche dans « les domaines de l’intelligence artificielle de défense et des automatismes dans les systèmes d’armes ». Les travaux doivent « se poursuivre », selon l’avis du comité, considérant qu’il s’agit aussi là d’un moyen de se « défendre contre ce type d’armes au cas, qui n’est pas improbable, où un État adverse ou un groupe terroriste entreprendrait de les employer contre nos troupes ou la population française ».

    La balle est maintenant dans le camp de la ministre des Armées qui doit examiner le texte attentivement avec ses équipes avant toute communication officielle.

    Source : REAIM 2023

    Et vous ?

    Pour ou contre l'utilisation de l'IA dans l'armée ? Pourquoi ?
    Que pensez-vous de la vidéo plaidoyer Slaughterbots ? A-t-elle, selon vous, la possibilité de devenir réalité ? Dans quelles conditions ?
    Laquelle des deux vidéos vous interpelle le plus ?
    Que pensez-vous de l'appel à l'action pour une utilisation « responsable » de l'IA militaire ?
    Étant donné que cet appel n'est pas contraignant, a-t-il, selon vous, une valeur ? Des vœux pieux à ce niveau ?
    D'ailleurs, qui va s'assurer que les pays respectent leurs engagements non contraignants ?
    Quelle lecture faites-vous de la situation ?

    Voir aussi :

    L'Europe estime qu'une IA ne doit pas avoir le droit de vie ou de mort sur le champ de bataille et appelle à interdire les robots tueurs
    L'Autriche veut des règles éthiques sur l'utilisation des robots tueurs dotés d'IA sur le champ de bataille, le pays affirme que seuls les humains doivent décider des questions de vie ou de mort
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  7. #127
    Membre éclairé
    Homme Profil pro
    retraité
    Inscrit en
    Avril 2009
    Messages
    374
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 91
    Localisation : France, Essonne (Île de France)

    Informations professionnelles :
    Activité : retraité
    Secteur : Associations - ONG

    Informations forums :
    Inscription : Avril 2009
    Messages : 374
    Points : 783
    Points
    783
    Par défaut
    Juridiquement contraignante
    : j'aime le terme ! (qui satisfait l'esprit)

Discussions similaires

  1. Réponses: 7
    Dernier message: 06/04/2018, 12h48
  2. Développer une DLL pour postgresql.
    Par vaness7 dans le forum Extensions
    Réponses: 5
    Dernier message: 22/08/2011, 17h17
  3. Développer une extension pour Web browser
    Par Arrakis dans le forum Général Conception Web
    Réponses: 6
    Dernier message: 04/12/2008, 15h37
  4. Comment développer une application pour CE?
    Par highdata dans le forum VB.NET
    Réponses: 3
    Dernier message: 05/06/2007, 10h47
  5. développer une toolbar pour Internet Explorer
    Par Jérémy Lefevre dans le forum C++
    Réponses: 16
    Dernier message: 15/11/2006, 17h12

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo