IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

L'IA ne devrait pas être développée tant que son contrôle en toute sécurité n'est pas prouvé


Sujet :

Intelligence artificielle

  1. #41
    Membre émérite Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    597
    Détails du profil
    Informations personnelles :
    Âge : 32
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 597
    Points : 2 438
    Points
    2 438
    Par défaut
    Les manifs pour tous étaient certes de grosses manifs, mais si je me souviens bien il y avait aussi beaucoup de manifestations de l'autre côté aussi.
    Quand deux gros groupes ne sont pas d'accord, il faut forcement trancher.

    C'est comme quand on élit un président, on est jamais dans une forte majorité dès le premier tour (et même dans le second tour).

    Sinon c'est vrai qu'une transition directe, sans reformer l'éducation derrière, ne serait pas forcement intéressante.
    Il y a beaucoup de choses a prendre en compte, comme toujours.

    Le système éducatif actuel (malgré ses avantages si on compare a une majorité des états) est bourré de problèmes.
    Le fait que des jeunes préfèrent aller boire des bières plutôt qu'apprendre montre bien que le soucis est à la racine. Les études scolaires ne sont juste pas intéressantes.

    Je suis totalement passionné d'informatique, et quand j'étais étudiant j'ai pourtant séché énormément de cours en faculté, car certains profs sont juste moins intéressants que lire un pdf technique sur internet.
    Et ça, c'est triste. Et le pire, c'est que la je parle d'université, donc d'une branche choisie par l'étudiant en fonction du domaine qu'il veut étudier.

    Tant qu'on aura des classes de 30 élèves pour un enseignant et des cours rébarbatifs avec un système qui n'encourage que les meilleurs, ça n'avancera forcement jamais.
    Il faut espérer que l'avancée dans l'automatisation permettra de payer plus d'enseignants, pour régler ce problème.
    Car même des cours rébarbatifs, s'ils étaient dans des classes de juste une dizaine d'élèves maximum, seraient forcément mieux assimilés.


    Pour l'histoire de Khadafi, encore une fois je reproche les magouilles de Sarkozy, qui commencent enfin a être étayées de preuves et de témoignages importants (même si malheureusement, je doute que ça finisse sur grand chose).
    Ainsi que ce que marsupial souligne si on veut parler de Khadafi en lui même.

    @Elthorn
    Il est bien précisé "sur le champ de bataille" dans l'article. Donc ça ne vise clairement pas les voitures autonomes.
    Circuits intégrés mis à nu: https://twitter.com/TICS_Game

  2. #42
    Membre averti Avatar de Delaney
    Homme Profil pro
    Developpeur VB amateur
    Inscrit en
    Mars 2014
    Messages
    148
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 51
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : Developpeur VB amateur
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2014
    Messages : 148
    Points : 372
    Points
    372
    Par défaut
    Citation Envoyé par onilink_ Voir le message
    Il est bien précisé "sur le champ de bataille" dans l'article. Donc ça ne vise clairement pas les voitures autonomes.
    En fait je ne vois pas de différence sur le fond. C'est juste une question de critère d'activation de la fonction "élimination de personne" ou "sacrifice". Une voiture autonome (ou tout autre système IA d'ailleurs) est aussi potentiellement un robot tueur dans le sens où elle peut être amenée à tuer par choix, non pas pour éliminer un adversaire ou un ennemi mais, pour protéger une ou plusieurs personnes. Dans le Film I robot, il y a justement cet exemple du robot qui fait un choix, basé sur une probabilité de survie, de sauver une personne plutôt qu'une autre.

    En fait je ne suis pas sur que la notion de "tuer" s'applique vraiment pour un robot dans le sens où il ne sait pas qu'il tue car il est incapable d'apprécier les conséquences de l'acte. Pour lui c'est juste le traitement de données et d'objet selon un ensemble de critère prédéfinis.

    Ce qui est sur c'est que concernant les IA on ne parle que d'intelligence mais jamais de sentiments or ce qui caractérise les humains ce sont aussi les sentiments et les émotions et nous faisons nos choix et actions autant sur ces deux notions que sur la raison et l'intelligence. Et cela aussi forte soit-elle, une IA en sera incapable (et c'est à la fois tant mieux et triste).

  3. #43
    Membre chevronné
    Profil pro
    Inscrit en
    Décembre 2007
    Messages
    761
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Décembre 2007
    Messages : 761
    Points : 2 101
    Points
    2 101
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    «Machine autonome équipé de fusils d’assaut» ça pourrait aller comme définition.
    Il suffit de rebaptiser les machines "unité d'aide à la protection des civils et des alliés" est hop on passe de machine tueuse à machine de défense.

  4. #44
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 535
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 535
    Points : 18 442
    Points
    18 442
    Par défaut
    Citation Envoyé par marsupial Voir le message
    Pour Khadafi, il est l'exécuteur de l'attentat de Lockerbie, entre autre moyen d'obtenir son indépendance comme l'a fait Arafat avec le soutien de l'Iran
    Admettons...
    C'est un truc de 1988, Kadhafi était pote avec la France bien après, donc ça ne fonctionne pas. (c'était oublié/pardonné)
    Kadhafi a été invité à planter sa tente, donc on était clairement passé à autre chose depuis longtemps...

    Kadhafi a aidé beaucoup de mouvements indépendantistes.
    Vous savez quel terroriste était soutenu par Kadhafi : Nelson Mandela.
    En sortant de prison la première personne que Nelson Mandela est aller voir c'est Kadhafi.

    Mandela était pote avec Mouammar Kadhafi, Fidel Castro et Yasser Arafat.
    On arrête pas de nous répéter que Mandela était un grand homme, heureusement qu'il avait ses potes pour le soutenir.

    ===
    Kadhafi n'avait rien fait de mal (à part vouloir vendre son pétrole en dinar or), Sarkozy n'aurait jamais du ordonner son assassinat.
    Depuis c'est le chaos.
    Keith Flint 1969 - 2019

  5. #45
    Membre actif
    Profil pro
    Développeur informatique
    Inscrit en
    Mars 2010
    Messages
    336
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Mars 2010
    Messages : 336
    Points : 227
    Points
    227
    Par défaut
    Espérons que ces armes ne soient pas interdites. Il vaut mieux des robots tueurs que de sacrifier nos soldats. Et puis ce ne serait qu'une belle avancée en IA de leur laisser le libre arbitre. Espérons que les bobocrates ne réussissent encore une fois leur coup.

  6. #46
    Expert éminent sénior

    Homme Profil pro
    Consultant informatique
    Inscrit en
    Avril 2018
    Messages
    1 548
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Côte d'Ivoire

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Avril 2018
    Messages : 1 548
    Points : 125 220
    Points
    125 220
    Par défaut La résistance contre robots tueurs grandit
    La résistance contre les robots tueurs grandit : des militants de 35 pays à Berlin pour s’opposer à ces armes
    Et réclamer une initiative allemande

    La résistance contre les robots tueurs animés par l’intelligence artificielle continue difficilement, mais de façon engagée afin d’emmener le maximum de pays, surtout ceux qui sont impliqués dans la recherche et le développement pour concevoir ces armes meurtrières, à rejoindre le mouvement. Selon un article publié hier par Deutsche Welle, le service international de diffusion de l’Allemagne, des militants de 35 pays s’étaient réunis à Berlin la semaine dernière pour demander l'interdiction des armes autonomes meurtrières. Ces militants engagés contre l’utilisation des armes autonomes veulent attirer l’attention des pays non encore engagés et surtout l’Allemagne dans la perspective de nouvelles négociations sur ces armes à Genève.

    Noel Sharkey, l'une des figures de proue de la campagne pour arrêter les robots tueurs était présent à Berlin pour participer à la réunion internationale de la Campagne pour arrêter les robots tueurs qui s'est terminée vendredi. Noel Sharkey est un professeur émérite de l'université de Sheffield, aussi un spécialiste reconnu de la robotique et de l'intelligence artificielle. « Je peux vous construire un robot tueur en seulement deux semaines », a-t-il dit lors du rassemblement avec un regard avertisseur.

    Sharkey s'oppose à l'idée de parler de « systèmes d'armes autonomes mortels » comme s'il s'agissait d'un roman de science-fiction, d’après Deutsche Welle. Le militant des droits de l’homme dit que, les systèmes d'armes entièrement autonomes sont une réalité bien établie. Pour lui, il n'est pas nécessaire de discuter de leur définition qui est déjà assez connue comme étant des armes qui cherchent, sélectionnent et attaquent des cibles par leurs propres moyens. C'est, par ailleurs, la définition que le Comité international de la Croix-Rouge (CICR) leur donne.

    Nom : Rob01.jpg
Affichages : 2617
Taille : 33,0 Ko

    En effet, les soldats n'ont plus besoin d’appuyer sur la détente avec de telles armes. Ces robots, boostés par l’intelligence artificielle, utilisent eux-mêmes un logiciel intégré pour trouver et frapper des cibles. Ces armes peuvent prendre la forme de missiles, de véhicules terrestres sans pilote, de sous-marins ou d'essaims de mini-drones. 28 pays réclament actuellement l'interdiction des systèmes d'armes autonomes meurtrières, mais de nombreux pays s’y opposent encore.

    Les premières discussions formelles visant à limiter ou interdire l’utilisation des systèmes d’armes létales autonomes (SALA) ou des robots de guerre, pour faire simple, se sont tenues au cours des derniers mois de l’année 2017 à Genève sous l’égide de L’ONU. Ces discussions axées autour de la convention sur certaines armes classiques (CCAC) devraient permettre de soumettre ces dispositifs de guerre au droit international en identifiant les « SALA illicites » en fonction du niveau de contrôle attribué à l’homme.

    À ce sujet, la France a proposé d’approfondir la distinction entre les systèmes dotés « d’automatismes » de complexité variable et les systèmes « autonomes » qui ne font appel à aucune mesure de supervision humaine. Le gouvernement russe est resté fermement opposé à toute interdiction visant à limiter ou interdire le développement des SALA ou des technologies liées à l’IA à des fins militaires qui serait prise au niveau de l’ONU.

    Selon un rapport fourni par le site DefenceOne.com le 10 novembre 2017, la Fédération de Russie soutenait que « l’absence de réglementation claire sur de tels systèmes d’armement reste le principal problème dans la discussion sur les lois », mais « il est difficilement acceptable que l’encadrement des SALA restreigne la liberté de profiter des avantages des technologies autonomes qui représentent l’avenir de l’humanité. » Les États-Unis de leur côté, ont estimé qu’il est encore « prématuré » d’envisager une interdiction des SALA, même si l’administration Trump dit soutenir le processus de la CCAC.

    Dans une série de réunions qui se sont tenues à Genève en fin août 2018, les discussions sur l'opportunité d'amener les négociations sur les armes entièrement autonomes dotées d'IA à un niveau formel qui pourrait déboucher sur un traité qui les interdit n’a aboutit qu’à une liste de recommandations non contraignantes. Les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie auraient en effet empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs. C'est à la fin de 2013 que les Nations Unies ont mis le sujet à l'ordre du jour, mais depuis lors, peu de choses se sont produites. L'organisation n'a même pas été en mesure de s'entendre sur une définition des armes létales entièrement autonomes. Les militants des droits de l’homme devraient davantage s’armer de courage pour continuer le combat.

    Un certain nombre d'organisations non gouvernementales (ONG) se sont jointes à la Campagne mondiale pour arrêter les robots tueurs à Berlin pour demander à l'Allemagne d’exiger que les systèmes d'armes autonomes qui violent le droit international soient interdits. En effet, pour ces militants, si l'Allemagne prenait l'initiative de se joindre au mouvement de l’interdiction, d'autres pays suivraient. Selon Deutsche Welle, le gouvernement allemand actuel a affirmé l’interdiction dans ses négociations de coalition en 2018, mais n'a prononcé que des déclarations politiques non contraignantes à l'ONU à Genève.

    Selon Thomas Küchenmeister de l'ONG Facing Finance, « ce n'est pas suffisant pour établir une interdiction ». Selon lui, le gouvernement allemand devrait se joindre aux 28 pays qui réclament actuellement l'interdiction des systèmes d'armes autonomes meurtriers.

    Le Secrétaire général de l'ONU, Antonio Guterres, et le Parlement européen sont également en faveur d'une interdiction. Le Parlement européen a adopté une résolution demandant une interdiction internationale des robots soi-disant tueurs qui vise à anticiper le développement et l'utilisation de systèmes d'armes autonomes capables de tuer sans intervention humaine. Le CICR affirme que l'utilisation de ces armes constitue une violation manifeste du droit international.

    Récemment, la Société allemande d'informatique (GI), une organisation de chercheurs en informatique, ainsi que l'influente Association fédérale de l'industrie allemande (BDI), ont également appelé à une interdiction juridiquement contraignante. Mais l’Allemagne, dont les fabricants d’armes ont vendu en février dernier avec enthousiasme leurs nouvelles armes aux fonctions autonomes lors de la plus grande foire aux armes du Moyen-Orient à IDEX à Abu Dhabi, a toujours une position indécise quant à l’interdiction formelle des robots tueurs.

    Nom : Rob02.jpg
Affichages : 2234
Taille : 37,2 Ko

    Les déclarations politiques non contraignantes du gouvernement allemand fournissent une « couverture parfaite » aux pays opposés à une interdiction

    Selon Deutsche Welle, bien que des pays comme les États-Unis et la Chine soient en tête de l'utilisation de l'IA dans le monde, une grande partie de la recherche dont dépendent ces systèmes vient d'Europe. Cela donne beaucoup de poids aux voix européennes dans le débat en cours. Selon Noel Sharkey, « Si l'Allemagne prend la tête, d'autres suivront ». M. Sharkey prévient également que les déclarations politiques non contraignantes, comme celles que le gouvernement allemand défend actuellement, fournissent une « couverture parfaite » aux pays opposés à une interdiction. Ces pays comprennent la Russie, Israël et les États-Unis, selon le rapport de Deutsche Welle.

    Cependant, le gouvernement allemand soutient qu'il est essentiellement en faveur d'une interdiction, mais qu'il avait fait pression sur la déclaration politique nettement plus faiblement pour des raisons tactiques. En effet, selon le gouvernement allemand, son approche consiste à maintenir un dialogue avec des pays comme les États-Unis, plutôt que de les aliéner complètement.

    Toutefois, la lauréate du prix Nobel de la paix Jody Williams n'est pas du tout convaincue par cet argument. S'exprimant à Berlin, elle a appelé le ministre allemand des Affaires étrangères Heiko Maas à reconsidérer sa position. M. Williams a fait valoir que quiconque attend que les États-Unis se prononcent en faveur d'une interdiction attendra éternellement.

    Des discussions internationales sur la façon de réglementer les droits de l'homme se tiendront à Genève, en Suisse, du 25 au 29 mars. Espérons qu’elles aboutiront à des recommandations contraignantes afin que les prédictions d’Elon Musk et d’une centaine de spécialistes de l'IA et de la robotique, selon lesquelles « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre », ne se réalisent pas.

    Source : Deutsche Welle

    Et vous ?

    Que pensez-vous de cette résistance ?
    Pensez-vous que c’est un combat crédible ou Don Quichotte qui se bat contre des moulins à vent ?
    Pensez-vous que ce combat aboutira un jour à une interdiction effective des robots tueurs ?

    Lire aussi

    L'Armée américaine rassure le public sur ses chars d'assaut alimentés par l'IA, en précisant qu'ils resteront toujours sous contrôle humain
    Google promet de ne pas utiliser l'IA pour le développement d'armes, mais informe qu'il va continuer à coopérer avec les militaires
    Des scientifiques demandent l'interdiction du développement d'armes contrôlées par l'IA, en évoquant de nombreux problèmes sous-jacents
    Elon Musk appelle les Nations Unies à bannir les robots tueurs dans une lettre ouverte, signée par 116 spécialistes de l'IA et la robotique
    Que se passera-t-il si des robots tueurs sont piratés ou détournés ? La question fait débat au sein de la communauté scientifique
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  7. #47
    Expert éminent sénior

    Homme Profil pro
    Consultant informatique
    Inscrit en
    Avril 2018
    Messages
    1 548
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Côte d'Ivoire

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Avril 2018
    Messages : 1 548
    Points : 125 220
    Points
    125 220
    Par défaut Les pays développent rapidement des "robots tueurs" dotés d'IA qui tuent de manière indépendante
    Les pays développent rapidement des "robots tueurs" dotés d'IA qui tuent de manière indépendante,
    Mais ne parviennent pas à s'entendre sur des règles pour contrôler ces armes, avertissent des experts

    La menace que représentent les "robots tueurs" ou armes autonomes létales a été largement démontrée. Entre autres, ils peuvent être faillibles au piratage et détournés pour se comporter de manière indésirable, « elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre », selon une lettre ouverte adressée aux Nations Unies par Elon Musk et co-signée par une multitude de spécialistes en IA.

    Cependant, les pays continuent de développer rapidement ces armes autonomes, dotées d'une intelligence artificielle qui tuent de manière indépendante, alors qu’ils ne font aucun progrès dans la mise en place des règles communes à l’échelle mondiale concernant leur utilisation dans les guerres à venir, avertissent les experts en technologie et en droits de l'homme, selon un reportage de Nita Bhalla de Reuters.

    Nom : 01.jpg
Affichages : 11170
Taille : 42,3 Ko

    Selon Bhalla, les systèmes d'armes semi-autonomes, y compris les drones, les missiles, les chars et les sous-marins, sont utilisés depuis des décennies pour éliminer des cibles dans les guerres modernes. Mais ils ne prennent pas de décisions autonomes hors de toute supervision de l'homme. Maintenant, des pays comme les États-Unis, la Russie et Israël investissent dans le développement de systèmes d'armes autonomes meurtriers (LAWS) qui peuvent identifier, cibler et tuer une personne par eux-mêmes – mais à ce jour, aucune loi internationale ne régit leur utilisation, s’inquiètent ces experts.

    « Une sorte de contrôle humain est nécessaire... Seuls les êtres humains peuvent porter des jugements sur la distinction, la proportionnalité et les précautions à prendre au combat, en fonction du contexte », a déclaré Peter Maurer, président du Comité international de la Croix-Rouge (CICR). « (La recherche du consensus) est la grande question à laquelle nous sommes confrontés et, sans surprise, ceux qui ont aujourd'hui investi beaucoup de capacités et possèdent certaines compétences qui leur promettent des avantages, sont plus réticents que ceux qui ne le font pas », a-t-il ajouté.

    Selon le rapport, les chercheurs d'Amnesty International, les analystes de la défense et les roboticiens affirment que les LAWS, telles que les robots militaires, ne sont plus confinés au domaine de la science-fiction ou des jeux vidéo, mais qu'elles progressent rapidement, passant des planches de graphisme aux laboratoires d'ingénierie de la défense. Ils continuent en disant qu’en quelques années, ils pourraient être déployés sur le champ de bataille par les armées des États, en peignant des scénarios dystopiques de nuées de drones se déplaçant dans une ville ou un village, balayant et tuant sélectivement leurs cibles en quelques secondes.

    « Vous ne pouvez tout simplement pas faire confiance à un algorithme – aussi intelligent soit-il – pour rechercher, identifier et tuer la bonne cible ? »

    À la lumière de ce qui précède, des groupes de défense des droits de l'homme et certains experts en technologie affirment que donner aux machines le pouvoir de la vie et de la mort viole les principes de la dignité humaine. Selon eux, non seulement les LAWS sont vulnérables à l'ingérence et au piratage, ce qui entraînerait une augmentation du nombre de décès de civils, mais leur déploiement soulèverait des questions quant à savoir qui serait tenu responsable en cas d'utilisation abusive.

    « Ne vous laissez pas tromper par l'absurdité de l'intelligence de ces armes », a déclaré Noel Sharkey, président du Comité international pour le contrôle des armes robotisées. Sharkey, qui est également expert en IA et en robotique à l'université britannique de Sheffield, a ajouté que « Vous ne pouvez tout simplement pas faire confiance à un algorithme - aussi intelligent soit-il - pour rechercher, identifier et tuer la bonne cible, surtout dans la complexité de la guerre ».

    Laura Nolan, un ancien travailleur de Google, qui a démissionné de l’entreprise en 2018 en signe de protestation contre son affectation dans un projet visant à améliorer considérablement la technologie des drones militaires du Pentagone, a demandé l'interdiction de toutes les machines à tuer qui ne sont pas utilisées par des humains. L’ex-ingénieur logiciel de Google a averti que ce nouveau type d’armes pourrait accidentellement déclencher une guerre ou provoquer des atrocités de masse.

    Les Nations Unies travaillent sur la question des armes entièrement autonomes dotées d'IA afin de l’emmener à un niveau formel qui pourrait déboucher sur un traité qui interdit ces robots tueurs, mais le bout du tunnel semble bien loin. Mais une série de réunions, tenues en fin août 2018, se sont terminées sans que les pays participants se rapprochent de règles internationales contraignantes. Les pays se sont juste entendus sur une liste de recommandations non contraignantes. Un petit nombre de pays – notamment les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie – auraient en effet empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs.

    Selon le reportage de Bhalla, une enquête menée en 2019 par Human Rights Watch (HRW) et la coalition mondiale Campaign to Stop Killer Robots a révélé que 61 % des personnes dans 26 pays, dont les États-Unis et Israël, s'opposaient au développement d'armes meurtrières totalement autonomes. Cependant, selon Mary Wareham, directrice du plaidoyer de la division des armes de HRW, ces pays ont tenu huit réunions dans le cadre de la Convention des Nations Unies sur certaines armes classiques depuis 2014 pour discuter de la question, et il n'y a eu aucun progrès.

    Nom : 02.jpg
Affichages : 3244
Taille : 30,5 Ko

    « Il ne suffit pas que nous avancions dans le XXIe siècle sans règles établies », a déclaré Wareham, ajoutant que sans surveillance, davantage de nations développeraient des armes autonomes mortelles. « Nous devons avoir un nouveau traité international comme nous l'avons fait pour les mines terrestres et les armes à sous-munitions. Nous devons prévenir la tragédie évitable qui se prépare si nous ne réglementons pas nos robots tueurs », a-t-elle ajouté.

    Les robots tueurs ne seront pas la proie d'émotions humaines telles que la peur ou la vengeance et réduiront le nombre de décès

    Selon les experts en systèmes d'IA basés sur la défense, ces armes autonomes, si elles sont bien développées, peuvent rendre la guerre plus humaine, a rapporté Bhalla. Elles seront plus précises et plus efficaces, ne seront pas la proie d'émotions humaines telles que la peur ou la vengeance et réduiront au minimum les décès de civils et de soldats, ajoutent-ils.

    « Du point de vue militaire, la préoccupation première est de protéger la sécurité du pays avec le moins de pertes de vies humaines - et cela signifie ses soldats », a déclaré Anuj Sharma, président de l'India Research Centre, qui travaille sur la guerre de l'IA. « Donc si vous pouvez retirer l'humain de l'équation autant que possible, c'est une victoire parce que cela signifie moins de sacs mortuaires pour rentrer chez soi - et c'est ce que tout le monde veut », a-t-il ajouté.

    Selon le rapport, trente pays, dont le Brésil, l'Autriche et le Canada, sont en faveur d'une interdiction totale, tandis que des dizaines d'autres veulent un traité pour établir une forme de contrôle sur l'utilisation des LAWS, a déclaré Wareham. Selon elle, cela est dû en grande partie à quelques nations puissantes comme les États-Unis et la Russie qui disent qu'il est prématuré d'aller vers une réglementation, sans d'abord définir ces armes.

    Quant aux États-Unis, ils disent qu’ils soutiennent les discussions à l'ONU, mais que « dicter un format particulier pour un résultat avant de travailler sur le fond" ne donnerait pas le meilleur résultat, d’après le rapport. Dans un communiqué, un porte-parole du département d'État a déclaré : « Les États-Unis se sont opposés aux appels à l'élaboration d'une interdiction et ne sont pas favorables à l'ouverture de négociations, que ce soit sur un instrument juridiquement contraignant ou sur une déclaration politique, pour le moment ».

    « Nous ne devons pas être contre la technologie et nous devons nous garder de porter des jugements hâtifs sur les technologies émergentes ou futures, surtout compte tenu du fait que les armes "intelligentes" à guidage de précision ont permis à des militaires responsables de réduire les risques pour les civils lors d'opérations militaires », a-t-il ajouté.

    Selon un commentateur qui s’insurge contre l'argument selon lequel l’IA est précise donc moins meurtrière, si l’IA peut être utilisée de façon plus sélective, elle peut également être utilisée pour tuer des villes entières. Il a par ailleurs ajouté que « quand vous pouvez aller à la guerre et qu'aucun de vos gens ne meurt, vous irez à la guerre plus souvent ». Qu’en pensez-vous ?

    Source : Reuters

    Et vous ?

    Qu’en pensez-vous ?
    Les robots tueurs réduiront au minimum les décès de civils et de soldats. Qu’en pensez-vous ?
    Pensez-vous que des règles contraignantes pour contrôler ces armes pourront être mises en œuvre un jour à l’échelle mondiale ?

    Lire aussi

    Un ancien travailleur de Google craint que des « robots tueurs » ne provoquent des atrocités massives, l'ingénieur logiciel prévient que l'IA pourrait aussi déclencher accidentellement une guerre
    L'Europe estime qu'une IA ne doit pas avoir le droit de vie ou de mort sur le champ de bataille, et appelle à interdire les robots-tueurs
    Des scientifiques demandent l'interdiction du développement d'armes contrôlées par l'IA, en évoquant de nombreux problèmes sous-jacents
    Interdiction des robots tueurs : quelques pays, y compris les USA et la Russie, bloquent les négociations, menées au niveau des Nations Unies
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  8. #48
    Membre régulier
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Avril 2019
    Messages
    44
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Finistère (Bretagne)

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux

    Informations forums :
    Inscription : Avril 2019
    Messages : 44
    Points : 119
    Points
    119
    Par défaut Lol
    "si elles sont bien développées, peuvent rendre la guerre plus humaine, a rapporté Bhalla"

    Lol.

  9. #49
    Membre régulier
    Femme Profil pro
    Autre
    Inscrit en
    Janvier 2018
    Messages
    18
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : Estonie

    Informations professionnelles :
    Activité : Autre
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Janvier 2018
    Messages : 18
    Points : 113
    Points
    113
    Par défaut
    C'est un gros problème, vous voulez dire que c'est comme des militaires mais qui utilisent leur intelligence ?
    Rupture totale... "commencer à réfléchir c'est commencer à désobéir".

    Ou comme disait Einstein:
    "Celui qui est capable de marcher derrière une musique militaire n’a pas besoin de cerveau : une moelle épinière lui suffit."

  10. #50
    Membre extrêmement actif Avatar de eldran64
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Janvier 2008
    Messages
    341
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Janvier 2008
    Messages : 341
    Points : 1 515
    Points
    1 515
    Par défaut
    Soyons optimiste, il y aura un jour un gros massacre de masse avec l'une de ces machines à cause de (choisissez l'option que vous préférez):
    - piratage de la dite machine
    - bug logiciel
    - mauvaise programmation
    - simplement volonté de faire un massacre avec

    Et dans le meilleur des scénarios, on aura ensuite une prise de conscience qui obligera le monde à légiférer dessus (un peu comme les bombes nucléaires).
    Tout le monde devrait avoir de l'esprit critique car personne ne pourra m'apporter la preuve de l'absence de celui-ci

  11. #51
    Membre émérite Avatar de Cpt Anderson
    Profil pro
    Développeur informatique
    Inscrit en
    Novembre 2005
    Messages
    624
    Détails du profil
    Informations personnelles :
    Âge : 49
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Novembre 2005
    Messages : 624
    Points : 2 479
    Points
    2 479
    Par défaut
    Qui est étonné ? C'est dans la logique des choses !
    Voici la méthode de mon chef:

    copy (DateTimeToStr(Now),7,4)+
    copy (DateTimeToStr(Now),4,2)+copy (DateTimeToStr(Now),1,2)+copy (DateTimeToStr(Now),12,2)+
    copy (DateTimeToStr(Now),15,2)+copy (DateTimeToStr(Now),18,2)

    Je lui ai dit que FormatDateTime irait surement mieux


  12. #52
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 535
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 535
    Points : 18 442
    Points
    18 442
    Par défaut
    Citation Envoyé par Stan Adkens Voir le message
    Elles seront plus précises et plus efficaces, ne seront pas la proie d'émotions humaines telles que la peur ou la vengeance et réduiront au minimum les décès de civils et de soldats, ajoutent-ils.
    D'un côté ça se tient.
    Vous avez déjà vu le film Outrages avec Michael J. Fox ?
    Ça parle de soldats US qui ont violés des vietnamiennes, c'est le genre de chose que des robots ne pourront pas faire, donc ça fait moins de victime civil.

    Les robots ne feront pas ça non plus :
    Torture, humiliations... Les photos qui ont révélé l'horreur d'Abou Ghraib
    En avril 2004, le traitement des détenus à la prison d'Abou Ghraib, située à 20 km à l'ouest de Bagdad (Irak), choque le monde entier. Via des clichés pris en octobre, novembre et décembre 2003, on apprend que les prisonniers y sont physiquement et sexuellement abusés, torturés, violés et exécutés.
    Il y a des armées qui droguent leur soldats pour qu'ils puissent faire des choses horribles.
    L'héroïne fait des ravages dans l'armée américaine (apparemment c'est une news de Septembre 1971 )
    Un rapport américain avait conclu, en mai dernier, que de 10 à 15 % des soldats stationnés au Vietnam, soit, à l'époque, de vingt-sept mille à quarante mille hommes, s'adonnaient à l'usage des stupéfiants, en particulier l'héroïne
    Pendant la seconde guerre mondiale les anglais avaient la benzédrine, les allemands avaient la pervitine.

    =====
    Un robot vise mieux et suit les ordres, c'est le soldat parfait.
    Le problème ce ne sont pas les robots, les problèmes ce sont les ordres.
    Dans le futur peut-être que le gouvernement français enverra des drones armés de fusil d'assaut qui tireront sur les manifestants, on ne sait pas... (un peu des ambiances de Running Man)
    Des drones autonome qui bossent pour un gouvernement, ça fait très peur.
    Keith Flint 1969 - 2019

  13. #53
    Membre confirmé
    Inscrit en
    Octobre 2005
    Messages
    239
    Détails du profil
    Informations forums :
    Inscription : Octobre 2005
    Messages : 239
    Points : 539
    Points
    539
    Par défaut
    Je ne comprends même pas qu'on puisse travailler sur de tels sujets.

  14. #54
    Membre confirmé Avatar de Superzest 76
    Homme Profil pro
    Automaticien
    Inscrit en
    Septembre 2018
    Messages
    144
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 26
    Localisation : France, Seine Maritime (Haute Normandie)

    Informations professionnelles :
    Activité : Automaticien
    Secteur : Industrie

    Informations forums :
    Inscription : Septembre 2018
    Messages : 144
    Points : 519
    Points
    519
    Par défaut
    Citation Envoyé par Stan Adkens Voir le message
    [B][SIZE=4]

    L’ex-ingénieur logiciel de Google a averti que ce nouveau type d’armes pourrait accidentellement déclencher une guerre ou provoquer des atrocités de masse.
    Bof sur ça la machine à encore du chemin pour dépasser l'humain...
    “Cookie : Anciennement petit gâteau sucré, qu’on acceptait avec plaisir. Aujourd’hui : petit fichier informatique drôlement salé, qu’il faut refuser avec véhémence.”
    N'oubliez pas le si un message vous à aider a résoudre votre problème !

  15. #55
    Expert éminent Avatar de BufferBob
    Profil pro
    responsable R&D vidage de truites
    Inscrit en
    Novembre 2010
    Messages
    3 035
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : responsable R&D vidage de truites

    Informations forums :
    Inscription : Novembre 2010
    Messages : 3 035
    Points : 8 400
    Points
    8 400
    Par défaut
    Citation Envoyé par fodger Voir le message
    Je ne comprends même pas qu'on puisse travailler sur de tels sujets.
    c'est assez simple en fait, si toi dans ton pays tu décides de ne pas le faire, ton voisin lui le fera peut-être, et pourra alors avoir un avantage stratégique/technologique et éventuellement menacer ton pays.
    c'est tristement logique, et l'application directe de la sélection naturelle, si tu ne veux pas être en position d'être menacé, alors tu dois être dans le peloton de tête dans la course à l'armement dissuasif.

  16. #56
    Membre averti Avatar de Citrax
    Homme Profil pro
    Chargé d'affaire
    Inscrit en
    Juin 2014
    Messages
    188
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Chargé d'affaire
    Secteur : Conseil

    Informations forums :
    Inscription : Juin 2014
    Messages : 188
    Points : 385
    Points
    385
    Par défaut
    Rien ni personne ne pourra arrêter les fabricants d'armes
    La guerre n'est rien de plus qu'un trait de caractère des êtres humains.
    Par contre cet IA tueur seront tôt ou tard invité à réduire la population mondiale. Il ne faut pas se leurrer

    On appellera ça des bavures ou des blocs de programmation !
    "Pourquoi faire compliqué......quand on peut faire simple......"

  17. #57
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 535
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 535
    Points : 18 442
    Points
    18 442
    Par défaut
    Citation Envoyé par fodger Voir le message
    Je ne comprends même pas qu'on puisse travailler sur de tels sujets.
    La paranoïa. (ton ennemi est peut-être en train de développer un nouveau un type d'arme, donc tu dois le mettre au point avant lui, sinon tu vas avoir un désavantage)
    En plus c'est secret ce genre de chose, donc un gouvernement peut se mettre à imaginer que son ennemi développe n'importe quoi...

    Citation Envoyé par Citrax Voir le message
    Rien ni personne ne pourra arrêter les fabricants d'armes
    Ouais il doit y avoir encore un paquet de laboratoires qui bossent pour des gouvernements qui développent des armes interdites.
    Les USA doivent probablement encore bosser sur le virus Ebola et ce genre de chose. (si à la fin tu gagnes la guerre ce n'est pas grave )

    Citation Envoyé par Citrax Voir le message
    La guerre n'est rien de plus qu'un trait de caractère des êtres humains.
    Les seuls vainqueurs sont ceux qui prêtent l'argent et ceux qui vendent les armes.
    Ceux qui gouvernent décident de faire des guerres, c'est facile pour eux, ils ne vont pas beaucoup souffrir, ils ne vont pas mourir de faim ou quoi que ce soit.

    Citation Envoyé par Citrax Voir le message
    Par contre cet IA tueur seront tôt ou tard invité à réduire la population mondiale. Il ne faut pas se leurrer
    Pas forcément, les gens peuvent mourir de causes naturelles. Il parait que le changement climatique va provoquer des famines.
    Sinon il suffit de rendre la population stérile et attendre que les générations ne soient pas remplacées. T'évites de faire des morts comme ça.
    Keith Flint 1969 - 2019

  18. #58
    Membre averti
    Homme Profil pro
    Ingénieur de recherche
    Inscrit en
    Décembre 2011
    Messages
    68
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur de recherche
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2011
    Messages : 68
    Points : 342
    Points
    342
    Par défaut
    Est ce qu'il est humain de déployer des troupes humaines face à des robots tueurs ?

    C'est la question qui a été posé l'année dernière par le ministère de la défense.

    La réponse consensuelle(état major) semble être de dire qu'il faut être en capacité de développer rapidement ce genre d'arme si un ennemi identifié le fait.
    Donc il faut que le travail de recherche soit fait même si l'assemble final ne l'est jamais.

    C'est la loi de la guerre: "dura lex sed lex".

  19. #59
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 804
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 804
    Points : 50 740
    Points
    50 740
    Par défaut Course aux armements : l'ONU échoue à nouveau à interdire l'utilisation des robots tueurs autonomes
    Course aux armements : l’Organisation des Nations Unies échoue à nouveau dans l’établissement de règles internationales contraignantes
    Visant à interdire l’utilisation des robots tueurs autonomes

    La Convention des Nations unies sur certaines armes classiques s’est à nouveau penchée sur la question de l'interdiction des armes autonomes lors de sa dernière réunion d'examen quinquennale à Genève du 13 au 17 décembre 2021. Résultat : pas de consensus des parties prenantes sur l’établissement de règles internationales contraignantes visant à interdire l’utilisation des robots tueurs autonomes. Sur le terrain pourtant, des rapports font état de ce que la machine sait déjà prendre la décision d'appuyer sur la gâchette sans intervention humaine.

    Les avis demeurent partagés sur la question de savoir si les robots tueurs autonomes doivent faire l’objet d’interdiction. En effet, l'utilisation d'armes autonomes meurtrières est en discussion aux Nations unies depuis 2015, dans le cadre de la Convention sur certaines armes classiques (CCAC). Les pays pionniers dans le domaine des systèmes d'armes autonomes, dont la Russie, les États-Unis et Israël, rejettent une interdiction contraignante en vertu du droit international. Ces poids lourds militaires sont face à un groupe d'États qui réclament une législation contraignante dans le cadre de la campagne menée par les ONG pour arrêter les robots tueurs.

    « Tuer ou blesser des personnes sur la base de données collectées par des capteurs et traitées par des machines porterait atteinte à la dignité humaine. Human Rights Watch et d'autres organisations craignent que le fait de s'appuyer sur des algorithmes pour cibler des personnes déshumanise la guerre et érode notre humanité collective », lancent des intervenants du deuxième groupe pour l’interdiction des robots tueurs autonomes.

    Chaque pays poursuit donc avec le développement desdites armes autonomes. Les États-Unis et Israël par exemple sont sur des des projets de construction de nouveaux chars d'assaut autonomes et semi-autonomes destinés à être utilisés sur le champ de bataille. Du côté des USA, il s'agit de former une famille de chars d'assaut robotisés lourdement armés pour combattre aux côtés des humains, sur les champs de bataille du futur.

    Les véhicules sont prévus en trois classes de taille, dans trois degrés de létalité, dont léger, moyen et lourd, et pèseront jusqu'à 30 tonnes. Toute la famille des véhicules de combat robotisés utilisera des logiciels de navigation et des interfaces de commande communs déjà testés sur le terrain. Chaque variante utilisera les mêmes normes électroniques et mécaniques, une architecture ouverte dite modulaire, qui devrait permettre aux soldats sur le terrain de brancher et de faire fonctionner toute une gamme de charges utiles, des missiles aux générateurs de fumée en passant par les brouilleurs radio.

    Pour l'instant, les robots seront télécommandés par des humains, à distance, depuis leur base. Quant à l'Israël, le pays veut construire le Carmel, un char d'assaut qui sera équipé de contrôleurs Xbox et d'une IA perfectionnée avec les jeux “StarCraft II” et “Doom”. Des prototypes de ce futur véhicule de combat blindé (AFV) de l'armée israélienne ont été dévoilés publiquement en août 2019. Vu de l'extérieur, il ressemble à n'importe quelle arme de guerre classique. Il est enrobé de couches d'acier très épaisses, certaines colorées en kaki traditionnel, d'autres en noir.

    De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique la plus unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un adolescent.


    Ce nouvel échec des discussions à l’ONU fait suite à des sorties d’experts de la filière visant à avertir contre les dangers de l’utilisation des robots autonomes tueurs : « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre. Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes détournées pour se comporter de manière indésirable. Nous n'avons pas assez de temps pour agir. Une fois que cette boîte de Pandore est ouverte, il sera difficile de la fermer. »

    Source : Reuters

    Et vous ?

    Que pensez-vous de ces divergences dans les négociations sur l'interdiction des armes autonomes ?
    Avez-vous espoir que les négociations aboutissent à l'interdiction de ces armes ?

    Voir aussi :

    Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
    USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
    Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
    Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
    Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  20. #60
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 758
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 758
    Points : 7 176
    Points
    7 176
    Par défaut
    Les différentes parties sont déjà trop engagées dans leurs projets pour arrêter. Mais, pour la premières fois, les décideurs parlent de sécurité. source Ars Technica de fin novembre. En effet, qu'en serait-il si une personne malintentionnée ou un groupe terroriste venait à en prendre le contrôle ?...

    Ensuite peut-on faire confiance à Poutine, Israël ou les Etats-Unis pour en faire bon usage ? La plupart des conflits du XXIe siècle se passent dans des conditions de guerilla contre armée classique. Donc au milieu de populations civiles.
    Repeat after me
    Le monsieur lutte pour la défense des libertés individuelles et collectives

    Repeat after me...

Discussions similaires

  1. Réponses: 2
    Dernier message: 20/09/2023, 22h03
  2. Comment créer un avatar sur votre site Web, j'ai beau eu chercher je n'est pas trouvé !
    Par denis18 dans le forum Mode d'emploi & aide aux nouveaux
    Réponses: 1
    Dernier message: 21/07/2020, 10h28
  3. Réponses: 1
    Dernier message: 14/05/2019, 20h03
  4. Réponses: 1
    Dernier message: 03/08/2016, 18h19
  5. [XL-2000] Comment fermer un fichier excel si il est ouvert mais sans bug s'il n'est pas ouvert
    Par Avinetor dans le forum Macros et VBA Excel
    Réponses: 5
    Dernier message: 05/06/2009, 15h09

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo