Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    mars 2013
    Messages
    4 853
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : mars 2013
    Messages : 4 853
    Points : 125 969
    Points
    125 969
    Par défaut Un groupe de scientifiques demande l'interdiction du développement d'armes contrôlées par l'IA
    Un groupe de scientifiques demande l'interdiction du développement d'armes contrôlées par l'IA,
    qui sera responsable lorsqu’une machine va décider de prendre une vie humaine ?

    La question de l'utilisation de l'IA pour le développement des armes autonomes agite de plus en plus le monde scientifique et militaire. Et c'est d'autant plus sérieux à cause des tentatives de développement d'armes autonomes de la part des industriels. En août 2016 déjà, les États-Unis d'Amérique et l'armée irakienne testaient leurs prototypes d'arme autonome. De même, les experts de l'IA n'hésitent pas à s'opposer au développement de ces armes. En 2017, un groupe d'experts de l'IA a appelé le Canada et l'Australie à lutter pour l'interdiction des robots tueurs autonomes. L'ONU aussi ne cesse de militer contre ces armes. Il y a quelques mois, plus de 2400 professionnels de l’intelligence artificielle et de la robotique représentant 150 entreprises de 90 pays à travers le monde ont signé un engagement contre le développement des armes autonomes.

    En effet, à la Conférence mixte internationale sur l’intelligence artificielle de 2018 à Stockholm, un engagement a été signé pour exiger des gouvernements, des industries et des universités, la création « de normes, régulations et lois internationales contre les armes létales autonomes ». Le Future of Life Institute, organisateur de la Conférence, définit les armes létales autonomes, ou robots tueurs, comme des armes capables d’identifier, de cibler et de tuer une personne. « Ceci étant dit, aucun humain ne prend la décision finale d’autoriser la force létale », ajoute l’institut.

    « L’intelligence artificielle a un immense potentiel pour aider le monde si nous empêchons qu’on en abuse. Les armes contrôlées par intelligence artificielle qui décident en toute indépendance de tuer des gens sont aussi répugnantes et déstabilisantes que les armes biologiques, et donc, devraient être traitées de la même manière », avait alors déclaré Max Tegmark, le président de l’institut.

    En septembre dernier, le Parlement européen a adopté une résolution demandant une interdiction internationale des robots soi-disant tueurs. Il vise à anticiper le développement et l'utilisation de systèmes d'armes autonomes capables de tuer sans intervention humaine.

    Une position affirmée qui peut être expliquée par le fait que les négociations à l’ONU n’ont pas abouti à un consensus, certains pays ayant déclaré que les avantages des armes autonomes devaient être explorés.

    Néanmoins l’Europe n’est pas encore unanime. En effet, certains députés craignent que la législation ne limite les progrès scientifiques de l'intelligence artificielle. D’autres ont déclaré que cela pouvait devenir un problème de sécurité si certains pays autorisaient de telles armes alors que d’autres ne le faisaient pas.

    « Je sais que cela pourrait ressembler à un débat sur un futur lointain ou sur la science-fiction. Ce n'est pas le cas », a déclaré Federica Mogherini, chef de la politique étrangère et de sécurité de l'UE lors du débat au Parlement européen.

    Nom : killer-robot.jpg
Affichages : 2244
Taille : 26,3 Ko

    Au tour des scientifiques d'exprimer leurs craintes

    Un groupe de scientifiques a appelé à l'interdiction du développement d'armes contrôlées par l'intelligence artificielle. Le groupe insiste sur le fait que les armes autonomes peuvent mal fonctionner de manière imprévisible et tuer des innocents. Les experts en éthique soutiennent également que permettre à des systèmes boostés par une IA de tuer sans aucune intervention humaine ne relève pas de la morale.

    Ces commentaires ont été faits lors de la réunion de l’Association américaine pour le progrès de la science à Washington DC.

    Human Rights Watch (HRW) est l'une des 89 organisations non gouvernementales de 50 pays qui ont formé la Campagne pour arrêter le développement des robots tueurs, afin de faire pression pour un traité international.

    Mary Wareham, de HRW, fait partie des principaux acteurs de l'interdiction mondiale.

    « Nous ne parlons pas de robots Terminator en marche qui parlent et qui sont sur le point de conquérir le monde; ce qui nous inquiète est beaucoup plus imminent: des systèmes d'armes classiques, mais qui disposent d’une autonomie », a-t-elle déclaré à BBC News.

    « Ils commencent à s’infiltrer. Les drones en sont un exemple évident, mais il existe également des avions militaires qui décollent, volent et atterrissent par eux-mêmes; des sentinelles robotiques capables d’identifier les mouvements. Ce sont des précurseurs d’armes autonomes ».

    Nom : militaire.png
Affichages : 1562
Taille : 300,0 Ko

    Ryan Gariepy, directeur des technologies chez Clearpath Robotics, soutient la proposition d'interdiction.

    Son entreprise accepte des contrats militaires, mais elle a dénoncé les systèmes d'IA pour la guerre et déclaré qu'elle ne les développerait pas.

    « Quand ils échouent, ils échouent de manière imprévisible », a-t-il déclaré à BBC News.

    « Aussi avancés que nous soyons, l’état de l’intelligence artificielle est vraiment limité par la reconnaissance d’image. C’est bien, mais elle n’a ni les détails ni le contexte pour être juge, jury et bourreau sur un champ de bataille. Un système autonome ne peut pas prendre la décision de tuer ou de ne pas tuer en vase clos. La décision a été prise de facto par des développeurs, des programmeurs et des scientifiques qui n'ont aucune idée de la situation dans laquelle l'arme est déployée ».

    Qui est responsable lorsqu’une machine décide de prendre une vie humaine ?

    Une autre grande question se pose: qui est responsable lorsqu'une machine décide de prendre une vie humaine ? Est-ce la personne qui a fabriqué la machine ?

    Selon Peter Asaro, de la New School à New York, un tel scénario soulève des problèmes de responsabilité juridique si le système commet un homicide illégal.

    « La délégation de pouvoir de tuer à une machine n'est pas justifiée et constitue une violation des droits de l'homme, car les machines ne sont pas des agents moraux et ne peuvent donc pas être tenues pour prendre des décisions de vie ou de mort. Il se peut donc que les personnes qui ont fabriqué l'arme autonome en soient responsables ».

    Mais tout le monde n'est pas prêt à dénoncer pleinement l'utilisation de systèmes d'armes contrôlés par l'IA. Les États-Unis et la Russie faisaient partie des pays qui se sont opposés à une interdiction totale des armes autonomes après une semaine de négociations à Genève en septembre.

    Nom : genius.png
Affichages : 1573
Taille : 96,3 Ko

    Une campagne pour demander l’arrêt du développement des robots tueurs

    Dans une campagne, les défenseurs des droits essayent de sensibiliser le public pour l'amener à faire pression sur les dirigeants et changer de direction.

    Ils identifient les problèmes :
    • Des armes entièrement autonomes décideraient qui vit et meurt, sans autre intervention humaine, ce qui dépasse un seuil moral. En tant que machines, ils n'auraient pas les caractéristiques humaines intrinsèques, telles que la compassion, nécessaire pour faire des choix éthiques complexes.
    • Les États-Unis, la Chine, Israël, la Corée du Sud, la Russie et le Royaume-Uni développent des systèmes d'armes dotés d'une grande autonomie dans les fonctions critiques de sélection et d'attaque de cibles. Si rien n'était fait, le monde pourrait se lancer dans une course aux armements robotique déstabilisante.
    • Le remplacement des troupes par des machines pourrait faciliter la décision d'entrer en guerre et faire porter le fardeau du conflit encore plus loin aux civils. Des armes entièrement autonomes feraient des erreurs tragiques aux conséquences imprévues qui pourraient attiser les tensions.
    • Les armes entièrement autonomes manqueraient du jugement humain nécessaire pour évaluer la proportionnalité d'une attaque, distinguer les civils des combattants et se conformer aux autres principes fondamentaux du droit de la guerre. L'histoire montre que leur utilisation ne serait pas limitée à certaines circonstances.
    • Il est difficile de savoir qui, le cas échéant, pourrait être tenu responsable d'actes illicites causés par une arme totalement autonome: le programmeur, le fabricant, le commandant et la machine elle-même. Cette lacune en matière de responsabilité rendrait difficile la justice, en particulier pour les victimes.
    • Des armes entièrement autonomes pourraient être utilisées dans d’autres circonstances en dehors d’un conflit armé, telles que le contrôle des frontières et la police. Ils pourraient être utilisés pour supprimer les régimes de protestation et de soutien. La force destinée à être non létale pourrait toujours causer de nombreux décès.

    Et ils proposent ceci :
    • Conserver un contrôle humain significatif sur les décisions de ciblage et d'attaque en interdisant le développement, la production et l'utilisation d'armes totalement autonomes. Légiférer l'interdiction par le biais de lois nationales et de traités internationaux.
    • Tous les pays devraient exprimer leurs points de vue sur les préoccupations soulevées par des armes pleinement autonomes et s'engager à créer un nouveau traité d'interdiction établissant le principe d'un contrôle humain effectif sur l'utilisation de la force.
    • Toutes les entreprises et organisations technologiques, ainsi que les personnes travaillant au développement de l'intelligence artificielle et de la robotique, devraient s'engager à ne jamais contribuer au développement d'armes entièrement autonomes.


    Sources : BBC, campagne

    Et vous ?

    Que pensez-vous des arguments avancés par les scientifiques pour appeler à l'interdiction du développement de ce type d'armes ?
    Qui devrait-être responsable lorsqu'une machine va décider de prendre une vie humaine ?
    Etant donné qu'il s'agit de machines, peut-on envisager également un piratage de ces armes ?

    Voir aussi :

    Thalès, le leader français de la sécurité et la défense refuse de concevoir des robots tueurs autonomes et appelle à une législation internationale
    Que se passera-t-il si des robots tueurs sont piratés ou détournés ? La question fait débat au sein de la communauté scientifique
    L'Europe estime qu'une IA ne doit pas avoir le droit de vie ou de mort sur le champ de bataille et appelle à interdire les robots-tueurs
    Interdiction des robots tueurs : quelques pays, y compris les USA et la Russie, bloquent les négociations menées au niveau des Nations Unies
    Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre actif Avatar de Citrax
    Homme Profil pro
    Chargé d'affaire
    Inscrit en
    juin 2014
    Messages
    149
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Chargé d'affaire
    Secteur : Conseil

    Informations forums :
    Inscription : juin 2014
    Messages : 149
    Points : 260
    Points
    260
    Par défaut Too late
    Raisonnement pas très cohérent puisque n'importe quel IA fonctionnelle pourra prendre le contrôle de n'importe quel matériel évolué.
    C'est déjà trop tard mais l'idée de loi n'est pas mal et pour une fois montre que quelqu'un est prêt à se bouger les fesses.
    "Pourquoi faire compliqué......quand on peut faire simple......"

  3. #3
    Membre chevronné

    Profil pro
    Inscrit en
    janvier 2011
    Messages
    1 850
    Détails du profil
    Informations personnelles :
    Localisation : France, Nord (Nord Pas de Calais)

    Informations forums :
    Inscription : janvier 2011
    Messages : 1 850
    Points : 2 058
    Points
    2 058
    Par défaut
    Les missiles à tête chercheuse avec 54 points d'impacts possible cela ne parle à personne ?

    C'est de L'IA depuis les années 1990/2000 ...

  4. #4
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    décembre 2008
    Messages
    6 120
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : décembre 2008
    Messages : 6 120
    Points : 9 469
    Points
    9 469
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    « L’intelligence artificielle a un immense potentiel pour aider le monde si nous empêchons qu’on en abuse. Les armes contrôlées par intelligence artificielle qui décident en toute indépendance de tuer des gens sont aussi répugnantes et déstabilisantes que les armes biologiques, et donc, devraient être traitées de la même manière », avait alors déclaré Max Tegmark, le président de l’institut.
    Vous pouvez interdire les armes que vous voulez ça n'empêchera jamais les gouvernements de les développer en secret.
    Les scientifiques ont également prévenu des dangers de l'arme nucléaire et des armes chimiques et ça n'a pas empêcher les USA de les utiliser...
    Bombe atomique, napalm, agent orange, phosphore blanc, munition à uranium appauvri, tout ça a été utilisé par l'armée US par exemple.

    Les USA, Israël, la Chine, etc, vont tous continuer de développer des armes autonomes.
    Mais c'est vrai que c'est flippant de s'imaginer des drones autonome armés de fusils d’assauts, ils seront plus rapide et plus précis que des humains.

    Citation Envoyé par Stéphane le calme Voir le message
    Une autre grande question se pose: qui est responsable lorsqu'une machine décide de prendre une vie humaine ? Est-ce la personne qui a fabriqué la machine ?
    (...)
    « La délégation de pouvoir de tuer à une machine n'est pas justifiée et constitue une violation des droits de l'homme, car les machines ne sont pas des agents moraux et ne peuvent donc pas être tenues pour prendre des décisions de vie ou de mort. Il se peut donc que les personnes qui ont fabriqué l'arme autonome en soient responsables ».
    J'ai déjà vu cette question dans un documentaire qui a déjà plusieurs années.
    Keith Flint 1969 - 2019

  5. #5
    Membre éprouvé
    Homme Profil pro
    Ingénieur R&D
    Inscrit en
    mai 2016
    Messages
    307
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Ingénieur R&D
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : mai 2016
    Messages : 307
    Points : 1 192
    Points
    1 192
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    ...
    Que pensez-vous des arguments avancés par les scientifiques pour appeler à l'interdiction du développement de ce type d'armes ?
    Qui devrait-être responsable lorsqu'une machine va décider de prendre une vie humaine ?
    Etant donné qu'il s'agit de machines, peut-on envisager également un piratage de ces armes ?
    ...
    Plutôt que "Terminator" pour la référence SF, "Planète hurlante", film sorti en 1995, inspiré d'une nouvelle de P.K.Dick.

    On peut toujours interdire, mais je ne vois pas bien concrêtement comment on pourrait empêcher ces développements et la fabrication, ce n'est pas aussi détectable que des essais nucléaires (et même dans ce cas, les Etats peuvent passer outre).
    Mais on peut quand même essayer d'en limiter l'utilisation sur le terrain, en se basant sur le précédent des mines anti-personnelles, par exemple.
    A l'issue d'une longue campagne, ça finit par être interdit, mais tous les pays n'ont pas signé l'accord, il y en a toujours des millions dans les arsenaux, et peut-être bien qu'en cas de sérieux conflit généralisé, elles seraient quand même utilisées.

    Responsabilité : les décideurs et utilisateurs, bien sûr, au minimum.
    Plus difficile à apprécier est le niveau de responsabilité des concepteurs, les ingénieurs et techniciens qui conçoivent ces systèmes, qui n'ont pas nécessairement la vision d'ensemble dans une organisation cloisonnée, suivant leur place dans la hiérarchie.
    Pour ce qui est de l'aspect moral, même si certaines armes paraissent indéfendables lorsqu'il s'agit d'alimenter le commerce d'armement, ce n'est pas tout noir ou tout blanc en contexte défense nationale, en dépassant un peu le niveau "la guerre et les armes, c'est mal", en cas de menace crédible d'un territoire national.

  6. #6
    Membre actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    février 2006
    Messages
    105
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Vendée (Pays de la Loire)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : Industrie

    Informations forums :
    Inscription : février 2006
    Messages : 105
    Points : 290
    Points
    290
    Par défaut
    C'est bien d'interdire les armes qui serve à s'entretuer, ça c'est sûr.
    Mais il y a déjà du travail a faire dans ce cas avec celle qui existent déjà :
    Les mines anti-personnelle, elles choisissent d'exploser quand elles subissent une trop forte contrainte, mais un enfant de 30-40Kg suffit à passer le seuil et donc blesser voir tuer l'enfant et tous ceux qui sont dans un rayon proche. Elles ont donc une IA passive si on veut. Et qui est responsable là aussi le constructeur, le poseur, ou l'enfant bah oui tiens il n'avait qu'a pas être là, m'enfin un jour on ne pourra plus vivre nulle part sur terre avec se genre de raisonnement.
    Et c'est pas la peine de sortir du pays pour voir des atrocités
    En 2014, une bombe de 39-45 tuait un jeune de 26 ans sur une plage française
    https://www.francebleu.fr/infos/fait...ave-1410067301

    la guerre avec des armes qui tuent c'est mal
    Jouons à la guerre c'est plus drôle, il y a des milliers de façon de le faire en s'amusant et battons nous en cogitant et transpirant sur des terrains non piégé pour nous élever.

    Ces personnes qui meurt injustement ça peut être toi, moi, ton fils, ta mère, etc... Mais les gens qui construise des armes n'aiment pas les autres c'est obligé, je préfèrerais mourir de faim que de fabriquer des armes. Franchement je ne comprends pas.

    Et demain ce seront des robots qui fabriqueront des armes et là je comprendrais si les robots n'ont pas d'âmes.

  7. #7
    Expert éminent sénior
    Profil pro
    Inscrit en
    décembre 2007
    Messages
    5 935
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations forums :
    Inscription : décembre 2007
    Messages : 5 935
    Points : 27 207
    Points
    27 207
    Par défaut
    ça aura autant d'impact que l'interdiction des arbalètes par le deuxième concile de Latran en 1139. Déjà, à l'époque, on pouvait tuer lâchement, aléatoirement, et arbitrairement, et aucune interdiction n'a eu la moindre influence.
    Les 4 règles d'airain du développement informatique sont, d'après Michael C. Kasten :
    1)on ne peut pas établir un chiffrage tant qu'on a pas finalisé la conception
    2)on ne peut pas finaliser la conception tant qu'on a pas complètement compris toutes les exigences
    3)le temps de comprendre toutes les exigences, le projet est terminé
    4)le temps de terminer le projet, les exigences ont changé
    Et le serment de non-allégiance :
    Je promets de n’exclure aucune idée sur la base de sa source mais de donner toute la considération nécessaire aux idées de toutes les écoles ou lignes de pensées afin de trouver celle qui est la mieux adaptée à une situation donnée.

  8. #8
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    décembre 2008
    Messages
    6 120
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : décembre 2008
    Messages : 6 120
    Points : 9 469
    Points
    9 469
    Par défaut
    Citation Envoyé par el_slapper Voir le message
    aucune interdiction n'a eu la moindre influence.
    Ainsi, considérant que l’arbalète, qui n’exige pas une grande formation, permet à des soldats peu aguerris de tuer de loin un chevalier en armure qui a voué son existence au métier de la guerre, le clergé estime que c’est une arme immorale pour le peu de courage et de formation qu’elle exige de celui qui la manie. « Les Français la regardaient comme l’arme des lâches et refusaient de s’en servir. Avec cette arme perfide, disaient-ils, un poltron peut tuer sans risque le plus vaillant homme. »
    Le pape et les français avaient raison
    L'arbalète est une arme très puissante et facile à manier. Elle fut interdite par le pape Innocent II en 1143 dans les guerres catholiques car elle était vue comme déloyale et immorale : elle permettait à n'importe quel gueux de tuer facilement un chevalier à distance. C'est d'ailleurs ce qui arrivera au roi Richard Cœur de Lion, tué des suites d'une blessure par un carreau en 1199.
    Les français avaient un gros code de l'honneur à l'époque.
    Keith Flint 1969 - 2019

  9. #9
    Membre éprouvé
    Homme Profil pro
    Ingénieur R&D
    Inscrit en
    mai 2016
    Messages
    307
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Ingénieur R&D
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : mai 2016
    Messages : 307
    Points : 1 192
    Points
    1 192
    Par défaut
    La chevalerie française a été anéantie à la bataille d'Azincourt en 1415, une des pires défaites de notre histoire, et les archers anglais y ont bien contribué, avec un arc d'une grande puissance (le "long bow")...

    Pour ce qui est des interdictions, il y a quand même eu quelques succès dans l'histoire récente. Enfin, pour l'instant en tout cas.
    Le TNP a permis de limiter la prolifération d'armes nucléaires, personne n'a même osé utilisé des armes tactiques de faible puissance, les armes bactériologiques n'ont pas dépassé le niveau des essais. L'usage des armes chimiques n'a pas disparu mais reste exceptionnel et vite condamné.
    Depuis un peu plus d'une vingtaine d'années, ce sont les mines anti-personnelles dont l'usage régresse.
    Je ne pense pas qu'on puisse empêcher le développement de robot tueurs autonomes, mais une campagne suffisamment percutante pourrait en rendre la généralisation plus difficile, au moins dans des conflits extérieurs.

  10. #10
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    décembre 2008
    Messages
    6 120
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : décembre 2008
    Messages : 6 120
    Points : 9 469
    Points
    9 469
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Etant donné qu'il s'agit de machines, peut-on envisager également un piratage de ces armes ?
    Aucun système n'est infaillible à 100%, il n'y a pas que les humains qui ont des failles .
    Bon après ça dépend si c'est vraiment un truc autonome et que ça ne peut pas communiquer avec l’extérieur c'est plus difficile à pirater.

    Ça me rappelle quand l'Iran a capturé un drone US (qui volait illégalement sur le territoire iranien) :
    L'Iran dévoile un drone copié sur un modèle américain capturé en 2011
    L'agence semi-officielle Tasnim a rendu publique, samedi, des images d'un engin copié sur le drone sentinelle RQ-170 américain, dont l'Iran avait capturé un exemplaire en 2011.
    Keith Flint 1969 - 2019

  11. #11
    Membre éprouvé

    Homme Profil pro
    Architecte réseau
    Inscrit en
    avril 2018
    Messages
    516
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Essonne (Île de France)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : avril 2018
    Messages : 516
    Points : 1 241
    Points
    1 241
    Billets dans le blog
    1
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Ça me rappelle quand l'Iran a capturé un drone US (qui volait illégalement sur le territoire iranien) :
    L'Iran dévoile un drone copié sur un modèle américain capturé en 2011
    Quand l'Iran a annoncé ça, je me souviens qu'un type du Pentagone avait dit que ça allait apporter la preuve à de nombreux Iraniens que la Terre n'est pas plate
    Je suis pas sensible à l'humour des militaires, mais celle-là, j'avais beaucoup apprécié

    -VX

  12. #12
    Expert éminent sénior
    Profil pro
    Inscrit en
    décembre 2007
    Messages
    5 935
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations forums :
    Inscription : décembre 2007
    Messages : 5 935
    Points : 27 207
    Points
    27 207
    Par défaut
    Citation Envoyé par wolinn Voir le message
    La chevalerie française a été anéantie à la bataille d'Azincourt en 1415, une des pires défaites de notre histoire, et les archers anglais y ont bien contribué, avec un arc d'une grande puissance (le "long bow")...
    Moui, leurs arcs étaient haut de gamme, certes, mais il fallait toute une vie pour les maitriser. Si tu regarde le déroulé de la bataille, de toutes façons, la qualité des arcs était assez anecdotiques.

    1. les Anglais se planquent derrière une gadoue infâme, et rajoutent des barrières pour empêcher une charge de chevalerie
    2. le commandement Français voit ça, et envoie ses mercenaires arbalétriers, payés à prix d'or, en avant, pour affaiblir l'ennemi de loin
    3. les chevaliers Français, impatients et impatients de prouver leur bravoure, chargent, écrabouillant leurs propres arbalétriers
    4. les chevaliers Français sont stoppés bien plus par l'infâme gadoue que par les minables fortifications anglaises. Ils prennent quelques flèches au passage(qui étaient destinées aux arbalétriers)
    5. les archers anglais mettent leurs arcs en bandoulière, et vont égorger les chevaliers français - dont la grande majorité est encore vivante, coincée dans les armures et la gadoue - avec leurs dagues


    Avec une chevalerie disciplinée, les Français auraient pu s'en sortir. Mais bon, la discipline, c'est bon pour la piétaille..... Cette bataille a sonné la fin de la chevalerie Française, et la prise de pouvoir(faute d'opposition), au sein de l'Ost, du prolétariat ingénieux, partisan de l'efficacité, des machines de guerres et de la poudre à canon. Ce sont des armes à feu qui, 34 ans plus tard, ont permis de mettre un terme à la guerre de cent ans. Au détriment des archers anglais.

    Citation Envoyé par wolinn Voir le message
    Le TNP a permis de limiter la prolifération d'armes nucléaires, personne n'a même osé utilisé des armes tactiques de faible puissance, les armes bactériologiques n'ont pas dépassé le niveau des essais. L'usage des armes chimiques n'a pas disparu mais reste exceptionnel et vite condamné.
    C'est surtout que l'arme nucléaire est (1) peu évidente à mettre au point, et (2) présente des inconvénients majeurs ) l'emploi. Les doctrines d'emploi sont strictement défensives(on attaque pas un pays qu'on vient de nucléariser, pour des raisons évidentes), et tellement dissuasives que personne n'attaque de front un pays nucléaire

    Citation Envoyé par wolinn Voir le message
    Depuis un peu plus d'une vingtaine d'années, ce sont les mines anti-personnelles dont l'usage régresse.
    Certes. Mais là, l'intérêt des pays fabricants n'était pas aligné avec l'intérêt des pays utilisateurs. On a juste vendu d'autres armes. Ca a partiellement marché parce-qu'assez de gens y avaient un intérêt.

    Citation Envoyé par wolinn Voir le message
    Je ne pense pas qu'on puisse empêcher le développement de robot tueurs autonomes, mais une campagne suffisamment percutante pourrait en rendre la généralisation plus difficile, au moins dans des conflits extérieurs.
    En même temps, c'es stratégique, donc assez peu de pays vont autoriser la vente à des pays tiers. Pour leur usage personnel, en revanche...
    Les 4 règles d'airain du développement informatique sont, d'après Michael C. Kasten :
    1)on ne peut pas établir un chiffrage tant qu'on a pas finalisé la conception
    2)on ne peut pas finaliser la conception tant qu'on a pas complètement compris toutes les exigences
    3)le temps de comprendre toutes les exigences, le projet est terminé
    4)le temps de terminer le projet, les exigences ont changé
    Et le serment de non-allégiance :
    Je promets de n’exclure aucune idée sur la base de sa source mais de donner toute la considération nécessaire aux idées de toutes les écoles ou lignes de pensées afin de trouver celle qui est la mieux adaptée à une situation donnée.

Discussions similaires

  1. Réponses: 3
    Dernier message: 03/07/2013, 17h57
  2. Réponses: 3
    Dernier message: 15/09/2008, 21h04

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo