Qui est étonné ?C'est dans la logique des choses !
Qui est étonné ?C'est dans la logique des choses !
Je ne comprends même pas qu'on puisse travailler sur de tels sujets.
c'est assez simple en fait, si toi dans ton pays tu décides de ne pas le faire, ton voisin lui le fera peut-être, et pourra alors avoir un avantage stratégique/technologique et éventuellement menacer ton pays.
c'est tristement logique, et l'application directe de la sélection naturelle, si tu ne veux pas être en position d'être menacé, alors tu dois être dans le peloton de tête dans la course à l'armement dissuasif.
La paranoïa. (ton ennemi est peut-être en train de développer un nouveau un type d'arme, donc tu dois le mettre au point avant lui, sinon tu vas avoir un désavantage)
En plus c'est secret ce genre de chose, donc un gouvernement peut se mettre à imaginer que son ennemi développe n'importe quoi...
Ouais il doit y avoir encore un paquet de laboratoires qui bossent pour des gouvernements qui développent des armes interdites.
Les USA doivent probablement encore bosser sur le virus Ebola et ce genre de chose. (si à la fin tu gagnes la guerre ce n'est pas grave)
Les seuls vainqueurs sont ceux qui prêtent l'argent et ceux qui vendent les armes.
Ceux qui gouvernent décident de faire des guerres, c'est facile pour eux, ils ne vont pas beaucoup souffrir, ils ne vont pas mourir de faim ou quoi que ce soit.
Pas forcément, les gens peuvent mourir de causes naturelles. Il parait que le changement climatique va provoquer des famines.
Sinon il suffit de rendre la population stérile et attendre que les générations ne soient pas remplacées. T'évites de faire des morts comme ça.
Rien ni personne ne pourra arrêter les fabricants d'armes
La guerre n'est rien de plus qu'un trait de caractère des êtres humains.
Par contre cet IA tueur seront tôt ou tard invité à réduire la population mondiale. Il ne faut pas se leurrer
On appellera ça des bavures ou des blocs de programmation !
Est ce qu'il est humain de déployer des troupes humaines face à des robots tueurs ?
C'est la question qui a été posé l'année dernière par le ministère de la défense.
La réponse consensuelle(état major) semble être de dire qu'il faut être en capacité de développer rapidement ce genre d'arme si un ennemi identifié le fait.
Donc il faut que le travail de recherche soit fait même si l'assemble final ne l'est jamais.
C'est la loi de la guerre: "dura lex sed lex".
encore mieux pour certain que les drône... ça ne sera pu de leur faute...
la prise de territoire à la palestine risque d'être plus rapide.... ca sera quoi la nouvelle excuse...
Ah un petit T-800 dans certaines cités, cela ferait un nettoyage rapide, et pas de blessés parmi les forces de l'ordre, qui dit mieux![]()
Ceux qui financent les Nations-Unis sont les mêmes que ceux qui fabriquent des armes. Cette demande est donc caduque, c'est pour amuser la plèbe et alimenter la presse.
Il faut en finir avec cette hypocrisie. Une fois qu'une arme a été crée, elle sera utilisée. Point, barre. Les robots sont extrêmement tentants, comment résister ? Ils sont redoutablement faciles à construire à partir de composants du marché, tant hard que soft, bon marchés et efficaces.
Même si l'ONU gesticule un brin, n'importe quel groupe de plus de 0 personnes est capable de se construire un bidule mortel au fond de son garage. Le tout est de le savoir, et de réfléchir à la manière de s'en prémunir, ce qui oblige à être créatif. C'est sans doute là que ça cloche, si les politiciens étaient doués, ça se saurait.
Il faut avoir conscience d'une chose, c'est que les grandes armées ne veulent pas être dépassées technologiquement, il y a la paranoïa "si mes ennemis développent cette arme, ils auront un avantage, donc je dois développer cette arme avant eux".
Comme avec les bombes atomiques par exemple, Einstein et ses potes se sont pointé aux USA, ils ont convaincu le gouvernement que les allemands allaient essayer de faire une arme en utilisant l'énergie nucléaire, du coup il y a eu le projet Manhattan.
Les USA ont ensuite pu tester 2 technologies de bombe nucléaire sur des civils d'un pays qui voulait se rendre. Histoire de terroriser la terre entière, en montrant ce qui arrive quand on ne se soumet pas totalement aux USA.
En ce moment nous sommes dans une ambiance de guerre froide, il y a des tensions entre les USA d'un côté et la Chine et la Russie de l'autre.
On sait que l'intelligence artificielle va jouer un rôle dans la prochaine grande guerre.
On en a bien conscience mais ça n'empêche pas le problème.
On a là, aux commandes, des types qui ne sont intéressés que par la comparaison des distances relatives auxquelles ils sont capables de pisser. Infoutu capables de se réunir autour d'une table et de se dire "Bon, les gars, on sait tous que n'importe lequel d'entre nous, s'il éternue trop fort, va raser le système solaire jusqu'à Uranus. Donc calmons nous un instant, prenons le thé et réfléchissons en adultes responsables pour faire descendre la tension d'un cran".
Ce sont des psychopathes mégalomanes. Point. Et ça pose un gros problème, quand même.
La trajectoire de l'armement ressemble à celui de la finance et, d'ici à ce que le gros bouton rouge soit confié à une intelligence artificielle, seule capable de prendre une décision et d'agir en 1ns, il n'y a pas des km.
Après, une IA sera peut-être plus sage que l'homme mais j'ai du mal à concevoir qu'une créature puisse être plus sage que son créateur. Du moins tant qu'elle ne s'en est pas émancipée totalement.
Il y a bien le nucléaire qui peut faire des dégâts sur terre, mais normalement il y a une logique "si tu m'envoies une bombe atomique, je t'envoie une bombe atomique, et on s'autodétruit". Ils appellent ça "équilibre de la terreur".
Du coup personne d'autres que les USA n'utiliseront cette technologie. Bon après il y a un truc louche, par exemple israël doit posséder plus de 150 têtes nucléaires, et je ne vois pas l'intérêt d'en avoir autant vu qu'elles ne serviront jamais.
Les robots tueurs ne devraient tués que des humains et d'autres robots tueurs, donc ça va, ça n'aura pas un impact trop négatif sur l'environnement.
De toute façon si l'ONU avait interdit ces armes elles auraient quand même été utilisées.
Par exemple les USA ont utilisés plein d'armes interdites (Napalm, Agent Orange, munition à l'uranium appauvri, phosphore blanc, balle à pointe creuse, etc).
Un drone de police à taser serait ideal à la place des forces de l'opération sentinelle dans le cadre de VIGIPIRATE
Pire : les armes nucléaires sont interdites depuis que le traité à ce sujet a été signé par le 50 ème état il y a un an :
franceculture.fr les-enjeux-internationaux traite-sur-linterdiction-des-armes-nucleaires ...
Mais cela n'a rien changé jusqu'à présent car les dirigeants et "représentants" mégalomanes de tous les états ayant ces armes sont contre, y compris en France, pays bien connu comme en pointe sur les droits de l'Homme![]()
![]()
Et apparemment 99,9 % de la population mondiale l'ignore ou se comporte étrangement comme si la perspective d'une conflagration sans précédent signant peut-être une fin de l'espèce humaine ou en tout cas des horreurs sans précédent leur était indifférente![]()
L'impuissance fréquente de l'ONU ne concerne pas que cette question.
Le principe même du Conseil de Sécurité, où certains états ont un droit de veto, est défectueux.
Un exemple extrême et qui ne pas préoccuper grand monde est qu'en principe les armes nucléaires sont interdites depuis le 23 janvier 2021 (signature par un cinquantième état du traité d'interdiction).
Résultat zéro.
Tous les états ayant l'arme atomique sont contre. Les "états", c'est à dire les dirigeants, diplomates, etc, ne demandant pas l'avis des populations.
Cette situation est certes affaire de mégalomanie et de gros intérêts.
Mais aussi de la société dans son ensemble. Combien de gens se préoccupent réellement des pires menaces comme celle-ci ou celle évoquée par l'article et sont réellement pour un désarmement multilatéral, le font savoir et en tiennent compte, par exemple lors des élections dans les pays où il y en a ?
Parfois je me demande si l'espèce humaine n'est pas près d'atteindre son "niveau d'incompétence" comme disait un livre connu, dans une optique plus individuelle.
Elle l'a déjà fait depuis longtemps. Une organisation qui met en place des mégalomanes aux commandes ne peut pas s'attendre à aller bien.
De nombreux rapports existent qui indiquent clairement que notre situation écologique actuelle était déjà identifiées il y a 50 ans. EXXON, Total, le modèle Word3 (qui, bien que très sommaire par rapport à ce que fait le GIEC donnait le même résultat dans les grandes lignes)...
Et qu'on fait les dirigeants ? Plutôt que de s'inquiéter et d'essayer de trouver des voies de sorties de crises (très étroites d'après les résultats de world3), ils ont fait du lobbying intense pour dissimuler cette situation voire affirmer l'inverse.
Ces gens devraient être mis en prison pour des siècles. Eux leur familles et tous leurs amis (à l'ancienne). On s'acharne sur quelques types qui lancent des alertes ou copient des mp3 mais on laisse en liberté, avec des millions, si ce n'est des milliards, des types qui ont sciemment envoyé toute l'humanité dans un impasse.
Donc la conclusion est clair. L'humanité se développe de façon totalement incontrôlée et quand un organisme se développe de façon incontrôlée dans un espace limité, cela finit mal.
James Cameron, créateur de Terminator, affirme que l'IA a pris le pouvoir,
et qu'il est déjà trop tard
Dans les cas où les humains ne peuvent pas suivre le rythme des conflits modernes, les machines prennent le relais. Après avoir réalisé de nombreuses superproductions, le réalisateur James Cameron estime que l'intelligence artificielle est peut-être en passe de rendre réels des événements similaires à ceux de Terminator.
Lorsqu'une grenade propulsée par fusée se dirige vers un véhicule terrestre blindé, un système automatisé embarqué à bord du véhicule identifie la menace, la suit et déclenche une contre-mesure pour l'intercepter, le tout avant même que l'équipage à l'intérieur n'en soit conscient. De même, les navires de l'US Navy équipés du système de combat Aegis peuvent activer le mode Auto-Special, qui élimine automatiquement les ogives en approche selon des règles soigneusement programmées.
Près de quarante ans après la sortie du premier film Terminator en 1984, qui décrivait l'augmentation des capacités des IA dans leur propre quête de destruction de la race humaine, Cameron pense que nous sommes plus proches de l'essor de la technologie qu'on ne le pensait auparavant. En tant que réalisateur de films farfelus, mais acclamés par la critique, tels que Aliens et Avatar, Cameron a prouvé qu'il s'interrogeait beaucoup sur l'avenir de la technologie et sur ce qu'elle pourrait signifier pour le monde.
Les armées, comme les constructeurs automobiles, ont progressivement donné plus de liberté aux machines. Lors d'un exercice organisé en 2019, les États-Unis ont montré comment l'automatisation pouvait être utilisée tout au long de ce que l'on appelle la « chaîne de la mort » : un satellite a repéré un faux navire ennemi et a demandé à un avion de surveillance de se rapprocher pour confirmer l'identification ; l'avion de surveillance a ensuite transmis ses données à un avion de commandement et de contrôle aéroporté, qui a sélectionné un destroyer naval pour mener une attaque. Dans ce scénario, l'automatisation a permis aux officiers situés à l'extrémité de la chaîne d'exécution de disposer de plus de temps pour prendre une décision en connaissance de cause, à savoir s'il fallait ou non tirer sur le navire ennemi.
Les militaires ont une raison impérieuse de maintenir l'implication des humains dans les décisions mortelles. D'une part, ils constituent un rempart contre les dysfonctionnements et les interprétations erronées des données ; ils s'assureront, avant d'appuyer sur la gâchette, que le système automatisé n'a pas mal identifié un navire ami ou neutre. Toutefois, même les formes les plus avancées d'intelligence artificielle ne peuvent pas comprendre le contexte, faire preuve de jugement ou réagir à des situations inédites aussi bien qu'une personne. Les humains sont plus aptes à pénétrer dans l'esprit d'un commandant ennemi, à voir clair dans une feinte ou à savoir quand attaquer.
Lors d'une apparition sur le podcast SmartLess, animé par les acteurs Will Arnett, Jason Bateman et Sean Hayes, le réalisateur James Cameron s'est exprimé sur la possibilité d'un soulèvement des machines, comme dans Terminator.
Reconnaissant la progression des avancées technologiques au cours des dernières décennies, Cameron a admis qu'il n'avait pas peur, mais qu'il était « plutôt préoccupé par le potentiel d'utilisation abusive de l'IA ».
En 2016, Robert Work, alors secrétaire adjoint à la défense, a formulé cette énigme en termes simples : "Si nos concurrents optent pour des Terminators, a-t-il demandé, et s'il s'avère que les Terminators sont capables de prendre des décisions plus rapidement, même si elles sont mauvaises, comment réagirions-nous ? Les Terminators ne sortent pas encore des chaînes de montage, mais chaque nouvelle génération d'armes semble nous en rapprocher. Et si aucun pays n'a déclaré son intention de construire des armes entièrement autonomes, rares sont ceux qui y ont renoncé. Les risques liés à la guerre à la vitesse des machines sont bien plus importants qu'un simple missile errant.
Des spécialistes militaires chinois ont émis l'hypothèse d'une « singularité du champ de bataille », c'est-à-dire d'un point où le combat évolue plus vite que la cognition humaine. Dans cet état d' « hyper-guerre », comme l'ont surnommé certains stratèges américains, des escalades involontaires pourraient rapidement échapper à tout contrôle.
Le « flash crash » de 2010 sur les marchés boursiers offre un parallèle utile : des algorithmes de négociation automatisés ont contribué à une perte temporaire de près de mille milliards de dollars en un seul après-midi. Pour éviter une nouvelle catastrophe de ce type, les régulateurs financiers ont mis à jour les disjoncteurs qui interrompent les transactions lorsque les prix chutent trop rapidement. Mais comment mettre fin à une guerre éclair ?
Le réalisateur James Cameron déclare : « Je pense que l'IA peut être géniale, mais qu'elle pourrait aussi littéralement être la fin du monde. Le réalisateur oscarisé s'est également interrogé : « Et voulons-nous vraiment nous battre contre quelque chose de plus intelligent que nous, qui n'est pas nous, dans notre propre monde ? Je ne pense pas. »
Cette nervosité à l'égard de la technologie pourrait être exacerbée par le lancement récent d'un logiciel avancé par la Silicon Valley, appelé ChatGPT.
Qu'est-ce que ChatGPT et qui l’a créé ?
ChatGPT a pris le monde d'assaut depuis son lancement, avec son habileté à écrire des essais, des articles, des poèmes et du code informatique en quelques secondes seulement. Ce qui n’a pas manqué de soulever quelques inquiétudes, y compris dans les écoles, où les enseignants craignent que la plateforme d'OpenAI ne soit utilisée par les élèves pour faire du plagiat.
ChatGPT est un robot à grand modèle de langage (ils permettent de prédire le mot suivant dans une série de mots) développé par OpenAI et basé sur GPT-3.5. Il a une capacité remarquable à interagir sous forme de dialogue conversationnel et à fournir des réponses qui peuvent sembler étonnamment humaines.
L'apprentissage par renforcement avec retour d'information humain (RLHF) est une couche supplémentaire de formation qui utilise le retour d'information humain pour aider ChatGPT à apprendre à suivre des instructions et à générer des réponses satisfaisantes pour les humains. ChatGPT a été créé par OpenAI, une société d'intelligence artificielle basée à San Francisco, connue pour son célèbre DALL-E, un modèle d'apprentissage profond qui génère des images à partir d'instructions textuelles appelées "prompts".
Cette nouvelle IA est un chatbot capable d'imiter une conversation humaine, d'écrire et de déboguer des programmes informatiques, de composer de la musique et des dissertations d'étudiants, et a été lancée par les ingénieurs de la Silicon Valley. ChatGPT peut même écrire des poèmes et des paroles de chansons, bien qu'il ait ses limites. Par exemple, bien qu'il tente de réduire les réponses nuisibles et trompeuses, il peut parfois écrire des réponses plausibles mais incorrectes, ce qui est également connu sous le nom d'hallucinations de l'intelligence artificielle.
Depuis la fin du XIXe siècle, les grandes puissances militaires - qu'il s'agisse de la Grande-Bretagne et de l'Allemagne ou des États-Unis et de l'URSS - ont collaboré pour établir des réglementations sur toutes sortes d'engins de mort modernes, des balles explosives aux gaz toxiques en passant par les armes nucléaires. Parfois, comme dans le cas des armes antisatellites et des bombes à neutrons, des accords formels n'ont pas été nécessaires ; les parties se sont simplement engagées dans une retenue tacite. Dans tous les cas, l'objectif était d'atténuer les effets néfastes de la guerre.
Pour l'instant, un tel consensus n'existe pas pour les armes entièrement autonomes. Près de 30 pays sont favorables à une interdiction totale, mais aucun d'entre eux n'est une grande puissance militaire ou un développeur de robots. Aux Nations unies, où les armes autonomes font l'objet d'un débat annuel, la Chine, la Russie et les États-Unis ont tous fait obstacle aux efforts visant à promulguer une interdiction.
(Les États-Unis et la Russie s'y sont opposés catégoriquement, tandis que la Chine a proposé en 2018 une interdiction qui serait en fait dénuée de sens). L'une des dynamiques les plus difficiles aux Nations unies est le bras de fer entre les ONG telles que la Campaign to Stop Killer Robots, dont l'objectif est le désarmement, et les armées, qui n'accepteront de désarmer que si elles peuvent s'assurer que leurs adversaires le feront également.
Source : James Cameron SmartLess podcast
Et vous ?
Avec des chatbots d'IA hallucinants en liberté, voulons-nous vraiment tenter notre chance face à l'Intelligence Artificielle dans le futur ?
Quel est votre avis sur le sujet ?
Voir aussi :
Un juge utilise ChatGPT pour prendre une décision de justice, alors que l'outil d'IA n'aurait pas encore la maturité suffisante, pour être utilisé dans la prise des décisions conséquentes
Le PDG d'OpenAI affirme que sa technologie est susceptible de "détruire le capitalisme", mais la startup d'IA est critiquée pour son partenariat avec le géant des logiciels Microsoft
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
On va y venir tout doucement, nous serons habitué à la présence des ces IA comme nous nous sommes habitué tout doucement à d'autres éléments dont il y a x années personne se voyait avec.
Le point d'entré va être l'utilisation de l'IA par les terroristes qui eux ne répondent à aucune règle connu. De ce biais là, ça sera la justification de sont utilisation militaire et toute les dérives qui peut en découler. On peut nous dire qu'il y aura des gardes fous, mais rappelez-vous qu'il y a quelque années la bourse américaine a eu un mini crack boursier non pas à cause d'un bug mais un emballement des programmes informatiques automatisé, le krack éclaire de 2010. Demain, les attaques ne seront pas "forcément" des robots armes au point, mais bien plus subtile que ça.
Partager