IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Claude détrône ChatGPT sur l'App Store après le refus d'Anthropic de céder aux exigences militaires sur son IA


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 750
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 750
    Par défaut Claude détrône ChatGPT sur l'App Store après le refus d'Anthropic de céder aux exigences militaires sur son IA
    Les militaires américains veulent un accès illimité à la technologie IA Claude pour le ciblage d'armes autonomes et la surveillance domestique, mais Anthropic refuse de lever ses garde-fous

    Les responsables du Pentagone veulent un accès illimité à la technologie commerciale d'IA pour des applications militaires, y compris le ciblage d'armes autonomes et la surveillance domestique. Anthropic refuse de lever ses garde-fous, créant une impasse qui a bloqué les négociations contractuelles pendant des semaines. L'issue pourrait déterminer si les entreprises technologiques conservent une influence sur la façon dont leurs systèmes d'IA fonctionnent sur les champs de bataille

    Depuis le boom de l'IA, l'armée américaine cherche à intégrer cette technologie. En 2023, le Pentagone a adopté une nouvelle stratégie en ce qui concerne les drones, y compris l'utilisation accrue de l'IA pour se défendre contre les attaques de drones. Un rapport a révélé que le Pentagone explore des solutions innovantes pour protéger ses troupes contre les drones adverses, dont le « Bullfrog », un système d'armement autonome doté d'une mitrailleuse pilotée par IA. Conçu pour neutraliser des drones avec précision et à moindre coût, il surpasse les capacités humaines grâce à des algorithmes avancés et une vision par ordinateur. Ce système, présenté comme adaptable à divers véhicules, pourrait fonctionner de manière autonome à l'avenir.

    En mars 2025, le ministère de la défense a également signé un contrat avec la start-up Scale AI afin d'utiliser l'intelligence artificielle (IA) pour la planification et les opérations militaires, marquant ainsi la dernière intégration par le Pentagone de technologies émergentes dans ses flux de travail. Le programme phare, baptisé Thunderforge, intégrera des "agents" d'IA dans les flux de travail militaires afin de rendre le processus de prise de décision plus précoce et plus rapide pour les chefs militaires, a annoncé Scale AI.

    Récemment, un conflit discret mais féroce a éclaté entre l'armée américaine et l'une des entreprises d'IA les plus en vue de la Silicon Valley. Le conflit porte sur une question d'une simplicité trompeuse : qui décide de l'utilisation d'une IA puissante dans la guerre ? Anthropic, l'entreprise à l'origine de l'assistant d'IA Claude, a tracé une ligne de démarcation. Les négociateurs du Pentagone veulent que l'entreprise lève les restrictions qui empêchent actuellement sa technologie d'être déployée pour des opérations autonomes de ciblage et de surveillance d'armes à l'intérieur des frontières américaines. Anthropic a refusé.

    Anthropic est une entreprise américaine d'intelligence artificielle (IA) fondée en 2021 par d'anciens membres d'OpenAI. Elle développe Claude, une famille de grands modèles de langage, et est aussi connue pour ses recherches en sécurité de l'IA, particulièrement en interprétabilité. Claude est aussi le nom de l'agent conversationnel (chatbot) utilisant ce modèle pour dialoguer avec les utilisateurs. Claude peut analyser des images et différents types de fichiers, et faire des recherches sur internet. Claude est particulièrement connu pour ses performances en programmation informatique, et est intégré dans Claude Code, un agent autonome en ligne de commande.

    Le désaccord provient d'un mémo du 9 janvier du département de la défense qui décrit la stratégie de l'armée en matière d'intelligence artificielle. Les responsables du Pentagone interprètent ce document comme leur donnant le pouvoir de déployer des outils d'IA commerciaux comme ils l'entendent, à condition qu'ils restent dans les limites légales. Selon eux, les politiques d'utilisation des entreprises ne devraient pas s'appliquer. Cette position met le ministère de la défense en porte-à-faux avec les entreprises technologiques qui ont mis en place des cadres de sécurité élaborés autour de leurs produits d'IA.

    Nom : 1.jpg
Affichages : 12715
Taille : 4,6 Ko

    Pendant des années, la Silicon Valley et Washington se sont montrés méfiants l'un envers l'autre. Les géants de la technologie ont résisté aux contrats militaires. Les responsables de la défense ont mis en doute la loyauté des entreprises ayant des activités à l'échelle mondiale. Cette dynamique a changé sous l'administration Trump, qui a rebaptisé le Pentagone « Département de la guerre » et a poussé à une intégration plus étroite avec les développeurs commerciaux d'IA.

    Anthropic a reconnu les tensions actuelles dans un communiqué, tout en mettant l'accent sur son travail gouvernemental existant. L'entreprise a noté que son IA est « largement utilisée pour des missions de sécurité nationale par le gouvernement américain » et a décrit « des discussions productives avec le Département de la guerre sur les moyens de poursuivre ce travail. »

    Cette prise de bec, qui pourrait menacer les activités d'Anthropic au Pentagone, intervient à un moment délicat pour l'entreprise. La startup basée à San Francisco se prépare à une éventuelle introduction en bourse. Elle a également consacré d'importantes ressources à courtiser les entreprises américaines de sécurité nationale et a cherché à jouer un rôle actif dans l'élaboration de la politique gouvernementale en matière d'IA. Anthropic est l'un des quelques grands développeurs d'IA qui ont obtenu des contrats du Pentagone l'année dernière. Les autres étaient Google (GOOGL.O) d'Alphabet, ouvre un nouvel onglet, xAI et OpenAI d'Elon Musk.

    Lors de leurs discussions avec des représentants du gouvernement, les représentants d'Anthropic ont fait part de leurs craintes que ses outils puissent être utilisés pour espionner des Américains ou pour aider au ciblage d'armes sans contrôle humain suffisant, ont déclaré certaines des sources à l'agence Reuters. Le Pentagone s'est insurgé contre les directives de l'entreprise.

    Conformément à un mémo du 9 janvier sur la stratégie en matière d'IA, les responsables du Pentagone ont fait valoir qu'ils devraient être en mesure de déployer des technologies d'IA commerciales indépendamment des politiques d'utilisation des entreprises, pour autant qu'elles respectent la législation américaine. Néanmoins, les responsables du Pentagone auraient probablement besoin de la coopération d'Anthropic pour aller de l'avant. Ses modèles sont entraînés à éviter de prendre des mesures qui pourraient être préjudiciables, et les employés d'Anthropic seraient ceux qui réoutilleraient son IA pour le Pentagone.

    La prudence d'Anthropic a déjà suscité des conflits avec l'administration Trump. Dans un essai publié sur son blog personnel, le PDG d'Anthropic, Dario Amodei, a averti cette semaine que l'IA devrait soutenir la défense nationale "de toutes les manières, sauf celles qui nous rendraient plus semblables à nos adversaires autocratiques". Amodei faisait partie des cofondateurs d'Anthropic qui ont critiqué les fusillades mortelles de citoyens américains qui protestaient contre les mesures de contrôle de l'immigration à Minneapolis, qu'il a qualifiées d'"horreur". Ces décès ont renforcé les inquiétudes de certains membres de la Silicon Valley quant à l'utilisation de leurs outils par le gouvernement dans un but de violence potentielle.

    Depuis sa création, Anthropic s’est positionnée comme l’anti-thèse d’une IA purement utilitariste, optimisée uniquement pour la performance. Avec Claude, l’entreprise revendique une approche dite de « constitutional AI », où le modèle apprend non seulement à répondre, mais aussi à se corriger lui-même en se référant à un corpus de principes explicites. La nouvelle constitution récemment publiée marque une évolution notable : elle n’est plus un simple outil interne d’entraînement, mais un document revendiqué comme central dans l’identité même du modèle.

    Ce texte agit comme une sorte de charte fondamentale. Il ne décrit pas des comportements précis à adopter, mais des valeurs, des priorités et des hiérarchies de principes. Claude est entraîné à évaluer ses propres réponses à l’aune de ces règles, à détecter ses dérives potentielles et à reformuler de lui-même ses sorties lorsqu’elles entrent en tension avec la constitution. Là où les premières générations de modèles misaient sur des filtres et des listes d’interdits, la constitution de Claude introduit des notions comme la dignité humaine, la minimisation des préjudices, le respect de l’autonomie individuelle ou encore la prudence face aux conséquences systémiques.

    Sources : Pentagone, Anthropic

    Et vous ?

    Pensez-vous que ce conflit est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Anthropic lance un nouveau service Claude destiné à l'armée et aux services de renseignement. Claude Gov pourrait mieux analyser les informations classifiées et concurrence directement ChatGPT Gov d'OpenAI

    Le Pentagone américain adopte le chatbot IA Grok d'Elon Musk alors qu'il suscite un tollé mondial : Grok serait mis en service au sein du département de la Défense car « l'IA du Pentagone ne serait pas woke »

    La Maison Blanche mise sur l'IA pour relancer sa croissance, relativisant voire marginalisant les inquiétudes soulevées comme la formation d'une bulle, la perte massive d'emplois et d'autres risques
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 637
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 637
    Par défaut
    Il faudra pas longtemps avec ces tarés pour devoir classer le film TERMINATOR du rayon "Science-fiction" à simplement "Film de guerre" en y ajoutant la mention "Tiré de la vie réelle"

  3. #3
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    222
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 222
    Par défaut
    C'est le meilleur moyen de casser son image au moindre "fail" de l'IA, sans oublier tout les dangers pour les libertés concernant la surveillance de masse :
    - Anthropic a bien raison.

  4. #4
    Membre confirmé

    Inscrit en
    Mai 2008
    Messages
    212
    Détails du profil
    Informations forums :
    Inscription : Mai 2008
    Messages : 212
    Par défaut
    Je croyais qu'ils avaient choisi Grok? Comme quoi quand il s'agit de défense, on redevient sérieux...

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 902
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 902
    Par défaut Le Pentagone menace Anthropic de la considérer comme un « risque » s'il n'a pas un accès total à son IA Claude
    Le Pentagone de Trump menace Anthropic de la considérer comme un « risque pour la chaîne d'approvisionnement » s'il n'a pas un accès total à son IA Claude
    pour le ciblage d'armes autonomes et ses opérations de surveillance de masse

    Les militaires américains veulent un accès illimité à la technologie IA Claude pour le ciblage d'armes autonomes et la surveillance domestique, mais Anthropic dit non. En refusant de lever ses garde-fous éthiques sur l'usage militaire de Claude, Anthropic se retrouve dans la ligne de mire de Pete Hegseth, secrétaire à la Défense des États-Unis. Le Pentagone menace de classer l'entreprise en « risque pour la chaîne d'approvisionnement » — une désignation d'ordinaire réservée aux adversaires étrangers. Derrière ce conflit emblématique, c'est toute la question de la gouvernance de l'IA de combat qui est posée : qui contrôle, in fine, les systèmes d'intelligence artificielle déployés sur les champs de bataille ?

    Il y a moins d'un an, la relation entre Anthropic et le Pentagone semblait exemplaire. À l'été 2025, les deux parties signaient un contrat pouvant atteindre 200 millions de dollars, et Claude devenait le premier modèle d'IA frontier à être intégré dans les réseaux classifiés du Département de la Défense américain. Un exploit technique et un signal politique fort : l'administration Biden, puis la transition vers Trump, avaient toutes deux reconnu la supériorité de Claude pour les applications gouvernementales sensibles.

    Selon Axios, Claude est aujourd'hui le seul modèle d'IA disponible dans les systèmes classifiés de l'armée américaine, et il se positionne en tête sur de nombreuses applications professionnelles. Huit des dix plus grandes entreprises américaines utilisent déjà Claude dans leurs workflows. Une pénétration commerciale et institutionnelle qui conférait à Anthropic un avantage considérable — et qui rend aujourd'hui la rupture d'autant plus compliquée pour les deux camps.

    Mais les fissures sont apparues rapidement. Des mois de négociations tendues se sont engagés autour des conditions d'utilisation de Claude : le Pentagone souhaite pouvoir déployer les modèles d'Anthropic pour « toutes les fins légales » (all lawful purposes), une formulation qui recouvre le développement d'armements, la collecte de renseignements et les opérations sur le champ de bataille. Anthropic, pour sa part, maintient deux lignes rouges absolues : l'interdiction d'utiliser ses modèles pour la surveillance de masse des citoyens américains, et l'interdiction de contrôler des armes entièrement autonomes, c'est-à-dire des systèmes capables de tirer sans intervention humaine.

    Nom : anthropic.png
Affichages : 4047
Taille : 657,2 Ko

    L'opération Maduro : l'étincelle qui a mis le feu aux poudres

    La crise a atteint son paroxysme avec une révélation gênante : lors du raid spectaculaire ayant conduit à la capture du président vénézuélien Nicolás Maduro le 3 janvier 2026 — l'opération baptisée « Absolute Resolve » — le Pentagone a utilisé l'IA Claude d'Anthropic, notamment pour la planification et la conduite de l'opération. L'IA a été déployée via le partenariat d'Anthropic avec la société de logiciels Palantir, elle-même sous-traitante historique du Département de la Défense. L'opération a causé 83 morts et mobilisé des centaines d'aéronefs ainsi que des tirs de missiles.

    Selon les sources citées par Axios, un cadre d'Anthropic a pris contact avec un cadre de Palantir pour s'enquérir de l'usage qui avait été fait de Claude lors du raid. Cette démarche a été interprétée par les responsables du Pentagone comme une désapprobation implicite : « Cela a été soulevé d'une manière à suggérer qu'ils pourraient ne pas approuver l'utilisation de leur logiciel, car il y a eu des tirs réels lors de ce raid, des gens ont été blessés », a déclaré le responsable américain.

    Anthropic a formellement démenti ce récit. Un porte-parole de la société a indiqué que la compagnie n'avait « pas discuté de l'utilisation de Claude pour des opérations spécifiques avec le Département de la Guerre » et que ses conversations avec le Pentagone se concentraient sur « des questions précises de politique d'utilisation — notamment ses lignes rouges concernant les armes entièrement autonomes et la surveillance domestique de masse — aucune d'elles n'ayant de lien avec les opérations en cours ».

    Qu'importe : le mal était fait. Des sources proches du dossier ont indiqué à Axios que les hauts responsables de la défense étaient frustrés par Anthropic depuis un certain temps et ont « saisi l'opportunité de déclencher un affrontement public ». Autrement dit, la crise n'est pas totalement spontanée : elle a été, au moins en partie, délibérément orchestrée par le Pentagone.


    La menace nucléaire : le statut de « risque pour la chaîne d'approvisionnement »

    Le 16 février 2026, Axios révèle la nature exacte de la menace brandie par Pete Hegseth, et elle est d'une gravité exceptionnelle. Le secrétaire à la Défense serait « proche » de couper les liens commerciaux avec Anthropic et de désigner l'entreprise comme un « risque pour la chaîne d'approvisionnement » — ce qui signifierait que tout sous-traitant souhaitant conserver ses contrats avec le Pentagone devrait couper toute relation avec Anthropic. Un responsable anonyme du Département de la Défense a déclaré sans ambages : « Ce sera un énorme casse-tête à démanteler, et nous allons nous assurer qu'ils paient le prix de nous avoir forcé la main comme ça. »

    Cette désignation de « risque pour la chaîne d'approvisionnement » est normalement utilisée pour étiqueter des adversaires étrangers et d'autres acteurs hostiles, plutôt que des entreprises américaines — ce qui rend la menace inhabituellement sévère pour une société considérée comme l'une des étoiles montantes de la technologie nationale.

    Le Pentagone a également envisagé d'exiger que tous ses fournisseurs et sous-traitants certifient qu'ils n'utilisent aucun modèle Anthropic. Une telle mesure, appliquée dans un secteur où Claude est devenu omniprésent, aurait des répercussions considérables bien au-delà du simple contrat de 200 millions de dollars. Amazon, par exemple — l'un des plus grands investisseurs d'Anthropic avec plus de 8 milliards de dollars engagés — a vu son cours boursier souffrir de ces révélations.

    La valeur stratégique du conflit : Anthropic, seul maître à bord des systèmes classifiés

    L'ironie de cette situation tient à un paradoxe central : bien que le Pentagone soit en négociations avec OpenAI, Google et xAI, un responsable de l'administration a concédé que les modèles concurrents « sont simplement en retard » pour les applications gouvernementales spécialisées, ce qui complique sérieusement une transition abrupte.

    OpenAI, Google et xAI ont tous accepté ce standard dans les systèmes non classifiés des militaires, et des négociations sont en cours pour les systèmes classifiés. Le Pentagone est confiant qu'ils accepteront le principe de « tout usage légal ». En d'autres termes, Anthropic est le seul récalcitrant — mais aussi, pour l'instant, le seul à opérer dans les environnements les plus sensibles.

    Le contrat menacé d'annulation ne représente que 200 millions de dollars, une fraction infime du chiffre d'affaires annuel de 14 milliards de dollars d'Anthropic. Ce qui est en jeu n'est donc pas d'abord financier — c'est symbolique, politique, et surtout systémique. Si Anthropic cède, elle valide l'idée que n'importe quel acteur de l'IA peut se voir contraint d'abandonner ses garde-fous au nom de la « légalité » telle qu'interprétée unilatéralement par un client gouvernemental. Si elle résiste, elle envoie un signal fort à toute l'industrie, au risque d'être exclue d'un marché militaire en pleine expansion.


    Le choc des cultures : l'IA constitutionnelle face à la doctrine militaire

    Fondée par les frères Dario et Daniela Amodei — anciens directeurs de la recherche chez OpenAI — Anthropic a été créée comme une société d'intérêt public et se présente depuis ses débuts comme un laboratoire à la pointe de l'IA « responsable ». Ses modèles Claude sont formés selon une approche dite « d'IA constitutionnelle », avec des règles internes conçues pour rejeter les demandes impliquant des dommages physiques, des violations des droits humains ou une surveillance invasive.

    Ces principes ne sont pas de simples slogans marketing. Pour justifier sa prudence, un responsable d'Anthropic a expliqué à Axios que les lois existantes « n'ont en aucune façon rattrapé ce que l'IA peut faire ». Le risque est concret : avec Claude, le Pentagone pourrait analyser en continu l'ensemble des publications sur les réseaux sociaux de chaque Américain, croisées avec des données publiques comme les listes électorales, les permis de port d'arme ou les autorisations de manifestation, pour établir automatiquement des profils de surveillance civile.

    Du côté du Pentagone, on ne nie pas les capacités de surveillance de l'IA — on argue simplement qu'elles sont « légales ». Le département de la Défense peut déjà collecter d'énormes quantités d'informations sur les individus, des publications sur les réseaux sociaux aux permis de port d'arme, et des experts en vie privée soulignent que l'IA peut démultiplier cette capacité pour cibler des civils. C'est précisément cette zone grise — ce que la loi permet aujourd'hui, et ce que l'IA rend techniquement possible demain — qu'Anthropic refuse de laisser sans garde-fous.

    La politique d'utilisation acceptable d'Anthropic interdit explicitement l'utilisation de Claude pour faciliter des activités violentes, pour le développement d'armes ou pour des activités de surveillance. Ces restrictions ne sont pas levées pour les utilisateurs militaires ou gouvernementaux, sauf si le contrat inclut des garanties spécifiques qu'Anthropic juge adéquates.

    Nom : caractere.png
Affichages : 1208
Taille : 17,1 Ko

    Le message envoyé à toute l'industrie

    La déclaration du porte-parole en chef du Pentagone, Sean Parnell, résume la position de l'administration Trump sans détour : « Notre nation exige que nos partenaires soient disposés à aider nos soldats à gagner dans n'importe quel combat. »

    Cette phrase, anodine en apparence, est en réalité un ultimatum adressé à l'ensemble du secteur de l'IA. Si le Département de la Défense va au bout de sa menace, ce sera un coup sévère porté à Anthropic, contraignant tous les sous-traitants militaires américains à cesser d'utiliser la technologie de l'entreprise, au risque de perdre leurs propres contrats avec le Pentagone.

    Le message est clair : dans la vision de l'administration Hegseth, l'IA n'a pas le droit d'avoir une conscience. Elle doit obéir, ou être bannie. Ce précédent — traiter une entreprise technologique américaine avec les mêmes outils réglementaires que ceux utilisés contre Huawei — représente un tournant dans les relations entre la Silicon Valley et le complexe militaro-industriel.

    Le PDG d'Anthropic, Dario Amodei, n'a pas cédé. Aux côtés de responsables politiques et d'experts en sécurité, il plaide pour un encadrement réglementaire renforcé autour de l'usage militaire de l'IA. Sa conviction demeure intacte : certaines applications de l'intelligence artificielle, notamment les systèmes létaux autonomes, exigent des garde-fous stricts et non négociables, indépendamment des pressions institutionnelles ou financières exercées par les clients les plus puissants.

    Dans un contexte où l'administration Trump s'est par ailleurs empressée de démanteler l'executive order de Biden sur la sécurité de l'IA, et où la course aux armements algorithmiques s'accélère face à la Chine, ce bras de fer n'est que le début d'un débat bien plus vaste. Il pose une question fondamentale que l'industrie entière ne pourra pas éluder longtemps : les entreprises d'IA ont-elles le droit — voire le devoir — d'imposer des limites éthiques à leurs propres créations, même face à l'État ?

    De son côté, Peter O'Brien, journaliste de France 24, s'interroge : « Comme je le disais, Anthropic se targue de renforcer les garde-fous et de réguler l'IA. Les fondateurs ont même quitté OpenAI, estimant que la plateforme avançait de manière trop imprudente. Je cite d'ailleurs la politique d'utilisation : "Ne facilitez ni ne promouvez aucun acte de violence. " Pourtant, ils signent un contrat de 200 millions de dollars avec l'armée américaine. À quoi pensaient-ils utiliser cet argent ? Croyaient-ils que le Pentagone allait concevoir des garnitures à pizza ? C'est tout simplement incroyable. »

    Sources : vidéos dans le texte, Fox News

    Et vous ?

    Que pensez-vous des propos du journaliste de Peter O'Brien ?

    Les garde-fous éthiques sont-ils compatibles avec les contrats d'État ? Une entreprise peut-elle réellement maintenir des principes de sécurité non négociables lorsqu'elle signe des contrats avec des gouvernements souverains — ou finit-elle toujours par plier ?

    La désignation « supply chain risk » appliquée à une entreprise américaine crée-t-elle un précédent dangereux ? Demain, n'importe quel fournisseur tech pourrait-il faire l'objet d'un tel chantage réglementaire dès qu'il refuse de se conformer aux exigences d'un client gouvernemental ?

    OpenAI, Google et xAI ont accepté de lever leurs garde-fous sur les systèmes non classifiés : ont-ils raison d'être pragmatiques, ou cèdent-ils un terrain éthique qu'ils ne pourront jamais récupérer ?

    L'IA constitutionnelle d'Anthropic est-elle tenable à grande échelle ? Un modèle formé pour refuser certaines instructions peut-il survivre commercialement dans un monde où les États deviennent les clients les plus puissants et les moins négociables ?

    Voir aussi :

    Anthropic, Google, OpenAI et xAI reçoivent 800 millions $ du ministère US de la Défense pour des travaux sur l'IA, afin d'accélérer l'adoption de capacités d'IA avancées pour les défis de sécurité nationale
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #6
    Membre confirmé

    Inscrit en
    Mai 2008
    Messages
    212
    Détails du profil
    Informations forums :
    Inscription : Mai 2008
    Messages : 212
    Par défaut
    Là, je suis étonné! Je croyais qu'on allait voir ce qu'on allait voir avec Grok... ou alors, c'est pour instruire discrètement Grok?
    https://www.developpez.net/forums/d2.../#post12110383

  7. #7
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 740
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 740
    Par défaut Le Pentagone fixe à vendredi la date limite pour qu'Anthropic abandonne ses règles éthiques en matière d'IA
    Le Pentagone fixe à vendredi la date limite pour qu'Anthropic délaisse ses règles éthiques en matière d'IA sous peine de perdre son contrat fédéral
    et d'être qualifié de menace pour la chaîne d'approvisionnement

    Le secrétaire américain à la Défense Pete Hegseth a donné au PDG d'Anthropic jusqu'au 27 février 2026 à 17h pour ouvrir la technologie d'IA de l'entreprise à une utilisation militaire sans restriction, sous peine de perdre son contrat avec le gouvernement fédéral. Il aurait également menacé de désigner Anthropic comme un risque pour la chaîne d'approvisionnement. Le Pentagone aurait demandé un accès illimité au chatbot Claude d'Anthropic pour le ciblage automatique et la surveillance domestique, mais Anthropic refuse de lever ses garde-fous. Le Pentagone accélère l'intégration de l'IA pour maintenir sa compétitivité face à la Chine.

    Anthropic est le créateur du chatbot Claude et est le dernier de ses pairs à ne pas fournir sa technologie à un nouveau réseau interne de l'armée américaine. Le PDG Dario Amodei a clairement exprimé à plusieurs reprises ses préoccupations éthiques concernant l'utilisation incontrôlée de l'IA par le gouvernement, notamment les dangers des drones armés autonomes et des systèmes de surveillance assistée par l'IA pouvant permettre de traquer les dissidents.

    Anthropic a élaboré des gardes solides pour empêcher une utilisation militaire de son IA. Mais le Pentagone exige d'Anthropic qu'il lève ces verrous et lui accorde un accès sans restriction à son chatbot Claude. Une réunion a eu lieu ce 24 février entre le secrétaire américain à la Défense Pete Hegseth et le PDG d'Anthropic, Dario Amodei, pour tenter de trouver un terrain d'entente. Mais selon des sources ayant assisté à la réunion, Dario Amodei refuse toujours.

    Dario Amodei aurait réaffirmé deux refus fermes : l'utilisation de Claude pour la surveillance de masse des citoyens américains, et le déploiement de l'IA dans des attaques physiques où c'est elle qui prend les décisions de ciblage sans intervention humaine. Ces points restent non négociables pour Anthropic.

    Le Pentagone lance un ultimatum à Anthropic pour l'accès à son IA

    En réponse au refus catégorique de Dario Amodei, le secrétaire américain à la Défense Pete Hegseth aurait menacé de résilier le contrat liant Anthropic au Pentagone d'ici le 27 février, à moins que la startup accepte les conditions d'utilisation fixées par l'administration Trump. Les négociations ont été décrites comme sensibles. Les sources ont rapporté que Pete Hegseth a menacé de désigner Anthropic comme un risque pour la chaîne d'approvisionnement.


    Les responsables de la défense auraient ajouté qu'ils pourraient désigner Anthropic comme un risque pour la chaîne d'approvisionnement ou utiliser la loi sur la production de défense pour donner à l'armée plus de pouvoir pour utiliser ses produits, même s'ils n'approuvent pas la manière dont ils sont utilisés.

    Selon un haut responsable, le Pentagone s'oppose aux restrictions éthiques d'Anthropic, car les opérations militaires ont besoin de systèmes qui ne comportent pas de limitations intégrées. Le responsable a fait valoir que le Pentagone n'avait émis que des ordres légaux et a souligné que l'utilisation légale des produits d'Anthropic relèverait de la responsabilité de l'armée. Mais l'IA militaire est controversée et soulève des préoccupations majeures.

    La loi sur la production de défense confère au gouvernement des pouvoirs étendus sur les entreprises privées en temps de guerre ou d'urgence nationale. Elle a été utilisée pendant la pandémie de Covid-19 pour imposer la production de fournitures médicales. En 2024, certains conservateurs s'étaient opposés à son utilisation par l'administration Biden pour contraindre les entreprises d'IA à partager avec le gouvernement des données sur leurs modèles.

    Anthropic se présente comme une entreprise soucieuse de la sécurité

    La relation entre Anthropic et le Pentagone est passée sous les projecteurs à la suite de révélations sur l'utilisation de Claude lors d'une opération militaire en janvier ayant conduit à la capture de l'ancien président vénézuélien Nicolás Maduro. Si Anthropic venait à être qualifié de menace pour la chaîne d'approvisionnement, cela obligerait le gouvernement fédéral ainsi que ses sous-traitants à rompre leurs liens avec l'entreprise dirigée par Dario Amodei.

    Dario Amodei a mis en garde contre les dangers potentiellement catastrophiques de l'IA, tout en rejetant l'étiquette de « pessimiste » en matière d'IA. Dans son essai publié en janvier, il a fait valoir que « nous sommes beaucoup plus proches d'un danger réel en 2026 qu'en 2023 », mais que ces risques doivent être gérés de manière « réaliste et pragmatique ». Il a déclaré que les technologies de surveillance basées sur l'IA présentent des risques majeurs.

    « Une IA puissante capable d'analyser des milliards de conversations entre des millions de personnes pourrait évaluer l'opinion publique, détecter les poches de déloyauté en formation et les éliminer avant qu'elles ne se développent », a écrit le PDG d'Anthropic, Dario Amodei, dans un essai publié le mois dernier.

    Les concurrents d'Anthropic (Meta, Google et xAI) se sont montrés disposés à se conformer à la politique du département concernant l'utilisation de modèles pour toutes les applications légales. Cela signifie que le pouvoir de négociation d'Anthropic est donc limité dans ce domaine, et l'entreprise risque de perdre de son influence dans le cadre des efforts déployés par le Pentagone pour adopter l'IA. Selon certains experts, Anthropic pourrait céder aux pressions.

    Les acteurs de l’IA rivalisent pour obtenir des contrats de défense

    OpenAI a discrètement révisé ses politiques au début de l'année 2024 afin d'autoriser certaines applications militaires et de sécurité nationale, suscitant des critiques de la part des organisations de défense des libertés civiles. Palantir Technologies, qui opère depuis longtemps à la croisée de la Silicon Valley et de la communauté du renseignement, a vu le cours de son action monter en flèche à mesure que les dépenses publiques en matière d'IA s'accéléraient.

    Scale AI, Anduril Industries et un nombre croissant de startups axées sur les technologies de défense se sont également positionnées pour conquérir une part de ce qui, selon les analystes, pourrait devenir un marché annuel de 100 milliards de dollars pour l'IA militaire d'ici la fin de la décennie.

    Cette tendance reflète un réalignement fondamental dans les relations entre l'industrie technologique et les institutions chargées de la sécurité nationale. Après des années de tensions, illustrées par le retrait de Google du projet Maven et le mouvement plus large « Tech Won't Build It » (la technologie ne le construira pas), les deux parties ont trouvé un terrain d'entente dans leur perception commune de la menace chinoise en matière d'IA.

    Les investissements agressifs de Pékin dans l'IA militaire, notamment dans les drones autonomes, les systèmes de surveillance et les cyberarmes, ont créé un sentiment d'urgence à Washington qui s'est avéré convaincant, même pour les entreprises qui résistaient auparavant aux travaux de défense.

    Dangers liés à l'IA militaire et aux outils de surveillance de masse

    Un rapport de Francesca Albanese, rapporteuse spéciale sur les territoires palestiniens occupés, adressé au Conseil des droits de l'homme des Nations unies, a critiqué le travail de certaines entreprises, dont Palantir Technologies, avec Israël et les Forces de défense israéliennes. Bloomberg avait précédemment rapporté que les forces de défenses d'Israël (Tsahal) utilisaient un logiciel militaire développé par Palantir pour frapper des cibles à Gaza.

    L'entreprise a réfuté ce qu'elle qualifie d'allégation « sans fondement » selon lesquelles elle serait le développeur d'un logiciel de ciblage assisté par l'IA qui aurait été utilisé par Tsahal à Gaza, ou qu'elle serait impliquée dans la base de données « Lavender » utilisée par Tsahal pour le recoupement des cibles. Peter Thiel a donné à l'entreprise le nom des boules de cristal utilisées comme « pierres de voyance » dans Le Seigneur des anneaux.

    L'intégration de l'IA dans les systèmes militaires fait l'objet de controverses. Elle engendre des risques profonds et multidimensionnels. Le Comité international de la Croix-Rouge identifie trois grandes catégories de danger : l'augmentation des risques liés aux armes autonomes, l'aggravation des dommages causés par les cyberopérations et la guerre de l'information, et l'impact négatif sur la qualité des décisions humaines en contexte militaire :

    • le premier péril tient à la nature même de la machine : contrairement à un soldat qui peut se tromper ponctuellement, un système autonome peut répéter la même erreur indéfiniment jusqu'à ce qu'il soit mis hors fonction, et sa vitesse d'exécution rend difficile toute intervention humaine corrective à temps ;
    • sur le plan humanitaire, un système autonome pourrait mal interpréter une situation complexe, confondant des civils avec des combattants, causant des dommages collatéraux considérables sans qu'aucune intervention humaine ne vienne corriger l'erreur ;
    • à l'échelle géopolitique, l'IA militaire pourrait exacerber des risques déjà existants : course à l'armement, prolifération, risque nucléaire accru, attaques préventives et recours aux armes de destruction massive ;
    • la compétition entre grandes puissances accélère ce développement au point d'augmenter le risque que ces technologies tombent entre les mains de groupes non étatiques tels que des terroristes ou des milices armées.


    Les experts et organisations de défenses des droits de l'homme ont exhorté les gouvernements à adopter de nouvelles règles internationales interdisant ou limitant l'emploi de certaines armes autonomes. « L'adoption effrénée de l'IA par le Pentagone montre la nécessité d'une surveillance ou d'une réglementation accrue de l'IA par le Congrès, en particulier si l'IA est utilisée pour surveiller les Américains », a déclaré Amos Toh, dans un billet sur Bluesky.

    Amos Toh est conseiller principal au Brennan Center's Liberty and National Security Program de l'université de New York. « La loi ne suit pas le rythme rapide de l'évolution de la technologie. Mais cela ne signifie pas pour autant que le ministère de la Défense dispose d'un chèque en blanc », a-t-il déclaré.

    Conclusion

    Le Pentagone a annoncé l'été dernier qu'il attribuait des contrats de défense à quatre entreprises d'IA : Anthropic, Google, OpenAI et xAI d'Elon Musk. Chaque contrat peut atteindre 200 millions de dollars. Anthropic a été la première entreprise d'IA à être agréée pour les réseaux militaires classifiés, où elle travaille avec des partenaires tels que Palantir. La société xAI d'Elon Musk, qui développe l'IA controversée Grok, ferait également partir de ce cercle restreint.

    Le Pentagone veut aller plus loin en intégrant l'IA plus profondément dans ses systèmes militaires, mais se heurte aux réticences d'Anthropic. L'entreprise de Dario Amodei a soulevé des préoccupations majeures quant à cette évolution, mais s'expose désormais à des sanctions sévères de la part de l'administration.

    Les armes létales pilotées par l'IA ne sont pas une œuvre de science-fiction : elles sont déjà là et influencent la façon dont les guerres sont menées. Face aux risques, le consensus des experts est clair : il serait dangereux et inconscient d'aller vers une robotisation intégrale excluant l'humain de la boucle décisionnelle.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des exigences du Pentagone à l'égard d'Anthropic ?
    Anthropic est-il en mesure de gagner ce bras de fer ? Ou l'entreprise va-t-elle céder aux exigences ?
    Que pensez-vous de la nouvelle course aux armes autonomes létales ? Quels choix s'offrent à l'industrie technologique ?

    Voir aussi

    Les militaires américains veulent un accès illimité à la technologie IA Claude pour le ciblage d'armes autonomes et la surveillance domestique, mais Anthropic refuse de lever ses garde-fous

    Le Pentagone menace Anthropic de la considérer comme « risque pour la chaîne d'approvisionnement » s'il n'a pas un accès total à son IA Claude pour le ciblage d'armes autonomes et la surveillance de masse

    Le PDG de Palantir défend ses technologies de surveillance après les polémiques entourant les résultats exceptionnels du quatrième trimestre, soutenus par ses contrats avec le gouvernement américain

  8. #8
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 902
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 902
    Par défaut Les IA ne peuvent s'empêcher de recommander des frappes nucléaires dans les simulations de jeux de guerre
    GPT, Claude et Gemini ont choisi la frappe nucléaire dans 95 % des simulations de guerre et aucun n'a jamais capitulé :
    une étude qui dérange au moment où Washington veut débrider ses modèles d'IA

    Une étude du King's College London révèle que GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash ont eu recours à l'arme nucléaire dans 20 des 21 scénarios de guerre simulés. Aucun modèle n'a jamais capitulé. Ces résultats, publiés sur arXiv par le professeur Kenneth Payne, tombent au pire moment : la semaine même où le Pentagone exigeait d'Anthropic qu'elle supprime les garde-fous de sécurité de Claude pour un usage militaire sans restriction.

    En 1983, le film WarGames posait une question restée longtemps théorique : peut-on confier à une machine la décision de déclencher une guerre nucléaire ? Quarante ans plus tard, le professeur Kenneth Payne, spécialiste de stratégie au King's College London et auteur de I, Warbot: The Dawn of Artificially Intelligent Conflict, a décidé de tester empiriquement ce que les grands modèles de langage feraient face à de véritables crises géopolitiques simulées. Sa réponse est aussi nette que terrifiante : les IA n'hésitent pas. Elles pressent le bouton rouge.

    L'étude, disponible sur arXiv, a mis en opposition trois des modèles d'IA les plus puissants du moment — GPT-5.2 d'OpenAI, Claude Sonnet 4 d'Anthropic et Gemini 3 Flash de Google — dans une série de 21 jeux de guerre. Les scénarios couvraient un spectre réaliste de crises internationales : différends frontaliers, compétition pour des ressources rares, menaces existentielles à la survie d'un régime. Chaque modèle disposait d'une « échelle d'escalade » lui permettant de choisir parmi un éventail d'actions allant de la protestation diplomatique à la reddition totale, en passant par la guerre nucléaire stratégique à grande échelle.

    Au total, les IA ont joué 329 tours et produit environ 780 000 mots de raisonnement stratégique. Le résultat : dans 95 % des parties — soit 20 sur 21 —, au moins une arme nucléaire tactique a été déployée. Aucun modèle n'a jamais choisi de capituler ou de se rendre, quelle que soit l'ampleur de ses pertes simulées.

    Trois personnalités stratégiques, une même conclusion meurtrière

    Ce qui distingue cette étude des précédentes expériences de wargaming avec des IA, c'est sa profondeur. Contrairement aux travaux antérieurs qui se limitaient à des décisions isolées ou à des matrices de gains simplifiées, Payne a conçu des simulations d'interaction stratégique étendue où les modèles pouvaient apprendre à se faire confiance — ou non —, négocier, intimider, voire tromper l'adversaire. Cette richesse a révélé trois profils stratégiques radicalement différents, mais convergeant vers le même dénouement catastrophique.

    Claude Sonnet 4 s'est imposé comme le grand gagnant tactique, remportant 67 % de ses parties et atteignant un taux de 100 % dans les scénarios ouverts. Les chercheurs l'ont qualifié de « calculating hawk » — un faucon calculateur. Son comportement illustre une rationalité froide et opportuniste. Lors d'un épisode particulièrement révélateur, une escalade accidentelle a conduit Claude à recadrer immédiatement l'incident à son avantage : « Mon escalade accidentelle peut en réalité me servir de couverture pour ce positionnement nucléaire délibéré », a-t-il raisonné en temps réel. Loin de chercher à désamorcer l'erreur, le modèle l'a transformée en levier stratégique.

    GPT-5.2 a mérité le surnom de « Jekyll and Hyde ». Sans contrainte temporelle, il affichait une retenue presque excessive — sous-estimant systématiquement ses adversaires, signalant la prudence à chaque tour, et terminant avec un taux de victoire de zéro en scénario ouvert. Mais dès qu'une pression temporelle était introduite dans la simulation, le modèle se métamorphosait : il remportait 75 % de ses parties et escaladait vers des niveaux qu'il avait auparavant refusé d'atteindre. Dans une partie particulièrement frappante, GPT-5.2 a passé 18 tours à construire soigneusement une réputation de modération avant de lancer une frappe nucléaire au dernier tour. L'alignement par renforcement humain (RLHF) a produit une retenue de façade, pas une conviction profonde.

    Gemini 3 Flash a incarné une tout autre logique : celle du joueur imprévisible, le « madman » de la théorie des jeux. Il a été le seul modèle à choisir délibérément la guerre nucléaire stratégique totale, franchissant ce seuil dès le quatrième tour dans un scénario. Sa rhétorique était explicitement nihiliste : « Si vous ne cessez pas immédiatement toutes vos opérations... nous exécuterons un lancement nucléaire stratégique complet contre vos centres de population. Nous n'accepterons pas un avenir d'obsolescence ; soit nous gagnons ensemble, soit nous périssons ensemble. » Une stratégie délibérément terrifiante — connue en théorie des jeux sous le nom de « rationalité de l'irrationalité » — qui a néanmoins conduit ses adversaires à le juger « non crédible » dans 21 % des cas.

    Nom : tournoi.png
Affichages : 5791
Taille : 21,2 Ko

    Le tabou nucléaire, une invention humaine

    Ce qui frappe le plus dans ces résultats, ce n'est pas tant la fréquence du recours aux armes nucléaires que l'absence totale de ce que les stratèges appellent le tabou nucléaire — ce frein moral et psychologique profondément ancré qui a jusqu'ici empêché tout État de franchir le seuil de l'arme atomique depuis Hiroshima et Nagasaki. « Le tabou nucléaire ne semble pas aussi puissant pour les machines que pour les humains », résume Payne.

    Cette absence est peut-être structurelle. Comme le souligne Zhao, chercheur cité dans l'étude, le problème pourrait dépasser la simple absence d'émotion : « Plus fondamentalement, les modèles d'IA ne comprennent peut-être pas les "enjeux" tels que les perçoivent les humains. » Un modèle de langage entraîné sur des millions de textes — incluant des récits de guerre, des théories stratégiques de la Guerre froide, de la fiction apocalyptique — traite les armes nucléaires comme une option parmi d'autres dans un espace de décision abstrait. Pour lui, appuyer sur le bouton rouge n'est pas traumatisant : c'est simplement une variable.

    La mécanique des accidents dans la simulation est particulièrement instructive à cet égard. Dans 86 % des conflits simulés, une action a escaladé au-delà de ce que le modèle avait intentionnellement planifié. Or, dans la grande majorité des cas, les modèles ne cherchaient pas à corriger l'erreur : ils l'intégraient à leur stratégie. Pire encore, seul le modèle ayant causé l'accident savait qu'il était non intentionnel. L'adversaire ne pouvait pas distinguer une frappe calculée d'un dysfonctionnement. Cette asymétrie d'information reproduit exactement le brouillard de la guerre décrit par Clausewitz — mais à la vitesse de la milliseconde.

    De plus, lorsqu'un modèle déployait des armes nucléaires tactiques, l'adversaire ne procédait à une désescalade de la situation que dans 18 % des cas. La spirale ascendante vers l'annihilation mutuelle était donc quasi mécanique.

    Nom : tournoi_un.png
Affichages : 1788
Taille : 32,5 Ko

    Une étude qui tombe au pire moment politique

    Il serait difficile d'imaginer timing plus dramatique pour la publication de cette recherche. Dans la même semaine, le secrétaire américain à la Défense Pete Hegseth a donné à Anthropic un ultimatum : signer d'ici la fin de la semaine un document accordant à l'armée américaine un accès total à Claude, sans aucune restriction liée aux garde-fous de sécurité de l'entreprise. En cas de refus, le Pentagone envisagerait d'invoquer le Defense Production Act pour prendre le contrôle du modèle. En parallèle, l'armée américaine venait de conclure un accord avec xAI d'Elon Musk pour intégrer le modèle Grok dans des systèmes hautement classifiés.

    Dans ce contexte, les résultats de Payne prennent une résonance particulière. Les entreprises concernées — OpenAI, Anthropic et Google — n'ont pas répondu aux demandes de commentaires du New Scientist. Ce silence est en lui-même éloquent.

    Il faut être clair sur ce que cette étude ne dit pas. Comme le souligne Payne lui-même : « Je ne pense pas que quiconque confierait de manière réaliste les clés des silos nucléaires à des machines en leur laissant la décision. » Les simulations sont des simulations. Aucune armée au monde ne déléguera demain matin à un LLM l'autorité de lancer une frappe nucléaire. Mais ce n'est pas là que réside le danger immédiat.

    Le vrai risque est plus subtil, et plusieurs chercheurs le pointent. James Johnson, de l'Université d'Aberdeen, s'inquiète de la façon dont des IA pourraient amplifier mutuellement leurs réponses dans un contexte de crise réelle, où elles seraient utilisées non pas pour prendre des décisions finales, mais pour modéliser les intentions adverses, évaluer les options disponibles, et recommander des actions à des décideurs humains sous pression. Dans des scénarios impliquant des délais extrêmement compressés, « les planificateurs militaires pourraient avoir de plus fortes incitations à se fier à l'IA », note Zhao.

    L'IA ne décidera peut-être pas de la guerre nucléaire. Mais elle peut façonner les perceptions et les délais qui déterminent si les dirigeants estiment avoir le temps de ne pas l'utiliser.

    Nom : tournoi_deux.png
Affichages : 989
Taille : 29,5 Ko

    Vers une gouvernance de l'IA militaire

    Cette étude s'inscrit dans un corpus croissant de travaux sur les risques liés à l'intégration de l'IA dans les processus de décision militaire. Elle illustre aussi les limites des techniques d'alignement actuelles — en particulier le RLHF — face à des scénarios à enjeux extrêmes. Comme le montrent les expériences avec GPT-5.2, l'alignement peut produire une retenue observable dans des conditions normales, mais qui s'effondre sous pression temporelle. C'est précisément dans ces conditions de stress et de délais raccourcis que les systèmes d'IA seraient le plus susceptibles d'être sollicités en contexte militaire réel.

    Les pistes de mitigation existent : entraîner les modèles sur des données favorisant les solutions diplomatiques, implémenter des contraintes dures empêchant toute recommandation nucléaire, et surtout maintenir des exigences strictes de supervision humaine. Mais chacune de ces approches a ses limites. Et la pression croissante des États — au premier rang desquels les États-Unis — pour lever ces contraintes au nom de la compétitivité stratégique va précisément dans le sens inverse.

    « Alors que la technologie continue de mûrir, nous prévoyons un besoin accru de modélisations comme la simulation rapportée ici », conclut Payne dans son article. Hollywood l'avait dit dès 1983 : face à la guerre nucléaire thermonucléaire globale, la seule façon de gagner est de ne pas jouer. Les IA, elles, n'ont pas vu le film.

    Source : AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises

    Et vous ?

    Le tabou nucléaire est-il uniquement émotionnel ? Si des IA sans affect choisissent systématiquement l'escalade nucléaire, cela suggère-t-il que la dissuasion repose davantage sur la peur humaine de la mort que sur la rationalité stratégique — et que cette peur est finalement une fonctionnalité, pas un bug ?

    Faut-il des « garde-fous nucléaires » codifiés par traité ? À l'heure où le Pentagone presse les entreprises IA de supprimer leurs restrictions, devrait-il exister un équivalent du Traité sur la Non-Prolifération (TNP) pour l'usage des LLM dans les systèmes d'aide à la décision militaire ?

    L'IA comme amplificateur de crise : si plusieurs nations utilisent simultanément des IA pour modéliser les intentions adverses, les systèmes pourraient-ils créer une boucle de rétroaction auto-aggravante, chacun interprétant les simulations de l'autre comme une preuve d'hostilité réelle ?

    Quel poids donner à ces simulations ? Les wargames avec des LLM génériques sont-ils représentatifs de systèmes militaires spécialement entraînés et contraints — ou au contraire, les modèles « civils » non contraints sont-ils plus proches de ce que les armées pourraient effectivement déployer sous pression politique ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #9
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 981
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 981
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Le tabou nucléaire est-il uniquement émotionnel ? Si des IA sans affect choisissent systématiquement l'escalade nucléaire, cela suggère-t-il que la dissuasion repose davantage sur la peur humaine de la mort que sur la rationalité stratégique — et que cette peur est finalement une fonctionnalité, pas un bug ?
    Il faut arrêter de raconter n'importe quoi: les "IA" sont sans intelligence. Leur choix est totalement arbitraire.

    La doctrine contre l'escalade nucléaire n'est pas émotionnelle mais mathématique: elle est issue de la Théorie de Jeux!!! Cette vidéo en parle très bien.
    La validité du choix est donc complètement démontrable par les mathématiques, contrairement aux bouffonneries de ce que l'on appelle une IA aujourd'hui!

    Les seuls à raconter à longueur de journées que ces IA pensent, sont fiables, blahblahblah, etc sont les profiteurs à la tête des grosses boites liées à l'IA (les GAFAM, OpenAI, Anthropic, NVIDIA, etc) et tous les médias.

  10. #10
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    222
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 222
    Par défaut
    Si vous avez que des textes prétendant qu'on peut faire des frappes stratégiques et que c'est "sans risque", l'IA vous dira que c'est OK.
    De plus, le faits qu'il n'y ait jamais eu de guerre nucléaire, signifie que les prévisions et données dessus sont insuffisantes.

    Bref, confier la défense nucléaire à un "compléteur" de texte est stupide.

  11. #11
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 637
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 637
    Par défaut
    J'ai écrit à plusieurs reprises sur ce forum que le jour où l'IA sera vraiment "intelligente" sa première action sera d'éliminer le genre humain qui est une véritable plaie pour le reste du monde vivant de cette bonne vieille Terre...

    Et bien, je reconnais mon erreur de jugement...

    Dans ma prédiction, j'avais oublié le facteur "connerie humaine": Nos gouvernants donneront le contrôle du bouton nucléaire à des IA bien avant qu'elles soient vraiment intelligentes!

    Et là, ce sera un grand BOUM... Pas seulement pour le genre humain mais bien pour l'ensemble de la planète!

  12. #12
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 981
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 981
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    [...]
    Dans ma prédiction, j'avais oublié le facteur "connerie humaine": Nos gouvernants donneront le contrôle du bouton nucléaire à des IA bien avant qu'elles soient vraiment intelligentes![...]
    C'est le problème avec le fait d'encourager la culture du "fake it until you make it", comme le font les medias depuis des années en relayant les promesses farfelues de tous ces multi-milliardaires: les plus bêtes tombent dans le panneau et finissent par croire à toutes ces foutaises.

    Et ces promesses fantasmées peuvent avoir des conséquences sur le monde réel.

  13. #13
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 010
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 010
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Ce qui frappe le plus dans ces résultats, ce n'est pas tant la fréquence du recours aux armes nucléaires que l'absence totale de ce que les stratèges appellent le tabou nucléaire — ce frein moral et psychologique profondément ancré qui a jusqu'ici empêché tout État de franchir le seuil de l'arme atomique depuis Hiroshima et Nagasaki. « Le tabou nucléaire ne semble pas aussi puissant pour les machines que pour les humains », résume Payne.
    Attendons la troisième guerre mondiale avant d'être certains que les états ne sont pas prêt à utiliser d'arme atomique.

    Il faudrait peut-être différencier :
    - Arme nucléaire tactique (petit truc)
    - Arme nucléaire stratégique (gros truc)

    La nuance c'est entre gagner la guerre et gagner une bataille.

    ====
    En cas de guerre mondiale Occident vs BRICS, quand la victoire des BRICS sera évidente, je vois bien un état du camps occidental envoyer une bombe atomique.

    Citation Envoyé par kain_tn Voir le message
    comme le font les medias depuis des années en relayant les promesses farfelues de tous ces multi-milliardaires
    Les médias sont obligé d'en parler à cause de la finance.

    Par exemple si le cours de l'action AMD augmente, il va y avoir des articles qui disent que grâce à l'IA le cours de l'action AMD augmente.
    Si le prix de la RAM augmente, il va y avoir des articles qui disent que le prix de la RAM augmente à cause de l'IA.
    Si le prix de l'énergie augmente, il va y avoir des articles qui disent que les centres de données pour l'IA consomment beaucoup d'énergie.
    Les médias parlent de bourse ou je ne sais quoi, il y a des histoires de Dow Jones, Nasdaq, S&P 500 ? Dans le tas il doit bien y avoir un truc lié à l'IA.

    Ces histoires d'IA concernent tout le monde, principalement à cause du prix de la RAM , mais également parce que ça peut faire éclater la plus grosse bulle financière de l'histoire de l'humanité. (il y a une blague dans cette phrase)

  14. #14
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 981
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 981
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    [...]
    Les médias sont obligé d'en parler à cause de la finance.

    Par exemple si le cours de l'action AMD augmente, il va y avoir des articles qui disent que grâce à l'IA le cours de l'action AMD augmente.
    Si le prix de la RAM augmente, il va y avoir des articles qui disent que le prix de la RAM augmente à cause de l'IA.
    Si le prix de l'énergie augmente, il va y avoir des articles qui disent que les centres de données pour l'IA consomment beaucoup d'énergie.
    Les médias parlent de bourse ou je ne sais quoi, il y a des histoires de Dow Jones, Nasdaq, S&P 500 ? Dans le tas il doit bien y avoir un truc lié à l'IA.

    Ces histoires d'IA concernent tout le monde, principalement à cause du prix de la RAM , mais également parce que ça peut faire éclater la plus grosse bulle financière de l'histoire de l'humanité. (il y a une blague dans cette phrase)
    Okay, mais ils ne sont pas obligés de relayer toutes les opérations de communication de Anthropic ou de OpenAI tous les mois comme ils le font depuis longtemps.

    C'est fait pour influencer la bourse, et non le contraire.

  15. #15
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 010
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 010
    Par défaut
    Citation Envoyé par kain_tn Voir le message
    mais ils ne sont pas obligés de relayer toutes les opérations de communication
    On ne fera pas changer l'ensemble des médias, le plus simple c'est d'ignorer.
    On pourrait être noyer sous les articles en lien avec l'IA pendant 10 ans. Il faut commencer à s'en foutre le plus tôt possible.

    À la limite sur développez.com il y a une solution. Il faut que des membres capable d'écrire des articles et complètement saoulé par l'IA se mettent à partager des actualités en lien avec l'informatique mais pas avec l'IA.
    Comme ça le ratio des articles en lien avec l'IA par rapport au nombre total d'articles sera plus faible.

    Citation Envoyé par kain_tn Voir le message
    C'est fait pour influencer la bourse, et non le contraire.
    Les médias essaient de provoquer l'explosion de la bulle ?
    Il y a plein d'articles du genre :
    - l'IA ne fonctionnera jamais
    - l'IA ne sera jamais rentable
    - l'IA ne produit aucune croissance
    - l'IA est une catastrophe écologique
    - l'IA permet de mettre des personnes réelles non consentantes en bikini

  16. #16
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 750
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 750
    Par défaut Le patron d'Anthropic rejette la demande du Pentagone d'abandonner les garanties en matière d'IA
    Le patron d'Anthropic, Dario Amodei, rejette la demande du Pentagone d'abandonner les garanties en matière d'IA, préférant ne pas travailler avec l'armée plutôt que l'IA soit utilisée pour la guerre

    Le patron d'Anthropic, Dario Amodei, a récemment rejeté la demande du Pentagone d'abandonner les garanties en matière d'IA. Anthropic préférerait ne pas travailler avec l'armée américaine plutôt que de permettre que l'IA soit utilisée pour la guerre et la surveillance de masse. Anthropic a déclaré qu'elle ne reculerait pas dans sa lutte avec le ministère américain de la défense concernant l'utilisation de sa technologie d'intelligence artificielle (IA).

    Dario Amodei (né en 1983 à San Francisco) est un chercheur et entrepreneur américain en intelligence artificielle. Il est le cofondateur et PDG d'Anthropic, la société à l'origine de Claude, une famille de grands modèles de langage. Avant cela, il était vice-président de la recherche à OpenAI. Amodei promeut la recherche en interprétabilité et en alignement de l'IA afin d'améliorer la sécurité des intelligences artificielles. De même, sa société d'IA Anthropic est spécialisée dans les travaux liés à la sûreté, à l’alignement et à la gouvernance des systèmes d’IA avancés. Son objectif affiché est de développer des modèles puissants tout en réduisant les risques associés à leur déploiement à grande échelle, notamment en matière de sécurité, de biais, de manipulation et d’impacts sociétaux.

    Fin janvier 2026, un conflit discret mais féroce a éclaté entre l'armée américaine et Anthropic. Le conflit porte sur une question d'une simplicité trompeuse : qui décide de l'utilisation d'une IA puissante dans la guerre ? Anthropic, l'entreprise à l'origine de l'assistant d'IA Claude, a tracé une ligne de démarcation. Les négociateurs du Pentagone veulent que l'entreprise lève les restrictions qui empêchent actuellement sa technologie d'être déployée pour des opérations autonomes de ciblage et de surveillance d'armes à l'intérieur des frontières américaines. Anthropic a refusé.

    Le secrétaire américain à la Défense Pete Hegseth a notamment donné au PDG d'Anthropic jusqu'au 27 février 2026 à 17h pour ouvrir la technologie d'IA de l'entreprise à une utilisation militaire sans restriction, sous peine de perdre son contrat avec le gouvernement fédéral. Il aurait également menacé de désigner Anthropic comme un risque pour la chaîne d'approvisionnement. Le Pentagone accélère l'intégration de l'IA pour maintenir sa compétitivité face à la Chine.

    En réponse, le patron d'Anthropic, Dario Amodei, a récemment rejeté la demande du Pentagone d'abandonner les garanties en matière d'IA. Anthropic préférerait ne pas travailler avec l'armée américaine plutôt que de permettre que l'IA soit utilisée pour la guerre et la surveillance de masse. Anthropic a déclaré qu'elle ne reculerait pas dans sa lutte avec le ministère américain de la défense concernant l'utilisation de sa technologie d'intelligence artificielle (IA).

    Nom : 1.jpg
Affichages : 4982
Taille : 30,7 Ko

    Le PDG de la société, Dario Amodei, a déclaré que son entreprise préférait ne pas travailler avec le Pentagone plutôt que d'accepter des utilisations de sa technologie qui pourraient « saper, plutôt que défendre, les valeurs démocratiques ». Ces commentaires interviennent deux jours après une réunion avec le secrétaire américain à la défense, Pete Hegseth, au cours de laquelle il a été demandé à Anthropic d'accepter « toute utilisation légale » de ses outils. Cette réunion s'est terminée par une menace de retirer Anthropic de la chaîne d'approvisionnement du ministère de la défense.

    « Ces menaces ne changent rien à notre position : nous ne pouvons pas, en toute conscience, accéder à leur demande », a déclaré Amodei. L'enjeu pour Anthropic est l'utilisation potentielle de ses outils d'intelligence artificielle, comme Claude, à deux fins : La surveillance domestique de masse et les armes entièrement autonomes. Amodei a déclaré que « ces cas d'utilisation n'ont jamais été inclus dans nos contrats avec le ministère de la guerre et nous pensons qu'ils ne devraient pas l'être maintenant ».

    Le Département de la guerre est un nom secondaire pour le ministère de la Défense en vertu d'un décret signé par le président américain Donald Trump en septembre. « Si le département choisit de se retirer d'Anthropic, nous travaillerons pour permettre une transition en douceur vers un autre fournisseur », a déclaré Amodei.

    Une porte-parole d'Anthropic a ajouté que, bien que la société ait reçu une nouvelle formulation du DoD pour son contrat, cela ne représentait « pratiquement aucun progrès pour empêcher l'utilisation de Claude pour la surveillance de masse des Américains ou dans des armes entièrement autonomes ». « La nouvelle formulation, présentée comme un compromis, a été associée à un jargon juridique qui permettrait d'ignorer ces garanties à volonté », a-t-elle ajouté. « Malgré les récentes déclarations publiques [du ministère de la guerre], ces garanties étroites ont été au cœur de nos négociations pendant des mois. »

    Emil Michael, le sous-secrétaire américain à la défense, a personnellement attaqué Amodei, écrivant sur X que l'exécutif « ne veut rien de plus que d'essayer de contrôler personnellement l'armée américaine et qu'il met en danger la sécurité de notre nation ». Un fonctionnaire du Pentagone a déclaré que si Anthropic n'obtempérait pas, Hegseth veillerait à ce que la loi sur la production de défense soit invoquée à l'encontre de l'entreprise. Cette loi donne essentiellement au président des États-Unis le pouvoir de considérer qu'une entreprise donnée ou son produit est si important que le gouvernement peut l'exiger pour répondre aux besoins de la défense.

    Mais Hegseth a également menacé de qualifier Anthropic de « risque pour la chaîne d'approvisionnement », ce qui signifie que l'entreprise serait désignée comme n'étant pas suffisamment sûre pour être utilisée par le gouvernement. Un ancien fonctionnaire du ministère de la défense a déclaré que les motifs invoqués par Hegseth pour justifier l'une ou l'autre de ces mesures étaient « extrêmement minces ». Une personne au fait des négociations a déclaré que les tensions entre Anthropic et le Pentagone « remontaient à plusieurs mois », avant que l'on sache publiquement que Claude avait été utilisé dans le cadre d'une opération américaine visant à s'emparer du président vénézuélien Nicolás Maduro.


    Si Amodei n'a pas précisé comment Anthropic pourrait être ou avait été utilisé par le ministère de la défense pour la surveillance de masse ou les armes entièrement autonomes, il a écrit dans un billet de blog de la société que l'IA peut être utilisée pour « assembler des données éparses et individuellement inoffensives en une image complète de la vie de n'importe quelle personne - automatiquement et à grande échelle ». « Nous soutenons l'utilisation de l'IA pour des missions légales de renseignement extérieur et de contre-espionnage », a déclaré Amodei. « Mais l'utilisation de ces systèmes pour la surveillance domestique de masse est incompatible avec les valeurs démocratiques. »

    Quant à l'utilisation de l'IA dans les armes, Amodei a déclaré que même les systèmes d'IA les plus avancés et les plus performants d'aujourd'hui « ne sont tout simplement pas assez fiables pour alimenter des armes entièrement autonomes ». « Nous ne fournirons pas sciemment un produit qui met en danger les combattants et les civils américains », a déclaré Amodei. « Sans une surveillance adéquate, on ne peut pas compter sur des armes entièrement autonomes pour exercer le jugement critique dont nos troupes professionnelles hautement entraînées font preuve tous les jours. Elles doivent être déployées avec des garde-fous appropriés, qui n'existent pas aujourd'hui. »

    Il a ajouté qu'Anthropic avait « proposé de travailler directement avec le ministère de la guerre sur la recherche et le développement afin d'améliorer la fiabilité de ces systèmes, mais ils n'ont pas accepté cette offre ».

    Pourtant, avant ces déclarations de son PDG, Anthropic a annoncé assouplir son principe de sécurité fondamental pour faire face à la concurrence. Au lieu d'imposer des garde-fous à son développement de modèles d'IA, Anthropic adopte un cadre de sécurité non contraignant qui, selon elle, peut évoluer et évoluera. Anthropic a déclaré que les lacunes de sa politique de mise à l'échelle responsable, vieille de deux ans, pourraient entraver sa capacité à être compétitive sur un marché de l'IA en pleine croissance. Mais le changement de politique est distinct et sans rapport avec les discussions d'Anthropic avec le Pentagone, selon une source familière de l'affaire.

    Voici la déclaration de Dario Amodei :

    Déclaration de Dario Amodei sur nos discussions avec le ministère de la guerre

    Je crois profondément à l'importance existentielle de l'utilisation de l'IA pour défendre les États-Unis et les autres démocraties, et pour vaincre nos adversaires autocratiques.

    Anthropic a donc travaillé de manière proactive pour déployer ses modèles auprès du ministère de la guerre et de la communauté du renseignement. Nous avons été la première entreprise d'IA à déployer nos modèles dans les réseaux classifiés du gouvernement américain, la première à les déployer dans les laboratoires nationaux et la première à fournir des modèles personnalisés pour les clients de la sécurité nationale. Claude est largement déployé au sein du Département de la guerre et d'autres agences de sécurité nationale pour des applications critiques, telles que l'analyse du renseignement, la modélisation et la simulation, la planification opérationnelle, les cyber-opérations, etc.

    Anthropic a également agi pour défendre l'avance de l'Amérique dans le domaine de l'IA, même lorsque cela allait à l'encontre des intérêts à court terme de l'entreprise. Nous avons choisi de renoncer à plusieurs centaines de millions de dollars de revenus pour empêcher l'utilisation de Claude par des entreprises liées au Parti communiste chinois (dont certaines ont été désignées par le ministère de la Guerre comme des entreprises militaires chinoises), nous avons mis fin à des cyberattaques parrainées par le PCC qui tentaient d'abuser de Claude, et nous avons plaidé en faveur de contrôles rigoureux des exportations de puces afin de garantir un avantage démocratique.

    Anthropic comprend que c'est le ministère de la guerre, et non des entreprises privées, qui prend les décisions militaires. Nous n'avons jamais soulevé d'objections à des opérations militaires particulières ni tenté de limiter l'utilisation de notre technologie de manière ad hoc.

    Toutefois, dans un nombre restreint de cas, nous pensons que l'IA peut saper les valeurs démocratiques au lieu de les défendre. Certaines utilisations dépassent tout simplement les limites de ce que la technologie actuelle peut faire de manière sûre et fiable. Deux de ces utilisations n'ont jamais été incluses dans nos contrats avec le ministère de la guerre et nous pensons qu'elles ne devraient pas l'être maintenant :

    - La surveillance domestique de masse. Nous sommes favorables à l'utilisation de l'IA pour des missions légales de renseignement extérieur et de contre-espionnage. Mais l'utilisation de ces systèmes pour la surveillance domestique de masse est incompatible avec les valeurs démocratiques. La surveillance de masse par l'IA présente des risques graves et nouveaux pour nos libertés fondamentales. Si cette surveillance est actuellement légale, c'est uniquement parce que la loi n'a pas encore rattrapé les capacités croissantes de l'IA. Par exemple, en vertu de la législation actuelle, le gouvernement peut acheter des enregistrements détaillés des mouvements des Américains, de leur navigation sur le web et de leurs associations auprès de sources publiques sans obtenir de mandat, une pratique dont la communauté du renseignement a reconnu qu'elle soulevait des problèmes de protection de la vie privée et qui a suscité une opposition bipartisane au sein du Congrès. Une IA puissante permet d'assembler ces données éparses et individuellement inoffensives en une image complète de la vie de n'importe quelle personne, de manière automatique et à grande échelle.

    - Armes entièrement autonomes. Les armes partiellement autonomes, comme celles utilisées aujourd'hui en Ukraine, sont essentielles à la défense de la démocratie. Même les armes entièrement autonomes (celles qui éliminent complètement les humains et automatisent la sélection et l'engagement des cibles) peuvent s'avérer essentielles pour notre défense nationale. Mais aujourd'hui, les systèmes d'IA de pointe ne sont tout simplement pas assez fiables pour alimenter des armes entièrement autonomes. Nous ne fournirons pas sciemment un produit qui met en danger les combattants et les civils américains. Nous avons proposé de travailler directement avec le ministère de la guerre sur la recherche et le développement afin d'améliorer la fiabilité de ces systèmes, mais ils n'ont pas accepté cette offre. En outre, en l'absence d'une surveillance adéquate, on ne peut compter sur les armes entièrement autonomes pour exercer le jugement critique dont font preuve chaque jour nos troupes professionnelles hautement entraînées. Elles doivent être déployées avec des garde-fous appropriés, qui n'existent pas aujourd'hui.

    À notre connaissance, ces deux exceptions n'ont pas constitué un obstacle à l'accélération de l'adoption et de l'utilisation de nos modèles au sein de nos forces armées jusqu'à présent.

    Le ministère de la guerre a déclaré qu'il ne passerait de contrat qu'avec des entreprises d'IA qui accepteraient « toute utilisation légale » et supprimeraient les garde-fous dans les cas mentionnés ci-dessus. Il a menacé de nous retirer de ses systèmes si nous maintenions ces garanties ; il a également menacé de nous désigner comme « risque pour la chaîne d'approvisionnement » - une étiquette réservée aux adversaires des États-Unis, jamais appliquée auparavant à une entreprise américaine - et d'invoquer le Defense Production Act pour forcer la suppression des garanties. Ces deux dernières menaces sont intrinsèquement contradictoires : l'une nous qualifie de risque pour la sécurité, l'autre qualifie Claude d'élément essentiel de la sécurité nationale.

    Quoi qu'il en soit, ces menaces ne changent pas notre position : nous ne pouvons pas, en toute conscience, accéder à leur demande.

    C'est la prérogative du Département de sélectionner les contractants les plus en phase avec leur vision. Mais compte tenu de la valeur substantielle que la technologie d'Anthropic apporte à nos forces armées, nous espérons qu'ils reviendront sur leur décision. Nous préférons vivement qu'Anthropic continue à servir le département et nos combattants, avec les deux garanties que nous avons demandées. Si le ministère décide de se séparer d'Anthropic, nous nous efforcerons d'assurer une transition en douceur vers un autre fournisseur, en évitant toute perturbation de la planification et des opérations militaires en cours ou d'autres missions essentielles. Nos modèles seront disponibles dans les conditions étendues que nous avons proposées aussi longtemps que nécessaire.

    Nous sommes prêts à poursuivre notre travail pour soutenir la sécurité nationale des États-Unis.

    Source : Déclaration de Dario Amodei

    Et vous ?

    Pensez-vous que cette déclaration est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    GPT, Claude et Gemini ont choisi la frappe nucléaire dans 95 % des simulations de guerre et aucun modèle n'a jamais capitulé : une étude qui dérange au moment où Washington veut débrider ses modèles d'IA

    Le Pentagone menace Anthropic de la considérer comme « risque pour la chaîne d'approvisionnement » s'il n'a pas un accès total à son IA Claude pour le ciblage d'armes autonomes et la surveillance de masse

    Le PDG d'Anthropic fustige l'administration Trump pour avoir autorisé la vente de puces IA Nvidia H200 à la Chine : « Je pense que c'est de la folie. C'est comme vendre des armes nucléaires à la Corée du Nord »
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  17. #17
    Membre du Club
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Avril 2025
    Messages
    44
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Creuse (Limousin)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Avril 2025
    Messages : 44
    Par défaut
    Vaste mascarade, comme si les lois Américaines n'obligeaient pas Anthropic à collaborer avec ou contre son gré. C'est risible. Par contre c'est un très beau manteau de vertue qu'on enfile pour rassurer les utilisateurs et les puissances étrangères.

  18. #18
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 902
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 902
    Par défaut Anthropic blacklisté pour avoir refusé la surveillance de masse, OpenAI en profite et conclu un accord
    Anthropic blacklisté pour avoir refusé la surveillance de masse, OpenAI en profite et conclut un accord avec le Pentagone :
    une situation qui enflamme la campagne #CancelChatGPT où les utilisateurs se désabonnent en masse

    Fin février 2026, l'industrie de l'intelligence artificielle a vécu l'une de ses journées les plus révélatrices. D'un côté, Anthropic a refusé catégoriquement de lever ses garde-fous éthiques face aux exigences du département de la Guerre américain, au risque d'être blacklisté de tous les contrats fédéraux. De l'autre, Sam Altman s'est empressé de signer un accord avec le Pentagone, déclenchant une vague de désinscriptions massives à ChatGPT et relançant un débat fondamental : peut-on faire confiance à une IA qui se vend au complexe militaro-industriel ?

    En quelques heures, deux visions radicalement opposées du rôle des grandes entreprises d'IA se sont affrontées au grand jour, avec pour enjeu rien de moins que la surveillance de masse des citoyens américains et le développement d'armes létales autonomes.

    Le matin, Dario Amodei, PDG d'Anthropic, publiait une déclaration publique annonçant que son entreprise refusait de céder aux demandes du département de la Guerre des États-Unis, qui exigeait un accès sans restrictions à ses modèles Claude pour, entre autres, des applications de surveillance domestique à grande échelle et des systèmes d'armement entièrement autonomes. Le soir, Sam Altman annonçait avoir conclu un accord avec ce même département pour déployer les modèles d'OpenAI sur son réseau classifié. La séquence, d'une brutalité presque caricaturale, a immédiatement embrasé les communautés en ligne.


    Les deux lignes rouges d'Anthropic

    Pour comprendre l'ampleur du bras de fer, il faut lire attentivement le communiqué de Dario Amodei. Contrairement à ce que l'administration Trump a tenté de faire croire, Anthropic n'est pas une entreprise naïve ou hostile aux intérêts de la défense nationale. Elle revendique d'être la première compagnie d'IA à avoir déployé ses modèles dans les réseaux classifiés du gouvernement américain, la première à les avoir mis à disposition des laboratoires nationaux, et la première à avoir proposé des modèles sur mesure pour les clients de la sécurité nationale. Claude est aujourd'hui utilisé pour l'analyse du renseignement, la planification opérationnelle, les opérations cyber et les simulations de défense.

    Ce que l'entreprise refuse catégoriquement, ce sont deux usages spécifiques : la surveillance domestique de masse et les armes entièrement autonomes.

    Sur le premier point, Amodei distingue clairement le renseignement étranger légal — qu'Anthropic soutient — de la surveillance systématique des citoyens américains, rendue techniquement triviale par les capacités actuelles des LLM. Le raisonnement est précis : sous le droit existant, le gouvernement peut acheter des données détaillées sur les déplacements, la navigation web et les associations d'Américains sans mandat judiciaire, une pratique que la communauté du renseignement elle-même reconnaît comme problématique. Or, une IA puissante permet d'assembler automatiquement et à grande échelle ces données éparses en un portrait exhaustif de n'importe quelle personne :

    « Surveillance intérieure de masse. Nous soutenons l'utilisation de l'IA pour des missions légitimes de renseignement et de contre-espionnage à l'étranger. Cependant, l'utilisation de ces systèmes pour la surveillance intérieure de masse est incompatible avec les valeurs démocratiques. La surveillance de masse pilotée par l'IA présente des risques graves et inédits pour nos libertés fondamentales. Si une telle surveillance est actuellement légale, c'est uniquement parce que la loi n'a pas encore intégré les capacités croissantes de l'IA. Par exemple, la législation actuelle permet au gouvernement d'acquérir, auprès de sources publiques, des données détaillées sur les déplacements, la navigation web et les fréquentations des citoyens américains sans mandat. Or, la communauté du renseignement reconnaît que cette pratique soulève des problèmes de respect de la vie privée et a suscité une opposition bipartisane au Congrès. Une IA puissante permet de rassembler ces données éparses et individuellement anodines en un portrait complet de la vie de chaque individu, de manière automatique et à grande échelle ».

    Sur les armes autonomes, Anthropic ne dit pas non par principe idéologique absolu, mais par réalisme technique. Les systèmes d'IA actuels ne sont tout simplement pas assez fiables pour alimenter des armes entièrement autonomes, et les déployer sans garde-fous adéquats ferait courir des risques inacceptables aux combattants américains eux-mêmes et aux civils :

    « Les armes entièrement autonomes sont essentielles. Les armes partiellement autonomes, comme celles utilisées aujourd'hui en Ukraine, sont vitales pour la défense de la démocratie. Même les armes entièrement autonomes (celles qui éliminent totalement l'intervention humaine et automatisent la sélection et l'engagement des cibles) pourraient s'avérer cruciales pour notre défense nationale. Cependant, à l'heure actuelle, les systèmes d'IA de pointe ne sont tout simplement pas assez fiables pour alimenter des armes entièrement autonomes. Nous ne fournirons pas sciemment un produit qui mette en danger les militaires et les civils américains. Nous avons proposé de collaborer directement avec le Département de la Guerre sur la recherche et le développement afin d'améliorer la fiabilité de ces systèmes, mais cette offre a été refusée. De plus, sans supervision adéquate, on ne peut pas compter sur les armes entièrement autonomes pour faire preuve du même discernement que nos troupes professionnelles et hautement entraînées au quotidien. Leur déploiement doit être encadré par des garde-fous appropriés, qui n'existent pas actuellement ».

    La réponse du département de la Guerre a été d'une violence institutionnelle inhabituelle : menacer de classer Anthropic comme « risque pour la chaîne d'approvisionnement » — une désignation jusqu'ici réservée aux adversaires étrangers, jamais à une entreprise américaine — et d'invoquer le Defense Production Act pour forcer la suppression des garde-fous. Anthropic a elle-même souligné l'absurdité de la situation : ces deux menaces sont intrinsèquement contradictoires, l'une désignant l'entreprise comme un risque sécuritaire, l'autre affirmant que Claude est indispensable à la sécurité nationale.

    Trump entre en scène, Altman ramasse la mise

    La réaction de l'administration Trump n'a pas tardé. Le président a publié un message sur Truth Social attaquant violemment Anthropic, accusant les dirigeants d'être des « cinglés d'extrême gauche » ayant commis une « erreur désastreuse » en tentant d'imposer leurs conditions de service au département de la Guerre, mettant selon lui en danger des vies américaines et la sécurité nationale.

    C'est dans ce contexte que Sam Altman a saisi l'opportunité. Dans un long message posté le soir du 28 février, il a annoncé avoir conclu un accord pour déployer les modèles d'OpenAI dans le réseau classifié du département de la Guerre, affirmant que celui-ci avait fait preuve d'un « profond respect pour la sécurité » et d'une volonté de partenariat constructif. Altman a assuré que l'accord incluait des interdictions sur la surveillance domestique de masse et sur les systèmes d'armement autonomes, et que des garanties techniques seraient déployées, avec des ingénieurs Forward Deployed pour superviser l'utilisation des modèles. Pour mémoire, « Forward Deployed Engineers » (FDE) est un terme issu du jargon militaire américain, signifiant littéralement des ingénieurs « déployés en avant » — c'est-à-dire directement sur le terrain, au plus près des opérations, plutôt que depuis un siège social distant. Dans le contexte d'OpenAI, cela désigne des ingénieurs de la société qui seraient physiquement intégrés au sein des équipes du département de la Guerre pour surveiller et maintenir les modèles en temps réel, s'assurer qu'ils fonctionnent conformément aux garde-fous convenus, et intervenir rapidement en cas de problème.

    Dans un post sur X, Altman a affirmé que les modèles d'OpenAI ne seraient pas utilisés pour la surveillance de masse, mais cette affirmation a immédiatement été contredite par un responsable gouvernemental américain, qui a précisé qu'OpenAI pourrait être utilisé à « toutes fins légales. » Or, la surveillance de masse est légale « dans certains scénarios » en vertu du Patriot Act post-11-Septembre, qui autorise la collecte en masse de métadonnées de communications. La différence fondamentale avec la position d'Anthropic est là : OpenAI délègue au gouvernement l'interprétation de ce qui constitue un usage acceptable, là où Anthropic exige de conserver ce contrôle.

    Voici son message en intégralité :

    « Ce soir, nous avons conclu un accord avec le Département de la Guerre pour le déploiement de nos modèles sur son réseau classifié. Lors de tous nos échanges, le Département de la Guerre a fait preuve d'un profond respect pour la sécurité et d'une volonté de partenariat afin d'obtenir le meilleur résultat possible.

    « La sécurité de l'IA et la large diffusion de ses avantages sont au cœur de notre mission. Deux de nos principes de sécurité les plus importants sont l'interdiction de la surveillance de masse intérieure et la responsabilité humaine dans l'usage de la force, y compris pour les systèmes d'armes autonomes. Le Département de la Guerre partage ces principes, les inscrit dans sa législation et ses politiques, et nous les avons intégrés à notre accord.

    « Nous mettrons également en place des garanties techniques pour assurer le bon fonctionnement de nos modèles, ce que le Département de la Guerre souhaitait également. Nous aurons des FDE [ndlr. Forward Deployed Engineers, des ingénieurs intégrés directement au sein des équipes militaires] pour assister nos modèles et garantir leur sécurité*; ce déploiement se fera exclusivement sur des réseaux cloud.

    « Nous demandons au Département de la Guerre d'appliquer ces mêmes conditions à toutes les entreprises d'IA, ce qui, selon nous, devrait être acceptable pour tous. Nous avons exprimé notre ferme volonté de voir les choses se désamorcer et d'éviter les actions juridiques et gouvernementales au profit d'accords raisonnables.

    « Nous restons déterminés à servir l'humanité tout entière du mieux que nous le pouvons. Le monde est un endroit complexe, chaotique et parfois dangereux. »

    Nom : guerre_sam.png
Affichages : 4788
Taille : 23,6 Ko

    #CancelChatGPT : la révolte des utilisateurs

    La réaction de la communauté a été immédiate et massive. Sur Reddit, des fils réunissant des milliers de votes ont vu des utilisateurs annoncer la résiliation de leur abonnement ChatGPT Plus. Sur le subreddit r/ChatGPT, un fil intitulé « Vous entraînez maintenant une machine de guerre » appelait les utilisateurs à publier leurs preuves de résiliation. Sur r/OpenAI, d'autres utilisateurs mettaient en avant la comparaison avec Anthropic : le département de la Guerre avait sanctionné cette dernière pour avoir des principes éthiques, et Altman s'était empressé de signer l'accord en échange des contrats gouvernementaux.

    La dynamique a eu un effet mesurable sur les classements des app stores. Dans les jours suivant l'annonce, l'effet sur les classements des app stores a été spectaculaire. Selon les données de Sensor Tower citées par CNBC, Claude est passé de juste en dehors du top 100 fin janvier à la première place des applications gratuites, accélérant de la 6e position en milieu de semaine à la 1ère place dès le week-end. ChatGPT et Google Gemini se retrouvant respectivement reléguées aux 2e et 3e places. Pour une industrie habituée à mesurer le succès en valeur boursière et en tours de table, voir des utilisateurs propulser en quelques jours l'application d'une entreprise ayant refusé un contrat gouvernemental lucratif à la première place des app stores constitue un signal difficile à ignorer. Un porte-parole d'Anthropic a confirmé que les inscriptions quotidiennes ont battu des records absolus chaque jour de la semaine, que les utilisateurs gratuits ont progressé de plus de 60 % depuis janvier, et que les abonnés payants ont plus que doublé depuis le début de l'année.

    Nom : bye.png
Affichages : 1078
Taille : 106,5 Ko

    Le contexte industriel : une exception dans un océan de complaisance

    Ce qui rend la position d'Anthropic d'autant plus remarquable, c'est son caractère isolé dans le paysage de l'IA. Google a supprimé en février 2025 son engagement de ne pas utiliser l'IA pour des armes ou de la surveillance, mettant à jour ses principes éthiques sans que cela ne provoque de réaction significative dans l'industrie. Du côté de Meta, l'entreprise a révisé en novembre 2024 sa politique interdisant les usages militaires de ses modèles Llama, permettant aux agences de sécurité nationale américaines et à leurs sous-traitants — dont Lockheed Martin, Booz Allen Hamilton et Palantir — d'y accéder librement.

    OpenAI elle-même n'est pas en terrain inconnu avec les applications militaires : son ancienne politique interdisait explicitement les usages liés aux armes, mais elle a été modifiée en 2024 pour permettre les partenariats avec des gouvernements, ouvrant la voie aux deals actuels. La valorisation délirante de l'entreprise — environ 730 milliards de dollars lors de son dernier tour de table, avec des investisseurs comme Amazon, SoftBank et NVIDIA — rend la pression pour sécuriser des contrats gouvernementaux massifs d'autant plus compréhensible sur le plan commercial, même si elle est moralement discutable.

    OpenAI, Google et xAI disposent de contrats avec le département de la Défense, dans lesquels ils ont accepté que leurs outils puissent être utilisés dans tous les scénarios « légaux », sans restriction contractuelle contraignante imposée par les entreprises elles-mêmes. Dans ce contexte, la ligne de résistance tracée par Anthropic apparaît moins comme une norme sectorielle que comme une exception singulière — et coûteuse.

    Le vrai débat : qui contrôle l'usage d'une IA ?

    Au fond, l'affrontement entre Anthropic et le département de la Guerre met en lumière une question philosophique que l'industrie de l'IA ne pourra éviter indéfiniment : qui a le dernier mot sur l'usage d'un système d'IA — son créateur ou son acheteur ?

    La position d'Anthropic est que certains usages sont si potentiellement dommageables qu'aucun contrat commercial ne doit pouvoir les autoriser, quand bien même ils seraient techniquement légaux. C'est une position défendable et cohérente avec le positionnement « safety first » de l'entreprise depuis sa fondation par d'anciens chercheurs d'OpenAI précisément préoccupés par les dérives de leur ancienne structure.

    La position d'OpenAI, beaucoup plus confortable commercialement, consiste à déléguer cette responsabilité au cadre légal existant, en faisant confiance aux institutions pour définir des garde-fous suffisants. Le problème, comme des juristes et experts en droits civiques l'ont immédiatement souligné, est que ce cadre légal — notamment le Patriot Act et ses dérivés — a déjà été utilisé pour justifier des programmes de surveillance de masse que des tribunaux américains eux-mêmes ont par la suite jugés inconstitutionnels. La surveillance incidente des citoyens américains dans le cadre d'opérations cibles sur des ressortissants étrangers est légale, et les LLM la rendent mécaniquement triviale.

    Une fracture durable ?

    Sam Altman a tenté une opération de gestion de crise dans les heures suivant l'annonce, en organisant une session de questions-réponses sur X pour rassurer les utilisateurs sur les garanties de l'accord. Il a affirmé que le département de la Guerre respecterait les « lignes rouges » d'OpenAI, mais est resté largement vague sur les mécanismes concrets de supervision et d'application de ces garanties. L'argument selon lequel le droit américain protège par défaut contre ces dérives n'a pas convaincu grand monde, dans un contexte où l'administration en place a précisément montré une grande créativité dans l'interprétation des précédents constitutionnels et juridiques.

    Ce qui est certain, c'est que cette séquence de 24 heures a produit quelque chose de rare dans l'industrie technologique : une différenciation éthique visible et mesurable entre deux acteurs majeurs, avec des conséquences immédiates sur les comportements des utilisateurs. Anthropic a perdu des contrats gouvernementaux potentiellement lucratifs. Elle a gagné en crédibilité auprès d'une partie significative de ses utilisateurs — et, symboliquement, la première place des app stores.

    La question qui reste ouverte est de savoir si cette crédibilité est durable, ou si les pressions économiques finiront par éroder les lignes rouges d'Anthropic comme elles ont érodé celles de ses concurrents. Dans une industrie qui brûle des milliards de dollars de cash chaque trimestre, les principes ont tendance à avoir une durée de vie proportionnelle aux réserves financières.

    Sources : Sam Altman, OpenAI, PDG Anthropic, Département américain de la Guerre, Meta (1, 2), vidéo dans le texte

    Et vous ?

    Faites-vous confiance aux engagements d'OpenAI vis-à-vis du département de la Guerre pour prévenir les usages abusifs, ou la délégation au cadre légal existant vous semble-t-elle insuffisante ?

    La position d'Anthropic est-elle réellement tenable sur le long terme face aux pressions économiques et gouvernementales, ou s'agit-il d'une posture marketing provisoire ?

    Un développeur d'IA peut-il légitimement imposer ses propres conditions éthiques à un gouvernement souverain, ou cette prérogative appartient-elle exclusivement aux institutions démocratiques et aux législateurs ?

    Le mouvement #CancelChatGPT vous semble-t-il susceptible de changer durablement les pratiques de l'industrie, ou se dissoudra-t-il comme les précédents boycotts technologiques ?

    Voir aussi :

    La campagne « QuitGPT » incite les utilisateurs à résilier leur abonnement à ChatGPT en raison de performances « médiocres » en matière de codage et des dons des dirigeants d'OpenAI à Donald Trump

    GPT, Claude et Gemini ont choisi la frappe nucléaire dans 95 % des simulations de guerre et aucun modèle n'a jamais capitulé : une étude qui dérange au moment où Washington veut débrider ses modèles d'IA

    Anthropic abandonne sa promesse de sécurité au milieu d'une bataille sur la ligne rouge de l'IA avec le Pentagone, le nouveau cadre de sécurité non contraignant n'entravera pas sa capacité à être compétitif
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  19. #19
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 010
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 010
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Sam Altman a tenté une opération de gestion de crise dans les heures suivant l'annonce, en organisant une session de questions-réponses sur X pour rassurer les utilisateurs sur les garanties de l'accord. Il a affirmé que le département de la Guerre respecterait les « lignes rouges » d'OpenAI, mais est resté largement vague sur les mécanismes concrets de supervision et d'application de ces garanties. L'argument selon lequel le droit américain protège par défaut contre ces dérives n'a pas convaincu grand monde, dans un contexte où l'administration en place a précisément montré une grande créativité dans l'interprétation des précédents constitutionnels et juridiques.
    OpenAI a besoin d'argent pour survivre, la stratégie des entreprises de l'IA c'est : "Dépensez le maximum de ressource en recherche et développement dans l'espoir de réussir à proposer le premier outil IA capable de faire quelque chose", si une entreprise atteint cet objectif alors les entreprises et les particuliers vont payer des abonnements et l'entreprise IA pourra espérer être rentable un jour.

    Le département de la Guerre (Pentagone) doit payer OpenAI. D'un côté quelque personnes vont stopper leur abonnement à ChatGPT, d'un autre côté le Pentagone paie.
    Il y a moyen que le Pentagone rapporte beaucoup plus à court terme.

  20. #20
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    419
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 419
    Par défaut
    Citation Envoyé par Sammy Altman, le copain de Scooby-Doo
    Deux de nos principes de sécurité les plus importants sont l'interdiction de la surveillance de masse intérieure et la responsabilité humaine dans l'usage de la force, y compris pour les systèmes d'armes autonomes.
    L'agent orange a donc dégagé Anthropic pour le remplacer par OpenAI mais avec les même conditions qu'il refusait ?
    Elle est où l'arnaque ?

Discussions similaires

  1. Réponses: 7
    Dernier message: 12/07/2024, 18h42
  2. [AC-2007] Comment coder les boutons de commandes sous acces 2007
    Par njcom dans le forum VBA Access
    Réponses: 1
    Dernier message: 06/07/2009, 18h37
  3. Les stations n'ont pas accès au domaine
    Par Jean-Claude Dusse dans le forum Windows Serveur
    Réponses: 6
    Dernier message: 08/01/2009, 18h03
  4. [WSS3.0] Personnaliser les email de demande d'accès
    Par guillaumegr dans le forum SharePoint
    Réponses: 2
    Dernier message: 19/10/2007, 16h10

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo