IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Le gouvernement américain va-t-il nationaliser les entreprises privées d'IA ?


Sujet :

Intelligence artificielle

  1. #21
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 915
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 915
    Par défaut Claude détrône ChatGPT sur l'App Store après le refus d'Anthropic de céder aux exigences militaires sur son IA
    Claude détrône ChatGPT sur l'App Store et Play Store après le refus d'Anthropic de céder aux exigences militaires sur son IA :
    l'entreprise a transformé une punition politique en triomphe commercial sans précédent dans la guerre des IA

    En refusant de céder aux exigences militaires américaines sur l'usage de son IA, Anthropic a perdu un contrat fédéral mais déclenché un mouvement populaire sans précédent. En moins de 48 heures, Claude est passé de la 131e à la première place des applications gratuites les plus téléchargées sur l'App Store américain. Derrière cet électrochoc commercial se cache une question de fond : peut-on, aujourd'hui, faire de l'éthique une arme concurrentielle dans la guerre des modèles d'IA ?

    Tout commence par un bras de fer feutré entre Anthropic et le Département de la Défense américain, qui s'emballe en quelques jours jusqu'à atteindre un niveau de confrontation inédit dans le secteur technologique. Depuis l'été 2025, Anthropic disposait d'un contrat militaire pouvant atteindre 200 millions de dollars, faisant de Claude le premier modèle d'IA déployé sur les réseaux classifiés des forces armées américaines. C'est dans ce cadre que le Pentagone a exigé que Claude soit disponible pour « toutes les utilisations légales », se heurtant à deux lignes rouges absolues définies par Anthropic : l'interdiction d'utiliser son modèle dans des armes entièrement autonomes, et l'interdiction de son usage dans la surveillance de masse des citoyens américains.

    Pendant des semaines, les négociations ont traîné. Le Pentagone a finalement proposé un compromis que l'entreprise a jugé cosmétique — un texte présenté comme une avancée mais « assorti de termes juridiques permettant de contourner ces garde-fous à volonté ». Face à ce qu'il considérait comme une manœuvre de façade, le PDG Dario Amodei a publié un communiqué sans ambiguïté : « Les menaces ne changeront pas notre position : nous ne pouvons pas en conscience accéder à leur demande. »

    La réponse de Washington est tombée le lendemain dans la soirée, avec une violence rhétorique remarquable. Donald Trump a qualifié Anthropic de « leftwing nut jobs » sur Truth Social et a ordonné à chaque agence fédérale « d'immédiatement cesser » toute utilisation des technologies de l'entreprise.

    Nom : left.png
Affichages : 6802
Taille : 40,6 Ko

    Peu après, le secrétaire à la Défense (devenu secrétaire à la Guerre) Pete Hegseth franchissait un cap supplémentaire en désignant Anthropic comme un « risque pour la chaîne d'approvisionnement » — une classification normalement réservée aux entreprises liées à des puissances étrangères adverses :

    « Cette semaine, Anthropic a donné une leçon magistrale d'arrogance et de trahison, illustrant à la perfection comment ne surtout pas faire affaire avec le gouvernement américain ou le Pentagone. Notre position est restée et restera inchangée*: le Département de la Guerre doit avoir un accès complet et sans restriction aux modèles d'Anthropic pour toute utilisation LÉGALE dans le cadre de la défense de la République.

    « Or, Anthropic et son PDG Dario Amodei ont opté pour la duplicité. Sous couvert d'une rhétorique hypocrite «*d'altruisme efficace*», ils ont tenté de contraindre l'armée américaine à se soumettre par la force – un acte lâche de propagande d'entreprise qui place l'idéologie de la Silicon Valley au-dessus des vies américaines. Les conditions d'utilisation de cet altruisme factice d'Anthropic ne primeront jamais sur la sécurité, la disponibilité opérationnelle ni la vie des soldats américains sur le champ de bataille.

    « Leur véritable objectif est clair*: s'emparer d'un droit de veto sur les décisions opérationnelles de l'armée américaine. C'est inacceptable. Comme l'a déclaré le président Trump sur Truth Social, le commandant en chef et le peuple américain seuls décideront du sort de nos forces armées, et non des dirigeants d'entreprises technologiques non élus.

    « La position d'Anthropic est fondamentalement incompatible avec les principes américains. Leurs relations avec les forces armées des États-Unis et le gouvernement fédéral sont donc définitivement compromises.

    « Conformément à la directive du président enjoignant au gouvernement fédéral de cesser toute utilisation de la technologie d'Anthropic, j'ordonne au département de la Guerre de désigner Anthropic comme une menace pour la sécurité nationale en matière de chaîne d'approvisionnement. Avec effet immédiat, aucun contractant, fournisseur ou partenaire entretenant des relations commerciales avec l'armée américaine n'est autorisé à mener une quelconque activité commerciale avec Anthropic. Anthropic continuera de fournir ses services au département de la Guerre pendant une période maximale de six mois afin de permettre une transition en douceur vers un service plus performant et plus patriotique. »

    Nom : secretaire_guerre.png
Affichages : 2185
Taille : 27,5 Ko

    Une désignation aux implications potentiellement dévastatrices

    Sur le plan juridique et commercial, les conséquences de cette désignation sont considérables. Hegseth a affirmé qu'aucun contractant, fournisseur ou partenaire travaillant avec l'armée américaine ne pourrait conduire la moindre activité commerciale avec Anthropic. Si cette interprétation tenait, elle pourrait frapper une large part des clients entreprises d'Anthropic — notamment dans la tech et la défense — et potentiellement contraindre des investisseurs comme Amazon, Google ou Nvidia à se désengager.

    Les analystes juridiques ont rapidement soulevé des doutes sérieux sur la légalité de cette décision. Peter Harrell, ancien conseiller au Conseil de sécurité nationale sous Biden, a estimé que le Pentagone ne pouvait légalement dicter à ses contractants leur comportement dans leurs activités privées. Dean Ball, ancien conseiller IA de l'administration Trump, a qualifié l'interprétation de Hegseth d'« très probablement illégale » et de « tentative de meurtre d'entreprise ».

    Anthropic a immédiatement annoncé son intention de contester la désignation en justice. La société a déclaré qu'elle représentait un « précédent dangereux pour toute entreprise américaine qui négocie avec le gouvernement ». Sur le fond, la perte du contrat fédéral reste absorbable : les 200 millions représentent une fraction modeste pour une entreprise dont les revenus devraient atteindre au moins 18 milliards de dollars cette année, valorisée à 380 milliards de dollars.

    Le pivot d'OpenAI et la fracture dans l'industrie

    Dans les heures qui ont suivi l'annonce de Trump, le PDG d'OpenAI Sam Altman a annoncé avoir conclu un accord avec le Département de la Défense (devenu Département de la Guerre par décret de Trump) pour déployer ses modèles sur les réseaux classifiés. OpenAI a assuré que cet accord comprenait des protections contre la surveillance de masse et les armes autonomes — soit, en substance, les mêmes garde-fous qu'Anthropic refusait d'abandonner. La manœuvre a semblé à beaucoup opportuniste, voire cynique.

    Des employés d'OpenAI ont d'ailleurs signé une lettre ouverte soutenant la position d'Amodei et s'opposant à l'usage de l'IA dans la surveillance de masse ou les armes autonomes. Dans un geste diplomatique inhabituel, Sam Altman lui-même a déclaré que la désignation d'Anthropic comme risque pour la chaîne d'approvisionnement était « une très mauvaise décision » qu'il espérait voir annulée.

    Nom : claude_un.png
Affichages : 2140
Taille : 72,3 Ko

    L'App Store comme plébiscite populaire

    C'est dans ce contexte que l'inattendu s'est produit. Les réseaux sociaux se sont embrasés. Des captures d'écran de résiliations d'abonnements ChatGPT et de souscriptions à Claude Pro ont inondé X et Reddit, sur fond de messages appelant à « annuler ChatGPT ». La chanteuse Katy Perry — 85 millions d'abonnés sur X — a posté une capture d'écran de la page d'abonnement Claude Pro agrémentée d'un cœur rouge, avec pour seule mention « done » (c'est fait). Le message était limpide.

    Au début de 2026, Claude était classé 42e sur l'App Store américain. Le samedi 1er mars, pour la première fois de son histoire, il en atteignait la première place. La progression avait été fulgurante : sixième le mercredi, quatrième le jeudi, numéro un le samedi soir.

    Selon les données du cabinet d'analyse Sensor Tower, Claude avait passé la majeure partie de février aux alentours du top 20, après avoir terminé le mois de janvier à la 131e place. En quelques jours, l'application avait donc parcouru plus de cent positions dans le classement. Un porte-parole d'Anthropic a confirmé que les inscriptions quotidiennes battaient chaque jour un record absolu cette semaine-là, que le nombre d'utilisateurs gratuits avait augmenté de plus de 60 % depuis janvier, et que les abonnés payants avaient plus que doublé depuis le début de l'année.

    Nom : katty.png
Affichages : 1629
Taille : 102,0 Ko

    La mécanique d'un effet Streisand géopolitique

    Ce phénomène ressemble à une forme d'effet Streisand à l'échelle géopolitique : en tentant de punir Anthropic, l'administration Trump lui a offert la meilleure campagne de communication imaginable. Pour une fraction significative des utilisateurs, la posture d'Amodei a fonctionné comme un signal de valeurs — et dans un marché où les IA grand public se ressemblent de plus en plus sur le plan fonctionnel, les valeurs affichées par l'entreprise qui les développe peuvent devenir un critère de choix.

    Un post Reddit rassemblant 30 000 votes positifs sous le titre « Annulez et supprimez ChatGPT ! » a illustré la viralité de ce mouvement. Et si la durabilité de ces conversions reste incertaine — ChatGPT demeure juste derrière Claude dans les classements et conserve son avantage de pionnier —, la dynamique à court terme est incontestable.

    Il faut toutefois nuancer l'amplitude du phénomène. Les données d'OpenRouter mesurant l'usage des modèles sur le dernier mois montrent que douze modèles différents dépassent désormais ceux d'OpenAI, et que Claude Sonnet 4.5 ne se classe que cinquième pour février, le modèle le plus utilisé étant issu de MiniMax, un concurrent chinois. Le buzz sur l'App Store grand public ne reflète pas nécessairement la réalité de l'usage professionnel ou des API.

    Nom : claude_stats.png
Affichages : 1624
Taille : 966,4 Ko

    Une montée en puissance qui précédait la crise

    Bien avant cet épisode, Anthropic accumulait déjà les signes d'une montée en puissance. Claude Opus 4.6, sorti début février 2026, avait pris la tête du classement Artificial Analysis, devançant GPT-5.2 d'OpenAI et Gemini de Google, et s'était également hissé en première position sur Arena.ai. Côté développeurs, Claude Code, l'agent de programmation en ligne de commande d'Anthropic, était devenu l'outil de codage le plus adopté parmi les startups, les entreprises et les équipes de recherche entrant en 2026.

    La controverse avec le Pentagone a donc amplifié une dynamique déjà bien engagée. Elle a surtout transformé un avantage technique progressif en récit politique fort — celui d'une entreprise qui assume publiquement des lignes rouges éthiques face à la pression du pouvoir. Dans une industrie souvent accusée de sacrifier ses principes sur l'autel des contrats gouvernementaux, c'est un positionnement rare. Et apparemment, ça paie.

    Sources : Trump, secrétaire à la Guerre Pete Hegseth, Katy Perry

    Et vous ?

    L'éthique peut-elle durablement constituer un avantage concurrentiel pour une entreprise d'IA, ou les utilisateurs grand public finissent-ils toujours par revenir à l'outil qu'ils connaissent le mieux ?

    OpenAI a signé le contrat du Pentagone en affirmant avoir obtenu les mêmes garde-fous qu'Anthropic refusait d'abandonner. S'agit-il d'un tour de passe-passe rhétorique ou d'une preuve que la négociation était possible ?

    La désignation d'Anthropic comme « risque pour la chaîne d'approvisionnement » — une mesure habituellement réservée aux entreprises liées à des puissances adverses — constitue-t-elle un précédent inquiétant pour la relation entre les États et les acteurs privés de l'IA ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #22
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 761
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 761
    Par défaut L'armée américaine a déployé l'IA Claude lors des frappes en Iran malgré l'interdiction de Trump
    L'armée américaine a utilisé l'IA d'Anthropic pour analyser des renseignements et choisir des cibles lors de l'attaque en Iran, malgré l'interdiction de Trump, ils se sont appuyés sur Claude

    Dans un développement frappant qui souligne la complexité de l'intégration de l'IA dans les systèmes de défense nationale, l'armée américaine aurait eu recours au modèle d'IA Claude d'Anthropic lors de ses récentes frappes contre l'Iran, quelques heures seulement après que le président américain Donald Trump ait qualifié l'entreprise de « risque pour la chaîne d'approvisionnement ». Selon des informations publiées par le Wall Street Journal, le département américain de la Défense aurait utilisé le modèle d'IA Claude d'Anthropic pour faciliter la collecte de renseignements, l'identification des cibles et les simulations de champ de bataille pendant l'opération.

    Anthropic PBC est une société américaine d'intelligence artificielle (IA) dont le siège est à San Francisco. Elle a développé une famille de grands modèles de langage (LLM) nommée Claude. Anthropic fonctionne comme une société d'intérêt public qui recherche et développe l'IA afin d'« étudier ses propriétés de sécurité à la frontière technologique » et utilise ces recherches pour déployer des modèles sûrs pour le public.

    Le patron d'Anthropic, Dario Amodei, a récemment rejeté la demande du Pentagone d'abandonner les garanties en matière d'IA. Anthropic préférerait ne pas travailler avec l'armée américaine plutôt que de permettre que l'IA soit utilisée pour la guerre et la surveillance de masse. Anthropic a déclaré qu'elle ne reculerait pas dans sa lutte avec le ministère américain de la défense concernant l'utilisation de sa technologie d'intelligence artificielle (IA).

    Dans un développement frappant qui souligne la complexité de l'intégration de l'IA dans les systèmes de défense nationale, l'armée américaine aurait eu recours au modèle d'IA Claude d'Anthropic lors de ses récentes frappes contre l'Iran, quelques heures seulement après que le président américain Donald Trump ait qualifié l'entreprise de « risque pour la chaîne d'approvisionnement ».

    Le 28 février, les forces américaines et israéliennes ont mené une offensive coordonnée contre des cibles iraniennes sous le nom de code « Operation Epic Fury ». Cette action militaire conjointe aurait ciblé des installations gouvernementales clés, notamment des sites nucléaires et des infrastructures militaires stratégiques. Selon des informations publiées par le Wall Street Journal, le département américain de la Défense aurait utilisé le modèle d'IA Claude d'Anthropic pour faciliter la collecte de renseignements, l'identification des cibles et les simulations de champ de bataille pendant l'opération.

    Le moment choisi pour l'utilisation de Claude a attiré l'attention. Le président Trump avait ordonné à toutes les agences gouvernementales américaines de cesser d'utiliser les systèmes d'IA d'Anthropic, invoquant des raisons de sécurité nationale. Cependant, les responsables de la défense auraient indiqué qu'un retrait immédiat n'était pas possible. Claude reste le seul système d'IA actuellement intégré à certains réseaux classifiés du gouvernement américain. Par conséquent, la transition complète vers une autre plateforme devrait prendre jusqu'à six mois. Bien que l'administration ait annoncé son intention de supprimer progressivement ce modèle, les réalités opérationnelles semblent avoir nécessité son utilisation à court terme.

    La décision de qualifier Anthropic de risque pour la chaîne d'approvisionnement découle de désaccords politiques entre le Pentagone et la start-up spécialisée dans l'IA. Le PDG d'Anthropic, Dario Amodei, s'est publiquement opposé à l'utilisation de Claude pour la surveillance de masse nationale ou le développement de systèmes d'armes autonomes. À la suite de la décision du gouvernement, Amodei a déclaré que l'entreprise contesterait devant les tribunaux le label « risque pour la chaîne d'approvisionnement ».

    Alors que le Pentagone s'apprête à remplacer Claude, OpenAI aurait signé un accord pour fournir ses propres modèles d'IA à l'usage du gouvernement américain. Toutefois, la transition vers des systèmes d'IA avancés dans des environnements de défense classifiés est un processus complexe et long. Les responsables suggèrent que les modèles d'OpenAI devront faire l'objet de tests et d'une intégration importants avant de pouvoir être déployés efficacement.

    Le PDG d'OpenAI, Sam Altman, a souligné que son entreprise maintenait également des limites strictes. Il insiste sur le fait qu'OpenAI n'autorisera pas l'utilisation de ses modèles à des fins de surveillance de masse au niveau national ou pour la création d'armes autonomes, une position qui fait écho à celle précédemment adoptée par Anthropic.


    En refusant de céder aux exigences militaires américaines sur l'usage de son IA, Anthropic a perdu un contrat fédéral mais déclenché un mouvement populaire sans précédent. En moins de 48 heures, Claude est passé de la 131e à la première place des applications gratuites les plus téléchargées sur l'App Store américain. Derrière cet électrochoc commercial se cache une question de fond : peut-on, aujourd'hui, faire de l'éthique une arme concurrentielle dans la guerre des modèles d'IA ?

    Cet épisode met en évidence la tension croissante entre les exigences de sécurité nationale et les cadres éthiques établis par les principales entreprises d'IA. Il reflète également à quel point les outils d'IA sont désormais profondément intégrés dans les opérations de défense modernes, rendant difficile la mise en œuvre rapide de changements de politique dans la pratique. Alors que le gouvernement américain travaille sur son plan de transition, l'opération Epic Fury pourrait devenir une étude de cas sur la manière dont la stratégie géopolitique, l'éthique de l'IA et les directives exécutives s'entrecroisent à une époque de plus en plus façonnée par l'intelligence artificielle.

    Source : WSJ

    Et vous ?

    Pensez-vous que ce rapport est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Anthropic abandonne sa promesse de sécurité au milieu d'une bataille sur la ligne rouge de l'IA avec le Pentagone, le nouveau cadre de sécurité non contraignant n'entravera pas sa capacité à être compétitif

    Anthropic blacklisté pour avoir refusé la surveillance de masse, OpenAI en profite et conclut un accord avec le Pentagone, alimentant la campagne #CancelChatGPT où plusieurs se désabonnent en masse

    Anthropic, Google, OpenAI et xAI reçoivent 800 millions $ du ministère US de la Défense pour des travaux sur l'IA, afin d'accélérer l'adoption de capacités d'IA avancées pour les défis de sécurité nationale
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #23
    Invité de passage

    Homme Profil pro
    Ressources humaines
    Inscrit en
    Décembre 2025
    Messages
    70
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Alpes Maritimes (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Ressources humaines
    Secteur : Associations - ONG

    Informations forums :
    Inscription : Décembre 2025
    Messages : 70
    Par défaut
    Trump est devenu une caricature de lui même, alors même qu'il n'a jamais brillé par sa subtilité. son message à l'encontre de sa nouvelle ennemie (une de plus ) est du même niveau que le reste de ses saillies. Un triste clown qui arrive à surprendre par sa profonde bêtise/vulgarité chaque jour mais il sait pertinemment qu'il ne sera plus là à la fin de son mandat. Il est devenu le meilleur vecteur de la victoire du clan démocrate. Si j'osais je dirais qu'a ce niveau de sabordage il peut être considéré comme un sous marin

    L'armée américaine a utilisé l'IA d'Anthropic pour analyser des renseignements et choisir des cibles lors de l'attaque en Iran, malgré l'interdiction de Trump, ils se sont appuyés sur Claude
    quel charlot.

  4. #24
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 761
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 761
    Par défaut Les désinstallations de ChatGPT augmentent alors que l'accord de défense d'OpenAI suscite des réactions
    Les désinstallations de ChatGPT d'OpenAI ont bondi de 295 % après l'accord avec le ministère américain de la Guerre, tandis que les téléchargements de Claude d'Anthropic ont augmenté de 51 %

    Les utilisateurs américains ont réagi rapidement après qu'OpenAI a confirmé son partenariat avec le ministère de la Défense, désormais rebaptisé « ministère de la Guerre » sous l'administration Trump. Les désinstallations de ChatGPT bondissent de 295 % après l'annonce de l'accord avec le ministère américain de la Défense. Les téléchargements de Claude augmentent alors que les utilisateurs américains changent d'application. Le classement de l'App Store évolue après la controverse sur la défense.

    Fin février 2026, l'industrie de l'intelligence artificielle a vécu l'une de ses journées les plus révélatrices. D'un côté, Anthropic a refusé catégoriquement de lever ses garde-fous éthiques face aux exigences du département de la Guerre américain, au risque d'être blacklisté de tous les contrats fédéraux. De l'autre, Sam Altman s'est empressé de signer un accord avec le Pentagone, déclenchant une vague de désinscriptions massives à ChatGPT et relançant un débat fondamental : peut-on faire confiance à une IA qui se vend au complexe militaro-industriel ?

    De nouvelles données montrent un changement radical dans les téléchargements, le classement des applications et les avis des utilisateurs dans les jours qui ont suivi l'annonce. Les sociétés d'études de marché rapportent que ChatGPT a été confronté à une vague de désinstallations, à un ralentissement de sa croissance et à une baisse de ses notes, tandis que son concurrent Claude, d'Anthropic, a connu un succès considérable.

    Selon Sensor Tower, les désinstallations de l'application mobile ChatGPT aux États-Unis ont bondi de 295 % d'un jour à l'autre le samedi 28 février. Cela marque un écart significatif par rapport au taux de désinstallation quotidien habituel de l'application, qui était de 9 % au cours des 30 derniers jours. Dans le même temps, la croissance des téléchargements s'est affaiblie. Après avoir augmenté de 14 % d'un jour à l'autre vendredi, avant que la nouvelle du partenariat ne soit rendue publique, les téléchargements aux États-Unis ont chuté à 13 % samedi. Ils sont tombés à 5 % dimanche, prolongeant le ralentissement pendant le week-end.

    Le sentiment des utilisateurs était également visible dans les notes. Sensor Tower a rapporté que les avis une étoile pour ChatGPT ont bondi de 775 % samedi, puis ont encore augmenté de 100 % d'un jour à l'autre dimanche. Au cours de la même période, les avis cinq étoiles ont diminué de 50 %. Claude, d'Anthropic, a profité de ce changement. Les données de Sensor Tower ont montré que les téléchargements de Claude aux États-Unis ont augmenté de 37 % par rapport à la veille le vendredi 27 février, puis de 51 % le samedi 28 février.

    Nom : 1.jpg
Affichages : 4842
Taille : 53,2 Ko

    Cette augmentation fait suite à la déclaration publique d'Anthropic selon laquelle elle ne s'associerait pas avec le département américain de la Défense. La société a déclaré qu'elle ne pouvait pas accepter les conditions de l'accord en raison de craintes que l'IA puisse être utilisée pour surveiller les Américains ou déployée dans des armes entièrement autonomes, ce qu'elle estime que l'IA n'est pas encore prête à gérer en toute sécurité à grande échelle.

    Un rapport de Appfigures montre que le nombre total de téléchargements quotidiens de Claude aux États-Unis samedi a dépassé pour la première fois celui de ChatGPT. Selon les estimations, la croissance des téléchargements de Claude aux États-Unis a atteint 88 % samedi par rapport à la veille. Cette dynamique s'est reflétée dans le classement des boutiques d'applications. Claude a atteint la première place de l'App Store américain samedi et y est resté lundi 2 mars. Cela représente une progression de plus de 20 places par rapport au 22 février 2026.

    Le rapport a également noté que Claude était devenue l'application iPhone gratuite n° 1 dans six pays en dehors des États-Unis, notamment en Belgique, au Canada, en Allemagne, au Luxembourg, en Norvège et en Suisse.

    Un rapport de Similarweb a indiqué que les téléchargements de Claude aux États-Unis au cours de la semaine dernière étaient environ 20 fois plus élevés qu'en janvier. Toutefois, il a averti que cette hausse n'était peut-être pas uniquement due à des préoccupations politiques et pouvait refléter d'autres facteurs, notamment un intérêt plus large pour les outils d'IA. Ensemble, les données indiquent un changement rapide et mesurable dans le comportement des utilisateurs à la suite de l'annonce du partenariat de défense.

    Pourtant, dans un développement frappant qui souligne la complexité de l'intégration de l'IA dans les systèmes de défense nationale, l'armée américaine aurait eu recours au modèle d'IA Claude d'Anthropic lors de ses récentes frappes contre l'Iran, quelques heures seulement après que le président américain Donald Trump ait qualifié l'entreprise de « risque pour la chaîne d'approvisionnement ». Selon des informations publiées par le Wall Street Journal, le département américain de la Défense aurait utilisé le modèle d'IA Claude d'Anthropic pour faciliter la collecte de renseignements, l'identification des cibles et les simulations de champ de bataille pendant l'opération.

    Source : Sensor Tower

    Et vous ?

    Pensez-vous que ces rapports sont crédibles ou pertinents ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Claude détrône ChatGPT sur l'App Store et Play Store après le refus d'Anthropic de céder aux exigences militaires sur son IA : l'entreprise a transformé une punition politique en triomphe commercial

    L'IA et les drones détournés de leur usage initial et convertis en armes destructrices : les États-Unis frappent l'Iran avec des armes qui sont des copies de ses propres drones kamikazes Shahed 136

    Après qu'Anthropic ait bloqué brutalement Openclaw techniquement et légalement, Sam Altman l'opportuniste en profite pour récupérer le bébé dans le giron d'OpenAI
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #25
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 915
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 915
    Par défaut OpenAI admet avoir bâclé son contrat avec le Pentagone : Sam Altman amende l'accord sous pression
    OpenAI admet avoir bâclé son contrat avec le Pentagone : Sam Altman amende l'accord sous pression
    après un boycott massif de ChatGPT en faveur de Claude

    En concluant en urgence un accord avec le Département de la Défense américain quelques heures après la mise au ban d'Anthropic, OpenAI espérait se positionner avantageusement dans la course aux contrats militaires. Mais la manœuvre a déclenché un tollé public sans précédent, obligeant Sam Altman à faire amende honorable et à renégocier les termes du contrat pour y intégrer des garanties explicites contre la surveillance domestique des citoyens américains. Une séquence révélatrice des tensions profondes qui traversent désormais l'industrie de l'IA face aux exigences du complexe militaro-industriel.

    Pour comprendre ce qui a conduit Sam Altman à qualifier lui-même son deal de « bâclé et opportuniste », il faut remonter à janvier 2026. C'est Reuters qui a révélé l'existence d'un conflit entre Anthropic et le Pentagone autour des restrictions d'usage imposées par l'entreprise sur son modèle Claude — en particulier l'interdiction d'utiliser l'IA pour surveiller des citoyens américains et le refus de déployer des armes autonomes sans supervision humaine suffisante.

    L'origine directe de cette tension ? En janvier 2026, le modèle Claude aurait été utilisé lors d'une opération militaire américaine contre le Venezuela qui a conduit à la capture de Nicolás Maduro, impliquant plus de 150 appareils dont des bombardiers et des chasseurs, et causant au moins 83 victimes vénézuéliennes selon le ministère de la Défense de Caracas. Cette révélation a mis le feu aux poudres. Anthropic, dont le modèle était déployé via son partenariat avec Palantir sur les réseaux classifiés du Pentagone, était en effet le seul modèle d'IA fonctionnant dans les systèmes classifiés de l'armée américaine Axios, et a cherché à réaffirmer ses restrictions d'usage.

    Le bras de fer a rapidement atteint un point de non-retour. Le 24 février, le secrétaire à la Défense Pete Hegseth a posé un ultimatum à Dario Amodei, PDG d'Anthropic : se soumettre avant 17h01 le vendredi 27 février et accepter l'utilisation sans restriction de Claude « à toutes fins légales ». Anthropic a refusé. En représailles, Donald Trump a ordonné à toutes les agences fédérales de cesser d'utiliser les produits de l'entreprise, et Hegseth a officiellement désigné la firme comme un « risque pour la chaîne d'approvisionnement ».

    Cette désignation — habituellement réservée à des entreprises d'États adversaires comme le géant chinois Huawei — représente une première absolue pour une entreprise américaine. Elle entraîne la rupture d'un contrat évalué à 200 millions de dollars et l'obligation pour les sous-traitants de la Défense de certifier qu'ils n'utilisent pas Claude dans leurs flux de travail.

    OpenAI s'engouffre dans la brèche

    La réaction d'OpenAI n'a pas tardé. Quelques heures à peine après la désignation d'Anthropic comme risque pour la chaîne d'approvisionnement, OpenAI annonçait avoir conclu un accord avec le Pentagone pour déployer ses modèles d'IA dans des environnements classifiés.

    Pourtant, la veille encore, Altman avait envoyé un mémo interne à ses employés, indiquant qu'OpenAI partageait les mêmes « lignes rouges » qu'Anthropic. Le contrat d'OpenAI avec le Pentagone a été signé juste après l'échec des négociations entre Anthropic et le Département de la Défense. Ce timing a immédiatement soulevé des questions légitimes : alors que le Pentagone affirmait ne pas pouvoir accepter les restrictions d'Anthropic, pourquoi aurait-il subitement consenti à des concessions similaires pour OpenAI en quelques jours de négociations seulement ?

    La réponse partielle qui a émergé dans les jours suivants laissait entrevoir une distinction subtile mais potentiellement trompeuse : là où Anthropic cherchait à inscrire explicitement ses limitations dans le contrat, OpenAI avait accepté que le Pentagone utilise ses technologies « à toutes fins légales », tout en affirmant y avoir intégré ses restrictions. Une formulation ambiguë qui a immédiatement alimenté les soupçons.

    Un détail aggravant a rapidement émergé dans l'analyse du contrat initial. L'amendement ultérieur au contrat OpenAI-Pentagone ajoute une référence explicite aux données « commercialement acquises ». L'accord original ne mentionnait que les données « privées », laissant potentiellement hors champ les données de géolocalisation, d'historique de navigation ou d'informations financières personnelles achetées auprès de courtiers en données. Autrement dit, le premier contrat n'interdisait pas explicitement au gouvernement d'acheter des données personnelles issues du marché commercial pour alimenter des opérations de surveillance.

    Nom : altman.png
Affichages : 6398
Taille : 23,7 Ko

    La réaction des utilisateurs : un boycott massif

    La réaction du public a été immédiate et cinglante. L'application principale d'Anthropic a atteint le sommet des classements de téléchargements sur l'App Store d'Apple, reflet d'un afflux massif d'utilisateurs délaissant ChatGPT en signe de protestation.

    Sur Reddit et les forums spécialisés, la publication la plus populaire sur le subreddit ChatGPT portait le titre « Vous entraînez maintenant une machine de guerre. Montrez-nous la preuve de résiliation » et a recueilli plus de 32 000 votes positifs. Des posts similaires proliféraient sur le subreddit OpenAI. La communauté tech, d'ordinaire peu encline aux boycotts organisés, se mobilisait avec une véhémence rare.

    La grogne dépassait largement le cercle des militants de l'éthique numérique. Des professionnels de l'informatique, des développeurs et des chercheurs exprimaient leur malaise face à l'idée de « former une machine de guerre », interrogeant la cohérence des discours d'OpenAI sur la sécurité de l'IA avec ses actes concrets.


    Altman reconnaît ses erreurs, amende le contrat

    Face à ce séisme réputationnel, Sam Altman a choisi une voie inhabituelle pour un PDG de sa stature : l'autocritique publique. Dans un post initialement interne, qu'il a ensuite partagé sur X (ex-Twitter), il a reconnu : « Une chose que je pense avoir mal faite : nous n'aurions pas dû nous précipiter pour finaliser cela un vendredi. Les enjeux sont extrêmement complexes et exigent une communication claire. Nous essayions sincèrement de désamorcer la situation et d'éviter un résultat bien pire, mais je pense que cela a simplement eu l'air opportuniste et bâclé. »

    Altman a ajouté que la technologie « n'est simplement pas prête pour de nombreux domaines opérationnels » et que l'entreprise continuerait à travailler avec le Pentagone sur des garanties techniques.

    Sur le fond, l'amendement négocié intègre désormais une formulation juridique précise. Le nouveau texte stipule : « Conformément aux lois applicables, y compris le Quatrième Amendement à la Constitution des États-Unis, la loi sur la sécurité nationale de 1947 et la loi FISA de 1978, le système d'IA ne sera pas intentionnellement utilisé pour la surveillance domestique des personnes et des ressortissants américains. »

    Le sous-secrétaire à la Défense chargé de la recherche et de l'ingénierie, Emil Michael, a été l'interlocuteur direct d'Altman pour renégocier ces termes. Par ailleurs, l'amendement précise que les agences de renseignement comme la NSA ne pourront pas s'appuyer sur les services commerciaux d'OpenAI sans modification formelle et distincte du contrat.

    Nom : altman_interne.png
Affichages : 1681
Taille : 20,9 Ko

    Ci-dessous le message entier du PDG d'OpenAI.

    Voici la republication d'une publication interne :

    Nous avons collaboré avec le Département de la Guerre (DoW) afin d'apporter des modifications à notre accord et de clarifier nos principes.

    1. Nous allons modifier notre accord pour y ajouter le texte suivant, en plus des dispositions existantes :

    « • Conformément aux lois applicables, notamment le Quatrième Amendement de la Constitution des États-Unis, la Loi sur la sécurité nationale de 1947 et la Loi FISA de 1978, le système d'IA ne doit pas être utilisé intentionnellement à des fins de surveillance intérieure de citoyens et de ressortissants américains.

    • Afin d'éviter toute ambiguïté, le Département interprète cette limitation comme interdisant le suivi, la surveillance ou le contrôle délibéré de citoyens ou de ressortissants américains, y compris par l'acquisition ou l'utilisation d'informations personnelles ou identifiables obtenues commercialement. »

    Il est essentiel de protéger les libertés civiles des Américains, et ce point a fait l'objet d'une attention particulière. Nous souhaitions donc le souligner, notamment concernant les informations obtenues commercialement. Comme pour tout déploiement itératif, nous continuerons d'apprendre et d'améliorer notre approche au fur et à mesure.

    Je pense qu'il s'agit d'un changement important ; notre équipe et celle du Département de la Guerre ont fait un excellent travail.

    2. Le Département a également confirmé que nos services ne seront pas utilisés par les agences de renseignement du Département de la Guerre (par exemple, la NSA). Toute prestation de services à ces agences nécessiterait une modification ultérieure de notre contrat.

    3. Pour être parfaitement clair : nous souhaitons respecter les processus démocratiques. C'est au gouvernement de prendre les décisions importantes concernant la société. Nous voulons avoir voix au chapitre et participer aux discussions afin de partager notre expertise et de défendre les principes de liberté. Nous comprenons parfaitement le fonctionnement du système (car beaucoup de personnes nous ont posé la question : si je recevais un ordre que je considère comme inconstitutionnel, je préférerais évidemment aller en prison plutôt que de m'y soumettre).

    4. La technologie n'est pas encore prête pour de nombreuses situations, et nous ne comprenons pas encore tous les compromis nécessaires en matière de sécurité. Nous allons travailler sur ces points progressivement, avec le Département de la Guerre, en utilisant des garanties techniques et d'autres méthodes.

    5. Je pense avoir commis une erreur : nous n’aurions pas dû nous précipiter pour publier ce document vendredi. Les enjeux sont extrêmement complexes et exigent une communication claire. Nous cherchions sincèrement à apaiser les tensions et à éviter une situation bien pire, mais je crois que cela a donné une impression d’opportunisme et de négligence. Ce sera une bonne leçon pour moi, car nous devrons prendre des décisions plus importantes à l’avenir.

    Lors de mes échanges ce week-end, j’ai réaffirmé qu’Anthropic ne devrait pas être désigné comme SCR et que nous espérons que le Département de la Guerre leur proposera les mêmes conditions que celles que nous avons acceptées.

    Nous organiserons une réunion générale demain matin pour répondre à vos questions.

    Une compétition asymétrique aux implications profondes

    Cette affaire met en lumière une asymétrie troublante dans le traitement réservé aux deux entreprises par l'administration Trump. Il reste inexpliqué pourquoi le Département de la Défense a accepté de s'accommoder des restrictions d'OpenAI et pas de celles d'Anthropic, alors que les deux entreprises affirmaient partager les mêmes lignes rouges. Des observateurs ont noté que des officiels gouvernementaux critiquaient depuis plusieurs mois Anthropic pour ses positions jugées trop « obsédées par la sécurité » de l'IA.

    Il est difficilement possible d'ignorer le contexte politique. Hegseth avait présenté sa stratégie d'accélération de l'IA au Pentagone dans un discours prononcé à SpaceX, au Texas, en compagnie d'Elon Musk — dont l'entreprise xAI avait peu avant signé un contrat militaire sous la clause d'utilisation « à toutes fins légales » qu'Anthropic refusait. Musk avait, de son côté, publiquement accusé Anthropic de « haïr la civilisation occidentale ».

    Sur le plan juridique, la désignation d'Anthropic comme risque pour la chaîne d'approvisionnement est contestée. Selon une analyse de Lawfare, cette désignation dépasse ce que les statuts légaux autorisent : Anthropic est une entreprise américaine, et le différend sous-jacent est un désaccord contractuel sur deux restrictions d'usage, non une menace de sécurité nationale au sens des lois invoquées. La contradiction interne de la position gouvernementale est d'ailleurs flagrante : le gouvernement ne peut pas simultanément affirmer qu'un fournisseur représente une menace aiguë pour la chaîne d'approvisionnement nécessitant une exclusion d'urgence, et qu'il est parfaitement sûr de continuer à l'utiliser pendant encore six mois — voire, selon le Wall Street Journal, lors d'opérations de combat actives contre l'Iran, quelques heures après l'annonce du bannissement.

    Vers une nouvelle gouvernance de l'IA militaire ?

    Dans ses communications publiques, Altman a exprimé l'espoir qu'Anthropic se voie proposer les mêmes termes contractuels qu'OpenAI. Il a déclaré avoir réitéré dans ses conversations du week-end qu'Anthropic ne devrait pas être désigné comme risque pour la chaîne d'approvisionnement et que le Pentagone devrait leur offrir les mêmes conditions. Signe que la situation reste fluide, le Pentagone n'avait pas encore envoyé à Anthropic, lundi soir, de notification formelle de désignation comme risque pour la chaîne d'approvisionnement.

    Cette séquence soulève des questions fondamentales qui dépassent largement le cas OpenAI. Quel modèle de gouvernance doit prévaloir quand des entreprises privées développent des technologies déployées dans des contextes à enjeux létaux ? Les garde-fous éthiques intégrés par les concepteurs d'IA ont-ils vocation à survivre au transfert vers des environnements militaires ? Et plus fondamentalement : dans un marché de l'IA où les contrats gouvernementaux représentent des milliards de dollars, les entreprises peuvent-elles réellement maintenir leurs principes éthiques face aux pressions économiques et politiques ?

    Altman lui-même a résumé le pari d'OpenAI avec une franchise désarmante : « Si nous avons raison et que cela conduit à une désescalade entre le Pentagone et l'industrie, nous passerons pour des génies. Dans le cas contraire, nous continuerons à être caractérisés comme précipités et imprudents. » Un aveu qui, dans le contexte d'une industrie prétendant construire des systèmes dignes de confiance, mérite d'être médité.

    Sources : Sam Altman, Lawafare

    Et vous ?

    Les garde-fous éthiques des modèles d'IA commerciaux ont-ils une réelle valeur juridique et opérationnelle une fois transférés dans des contextes militaires classifiés, ou ne sont-ils que des engagements symboliques ?

    OpenAI a obtenu en quelques jours les concessions qu'Anthropic n'a pas pu arracher en plusieurs mois — est-ce la preuve que la négociation était possible, ou que les règles du jeu sont différentes selon les entreprises ?

    En tant que professionnel de l'informatique, accepteriez-vous que les outils que vous développez ou utilisez soient intégrés dans des systèmes d'armement autonomes, même avec des restrictions contractuelles ?

    La désignation d'Anthropic comme « risque pour la chaîne d'approvisionnement » — une catégorie jusqu'alors réservée à Huawei — crée-t-elle un précédent dangereux pour l'indépendance du secteur technologique américain ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #26
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 915
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 915
    Par défaut Suite à la polémique le PDG d'OpenAI interdit à l'armée américaine d'espionner les Américains
    Suite à la polémique Sam Altman modifie l'accord conclu entre OpenAI et les États-Unis :
    il interdit à l'armée américaine d'espionner les Américains via ChatGPT, pour le reste du monde ça va

    En l'espace d'une semaine, l'industrie de l'IA a vécu l'un de ses épisodes les plus révélateurs. Anthropic blacklistée comme une entreprise ennemie, OpenAI signant un accord militaire en catimini quelques heures plus tard, puis Sam Altman reconnaissant lui-même avoir bâclé l'affaire — avant de renégocier en urgence pour rassurer une opinion publique en colère. Derrière le feuilleton se cache une question fondamentale : jusqu'où les grandes firmes d'IA sont-elles prêtes à aller pour rester dans les bonnes grâces de Washington ?

    Tout commence le vendredi 28 février 2026, quand le secrétaire à la Défense Pete Hegseth annonce que le Pentagone désigne Anthropic comme un « risque pour la chaîne d'approvisionnement en matière de sécurité nationale » — une étiquette jusqu'ici réservée aux entreprises étrangères suspectes, notamment chinoises. Cette désignation force les sous-traitants et fournisseurs du ministère de la Défense à certifier qu'ils n'utilisent aucun modèle d'Anthropic dans leurs workflows. Le président Trump, lui, va encore plus loin sur Truth Social, en ordonnant à l'ensemble des agences fédérales de cesser immédiatement d'utiliser la technologie d'Anthropic. La raison ? Anthropic avait refusé de signer un contrat sans garanties explicites que son IA ne serait pas utilisée pour la surveillance de masse des citoyens américains, ni pour des armes létales autonomes — c'est-à-dire capables de frapper des cibles sans intervention humaine.

    Anthropic voulait l'assurance que ses modèles ne seraient pas utilisés pour des armes entièrement autonomes ou pour la surveillance de masse des Américains, tandis que le Pentagone exigeait qu'Anthropic accepte de laisser les militaires déployer ses modèles pour « tous les usages légaux ». Faute d'accord, le bras de fer s'est soldé par une rupture spectaculaire.

    Nom : trump.png
Affichages : 6546
Taille : 40,4 Ko

    OpenAI dans l'embuscade

    Quelques heures à peine après l'annonce du blacklistage d'Anthropic, OpenAI surgit dans la brèche. La firme de Sam Altman annonce avoir conclu un accord avec le Pentagone pour déployer ses modèles dans des systèmes militaires classifiés, précisément au moment où son rival vient d'être banni. Le timing est brutal. D'autant qu'Altman avait lui-même déclaré, quelques jours plus tôt, partager les mêmes « lignes rouges » qu'Anthropic sur la surveillance et les armes autonomes.

    La réaction ne se fait pas attendre. Les désinstallations de l'application ChatGPT bondissent de 295 % en une seule journée le samedi, par rapport à un taux habituel de 9 %. Pendant ce temps, Claude d'Anthropic se hisse à la première place du classement de l'App Store d'Apple. Des tags à la craie couvrent les trottoirs devant les bureaux d'OpenAI à San Francisco — « Will you spy on your neighbors? », « Can America trust you? » (« Allez-vous espionner vos voisins ? », « L’Amérique peut-elle vous faire confiance ? »). Les critiques fusent de toutes parts, y compris de l'intérieur même de l'entreprise. Des chercheurs d'OpenAI prennent publiquement la parole. Aidan McLaughlin, scientifique chez OpenAI, publie sur X qu'il ne pense personnellement pas que « ce deal en valait la peine » — un post qui recueille près de 500 000 vues.

    Nom : us_download.png
Affichages : 2244
Taille : 90,9 Ko

    La renégociation en catastrophe

    Face à l'ampleur du tollé, Sam Altman tente d'éteindre l'incendie. Dans un mémo interne qu'il partage ensuite publiquement sur X, Altman reconnaît avoir « bâclé » l'annonce : « Nous essayions sincèrement de désamorcer la situation et d'éviter un résultat bien pire, mais je pense que ça donnait une impression d'opportunisme et de négligence. »

    Il s'empresse alors de contacter Emil Michael, sous-secrétaire à la Défense chargé de la recherche et de l'ingénierie, pour renégocier les termes du contrat. OpenAI et le Pentagone conviennent d'ajuster leur accord récemment signé, à la suite de critiques généralisées selon lesquelles la surveillance de masse nationale restait un risque réel.

    Les modifications apportées au texte sont substantielles, au moins sur le papier. Le nouveau libellé du contrat précise que les systèmes d'IA d'OpenAI ne pourront pas être « intentionnellement utilisés pour la surveillance intérieure des ressortissants américains », en conformité avec le Quatrième Amendement, la loi sur la sécurité nationale de 1947 et la loi sur la surveillance du renseignement étranger de 1978. Les composantes du renseignement de défense — notamment la NSA, la NGA et la DIA — sont explicitement exclues du périmètre de l'accord.

    Par ailleurs, l'amendement au contrat intègre une référence explicite aux données « acquises commercialement », comme les données de géolocalisation, l'historique de navigation ou les informations financières personnelles achetées auprès de data brokers — une zone grise légale qui était absente du texte initial.

    Nom : altman_interne.png
Affichages : 1938
Taille : 20,9 Ko

    La grande question qu'on ne pose pas

    Mais au milieu de cette effervescence, un détail essentiel reste dans l'ombre, mis en lumière par le titre cynique — mais terriblement lucide — qu'a suscité l'affaire : Sam Altman interdit bien à OpenAI de surveiller les Américains. Qu'en est-il du reste du monde ?

    La formulation retenue dans le contrat révisé est limpide à cet égard : « domestic surveillance of U.S. persons and nationals ». Pas de surveillance des citoyens américains sur le sol américain. Point. La loi américaine interdit au Pentagone de déployer l'IA pour la surveillance de masse des Américains, et la politique militaire américaine prévoit que les humains doivent conserver « un niveau de jugement approprié » sur l'usage de la force létale. Mais ces protections s'arrêtent là où commence le reste du monde.

    Ce n'est pas un détail. Le Pentagone dispose de capacités de renseignement d'une portée mondiale. Des chercheurs soulignent que, sans garde-fous suffisants, l'IA pourrait permettre aux autorités de surveiller des individus avec une rapidité et une précision inédites, en parcourant des montagnes de données numériques pour suivre les déplacements et comportements des personnes. Ces préoccupations valent pour toute personne, quelle que soit sa nationalité.

    Des experts juridiques ont également mis en doute le caractère exécutoire de ces nouvelles restrictions. Autrement dit : même pour les Américains, les garanties restent davantage déclaratives que techniques. Katrina Mulligan, responsable des partenariats de sécurité nationale chez OpenAI, a certes précisé que les agences de renseignement militaires sont exclues du contrat, mais elle a également ouvert la porte à de futures collaborations avec la NSA « si les garanties appropriées étaient en place ».

    Nom : top_app.png
Affichages : 1949
Taille : 133,1 Ko

    Le grand écart d'Altman

    Ce qui rend la position d'Altman particulièrement difficile à défendre, c'est la cohérence de ses propres déclarations passées. Avant la conclusion du deal, Altman avait publiquement soutenu la position d'Anthropic — et de nombreux employés d'OpenAI avaient signé une lettre ouverte en faveur des lignes rouges de Dario Amodei. En signant un accord que ses propres équipes avaient contesté en principe, Altman s'est retrouvé dans une contradiction dont il n'est pas sorti indemne.

    Sa justification, exprimée lors d'une réunion générale tendue avec ses employés le mardi, révèle la philosophie — et les limites — de sa démarche. Lors de cette réunion, Altman a indiqué que le Pentagone avait été clair : les décisions opérationnelles appartiennent au gouvernement. « Peut-être que tu penses que la frappe en Iran était une bonne chose et que l'invasion du Venezuela était une mauvaise chose. Tu n'as pas à te prononcer là-dessus. »

    Ce positionnement — « nous fixons des limites techniques, mais les décisions d'emploi restent souveraines » — est précisément celui qu'Anthropic avait refusé. Et c'est peut-être ce qui distingue le plus profondément les deux entreprises, au-delà de la rhétorique.

    Anthropic dans le rôle du martyr rentable

    L'ironie de la situation n'a pas échappé aux observateurs. Claude d'Anthropic est devenu l'application la plus téléchargée sur l'App Store d'Apple au cours du week-end, détrônant ChatGPT — une victoire symbolique et commerciale inattendue pour une entreprise officiellement blacklistée par le gouvernement américain.

    Anthropic avait un contrat de 200 millions de dollars avec le Pentagone, désormais annulé. Mais ce n'est pas un coup fatal pour une entreprise qui devrait générer au moins 18 milliards de dollars de revenus cette année. En revanche, la désignation comme « risque pour la chaîne d'approvisionnement » soulève des questions autrement plus complexes sur sa capacité à travailler avec des entreprises du secteur privé sous contrat fédéral.

    Des experts juridiques ont aussi relevé que cette désignation exige normalement la réalisation d'une évaluation des risques et la notification du Congrès — des étapes qu'il n'est pas clair que le gouvernement ait respectées. Anthropic a d'ailleurs annoncé son intention de contester la désignation en justice.

    Un précédent qui dépasse l'IA

    L'épisode marque un tournant dans les relations entre les grandes firmes technologiques et l'État américain à l'ère de Trump 2.0. Pour la première fois, une entreprise américaine a été traitée comme un acteur étranger hostile — non pour avoir exporté illégalement des technologies, mais pour avoir refusé d'abandonner ses propres principes éthiques dans un contrat commercial.

    Des élus démocrates ont annoncé des initiatives législatives pour interdire aux agences fédérales de « représailles » contre des fournisseurs de technologies qui cherchent à limiter l'usage de leurs outils pour « atténuer les risques pour les citoyens américains ».

    Mais ces initiatives politiques avancent bien moins vite que les modèles d'IA eux-mêmes. Et pendant que le débat se concentre sur les droits des citoyens américains, il reste à savoir qui défend, dans ces contrats, les droits des personnes qui ne le sont pas.

    Sources : OpenAI, classement des applications sur iOS (États-Unis)

    Et vous ?

    Les garanties contractuelles sont-elles suffisantes pour encadrer l'usage militaire de l'IA, ou faut-il des mécanismes de contrôle technique indépendants, voire une législation internationale ?

    Le fait qu'Anthropic soit blacklistée constitue-t-il un précédent dangereux permettant au gouvernement américain de contraindre les entreprises privées à abandonner leurs principes éthiques sous peine de représailles économiques ?

    L'absence de protection explicite pour les non-citoyens dans ces accords révèle-t-elle une conception étroitement nationaliste des droits humains dans le domaine de l'IA ?

    OpenAI peut-il encore prétendre à une posture éthique crédible après cet épisode, ou son modèle de gouvernance est-il structurellement incompatible avec les lignes rouges qu'il prétend défendre ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  7. #27
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    2 089
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 2 089
    Par défaut Sam Altman annonce à son personnel qu'OpenAI souhaite obtenir un contrat militaire avec l'OTAN
    Imperméable aux critiques, Sam Altman annonce à son personnel qu'OpenAI souhaite obtenir un autre contrat militaire confidentiel, cette fois avec l'OTAN

    Sam Altman a déclaré à son personnel qu'OpenAI était en train d'étudier un nouveau contrat avec l'OTAN, quelques jours seulement après avoir signé un accord historique avec le Pentagone. Lors d'une réunion publique, le dirigeant a précisé qu'OpenAI envisageait de déployer sa technologie d'intelligence artificielle (IA) sur les réseaux non classifiés de l'OTAN, ce qui différencie ce contrat de l'accord passé avec le département américain de la Défense. Cette initiative intervient alors que le déploiement de l'IA dans le cadre militaire fait l'objet d'une surveillance et de critiques grandissantes.

    Cette annonce de Sam Altman prolonge une dynamique amorcée quelques semaines plus tôt. Fin février 2026, Dario Amodei, le PDG d'Anthropic, avait publié une déclaration dans laquelle il annonçait que son entreprise refusait de céder aux demandes du département américain de la Défense, qui exigeait un accès sans restriction à ses modèles Claude pour, entre autres, des applications de surveillance à grande échelle et des systèmes d'armement entièrement autonomes. Quelques heures plus tard, Sam Altman a annoncé qu'OpenAI avait conclu un accord avec le Pentagone pour déployer les modèles d'OpenAI sur son réseau classifié, ce qui a déclenché une vague de désabonnements à ChatGPT et relancé les interrogations sur l'alignement des fournisseurs d'IA avec le complexe militaro-industriel.

    Samuel Harris Altman est un homme d'affaires et entrepreneur américain qui occupe depuis 2019 le poste de directeur général (PDG) de l'organisation de recherche en intelligence artificielle OpenAI. Ayant supervisé le lancement réussi de ChatGPT en 2022, il est largement considéré comme l'une des figures de proue du boom de l'IA.

    OpenAI est un organisme américain de recherche en IA composé à la fois d'une fondation à but non lucratif et d'une société d'intérêt public (PBC) à but lucratif contrôlée, dont le siège social est situé à San Francisco. Il vise à développer une intelligence artificielle générale (AGI) « sûre et bénéfique », qu'il définit comme « des systèmes hautement autonomes qui surpassent les humains dans la plupart des tâches à forte valeur économique ».

    Nom : sam altman.png
Affichages : 3487
Taille : 144,5 Ko

    Quelques jours seulement après avoir conclu l'accord historique avec l'armée américaine, OpenAI serait en train d'étudier un autre contrat gouvernemental majeur. Cette fois-ci, l'éditeur de ChatGPT cherche à s'associer à l'Organisation du traité de l'Atlantique Nord, ou OTAN, une alliance militaire intergouvernementale regroupant 32 États membres, dont 30 en Europe et deux en Amérique du Nord. Cependant, il existe une différence fondamentale qui distingue cet accord présumé de celui conclu avec le Pentagone.

    Le Wall Street Journal a rapporté que lors d'une réunion publique, le PDG Sam Altman a déclaré qu'OpenAI envisageait de déployer sa technologie d'IA sur les réseaux classifiés de l'OTAN. Cependant, il a été précisé par la suite que Sam Altman s'était mal exprimé et que l'accord avec l'OTAN concernait les réseaux non classifiés, ce qui diffère considérablement de son récent accord avec le Pentagone, qui couvre les systèmes militaires américains classifiés.

    Cette distinction est importante. Les réseaux classifiés traitent les renseignements militaires et les plans opérationnels les plus sensibles, tandis que les réseaux non classifiés, bien qu'ils restent importants, traitent des informations qui ne présentent pas le même niveau de sensibilité en matière de sécurité nationale.

    Comment OpenAI a obtenu un contrat avec le Pentagone

    Peu après que le président Donald Trump ait ordonné aux agences fédérales de cesser toute collaboration avec son concurrent Anthropic, OpenAI a rapidement annoncé la conclusion d'un accord avec le Pentagone pour déployer sa technologie sur le réseau classifié du ministère de la Défense.

    Le différend avec Anthropic portait essentiellement sur un désaccord fondamental concernant l'utilisation de l'IA par l'armée, le PDG de la société, Dario Amodei, ayant adopté une position intransigeante. Le Pentagone a alors déclaré qu'Anthropic représentait un risque pour la chaîne d'approvisionnement et a rompu ses liens avec la société.

    OpenAI est toutefois intervenu, mais a dû faire face à une vive réaction, à la suite de quoi OpenAI a publié une déclaration mise à jour indiquant que ses systèmes d'IA « ne seront pas utilisés intentionnellement à des fins de surveillance nationale des citoyens et ressortissants américains ». Le Pentagone a également confirmé que les services d'OpenAI ne seraient pas utilisés par les agences de renseignement telles que la National Security Agency (NSA).

    Lors de la même réunion d'entreprise où il a évoqué l'OTAN, Sam Altman a répondu aux critiques généralisées du public et aux résiliations d'abonnements qui ont suivi cette annonce.

    « Je pense qu'il s'agissait d'une décision complexe, mais juste, qui a eu des conséquences extrêmement difficiles pour notre image de marque et une répercussion très négative sur nos relations publiques à court terme », a-t-il déclaré à son personnel, selon le Wall Street Journal.

    Alors qu'OpenAI étudie la possibilité de conclure un nouveau contrat avec l'OTAN, ses initiatives militaires alimentent de vives réactions. Suite à l'annonce du partenariat entre OpenAI et le ministère américain de la Défense, le nombre de désinstallations de ChatGPT a bondi de 295 % le samedi 28 février, selon la société d'études de marché Sensor Tower. Ce phénomène marque un écart significatif par rapport au taux de désinstallation quotidien habituel de l'application, qui était de 9 % au cours des 30 derniers jours.

    Une nette détérioration des avis des utilisateurs était également visible. Selon Sensor Tower, le nombre d'évaluations à une étoile de ChatGPT a augmenté de 775 %, tandis que le nombre de notes cinq étoiles a chuté de 50 %. Ce rejet a profité à Claude d'Anthropic, le concurrent d'OpenAI, qui a enregistré une hausse significative de ses téléchargements, avec une croissance de 51 % durant les deux derniers jours de février.

    Source : The Wall Street Journal

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette initiative d'OpenAI judicieuse ou pertinente ?

    Voir aussi :

    Sam Altman modifie l'accord conclu entre OpenAI et les États-Unis suite à la polémique : il interdit à l'armée américaine d'espionner les Américains via ChatGPT, pour le reste du monde ça va

    OpenAI admet avoir bâclé son contrat avec le Pentagone : Sam Altman amende l'accord sous pression après un boycott massif de ChatGPT en faveur de Claude
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  8. #28
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    551
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 551
    Par défaut Le PDG d'Anthropic qualifierait les affirmations d'OpenAI concernant l'accord militaire de « mensonges »
    Le PDG d'Anthropic, Dario Amodei, qualifie les déclarations publiques d'OpenAI de « mensonges éhontés », affirmant que Sam Altman se présente à tort comme un « artisan de la paix et un négociateur »

    Le PDG d'Anthropic, Dario Amodei, qualifie les déclarations publiques d'OpenAI concernant l'accord avec l'armée américaine de « mensonges éhontés », affirmant que Sam Altman se présente à tort comme un « artisan de la paix et un négociateur ». Dario Amodei, PDG d'Anthropic, a qualifié les déclarations publiques d'OpenAI concernant son accord avec le ministère de la Défense de « mensonges éhontés » dans une note interne rapportée par The Information.

    Fin février 2026, l'industrie de l'intelligence artificielle (IA) a vécu l'une de ses journées les plus révélatrices. Le matin, Dario Amodei, PDG d'Anthropic, publiait une déclaration publique annonçant que son entreprise refusait de céder aux demandes du département de la Guerre des États-Unis, au risque d'être blacklisté de tous les contrats fédéraux. Le département exigeait un accès sans restrictions à ses modèles Claude pour, entre autres, des applications de surveillance domestique à grande échelle et des systèmes d'armement entièrement autonomes.

    La réaction de l'administration Trump n'a pas tardé. Le président a publié un message sur Truth Social attaquant violemment Anthropic, accusant les dirigeants d'être des « cinglés d'extrême gauche » ayant commis une « erreur désastreuse » en tentant d'imposer leurs conditions de service au département de la Guerre, mettant selon lui en danger des vies américaines et la sécurité nationale. Le soir, Sam Altman annonçait avoir conclu un accord avec ce même département de la Guerre pour déployer les modèles d'OpenAI sur son réseau classifié, affirmant que celui-ci avait fait preuve d'un « profond respect pour la sécurité » et d'une volonté de partenariat constructif.

    La séquence, d'une brutalité presque caricaturale, a immédiatement embrasé les communautés en ligne. Les désinstallations de l'application mobile ChatGPT aux États-Unis ont bondi de 295 % d'un jour à l'autre le samedi 28 février. Dans le même temps, les téléchargements de Claude aux États-Unis ont augmenté de 37 % par rapport à la veille le vendredi 27 février, puis de 51 % le samedi 28 février. Face à ce séisme réputationnel, Sam Altman a choisi une voie inhabituelle pour un PDG de sa stature : l'autocritique publique.

    Sam Altman a reconnu avoir bâclé son contrat avec le Pentagone : « Une chose que je pense avoir mal faite : nous n'aurions pas dû nous précipiter pour finaliser cela un vendredi. Les enjeux sont extrêmement complexes et exigent une communication claire. Nous essayions sincèrement de désamorcer la situation et d'éviter un résultat bien pire, mais je pense que cela a simplement eu l'air opportuniste et bâclé. » Altman a ajouté que la technologie « n'est simplement pas prête pour de nombreux domaines opérationnels » et que l'entreprise continuerait à travailler avec le Pentagone sur des garanties techniques.

    Récemment, le PDG d'Anthropic, Dario Amodei, qualifie les déclarations publiques d'OpenAI concernant l'accord avec l'armée américaine de « mensonges éhontés », affirmant que Sam Altman se présente à tort comme un « artisan de la paix et un négociateur ».

    Nom : 1.jpg
Affichages : 3328
Taille : 30,7 Ko

    Anthropic est une entreprise américaine d'intelligence artificielle (IA) fondée en 2021 par d'anciens membres d'OpenAI. Elle développe Claude, une famille de grands modèles de langage, et est aussi connue pour ses recherches en sécurité de l'IA, particulièrement en interprétabilité. En 2023, Amazon et Google investissent plusieurs milliards de dollars dans Anthropic. Dario Amodei, né en 1983 à San Francisco, est un chercheur et entrepreneur américain en intelligence artificielle (IA). Il est le cofondateur et PDG d'Anthropic, la société à l'origine de Claude, une famille de grands modèles de langage. Avant cela, il était vice-président de la recherche à OpenAI. Amodei promeut la recherche en interprétabilité et en alignement de l'IA afin d'améliorer la sécurité des intelligences artificielles.

    Dario Amodei, PDG d'Anthropic, a qualifié les déclarations publiques d'OpenAI concernant son accord avec le ministère de la Défense de « mensonges éhontés » dans une note interne rapportée par The Information. Amodei a qualifié les relations entre OpenAI et le ministère de la Défense de « théâtre de la sécurité ». Amodei a accusé le PDG d'OpenAI, Sam Altman, de se présenter à tort comme un « artisan de la paix et négociateur » et a déclaré qu'il craignait que ce message n'influence les employés d'OpenAI.

    « La principale raison pour laquelle [OpenAI] a accepté [l'accord du ministère de la Défense] et pas nous, c'est qu'ils se souciaient d'apaiser leurs employés, alors que nous nous soucions réellement de prévenir les abus », a écrit Amodei. « Je pense que cette tentative de manipulation mentale ne fonctionne pas très bien auprès du grand public ou des médias, où les gens considèrent pour la plupart l'accord entre OpenAI et le DoW comme vague ou suspect, et nous voient comme des héros (nous sommes désormais n° 2 dans l'App Store !) Cela fonctionne sur certains idiots sur Twitter, ce qui n'a pas d'importance, mais ma principale préoccupation est de m'assurer que cela ne fonctionne pas sur les employés d'OpenAI. »

    Sam Altman a déclaré à son personnel qu'OpenAI était en train d'étudier un nouveau contrat avec l'OTAN, quelques jours seulement après avoir signé un accord historique avec le Pentagone. Lors d'une réunion publique, le dirigeant a précisé qu'OpenAI envisageait de déployer sa technologie d'intelligence artificielle (IA) sur les réseaux non classifiés de l'OTAN, ce qui différencie ce contrat de l'accord passé avec le département américain de la Défense. Cette initiative intervient alors que le déploiement de l'IA dans le cadre militaire fait l'objet d'une surveillance et de critiques grandissantes.

    Source : Note interne rapportée par The Information

    Et vous ?

    Pensez-vous que cette déclaration est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Le patron d'Anthropic, Dario Amodei, rejette la demande du Pentagone d'abandonner les garanties en matière d'IA, préférant ne pas travailler avec l'armée plutôt que l'IA soit utilisée pour la guerre

    Sam Altman modifie l'accord conclu entre OpenAI et les États-Unis suite à la polémique : il interdit à l'armée américaine d'espionner les Américains via ChatGPT, pour le reste du monde ça va

    Les désinstallations de ChatGPT d'OpenAI ont bondi de 295 % après l'accord avec le ministère américain de la Guerre, tandis que les téléchargements de Claude d'Anthropic ont augmenté de 51 %
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  9. #29
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 761
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 761
    Par défaut Sam Altman déclare à son personnel qu'OpenAI n'a pas son mot à dire sur les décisions du Pentagone
    Sam Altman déclare à son personnel qu'OpenAI n'a pas son mot à dire sur les décisions du Pentagone et ne peut pas choisir la manière dont l'armée utilise sa technologie : « Vous n'avez pas votre mot à dire »

    Le PDG d'OpenAI, Sam Altman, a récemment adressé un message sans détour à ses employés : en ce qui concerne les opérations militaires américaines, l'entreprise n'a tout simplement pas son mot à dire. « Vous pensez peut-être que la frappe contre l'Iran était une bonne chose et que l'invasion du Venezuela était une mauvaise chose », a déclaré Altman à son personnel lors d'une réunion générale, selon une transcription partielle examinée par CNBC. « Vous n'avez pas votre mot à dire à ce sujet. »

    Fin février 2026, l'industrie de l'intelligence artificielle a vécu l'une de ses journées les plus révélatrices. D'un côté, Anthropic a refusé catégoriquement de lever ses garde-fous éthiques face aux exigences du département de la Guerre américain, au risque d'être blacklisté de tous les contrats fédéraux. De l'autre, Sam Altman s'est empressé de signer un accord avec le Pentagone, déclenchant une vague de désinscriptions massives à ChatGPT et relançant un débat fondamental : peut-on faire confiance à une IA qui se vend au complexe militaro-industriel ?

    Dans ce contexte, le PDG d'OpenAI, Sam Altman, a récemment adressé un message sans détour à ses employés : en ce qui concerne les opérations militaires américaines, l'entreprise n'a tout simplement pas son mot à dire. « Vous pensez peut-être que la frappe contre l'Iran était une bonne chose et que l'invasion du Venezuela était une mauvaise chose », a déclaré Altman à son personnel lors d'une réunion générale, selon une transcription partielle examinée par CNBC. « Vous n'avez pas votre mot à dire à ce sujet. »

    Cette réunion a eu lieu quatre jours après que Altman ait annoncé, tard dans la soirée, qu'OpenAI avait conclu un accord avec le Pentagone pour déployer ses modèles d'IA sur des réseaux classifiés — un accord conclu quelques heures seulement après que son concurrent Anthropic ait été officiellement mis sur liste noire par le ministère de la Défense et quelques heures avant que les États-Unis et Israël ne lancent des frappes contre l'Iran.

    L'accord entre OpenAI et le Pentagone a immédiatement suscité des réactions négatives, tant à l'intérieur qu'à l'extérieur de l'entreprise. Le moment n'aurait pas pu être plus mal choisi. Anthropic venait d'être désigné comme « risque pour la sécurité nationale dans la chaîne d'approvisionnement » par le secrétaire à la Défense Pete Hegseth, une étiquette sans précédent pour une entreprise américaine, après avoir refusé de renoncer à ses garde-fous contre l'utilisation de l'IA pour la surveillance massive des Américains ou les armes entièrement autonomes.

    OpenAI est intervenu presque immédiatement, annonçant son propre accord de déploiement classifié avant même que la poussière ne soit retombée. L'image n'était pas très bonne. Altman lui-même l'a admis. « Nous n'aurions pas dû nous précipiter pour publier cette information vendredi », a-t-il déclaré dans un message publié sur X pendant le week-end. « Les questions sont extrêmement complexes et nécessitent une communication claire. » Lors de la réunion générale, il a reconnu que cela semblait « opportuniste et négligé », selon le compte rendu sur la réunion.


    La réaction négative a été réelle. Certains employés d'OpenAI ont publiquement critiqué cette décision. Quelques jours plus tôt, des dizaines d'entre eux avaient signé une lettre ouverte exprimant leur solidarité avec les lignes rouges d'Anthropic. La communauté de la sécurité de l'IA s'est alarmée. Et les critiques ont souligné que le libellé du contrat d'OpenAI, bien qu'il interdise en principe la surveillance nationale et les armes autonomes, s'en remettait en fin de compte au cadre juridique — un cadre qui, après Snowden, a selon beaucoup déjà été étendu pour s'adapter à des programmes de surveillance de masse comme PRISM.

    Altman a néanmoins établi des limites claires lors de la réunion. Il a déclaré aux employés que le Pentagone respectait l'expertise technique d'OpenAI, souhaitait obtenir des informations sur les domaines dans lesquels ses modèles étaient adaptés et avait accepté de laisser l'entreprise mettre en place et maintenir les mesures de sécurité qu'elle jugeait appropriées. Les ingénieurs d'OpenAI habilités seront intégrés aux équipes gouvernementales, et les chercheurs en sécurité resteront informés. Mais Altman a également clairement indiqué que les décisions militaires quotidiennes ne relevaient pas de la compétence d'OpenAI. C'est le secrétaire Pete Hegseth qui prend ces décisions, et non Sam Altman.

    Il a également abordé une réalité concurrentielle que peu de personnes au sein de l'entreprise voulaient entendre. « Je pense que nous disposerons, espérons-le, des meilleurs modèles qui inciteront le gouvernement à vouloir travailler avec nous, même si notre système de sécurité les agace », a déclaré Altman. « Mais il y aura au moins un autre acteur, qui sera selon moi xAI, qui dira en substance : « Nous ferons tout ce que vous voulez. » »

    Et OpenAI regarde déjà au-delà du Pentagone. Altman aurait déclaré à son personnel que l'entreprise étudiait actuellement un contrat pour déployer ses modèles sur tous les réseaux classifiés de l'OTAN, une initiative qui ferait d'OpenAI un fournisseur d'IA fondamental pour l'alliance militaire occidentale. Apple a obtenu l'autorisation de l'OTAN pour ses appareils grand public le mois dernier, mais un déploiement complet et classifié de modèles d'IA de pointe serait une proposition tout à fait différente.

    Par ailleurs, Claude d'Anthropic aurait été utilisé lors des frappes en Iran ce week-end et lors de l'opération de janvier qui a abouti à la capture du dirigeant vénézuélien déchu Nicolás Maduro, ce qui suggère que le transfert classifié d'Anthropic à OpenAI et xAI est encore en cours. Altman a déclaré avoir réitéré au Pentagone qu'Anthropic ne devait pas être considéré comme un risque pour la chaîne d'approvisionnement et que les mêmes conditions contractuelles devaient être proposées à toutes les entreprises d'IA. Reste à voir si cette offre aboutira ou si le conflit se terminera devant les tribunaux.

    En réaction, le PDG d'Anthropic, Dario Amodei, qualifie les déclarations publiques d'OpenAI concernant l'accord avec l'armée américaine de « mensonges éhontés », affirmant que Sam Altman se présente à tort comme un « artisan de la paix et un négociateur ». « La principale raison pour laquelle [OpenAI] a accepté [l'accord du ministère de la Défense] et pas nous, c'est qu'ils se souciaient d'apaiser leurs employés, alors que nous nous soucions réellement de prévenir les abus », a écrit Amodei.

    Amodei a poursuivi : « Je pense que cette tentative de manipulation mentale ne fonctionne pas très bien auprès du grand public ou des médias, où les gens considèrent pour la plupart l'accord entre OpenAI et le DoW comme vague ou suspect, et nous voient comme des héros (nous sommes désormais n° 2 dans l'App Store !) Cela fonctionne sur certains idiots sur Twitter, ce qui n'a pas d'importance, mais ma principale préoccupation est de m'assurer que cela ne fonctionne pas sur les employés d'OpenAI. »

    En effet, en refusant de céder aux exigences militaires américaines sur l'usage de son IA, Anthropic a perdu un contrat fédéral mais déclenché un mouvement populaire sans précédent. En moins de 48 heures, Claude est passé de la 131e à la première place des applications gratuites les plus téléchargées sur l'App Store américain. Derrière cet électrochoc commercial se cache une question de fond : peut-on, aujourd'hui, faire de l'éthique une arme concurrentielle dans la guerre des modèles d'IA ?

    Sources : Sam Altman, PDG d'OpenAI, lors d'une réunion générale; CNBC

    Et vous ?

    Pensez-vous que cette déclaration est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Sam Altman modifie l'accord conclu entre OpenAI et les États-Unis suite à la polémique : il interdit à l'armée américaine d'espionner les Américains via ChatGPT, pour le reste du monde ça va

    Les désinstallations de ChatGPT d'OpenAI ont bondi de 295 % après l'accord avec le ministère américain de la Guerre, tandis que les téléchargements de Claude d'Anthropic ont augmenté de 51 %

    L'armée américaine a utilisé l'IA d'Anthropic pour analyser des renseignements et choisir des cibles lors de l'attaque en Iran, malgré l'interdiction de Trump. Ils se sont appuyés sur Claude
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #30
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    551
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 551
    Par défaut Le Pentagone désigne officiellement Anthropic comme un risque pour la chaîne d'approvisionnement
    Le Pentagone désigne officiellement Anthropic comme un risque pour la chaîne d'approvisionnement, alors que Claude est utilisé en Iran, et exigera des sous-traitants de ne pas utiliser les modèles d'Anthropic

    Le ministère de la Défense a officiellement informé la direction d'Anthropic que l'entreprise et ses produits avaient été désignés comme un risque pour la chaîne d'approvisionnement. Cette déclaration officielle obligera les fournisseurs et les sous-traitants du secteur de la défense à certifier qu'ils n'utilisent pas les modèles d'Anthropic dans le cadre de leur collaboration avec le Pentagone. Le DOD et Anthropic n'ont pas réussi à s'entendre sur la manière dont la technologie d'IA de l'entreprise pouvait être utilisée, en particulier en ce qui concerne les armes autonomes et la surveillance intérieure. Pourtant, l'IA Claude d'Anthropic est utilisé en Iran.

    Fin janvier 2026, un conflit discret mais féroce a éclaté entre l'armée américaine et Anthropic. Le conflit porte sur une question d'une simplicité trompeuse : qui décide de l'utilisation d'une IA puissante dans la guerre ? Fin février, le patron d'Anthropic, Dario Amodei, a rejeté la demande du Pentagone d'abandonner les garanties en matière d'IA. Anthropic préférerait ne pas travailler avec l'armée américaine plutôt que de permettre que l'IA soit utilisée pour la guerre et la surveillance de masse. Anthropic a déclaré qu'elle ne reculerait pas dans sa lutte avec le ministère américain de la défense concernant l'utilisation de sa technologie d'intelligence artificielle (IA).

    Précedemment à cette déclaration, le secrétaire américain à la Défense Pete Hegseth avait donné au PDG d'Anthropic jusqu'au 27 février 2026 pour ouvrir la technologie d'IA de l'entreprise à une utilisation militaire sans restriction, sous peine de perdre son contrat avec le gouvernement fédéral. Il a également menacé de désigner Anthropic comme un risque pour la chaîne d'approvisionnement.

    Récemment, le département de la Défense a officiellement informé la direction d'Anthropic que l'entreprise et ses produits avaient été désignés comme présentant un risque pour la chaîne d'approvisionnement, avec effet immédiat. « Depuis le début, il s'agit d'un principe fondamental : l'armée doit pouvoir utiliser la technologie à toutes fins légales », a déclaré un responsable. « L'armée ne permettra pas à un fournisseur de s'immiscer dans la chaîne de commandement en restreignant l'utilisation légale d'une capacité critique et en mettant nos combattants en danger. »

    Anthropic est la seule entreprise américaine à avoir été publiquement désignée comme présentant un risque pour la chaîne d'approvisionnement, cette désignation étant traditionnellement utilisée contre des adversaires étrangers. Cette étiquette obligera les fournisseurs et les sous-traitants du secteur de la défense à certifier qu'ils n'utilisent pas les modèles d'Anthropic dans le cadre de leur collaboration avec le Pentagone.

    Cette désignation officielle marque le dernier développement en date dans le conflit qui oppose Anthropic et le Pentagone, qui sont en désaccord sur la manière dont les modèles d'intelligence artificielle de la start-up, connus sous le nom de Claude, peuvent être utilisés. Anthropic voulait avoir l'assurance que sa technologie ne serait pas exploitée pour des armes entièrement autonomes ou la surveillance de masse nationale, mais le DOD voulait qu'Anthropic accorde à l'agence un accès illimité à Claude pour tous les usages légaux. Même si les négociations entre les deux organisations ont échoué, le DOD a utilisé les modèles d'Anthropic pour soutenir les opérations militaires américaines dans le conflit en cours en Iran.

    Cette semaine, Anthropic a donné une leçon magistrale d'arrogance et de trahison, ainsi qu'un exemple parfait de la manière dont il ne faut pas faire des affaires avec le gouvernement américain ou le Pentagone.

    Notre position n'a jamais vacillé et ne vacillera jamais : le ministère de la Guerre doit avoir un accès complet et illimité aux modèles d'Anthropic à toutes fins LÉGALES dans le cadre de la défense de la République.

    Au lieu de cela, @AnthropicAI et son PDG @DarioAmodei ont choisi la duplicité. Sous le couvert d'une rhétorique moralisatrice sur « l'altruisme efficace », ils ont tenté de contraindre l'armée américaine à se soumettre, un acte lâche de vertu ostentatoire qui place l'idéologie de la Silicon Valley au-dessus des vies américaines.

    Les conditions d'utilisation de l'altruisme défectueux d'Anthropic ne l'emporteront jamais sur la sécurité, la préparation ou la vie des soldats américains sur le champ de bataille.

    Leur véritable objectif est sans équivoque : s'arroger un droit de veto sur les décisions opérationnelles de l'armée américaine. C'est inacceptable.

    Comme l'a déclaré le président Trump sur Truth Social, seuls le commandant en chef et le peuple américain détermineront le destin de nos forces armées, et non des dirigeants technologiques non élus.

    La position d'Anthropic est fondamentalement incompatible avec les principes américains. Leurs relations avec les forces armées américaines et le gouvernement fédéral ont donc été définitivement modifiées.

    Conformément à la directive du président demandant au gouvernement fédéral de cesser toute utilisation de la technologie d'Anthropic, j'ordonne au ministère de la Guerre de désigner Anthropic comme un risque pour la sécurité nationale dans la chaîne d'approvisionnement. À compter de ce jour, aucun sous-traitant, fournisseur ou partenaire travaillant avec l'armée américaine ne peut mener d'activité commerciale avec Anthropic. Anthropic continuera à fournir ses services au département de la Guerre pendant une période maximale de six mois afin de permettre une transition en douceur vers un service meilleur et plus patriotique.

    Les combattants américains ne seront jamais pris en otage par les caprices idéologiques des géants de la technologie. Cette décision est définitive.
    La notification officielle intervient six jours après que le secrétaire à la Défense Pete Hegseth ait annoncé qu'il demandait au ministère de la Défense de qualifier Anthropic de « risque pour la sécurité nationale en matière de chaîne d'approvisionnement ». Ce message publié sur les réseaux sociaux ne suffisait pas à lui seul pour servir de désignation officielle. Le président Donald Trump a également ordonné aux agences fédérales de « cesser immédiatement » toute utilisation de la technologie d'Anthropic. Il a déclaré avoir « licencié » Anthropic. « Anthropic est en difficulté parce que je les ai licenciés comme des chiens, car ils n'auraient pas dû faire cela », a-t-il déclaré.

    Les relations entre Anthropic et l'administration Trump sont devenues de plus en plus tendues ces derniers mois. David Sacks, le capital-risqueur qui occupe le poste de tsar de l'IA et de la cryptographie à la Maison Blanche, avait précédemment accusé Anthropic de soutenir l'« IA woke » en raison de sa position sur la réglementation, et de « mener une stratégie sophistiquée de captation réglementaire basée sur la peur », après qu'un dirigeant de l'entreprise ait rédigé en octobre un essai intitulé « Optimisme technologique et peur appropriée ».

    Le PDG d'Anthropic, Dario Amodei, a également largement évité de côtoyer Trump, contrairement à d'autres dirigeants du secteur, notamment le PDG d'OpenAI, Sam Altman, le PDG d'Apple, Tim Cook, et le PDG de Google, Sundar Pichai. Amodei n'a notamment pas assisté à l'investiture de Trump. Dario Amodei aurait déclaré dans une note adressée à ses employés que l'administration n'apprécie pas Anthropic parce que l'entreprise n'a pas fait de dons ni offert « d'éloges dignes d'un dictateur à Trump ».

    Les investisseurs ont suivi de près le conflit entre Anthropic et le DOD, et les actions du partenaire de la start-up, Palantir, ont baissé à l'annonce de cette nouvelle. Le titre a clôturé à un niveau pratiquement inchangé. Le fournisseur de logiciels et de services, qui tire environ 60 % de ses revenus aux États-Unis de contrats gouvernementaux, collabore avec Anthropic dans le cadre de ses activités avec les agences militaires et de défense, en vertu d'un accord signé fin 2024. Des analystes ont écrit dans une note à leurs clients qu'Anthropic est « fortement implantée dans la communauté militaire et du renseignement » et que l'abandon de la technologie de l'entreprise pourrait « perturber à court terme » les activités de Palantir.

    Anthropic a signé un contrat de 200 millions de dollars avec le DOD en juillet, et a été le premier laboratoire d'IA à intégrer ses modèles dans les flux de travail des missions sur des réseaux classifiés. Mais alors que les négociations entre les deux organisations étaient au point mort, OpenAI et xAI d'Elon Musk ont également accepté de déployer leurs modèles dans des capacités classifiées.

    Sam Altman, PDG d'OpenAI, a annoncé l'accord entre OpenAI et le DOD quelques heures après qu'Anthropic ait été mis sur liste noire. Il a déclaré dans un message publié sur X que l'agence faisait preuve d'un « profond respect pour la sécurité et d'une volonté de s'associer pour obtenir les meilleurs résultats possibles ». En concluant en urgence un accord avec le Département de la Défense américain quelques heures après la mise au ban d'Anthropic, OpenAI espérait se positionner avantageusement dans la course aux contrats militaires. Mais la manœuvre a déclenché un tollé public sans précédent.

    En refusant de céder aux exigences militaires américaines sur l'usage de son IA, Anthropic a perdu un contrat fédéral mais déclenché un mouvement populaire sans précédent. En moins de 48 heures, Claude est passé de la 131e à la première place des applications gratuites les plus téléchargées sur l'App Store américain. Un porte-parole d'Anthropic a confirmé que les inscriptions quotidiennes battaient chaque jour un record absolu cette semaine-là, que le nombre d'utilisateurs gratuits avait augmenté de plus de 60 % depuis janvier, et que les abonnés payants avaient plus que doublé depuis le début de l'année.


    En réponse à cette annonce officielle, voici le communiqué d'Anthropic :

    Déclaration concernant les commentaires du secrétaire à la Guerre Pete Hegseth

    Plus tôt dans la journée, le secrétaire à la Guerre Pete Hegseth a déclaré sur X qu'il demandait au département de la Guerre de désigner Anthropic comme un risque pour la chaîne d'approvisionnement. Cette décision fait suite à des mois de négociations qui ont abouti à une impasse concernant deux exceptions que nous avions demandées à l'utilisation légale de notre modèle d'IA, Claude : la surveillance massive des citoyens américains et les armes entièrement autonomes.

    Nous n'avons pas encore reçu de communication directe du ministère de la Guerre ou de la Maison Blanche concernant l'état d'avancement de nos négociations.

    Nous avons tenté de bonne foi de parvenir à un accord avec le ministère de la Guerre, en précisant clairement que nous soutenons toutes les utilisations légales de l'IA pour la sécurité nationale, à l'exception des deux exceptions limitées mentionnées ci-dessus. À notre connaissance, ces exceptions n'ont jusqu'à présent affecté aucune mission gouvernementale.

    Nous avons maintenu nos exceptions pour deux raisons. Premièrement, nous ne pensons pas que les modèles d'IA de pointe actuels soient suffisamment fiables pour être utilisés dans des armes entièrement autonomes. Autoriser l'utilisation des modèles actuels à cette fin mettrait en danger les combattants et les civils américains. Deuxièmement, nous estimons que la surveillance massive des citoyens américains sur le territoire national constitue une violation des droits fondamentaux.

    Désigner Anthropic comme un risque pour la chaîne d'approvisionnement serait une mesure sans précédent, historiquement réservée aux adversaires des États-Unis et jamais appliquée publiquement à une entreprise américaine. Nous sommes profondément attristés par ces développements. En tant que première entreprise pionnière dans le domaine de l'IA à déployer des modèles dans les réseaux classifiés du gouvernement américain, Anthropic soutient les combattants américains depuis juin 2024 et a la ferme intention de continuer à le faire.

    Nous estimons que cette désignation serait à la fois juridiquement infondée et créerait un dangereux précédent pour toute entreprise américaine qui négocie avec le gouvernement.

    Aucune intimidation ni sanction de la part du ministère de la Guerre ne changera notre position sur la surveillance massive des citoyens américains ou les armes entièrement autonomes. Nous contesterons toute désignation de risque pour la chaîne d'approvisionnement devant les tribunaux.

    Ce que cela signifie pour nos clients

    Le secrétaire Hegseth a laissé entendre que cette désignation empêcherait toute personne faisant affaire avec l'armée de traiter avec Anthropic. Le secrétaire n'a pas l'autorité légale pour étayer cette déclaration. Légalement, une désignation de risque pour la chaîne d'approvisionnement en vertu de l'article 10 USC 3252 ne peut s'étendre qu'à l'utilisation de Claude dans le cadre des contrats du ministère de la Guerre ; elle ne peut affecter la manière dont les sous-traitants utilisent Claude pour servir d'autres clients.

    En pratique, cela signifie que :

    - Si vous êtes un client particulier ou si vous avez un contrat commercial avec Anthropic, votre accès à Claude, via notre API, claude.ai ou l'un de nos produits, n'est absolument pas affecté.
    - Si vous êtes un entrepreneur du ministère de la Guerre, cette désignation, si elle est officiellement adoptée, n'affecterait que votre utilisation de Claude dans le cadre des contrats du ministère de la Guerre. Votre utilisation à d'autres fins n'est pas affectée.

    Nos équipes commerciales et d'assistance se tiennent à votre disposition pour répondre à toutes vos questions.

    Nous sommes profondément reconnaissants envers nos utilisateurs, nos pairs du secteur, les décideurs politiques, les anciens combattants et les membres du public qui ont exprimé leur soutien ces derniers jours. Merci. Notre priorité absolue est de protéger nos clients contre toute perturbation causée par ces événements extraordinaires et de travailler avec le ministère de la Guerre pour assurer une transition en douceur, pour eux, pour nos troupes et pour les opérations militaires américaines.

    Source : Communiqué d'Anthropic

    Et vous ?

    Pensez-vous que cette déclaration est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Anthropic blacklisté pour avoir refusé la surveillance de masse, OpenAI en profite et conclut un accord avec le Pentagone, alimentant la campagne #CancelChatGPT où plusieurs se désabonnent en masse

    Le Pentagone américain adopte le chatbot IA Grok d'Elon Musk alors qu'il suscite un tollé mondial : Grok serait mis en service au sein du département de la Défense car « l'IA du Pentagone ne serait pas woke »

    Sam Altman déclare à son personnel qu'OpenAI n'a pas son mot à dire sur les décisions du Pentagone et ne peut pas choisir la manière dont l'armée utilise sa technologie
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  11. #31
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    551
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 551
    Par défaut Le Pentagone a obtenu pour la première fois l'accès aux produits OpenAI via Microsoft Azure en 2023
    Le Pentagone aurait obtenu pour la première fois l'accès aux produits OpenAI via Microsoft Azure en 2023, avant la conclusion d'un accord officiel et malgré la politique d'utilisation d'OpenAI

    Les modèles d'OpenAI auraient été accessibles au département américain de la Guerre bien avant la signature d'un accord officiel à leur sujet. Un rapport récent affirme que le Pentagone a eu accès à la technologie d'OpenAI via le service Azure OpenAI de Microsoft en 2023, alors qu'il était connu sous le nom de département de la Défense. Ce qui est plus inquiétant, c'est qu'à l'époque, la politique d'utilisation d'éditeur de ChatGPT interdisait à l'armée d'utiliser ses modèles d'IA.

    Fin février 2026, l'industrie de l'intelligence artificielle (IA) a vécu l'une de ses journées les plus révélatrices. D'un côté, Anthropic a refusé catégoriquement de lever ses garde-fous éthiques face aux exigences du département de la Guerre américain, au risque d'être blacklisté de tous les contrats fédéraux. De l'autre, Sam Altman s'est empressé de signer un accord avec le Pentagone, déclenchant une vague de désinscriptions massives à ChatGPT et relançant un débat fondamental : peut-on faire confiance à une IA qui se vend au complexe militaro-industriel ?

    Dans ce contexte, le PDG d'OpenAI, Sam Altman, a adressé un message sans détour à ses employés : en ce qui concerne les opérations militaires américaines, l'entreprise n'a tout simplement pas son mot à dire. « Vous pensez peut-être que la frappe contre l'Iran était une bonne chose et que l'invasion du Venezuela était une mauvaise chose », a déclaré Altman à son personnel lors d'une réunion générale. « Vous n'avez pas votre mot à dire à ce sujet. »

    Cependant, les modèles d'OpenAI auraient été accessibles au département américain de la Guerre bien avant la signature d'un accord officiel à leur sujet. Un rapport récent affirme que le Pentagone a eu accès à la technologie d'OpenAI via le service Azure OpenAI de Microsoft en 2023, alors qu'il était connu sous le nom de département de la Défense. Ce qui est plus inquiétant, c'est qu'à l'époque, la politique d'utilisation d'éditeur de ChatGPT interdisait à l'armée d'utiliser ses modèles d'IA.

    Selon un article publié dans Wired, certains employés d'OpenAI ont découvert que le Pentagone avait commencé à tester Azure OpenAI, une version des modèles d'OpenAI disponible sur la plateforme cloud de Microsoft, bien avant que le département ne signe un accord avec l'entreprise la semaine dernière. Cela s'est produit alors que Microsoft, qui a depuis longtemps des contrats avec le Pentagone et qui est le plus grand investisseur d'OpenAI, dispose également de droits étendus pour commercialiser la technologie de la start-up.

    Nom : 1.jpg
Affichages : 5139
Taille : 84,5 Ko

    Ce que Microsoft et OpenAI ont déclaré au sujet de l'accès de l'armée américaine à des outils d'IA interdits

    Cet article intervient alors que le PDG d'OpenAI, Sam Altman, fait face aux critiques de ses employés suite au récent accord conclu par l'entreprise avec l'armée américaine. Cet accord a été signé après l'échec d'un contrat d'environ 200 millions de dollars entre le Pentagone et Anthropic, ce qui a incité certains membres du personnel à demander à Altman plus de détails sur cet accord. Altman a ensuite déclaré dans un message publié sur les réseaux sociaux que la situation semblait « bâclée ». Des sources ont déclaré à Wired que cette question avait déjà semé la confusion au sein d'OpenAI en 2023.

    Certains employés se sont souvenus avoir vu des responsables du Pentagone se promener dans les bureaux de l'entreprise à San Francisco, tandis que d'autres se sont demandé si les restrictions d'OpenAI s'appliquaient aux produits Azure OpenAI de Microsoft. Parallèlement, les porte-parole d'OpenAI et de Microsoft ont souligné que les services Azure OpenAI n'avaient jamais été soumis aux politiques d'utilisation d'OpenAI.

    Dans une déclaration à Wired, le porte-parole de Microsoft, Frank Shaw, a déclaré que le service Azure OpenAI de l'entreprise était devenu accessible au gouvernement américain en 2023, conformément aux conditions d'utilisation de l'entreprise. « Microsoft propose un produit appelé Azure OpenAI Service, qui est devenu accessible au gouvernement américain en 2023 et qui est soumis aux conditions d'utilisation de Microsoft », a-t-il déclaré. Cependant, la société a refusé de préciser quand le service a été mis à la disposition du ministère américain de la Défense pour la première fois, mais a indiqué qu'il n'avait pas été approuvé pour les tâches gouvernementales « top secret » avant 2025.

    La porte-parole d'OpenAI a exprimé la conviction de la société quant à l'importance de continuer à participer aux discussions sur l'utilisation de l'IA dans le domaine de la sécurité nationale. « L'IA joue déjà un rôle important dans la sécurité nationale et nous pensons qu'il est important d'être présent à la table des discussions afin de garantir son déploiement de manière sûre et responsable », a déclaré Liz Bourgeois, porte-parole d'OpenAI, dans une déclaration à Wired.

    Elle a ajouté que la société avait informé ses employés de ce travail et créé des canaux leur permettant de poser des questions. « Nous avons fait preuve de transparence envers nos employés dans le cadre de ce travail, en leur fournissant des mises à jour régulières et en mettant en place des canaux dédiés où les équipes peuvent poser des questions et communiquer directement avec notre équipe chargée de la sécurité nationale », a ajouté Bourgeois.

    L'attitude d'OpenAI à l'égard de la collaboration avec l'armée a évolué au fil du temps

    L'attitude d'OpenAI à l'égard de la collaboration avec l'armée a également évolué au fil du temps. Par exemple, en janvier 2024, les employés d'OpenAI ont appris la décision de l'organisation de lever son interdiction générale d'utilisation militaire de sa technologie, non pas par le biais de communications internes, mais par le biais d'un article de presse. En décembre 2024, OpenAI a annoncé son partenariat avec Anduril pour traiter les questions de sécurité nationale non classifiées.

    OpenAI a refusé la proposition de Palantir de rejoindre son programme « FedStart », invoquant des préoccupations liées aux risques, bien qu'elle travaille désormais avec Palantir à d'autres titres. Cela contraste avec Anthropic, qui a signé un accord avec Palantir autorisant l'utilisation de son IA pour des travaux militaires classifiés.

    Le dernier accord avec le Pentagone a également créé des divisions internes. Certains employés se sont demandé si les modèles de l'entreprise étaient suffisamment fiables pour être utilisés sur le champ de bataille, tandis que d'autres ont estimé que le partenariat avec Anduril témoignait d'une approche responsable. Un chercheur actuel d'OpenAI a déclaré à Wired : « Jusqu'à présent, l'approche d'OpenAI a consisté à « mesurer deux fois avant de couper une fois » lorsqu'il s'agit de déploiements classifiés à grande échelle. Les employés se penchent sur la question de savoir quelle approche de la sécurité nationale est conforme à la mission. »

    Des observateurs extérieurs ont exprimé leurs inquiétudes quant à la portée de l'accord. Charlie Bullock, de l'Institute for Law and AI, a fait remarquer que celui-ci pouvait permettre certaines formes de surveillance légale, telles que l'achat et l'analyse des données des citoyens américains. OpenAI a par la suite modifié les termes de l'accord. Le chercheur Noam Brown a reconnu : « Au cours du week-end, il est apparu clairement que le libellé initial de l'accord entre OpenAI et DoW laissait des questions légitimes sans réponse, notamment en ce qui concerne certaines nouvelles façons dont l'IA pourrait potentiellement permettre une surveillance légale. »

    L'ancienne responsable de la géopolitique chez OpenAI, Sarah Shoker, a également écrit : « Les plus grands perdants dans tout cela sont les gens ordinaires et les civils dans les zones de conflit. Notre capacité à comprendre les effets de l'IA militaire dans la guerre est et sera gravement entravée en raison des couches d'opacité causées par la conception technique et la politique. Ce sont des boîtes noires à tous les niveaux. »

    Imperméable aux critiques, Sam Altman annonce un autre contrat militaire confidentiel avec l'OTAN

    Lors d'une récente réunion générale, le PDG de l'entreprise, Sam Altman, a déclaré qu'OpenAI serait en train d'étudier un autre contrat gouvernemental majeur. Cette fois-ci, l'éditeur de ChatGPT cherche à s'associer à l'Organisation du traité de l'Atlantique Nord, ou OTAN, une alliance militaire intergouvernementale regroupant 32 États membres, dont 30 en Europe et deux en Amérique du Nord. Cependant, il existe une différence fondamentale qui distingue cet accord présumé de celui conclu avec le Pentagone.

    L'accord avec l'OTAN concernerait les réseaux non classifiés, ce qui diffère considérablement de son récent accord avec le Pentagone, qui couvre les systèmes militaires américains classifiés. Cette distinction est importante. Les réseaux classifiés traitent les renseignements militaires et les plans opérationnels les plus sensibles, tandis que les réseaux non classifiés, bien qu'ils restent importants, traitent des informations qui ne présentent pas le même niveau de sensibilité en matière de sécurité nationale.

    Pourtant, après l'annonce de l'accord avec le Pentagone, OpenAI fait face à une vague de désinscriptions massives à ChatGPT. Les désinstallations de ChatGPT bondissent de 295 % après l'annonce de l'accord avec le ministère américain de la Défense. Dans le même temps, la croissance des téléchargements s'est affaiblie. Claude, d'Anthropic, a profité de ce changement. Les données ont montré que les téléchargements de Claude aux États-Unis ont augmenté de 37 % par rapport à la veille le vendredi 27 février, puis de 51 % le samedi 28 février.

    Sources : OpenAI, Microsoft, Wired

    Et vous ?

    Pensez-vous que ce rapport est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Sam Altman modifie l'accord conclu entre OpenAI et les États-Unis suite à la polémique : il interdit à l'armée américaine d'espionner les Américains via ChatGPT, pour le reste du monde ça va

    OpenAI abandonne l'interdiction d'utiliser ses outils à des fins « militaires et de guerre » pour s'associer au Pentagone, notamment sur des outils de cybersécurité open source

    Le Pentagone désigne officiellement Anthropic comme un risque pour la chaîne d'approvisionnement, alors que Claude est utilisé en Iran, et exigera des sous-traitants de ne pas utiliser les modèles d'Anthropic
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #32
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 915
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 915
    Par défaut Claude victime de son succès : comment le bras de fer avec le Pentagone a provoqué sa plus grande panne
    Claude victime de son succès : comment le bras de fer avec le Pentagone a provoqué la plus grande panne de l'histoire d'Anthropic
    et mis à nu les fragilités de son infrastructure

    La saga opposant Anthropic à l'administration Trump a eu un effet inattendu : propulser Claude au sommet de l'App Store américain, détrônant ChatGPT pour la première fois. Mais cette victoire symbolique a failli se transformer en désastre opérationnel, révélant les fragilités d'une infrastructure prise en étau entre croissance fulgurante et instabilité politique.

    Pour comprendre la panne du 2 mars 2026 et ses conséquences, il faut remonter au fil des événements qui l'ont précédée.

    Tout commence en juillet 2025. Anthropic signe avec le Département de la Défense américain (DoD) un contrat d'une valeur pouvant atteindre 200 millions de dollars, devenant ainsi le premier laboratoire d'IA à intégrer ses modèles dans des flux de travail sur des réseaux classifiés militaires. Une première historique, et une marque de confiance considérable envers la startup fondée par Dario et Daniela Amodei.

    Mais en janvier 2026, la tension monte d'un cran. Pete Hegseth publie un mémorandum intitulé « Accélérer la dominance militaire américaine en matière d'IA », dans lequel il écrit que le DoD ne doit pas employer des modèles incorporant un « ajustement idéologique » et qu'il doit utiliser des modèles dépourvus de contraintes de politique d'usage susceptibles de limiter les applications militaires légales. Le ton est donné.

    Le 24 février 2026, lors d'une réunion tendue au Pentagone, Hegseth fixe un ultimatum à Dario Amodei : se soumettre avant 17h01 le vendredi 27 février et autoriser l'utilisation sans restriction des modèles Claude « à toutes fins légales ». Deux lignes rouges ont cristallisé le désaccord : Anthropic refuse catégoriquement que ses IA soient déployées pour des armes létales entièrement autonomes — c'est-à-dire sans supervision humaine dans les décisions de ciblage — et pour la surveillance de masse des citoyens américains.

    Anthropic publie une déclaration le jeudi 26 indiquant qu'elle ne cédera pas, précisant que le nouveau libellé contractuel proposé par le Pentagone permettrait à ses garde-fous d'être « ignorés à volonté ». Le vendredi 27 février, la rupture est consommée. Trump ordonne via Truth Social aux agences fédérales et aux contractants militaires de cesser tout commerce avec Anthropic, accordant six mois pour une transition. Pete Hegseth annonce que la société sera qualifiée de « risque pour la chaîne d'approvisionnement » — une désignation habituellement réservée aux entreprises d'États adversaires comme Huawei.

    Anthropic devient ainsi la seule entreprise américaine à avoir jamais été publiquement désignée comme un risque pour la chaîne d'approvisionnement, une distinction qui soulève davantage de questions qu'elle n'apporte de réponses. Emil Michael, le secrétaire adjoint à la Défense pour la recherche et l'ingénierie, n'hésite pas à qualifier Amodei de « menteur avec un complexe de Dieu ». Trump promet, lui, d'utiliser « tout le pouvoir de la présidence » pour forcer la conformité, évoquant des « conséquences civiles et pénales majeures ».


    OpenAI s'engouffre dans la brèche — et s'en mordra les doigts

    La suite appartient au manuel de la communication de crise mal gérée. Quelques heures seulement après la rupture avec Anthropic, le PDG d'OpenAI Sam Altman annonce que son entreprise a conclu un accord avec le Département de la Défense pour déployer ses modèles sur les réseaux classifiés militaires. La manœuvre est perçue comme opportuniste par une large partie de la communauté tech.

    Des utilisateurs accusent OpenAI d'opportunisme, soulignant qu'Altman avait auparavant manifesté son soutien à la position d'Anthropic avant de signer le contrat que celle-ci avait rejeté. La réaction des réseaux sociaux est immédiate et cinglante. Sur Instagram, le compte « quitGPT » gagne 10 000 abonnés en quelques jours. Sur Reddit, un post appelant à « annuler et supprimer ChatGPT » accumule 30 000 votes positifs. Evrim Ağı Des activistes lancent le site CancelChatGPT.com pour guider les utilisateurs dans la suppression de leur compte.

    La donation antérieure de Greg Brockman, président d'OpenAI, à hauteur de 25 millions de dollars à un super PAC pro-Trump est citée parmi les raisons du départ, soulignant la dimension ouvertement politique que prend la controverse.

    Nom : top_app.png
Affichages : 4652
Taille : 133,1 Ko

    La ruée vers Claude — et le mur de l'infrastructure

    Le résultat de cette tempête politique ? Le 28 février 2026, l'application Claude atteint pour la première fois la première place de l'App Store américain d'Apple, détrônant ChatGPT. Avant la diffusion des publicités d'Anthropic lors du Super Bowl LX du 2 février, la société pointait à la 131e place dans les classements américains de l'App Store. Elle s'est ensuite maintenue dans le top 10 tout au long du mois de février.

    Les chiffres internes confirment l'ampleur du phénomène. Selon Anthropic, les utilisateurs gratuits de Claude ont augmenté de plus de 60 % depuis janvier 2026, les inscriptions quotidiennes ont quadruplé et les abonnés payants ont plus que doublé dans l'année.

    Mais cet afflux massif aura raison — temporairement — des serveurs d'Anthropic. Le 2 mars 2026 à 11h30 UTC, une panne mondiale frappe Claude, affectant les utilisateurs sur toutes les plateformes et dans toutes les régions. Selon les pages de statut d'Anthropic, le premier avis d'investigation est publié à 11h49 UTC. Les rapports d'incidents atteignent un pic de près de 2 000 signalements en un court laps de temps sur DownDetector, 42 % des utilisateurs citant des problèmes avec l'interface web et 34 % avec l'application mobile.

    La cause technique semble liée à l'infrastructure d'authentification et de connexion plutôt qu'aux modèles d'IA eux-mêmes, ce qui explique pourquoi l'API Claude est restée opérationnelle tandis que les interfaces grand public tombaient. Pour les développeurs ayant intégré Claude via l'API dans leurs pipelines de production, l'incident est resté gérable. Pour les millions d'abonnés payants — entre 20 et 200 dollars par mois selon les formules — la situation était nettement plus frustrante.

    La panne a adopté un schéma caractéristique de défaillance en cascade : à peine le chemin de connexion stabilisé, de nouvelles erreurs sont apparues sur Claude Opus 4.6, puis sur Claude Haiku 4.5, révélant une infrastructure sous tension sur plusieurs couches simultanément.

    Une victoire à double tranchant

    Au-delà de la panne, l'épisode soulève des questions profondes sur la durabilité du modèle de croissance d'Anthropic. Claude Code représente désormais, selon les données citées par plusieurs analystes, environ 4 % de l'ensemble des commits GitHub, ce qui en fait un outil critique pour de nombreux développeurs. Lorsqu'une telle infrastructure tombe, ce ne sont plus seulement des conversations qui s'interrompent : ce sont des pipelines CI/CD qui s'immobilisent et des workflows professionnels qui s'arrêtent net.

    La situation est également révélatrice d'une tension structurelle dans la stratégie d'Anthropic. D'un côté, la société a construit sa réputation — et son avantage concurrentiel — sur son engagement éthique. C'est précisément ce positionnement qui a généré l'afflux d'utilisateurs en fuite de ChatGPT. De l'autre, cet afflux a mis en lumière les limites d'une infrastructure pas encore dimensionnée pour absorber des migrations de masse spontanées.

    Dans un mémo interne rapporté par TechCrunch, Dario Amodei qualifie l'accord d'OpenAI avec le Pentagone de « théâtre de la sécurité » et les éléments de communication qui l'entourent de « mensonges purs et simples ». OpenAI, de son côté, a procédé à des ajustements. Sam Altman a lui-même reconnu que son organisation « n'aurait pas dû précipiter » la conclusion de cet accord, et a déclaré publiquement espérer que le Pentagone offre à Anthropic les mêmes conditions que celles qu'OpenAI avait acceptées.

    Le dénouement reste ouvert. Des sources du Financial Times et de Bloomberg indiquent que Dario Amodei a repris les négociations avec Emil Michael, sous-secrétaire à la Défense, dans une tentative de trouver un compromis. La désignation officielle de risque pour la chaîne d'approvisionnement, qui forcerait tous les contractants du Pentagone à certifier qu'ils n'utilisent aucun produit Anthropic, n'a à ce stade pas encore été formalisée par voie réglementaire — laissant une fenêtre de négociation.

    Nom : altman_interne.png
Affichages : 1172
Taille : 20,9 Ko

    La leçon infrastructurelle

    Pour les professionnels de l'IT, l'incident du 2 mars 2026 vaut autant comme étude de cas que comme alerte. La dépendance à un fournisseur unique d'IA — qu'il s'agisse d'Anthropic, d'OpenAI ou d'un autre — crée un point de défaillance unique dans les environnements de production. Ironie de l'histoire : c'est une victoire politique d'Anthropic qui a mis en évidence cette vulnérabilité technique. La prochaine migration massive d'utilisateurs — quelle qu'en soit la cause — testera à nouveau la résilience d'une infrastructure qui n'a pas encore démontré sa capacité à encaisser les coups de la popularité soudaine.

    Source : Bloomberg

    Et vous ?

    Le refus d'Anthropic est-il un acte de résistance éthique ou une posture marketing calculée ? La startup avait tout à gagner — en termes d'image et d'acquisition d'utilisateurs — à refuser les demandes du Pentagone. Peut-on vraiment distinguer conviction et stratégie dans ce cas ?

    OpenAI a-t-il commis une erreur fatale en signant précipitamment ? La rétropédalage public de Sam Altman suggère une lecture de la situation initialement défaillante. Cela remet-il en cause la crédibilité d'OpenAI sur les questions d'éthique de l'IA à long terme ?

    Les entreprises qui dépendent de Claude dans leurs pipelines de production ont-elles tiré les bonnes leçons ? La panne du 2 mars a exposé un manque de redondance critique. Les architectures multi-LLM vont-elles devenir la norme dans les environnements professionnels ?

    L'éthique de l'IA peut-elle réellement peser dans les décisions d'achat des utilisateurs grands public, ou s'agit-il d'un phénomène conjoncturel lié au contexte politique américain ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  13. #33
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 761
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 761
    Par défaut Caitlin Kalinowski, responsable de la robotique chez OpenAI, démissionne à cause l'accord avec le Pentagone
    Caitlin Kalinowski, responsable de la robotique chez OpenAI, démissionne en raison de l'accord entre Sam Altman et le Pentagone, invoquant « une surveillance sans contrôle judiciaire et une autonomie létale »

    Caitlin Kalinowski, responsable de la robotique et du matériel grand public chez OpenAI, a annoncé sa démission. Elle a invoqué ses inquiétudes concernant l'accord récemment conclu entre l'entreprise et le ministère américain de la Défense. Selon Kalinowski, « la surveillance des Américains sans contrôle judiciaire et l'autonomie létale sans autorisation humaine sont des questions qui méritaient davantage de réflexion qu'elles n'en ont reçu. »

    Fin février 2026, l'industrie de l'intelligence artificielle a vécu l'une de ses journées les plus révélatrices. D'un côté, Anthropic a refusé catégoriquement de lever ses garde-fous éthiques face aux exigences du département de la Guerre américain, au risque d'être blacklisté de tous les contrats fédéraux. De l'autre, Sam Altman, PDG d'OpenAI, s'est empressé de signer un accord avec le Pentagone, déclenchant une vague de désinscriptions massives à ChatGPT et relançant un débat fondamental : peut-on faire confiance à une IA qui se vend au complexe militaro-industriel ?

    Lors d'une réunion générale qui a suivi cet accord, Sam Altman a adressé un message sans détour à ses employés : en ce qui concerne les opérations militaires américaines, l'entreprise n'a tout simplement pas son mot à dire. « Vous pensez peut-être que la frappe contre l'Iran était une bonne chose et que l'invasion du Venezuela était une mauvaise chose », a déclaré Altman à son personnel. « Vous n'avez pas votre mot à dire à ce sujet. »

    Récemment, Caitlin Kalinowski, responsable de la robotique et du matériel grand public chez OpenAI, a annoncé sa démission. Elle a invoqué ses inquiétudes concernant l'accord récemment conclu entre l'entreprise et le ministère américain de la Défense. Dans un message publié sur le réseau social professionnel LinkedIn, Kalinowski a écrit que la décision de déployer les modèles d'OpenAI sur les réseaux classifiés du Pentagone avait été prise trop rapidement et sans garanties suffisantes.

    Elle a écrit : « J'ai démissionné d'OpenAI. Je suis très attaché à l'équipe de robotique et au travail que nous avons accompli ensemble. Cette décision n'a pas été facile à prendre. L'IA joue un rôle important dans la sécurité nationale. Mais la surveillance des Américains sans contrôle judiciaire et l'autonomie létale sans autorisation humaine sont des questions qui méritaient davantage de réflexion qu'elles n'en ont reçu. Il s'agissait d'une question de principe, pas de personnes. J'ai un profond respect pour Sam et l'équipe, et je suis fier de ce que nous avons accompli ensemble. »

    Nom : 1.jpg
Affichages : 1534
Taille : 48,9 Ko

    OpenAI a conclu un accord « précipité » avec le Pentagone le jour même où le ministère de la Guerre a « expulsé » Anthropic parce que l'entreprise avait refusé de se conformer à ses exigences. OpenAI a défendu cet accord, affirmant qu'il comportait des garanties supplémentaires pour empêcher toute utilisation abusive. L'entreprise a réaffirmé que ses « lignes rouges » interdisaient l'utilisation de sa technologie dans le cadre de la surveillance nationale ou d'armes entièrement autonomes.

    « Nous reconnaissons que ces questions suscitent des opinions très tranchées et nous continuerons à engager le dialogue avec les employés, les gouvernements, la société civile et les communautés du monde entier », a déclaré OpenAI dans un communiqué.

    Selon Kalinowski, « la surveillance des Américains sans contrôle judiciaire et l'autonomie létale sans autorisation humaine sont des questions qui méritaient davantage de réflexion qu'elles n'en ont reçu. » Bien qu'elle respecte le PDG Sam Altman et son équipe, l'accord avec le Pentagone a été annoncé « sans que les garde-fous soient définis », qualifiant cela de problème de gouvernance qui n'aurait pas dû être précipité.

    Kalinowski a rejoint OpenAI en 2024 après avoir dirigé le développement de matériel de réalité augmentée chez Meta Platforms. Son départ met en évidence les tensions croissantes au sein du secteur de l'IA concernant l'utilisation des modèles avancés dans les domaines de la défense et de la surveillance, en particulier à mesure que les entreprises se lancent dans des contrats gouvernementaux sensibles.

    Elle a ajouté plus tard sur la plateforme X, anciennement Twitter : « Pour être clair, mon problème est que l'annonce a été faite précipitamment, sans que les garde-fous aient été définis. Il s'agit avant tout d'une question de gouvernance. Ces questions sont trop importantes pour que les accords ou les annonces soient précipités. »

    Le vice-président d'OpenAI avait également quitté l'entreprise quelques heures après l'accord conclu par Sam Altman avec le Pentagone et rejoint Anthropic. Le vice-président de la recherche d'OpenAI, Max Schwarzer, a quitté l'entreprise pour rejoindre Anthropic. Dans un message publié sur la plateforme X, Schwarzer a déclaré que bon nombre des personnes qu'il « respecte et en qui il a le plus confiance » ont rejoint Anthropic au cours des deux dernières années.

    Max Schwarzer a été l'un des premiers participants au modèle d'inférence o1 et a dirigé la post-formation des modèles o1 et o3 de l'entreprise. Chez OpenAI, il a également dirigé l'équipe de post-formation, livrant les modèles GPT-5, 5.1, 5.2 et 5.3-Codex. Ce départ intervient après que l'entreprise d'IA dirigée par Sam Altman a annoncé un accord avec le ministère de la Guerre pour le déploiement de systèmes d'IA avancés dans des environnements classifiés.

    Depuis cette annonce, environ 1,5 million d'abonnés auraient quitté ChatGPT, dans un contexte de vive controverse publique quant à savoir si cet accord protégeait réellement les Américains contre la surveillance alimentée par l'IA. Il convient de noter qu'Anthropic a déjà rejeté une mise à jour de son contrat avec le Pentagone, estimant que le libellé ne respectait pas les lignes rouges de l'entreprise concernant l'utilisation de l'IA dans la surveillance de masse et les armes autonomes.

    Si l'accord entre OpenAI et le Pentagone a généré différentes réactions, un rapport a révélé les modèles d'OpenAI auraient été accessibles au département américain de la Guerre bien avant la signature d'un accord officiel à leur sujet. Le Pentagone a eu accès à la technologie d'OpenAI via le service Azure OpenAI de Microsoft en 2023, alors qu'il était connu sous le nom de département de la Défense. Ce qui est plus inquiétant, c'est qu'à l'époque, la politique d'utilisation d'éditeur de ChatGPT interdisait à l'armée d'utiliser ses modèles d'IA.

    Et vous ?

    Pensez-vous que cette démission est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Anthropic blacklisté pour avoir refusé la surveillance de masse, OpenAI en profite et conclut un accord avec le Pentagone, alimentant la campagne #CancelChatGPT où plusieurs se désabonnent en masse

    OpenAI admet avoir bâclé son contrat avec le Pentagone : Sam Altman amende l'accord sous pression après un boycott massif de ChatGPT en faveur de Claude

    Le Pentagone désigne officiellement Anthropic comme un risque pour la chaîne d'approvisionnement, alors que Claude est utilisé en Iran, et exigera des sous-traitants de ne pas utiliser les modèles d'Anthropic
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  14. #34
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 752
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 752
    Par défaut Le gouvernement américain va-t-il nationaliser les entreprises privées d'IA ?
    Le gouvernement américain va-t-il nationaliser les entreprises d'IA ? Le bras de fer entre Anthropic et le Pentagone inquiète les PDG
    Sam Altman estime que cette hypothèse ne peut être totalement exclue

    L’accord conclu entre OpenAI et le Pentagone pour l’utilisation militaire de l’IA a suscité une vive controverse au sein de la communauté. Ce tollé a entraîné un exode des utilisateurs de ChatGPT vers Claude, provoquant la plus grande panne de l'histoire d'Anthropic et mettant à nu les fragilités de son infrastructure. De son côté, Sam Altman tente de rassurer les utilisateurs sur le fait qu'OpenAI a mis en place « des garde-fous solides », tout en insistant sur la nécessité d'un partenariat étroit entre les gouvernements et les entreprises d'IA. Il a également évoqué l'idée selon laquelle la création de la superintelligence pourrait à terme devenir un projet gouvernemental.

    Les relations entre le département de la Défense et l’industrie américaine de l’IA se resserrent, dans un contexte où cette technologie est de plus en plus perçue comme un enjeu stratégique et militaire majeur. Alors qu'OpenAI a conclu un accord avec l'armée américaine pour l'utilisation de ses modèles, Anthropic a refusé un contrat similaire, s'opposant à l'utilisation de sa technologie pour l'acquisition automatique de cible et la surveillance domestique.

    En réponse, le Pentagone avait brandi la menace du Defense Production Act, une loi permettant au président de contraindre des entreprises à accepter des contrats gouvernementaux pour des biens jugés stratégiques, ce que Fortune qualifie d'une forme de « nationalisation douce ». C'est ce bras de fer qui a relancé le débat plus large sur la relation entre les entreprises d'IA et l'État. Le PDG d'OpenAI, Sam Altman, souhaite que ces liens soient étroits.

    Le partenariat entre OpenAI et le Pentagone a suscité de fortes réactions parmi les employés, les développeurs et les utilisateurs. Certains s’inquiètent de l’usage militaire potentiel des systèmes d’IA et du manque de garanties claires sur leurs limites. Face à cela, Sam Altman a organisé une session publique de questions-réponses sur X (ex-Twitter), pour tenter d'expliquer la logique de ce partenariat et les garde-fous mis en place par le laboratoire d'IA.

    Lors des échanges, Sam Altman a spéculé sur l'avenir du secteur de l'IA lui-même, et même sur la possibilité que « le gouvernement américain nationalise » les entreprises privées d'IA pour en faire un projet public, admettant à plusieurs reprises qu'il s'était demandé ce qui allait se passer ensuite.

    Le gouvernement pourrait-il nationaliser les développeurs de l'AGI ?

    Sam Altman a reconnu qu'il avait senti la menace d'une tentative de nationalisation « derrière bon nombre des questions » qu'il avait reçues sur lors des discussions. En effet, si des discussions difficiles ont commencé à avoir lieu sur l'avenir, les dernières semaines ont vu apparaître des signes indiquant que tout le monde réfléchit attentivement à son rôle, des acteurs qui développent les piles logicielles aux développeurs qui utilisent leurs systèmes.

    Nom : Capture d'écran 2026-03-09 160941.png
Affichages : 1400
Taille : 201,8 Ko

    Comment cette expansion de l'IA sera-t-elle gérée exactement, et comment les entreprises d'IA devraient-elles travailler avec le gouvernement ? « Cela fait longtemps que je pense qu'il serait préférable que la création d'une intelligence artificielle générale soit un projet gouvernemental », a déclaré Sam Altman.

    Il a néanmoins jugé cette hypothèse peu probable dans la trajectoire actuelle. « Je pense qu'un partenariat étroit entre les gouvernements et les entreprises qui développent cette technologie est extrêmement important », a déclaré Sam Altman. D'après lui, les gouvernements considèrent déjà la technologie comme un facteur stratégique majeur, comparable à d’autres programmes scientifiques historiques menés avec un important soutien public.

    Dans cette perspective, Sam Altman estime qu’une « coopération étroite entre l’État et les entreprises développant les systèmes d'IA » est nécessaire. L'hypothèse de Sam Altman a suscité des réflexions sur de nombreuses questions. Si OpenAI construisait une AGI, ses contrats gouvernementaux l'obligeraient-ils à accorder l'accès au Pentagone ? Dans quelle mesure le gouvernement peut-il exiger l’accès à ces systèmes d'IA ou les réquisitionner ?

    Le bras de fer entre Anthropic et Washington, élément déclencheur

    Tout commence par un refus retentissant : fin février, Anthropic a publiquement décliné un contrat proposé par le département de la Défense. En réaction, le Pentagone avait initialement brandi la menace du Defense Production Act, avant de désigner Anthropic et ses produits comme un risque pour la chaîne d'approvisionnement et exigera désormais des sous-traitants qu'ils n'utilisent pas les modèles d'Anthropic. Une démarche très controversée.

    Cette désignation officielle obligera les fournisseurs et les sous-traitants du secteur de la Défense à certifier qu'ils n'utilisent pas les modèles d'Anthropic dans le cadre de leur collaboration avec le Pentagone. Les outils d'Anthropic sont déjà utilisés par l'armée américaine, notamment pour l'identification de cibles, des simulations de combat et des évaluations de renseignement. Mais le Pentagone veut « un accès illimité », sans aucune restriction.

    Le rédacteur en chef de Fortune rappelle que « plusieurs autres avancées ayant des implications stratégiques importantes — du projet Manhattan à la course à l'espace en passant par les premiers efforts de développement de l'IA — ont été financées par le gouvernement et largement dirigées par celui-ci ».

    Cela signifie que l’hypothèse d’une nationalisation ne peut être totalement écartée. D'autres dirigeants pensent aussi la même chose. Le PDG de Palantir n'y est pas allé par quatre chemins : « si la Silicon Valley pense que nous allons supprimer tous les emplois de cols blancs... et que vous allez mettre des bâtons dans les roues de l'armée, si vous ne pensez pas que cela va conduire à la nationalisation de notre technologie, vous êtes attardé... ».

    La mobilisation des employés et des utilisateurs contre l'IA militaire

    Face aux controverses suscitées par l'accord avec le Pentagone, Sam Altman a reconnu avoir précipité les choses, modifié l'accord et interdit à l'armée américaine d'espionner les Américains via ChatGPT. (Pour le reste du monde, ça va). Lors de la session de questions-réponses sur X, Sam Altman a également déclaré qu'OpenAI maintenait le contrôle de ses technologies : « à l'heure actuelle, nous contrôlons les modèles que nous déployons ».

    L'accord avec le Pentagone a provoqué une réaction notable au sein même des grandes entreprises technologiques. Environ une centaine d'employés d'OpenAI et 856 employés de Google ont cosigné une lettre en ligne intitulée « We Will Not Be Divided », demandant à leurs dirigeants de refuser que leurs modèles soient utilisés pour de la surveillance de masse ou pour des systèmes d'armement autonomes opérant sans supervision humaine.

    Des milliers d'utilisateurs des outils d'IA ont réalisé qu'ils pouvaient faire connaître leurs sentiments en votant avec leur téléphone, en désinstallant le chatbot ChatGPT d'OpenAI et en installant celui d'Anthropic en signe de soutien, propulsant finalement Claude à la première place de l'App Store d'Apple.

    Mais le directeur général d'Adafruit, Phillip Torrone, voit des analogies avec le projet américain Manhattan de construction de la bombe atomique et « ce qui s'est passé lorsque les scientifiques qui ont construit cette bombe ont essayé de fixer des conditions quant à son usage ». Washington les a poussés à faire marche arrière, comme la décision du Pentagone de désigner Anthropic comme une « menace pour la chaîne d'approvisionnement ».

    Les garde-fous négociés par OpenAI avec le ministère de la Défense

    Face aux critiques, OpenAI a cherché à rassurer en précisant les conditions de son accord avec le Pentagone. Le contrat mis à jour stipule que le système d'OpenAI ne sera pas utilisé intentionnellement pour surveiller des citoyens ou ressortissants américains sur le territoire national, et qu'il ne sera pas non plus utilisé pour diriger de manière autonome des armes dans les cas où la loi ou les règlements du ministère exigent un contrôle humain.


    Sam Altman a affirmé qu'OpenAI refuserait de participer à de la surveillance de masse domestique même si le gouvernement la déclarait légale, en raison de son inconstitutionnalité. Il a ajouté que si un amendement constitutionnel venait à la légaliser, il envisagerait de quitter son poste. Sur la confidentialité des données, il a garanti que les données personnelles des utilisateurs de ChatGPT ne seraient en aucun cas accessibles au gouvernement.

    La responsable des partenariats sécurité nationale d'OpenAI, Katherine Mulligan, défend une vision plus concrète de la protection. Selon elle, l'architecture de déploiement comptait davantage que le libellé des contrats, et qu'en limitant le déploiement à une API cloud, OpenAI s'assurait que ses modèles ne pouvaient pas être intégrés directement dans des systèmes d'armement, des capteurs, ainsi que d'autres équipements opérationnels.

    Malgré ces assurances, les critiques persistent, y compris au sein d'OpenAI. Le développeur Boaz Barak a confié que, s'il n'avait eu que son avis, il aurait préféré attendre avant de déployer l'IA dans le secteur de la sécurité nationale, pour d'abord consolider les méthodes de sécurité. Il alerte sur les limites d'une approche purement contractuelle ou juridique : si la seule protection en place est une politique d'utilisation, alors la partie est déjà perdue.

    Conclusion

    Le débat autour du contrat d'OpenAI avec le Pentagone illustre une tension de fond : qui doit contrôler les technologies d'IA les plus puissantes ? La menace de l'invocation du Defense Production Act contre Anthropic a montré que l'État possède les outils juridiques pour s'imposer et qu'il n'hésitera pas à s'en servir. Sam Altman, Alex Karp et d'autres dirigeants commencent à prendre au sérieux la menace d'une nationalisation de l'IA.

    Au-delà du contrat spécifique avec le Pentagone, une question importante émerge : l’équilibre entre entreprises privées et gouvernements dans le développement d’IA extrêmement puissantes. Sam Altman reconnaît deux risques opposés. D’un côté, des entreprises privées pourraient acquérir trop de pouvoir.

    De l’autre, un État pourrait recourir à la contrainte pour s’approprier ces technologies et les utiliser pour la surveillance de masse. Sam Altman affirme que ces tensions rendent indispensable un cadre politique et réglementaire plus clair pour encadrer le déploiement de l’IA dans les domaines sensibles.

    Source : lettre ouverte

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'hypothèse d'une nationalisation des entreprises privées d'IA américaines ?
    Quels sont les risques d'une telle nationalisation ?
    Les entreprises privées peuvent-elles lutter contre les tentatives des gouvernements visant à contrôler l'IA ?

    Voir aussi

    Sam Altman modifie l'accord conclu entre OpenAI et les États-Unis suite à la polémique : il interdit à l'armée américaine d'espionner les Américains via ChatGPT, pour le reste du monde ça va

    Le Pentagone fixe à vendredi la date limite pour qu'Anthropic délaisse ses règles éthiques en matière d'IA sous peine de perdre son contrat fédéral et d'être qualifié de menace pour la chaîne d'approvisionnem

    Le Pentagone désigne officiellement Anthropic comme un risque pour la chaîne d'approvisionnement, alors que Claude est utilisé en Iran, et exigera des sous-traitants de ne pas utiliser les modèles d'Anthropic

  15. #35
    Invité de passage
    Homme Profil pro
    Dev Junior
    Inscrit en
    Mars 2026
    Messages
    2
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Alpes Maritimes (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Dev Junior
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mars 2026
    Messages : 2
    Par défaut Le gouvernement américain va-t-il nationaliser les entreprises privées d'IA ?
    Je ne pense pas que nous assisterons à une "nationalisation" au sens classique et strict du terme (prise de contrôle du capital par l'État). La culture économique américaine y est fondamentalement opposée, et le gouvernement sait très bien que l'innovation meurt souvent dans les rouages administratifs fédéraux. La fuite des cerveaux serait immédiate : les meilleurs chercheurs n'iront pas travailler pour un ministère figé.

    Cependant, nous nous dirigeons tout droit vers une nationalisation de facto, ou plutôt un modèle de "symbiose militaro-industrielle". Voici pourquoi :

    1. Le modèle "Defense Contractor" (Façon SpaceX ou Palantir)
    Plutôt que d'acheter l'entreprise, le gouvernement américain va en faire des sous-traitants indispensables. Les géants de l'IA (OpenAI, Anthropic, Google) sont en train de devenir les nouveaux Lockheed Martin ou Boeing. Avec des accords d'exclusivité, des financements massifs via le Pentagone et le déploiement sur des serveurs classifiés, l'État s'assure le contrôle de la technologie sans avoir à gérer les fiches de paie.

    2. Le contrôle par l'infrastructure (Compute)
    Le vrai nerf de la guerre, ce ne sont pas les algorithmes, ce sont les GPU (puces Nvidia, etc.) et les data centers géants. Le gouvernement américain utilise déjà des leviers puissants comme l'interdiction d'exportation de puces avancées vers la Chine. Si la situation l'exige, Washington peut invoquer le Defense Production Act pour obliger les entreprises à prioriser les calculs du gouvernement avant ceux du grand public, prenant ainsi le contrôle de la ressource vitale.

    3. La barrière des habilitations de sécurité (Clearance)
    À mesure que les modèles (comme les séries o1, GPT ou Claude) deviennent stratégiques, leurs poids (les weights) seront considérés comme des armes à double tranchant. Le gouvernement imposera des règles de sécurité si strictes que seuls les employés disposant d'une habilitation "Secret Défense" pourront travailler sur le cœur des modèles. L'entreprise restera privée sur le papier, mais son fonctionnement interne sera dicté par la NSA et le Pentagone.

    En conclusion : L'État américain n'a pas besoin de nationaliser OpenAI ou Anthropic. Il lui suffit d'être leur principal client, de contrôler leur accès au matériel via des lois de sécurité nationale, et d'imposer des normes de sûreté pour diriger leur feuille de route. La frontière entre "entreprise privée" et "agence d'État" va simplement devenir de plus en plus floue.

    Qu'en pensez-vous ? Pensez-vous que les projets open-source (comme Llama) pourront échapper à cette dynamique ?

Discussions similaires

  1. Réponses: 145
    Dernier message: 17/09/2025, 00h19
  2. Réponses: 0
    Dernier message: 23/12/2014, 20h36
  3. Comment réussir à rendre son application populaire sur les Store ?
    Par Hinault Romaric dans le forum Général Dotnet
    Réponses: 9
    Dernier message: 19/05/2014, 21h24
  4. Verizon publie son rapport annuel sur les vols de données
    Par MiaowZedong dans le forum Sécurité
    Réponses: 1
    Dernier message: 26/03/2012, 14h53
  5. Réponses: 1
    Dernier message: 20/09/2007, 12h52

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo