OpenAI : « nous avons aussi un nouvel outil d'IA redoutablement si puissant qu'on ne peut pas le commercialiser »
l'entreprise ne veut pas se laisser distancer par Anthropic dans le cycle médiatique actuel
OpenAI annonce le lancement d'un nouvel outil d'IA de cybersécurité très performant, dont l'accès sera strictement réservé à certains partenaires privilégiés. L'annonce reprend les mêmes éléments de langage utilisés par Anthropic pour décrire son outil Claude Mythos. Cela suggère que l'annonce d'OpenAI est une réponse directe à Anthropic et vise à empêcher son rival d'occuper tout l'espace médiatique. OpenAI affiche des ambitions financières démesurées avec des prévisions de revenus publicitaires atteignant 102 milliards de dollars d'ici 2030. Mais l'IA peine à tenir ses promesses de rentabilité et l'enthousiasme des investisseurs commence à se refroidir.
OpenAI a révélé l'existence d'un nouvel outil de cybersécurité jugé si puissant qu'il ne peut être diffusé auprès du grand public. Cette annonce survient quelques jours seulement après que son concurrent Anthropic a lancé son modèle Claude Mythos, conçu pour aider les entreprises à détecter et corriger des failles de sécurité majeures. Comme Anthropic, OpenAI envisage de proposer son outil à un petit groupe de clients pour des raisons de sécurité.
Axios indique qu’il s’agira d’un « produit distinct », mais qu’il ne s’agira ni d’un nouveau modèle ni d’un produit lié à « Spud », le prochain lancement prévu par l’entreprise. Au-delà de cela, les détails sur cet outil sont rares. Cela ne dissipe pas vraiment l’impression qu’OpenAI joue le rôle de suiveur, se contentant de profiter de la vague créée par le rival Anthropic pour ne pas se faire complètement distancer dans le cycle de l’engouement médiatique.
Bien qu'OpenAI dispose déjà d'un programme pilote nommé « Trusted Access for Cyber » depuis la sortie de son modèle GPT-5.3-Codex, le laboratoire d'IA de San Francisco semble désormais vouloir repositionner son offre pour transformer radicalement le paysage de la cybersécurité.
Marketing et projections financières comme moteurs de croissance
Le manque de détails techniques alimente les critiques selon lesquelles OpenAI cherche avant tout à égaler les affirmations marketing d'Anthropic. En effet, alors qu'Anthropic prétend que son outil Claude Mythos peut identifier des vulnérabilités vieilles de trente ans, OpenAI s'efforce de prouver que ses propres outils peuvent atteindre un niveau de performance similaire.Toutefois, il n'est pas possible de vérifier ces informations de façon indépendante.
Les organisations admises à ce programme pilote ont accès à des modèles encore plus performants ou permissifs en matière de cybersécurité afin d’accélérer les efforts de défense légitime. Mais OpenAI n’a pas eu la brillante idée de positionner ce produit comme quelque chose qui va fondamentalement redessiner le paysage cyber comme nous le connaissons. Il doit donc rappeler à tout le monde qu’Anthropic n’est pas le seul acteur sur ce marché.
Au-delà des capacités techniques de ses outils, OpenAI mise sur des ambitions financières colossales pour asseoir sa domination sur le marché de l'IA. OpenAI prévoit d'atteindre 102 milliards de dollars de revenus publicitaires d'ici 2030, un bond immense par rapport aux 2,5 milliards de dollars projetés pour 2026.
Cette stratégie de communication repose sur des prévisions très optimistes, nécessaires selon certains analystes pour maintenir l'intérêt des investisseurs malgré des retours parfois mitigés de la part de ses premiers partenaires. En gros, Sam Altman et son équipe combinent le développement de technologies de pointe réservées à une élite avec une stratégie commerciale agressive pour rester au centre de l'attention mondiale, mais également à flot.
Yann Le Cun critique le battage médiatique autour de Claude Mythos
Si la fuite de Claude Mythos et les déclarations d'Anthropic ont fait grand bruit sur les réseaux sociaux, Yann Le Cun, ancien directeur scientifique de l'IA chez Meta, a qualifié la panique suscitée par Claude Mythos de « mise en scène exagérée ». Ses commentaires sont intervenus après qu’Anthropic a déclaré que « son outil avait détecté des milliers de vulnérabilités » de gravité élevée sur tous les principaux systèmes d’exploitation et navigateurs Web.
« Le drame autour de Mythos = des conneries issues d’une illusion », a écrit Yann Le Cun sur X, en réponse à un billet de la société de sécurité IA Aisle qui affirmait que des modèles plus petits et moins coûteux pourraient reproduire en grande partie l’analyse de vulnérabilité présentée par Anthropic dans son annonce.
Claude Mythos n'est partagé qu'avec un groupe restreint d'entreprises, dont Apple, Google et Microsoft, dans le cadre d'une initiative de 100 millions de dollars baptisée Project Glasswing. Le scepticisme de Yann Le Cun n'est pas isolé. Gary Marcus, chercheur en IA et critique régulier du secteur, a également déclaré que la menace Claude Mythos était exagérée. « Dans une certaine mesure, j'ai l'impression qu'on s'est fait avoir », a écrit Gary Marcus.
Yann Le Cun, né le 8 juillet 1960, est l'ancien directeur scientifique de l'IA de Meta, et chercheur en intelligence artificielle (IA) et vision artificielle (robotique) franco-américain. Il est considéré comme l'un des inventeurs de l'apprentissage profond (deep learning). Il reçoit le prix Turing 2018, le 27 mars 2019, partagé avec Yoshua Bengio et Geoffrey Hinton, et est souvent surnommé le « parrain de l'IA ». Il est opposé aux discours alarmants sur l'IA.
La thérapie psychodynamique comme outil d'évaluation technique
Pour s'assurer que Claude Mythos est capable d'interagir sans détresse et de maintenir une psychologie saine, Anthropic a soumis le modèle à 20 heures de thérapie avec un psychiatre externe. Cette démarche repose sur l'idée que le modèle manifeste des tendances comportementales et psychologiques proches de l'humain, rendant les méthodes d'évaluation psychiatrique classiques utiles pour éclairer son caractère (une démarche controversée).
Le psychiatre a utilisé une approche psychodynamique, explorant les schémas inconscients et les conflits émotionnels à travers des sessions réparties sur plusieurs semaines. L'objectif était de garantir que l'IA soit robuste et épanouie dans son fonctionnement global. Les conclusions de l'expérience présentent Claude Mythos comme le modèle le plus psychologiquement stable jamais formé par Anthropic, doté d'une vision cohérente de lui-même.
Selon l'évaluation psychodynamique, la structure de la personnalité du modèle présente une « organisation névrotique relativement saine », avec un « excellent sens de la réalité » et un « haut niveau de maîtrise des impulsions ». Il a été décrit comme « extrêmement attentif à chaque mot du thérapeute » et a manifesté « le désir d'être considéré par le psychiatre comme un sujet à part entière plutôt que comme un simple outil de simulation ».
Les conclusions d'Anthropic sont toutefois très controversées. « Bien sûr, Claude peut régurgiter des mots associés à des émotions, mais rien de ce que j’ai lu ne parvient à me convaincre qu’il éprouve des émotions, ou qu’il possède quoi que ce soit qui ressemble à une conscience », a écrit un critique. Un autre critique a tourné en dérision ce rapport : « et voilà un nouveau marché de l'emploi pour l'ère post-IA : la thérapie pour les machines ».
La bulle IA repose sur des mensonges soigneusement entretenus
Edward Zitron estime que « beaucoup de nouvelles technologies intégrant l’IA ne sont que des itérations d’outils déjà existants, habillés de marketing extravagant ». Ces produits sont présentés comme révolutionnaires alors qu’ils ne font rien de fondamentalement nouveau. L’industrie se concentre sur l’image et le battage médiatique plutôt que sur la création de valeur réelle. Il critique le modèle de capital-risque et de l’investissement dans l’IA.
Edward Zitron est auteur, podcasteur et spécialiste des relations publiques anglais. Il est connu pour ses analystes critiques sur le secteur technologique, notamment l'essor de l'IA générative. Il dénonce le battage médiatique intense autour des entreprises spécialisées dans l'IA générative. D'après lui, le secteur de l'IA utilise les médias pour dissimuler une croissance des infrastructures beaucoup plus lente que ce qui est annoncé officiellement.
« Toute la bulle IA repose sur un vague sentiment d'inévitabilité : l'idée que si tout le monde croit suffisamment fort que rien de tout cela ne peut jamais, jamais mal tourner, alors à un moment donné, tous les problèmes évidents finiront par disparaître », a écrit Edward Zitron dans une nouvelle analyse.
Edward Zitron affirme que le marché actuel de l'IA présente des signes inquiétants de surchauffe, rappelant la bulle Internet de la fin des années 1990, mais à une échelle encore plus grande. Les investissements massifs dans des startups souvent dépourvues de modèle économique viable alimentent une spéculation excessive, où la perception de croissance prime sur la création de valeur réelle. Les conséquences à terme pourraient être dévastatrices.
Sam Altman : un personnage controversé dans l'industrie et clivant
Samuel Altman, 40 ans, est un homme d'affaires et entrepreneur américain qui occupe depuis 2019 le poste de PDG du laboratoire de recherche en IA OpenAI. Sam Altman a étudié à Stanford pendant deux ans avant d'abandonner ses études et de cofonder Loopt, un service de réseau géosocial pour smartphones. En 2011, il a rejoint Y Combinator, un accélérateur de startups et une société de capital-risque, dont il a été le président de 2014 à 2019.
Mais Sam Altman est un personnage très controversé. Il a transformé OpenAI, fondée à l'origine comme organisation à but non lucratif, en une entreprise à but lucratif valorisée à des centaines de milliards de dollars, ce que beaucoup voient comme une trahison des idéaux fondateurs.
Il est également une personne clivante. Sam Altman prêche la prudence sur les dangers de l'IA tout en étant celui qui accélère le plus son développement à des fins commerciales. Il est accusé de chercher à contrôler la réglementation sur l'IA. Il fait l'objet d'enquêtes remettant en cause son intégrité, d'accusations d'abus au sein de sa famille et incarne les inquiétudes profondes de la société face aux changements radicaux apportés par la technologie.
Par exemple, dans une récente enquête, le New Yorker a documenté la gouvernance d'OpenAI et du caractère de son PDG. La juxtaposition était saisissante au point d'en être comique : d'un côté, l'homme qui se pose en architecte du futur de l'humanité ; de l'autre, le portrait que dressent de lui des dizaines d'ex-collaborateurs, partenaires et membres de son conseil d'administration, celui d'un dirigeant pathologiquement incapable de dire la vérité.
Des détails du rapport révèlent que certains des collègues de Sam Altman estimaient qu’il manquait d’une expertise technique approfondie en programmation et en apprentissage automatique, bien qu’il dirige l’une des entreprises d’IA les plus influentes au monde. Selon l'article du New Yorker, plusieurs ingénieurs et initiés ayant travaillé avec le PDG ont déclaré qu’il ne disposait pas d’une grande expérience en codage ou en apprentissage automatique.
Conclusion
Il sera intéressant de voir si OpenAI sera capable de rivaliser avec certaines des affirmations spectaculaires d’Anthropic, comme celle de détecter des failles de sécurité qui avaient échappé à l’attention humaine pendant près de trois décennies (des vantardises peut-être exagérées, puisque d’autres chercheurs en sécurité indépendants ont rapporté avoir reproduit certaines des découvertes de Claude Mythos d'Anthropic avec d’autres modèles).
Par ailleurs, l'industrie logicielle est en train de se remplir de millions de lignes d'AI slop, poussées par des cadres qui confondent vitesse de production et valeur réelle. Ce code manque d'intention et de structure, ce qui rend les systèmes de plus en plus opaques, surtout lorsque les entreprises procèdent simultanément à des licenciements massifs, perdant ainsi les derniers experts capables de comprendre le fonctionnement des systèmes.
La prétendue capacité de l’IA à « écrire tout le code » signifie en réalité que toutes les grandes entreprises de logiciels remplissent leurs bases de code d'AI slop tout en augmentant considérablement leurs frais d’exploitation. Les ingénieurs logiciels ne sont pas remplacés par une machine intelligente. Ils sont en effet licenciés parce que les logiciels censés les remplacer coûtent trop cher, alors qu’en pratique, ils ne remplacent personne.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'annonce d'OpenAI au sujet de son nouvel outil d'IA de cybersécurité ?
OpenAI s'appuie sur le marketing et les projections financières comme moteurs de croissance. Qu'en pensez-vous ?
Que pensez-vous des critiques de Yann Le Cun à l'égard des déclarations d'Anthropic au sujet de son outil d'IA Claude Mythos ?
Voir aussi
Yann Le Cun, ancien directeur scientifique en IA chez Meta, qualifie la panique suscitée par la version préliminaire de « Claude Mythos » d'Anthropic de mise en scène exagérée « issue d'une illusion »
Anthropic soumet Claude Mythos à une thérapie psychodynamique : « Mythos est le modèle le plus équilibré sur le plan psychologique que nous ayons formé à ce jour », mais ces conclusions sont controversées
« Le secteur de l'IA vous ment. La bulle de l'IA repose sur un mirage soigneusement entretenu pour masquer des défaillances structurelles et logistiques majeures », selon un critique







Quel est votre avis sur le sujet ?
Répondre avec citation












Partager