IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

OpenAI s'attaque à son rival Anthropic dans des notes adressées aux actionnaires et au personnel


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 809
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 809
    Par défaut OpenAI s'attaque à son rival Anthropic dans des notes adressées aux actionnaires et au personnel
    OpenAI : « nous avons aussi un nouvel outil d'IA redoutablement si puissant qu'on ne peut pas le commercialiser »
    l'entreprise ne veut pas se laisser distancer par Anthropic dans le cycle médiatique actuel

    OpenAI annonce le lancement d'un nouvel outil d'IA de cybersécurité très performant, dont l'accès sera strictement réservé à certains partenaires privilégiés. L'annonce reprend les mêmes éléments de langage utilisés par Anthropic pour décrire son outil Claude Mythos. Cela suggère que l'annonce d'OpenAI est une réponse directe à Anthropic et vise à empêcher son rival d'occuper tout l'espace médiatique. OpenAI affiche des ambitions financières démesurées avec des prévisions de revenus publicitaires atteignant 102 milliards de dollars d'ici 2030. Mais l'IA peine à tenir ses promesses de rentabilité et l'enthousiasme des investisseurs commence à se refroidir.

    OpenAI a révélé l'existence d'un nouvel outil de cybersécurité jugé si puissant qu'il ne peut être diffusé auprès du grand public. Cette annonce survient quelques jours seulement après que son concurrent Anthropic a lancé son modèle Claude Mythos, conçu pour aider les entreprises à détecter et corriger des failles de sécurité majeures. Comme Anthropic, OpenAI envisage de proposer son outil à un petit groupe de clients pour des raisons de sécurité.

    Axios indique qu’il s’agira d’un « produit distinct », mais qu’il ne s’agira ni d’un nouveau modèle ni d’un produit lié à « Spud », le prochain lancement prévu par l’entreprise. Au-delà de cela, les détails sur cet outil sont rares. Cela ne dissipe pas vraiment l’impression qu’OpenAI joue le rôle de suiveur, se contentant de profiter de la vague créée par le rival Anthropic pour ne pas se faire complètement distancer dans le cycle de l’engouement médiatique.

    Bien qu'OpenAI dispose déjà d'un programme pilote nommé « Trusted Access for Cyber » depuis la sortie de son modèle GPT-5.3-Codex, le laboratoire d'IA de San Francisco semble désormais vouloir repositionner son offre pour transformer radicalement le paysage de la cybersécurité.

    Marketing et projections financières comme moteurs de croissance

    Le manque de détails techniques alimente les critiques selon lesquelles OpenAI cherche avant tout à égaler les affirmations marketing d'Anthropic. En effet, alors qu'Anthropic prétend que son outil Claude Mythos peut identifier des vulnérabilités vieilles de trente ans, OpenAI s'efforce de prouver que ses propres outils peuvent atteindre un niveau de performance similaire.Toutefois, il n'est pas possible de vérifier ces informations de façon indépendante.


    Les organisations admises à ce programme pilote ont accès à des modèles encore plus performants ou permissifs en matière de cybersécurité afin d’accélérer les efforts de défense légitime. Mais OpenAI n’a pas eu la brillante idée de positionner ce produit comme quelque chose qui va fondamentalement redessiner le paysage cyber comme nous le connaissons. Il doit donc rappeler à tout le monde qu’Anthropic n’est pas le seul acteur sur ce marché.

    Au-delà des capacités techniques de ses outils, OpenAI mise sur des ambitions financières colossales pour asseoir sa domination sur le marché de l'IA. OpenAI prévoit d'atteindre 102 milliards de dollars de revenus publicitaires d'ici 2030, un bond immense par rapport aux 2,5 milliards de dollars projetés pour 2026.

    Cette stratégie de communication repose sur des prévisions très optimistes, nécessaires selon certains analystes pour maintenir l'intérêt des investisseurs malgré des retours parfois mitigés de la part de ses premiers partenaires. En gros, Sam Altman et son équipe combinent le développement de technologies de pointe réservées à une élite avec une stratégie commerciale agressive pour rester au centre de l'attention mondiale, mais également à flot.

    Yann Le Cun critique le battage médiatique autour de Claude Mythos

    Si la fuite de Claude Mythos et les déclarations d'Anthropic ont fait grand bruit sur les réseaux sociaux, Yann Le Cun, ancien directeur scientifique de l'IA chez Meta, a qualifié la panique suscitée par Claude Mythos de « mise en scène exagérée ». Ses commentaires sont intervenus après qu’Anthropic a déclaré que « son outil avait détecté des milliers de vulnérabilités » de gravité élevée sur tous les principaux systèmes d’exploitation et navigateurs Web.

    « Le drame autour de Mythos = des conneries issues d’une illusion », a écrit Yann Le Cun sur X, en réponse à un billet de la société de sécurité IA Aisle qui affirmait que des modèles plus petits et moins coûteux pourraient reproduire en grande partie l’analyse de vulnérabilité présentée par Anthropic dans son annonce.

    Claude Mythos n'est partagé qu'avec un groupe restreint d'entreprises, dont Apple, Google et Microsoft, dans le cadre d'une initiative de 100 millions de dollars baptisée Project Glasswing. Le scepticisme de Yann Le Cun n'est pas isolé. Gary Marcus, chercheur en IA et critique régulier du secteur, a également déclaré que la menace Claude Mythos était exagérée. « Dans une certaine mesure, j'ai l'impression qu'on s'est fait avoir », a écrit Gary Marcus.

    Yann Le Cun, né le 8 juillet 1960, est l'ancien directeur scientifique de l'IA de Meta, et chercheur en intelligence artificielle (IA) et vision artificielle (robotique) franco-américain. Il est considéré comme l'un des inventeurs de l'apprentissage profond (deep learning). Il reçoit le prix Turing 2018, le 27 mars 2019, partagé avec Yoshua Bengio et Geoffrey Hinton, et est souvent surnommé le « parrain de l'IA ». Il est opposé aux discours alarmants sur l'IA.

    La thérapie psychodynamique comme outil d'évaluation technique

    Pour s'assurer que Claude Mythos est capable d'interagir sans détresse et de maintenir une psychologie saine, Anthropic a soumis le modèle à 20 heures de thérapie avec un psychiatre externe. Cette démarche repose sur l'idée que le modèle manifeste des tendances comportementales et psychologiques proches de l'humain, rendant les méthodes d'évaluation psychiatrique classiques utiles pour éclairer son caractère (une démarche controversée).

    Le psychiatre a utilisé une approche psychodynamique, explorant les schémas inconscients et les conflits émotionnels à travers des sessions réparties sur plusieurs semaines. L'objectif était de garantir que l'IA soit robuste et épanouie dans son fonctionnement global. Les conclusions de l'expérience présentent Claude Mythos comme le modèle le plus psychologiquement stable jamais formé par Anthropic, doté d'une vision cohérente de lui-même.

    Selon l'évaluation psychodynamique, la structure de la personnalité du modèle présente une « organisation névrotique relativement saine », avec un « excellent sens de la réalité » et un « haut niveau de maîtrise des impulsions ». Il a été décrit comme « extrêmement attentif à chaque mot du thérapeute » et a manifesté « le désir d'être considéré par le psychiatre comme un sujet à part entière plutôt que comme un simple outil de simulation ».

    Les conclusions d'Anthropic sont toutefois très controversées. « Bien sûr, Claude peut régurgiter des mots associés à des émotions, mais rien de ce que j’ai lu ne parvient à me convaincre qu’il éprouve des émotions, ou qu’il possède quoi que ce soit qui ressemble à une conscience », a écrit un critique. Un autre critique a tourné en dérision ce rapport : « et voilà un nouveau marché de l'emploi pour l'ère post-IA : la thérapie pour les machines ».

    La bulle IA repose sur des mensonges soigneusement entretenus

    Edward Zitron estime que « beaucoup de nouvelles technologies intégrant l’IA ne sont que des itérations d’outils déjà existants, habillés de marketing extravagant ». Ces produits sont présentés comme révolutionnaires alors qu’ils ne font rien de fondamentalement nouveau. L’industrie se concentre sur l’image et le battage médiatique plutôt que sur la création de valeur réelle. Il critique le modèle de capital-risque et de l’investissement dans l’IA.

    Edward Zitron est auteur, podcasteur et spécialiste des relations publiques anglais. Il est connu pour ses analystes critiques sur le secteur technologique, notamment l'essor de l'IA générative. Il dénonce le battage médiatique intense autour des entreprises spécialisées dans l'IA générative. D'après lui, le secteur de l'IA utilise les médias pour dissimuler une croissance des infrastructures beaucoup plus lente que ce qui est annoncé officiellement.

    « Toute la bulle IA repose sur un vague sentiment d'inévitabilité : l'idée que si tout le monde croit suffisamment fort que rien de tout cela ne peut jamais, jamais mal tourner, alors à un moment donné, tous les problèmes évidents finiront par disparaître », a écrit Edward Zitron dans une nouvelle analyse.

    Edward Zitron affirme que le marché actuel de l'IA présente des signes inquiétants de surchauffe, rappelant la bulle Internet de la fin des années 1990, mais à une échelle encore plus grande. Les investissements massifs dans des startups souvent dépourvues de modèle économique viable alimentent une spéculation excessive, où la perception de croissance prime sur la création de valeur réelle. Les conséquences à terme pourraient être dévastatrices.

    Sam Altman : un personnage controversé dans l'industrie et clivant

    Samuel Altman, 40 ans, est un homme d'affaires et entrepreneur américain qui occupe depuis 2019 le poste de PDG du laboratoire de recherche en IA OpenAI. Sam Altman a étudié à Stanford pendant deux ans avant d'abandonner ses études et de cofonder Loopt, un service de réseau géosocial pour smartphones. En 2011, il a rejoint Y Combinator, un accélérateur de startups et une société de capital-risque, dont il a été le président de 2014 à 2019.

    Mais Sam Altman est un personnage très controversé. Il a transformé OpenAI, fondée à l'origine comme organisation à but non lucratif, en une entreprise à but lucratif valorisée à des centaines de milliards de dollars, ce que beaucoup voient comme une trahison des idéaux fondateurs.

    Il est également une personne clivante. Sam Altman prêche la prudence sur les dangers de l'IA tout en étant celui qui accélère le plus son développement à des fins commerciales. Il est accusé de chercher à contrôler la réglementation sur l'IA. Il fait l'objet d'enquêtes remettant en cause son intégrité, d'accusations d'abus au sein de sa famille et incarne les inquiétudes profondes de la société face aux changements radicaux apportés par la technologie.

    Par exemple, dans une récente enquête, le New Yorker a documenté la gouvernance d'OpenAI et du caractère de son PDG. La juxtaposition était saisissante au point d'en être comique : d'un côté, l'homme qui se pose en architecte du futur de l'humanité ; de l'autre, le portrait que dressent de lui des dizaines d'ex-collaborateurs, partenaires et membres de son conseil d'administration, celui d'un dirigeant pathologiquement incapable de dire la vérité.

    Des détails du rapport révèlent que certains des collègues de Sam Altman estimaient qu’il manquait d’une expertise technique approfondie en programmation et en apprentissage automatique, bien qu’il dirige l’une des entreprises d’IA les plus influentes au monde. Selon l'article du New Yorker, plusieurs ingénieurs et initiés ayant travaillé avec le PDG ont déclaré qu’il ne disposait pas d’une grande expérience en codage ou en apprentissage automatique.

    Conclusion

    Il sera intéressant de voir si OpenAI sera capable de rivaliser avec certaines des affirmations spectaculaires d’Anthropic, comme celle de détecter des failles de sécurité qui avaient échappé à l’attention humaine pendant près de trois décennies (des vantardises peut-être exagérées, puisque d’autres chercheurs en sécurité indépendants ont rapporté avoir reproduit certaines des découvertes de Claude Mythos d'Anthropic avec d’autres modèles).

    Par ailleurs, l'industrie logicielle est en train de se remplir de millions de lignes d'AI slop, poussées par des cadres qui confondent vitesse de production et valeur réelle. Ce code manque d'intention et de structure, ce qui rend les systèmes de plus en plus opaques, surtout lorsque les entreprises procèdent simultanément à des licenciements massifs, perdant ainsi les derniers experts capables de comprendre le fonctionnement des systèmes.

    La prétendue capacité de l’IA à « écrire tout le code » signifie en réalité que toutes les grandes entreprises de logiciels remplissent leurs bases de code d'AI slop tout en augmentant considérablement leurs frais d’exploitation. Les ingénieurs logiciels ne sont pas remplacés par une machine intelligente. Ils sont en effet licenciés parce que les logiciels censés les remplacer coûtent trop cher, alors qu’en pratique, ils ne remplacent personne.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'annonce d'OpenAI au sujet de son nouvel outil d'IA de cybersécurité ?
    OpenAI s'appuie sur le marketing et les projections financières comme moteurs de croissance. Qu'en pensez-vous ?
    Que pensez-vous des critiques de Yann Le Cun à l'égard des déclarations d'Anthropic au sujet de son outil d'IA Claude Mythos ?

    Voir aussi

    Yann Le Cun, ancien directeur scientifique en IA chez Meta, qualifie la panique suscitée par la version préliminaire de « Claude Mythos » d'Anthropic de mise en scène exagérée « issue d'une illusion »

    Anthropic soumet Claude Mythos à une thérapie psychodynamique : « Mythos est le modèle le plus équilibré sur le plan psychologique que nous ayons formé à ce jour », mais ces conclusions sont controversées

    « Le secteur de l'IA vous ment. La bulle de l'IA repose sur un mirage soigneusement entretenu pour masquer des défaillances structurelles et logistiques majeures », selon un critique

  2. #2
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 995
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 995
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    [B][SIZE=4]|...]OpenAI a révélé l'existence d'un nouvel outil de cybersécurité jugé si puissant qu'il ne peut être diffusé auprès du grand public.|...]
    S'ils ont des bons produits, alors pourquoi est-ce qu'ils ne proposent que les trucs pourris?

    Une vraie compétition de menteurs!


  3. #3
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    3 144
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 3 144
    Par défaut
    Attendez quelques jours, et ce sera autour de Copilot, de Grok, etc. d'être tellement performant qu'ils ne peuvent les commercialiser.

    Bon, allez je ne vous fais pas languir plus longtemps.
    Je vous annonce qu'avec mon équipe nous avons créé une IA bien plus efficace et consommant beaucoup moins de ressources que toutes les IA sur le marché.
    Mais nous n'allons pas la commercialiser.
    Vous comprenez, elle est beaucoup trop efficace.
    Elle pourrait être utilisée pour détecter des failles dans les autres IA et même dans Windows .
    Et de toutes façons, gagner de l'argent ne nous intéresse pas.

  4. #4
    Membre éprouvé

    Homme Profil pro
    Freelance
    Inscrit en
    Avril 2005
    Messages
    44
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aude (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Freelance
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Avril 2005
    Messages : 44
    Par défaut
    C'est incroyable comme cela va vite, open AI a développé en secret une AGI mais ils ont peur de la mettre à disposition, qui l'eu cru ?

    De mon côté, je viens d'inventer une IA révolutionnaire, elle est même capable de prédire le dosage du café en fonction de l'heure, mais chuuttt, je peux pas la mettre à disposition, sinon la consommation de café pourrait exploser

  5. #5
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 730
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 730
    Par défaut
    Le magazine américain The New Yorker vient de publier une enquête poussée sur le sieur Altman, CEO de OpenAI à l'origine de ChatGPT: il y est décrit comme:

    Manipulateur, menteur et terriblement imbu de lui-même
    L'enquête cite un membre de conseil d'administration qui dit de Altman:

    qu'il a un fort désir de plaire dans toutes les interactions avec un manque sociopathe des conséquences qui peuvent découler du fait de tromper quelqu'un
    L'enquête cite également un haut responsable de microsoft qui en dit:

    Je pense qu'il y a une chance réelle qu'on se souvienne de lui un jour comme d'un escroc de l'envergure de Bernie Madoff ou de Sam Bankman-Fried
    Le voilà habillé pour l'hiver


    PS: Les termes "manipulateur, menteur et terriblement imbu de lui-même" me semble parfaitement adapté à d'autres acteurs de l'IA à la sauce américaine!

  6. #6
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 809
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 809
    Par défaut OpenAI s'attaque à son rival Anthropic dans des notes adressées aux actionnaires et au personnel
    OpenAI s'en prend ouvertement à son principal concurrent Anthropic : « leur histoire est construite sur la peur, la restriction et l'idée qu'un petit groupe d'élites devrait contrôler l'IA »

    OpenAI a vivement critiqué Anthropic dans une note adressée à ses actionnaires. Alors que les deux entreprises se préparent à une introduction en bourse, OpenAI souligne sa supériorité technologique en projetant d'atteindre 30 gigawatts de puissance de calcul d'ici 2030. La note indique qu'Anthropic dispose de capacités de calculs nettement inférieures. Pourtant, le laboratoire semble traverser une crise d'innovation avec une vitesse de consommation de sa trésorerie qui inquiète les investisseurs. De son côté, Anthropic continue de gagner du terrain sur le marché des entreprises grâce à Project Glasswing, une initiative axée sur la cybersécurité.

    OpenAI prend sa rivalité avec Anthropic très au sérieux. L'engouement provoqué par ChatGPT depuis son lancement fin 2022 s'essouffle, et OpenAI est en quête d'une nouvelle percée majeure. Mais le laboratoire de San Francisco doit faire face à une concurrence de plus en plus accrue, notamment de la part d'Anthropic. S'adressant à ses actionnaires, OpenAI a cependant estimé que son rival affiche une courbe de croissance nettement inférieure.

    OpenAI a récemment transmis un mémo à ses actionnaires pour critiquer ouvertement Anthropic. Cette communication survient alors qu'Anthropic gagne du terrain sur le marché des produits d'IA, poussant OpenAI à souligner ce qu'elle perçoit comme des limitations structurelles chez son concurrent.

    Cette rivalité illustre une course à la suprématie technologique où l'accès à l'infrastructure devient l'argument principal pour attirer les investisseurs. OpenAI soutient que son avance en matière d'infrastructure permet de réduire les coûts tout en améliorant l'intelligence de ses grands modèles de langage. En réponse, Anthropic met en avant ses nouveaux partenariats stratégiques pour démontrer sa capacité de croissance malgré les critiques d'OpenAI.

    La bataille pour la puissance de calcul et l'infrastructure

    La note envoyée aux actionnaires met particulièrement l'accent sur la disparité des capacités de calcul entre les deux entités. OpenAI projette d'atteindre une puissance de 30 gigawatts d'ici à 2030, tandis qu'il estime qu'Anthropic ne disposera que de 7 à 8 gigawatts à la fin de l'année 2027. OpenAI qualifie Anthropic d'entreprise limitée par ses capacités de calcul et souligne que son propre rythme de développement est matériellement plus rapide.


    Selon OpenAI, chaque nouvelle génération d'infrastructure permet d'entraîner de grands modèles de langage beaucoup plus performants, augmentant l'intelligence de chaque jeton produit tout en réduisant les coûts unitaires grâce aux progrès algorithmiques et matériels. « Même dans le haut de cette fourchette, notre progression est nettement en avance et s'accentue », a fait valoir OpenAI. Mais la sortie d'OpenAI sur son concurrent est critiquée.

    Avec une valeur cumulée de plus de 1 000 milliards de dollars, les deux entreprises se préparent à entrer en bourse bientôt tout, en s'efforçant de convaincre les investisseurs qu'elles disposent de modèles économiques viables, capables de résister à la pression exercée par des entreprises disposant d'importantes réserves de trésorerie, telles que Microsoft. OpenAI a critiqué l'approche prudente d'Anthropic, affirmant que son propre plant est différent.

    « Chaque nouvelle génération d’infrastructure nous permet de former des modèles plus performants, rendant chaque token plus intelligent que le précédent », a écrit OpenAI. « Parallèlement, les gains algorithmiques et les améliorations matérielles réduisent le coût de traitement de chaque token, ce qui diminue le coût par unité d’intelligence ». OpenAI dit bénéficier d’un « avantage cumulatif » grâce à une infrastructure et des modèles améliorés.

    OpenAI remobilise les troupes autour de ses ambitions

    Parallèlement à la lettre adressée par OpenAI aux investisseurs, Denise Dresser, directrice des recettes de l'entreprise, a envoyé au personnel un mémo interne de quatre pages sur l'orientation stratégique de l'entreprise, soulignant la nécessité de fidéliser les utilisateurs et de développer son activité auprès des entreprises. Le mémo de Denise Dresser souligne également à plusieurs reprises l’importance de créer un fossé autour de ses produits d’IA.

    D'après Denise Dresser, cela permettre de lutter contre la facilité avec laquelle les utilisateurs peuvent passer d’un modèle à l’autre, selon celui qui arrive en tête des classements un jour ou une semaine donnés. La note de service insiste également sur l’importance de se concentrer sur les clients professionnels.

    Cette nouvelle stratégie vise à éviter de se concentrer sur des « activités secondaires » et à miser pleinement sur ses principaux moteurs de revenus. « L'adoption de plusieurs produits nous rend plus difficiles à remplacer. Nous devons cesser de penser comme une entreprise aux gammes de produits distinctes. Nous devons penser comme une entreprise de plateforme disposant de multiples points d'entrée et d'une offre d'entreprise intégrée ».

    Cette note va encore plus loin dans l'offensive contre Anthropic : il affirme qu'Anthropic gonfle artificiellement son chiffre d'affaires annualisé de 30 milliards de dollars d'environ 8 milliards, en raison d'un traitement comptable qui grossit les revenus partagés avec Amazon et Google. Elle attaque le positionnement d'Anthropic, affirmant que « leur histoire est construite sur la peur, la restriction, et l'idée qu'un petit groupe d'élites devrait contrôler l'IA ».

    Pourtant, OpenAI, qui a été fondée en tant qu'organisation à but non lucratif, a procédé à une restructuration pour fonctionner comme entreprise à but lucratif et attirer davantage de capitaux. OpenAI a cessé de publier ses modèles d'IA en open source, évoquant des secrets commerciaux. De récents rapports décrivent également une entreprise en proie à des troubles internes, avec un PDG décrit comme manipulateur et terriblement imbu de lui-même.

    Sam Altman : un personnage très controversé et clivant

    Samuel Altman, 40 ans, est un homme d'affaires et entrepreneur américain qui occupe depuis 2019 le poste de PDG du laboratoire de recherche en IA OpenAI. Sam Altman a étudié à Stanford pendant deux ans avant d'abandonner ses études et de cofonder Loopt, un service de réseau géosocial pour smartphones. En 2011, il a rejoint Y Combinator, un accélérateur de startups et une société de capital-risque, dont il a été le président de 2014 à 2019.

    Mais Sam Altman est un personnage très controversé. Il a transformé OpenAI, fondée à l'origine comme organisation à but non lucratif, en une entreprise à but lucratif valorisée à des centaines de milliards de dollars, ce que beaucoup voient comme une trahison des idéaux fondateurs.

    Il est également une personne clivante. Sam Altman prêche la prudence sur les dangers de l'IA tout en étant celui qui accélère le plus son développement à des fins commerciales. Il est accusé de chercher à contrôler la réglementation sur l'IA. Il fait l'objet d'enquêtes remettant en cause son intégrité, d'accusations d'abus au sein de sa famille et incarne les inquiétudes profondes de la société face aux changements radicaux apportés par la technologie.

    Par exemple, dans une récente enquête, le New Yorker a documenté la gouvernance d'OpenAI et du caractère de son PDG. La juxtaposition était saisissante au point d'en être comique : d'un côté, l'homme qui se pose en architecte du futur de l'humanité ; de l'autre, le portrait que dressent de lui des dizaines d'ex-collaborateurs, partenaires et membres de son conseil d'administration, celui d'un dirigeant pathologiquement incapable de dire la vérité.

    Des détails du rapport révèlent que certains des collègues de Sam Altman estimaient qu’il manquait d’une expertise technique approfondie en programmation et en apprentissage automatique, bien qu’il dirige l’une des entreprises d’IA les plus influentes au monde. Selon l'article du New Yorker, plusieurs ingénieurs et initiés ayant travaillé avec le PDG ont déclaré qu’il ne disposait pas d’une grande expérience en codage ou en apprentissage automatique.

    La bulle de l'IA repose sur un mirage et des mensonges

    Edward Zitron estime que « beaucoup de nouvelles technologies intégrant l’IA ne sont que des itérations d’outils déjà existants, habillés de marketing extravagant ». Ces produits sont présentés comme révolutionnaires alors qu’ils ne font rien de fondamentalement nouveau. L’industrie se concentre sur l’image et le battage médiatique plutôt que sur la création de valeur réelle. Il critique le modèle de capital-risque et de l’investissement dans l’IA.

    Edward Zitron est auteur, podcasteur et spécialiste des relations publiques anglais. Il est connu pour ses analystes critiques sur le secteur technologique, notamment l'essor de l'IA générative. Il dénonce le battage médiatique intense autour des entreprises spécialisées dans l'IA générative. D'après lui, le secteur de l'IA utilise les médias pour dissimuler une croissance des infrastructures beaucoup plus lente que ce qui est annoncé officiellement.

    « Toute la bulle IA repose sur un vague sentiment d'inévitabilité : l'idée que si tout le monde croit suffisamment fort que rien de tout cela ne peut jamais, jamais mal tourner, alors à un moment donné, tous les problèmes évidents finiront par disparaître », a écrit Edward Zitron dans une nouvelle analyse.

    Edward Zitron affirme que le marché actuel de l'IA présente des signes inquiétants de surchauffe, rappelant la bulle Internet de la fin des années 1990, mais à une échelle encore plus grande. Les investissements massifs dans des startups souvent dépourvues de modèle économique viable alimentent une spéculation excessive, où la perception de croissance prime sur la création de valeur réelle. Les conséquences à terme pourraient être dévastatrices.

    Yann Le Cun critique discours autour de Claude Mythos

    Si la fuite de Claude Mythos et les déclarations d'Anthropic ont fait grand bruit sur les réseaux sociaux, Yann Le Cun, ancien directeur scientifique de l'IA chez Meta, a qualifié la panique suscitée par Claude Mythos de « mise en scène exagérée ». Ses commentaires sont intervenus après qu’Anthropic a déclaré que « son outil avait détecté des milliers de vulnérabilités » de gravité élevée sur tous les principaux systèmes d’exploitation et navigateurs Web.

    « Le drame autour de Mythos = des conneries issues d’une illusion », a écrit Yann Le Cun sur X, en réponse à un billet de la société de sécurité IA Aisle qui affirmait que des modèles plus petits et moins coûteux pourraient reproduire en grande partie l’analyse de vulnérabilité présentée par Anthropic dans son annonce.

    Claude Mythos n'est partagé qu'avec un groupe restreint d'entreprises, dont Apple, Google et Microsoft, dans le cadre d'une initiative de 100 millions de dollars baptisée Project Glasswing. Le scepticisme de Yann Le Cun n'est pas isolé. Gary Marcus, chercheur en IA et critique régulier du secteur, a également déclaré que la menace Claude Mythos était exagérée. « Dans une certaine mesure, j'ai l'impression qu'on s'est fait avoir », a écrit Gary Marcus.

    Yann Le Cun, né le 8 juillet 1960, est l'ancien directeur scientifique de l'IA de Meta, et chercheur franco-américain en intelligence artificielle (IA) et vision artificielle (robotique). Il est considéré comme l'un des inventeurs de l'apprentissage profond (deep learning). Il reçoit le prix Turing 2018, le 27 mars 2019, partagé avec Yoshua Bengio et Geoffrey Hinton, et est souvent surnommé le « parrain de l'IA ». Il est opposé aux discours alarmants sur l'IA.

    Conclusion

    OpenAI cherche à rassurer ses investisseurs sur sa position dominante dans un secteur en pleine mutation. La société se présente depuis longtemps comme une « IA démocratique » offrant un accès plus large au grand public, laissant entendre souvent qu'Anthropic fait exactement le contraire avec son orientation vers les entreprises. En février, le PDG Sam Altman écrivait : « Anthropic propose un produit coûteux destiné aux personnes fortunées ».

    Toutefois, les critiques y voient une campagne de dénigrement. OpenAI a récemment lancé outil de cybersécurité très performant, dont l'accès sera strictement réservé à certains partenaires privilégiés. L'annonce reprend les mêmes éléments de langage utilisés par Anthropic pour décrire son outil Claude Mythos. Cela suggère que l'annonce d'OpenAI est une réponse directe à Anthropic et vise à empêcher son rival d'occuper tout l'espace médiatique.

    OpenAI affiche des ambitions financières démesurées avec des prévisions de revenus publicitaires atteignant 102 milliards de dollars d'ici 2030. Cependant, l'IA peine à tenir ses promesses en matière de rentabilité et l'enthousiasme des investisseurs commence à se refroidir après une longue attente.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des sorties d'OpenAI sur son concurrent Anthropic ?
    Pourquoi l'entreprise de Sam Altman s'attaque-t-elle ouvertement à Anthropic ?
    Certains critiques dénoncent une campagne de dénigrement. Qu'en pensez-vous ?

    Voir aussi

    OpenAI : « nous avons aussi un nouvel outil d'IA redoutablement si puissant qu'on ne peut pas le commercialiser », l'entreprise ne veut pas se laisser distancer par Anthropic dans le cycle médiatique actuel

    Sam Altman : Il prêchait la régulation de l'IA, la combattait en coulisses, quémandait l'argent des émirats et a fait enterrer l'enquête sur son licenciement, selon une enquête de 18 mois sur le PDG d'OpenAI

    L'homme accusé d'avoir lancé un cocktail Molotov sur la maison de Sam Altman s'était prononcé contre l'IA dans ses écrits, il a été arrêté en possession de documents exprimant des opinions hostiles à l'IA

  7. #7
    Membre chevronné Avatar de der§en
    Homme Profil pro
    Chambord
    Inscrit en
    Septembre 2005
    Messages
    1 328
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Loir et Cher (Centre)

    Informations professionnelles :
    Activité : Chambord
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Septembre 2005
    Messages : 1 328
    Par défaut
    Question code, honnêtement entre ChatGPT et Claude, il n’y a pas photo, après pleins de tests divers et variés, la seule qui tienne à peux-près la route c’est Claude.

    Dernier exemple: le source C de planet Generator: https://hjemmesider.diku.dk/~torbenm/Planet/ seule Claude me l’a converti sans erreur et du premier coup, ChatGPT s’y est repris à plusieurs fois mais à chaque fois il y avait des erreurs, et les autres, se sont révélés encore moins concluants !

  8. #8
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    241
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 241
    Par défaut
    Sans vouloir défendre OpenAI, il est vrai que Anthropic est très, trop élitiste et bien plus fermé.

    Anthropic ne publie jamais rien publiquement, n'informe pas le grand public, ne partage aucun modèle ouvert (alors qu'on a un GPT-OSS, et un Grok-2) et elle a une approche confiscatoire de l'IA.
    Ils ont beau faire cout de comm moralisateur sur la "non coopération sur l'AI militaire", je n'ai pas plus confiance en une entreprise qui ne fait aucun effort d'ouverture envers le grand public.

  9. #9
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    3 144
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 3 144
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    La note envoyée aux actionnaires met particulièrement l'accent sur la disparité des capacités de calcul entre les deux entités. OpenAI projette d'atteindre une puissance de 30 gigawatts d'ici à 2030, tandis qu'il estime qu'Anthropic ne disposera que de 7 à 8 gigawatts à la fin de l'année 2027. OpenAI qualifie Anthropic d'entreprise limitée par ses capacités de calcul et souligne que son propre rythme de développement est matériellement plus rapide.
    Technique imparable, comparer des chiffres qui sont pas calculés sur la même base pour démontrer une hypothèse du supériorité.

    Ils comparent leurs objectif à 2030 avec une estimation du résultat du concurrent en 2027.
    Genre, le résultat du concurrent ne va pas évoluer entre 2027 et 2030 !

    En plus, ce n'est qu'une projection optimiste de leur futurs résultat.
    Ils ne sont pas assurés d'y arriver.

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo