Sam Altman : Il prêchait la régulation de l'IA, la combattait en coulisses, quémandait l'argent des émirats et a fait enterrer l'enquête sur son licenciement,
selon une enquête de 18 mois sur le PDG d'OpenAI
Dix-huit mois de travail, plus de 100 sources, quelque 200 pages de documents internes jamais divulgués. Les journalistes Ronan Farrow et Andrew Marantz publient dans The New Yorker ce qui constitue à ce jour la reconstruction la plus documentée de la gouvernance d'OpenAI et du caractère de son PDG. Le verdict, formulé par ses propres ex-collaborateurs : Sam Altman ne peut pas être digne de confiance.
Le 6 avril 2026, Sam Altman vivait une journée schizophrène. Le matin, OpenAI publiait un document de treize pages intitulé « Industrial Policy for the Intelligence Age », un appel solennel aux gouvernements du monde entier à réformer leur fiscalité, leur politique du travail et leurs systèmes de protection sociale pour anticiper l'avènement de la superintelligence. L'ambition était galactique, le ton messianique. Altman comparait lui-même le projet au New Deal de Franklin D. Roosevelt. Dans l'après-midi, The New Yorker publiait son enquête. La juxtaposition était saisissante au point d'en être comique : d'un côté, l'homme qui se pose en architecte du futur de l'humanité ; de l'autre, le portrait que dressent de lui des dizaines d'ex-collaborateurs, partenaires et membres de son conseil d'administration, celui d'un dirigeant pathologiquement incapable de dire la vérité.
L'enquête arrive précisément au moment où OpenAI demande au monde de lui accorder davantage de capital, d'infrastructures et d'accès à des systèmes critiques que n'importe quelle entreprise d'IA ne l'a jamais fait. Le contraste n'a pas échappé à ses critiques.
Dix-huit mois d'investigation, des dizaines de sources
Ronan Farrow et Andrew Marantz ont passé un an et demi sur un seul sujet. Ils ont examiné des mémos internes jamais divulgués, obtenu plus de 200 pages de documents liés à un proche collaborateur d'Altman, dont des notes personnelles détaillées, et interrogé plus de cent personnes. Le résultat constitue la reconstitution la plus précise jamais publiée des événements qui ont conduit le conseil d'administration d'OpenAI à renvoyer Altman en novembre 2023, et de la question centrale qui sous-tend ces événements : le conseil avait-il raison de dire qu'il n'était pas digne de confiance ?
Les deux pièces maîtresses de l'enquête sont des documents internes restés confidentiels jusqu'ici. Le premier est un mémo d'environ 70 pages compilé à l'automne 2023 par l'ancien directeur scientifique d'OpenAI, Ilya Sutskever. Il contient des messages Slack, des documents RH et des captures d'écran prises depuis des téléphones personnels, prétendument pour contourner la surveillance des appareils professionnels de l'entreprise. Le document s'ouvre sur une liste intitulée « Sam présente une tendance constante à... » dont le premier item est : « Tromperie ». Le second est un ensemble de plus de 200 pages de notes personnelles rédigées par Dario Amodei, alors responsable de la sécurité d'OpenAI, avant qu'il ne quitte l'entreprise pour fonder Anthropic. Sa conclusion, formulée sans ambiguïté dans ces notes : « Le problème avec OpenAI, c'est Sam lui-même. »
Un patron qui manipule depuis ses débuts
L'enquête de Farrow et Marantz ne se limite pas à l'épisode du licenciement de 2023. Elle remonte aux origines de la carrière d'Altman pour y déceler un même schéma récurrent. Des employés seniors de Loopt (sa première startup, un service de partage de localisation aujourd'hui disparu) ont demandé au conseil d'administration de le renvoyer en raison de problèmes de transparence. Les mêmes accusations l'ont suivi jusqu'à Y Combinator, qu'il a dirigé pendant cinq ans avant d'en être écarté pour des raisons de méfiance. Y Combinator a contesté les termes en affirmant qu'il n'avait pas été licencié, mais simplement invité à choisir entre l'accélérateur et OpenAI.
Parmi les témoignages cités par The New Yorker, l'un des plus cinglants est attribué au regretté Aaron Swartz, militant du web libre et co-fondateur de Reddit, qui avait côtoyé Altman lors de ses débuts à Y Combinator. Swartz l'aurait décrit comme « un sociopathe » qui « ne peut jamais être digne de confiance ». D'anciens membres du conseil d'administration d'OpenAI reprennent ce vocabulaire. Un ex-administrateur l'a directement qualifié de « sociopathe », décrivant quelqu'un qui possède « deux traits qu'on voit très rarement chez une même personne » : un désir intense d'être apprécié, couplé à une « indifférence sociopathique aux conséquences » de ses actes.
Altman, pour sa part, réfute toute tromperie délibérée. Dans plus d'une douzaine d'échanges avec les journalistes, il a décrit ses positions changeantes comme une « adaptation bien intentionnée » à un environnement qui évoluait rapidement, attribuant les critiques anciennes à sa tendance à « éviter trop souvent les conflits ». À la question de savoir si diriger une entreprise d'IA exigeait un niveau d'intégrité particulier, il a répondu : « Oui, cela exige un niveau d'intégrité plus élevé, et je ressens le poids de cette responsabilité chaque jour. »
La sécurité : vitrine publique, réalité interne
L'un des axes les plus accablants de l'enquête concerne le traitement réservé à la sécurité des systèmes d'IA, le sujet même sur lequel Altman se présente le plus souvent comme une voix responsable sur la scène internationale. Selon des documents internes, la puissance de calcul effectivement allouée à l'équipe d'alignement représentait environ 1 à 2 % des 20 % publiquement promis, l'essentiel des ressources étant attribué aux « clusters les plus anciens et les moins performants ». Un épisode révèle l'état d'esprit qui régnait en interne : lorsque des journalistes ont demandé à interviewer un chercheur travaillant sur la sécurité existentielle, un représentant d'OpenAI aurait répondu : « Que voulez-vous dire par "sécurité existentielle" ? Ce n'est pas une chose qui existe ici. »
Les notes de Dario Amodei montrent qu'il avait négocié l'inclusion d'une clause dite « merge and assist » dans la charte d'OpenAI lors du deal avec Microsoft en 2019 : si une autre entreprise se rapprochait davantage de la construction sûre d'une AGI, OpenAI serait tenu de cesser la compétition et de lui apporter ses ressources. C'était sa principale exigence en matière de sécurité. Il a découvert après la signature que Microsoft s'était arrogé un droit de veto sur le déclenchement de cette clause.
Les garde-fous institutionnels se sont ensuite effrités un à un. Le conseil d'administration, pourtant investi du pouvoir de renvoyer le PDG, a été progressivement peuplé d'alliés d'Altman ; des initiés affirment que la charte de l'entreprise ne guide plus son comportement effectif ; et l'enquête indépendante ouverte sur les accusations qui avaient conduit au licenciement d'Altman ne s'est jamais conclue par un rapport écrit.
Le coup d'État raté de novembre 2023
L'épisode du licenciement d'Altman par son conseil d'administration, en novembre 2023, est désormais entré dans la légende de la Silicon Valley. The New Yorker en offre la version la plus détaillée jamais publiée. La décision du conseil reposait sur le constat qu'Altman n'avait pas été « systématiquement candide » avec ses administrateurs, une formulation prudemment vague à l'époque, que l'enquête vient désormais étayer avec des faits précis.
Ce qui s'est passé ensuite est tout aussi révélateur. En l'espace de cinq jours, Altman a organisé son retour après que des investisseurs, Microsoft et une majorité d'employés ont menacé de partir s'il n'était pas réintégré. Les membres du conseil qui l'avaient licencié ont perdu leurs sièges, remplacés par des personnalités proches d'Altman. Parmi eux, l'économiste Larry Summers et l'ancien directeur technique de Facebook Bret Taylor, aujourd'hui président du conseil. Les employés ont baptisé ces cinq jours chaotiques « le Blip », en référence au Blip de l'univers Marvel, l'épisode où le super-vilain Thanos anéantit la moitié de l'humanité d'un claquement de doigts.
Ilya Sutskever, dont les memos avaient en partie motivé le licenciement, avait pourtant lui-même signé la lettre demandant le retour d'Altman. Il avait déclaré à l'automne 2023 : « Je ne pense pas que Sam soit la personne qui devrait avoir le doigt sur le bouton. » Son revirement illustre à lui seul la complexité des dynamiques de pouvoir à l'œuvre.
Entre autocraties du Golfe et Pentagone : les dossiers qui fâchent
L'enquête soulève également des inquiétudes sur les alliances géopolitiques nouées par Altman au nom d'OpenAI. Celui-ci a conclu des accords massifs d'infrastructure avec des États du Golfe comme les Émirats arabes unis et l'Arabie saoudite, des relations qui ont alarmé des responsables de la sécurité nationale américaine.
Un autre épisode, particulièrement significatif, concerne les armes autonomes. Lorsqu'Anthropic a refusé de renoncer à son interdiction des armes autonomes pour le Pentagone, Altman s'est rapidement positionné pour remplacer les modèles d'Anthropic par ceux d'OpenAI. Une manœuvre commerciale opportuniste, selon ses détracteurs ; une réponse aux besoins réels d'un client, selon ses partisans.
Des cadres de Microsoft, cités dans le rapport, expriment également une profonde exaspération. L'un d'eux le décrit comme quelqu'un qui « déforme, tord, renégocie et viole les accords », ajoutant qu'il existe « une petite mais réelle possibilité qu'il soit un jour retenu comme une figure du type Ponzi ».
L'argent comme bouclier
La question centrale posée par l'enquête reste sans réponse définitive : les personnes qui ont essayé de l'arrêter étaient-elles des alarmistes, ou avaient-elles raison de soutenir que l'homme qui court vers la construction de la technologie la plus puissante de l'histoire ne peut pas être digne de confiance ?
Ce qui est certain, c'est que la réponse immédiate des marchés et des investisseurs reste indifférente à ces questionnements. Altman a survécu à chaque vague précédente de critiques. Les capitaux continuent d'affluer. La conversion en entreprise à but lucratif se poursuit. OpenAI est valorisée à 300 milliards de dollars et préparerait une introduction en bourse potentiellement à hauteur de mille milliards. Dans ce contexte, les mémos de Sutskever et les notes d'Amodei pourraient avoir une durée de vie bien plus longue qu'un simple cycle de nouvelles. La confiance à accorder aux mots et aux motivations d'OpenAI est précisément l'une des questions centrales que les lecteurs de son document de politique industrielle se posent ce soir.
Altman a confié au New Yorker que ses « vibrations ne correspondent pas à grand-chose dans la tradition de la sécurité de l'IA ». Il a promis, vaguement, qu'OpenAI continuerait à « mener des projets de sécurité ». Pendant ce temps, les équipes de sécurité internes ont été réduites ou asphyxiées en ressources, et la charte fondatrice à but non lucratif qui devait placer le bien de l'humanité au-dessus du profit appartient désormais à l'histoire.
Sources : enquête, synthèse de l'enquête sur X
Et vous ?
La gouvernance par les investisseurs : Si les capitaux continuent d'affluer malgré les alertes internes documentées, est-ce la preuve que le marché a une confiance aveugle dans Altman ou simplement qu'il se moque de la question de la sécurité de l'IA ?
Le problème du lanceur d'alerte : Sutskever a compilé un dossier accablant, puis a lui-même signé la pétition de retour d'Altman. Que dit ce retournement sur la capacité des insiders à résister à la pression de la Silicon Valley ?
L'intégrité comme prérequis : OpenAI a été fondée sur la prémisse que construire une AGI exigeait un dirigeant d'une intégrité hors du commun. Si ce prérequis n'est pas satisfait, la structure entière de l'entreprise est-elle compromise ?
La sécurité comme rhétorique : Si seulement 1 à 2 % des ressources promises ont été allouées aux équipes d'alignement, la sécurité n'est-elle plus qu'un argument de vente pour rassurer les régulateurs et recruter des ingénieurs scrupuleux ?
Le précédent réglementaire : Cette enquête peut-elle constituer le dossier de base pour des investigations formelles en Europe ou au Royaume-Uni — voire déclencher des auditions au Congrès américain ?







La gouvernance par les investisseurs : Si les capitaux continuent d'affluer malgré les alertes internes documentées, est-ce la preuve que le marché a une confiance aveugle dans Altman ou simplement qu'il se moque de la question de la sécurité de l'IA ?
Répondre avec citation









Partager