OpenAI veut s'affranchir du contrôle exercé par son conseil d'administration à but non lucratif, se restructurer en une société à but lucratif et donner des parts au PDG Sam Altman
selon un rapport
De nouvelles informations sur un plan restructuration d'OpenAI déclenchent un tollé et suscitent plusieurs préoccupations. OpenAI envisagerait dans un premier temps de s'affranchir du contrôle exercé par son conseil d'administration à but non lucratif. OpenAI envisagerait ensuite de se restructurer pour devenir une entreprise à but lucratif et de donner à son PDG Sam Altman une participation de 7 % dans la nouvelle société. La nouvelle fait suite au départ brusque de plusieurs figures emblématiques d'OpenAI au cours de ses derniers mois. Ses départs seraient liés à des désaccords avec Sam Altman et ses soutiens internes sur la direction à donner à OpenAI.
OpenAI veut passer d'une société à but lucratif plafonné à une société à but lucratif
OpenAI, le fabricant de ChatGPT, travaillerait sur un plan de restructuration de son activité principale en une société à but lucratif qui ne sera plus contrôlée par son conseil d'administration à but non lucratif. L'organisation à but non lucratif OpenAI continuera d'exister et détiendra « une participation minoritaire dans la nouvelle société à but lucratif ». Il s'agirait du premier changement majeur pour la startup qui mène actuellement la course à l'IA. Cette décision pourrait également avoir des conséquences sur la manière dont l'entreprise gère les risques liés à l'IA dans le cadre d'une nouvelle structure de gouvernance.
Ces informations ont été rapportées par Reuters, qui cite des sources anonymes au fait du dossier. Cette nouvelle structure de gouvernance rendra l'entreprise plus attrayante pour les investisseurs. Le PDG Sam Altman cherche depuis des mois à attirer de nouveaux investissements. Selon les analystes, la valorisation d'OpenAI pourrait être revue à la hausse à 150 milliards de dollars si le nouveau cycle de financement en cours de négociation se concrétise.
Mais ce n'est pas tout. Les sources ont également déclaré que Sam Altman recevra pour la première fois des actions de la société à but lucratif. Des sources anonymes ont déclaré à Bloomberg que la participation offerte à Sam Altman pourrait s'élever à environ 7 %. Les détails de la structure d'entreprise proposée mettent en évidence les changements significatifs de gouvernance qui se produisent dans les coulisses de l'une des plus importantes entreprises d'IA.
Cette restructuration n'est pas encore effective pour l'instant. « Le plan est encore en cours d'élaboration avec les avocats et les actionnaires et le calendrier de la restructuration reste incertain », ont déclaré les sources. Cependant, pour les personnes qui s'inquiètent de l'approche d'OpenAI en matière de sécurité par rapport aux profits potentiels, il peut être troublant de constater que l'entreprise cherche à développer des modèles d'IA capables de raisonner.
En réponse aux demandes de commentaires, un porte-parole d'OpenAI n'a ni confirmé ni infirmé les informations rapportées par Reuters et Bloomberg. Il a déclaré : « nous restons concentrés sur la construction d'une IA qui profite à tous, et nous travaillons avec notre conseil d'administration pour nous assurer que nous sommes les mieux placés pour réussir notre mission. L'organisation à but non lucratif est au cœur de notre mission et continuera d'exister ».
De nombreux cadres importants ont quitté OpenAI depuis le retour de Sam Altman
OpenAI a une structure inhabituelle. OpenAI a vu le jour en 2015. La startup a été fondée à l'origine en tant qu'organisation à but non lucratif par Ilya Sutskever, Greg Brockman, Sam Altman, Elon Musk, Wojciech Zaremba, Andrej Karpathy et John Schulman. Elon Musk a quitté OpenAI en 2018 à la suite d'un conflit sur la direction à prendre. Depuis, Elon Musk est devenu l'un des critiques les plus virulents d'OpenAI sur les questions liées à l'IA. Il est allé jusqu'à poursuivre OpenAI en justice, alléguant que la startup a violé ses accords contractuels initiaux et s'est lancée dans une recherche effrénée du profit.
OpenAI avait pour mission de créer « une intelligence artificielle générale sûre qui profite à toute l'humanité ». La mission ne consistait pas à veiller aux intérêts des actionnaires. Mais en 2019, OpenAI a procédé à une restructuration et a ajouté une filiale à but lucratif plafonné (OpenAI Global LLC). Le conseil d'administration à but non lucratif (OpenAI inc.) est resté aux commandes et a également annoncé que l'objectif est resté inchangé malgré ces changements.
En novembre 2023, le PDG Sam Altman a été brusquement licencié par le conseil d'administration qui a accusé l'entrepreneur d'avoir menti sur différents sujets clés. Ce licenciement va semer le chaos dans l'entreprise, une bonne partie des employés ayant menacé de démissionner et suivre Sam Altman, qui avait été embauché dans la foulée par Microsoft. Après plusieurs jours de négociations avec OpenAI, Sam Altman a été réintégré en tant que PDG d'OpenAI.
Mais l'ancien conseil d'administration, qui comprenait plusieurs membres cofondateurs, a été contraint de démissionner et un nouveau conseil a été formé. L'entreprise est depuis confrontée à des désaccords internes, des démissions en cascades et des licenciements. Lorsque Sam Altman est redevenu PDG, il a déclaré qu'OpenAI doit améliorer sa structure de gouvernance. Et cela semble maintenant prendre forme alors que d'autres cadres quittent l'entreprise.
Mira Murati, directrice technique d'OpenAI, a annoncé son départ le 25 septembre 2024, soit peu avant les rapports selon lesquels OpenAI envisage de procéder à une restructuration. En outre, le président Greg Brockman est en congé et l'ancien scientifique en chef Ilya Sutskever a quitté l'entreprise au début de l'année. Voici une liste non exhaustive des départs les plus médiatisés depuis le retour de Sam Altman en tant que PDG d'OpenAI :
- Ilya Sutskever : il était à la fois cofondateur et scientifique en chef d'OpenAI, ainsi que le chef de l'équipe Superalignment. Compte tenu de son rôle dans la tentative de coup d'État d'Altman, il est difficile de savoir s'il a été gentiment mis à la porte ou s'il est parti de son propre chef ;
- Jan Leike : il était chargé (avec Sutskever) de veiller à ce que les systèmes d'IA d'OpenAI soient alignés sur les intérêts humains et avait été désigné l'année dernière par le magazine Time comme l'une des 100 personnes les plus influentes dans le domaine de l'IA ;
- Evan Morikawa : il était ingénieur en chef chez OpenAI. Il a quitté l'entreprise la semaine dernière après trois ans et demi d'activité. Il prévoit de lancer une nouvelle initiative avec des vétérans de Boston Dynamics et DeepMind ;
- Daniel Kokotajlo : ancien membre de l'équipe de sécurité d'OpenAI, il a quitté l'entreprise en février. Il a depuis critiqué publiquement OpenAI, déclarant qu'il avait quitté l'entreprise, car il ne croyait plus qu'elle se comporterait de manière responsable à l'ère de l'AGI ;
- William Saunders : il a quitté OpenAI en février, abandonnant son poste de manager au sein de l'équipe Superalignment. Dans des messages sur le forum LessWrong, Saunders a refusé d'expliquer les raisons de son départ ;
- Leopold Aschenbrenner : il était aussi membre de l'équipe Superalignment, travaillant avec Leike et Sutskever. Son départ n'était cependant pas une démission. Il a été licencié en avril pour avoir prétendument divulgué des informations à des journalistes ;
- Andrey Karpathy : membre fondateur d'OpenAI, Karpathy avait déjà quitté l'organisation une fois, mais était revenu en février 2023. Cela n'a duré qu'un an, lorsqu'il est reparti, bien que dans un tweet il ait déclaré que ce n'était pas le résultat d'un événement, d'un problème ou d'un drame particulier ;
- Logan Kilpatrick : il a quitté le navire il y a deux mois pour un poste chez Google. Il a confié que les changements intervenus au sein de l'entreprise étaient en partie à l'origine de son départ, soulignant que la croissance explosive avait modifié la façon de travailler d'OpenAI.
- Pavel Izmailov : le poste d'Izmailov aurait été supprimé en même temps que celui d'Aschenbrenner. Tous deux étaient de solides alliés de Sutskever. Ni son nom ni celui d'Aschenbrenner ne figuraient sur la liste des employés qui ont manifesté leur soutien à Altman lors du chaos de novembre ;
- Diane Yoon : elle a quitté OpenAI au début du mois de mai, démissionnant de son poste de vice-présidente du personnel. Aucune raison n'a été donnée pour ce départ, mais Yoon était l'un des cadres les plus anciens de l'entreprise ;
- Chris Clark : il a aussi quitté OpenAI au début du mois. Il était responsable des initiatives stratégiques et à but non lucratif.
Dans un message publié sur X, Mira Murati a déclaré qu'elle se retirait parce qu'elle voulait se donner le temps et l'espace de faire ses propres explorations. En réponse à son message, Sam Altman a exprimé son immense gratitude en déclarant : « il est difficile d'exagérer l'importance de Mira pour OpenAI, pour notre mission et pour nous tous personnellement ». Il a ajouté qu'il partagerait bientôt avec les employés plus d'informations sur les plans de transition.
Le plan de restructuration d'OpenAI suscite des préoccupations sur la sécurité de l'IA
Après le retour de Sam Altman à la tête d'OpenAI, le conseil d'administration de l'OpenAI a été renouvelé avec davantage de cadres du secteur technologique, sous la présidence de Bret Taylor, ancien co-PDG de Salesforce. Tout changement au sein de l'entreprise doit être approuvé par le conseil d'administration du groupe à but non lucratif, composé de neuf personnes. La suppression du contrôle de l'organisation à but non lucratif pourrait permettre à OpenAI de fonctionner davantage comme une startup classique, ce qui est généralement bien accueilli par les investisseurs qui ont investi des milliards dans l'entreprise.
Toutefois, elle pourrait également susciter des inquiétudes sur la sécurité de l'IA au sein de la communauté, qui se demande si le laboratoire dispose toujours d'une gouvernance suffisante pour se tenir responsable dans sa poursuite de l'AGI, étant donné qu'il a dissous au début de cette année l'équipe de superalignement qui se concentre sur les risques à long terme de l'IA. L'équipe a été dissoute après le départ de membres clés tels que Ilya Sutskever et Jan Leike.
Il n'y avait donc plus de raison de garder l'équipe et de toute façon des rapports signalent également qu'OpenAI semblait de moins en moins se soucier de la sécurité des produits. Les rapports indiquent que Sam Altman donne désormais la priorité au lancement de nouveaux produits et la réalisation de profits. Une orientation qui pourrait expliquer les nombreux départs, mais aussi le plan de restructuration susmentionné. OpenAI fait l'objet de plusieurs controverses.
Elon Musk avait retiré sa plainte contre OpenAI. Mais il l'a relancée le mois dernier. Il poursuit les dirigeants d'OpenAI pour abandon de la mission initiale, rupture de contrat et non-respect de ses obligations. Il demande la publication en open source de toutes les technologies actuelles et futures d'OpenAI, l'interdiction pour Microsoft de tirer profit de son partenariat avec OpenAI, et le licenciement de Sam Altman. Selon Elon Musk, OpenAI est sous l'emprise de Microsoft.
En juillet 2024, Microsoft a renoncé à son siège au conseil d'administration d'OpenAI, estimant que sa participation n'est plus nécessaire, car le fabricant de ChatGPT a amélioré sa gouvernance depuis le chaos qui régnait dans la salle du conseil l'année dernière. Toutefois, de nombreux analystes pensent que Microsoft s'est retiré en raison de l'enquête des régulateurs américains sur le partenariat entre Microsoft et OpenAI. Un partenariat très critiqué dans la communauté.
On ne sait pas exactement quel sera le montant de la participation de Sam Altman. Précédemment, Sam Altman, déjà milliardaire grâce à ses multiples investissements dans des startups, a déclaré qu'il avait choisi de ne pas prendre de participation dans la startup d'IA parce que le conseil d'administration avait besoin d'une majorité d'administrateurs désintéressés n'ayant aucun intérêt dans l'entreprise. Le plan de restructuration est à l'antipode de cette vision.
Sam Altman a également déclaré qu'il avait suffisamment d'argent et qu'il faisait cela parce qu'il aimait son travail. La nouvelle structure d'OpenAI ressemblerait à celle de son grand rival Anthropic et de la nouvelle startup d'IA xAI d'Elon Musk. Ces startups d'IA sont enregistrés en tant que sociétés d'utilité publique, une forme d'entreprise à but lucratif qui vise à promouvoir la responsabilité sociale et la durabilité en plus de faire des profits.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous du passage potentiel d'OpenAI à une structure à but lucratif ?
Selon vous, quels sont les risques liés à la suppression du contrôle exercé par l'organisation à but non lucratif ?
OpenAI envisagerait de donner une participation de 7 % à Sam Altman alors que ce dernier avait refusé cette idée. Qu'en pensez-vous ?
Le plan d'une restructuration potentielle d'OpenAI donne-t-il raison à Elon Musk et aux autres détracteurs de la startup ?
Que pensez-vous de la plainte déposée par Elon Musk contre OpenAI ? Les arguments d'Elon Musk sont-ils pertinents ?
Cette restructuration d'OpenAI pourrait faire de Sam Altman le seul maître à bord. Qu'en pensez-vous ?
Voir aussi
Tous les employés d'OpenAI qui quittent le navire sont-ils de simples alarmistes, ou le signe d'une profonde crise de confiance sur la nouvelle direction que Sam Altman impose à OpenAI ?
OpenAI licencie le co-fondateur et PDG Sam Altman, l'accusant d'avoir menti au conseil d'administration de l'entreprise. Viré du conseil, le co-fondateur Greg Brockman a préféré démissionner
Microsoft quitte le conseil d'administration d'OpenAI alors que l'examen antitrust des pactes d'IA s'intensifie, cette participation a été obtenue après le chaos causé par l'éviction brutale de Sam Altman
Plus c'est gros, plus ça marche. C'est une constante universelle. Les c... ça ose tout, c'est d'ailleurs à ça qu'on les reconnait. Mais pourquoi se gènerait-il ? Si quelq'un lui barre la route, il lui glissera quelques millions de $ dans la poche et le problème sera règlé.
On vit dans le monde De Defunes. Fort avec les Faibles, Faible avec les Forts.
BàT et Peace & Love.
La transformation d'OpenAI en une véritable entreprise à but lucratif est en train de la déchirer :
Mira Murati, directrice technique, Bob McGrew et Barret Zoph, directeur et vice-président de la recherche, quittent le navire
OpenAI, une organisation pionnière dans le domaine de l’intelligence artificielle (IA), est actuellement au cœur d’une transformation majeure. Initialement fondée en tant qu’entité à but non lucratif avec pour mission de garantir que l’IA profite à toute l’humanité, OpenAI a récemment adopté un modèle commercial pour financer ses recherches et ses développements coûteux. Cette transition a engendré des tensions internes significatives, mettant en lumière les défis de concilier innovation technologique, éthique et rentabilité.
OpenAI a lancé ChatGPT en novembre 2022. L'assistant d'IA a rapidement gagné en popularité, dépassant les 100 millions d'utilisateurs hebdomadaires. L'entreprise d'intelligence artificielle, basée aux États-Unis, a annoncé le 18 juillet le lancement d'un nouveau modèle d'IA générative, baptisé « GPT-4o Mini ». Puis, elle a proposé un modèle d'IA capable d'un raisonnement avancé, surpassant les capacités de GPT-4o. Le nouveau modèle, baptisé « Strawberry » en interne, peut décomposer des problèmes complexes en étapes logiques plus petites.
Toutefois, OpenAI gère une entreprise coûteuse qui pourrait perdre jusqu'à 5 milliards de dollars en 2024, ce qui mettrait le fabricant de ChatGPT à court de liquidités dans les 12 mois à venir, selon une analyse de The Information.
Selon le rapport, qui cite des données financières précédemment non divulguées et des personnes familières avec l'entreprise, OpenAI est sur la bonne voie pour dépenser quelque 7 milliards de dollars uniquement pour la formation de ses modèles d'intelligence artificielle, et 1,5 milliard de dollars supplémentaires pour la dotation en personnel. Ces dépenses dépassent de loin celles de ses rivaux, comme Anthropic, soutenu par Amazon, qui prévoit un taux d'absorption de 2,7 milliards de dollars en 2024.
Les dépenses élevées d'OpenAI pourraient obliger l'entreprise à conclure un nouveau cycle de financement dans les 12 mois pour renforcer son bilan, selon le rapport. OpenAI a déjà réalisé sept tours de financement, levant plus de 11 milliards de dollars, selon les données de Tracxn - le plus récent étant un tour privé avec ARK Investment Management en avril pour une somme non divulguée.
Les départs de haut niveau
En moins de deux ans, OpenAI est passé d'un laboratoire à but non lucratif peu connu travaillant sur une technologie obscure à une entreprise de renommée mondiale dont le directeur général est le visage de la révolution de l'intelligence artificielle.
Ce changement est en train de déchirer l'entreprise.
Mercredi, le directeur de la technologie d'OpenAI est devenu le dernier cadre de haut niveau à annoncer son départ, alors que l'entreprise se prépare à devenir une société à but lucratif. Ces départs sont l'expression publique de tensions qui n'ont cessé de croître au sein de l'entreprise à l'origine de ChatGPT depuis le retour du PDG Sam Altman, après sa brève éviction l'année dernière.
Certaines tensions sont liées à des conflits entre la mission initiale de l'OpenAI, qui consiste à développer l'IA pour le bien public, et de nouvelles initiatives visant à déployer des produits lucratifs. D'autres sont liées au chaos et aux querelles intestines entre les cadres, dignes d'un feuilleton.
Mira Murati, directrice technique, est l'une des 20 chercheurs et cadres d'OpenAI qui ont quitté l'entreprise cette année, y compris plusieurs cofondateurs d'Altman. Elle a annoncé son départ de l'entreprise en même temps que Bob McGrew, directeur de la recherche de l'entreprise, et Barret Zoph, vice-président de la recherche. Avec ces départs, Sam Altman et Wojciech Zaremba sont alors les seuls cofondateurs restants de l'équipe initiale (de 11 personnes).
Près de la moitié du personnel chargé de la sécurité de l'IAG (Intelligence Artificielle Générale) a quitté l'entreprise, selon Daniel Kokotajlo, un ancien chercheur en gouvernance chez OpenAI
Les tensions internes
Les tensions internes sont exacerbées par des lancements de produits précipités et des tests de sécurité jugés insuffisants par certains membres du personnel ainsi que des anciens employés. Ces pratiques ont suscité des inquiétudes quant à la capacité d’OpenAI à maintenir son avantage technologique tout en respectant ses principes éthiques. Certains employés estiment que la pression pour commercialiser rapidement les produits a conduit à des compromis sur la qualité et la sécurité.
Le rôle de Sam Altman
Sam Altman, le PDG d’OpenAI, a été critiqué pour son éloignement des opérations quotidiennes en raison de ses efforts de promotion mondiale. Cette situation a contribué à un sentiment de déconnexion entre la direction et les employés (une caractérisation que l'entreprise conteste) alors qu'il sillonnait le monde pour promouvoir l'IA et son projet de réunir d'énormes sommes d'argent pour construire des puces et des centres de données permettant à l'IA de fonctionner. Cette situation aurait aggravé les tensions internes. Altman, bien qu’il soit un fervent défenseur de la mission d’OpenAI, doit jongler entre les attentes des investisseurs et les préoccupations des employés.
Depuis son retour, OpenAI s'est également transformée en une entreprise plus normale, comme l'a décrit Altman. L'entreprise, dont le nombre d'employés est passé de 770 en novembre dernier à 1 700, a nommé cette année son premier directeur financier et son premier directeur des produits. Elle a ajouté à son conseil d'administration des personnes ayant une expérience de l'entreprise et de l'armée. Elle cherche à lever 6,5 milliards de dollars auprès de bailleurs de fonds tels que Microsoft, Apple et Nvidia.
Les défis de la commercialisation
La commercialisation d’OpenAI pose plusieurs défis. D’une part, il y a la nécessité de générer des revenus pour financer la recherche et le développement. D’autre part, il y a le risque de compromettre les valeurs éthiques de l’organisation. Trouver un équilibre entre ces deux impératifs est crucial pour l’avenir d’OpenAI. La pression pour commercialiser rapidement les produits peut conduire à des décisions hâtives qui pourraient nuire à la réputation de l’organisation et à la confiance du public.
OpenAI se concentre de plus en plus sur le développement de ses offres de produits, ce qui, selon certains employés de longue date, détourne l'attention de la recherche pure.
Certains membres de l'entreprise estiment que de tels développements sont nécessaires pour qu'OpenAI soit financièrement viable, compte tenu des milliards de dollars que coûtent le développement et l'exploitation des modèles d'IA. Ils affirment également que l'IA doit dépasser le stade du laboratoire et entrer dans le monde pour changer la vie des gens.
D'autres, y compris des scientifiques spécialisés dans l'IA qui travaillent pour l'entreprise depuis des années, estiment que l'injection de liquidités et la perspective de profits massifs ont corrompu la culture d'OpenAI.
Une chose sur laquelle presque tout le monde s'accorde est que le fait de maintenir au sein de la même organisation une opération de recherche axée sur la mission et une entreprise à croissance rapide a entraîné des difficultés de croissance.
« Il est difficile de faire les deux en même temps : la culture du produit d'abord est très différente de la culture de la recherche », a déclaré Tim Shi, un des premiers employés d'OpenAI qui est aujourd'hui directeur de la technologie de la startup d'IA Cresta. « Vous devez attirer différents types de talents. Et peut-être que vous construisez un type d'entreprise différent ».
L'entreprise continue de perdre des milliards par an, malgré une augmentation de son chiffre d'affaires
Altman était à Turin, en Italie, où se sont déroulés les événements de cette semaine, à l'occasion de l'Italian Tech Week. Lors d'une discussion au coin du feu jeudi, il a nié que les départs d'employés étaient liés aux plans de restructuration et a déclaré : « Je pense que ce sera, je l'espère, une grande transition pour toutes les personnes impliquées, et j'espère qu'OpenAI en sortira plus forte, comme nous le sommes pour toutes nos transitions ».
Le directeur financier d'OpenAI a envoyé une lettre aux investisseurs jeudi, indiquant que l'entreprise était en bonne voie pour clôturer son cycle de financement d'ici la semaine prochaine, et qu'elle organiserait ensuite une série d'appels pour leur présenter les principaux dirigeants de ses équipes de produits et de recherche.
L'accent mis par OpenAI sur l'amélioration constante de ChatGPT et d'autres produits a porté ses fruits. Son chiffre d'affaires annualisé - une projection des recettes annuelles basée sur les résultats récents - a récemment atteint environ 4 milliards de dollars, soit plus du triple par rapport à la même période l'année dernière. Cependant, l'entreprise continue de perdre des milliards par an.
La poursuite de sa croissance dépendra du maintien de son avance technologique. Le prochain modèle fondamental de l'entreprise, le GPT-5, qui devrait constituer une avancée majeure dans son développement, a connu des revers et des retards. Entre-temps, des entreprises concurrentes ont lancé des modèles d'IA à peu près équivalents à ceux proposés par OpenAI. Deux d'entre elles, Anthropic et xAI d'Elon Musk, ont été lancées par d'anciens dirigeants d'OpenAI.
L'intensification de la concurrence a frustré les chercheurs qui appréciaient de travailler pour OpenAI parce qu'elle était perçue comme le leader dans ce domaine.
Conclusion
La transformation d’OpenAI en une entreprise commerciale est un processus complexe et délicat. Les défis rencontrés par l’organisation soulignent l’importance de trouver un équilibre entre la recherche de profits et le maintien des valeurs éthiques. L’avenir d’OpenAI dépendra de sa capacité à naviguer ces eaux tumultueuses tout en restant fidèle à sa mission initiale. Les décisions prises aujourd’hui auront un impact durable sur la direction future de l’organisation et sur la manière dont elle sera perçue par le public et ses pairs dans l’industrie technologique.
Source : vidéo dans le texte
Et vous ?
Pensez-vous que la commercialisation d’OpenAI pourrait freiner ou accélérer l’innovation en intelligence artificielle ? Pourquoi ?
Comment OpenAI peut-elle équilibrer la recherche de profits avec le maintien de pratiques éthiques en IA ?
Quel rôle les investisseurs devraient-ils jouer dans la direction stratégique d’OpenAI ? Devraient-ils avoir plus ou moins d’influence ?
Comment OpenAI pourrait-elle améliorer la transparence et la communication interne pour réduire les tensions ?
Connaissez-vous d’autres entreprises technologiques qui ont réussi ou échoué dans une transition similaire ? Quels enseignements OpenAI pourrait-elle tirer de ces exemples ?
Quels pourraient être les effets à long terme de cette transformation sur la culture d’entreprise et la satisfaction des employés chez OpenAI ?
Quelle devrait être la vision à long terme d’OpenAI pour rester fidèle à sa mission tout en étant commercialement viable ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Quand l'IA et les ordinateurs quantiques se rencontreront...
Pas besoin d'en dire plus
Sam Altman présente quatre mises à jour majeures de l'IA lors du DevDay d'OpenAI à San Francisco : Realtime API, Prompt Caching, Model Distillation et Vision fine-tuning.
OpenAI fait l'objet de changements majeurs : la société a annoncé quatre mises à jour lors de son DevDay à San Francisco le 1er octobre 2024. Parmi les mises à jour : Realtime API offre des capacités de synthèse vocale rapides, Prompt Caching réduit les coûts et la latence. Vision fine-tuning permet aux développeurs d'affiner GPT-4o avec des images, disponible pour les utilisateurs payants.
Des rapports ont révélé qu'OpenAI, le fabricant de ChatGPT, travaillerait sur un plan de restructuration de son activité principale en une société à but lucratif qui ne sera plus contrôlée par son conseil d'administration à but non lucratif. L'organisation à but non lucratif OpenAI continuera d'exister et détiendra "une participation minoritaire dans la nouvelle société à but lucratif". Il s'agirait du premier changement majeur pour la startup qui mène actuellement la course à l'IA. Cette décision pourrait également avoir des conséquences sur la manière dont l'entreprise gère les risques liés à l'IA dans le cadre d'une nouvelle structure de gouvernance.
Debut octobre 2024, OpenAI a annoncé quatre mises à jour : Realtime API, Prompt Caching, Model Distillation et Fine-tuning. L'équipe a fait en sorte que les nouveaux ajouts soient visibles et utilisables dès la date d'annonce, et que certains fassent l'objet d'ajustements supplémentaires une fois les commentaires recueillis.
Realtime APIToday at DevDay SF, we’re launching a bunch of new capabilities to the OpenAI platform: pic.twitter.com/y4cqDGugju
— OpenAI Developers (@OpenAIDevs) October 1, 2024
L'une des mises à jour les plus importantes d'OpenAI est "Realtime API", qui offre aux développeurs la possibilité de "créer des expériences de synthèse vocale rapides dans leurs applications". La version bêta publique de l'API a été lancée et a été décrite comme étant similaire au modèle vocal avancé de ChatGPT. Elle permettra à "tous les développeurs payants de créer des expériences multimodales à faible latence dans leurs applications".
L'entrée et la sortie audio dans l'API Chat Completions ont été introduites pour prendre en charge les cas d'utilisation qui ne nécessitent pas les avantages de l'API Realtime en termes de faible latence. Cela signifie que les développeurs peuvent désormais transmettre n'importe quel texte ou entrée audio à GPT-4o et le modèle répondra avec leur choix de texte, d'audio ou des deux. Auparavant, la création d'une expérience d'assistant vocal similaire aurait nécessité plusieurs étapes, y compris l'utilisation d'un autre modèle.
Prompt Caching
Pour aider davantage les concepteurs d'applications d'IA, la fonction "Prompt Caching" (Mise en cache des invites) a été annoncée afin de réduire les coûts et la latence. "En utilisant des jetons d'entrée récemment vus, les développeurs peuvent bénéficier d'une réduction de 50 % et d'un traitement plus rapide des invites", selon un communiqué interne d'OpenAI. Cette mesure a été appliquée automatiquement aux dernières versions de GPT-4o, GPT-4o mini, o1 preview et o1-mini, ainsi qu'aux versions affinées des modèles.
Model Distillation
La nouvelle fonctionnalité "Model Distillation" (Distillation de modèle) vise à fournir un flux de travail intégré qui peut aider à gérer l'ensemble du pipeline de distillation directement au sein de la plateforme OpenAI. "Cela permet aux développeurs d'utiliser facilement les résultats des modèles d'avant-garde comme o1-preview et GPT-4o pour affiner et améliorer les performances des modèles plus rentables comme GPT-4o mini".
Avant cette introduction, la distillation nécessitait de nombreuses étapes manuelles, alors que cette nouvelle fonctionnalité devrait être beaucoup plus facile et rapide. La suite complète comprend les complétions stockées, les évaluations et la mise au point, qui ont toutes été rendues disponibles lors de l'annonce.
Vision fine-tuning
OpenAI a mis en œuvre le réglage fin sur GPT-4o précédemment, qui a été utilisé par "des centaines de milliers de développeurs", mais l'équipe affirme que sa nouvelle mise à jour "vision fine-tuning" (réglage fin par vision) permettra désormais de régler finement les images, ainsi que le texte. La version image fonctionne de la même manière que la version texte, les développeurs pouvant préparer leurs ensembles de données d'images en respectant le format approprié, puis les télécharger sur la plateforme.
Cette version ne sera utilisable que pour les utilisateurs payants et est prise en charge par la dernière version du modèle GPT-4o.
Si ces nouvelles fonctionnalités semblent intéressantes, elles arrivent dans un contexte chaotique pour OpenAI. Outre le changement de structure de l'entreprise, les démissions sur les postes clés commencent à s'accroitre. Fin septembre 2024, ce sont le directeur de la technologie, directeur de la recherche et vice-président de la recherche d'OpenAI qui ont annoncé leurs départs. Des 11 personnes de l'équipe initiale des cofondateurs, ils ne sont plus que deux dans l'entreprise, notamment Sam Altman, PDG actuel de l'entreprise.
Ces départs sont l'expression publique de tensions qui n'ont cessé de croître au sein de l'entreprise à l'origine de ChatGPT depuis le retour du PDG Sam Altman, après sa brève éviction en 2023. Cette situation suscite des inquiétudes sur la sécurité de l'IA au sein de la communauté, qui se demande si le laboratoire dispose toujours d'une gouvernance suffisante pour se tenir responsable dans sa poursuite de l'AGI. Elle met également en lumière les défis de concilier innovation technologique, éthique et rentabilité.
Et vous ?
Que pensez-vous de ces nouvelles fonctionnalités ?
Voir aussi :
OpenAI a annoncé qu'elle donnait aux développeurs tiers l'accès à son moteur de synthèse vocale qui alimente le mode vocal avancé de ChatGPT
OpenAI lance des modèles d'IA dotés de capacités de « raisonnement » semblables à celles d'une personne. Les modèles « Strawberry » peuvent décomposer des problèmes complexes en étapes logiques plus petites
Edward Snowden : « ils ont tombé le masque : ne faites jamais confiance à OpenAI ou à ses produits ». Le lanceur d'alerte dénonce la décision d'OpenAI de nommer un ancien directeur de la NSA à son conseil
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
La transformation d'OpenAI en une entité à but lucratif vise à protéger l'entreprise contre les OPA hostiles et le PDG Sam Altman de toute ingérence extérieure
selon un rapport
Un nouveau rapport souligne qu'OpenAI poursuit ses réflexions sur sa restructuration en une entité à but lucratif malgré la déchirure causée par cette initiative au sein de l'entreprise. Il indique que la décision d'OpenAI d'abandonner ses racines non lucratives pourrait permettre de protéger la startup contre les OPA hostiles et le PDG Sam Altman de toute ingérence extérieure. Si la démarche est finalisée, l'entité à but non lucratif qui a supervisé OpenAI depuis sa création en 2015 continuera d'exister, mais elle ne contrôlera plus les opérations de l'entreprise ni les décisions prises par Sam Altman, qui deviendra le seul maître à bord. Une idée qui déchire l'entreprise.
OpenAI veut protéger son PDG Sam Altman contre toute ingérence extérieure
La nouvelle a fait l'objet de fuite pour la première fois en septembre 2024 : OpenAI veut s'affranchir du contrôle de son organisation mère à but non lucratif. Le conseil d'administration d'OpenAI envisage de se restructurer en « société d'intérêt public », une structure inhabituelle qui permettrait à ses dirigeants de prendre en compte à la fois l'impact sociétal et le profit lors de la prise de décision. Des rivaux comme xAI d'Elon Musk et Anthropic, soutenue par Amazon, utilisent cette structure. Un récent rapport indique que le projet s'accélère et qu'il devrait permettre au PDG Sam Altman d'asseoir davantage son pouvoir.
Cette restructuration viserait à donner à OpenAI les moyens de se défendre contre les OPA (offre publique d'achat) hostiles et protéger le PDG Sam Altman de toute ingérence extérieure. Selon des sources au fait des plans d'OpenAI, cette restructuration permettrait à OpenAI d'adopter « une approche multidimensionnelle des obligations fiduciaires » et « une sphère de sécurité contre tout investisseur activiste ou toute tentative de contestation de Sam Altman ».
« Cette approche multidimensionnelle des obligations fiduciaires d'une entreprise donnerait à OpenAI une sphère de sécurité permettant de repousser les activistes qui pourraient prétendre que la société ne gagne pas assez d'argent. Cela vous donne encore plus de flexibilité pour dire : merci d'avoir appelé et passez une bonne journée », ont expliqué les sources. D'un autre côté, cette structure rendrait OpenAI plus attrayant aux yeux des potentiels investisseurs.
Début octobre 2024, OpenAI a levé environ 6,6 milliards de dollars lors d'une levée de fonds qui a valorisé l'entreprise à 157 milliards de dollars. Et ce malgré le fait que l'entreprise a brûlé ses liquidités à un rythme effréné tout en développant ses prochains modèles d'IA. Selon une analyse de The Information, OpenAI pourrait perdre jusqu'à 5 milliards de dollars en 2024. Cette levée de fonds devrait permettre à OpenAI de faire à face à ses difficultés financières.
En d'autres termes, sa nouvelle structure lui permettrait de continuer à attirer des investisseurs et d'obtenir les capitaux dont il a besoin pour affronter des rivaux bien financés tels que Google et supporter les coûts associés à la construction de puissants modèles d'IA.
Sam Altman veut rester seul maître à bord après son renvoi inopiné en 2023
Outre les problèmes de liquidité, OpenAI a également traversé une période tumultueuse à la fin de l'année dernière. En novembre 2023, Sam Altman a été brusquement renvoyé par le conseil d'administration de l'organisation à but non lucratif. La nouvelle a pris toute l'industrie de court et a mis en lumière les nombreux désaccords internes. Les raisons réelles de son renvoi ne sont toujours pas claires à la date d'aujourd'hui. Sam Altman est redevenu le PDG d'OpenAI en l'espace de quelques jours, à la suite de négociations qui ont vu la démission de la quasi-totalité des membres du conseil d'administration précédent.
Entre-temps, Elon Musk, qui a cofondé et aidé à financer OpenAI en 2015, poursuit l'entreprise pour avoir prétendument abandonné sa mission initiale, qui était de bénéficier à l'humanité, en acceptant un partenariat de plusieurs milliards de dollars avec Microsoft. Elon Musk estime qu'OpenAI a rompu non seulement ses accords contractuels initiaux, mais est également devenu de facto une filiale de Microsoft et s'est lancé dans une course effrénée aux profits.
Les sources au fait des réflexions sur le projet de restructuration ont déclaré au Financial Times qu'aucune décision n'a été prise et que la restructuration prendrait probablement du temps. Une fois la restructuration terminée, OpenAI deviendra « une société d'intérêt public » (public benefit corporation - PBC). L'organisation à but non lucratif, quant à elle, continuera d'exister, mais elle n'exercera plus de contrôle sur les actions de la nouvelle société à but lucratif.
En outre, l'entité à but non lucratif, qui obtiendrait une participation minoritaire dans la nouvelle société à but lucratif, ne devrait pas être dirigée par Sam Altman. « OpenAI veut conserver cette licence sociétale, avec une mission et un devoir, tout en créant une technologie de pointe », a déclaré au Financial Times une source familière au projet. OpenAI envisagerait de donner au PDG Sam Altman une participation de 7 % dans la nouvelle société à but lucratif.
Les informations sur une restructuration d'OpenAI sont apparues le mois dernier, le jour même où Mira Murati, directrice de la technologie, et deux autres cadres supérieurs ont démissionné de leur poste. Ces départs sont les derniers d'une longue série de cadres supérieurs d'OpenAI qui ont démissionné ou pris des congés prolongés depuis le début de l'année. Les démissions se sont multipliées depuis le retour de Sam Altman après son renvoi l'automne dernier.
Qu'est-ce que le modèle PBC qui séduit de plus en plus les entreprises d'IA ?
Le modèle PBC serait relativement nouveau. Le Delaware, où la plupart des sociétés PBC sont constituées, n'a adopté une législation sur les PBC qu'en 2013 et a ensuite modifié les dispositions en 2020 pour rendre la structure plus attrayante. Sur les milliers de sociétés cotées en bourse aux États-Unis, moins de 20 sont des PBC. Il s'agit notamment de Warby Parker, Black Rifle Coffee et Veeva Systems. Toutefois, les sociétés d'IA se sont révélées populaires. Anthropic, le fabricant du chatbot d'IA Claude, et xAI, la nouvelle startup d'IA d'Elon Musk, sont tous deux des PBC. Il offrirait plusieurs avantages aux fondateurs.
Une personne proche de xAI a déclaré que cela signifie que la probabilité d'être poursuivi en justice était réduite si la société n'agissait pas conformément aux intérêts des actionnaires. Et la protection contre l'activisme, notamment les OPA hostiles, offerte par le modèle PBC a déjà été soulignée par d'autres groupes. Le modèle PBC n'a pas été testé sérieusement devant les tribunaux et n'a pas fait l'objet d'un examen public comme cela a déjà été le cas pour l'IA.
Lemonade, une compagnie d'assurance en ligne, a déclaré dans des documents réglementaires que « le modèle PBC pourrait potentiellement permettre à un conseil d'administration de rejeter plus facilement une offre hostile, même lorsque la prise de contrôle offrirait le meilleur rendement financier à court terme aux investisseurs ». Le modèle PBC envisagé par OpenAI suscite des préoccupations sur la manière dont l'entreprise gèrera les risques liés à l'IA.
Des sénateurs américains se sont inquiétés de la menace que l'IA pourrait faire peser sur la sécurité publique et nationale. Selon les experts, si les dirigeants des entreprises d'IA étaient appelés à témoigner devant le Congrès au sujet de leurs activités, le modèle PBC pourrait donner aux entreprises un moyen de détourner les critiques. Cela pourrait les pousser à développer la technologie sans se soucier des questions de sécurité.
Jens Dammann, professeur à la faculté de droit de l'université du Texas, a déclaré que le modèle PBC offrait « une plus grande marge de manœuvre » par rapport à l'obligation d'une entreprise traditionnelle de maximiser la richesse de ses actionnaires. « C'est un moyen pour la direction et les administrateurs en place de se retrancher », a-t-il déclaré. Selon les experts, le modèle PBC introduit de nouvelles préoccupations en matière de responsabilité des entreprises.
« Si vous pouvez transmettre aux gens l'idée que vous êtes une bonne entreprise, une entreprise moralement sûre, et que vous êtes soumis à très peu de contraintes, cela doit être tentant pour les entrepreneurs », a-t-il ajouté. Des critiques ont déjà accusé Sam Altman de donner la priorité à la rapidité des progrès plutôt qu'à la sécurité. Il est accusé par les critiques d'avoir un style de direction agressif et dominateur.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous du projet visant à restructurer OpenAI en une société à but lucratif ?
Quels impacts une telle restructuration pourrait-elle avoir sur OpenAI et sur l'industrie en général ?
Que pensez-vous du modèle d'entreprise PBC ? Quid des préoccupations qu'il pose en matière de responsabilité ?
Avec le modèle PBC, les entreprises d'IA tentent-elles de fuir leur responsabilité dans le cas où la technologie tournerait mal ?
Faut-il craindre que le modèle PBC devienne un équivalent de la section 230 de la Communications Decency Act pour les plateformes en ligne ?
Voir aussi
La transformation d'OpenAI en une véritable entreprise est en train de la déchirer : trois dirigeants démissionnent, tandis que des informations sur un changement potentiel de structure font surface
OpenAI veut s'affranchir du contrôle exercé par son conseil d'administration à but non lucratif, se restructurer en une société à but lucratif et donner des parts au PDG Sam Altman, selon un rapport
OpenAI pourrait perdre 5 milliards de dollars cette année et se retrouver à court de liquidités dans 12 mois, selon un rapport qui évoque ses dépenses colossales en formation des modèles d'IA et en rémunération
OpenAI n'a plus rien d'Open, si tant est qu'elle ait eu un jour le moindre lien avec le côté Open
Tutoriels OpenGL
Je ne répondrai à aucune question en MP
- Si c'est simple tu dis que c'est compliqué et tu le fait
- Si c'est compliqué tu dis que c'est simple et tu le sous-traite ou le fait faire par un stagiaire.
Malgré la levée de fonds de 6,6 milliards de dollars, OpenAI pourrait ne pas devenir rentable, estime Ed Zitron
Qui note qu'en dépit de la couverture médiatique, OpenAI n'a réussi à convertir que 3 % de ses utilisateurs en clients payants
OpenAI a récemment clôturé une nouvelle levée de fonds impressionnante de 6,6 milliards de dollars, portant sa valorisation à 157 milliards de dollars, soit près du double de son évaluation précédente de 86 milliards de dollars. Cette levée de fonds, l’une des plus importantes jamais réalisées dans le secteur privé, renforce la position d’OpenAI parmi les startups les plus valorisées au monde, aux côtés de SpaceX et ByteDance. Néanmoins, cela n'empêche pas Ed Zitron, critique fréquent de l'IA, d'estimer qu'OpenAI est une mauvaise entreprise, estimant qu'il y a « quelques raisons de s'inquiéter ».
En 2015, OpenAI a été fondée avec une mission ambitieuse : développer une intelligence artificielle (IA) avancée tout en assurant que ses bénéfices soient partagés équitablement. Cependant, l'entreprise veut désormais s'affranchir du contrôle exercé par son conseil d'administration à but non lucratif, se restructurer en une société à but lucratif et donner des parts au PDG Sam Altman.
Pour se faire, OpenAI a levé plus de 6,6 milliards de dollars et a atteint une valorisation de 157 milliards de dollars.
Cette levée de fonds s’accompagne de conditions strictes. Au cours des négociations, la société a clairement indiqué qu'elle attendait un accord de financement exclusif, selon trois personnes ayant eu connaissance des discussions. OpenAI a demandé à ses investisseurs de ne pas soutenir les startups concurrentes, notamment xAI, la nouvelle entreprise d’Elon Musk. Cette stratégie vise à protéger les intérêts d’OpenAI et à maintenir son avance dans le domaine de l’IA.
La recherche de relations exclusives avec les investisseurs limite l'accès des rivaux aux capitaux et aux partenariats stratégiques. La démarche du fabricant de ChatGPT risque d'attiser les tensions existantes avec ses concurrents, notamment Musk, qui poursuit OpenAI en justice.
Pourtant, malgré cette réussite de tour de table, Ed Zitron estime qu'il y a « quelques raisons de s'inquiéter »
Ci-dessous, un extrait de son billet :
OpenAI perd de l'argent chaque fois que quelqu'un utilise son produit, et bien qu'elle puisse gagner de l'argent en vendant des abonnements premium, je doute fortement qu'elle fasse des bénéfices avec ces clients, et qu'elle perde certainement de l'argent avec tous les grands utilisateurs. Comme je l'ai déjà dit, je pense qu'une crise de l'IA subprime se prépare parce que les services API d'OpenAI - qui permettent aux gens d'intégrer ses différents modèles dans des produits externes - sont actuellement facturés à perte, et l'augmentation des prix rendra probablement ce produit non viable pour de nombreuses entreprises qui comptent actuellement sur ces tarifs réduits.
Comme je l'ai déjà dit, OpenAI n'est pas rentable, n'est pas viable et n'est pas tenable dans sa forme actuelle, mais je pense qu'il est important d'expliquer exactement à quel point elle est intenable, et je vais commencer par quelques déclarations :
- Pour qu'OpenAI atteigne un chiffre d'affaires de 11,6 milliards de dollars d'ici à la fin de 2025, elle devra plus que tripler ses revenus.
- Au coût actuel des revenus, il en coûtera à l'OpenAI plus de 27 milliards de dollars pour atteindre cet objectif. Même en divisant ses coûts par deux, OpenAI perdra encore 2 milliards de dollars.
- Cependant, les coûts d'OpenAI sont susceptibles d'augmenter, car (comme le note le New York Times) si cette entreprise croît de 300 %, il est très probable que la base d'utilisateurs gratuits de ChatGPT augmente en même temps, ce qui alourdira les coûts de l'entreprise.
- Même une augmentation de 2 $ (la première hausse de prix attendue pour ChatGPT Plus, alors que l'entreprise s'apprête à facturer 44 $ par mois) et des hausses de prix similaires pour les plans Teams et Enterprise ne suffiront pas à endiguer le flux d'encre rouge sur son bilan.
- La formation de GPT-4 - sans compter GPT-4o - a coûté 100 millions de dollars, et les futurs modèles plus complexes coûteront des centaines de millions, voire un milliard de dollars. The Information a également estimé en juillet que les coûts de formation d'OpenAI atteindraient 3 milliards de dollars en 2024.
- OpenAI n'a rien eu de vraiment important depuis le lancement de GPT-3.5, et son récent modèle o-1 n'a pas été particulièrement impressionnant. Il sera également beaucoup plus coûteux à utiliser, car le « raisonnement » de la « chaîne de pensée » qu'il effectue nécessite un tas de calculs supplémentaires (une quantité indéterminée qu'OpenAI cache délibérément), et OpenAI n'arrive même pas à trouver un cas d'utilisation significatif.
- Les produits d'OpenAI sont de plus en plus banalisés, Google, Meta, Amazon et même Microsoft construisant des modèles d'IA générative pour les concurrencer. Pire encore, ces modèles utilisent tous des données d'entraînement identiques (et elles commencent à manquer !), ce qui rend leurs résultats (et par extension leur technologie sous-jacente) de plus en plus similaires.
- Les activités d'OpenAI dans le cloud - c'est-à-dire les autres entreprises qui connectent leurs services à l'API d'OpenAI - sont remarquablement petites, au point de suggérer des faiblesses dans l'industrie de l'IA générative dans son ensemble. Il est extrêmement inquiétant que le plus grand acteur du jeu ne gagne qu'un milliard de dollars (moins de 30 % de son chiffre d'affaires) en donnant accès à ses modèles.
Et, fondamentalement, je ne trouve aucune preuve convaincante qui suggère qu'OpenAI sera en mesure de soutenir cette croissance. En fait, je ne trouve aucune comparaison historique et je pense que la croissance d'OpenAI est déjà en train de trébucher.
Comment OpenAI gagne-t-elle de l'argent ?
Selon le New York Times, OpenAI s'attend à ce que ChatGPT réalise un chiffre d'affaires d'environ 2,7 milliards de dollars en 2024, auquel s'ajoutera 1 milliard de dollars provenant « d'autres entreprises utilisant sa technologie ».
Dans les détails
ChatGPT Plus, Teams et Enterprise constituent 73 % du chiffre d'affaires (environ 2,7 milliards de dollars)
- OpenAI vend l'accès à ChatGPT Plus aux consommateurs pour 20 dollars par mois, offrant des temps de réponse plus rapides, un « accès prioritaire aux nouvelles fonctionnalités » et un accès 24 heures sur 24 et 7 jours sur 7 aux modèles d'OpenAI, avec « 5 fois plus de messages pour GPT-4o », un accès à la génération d'images, à l'analyse de données et à la navigation sur le web. Il est important de noter qu'OpenAI peut utiliser tout ce que vous faites comme données d'entraînement, à moins que vous ne vous y opposiez explicitement.
- OpenAI vend l'accès à une version « Teams » de ChatGPT Plus, un produit en libre-service qui vous permet de partager des chatbots entre les utilisateurs de l'équipe, au prix de 25 dollars par utilisateur et par mois si le paiement est annuel (soit 300 dollars par an et par utilisateur), et de 30 dollars par utilisateur et par mois si le paiement est mensuel. À partir de ce moment, vos données sont exclues par défaut de celles utilisées pour entraîner les modèles d'OpenAI.
- OpenAI vend des abonnements « entreprise » qui comprennent une fenêtre contextuelle élargie pour des invites plus longues (ce qui signifie que vous pouvez donner des instructions plus détaillées), des contrôles administratifs, ainsi qu'une « assistance améliorée et une gestion de compte continue ».
- On ne sait pas exactement combien cela coûte, mais un fil de discussion Reddit datant d'il y a un an suggère que c'est 60 dollars par utilisateur et par mois, avec un minimum de 150 sièges dans le cadre d'un contrat annuel.
- Je n'en suis pas certain, mais il est probable qu'OpenAI propose une sorte de remise pour les gros clients qui achètent en volume, comme c'est le cas pour pratiquement toutes les entreprises SaaS. J'expliquerai mon raisonnement plus loin dans cet article.
- En supposant que ce soit le cas, c'est mauvais pour OpenAI, car l'IA générative n'est pas un produit SaaS comme les autres. Les économies d'échelle ne fonctionnent pas vraiment ici, car servir chaque utilisateur a son propre coût (à savoir, la puissance du cloud computing utilisée pour répondre aux requêtes). Ce coût par utilisateur ne diminue pas au fur et à mesure que vous ajoutez des clients. Vous avez besoin de plus de serveurs. Plus de GPU.
- Réduire les prix ne sert donc qu'à réduire les maigres marges existantes sur ces clients, ou à transformer ces clients potentiellement rentables en centres de pertes
Octroi de licences d'accès aux modèles et aux services - 27 % des recettes (environ 1 milliard de dollars)
- OpenAI gagne le reste de son argent en octroyant des licences d'accès à ses modèles et services via son API. L'une des choses que l'on remarque en consultant la page de tarification est la variété des modèles et des API disponibles, ainsi que la diversité des prix pratiqués.
- OpenAI offre de nombreuses options : son modèle GPT-4o, le plus puissant ; le modèle GPT-4o-mini, moins puissant mais moins cher ; le modèle de « raisonnement » o1 (et son équivalent « mini ») ; une API « text embeddings » qui est utilisée principalement pour des tâches où vous voulez identifier des anomalies ou des relations dans un texte, ou classer des éléments dans un texte ; une « API d'assistants » pour intégrer des assistants dans une application (qui se connectent à leur tour à l'un des autres modèles, ce qui inclut des choses comme l'interprétation de code ou la recherche de fichiers) ; trois modèles différents de génération d'images ; trois modèles audio différents ; et un tas d'API et de modèles plus anciens.
- Dans de nombreux cas, les clients peuvent obtenir une réduction de 50 % en utilisant l'API par lots. Cela permet de retarder l'achèvement des travaux de 24 heures et d'exiger que toutes les tâches soient soumises en un seul lot, plutôt qu'au fur et à mesure. Cela peut s'avérer utile lorsque l'on utilise GPT pour fouiller dans des masses de données.
- Par exemple, en utilisant l'API par lots, le coût d'utilisation de GPT-4o passe de 5 $ pour 1 million de jetons d'entrée à 2,5 $, et de 15 $ pour 1 million de jetons de sortie à 7,5 $.
- La tarification par lots n'est pas disponible pour o1-preview.
- De plus, cette réduction n'est pas disponible lors de l'achat de jetons d'entraînement pour le réglage fin des modèles (bien que vous bénéficiez toujours de la même réduction pour les jetons d'entrée et de sortie).
- La tarification par lots n'est pas disponible pour DALL-E, l'API Assistants ou les modèles audio.
- Elle n'est pas non plus disponible pour GPT-3.5-turbo-instruct et le dernier modèle 4-o.
- La tarification de ces produits est un peu confuse, comme c'est le cas pour pratiquement toutes les entreprises de cloud computing.
- OpenAI gagne également environ 200 millions de dollars par an en vendant l'accès à ses modèles par l'intermédiaire de Microsoft, selon Bloomberg.
- En conclusion, cela signifie qu'OpenAI gagne environ 800 millions de dollars par an en vendant directement l'accès à son API, auxquels s'ajoutent 200 millions de dollars provenant d'un canal externe.
Le problème des recettes
En l'état actuel des choses, OpenAI tire la majeure partie (plus de 70 %) de ses revenus de la vente d'un accès premium à ChatGPT.
ChatGPT Plus compte 10 millions de clients, ce qui rapporte à OpenAI environ 2,4 milliards de dollars par an (dix millions d'utilisateurs dépensant 20 dollars par mois équivalent à 200 millions de dollars. Multipliez ce chiffre par 12 et vous obtiendrez 2,4 milliards de dollars). Cela signifie que les utilisateurs professionnels représentent un revenu d'environ 300 millions de dollars par an, soit 25 millions de dollars par mois.
Pour être franc, c'est extrêmement mauvais. Il s'agit d'estimations, mais même si elles étaient doublées, ces chiffres ne seraient pas particulièrement enthousiasmants.
Si 10 millions d'abonnés payants peuvent sembler beaucoup, « ChatGPT » est effectivement à l'IA générative ce que « Google » est à la recherche. Dix millions de personnes qui paient pour cela, c'est un enjeu de table.
OpenAI a été couvert par pratiquement tous les médias, est mentionné dans presque toutes les conversations sur l'IA (même lorsqu'il ne s'agit pas d'IA générative !), et bénéficie du soutien et de la pression marketing de Microsoft et de l'ensemble de la Silicon Valley. ChatGPT compte plus de 200 millions d'utilisateurs hebdomadaires, et le New York Times rapporte que 350 millions de personnes utilisent les services [d'OpenAI] chaque mois depuis juin (bien qu'il ne soit pas clair si cela inclut ceux qui utilisent l'API). Collectivement, cela signifie qu'OpenAI - l'entreprise la plus populaire du secteur - ne peut convertir qu'environ 3 % de ses utilisateurs.
Source : Edward Zitron
Et vous ?
Quelle lecture faites-vous de l'analyse d'Edward Zitron ?
Que pensez-vous de ses calculs et de ses projections ?
Partagez-vous son point de vue sur les difficultés rencontrées par OpenAI pour devenir rentable malgré ce tour de table ? Dans quelle mesure ?
Comment pouvez-vous expliquer qu'OpenAI n'a réussi a convertir qu'environ 3 % de ses utilisateurs en clients payants malgré la couverture médiatique, les soutiens de taille comme Microsoft et sa popularité dans le secteur ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Tant que les réponses ne seront pas plus fiables qu’actuellement, pourquoi payer ?
Je dirais que le minimum serait d'avoir un score d'évaluation de la fiabilité de la réponse. Et si l'IA est réellement intelligente, elle devrait pouvoir estimer qu'elle n'a pas assez de données pour répondre et dire "je ne sais pas" ou au moins "je ne suis pas sûr" comme un humain répondrait (sauf un politique).
ça va très mal finir cette histoire. En plus les gars qui quittent le navire s'en vont créer / travailler pour des entreprises concurrentes. Avec la concurrence actuelle, quelle serait la plus-value objective qui encouragerait un gars à payer pour le service ?
Un ancien employé d'OpenAI affirme que l'entreprise enfreint la loi sur le droit d'auteur et détruit l'internet.
Selon lui, les sorties de ChatGPT ne respectent pas le standard « d'utilisation équitable »
Un ancien chercheur d'OpenAI, Suchir Balaji, a récemment exprimé ses préoccupations concernant les pratiques commerciales de la société, affirmant que l'entreprise enfreint les lois sur le droit d'auteur américaines et détruit la viabilité commerciale des individus, des entreprises et des services Internet qui ont créé les données numériques utilisées pour entraîner ces systèmes d'IA. Balaji, qui a rejoint OpenAI en 2020 après avoir obtenu son diplôme à l'UC Berkeley, a travaillé sur le modèle GPT-4 avant de quitter l'entreprise cet été. Dans un essai publié sur son site personnel, il a tenté de démontrer combien d'informations protégées par des droits d'auteur de la base de données de formation d'un modèle d'IA se retrouvent finalement dans les sorties du modèle.
Un ancien chercheur d'OpenAI s'est prononcé contre le modèle commercial de l'entreprise, en écrivant, dans un blog personnel, qu'il pense que l'entreprise ne respecte pas la loi américaine sur les droits d'auteur. Il fait partie des voix de plus en plus nombreuses qui considèrent que l'activité d'accaparement de données du géant de la technologie repose sur des bases juridiques fragiles (voire carrément illégitimes).
« Si vous croyez ce que je crois, vous devez quitter l'entreprise », a récemment déclaré Suchir Balaji. Balaji, un diplômé de l'université de Berkeley âgé de 25 ans qui a rejoint OpenAI en 2020 et a ensuite travaillé sur GPT-4, a déclaré qu'il s'était d'abord intéressé à une carrière dans l'industrie de l'IA parce qu'il pensait que la technologie pouvait « être utilisée pour résoudre des problèmes insolubles, tels que la guérison des maladies et l'arrêt du vieillissement ». Balaji a travaillé pour OpenAI pendant quatre ans avant de quitter l'entreprise cet été. Désormais, Balaji affirme que la technologie est utilisée à des fins qu'il désapprouve et que les entreprises d'IA « détruisent la viabilité commerciale des individus, des entreprises et des services Internet qui ont créé les données numériques utilisées pour former ces systèmes d'IA ».
Selon Balaji, les sorties de ChatGPT ne respectent pas le standard « d'utilisation équitable »
Cette semaine, Balaji a publié un essai sur son site web personnel, où il analyse l'utilisation du « fair use » (utilisation équitable) par OpenAI dans l'entraînement de ses modèles d'IA, notamment ChatGPT. Dans cet essai, il tente de montrer « combien d'informations protégées par le droit d'auteur » provenant de l'ensemble de données d'entraînement d'un système d'IA « aboutissent en fin de compte dans les résultats d'un modèle ». Il précise également que bien que les modèles génératifs ne produisent pas souvent des sorties substantiellement similaires à leurs entrées de formation, le processus d'entraînement implique la copie de données protégées par des droits d'auteur.
Le chercheur a abordé les quatre critères en commençant par le critère 4 et 1 (tendant à être les plus importants).Bien que les modèles génératifs produisent rarement des résultats qui sont substantiellement similaires à l'un de leurs intrants d'apprentissage, le processus d'apprentissage d'un modèle génératif implique de faire des copies de données protégées par le droit d'auteur. Si ces copies ne sont pas autorisées, elles peuvent être considérées comme une violation des droits d'auteur, selon que l'utilisation spécifique du modèle peut ou non être qualifiée d'« usage loyal ». L'usage loyal étant déterminé au cas par cas, il n'est pas possible de faire une déclaration générale sur les cas où l'IA générative peut être qualifiée d'usage loyal. Au lieu de cela, je fournirai une analyse spécifique de l'utilisation par ChatGPT de ses données d'entraînement, mais le même modèle de base s'appliquera également à de nombreux autres produits d'IA générative.
L'usage loyal est défini dans la section 107 du Copyright Act de 1976, que je cite textuellement ci-dessous :
Nonobstant les dispositions des sections 106 et 106A, l'utilisation équitable d'une œuvre protégée par le droit d'auteur, y compris l'utilisation par reproduction dans des copies ou des enregistrements phonographiques ou par tout autre moyen spécifié par cette section, à des fins telles que la critique, le commentaire, le reportage, l'enseignement (y compris les copies multiples pour l'utilisation en classe), l'érudition ou la recherche, ne constitue pas une violation du droit d'auteur. Pour déterminer si l'utilisation faite d'une œuvre dans un cas particulier est un usage loyal, les facteurs à prendre en considération sont notamment les suivants
- le but et la nature de l'utilisation, y compris la question de savoir si cette utilisation est de nature commerciale ou si elle est faite à des fins éducatives non lucratives ;
- la nature de l'œuvre protégée par le droit d'auteur
- la quantité et le caractère substantiel de la partie utilisée par rapport à l'ensemble de l'œuvre protégée par le droit d'auteur ; et
- l'effet de l'utilisation sur le marché potentiel ou la valeur de l'œuvre protégée.
Le fait qu'une œuvre ne soit pas publiée n'empêche pas en soi de conclure à l'existence d'un usage loyal si cette conclusion est tirée après examen de tous les facteurs susmentionnés.
Il a terminé en affirmant qu'OpenAI enfreint la législation sur le droit d'auteur. En clair, la conclusion de l'analyse de Balaji est que les résultats de ChatGPT ne répondent pas à la norme « d'utilisation équitable », la norme juridique qui permet l'utilisation limitée de matériel protégé par le droit d'auteur sans l'autorisation du détenteur du droit d'auteur.
Balaji critique également la notion de « fair use » en affirmant qu'elle est déterminée au cas par cas et qu'aucune déclaration générale ne peut être faite sur le moment où l'IA générative qualifie pour « fair use ». Il propose une analyse spécifique de l'utilisation des données de formation de ChatGPT et suggère que la régulation plus stricte de l'industrie de l'IA pourrait être une solution aux problèmes juridiques actuels
Pour lui, « le seul moyen de sortir de tout cela est la réglementation », a déclaré plus tard Balaji, en référence aux problèmes juridiques créés par le modèle commercial de l'IA.
OpenAI n'est pas d'accord avec son point de vue
OpenAI a répondu en affirmant que ses modèles d'IA sont construits à partir de données publiques disponibles et que cette pratique est protégée par le principe de "fair use" et des précédents juridiques largement acceptés : « Nous construisons nos modèles d'IA en utilisant des données accessibles au public, d'une manière protégée par l'utilisation équitable et les principes connexes, et soutenue par des précédents juridiques de longue date et largement acceptés. Nous considérons que ce principe est juste pour les créateurs, nécessaire pour les innovateurs et essentiel pour la compétitivité des États-Unis ».
Cependant, il convient de noter que le New York Times poursuit actuellement OpenAI pour utilisation sans licence de son matériel protégé par le droit d'auteur. Le Times a affirmé que la société et son partenaire, Microsoft, avaient utilisé des millions d'articles de presse du journal pour entraîner son algorithme, qui a depuis cherché à rivaliser sur le même marché.
Le journal n'est pas le seul. OpenAI est actuellement poursuivie par un large éventail de célébrités, d'artistes, d'auteurs et de codeurs, qui affirment tous avoir été spoliés de leur travail par les algorithmes d'extraction de données de l'entreprise. D'autres personnes ou organisations bien connues ont poursuivi OpenAI, notamment Sarah Silverman, Ta-Nahisi Coates, George R. R. Martin, Jonathan Franzen, John Grisham, le Center for Investigative Reporting, The Intercept, divers journaux (dont le Denver Post et le Chicago Tribune), et divers YouTubers, entre autres.
Conclusion
Les critiques de Balaji mettent en lumière un débat plus large sur l'utilisation de l'IA et les implications juridiques qui en découlent. Les arguments contre OpenAI reposent sur la notion que l'IA, en utilisant des œuvres protégées par des droits d'auteur sans autorisation explicite, compromet la justice économique et la créativité individuelle. En effet, si les créateurs ne sont pas compensés pour l'utilisation de leurs œuvres, cela pourrait décourager l'innovation et la création de nouvelles œuvres.
D'un autre côté, les défenseurs d'OpenAI soutiennent que l'utilisation de données publiques pour entraîner des modèles d'IA est essentielle pour le progrès technologique et le développement de systèmes d'IA avancés. Ils affirment que le "fair use" est un cadre juridique suffisant pour équilibrer les intérêts des créateurs et ceux de la société en matière d'innovation.
Source : Suchir Balaji
Et vous ?
Quelle est votre opinion sur l'utilisation du "fair use" dans le cadre de l'entraînement des modèles d'IA ? Pensez-vous que cela protège suffisamment les droits des créateurs ?
Comment pensez-vous que les entreprises d'IA devraient compenser les créateurs dont les œuvres sont utilisées pour entraîner les modèles ?
Croyez-vous que la régulation de l'industrie de l'IA est nécessaire pour protéger les droits d'auteur, ou cela pourrait-il freiner l'innovation ?
Quels autres défis voyez-vous émerger de l'utilisation croissante de l'IA dans notre société ?
Comment les entreprises technologiques peuvent-elles trouver un équilibre entre l'utilisation des données publiques pour l'innovation et la protection des droits de propriété intellectuelle ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
L'ancien chercheur IA d'OpenAI Suchir Balaji, devenu lanceur d'alerte, a été retrouvé mort, après avoir accusé OpenAI de violer des droits d'auteur, Elon Musk a posté une réaction énigmatique.
L'ancien chercheur d'OpenAI Suchir Balaji a été retrouvé mort. Il avait accusé OpenAI de violer des droits d'auteur pour former ChatGPT, fait que la société a semblé confirmer depuis longtemps. Si OpenAI s'est dit dévastée d'apprendre son décès, Elon Musk a posté une réaction énigmatique.
En octobre 2024, Suchir Balaji, ancien chercheur IA chez OpenAI, a exprimé ses préoccupations concernant les pratiques commerciales de la société, affirmant que l'entreprise enfreint les lois sur le droit d'auteur américaines et détruit la viabilité commerciale des individus, des entreprises et des services Internet qui ont créé les données numériques utilisées pour entraîner ces systèmes d'IA.
Suchir Balaji, qui a rejoint OpenAI en 2020 après avoir obtenu son diplôme à l'UC Berkeley, a travaillé sur le modèle GPT-4 avant de quitter l'entreprise. Dans un essai publié sur son site personnel, il a tenté de démontrer combien d'informations protégées par des droits d'auteur de la base de données de formation d'un modèle d'IA se retrouvent finalement dans les sorties du modèle.
Malheureusement, le lanceur d'alerte âgé de 26 ans est mort à San Francisco le 26 novembre dans un suicide présumé, selon les autorités locales. La police de San Francisco a déclaré avoir trouvé Balaji mort à l'intérieur de son appartement de Buchanan Street après avoir été appelée pour un contrôle de bien-être vers 13 heures le 26 novembre. Le bureau du médecin légiste de San Francisco a déclaré que la cause du décès de Balaji était un suicide. En début de semaine, la police a déclaré qu'il n'y avait "actuellement aucune preuve d'un acte criminel".
Suchir Balaji : d'ancien chercheur chez OpenAI à dénonciateur des pratiques de la société d'IA
Balaji avait rejoint OpenAI en 2020 en tant que chercheur IA, mais en 2022, il était de plus en plus préoccupé par l'attitude de l'entreprise à l'égard de la législation sur le droit d'auteur. Dans un message publié le 23 octobre sur X, anciennement Twitter, il a déclaré : "J'ai été chez OpenAI pendant près de 4 ans et j'ai travaillé sur ChatGPT pendant les récentes 1 an et demi. Au départ, je ne connaissais pas grand-chose au droit d'auteur, à l'utilisation équitable, etc., mais je suis devenu curieux après avoir vu tous les procès intentés contre des entreprises de GenAI."
"Lorsque j'ai essayé de mieux comprendre la question, je suis finalement arrivé à la conclusion que l'utilisation équitable semble être une défense assez peu plausible pour de nombreux produits d'IA générative, pour la raison fondamentale qu'ils peuvent créer des substituts qui concurrencent les données sur lesquelles ils sont formés."
Balaji a ajouté dans son message : "J'ai écrit les raisons plus détaillées pour lesquelles je crois cela dans mon article. Il est évident que je ne suis pas avocat, mais je pense qu'il est important que même les non-avocats comprennent la loi - à la fois la lettre et la raison pour laquelle elle existe en premier lieu. Cela étant dit, je ne veux pas que cela soit interprété comme une critique de ChatGPT ou d'OpenAI en soi, car l'utilisation équitable et l'IA générative sont des questions bien plus vastes que n'importe quel produit ou entreprise. J'encourage vivement les chercheurs en ML à en apprendre davantage sur le droit d'auteur - c'est un sujet vraiment important, et les précédents souvent cités, comme Google Books, ne sont pas aussi favorables qu'on pourrait le croire".
Balaji a également fait part d'une interview qu'il a accordée au New York Times, qui poursuit actuellement OpenAI pour violation présumée des droits d'auteur du journal. Dans cette interview, Balaji a déclaré qu'il pensait initialement que "l'I.A. était une chose qui pouvait être utilisée pour résoudre des problèmes insolubles, comme la guérison de maladies et l'arrêt du vieillissement". Toutefois, au fil du temps, il a changé d'avis sur la position de l'OpenAI en matière de droits d'auteur, et a conclu : "Si vous croyez ce que je crois, vous n'avez qu'à quitter l'entreprise".
Dans son entretien avec le New York Times, Suchir Balaji a déclaré qu'il avait quitté OpenAI parce qu'il ne voulait plus contribuer à des technologies qui, selon lui, apporteraient à la société plus de mal que de bien. Selon certaines informations, il aurait même affirmé qu'OpenAI violait la loi sur les droits d'auteur.
Sur son site web, Balaji a déclaré qu'il ne pensait pas que la défense de l'utilisation équitable du droit d'auteur s'appliquait à ce qu'OpenAI faisait avec ChatGPT, bien qu'il ait noté que "des arguments similaires pourraient être avancés pour de nombreux produits d'IA générative dans une grande variété de domaines".
En réaction à la mort de Balaji, OpenAI s'est déclarée "dévastée" d'apprendre le décès du technicien. 'Nous sommes dévastés d'apprendre cette nouvelle incroyablement triste aujourd'hui et nous sommes de tout cœur avec les proches de Suchir pendant cette période difficile", a déclaré un porte-parole d'OpenAI.I recently participated in a NYT story about fair use and generative AI, and why I'm skeptical "fair use" would be a plausible defense for a lot of generative AI products. I also wrote a blog post (https://t.co/xhiVyCk2Vk) about the nitty-gritty details of fair use and why I…
— Suchir Balaji (@suchirbalaji) October 23, 2024
De son côté, le milliardaire Elon Musk a également réagi à la mort du technicien et a posté un message énigmatique sur X. "Hmm", a écrit Elon Musk sur sa plateforme en partageant la nouvelle de la mort du technicien. Pour rappel, OpenAI a été fondée en 2015 par un groupe de passionnés de technologie, dont Sam Altman et Elon Musk, qui en sont devenus les coprésidents. Musk a quitté l'entreprise en 2018 à la suite d'un désaccord sur sa stratégie et, en février 2024, il a intenté une action en justice contre OpenAI et Altman.
— Elon Musk (@elonmusk) December 14, 2024OpenAI reconnaît qu'elle utilise des contenus protégés par le droit d'auteur
Ces dernières années, les capacités des chatbots alimentés par l'IA, comme le ChatGPT d'OpenAI, se sont considérablement améliorées ; ils s'appuient sur de vastes modèles de langage pour produire du contenu pour les utilisateurs. Cependant, le processus a également été controversé, certains éditeurs accusant OpenAI d'utiliser des œuvres protégées par des droits d'auteur sans autorisation, et un certain nombre d'affaires juridiques sont actuellement en cours.
S'exprimant pour défendre ses pratiques commerciales dans une récente requête en justice, OpenAI a déclaré : "Les modèles apprennent, comme nous le faisons tous, de ce qui a été fait auparavant. La défense de l'usage loyal existe précisément pour cette raison : encourager et permettre le développement de nouvelles idées qui s'appuient sur des idées antérieures."
Cette défense d'OpenAI est conforme à ces précédentes déclarations. En janvier, OpenAi avait déclaré : "Étant donné que le droit d'auteur couvre aujourd'hui pratiquement toutes les formes d'expression humaine ... il serait impossible d’entraîner les meilleurs modèles d'IA d'aujourd'hui sans utiliser des documents protégés par le droit d'auteur." OpenAI reconnaît donc ouvertement qu'elle utilise des contenus sous copyright pour créer son modèle d'IA ChatGPT.
C'est pour cette raison que plusieurs éditeurs de presse ont poursuivi Microsoft et OpenAI pour violation du droit d'auteur. Parmi les poursuivants, on peut noter les éditeurs de presse de Californie, du Colorado, de l'Illinois, de Floride, du Minnesota et de New York. Certains procès sont en cours, mais le 7 novembre, le juge de district américain Colleen McMahon, à New York, a rejeté une poursuite contre OpenAI qui avait été intentée par les médias Raw Story et AlterNet. Selon les observateurs, la porte de sortie de la situation semble résider dans la conclusion d’accords de licence avec les éditeurs de presse.
Et vous ?
Quel est votre avis sur la réaction d'Elon Musk ?
Pensez-vous que la défense d'OpenAI contre ces accusations est crédible ou pertinente ?
Voir aussi :
OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé par le droit d'auteur et estime que « légalement, la loi sur le droit d'auteur n'interdit pas l'entraînement »
The Intercept, Raw Story et AlterNet poursuivent OpenAI et Microsoft en justice pour violation du droit d'auteur, ils exigent des dommages-intérêts et le retrait de leurs contenus des modèles d'IA
Un ex employé d'OpenAI estime qu'il y a 70 % de chances que l'IA détruise l'humanité ou lui nuise de manière catastrophique, les puissants modèles d'IA ne doivent donc pas être open source, d'après des tiers
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Meta de Mark Zuckerberg demande au procureur général de Californie de bloquer le projet de transformation d'OpenAI en société à but lucratif, car cela créerait un dangereux précédent injuste.
Meta Platforms, société mère de Facebook, a demandé au procureur général de Californie de bloquer la conversion prévue d'OpenAI en société à but lucratif. Selon la lettre, permettre à OpenAI de devenir une société à but lucratif créerait un dangereux précédent en permettant aux startups de bénéficier des avantages du statut non lucratif jusqu'à ce qu'elles soient prêtes à devenir rentables. Dans sa lettre, Meta a déclaré qu'elle soutenait les efforts d'Elon Musk pour bloquer la transformation d'OpenAI en société àbut lucratif.
OpenAI, une organisation pionnière dans le domaine de l’intelligence artificielle (IA), est actuellement au cœur d’une transformation majeure. Initialement fondée en tant qu’entité à but non lucratif avec pour mission de garantir que l’IA profite à toute l’humanité, OpenAI a adopté un modèle commercial pour financer ses recherches et ses développements coûteux. Cette transition a engendré des tensions internes significatives, mettant en lumière les défis de concilier innovation technologique, éthique et rentabilité.
Cependant, ce n'est pas seulement en interne que cette décision a créé une controverse. Récemment, Meta Platforms, société mère de Facebook, a demandé au procureur général de Californie de bloquer la conversion prévue d'OpenAI en société à but lucratif. Dans une lettre adressée au procureur général Rob Bonta, Meta a déclaré que permettre à OpenAI de devenir une société à but lucratif créerait un dangereux précédent en permettant aux startups de bénéficier des avantages du statut non lucratif jusqu'à ce qu'elles soient prêtes à devenir rentables.
"La conduite d'OpenAI pourrait avoir des implications sismiques pour la Silicon Valley. Si le nouveau modèle commercial d'OpenAI est valable, les investisseurs à but non lucratif obtiendraient les mêmes bénéfices que ceux qui investissent de manière conventionnelle dans des entreprises à but lucratif, tout en bénéficiant de déductions fiscales accordées par le gouvernement », a déclaré Meta dans la lettre.
Dans sa lettre, Meta a déclaré qu'elle soutenait un effort d'Elon Musk pour représenter les intérêts du public en décidant si OpenAI sera autorisée à devenir une société à but lucratif. À la suite de la lettre de Meta, OpenAI a demandé à un juge fédéral de Californie de rejeter la demande du milliardaire Elon Musk d'interrompre sa conversion en une société à but lucratif.
"Bien que notre travail se poursuive et que nous continuions à consulter des conseillers financiers et juridiques indépendants, toute restructuration potentielle garantirait que l'organisation à but non lucratif continue d'exister et de prospérer, et qu'elle reçoive la pleine valeur de sa participation actuelle dans l'organisation à but lucratif OpenAI, avec une capacité accrue de poursuivre sa mission", a déclaré Bret Taylor, le président d'OpenAI, dans un communiqué.
Voici la lettre de Meta au procureur général de Californie Rob Bonta :
Elon Musk a déposé une injonction pour stopper la transition d'OpenAI vers un modèle à but lucratifCher Procureur général Bonta :
En tant qu'entreprise californienne qui développe une technologie d'IA générative, Meta Platforms, Inc. ("Meta") est profondément préoccupée par la tentative d'OpenAI de se débarrasser du statut d'organisation à but non lucratif sous lequel elle a été fondée afin de créer une entité à but lucratif. Nous vous demandons instamment d'examiner cette proposition de transaction, y compris la nature et le calendrier de tout transfert d'actifs de l'entité à but non lucratif d'OpenAI vers d'autres entités. Le fait de ne pas tenir OpenAI pour responsable de son choix de se constituer en entité à but non lucratif pourrait conduire à une prolifération de start-ups similaires qui sont théoriquement caritatives jusqu'à ce qu'elles soient potentiellement rentables. Le peuple californien a un intérêt direct et urgent à mettre fin à ce comportement. Toutes les activités à but lucratif d'OpenAI et de ses entités apparentées devraient être suspendues pour protéger les investisseurs et les consommateurs.
En 2015, OpenAI a déposé son certificat d'incorporation original auprès de l'État du Delaware :
Cette société sera une société à but non lucratif organisée exclusivement à des fins caritatives et/ou éducatives au sens de la section 501(c){3) du Code des revenus internes de 1986, tel qu'amendé, ou de la disposition correspondante de toute future loi sur les revenus internes des États-Unis. L'objectif spécifique de cette société est de fournir des fonds pour la recherche, le développement et la distribution de technologies liées à l'intelligence artificielle... La société n'est pas organisée pour le gain privé d'une personne... Les biens de cette société sont irrévocablement dédiés à ses objectifs... et aucune partie du revenu net ou des actifs de cette société ne sera jamais utilisée au profit d'un administrateur, d'un dirigeant ou d'un membre de la société ou au profit d'une personne privée.
OpenAI a réaffirmé cet engagement sur son propre site web des années plus tard :
Ne voyant pas de voie claire dans le secteur public, et compte tenu du succès d'autres projets ambitieux dans l'industrie privée, [OpenAI] a décidé de poursuivre ce projet par des moyens privés liés par des engagements forts en faveur du bien public. [OpenAI] a d'abord pensé qu'une organisation de type 501(c)(3) serait le véhicule le plus efficace pour diriger le développement d'une AGI sûre et largement bénéfique, tout en restant à l'abri des incitations au profit.
Profitant de ce statut à but non lucratif, OpenAI a levé des milliards de dollars de capitaux auprès d'investisseurs pour poursuivre sa prétendue mission. La société a déclaré à l'État de Californie et au monde entier qu'elle serait gérée sans aucune motivation lucrative. Les investisseurs et le public se sont fiés à juste titre à cette assurance.
Aujourd'hui, OpenAI veut changer de statut tout en conservant tous les avantages qui lui ont permis d'atteindre le point où elle se trouve aujourd'hui. C'est une erreur. OpenAI ne devrait pas être autorisée à bafouer la loi en prenant et en se réappropriant des actifs qu'elle a construits en tant qu'organisation caritative et en les utilisant pour des gains privés potentiellement énormes.
De plus, la conversion proposée par OpenAI ne représente pas simplement un futur abus potentiel de la forme de société. Nous vous demandons également d'examiner si les pratiques passées d'OpenAI sont conformes à ses obligations en tant qu'organisation à but non lucratif, notamment si elle a épuisé de manière inappropriée les actifs de l'organisation à but non lucratif en distribuant des actifs à des entités tierces.
Le comportement d'OpenAI pourrait avoir des implications sismiques pour la Silicon Valley. Si elle était autorisée, la restructuration d'OpenAI représenterait un changement de paradigme pour les startups technologiques ; autoriser cette restructuration ne ferait qu'inciter les investisseurs à lancer des organisations en tant qu'organisations à but non lucratif, à collecter des centaines de millions de dollars en dons exonérés d'impôts pour soutenir la recherche et le développement, puis à adopter le statut de société à but lucratif lorsque leur technologie devient commercialement viable.
En effet, si le nouveau modèle commercial d'OpenAI est valable, les investisseurs à but non lucratif obtiendraient les mêmes bénéfices que ceux qui investissent de manière conventionnelle dans des entreprises à but lucratif, tout en bénéficiant de déductions fiscales accordées par le gouvernement et, en fin de compte, par le public. Cela fausserait le marché en obligeant essentiellement toute startup cherchant à rester compétitive à adopter le même cahier des charges.
Nous comprenons qu'Elon Musk et Shivon Zilis cherchent actuellement à représenter les intérêts publics dans l'affaire Musk v. Altman, No. 4:24-cv-04722-YGR (N.D. Cal.). Bien que nous demandions instamment à votre bureau d'agir directement, nous pensons que Musk et Zilis sont qualifiés et bien placés pour représenter les intérêts des Californiens dans cette affaire. Leurs rôles précoces et fondamentaux dans la création et les opérations d'OpenAI et en tant que membres antérieurs de son conseil d'administration les placent en position de comprendre mieux que quiconque ce qu'OpenAI était censée être et comment sa conduite actuelle s'écarte de sa mission de bienfaisance.
Meta s'engage en faveur de l'ouverture et de la transparence dans le domaine transformateur de l'IA. La promesse caritative d'OpenAI de développer une IA sûre et largement bénéfique, à l'abri des pressions commerciales, est importante et doit être tenue. Étant donné la vitesse fulgurante à laquelle OpenAI poursuit sa conversion à des fins lucratives, il s'agit d'un cas particulier où il est urgent d'agir.
Nous vous remercions d'avoir pris en compte notre point de vue et sommes heureux de répondre à vos questions.
Nos salutations respectueuses,
Meta Platforms
Depuis qu'OpenAI a décidé d'adopter un modèle commercial pour financer ses recherches et ses développements coûteux, Elon Musk n'a cessé de déposer des plaintes contre la société. Elon Musk a d'abord intenté une action en justice contre OpenAI en mars 2024, mais a abandonné la procédure en juin 2024. Début août 2024, Elon Musk a relancé une plainte contre OpenAI et son dirigeant Sam Altman.
Début décembre 2024, Elon Musk a déposé une injonction contre la transition d'OpenAI vers un modèle à but lucratif et les pratiques "déloyales" de l'entreprise. Les principales cibles sont Sam Altman, Reid Hoffman, Microsoft et ses investissements de 13 milliards de dollars dans OpenAI. Elon Musk a également accusé OpenAI d'utiliser des données sensibles et a demandé le respect de sa mission initiale à but non lucratif.
Cette demande d'Elon Musk intervient après l'impressionnante levée de fonds de 6,6 milliards de dollars d'OpenAI, qui a fait grimper sa valorisation à 157 milliards de dollars. Mais selon des rapports, cette levée de fonds s'accompagne de conditions strictes : les investisseurs ont le droit de retirer leur argent si OpenAI ne réussit pas à passer d'une organisation à but non lucratif à une entreprise entièrement lucrative. De plus, OpenAI a demandé à ses investisseurs, tels que Microsoft, Nvidia et Thrive Capital, entre autres, de ne pas soutenir des startups concurrentes dans le domaine de l'IA.
Elon Musk avait qualifié OpenAI de "diabolique" après cette investissement et ces accords exclusifs, et c'est l'une des raisons de sa demande de bloquer la conversion d'OpenAI en société à but lucratif. Pour l'instant, la situation autour d'OpenAI n'est pas claire, mais le soutien de Meta à Elon Musk pourrait vite changer le déroulement du conflit.
Source : Meta Platforms
Et vous ?
Pensez-vous que cette lettre de Meta est crédible ou pertinente ?
Quel est votre avis sur la situation ?
Voir aussi :
Elon Musk poursuit OpenAI et son PDG Sam Altman, évoquant une violation des accords contractuels initiaux des fabricants de ChatGPT qui cherchent à réaliser du profit, au lieu de se consacrer à la mission fondatrice de l'organisation
OpenAI veut s'affranchir du contrôle exercé par son conseil d'administration à but non lucratif, se restructurer en une société à but lucratif et donner des parts au PDG Sam Altman, selon un rapport
L'IA open source est la voie à suivre, car elle permet à un plus grand nombre de personnes dans le monde d'avoir accès aux avantages et aux opportunités de l'IA, par Mark Zuckerberg, fondateur et PDG de Meta
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
"Un contrôle de bien-être" ? Les USA sont déjà dans un système totalitaire décrit dans "Fahrenheit 451" ?La police de San Francisco a déclaré avoir trouvé Balaji mort à l'intérieur de son appartement de Buchanan Street après avoir été appelée pour un contrôle de bien-être vers 13 heures le 26 novembre.Si la police de la pensée l'avait testé en "mal-être", on lui aurait administré un sérum pour qu'il retrouve la joie de vivre ?
GPT-5, le prochain grand projet d'OpenAI dans le domaine de l'IA, est en retard sur le calendrier et est très coûteux
L'entreprise manque de sources de données fiables et fait face à des défis techniques
OpenAI ferait face à des problèmes de mise à l'échelle et des coûts exorbitants dans le cadre du développement de GPT-5. Le prochain grand modèle d'OpenAI est en retard sur le calendrier et les chercheurs ignorent encore quand - ni si - il fonctionnera. Il est possible qu'il n'y ait pas assez de données dans le monde pour le rendre suffisamment intelligent. GPT-5 serait au mieux plus performant que les systèmes actuels d'OpenAI, mais il n'a pas suffisamment progressé pour justifier le coût énorme de son fonctionnement. L'IA générative semble atteindre un palier, avec des défis en matière de fiabilité et d'innovation qui freinent son développement continu.
GPT-5 : les ambitions initiales d'OpenAI se transforment en désillusions
« GPT-5 sera plus intelligent, plus rapide, plus polyvalent et meilleur dans toutes les tâches que GPT-4 », a déclaré le PDG d'OpenAI, Sam Altman, lors du Sommet mondial des gouvernements (WGS) à Dubaï en février dernier. Microsoft, le partenaire le plus proche d'OpenAI et son principal bailleur de fonds, s'attendait à voir le nouveau modèle vers le milieu de l'année 2024. Mais des sources proches de l'entreprise ont rapporté que rien ne se passe comme prévu.
GPT-5 est connu sous le nom de code interne « Orion ». Le projet est en cours depuis plus de 18 mois, mais les problèmes se multiplient et les chercheurs d'OpenAI n'entrevoient pas le bout du tunnel. Selon les sources proches du projet, OpenAI aurait effectué au moins deux grands entraînements dans le but de rendre Orion plus intelligent. Chaque fois, de nouveaux problèmes sont apparus et le logiciel n'a pas donné les résultats escomptés par les chercheurs.
Selon les sources, chacun des deux entraînements a nécessité des mois de traitement d'énormes quantités de données. Au mieux, Orion est plus performant que les offres actuelles d'OpenAI, mais le modèle n'a pas suffisamment progressé pour justifier les dépenses énormes qu'il occasionne. Une formation de six mois peut coûter environ un demi-milliard de dollars rien qu'en coûts informatiques. Selon les sources, les coûts ont atteint des niveaux importants.
Selon Sam Altman, la formation de GPT-4 a coûté plus de 100 millions de dollars. Les futurs modèles d'IA devraient dépasser le milliard de dollars. L'échec d'une formation est comparable à l'explosion d'une fusée spatiale peu de temps après son lancement. Selon les sources, les chercheurs d'OpenAI tentent de minimiser les risques d'échec en menant leurs expériences à plus petite échelle, c'est-à-dire en procédant à un essai avant de passer à l'action.
Il n'y a pas de critères établis pour déterminer quand un modèle est devenu suffisamment intelligent pour être désigné GPT-5. OpenAI peut tester ses modèles dans des domaines tels que les mathématiques et le codage. Il appartient aux dirigeants de l'entreprise de décider si le modèle est suffisamment intelligent pour être désigné GPT-5, en se fondant en grande partie sur leur intuition ou, comme le disent de nombreux technologues, sur les « vibrations ».
Le développement de GPT-5 pose de nombreux défis techniques à OpenAI
L'un des principaux problèmes techniques est la qualité des données. En règle générale, les modèles deviennent plus performants au fur et à mesure qu'ils ingurgitent des données. Les données utilisées par OpenAI et ses concurrents proviennent principalement de livres, de publications universitaires et d'autres sources réputées. Ce matériel aide les grands modèles de langage (LLM) à mieux communiquer avec l'utilisateur et à gérer un large éventail de tâches.
Pour ses modèles précédents, OpenAI a utilisé de vastes quantités de données extraites d'Internet : articles de presse, messages sur les médias sociaux et articles scientifiques. Afin de rendre Orion plus intelligent, OpenAI doit l'agrandir. Cela signifie qu'il a besoin d'encore plus de données, mais il n'y en a pas assez. OpenAI a constaté que les données en question ne sont pas aussi diversifiées qu'il le pensait, ce qui a limité la capacité d'apprentissage d'Orion.
« Cela devient très coûteux et il devient difficile de trouver des données de qualité », a déclaré Ari Morcos, PDG de DatologyAI, une startup qui crée des outils pour améliorer la sélection des données. DatologyAI construit des modèles avec moins de données, mais de bien meilleure qualité, une approche qui, selon lui, rendra les systèmes d'IA d'aujourd'hui plus performants que la stratégie adoptée par toutes les grandes entreprises d'IA telles qu'OpenAI.
Pour résoudre ce problème, OpenAI a choisi de créer des données à partir de zéro. Il recrute des personnes pour écrire de nouveaux codes logiciels ou résoudre des problèmes mathématiques afin qu'Orion puisse en tirer des enseignements. « Nous transférons l'intelligence humaine de l'esprit humain à l'esprit de la machine », affirme Jonathan Siddharth, PDG et cofondateur de Turing, une société d'infrastructure d'IA qui travaille avec OpenAI, Meta et d'autres.
Selon les dirigeants de Turing, dans le cadre d'une formation à l'IA, un ingénieur logiciel peut être invité à écrire un programme qui résout efficacement un problème de logique complexe. Un mathématicien pourrait avoir à calculer la hauteur maximale d'une pyramide construite à partir d'un million de ballons de basket. Les réponses - et, plus important encore, la manière de les obtenir - sont ensuite intégrées dans le matériel de formation du modèle d'IA.
OpenAI s'appuie sur des données synthétiques en dépit des risques
OpenAI a également commencé à développer ce que l'on appelle des données synthétiques, c'est-à-dire des données créées par l'IA, afin de contribuer à l'entraînement d'Orion. Mais la boucle de rétroaction de l'IA créant des données pour l'IA peut souvent entraîner des dysfonctionnements ou des réponses absurdes. Les scientifiques d'OpenAI pensent pouvoir éviter ces problèmes en utilisant les données générées par un autre de ses modèles d'IA, appelé o1.
Les difficultés d'OpenAI ont été exacerbées par des troubles internes et des tentatives quasi constantes de ses rivaux de débaucher ses meilleurs chercheurs, parfois en leur offrant des millions de dollars. De nombreux cadres de haut niveau ont quitté OpenAI ces derniers mois, notamment Ilya Sutskever, cofondateur et ancien scientifique en chef d'OpenAI, et Mira Murati, responsable de la technologie. Ce qui a affecté la capacité de la startup à innover rapidement.
Au total, plus d'une vingtaine de cadres, de chercheurs et d'employés de longue date ont quitté OpenAI cette année. Ces départs sont intervenus après le licenciement brusque de Sam Altman par l'ancien conseil d'administration d'OpenAI. Après cela, de nombreux observateurs se sont interrogés sur la pérennité de l'entreprise. Sam Altman a été rapidement rétabli dans ses fonctions de PDG et a entrepris de remanier la structure de gouvernance d'OpenAI.
Récemment, Alec Radford, un chercheur très admiré qui a été l'auteur principal de plusieurs articles scientifiques d'OpenAI, a annoncé son départ après environ huit ans au sein de l'entreprise. Si OpenAI ralentit, il y a beaucoup de concurrents qui attendent impatiemment leur chance de prendre sa place dans le monde de l'IA et d'investir les capitaux nécessaires pour rivaliser. Parmi ses principaux concurrents figure Anthropic, créateur du modèle Claude.
Des chercheurs pensent que les progrès de l'IA se heurtent à un mur
Les problèmes rencontrés par OpenAI lors du développement de son modèle Orion ont montré à certains membres de l'entreprise que la stratégie « plus c'est gros, mieux c'est », qui avait été à l'origine de la plupart de ses succès antérieurs, est en train de s'essouffler. Les progrès rapides constatés après l'avènement de ChatGPT en 2022 ont considérablement ralenti. OpenAI n'est pas la seule entreprise à s'inquiéter du fait que les progrès se heurtent à un mur.
Dans l'ensemble du secteur, le débat fait rage sur la question de savoir si l'amélioration des IA commence à plafonner. Ilya Sutskever a déclaré lors d'une récente conférence sur l'IA que l'ère des données massives est révolue. « Les données n'augmentent pas parce que nous n'avons qu'un seul Internet. On peut même aller jusqu'à dire que les données sont le carburant fossile de l'IA », a déclaré Ilya Sutskever devant un parterre d'experts et de scientifiques.
Au début de l'année 2024, OpenAI commençait à ressentir la pression. GPT-4 avait déjà un an et les rivaux commençaient à rattraper leur retard. Un modèle d'Anthropic a été jugé meilleur que GPT-4 par de nombreux acteurs du secteur. Quelques mois plus tard, Google a lancé la nouvelle application d'IA la plus virale de l'année, appelée NotebookLM. Alors qu'Orion était au point mort, OpenAI a commencé à développer d'autres projets et applications.
Il s'agit notamment de versions allégées de GPT-4 et de Sora, un produit capable de produire des vidéos à partir d'invites textuelles. Selon des personnes au fait du dossier, cela a conduit à une lutte pour des ressources informatiques limitées entre les équipes travaillant sur les nouveaux produits et les chercheurs d'Orion.
L'échec cuisant des modèles d'IA générative axés sur le raisonnement
Les difficultés rencontrées sur Orion ont conduit les chercheurs de l'OpenAI à adopter une nouvelle approche pour rendre les modèles plus intelligents : le raisonnement. Selon les chercheurs, le fait de passer beaucoup de temps à « réfléchir » pourrait permettre aux modèles de résoudre des problèmes difficiles pour lesquels ils n'ont pas été formés. En coulisses, o1 d'OpenAI propose plusieurs réponses à chaque question et les analyse pour trouver la meilleure.
Il peut effectuer des tâches plus complexes, comme la rédaction d'un plan d'affaires ou la création d'une grille de mots croisés, tout en expliquant son raisonnement, ce qui permet au modèle d'apprendre un peu de chaque réponse. Cependant, des chercheurs d'Apple ont récemment publié un article dans lequel ils affirment que les modèles axés sur le raisonnement, y compris les versions d'o1, sont loin d'être d'avoir atteint les performances promises.
Les chercheurs d'Apple ont déclaré avoir constaté une « chute catastrophique des performances » lorsque les questions étaient modifiées pour inclure des détails non pertinents, par exemple en modifiant un problème de mathématiques sur les kiwis pour indiquer que certains fruits étaient plus petits que d'autres.
En septembre 2024, OpenAI a lancé un aperçu de son modèle de raisonnement o1 et a publié la version complète de o1 au début de ce mois. Mais toute cette matière grise supplémentaire coûte cher. OpenAI paie désormais pour générer plusieurs réponses à une même requête, au lieu d'une seule.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des défis rencontrés par OpenAI dans le cadre du développement de GPT-5 ?
Les progrès de l'IA générative semblent se heurter à un mur. Qu'en pensez-vous ?
Les lois actuelles de mise à l'échelle peuvent-elles encore permettre à l'industrie de développer des modèles d'IA plus performants ?
Voir aussi
Le directeur technique de Microsoft affirme que les lois de mise à l'échelle des LLM continueront à stimuler les progrès de l'IA, réfutant les déclarations selon lesquelles les LLM ont atteint un plateau
« GPT-5 sera plus intelligent, plus rapide, plus polyvalent et meilleur dans toutes les tâches que GPT-4 », affirme Sam Altman qui appelle une nouvelle fois à une réglementation mondiale sur l'IA
Le PDG d'OpenAI estime que l'approche actuelle de l'IA va bientôt atteindre ses limites, la mise à l'échelle des modèles LLM cessera d'apporter des améliorations à l'IA, selon lui
Partager