IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 846
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 846
    Par défaut La transformation d'OpenAI en une véritable entreprise à but lucratif est en train de la déchirer
    La transformation d'OpenAI en une véritable entreprise à but lucratif est en train de la déchirer :
    Mira Murati, directrice technique, Bob McGrew et Barret Zoph, directeur et vice-président de la recherche, quittent le navire

    OpenAI, une organisation pionnière dans le domaine de l’intelligence artificielle (IA), est actuellement au cœur d’une transformation majeure. Initialement fondée en tant qu’entité à but non lucratif avec pour mission de garantir que l’IA profite à toute l’humanité, OpenAI a récemment adopté un modèle commercial pour financer ses recherches et ses développements coûteux. Cette transition a engendré des tensions internes significatives, mettant en lumière les défis de concilier innovation technologique, éthique et rentabilité.

    OpenAI a lancé ChatGPT en novembre 2022. L'assistant d'IA a rapidement gagné en popularité, dépassant les 100 millions d'utilisateurs hebdomadaires. L'entreprise d'intelligence artificielle, basée aux États-Unis, a annoncé le 18 juillet le lancement d'un nouveau modèle d'IA générative, baptisé « GPT-4o Mini ». Puis, elle a proposé un modèle d'IA capable d'un raisonnement avancé, surpassant les capacités de GPT-4o. Le nouveau modèle, baptisé « Strawberry » en interne, peut décomposer des problèmes complexes en étapes logiques plus petites.

    Toutefois, OpenAI gère une entreprise coûteuse qui pourrait perdre jusqu'à 5 milliards de dollars en 2024, ce qui mettrait le fabricant de ChatGPT à court de liquidités dans les 12 mois à venir, selon une analyse de The Information.

    Selon le rapport, qui cite des données financières précédemment non divulguées et des personnes familières avec l'entreprise, OpenAI est sur la bonne voie pour dépenser quelque 7 milliards de dollars uniquement pour la formation de ses modèles d'intelligence artificielle, et 1,5 milliard de dollars supplémentaires pour la dotation en personnel. Ces dépenses dépassent de loin celles de ses rivaux, comme Anthropic, soutenu par Amazon, qui prévoit un taux d'absorption de 2,7 milliards de dollars en 2024.

    Les dépenses élevées d'OpenAI pourraient obliger l'entreprise à conclure un nouveau cycle de financement dans les 12 mois pour renforcer son bilan, selon le rapport. OpenAI a déjà réalisé sept tours de financement, levant plus de 11 milliards de dollars, selon les données de Tracxn - le plus récent étant un tour privé avec ARK Investment Management en avril pour une somme non divulguée.

    Nom : open.png
Affichages : 16068
Taille : 60,8 Ko

    Les départs de haut niveau

    En moins de deux ans, OpenAI est passé d'un laboratoire à but non lucratif peu connu travaillant sur une technologie obscure à une entreprise de renommée mondiale dont le directeur général est le visage de la révolution de l'intelligence artificielle.

    Ce changement est en train de déchirer l'entreprise.

    Mercredi, le directeur de la technologie d'OpenAI est devenu le dernier cadre de haut niveau à annoncer son départ, alors que l'entreprise se prépare à devenir une société à but lucratif. Ces départs sont l'expression publique de tensions qui n'ont cessé de croître au sein de l'entreprise à l'origine de ChatGPT depuis le retour du PDG Sam Altman, après sa brève éviction l'année dernière.

    Certaines tensions sont liées à des conflits entre la mission initiale de l'OpenAI, qui consiste à développer l'IA pour le bien public, et de nouvelles initiatives visant à déployer des produits lucratifs. D'autres sont liées au chaos et aux querelles intestines entre les cadres, dignes d'un feuilleton.

    Mira Murati, directrice technique, est l'une des 20 chercheurs et cadres d'OpenAI qui ont quitté l'entreprise cette année, y compris plusieurs cofondateurs d'Altman. Elle a annoncé son départ de l'entreprise en même temps que Bob McGrew, directeur de la recherche de l'entreprise, et Barret Zoph, vice-président de la recherche. Avec ces départs, Sam Altman et Wojciech Zaremba sont alors les seuls cofondateurs restants de l'équipe initiale (de 11 personnes).

    Près de la moitié du personnel chargé de la sécurité de l'IAG (Intelligence Artificielle Générale) a quitté l'entreprise, selon Daniel Kokotajlo, un ancien chercheur en gouvernance chez OpenAI


    Les tensions internes

    Les tensions internes sont exacerbées par des lancements de produits précipités et des tests de sécurité jugés insuffisants par certains membres du personnel ainsi que des anciens employés. Ces pratiques ont suscité des inquiétudes quant à la capacité d’OpenAI à maintenir son avantage technologique tout en respectant ses principes éthiques. Certains employés estiment que la pression pour commercialiser rapidement les produits a conduit à des compromis sur la qualité et la sécurité.

    Le rôle de Sam Altman

    Sam Altman, le PDG d’OpenAI, a été critiqué pour son éloignement des opérations quotidiennes en raison de ses efforts de promotion mondiale. Cette situation a contribué à un sentiment de déconnexion entre la direction et les employés (une caractérisation que l'entreprise conteste) alors qu'il sillonnait le monde pour promouvoir l'IA et son projet de réunir d'énormes sommes d'argent pour construire des puces et des centres de données permettant à l'IA de fonctionner. Cette situation aurait aggravé les tensions internes. Altman, bien qu’il soit un fervent défenseur de la mission d’OpenAI, doit jongler entre les attentes des investisseurs et les préoccupations des employés.

    Depuis son retour, OpenAI s'est également transformée en une entreprise plus normale, comme l'a décrit Altman. L'entreprise, dont le nombre d'employés est passé de 770 en novembre dernier à 1 700, a nommé cette année son premier directeur financier et son premier directeur des produits. Elle a ajouté à son conseil d'administration des personnes ayant une expérience de l'entreprise et de l'armée. Elle cherche à lever 6,5 milliards de dollars auprès de bailleurs de fonds tels que Microsoft, Apple et Nvidia.

    Nom : leave.png
Affichages : 4512
Taille : 462,4 Ko

    Les défis de la commercialisation

    La commercialisation d’OpenAI pose plusieurs défis. D’une part, il y a la nécessité de générer des revenus pour financer la recherche et le développement. D’autre part, il y a le risque de compromettre les valeurs éthiques de l’organisation. Trouver un équilibre entre ces deux impératifs est crucial pour l’avenir d’OpenAI. La pression pour commercialiser rapidement les produits peut conduire à des décisions hâtives qui pourraient nuire à la réputation de l’organisation et à la confiance du public.

    OpenAI se concentre de plus en plus sur le développement de ses offres de produits, ce qui, selon certains employés de longue date, détourne l'attention de la recherche pure.

    Certains membres de l'entreprise estiment que de tels développements sont nécessaires pour qu'OpenAI soit financièrement viable, compte tenu des milliards de dollars que coûtent le développement et l'exploitation des modèles d'IA. Ils affirment également que l'IA doit dépasser le stade du laboratoire et entrer dans le monde pour changer la vie des gens.

    D'autres, y compris des scientifiques spécialisés dans l'IA qui travaillent pour l'entreprise depuis des années, estiment que l'injection de liquidités et la perspective de profits massifs ont corrompu la culture d'OpenAI.

    Une chose sur laquelle presque tout le monde s'accorde est que le fait de maintenir au sein de la même organisation une opération de recherche axée sur la mission et une entreprise à croissance rapide a entraîné des difficultés de croissance.

    « Il est difficile de faire les deux en même temps : la culture du produit d'abord est très différente de la culture de la recherche », a déclaré Tim Shi, un des premiers employés d'OpenAI qui est aujourd'hui directeur de la technologie de la startup d'IA Cresta. « Vous devez attirer différents types de talents. Et peut-être que vous construisez un type d'entreprise différent ».


    L'entreprise continue de perdre des milliards par an, malgré une augmentation de son chiffre d'affaires

    Altman était à Turin, en Italie, où se sont déroulés les événements de cette semaine, à l'occasion de l'Italian Tech Week. Lors d'une discussion au coin du feu jeudi, il a nié que les départs d'employés étaient liés aux plans de restructuration et a déclaré : « Je pense que ce sera, je l'espère, une grande transition pour toutes les personnes impliquées, et j'espère qu'OpenAI en sortira plus forte, comme nous le sommes pour toutes nos transitions ».

    Le directeur financier d'OpenAI a envoyé une lettre aux investisseurs jeudi, indiquant que l'entreprise était en bonne voie pour clôturer son cycle de financement d'ici la semaine prochaine, et qu'elle organiserait ensuite une série d'appels pour leur présenter les principaux dirigeants de ses équipes de produits et de recherche.

    L'accent mis par OpenAI sur l'amélioration constante de ChatGPT et d'autres produits a porté ses fruits. Son chiffre d'affaires annualisé - une projection des recettes annuelles basée sur les résultats récents - a récemment atteint environ 4 milliards de dollars, soit plus du triple par rapport à la même période l'année dernière. Cependant, l'entreprise continue de perdre des milliards par an.

    La poursuite de sa croissance dépendra du maintien de son avance technologique. Le prochain modèle fondamental de l'entreprise, le GPT-5, qui devrait constituer une avancée majeure dans son développement, a connu des revers et des retards. Entre-temps, des entreprises concurrentes ont lancé des modèles d'IA à peu près équivalents à ceux proposés par OpenAI. Deux d'entre elles, Anthropic et xAI d'Elon Musk, ont été lancées par d'anciens dirigeants d'OpenAI.

    L'intensification de la concurrence a frustré les chercheurs qui appréciaient de travailler pour OpenAI parce qu'elle était perçue comme le leader dans ce domaine.

    Conclusion

    La transformation d’OpenAI en une entreprise commerciale est un processus complexe et délicat. Les défis rencontrés par l’organisation soulignent l’importance de trouver un équilibre entre la recherche de profits et le maintien des valeurs éthiques. L’avenir d’OpenAI dépendra de sa capacité à naviguer ces eaux tumultueuses tout en restant fidèle à sa mission initiale. Les décisions prises aujourd’hui auront un impact durable sur la direction future de l’organisation et sur la manière dont elle sera perçue par le public et ses pairs dans l’industrie technologique.

    Source : vidéo dans le texte

    Et vous ?

    Pensez-vous que la commercialisation d’OpenAI pourrait freiner ou accélérer l’innovation en intelligence artificielle ? Pourquoi ?
    Comment OpenAI peut-elle équilibrer la recherche de profits avec le maintien de pratiques éthiques en IA ?
    Quel rôle les investisseurs devraient-ils jouer dans la direction stratégique d’OpenAI ? Devraient-ils avoir plus ou moins d’influence ?
    Comment OpenAI pourrait-elle améliorer la transparence et la communication interne pour réduire les tensions ?
    Connaissez-vous d’autres entreprises technologiques qui ont réussi ou échoué dans une transition similaire ? Quels enseignements OpenAI pourrait-elle tirer de ces exemples ?
    Quels pourraient être les effets à long terme de cette transformation sur la culture d’entreprise et la satisfaction des employés chez OpenAI ?
    Quelle devrait être la vision à long terme d’OpenAI pour rester fidèle à sa mission tout en étant commercialement viable ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre actif
    Homme Profil pro
    Chômeur inutile
    Inscrit en
    Juillet 2012
    Messages
    96
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Chômeur inutile
    Secteur : Industrie

    Informations forums :
    Inscription : Juillet 2012
    Messages : 96
    Par défaut
    Quand l'IA et les ordinateurs quantiques se rencontreront...

    Pas besoin d'en dire plus

  3. #3
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 714
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 714
    Par défaut Sam Altman présente quatre mises à jour majeures de l'IA lors du DevDay d'OpenAI à San Francisco
    Sam Altman présente quatre mises à jour majeures de l'IA lors du DevDay d'OpenAI à San Francisco : Realtime API, Prompt Caching, Model Distillation et Vision fine-tuning.

    OpenAI fait l'objet de changements majeurs : la société a annoncé quatre mises à jour lors de son DevDay à San Francisco le 1er octobre 2024. Parmi les mises à jour : Realtime API offre des capacités de synthèse vocale rapides, Prompt Caching réduit les coûts et la latence. Vision fine-tuning permet aux développeurs d'affiner GPT-4o avec des images, disponible pour les utilisateurs payants.

    Des rapports ont révélé qu'OpenAI, le fabricant de ChatGPT, travaillerait sur un plan de restructuration de son activité principale en une société à but lucratif qui ne sera plus contrôlée par son conseil d'administration à but non lucratif. L'organisation à but non lucratif OpenAI continuera d'exister et détiendra "une participation minoritaire dans la nouvelle société à but lucratif". Il s'agirait du premier changement majeur pour la startup qui mène actuellement la course à l'IA. Cette décision pourrait également avoir des conséquences sur la manière dont l'entreprise gère les risques liés à l'IA dans le cadre d'une nouvelle structure de gouvernance.

    Debut octobre 2024, OpenAI a annoncé quatre mises à jour : Realtime API, Prompt Caching, Model Distillation et Fine-tuning. L'équipe a fait en sorte que les nouveaux ajouts soient visibles et utilisables dès la date d'annonce, et que certains fassent l'objet d'ajustements supplémentaires une fois les commentaires recueillis.

    Realtime API

    L'une des mises à jour les plus importantes d'OpenAI est "Realtime API", qui offre aux développeurs la possibilité de "créer des expériences de synthèse vocale rapides dans leurs applications". La version bêta publique de l'API a été lancée et a été décrite comme étant similaire au modèle vocal avancé de ChatGPT. Elle permettra à "tous les développeurs payants de créer des expériences multimodales à faible latence dans leurs applications".

    L'entrée et la sortie audio dans l'API Chat Completions ont été introduites pour prendre en charge les cas d'utilisation qui ne nécessitent pas les avantages de l'API Realtime en termes de faible latence. Cela signifie que les développeurs peuvent désormais transmettre n'importe quel texte ou entrée audio à GPT-4o et le modèle répondra avec leur choix de texte, d'audio ou des deux. Auparavant, la création d'une expérience d'assistant vocal similaire aurait nécessité plusieurs étapes, y compris l'utilisation d'un autre modèle.

    Prompt Caching

    Pour aider davantage les concepteurs d'applications d'IA, la fonction "Prompt Caching" (Mise en cache des invites) a été annoncée afin de réduire les coûts et la latence. "En utilisant des jetons d'entrée récemment vus, les développeurs peuvent bénéficier d'une réduction de 50 % et d'un traitement plus rapide des invites", selon un communiqué interne d'OpenAI. Cette mesure a été appliquée automatiquement aux dernières versions de GPT-4o, GPT-4o mini, o1 preview et o1-mini, ainsi qu'aux versions affinées des modèles.

    Model Distillation

    La nouvelle fonctionnalité "Model Distillation" (Distillation de modèle) vise à fournir un flux de travail intégré qui peut aider à gérer l'ensemble du pipeline de distillation directement au sein de la plateforme OpenAI. "Cela permet aux développeurs d'utiliser facilement les résultats des modèles d'avant-garde comme o1-preview et GPT-4o pour affiner et améliorer les performances des modèles plus rentables comme GPT-4o mini".

    Avant cette introduction, la distillation nécessitait de nombreuses étapes manuelles, alors que cette nouvelle fonctionnalité devrait être beaucoup plus facile et rapide. La suite complète comprend les complétions stockées, les évaluations et la mise au point, qui ont toutes été rendues disponibles lors de l'annonce.

    Vision fine-tuning

    OpenAI a mis en œuvre le réglage fin sur GPT-4o précédemment, qui a été utilisé par "des centaines de milliers de développeurs", mais l'équipe affirme que sa nouvelle mise à jour "vision fine-tuning" (réglage fin par vision) permettra désormais de régler finement les images, ainsi que le texte. La version image fonctionne de la même manière que la version texte, les développeurs pouvant préparer leurs ensembles de données d'images en respectant le format approprié, puis les télécharger sur la plateforme.

    Cette version ne sera utilisable que pour les utilisateurs payants et est prise en charge par la dernière version du modèle GPT-4o.


    Si ces nouvelles fonctionnalités semblent intéressantes, elles arrivent dans un contexte chaotique pour OpenAI. Outre le changement de structure de l'entreprise, les démissions sur les postes clés commencent à s'accroitre. Fin septembre 2024, ce sont le directeur de la technologie, directeur de la recherche et vice-président de la recherche d'OpenAI qui ont annoncé leurs départs. Des 11 personnes de l'équipe initiale des cofondateurs, ils ne sont plus que deux dans l'entreprise, notamment Sam Altman, PDG actuel de l'entreprise.

    Ces départs sont l'expression publique de tensions qui n'ont cessé de croître au sein de l'entreprise à l'origine de ChatGPT depuis le retour du PDG Sam Altman, après sa brève éviction en 2023. Cette situation suscite des inquiétudes sur la sécurité de l'IA au sein de la communauté, qui se demande si le laboratoire dispose toujours d'une gouvernance suffisante pour se tenir responsable dans sa poursuite de l'AGI. Elle met également en lumière les défis de concilier innovation technologique, éthique et rentabilité.

    Et vous ?

    Que pensez-vous de ces nouvelles fonctionnalités ?

    Voir aussi :

    OpenAI a annoncé qu'elle donnait aux développeurs tiers l'accès à son moteur de synthèse vocale qui alimente le mode vocal avancé de ChatGPT

    OpenAI lance des modèles d'IA dotés de capacités de « raisonnement » semblables à celles d'une personne. Les modèles « Strawberry » peuvent décomposer des problèmes complexes en étapes logiques plus petites

    Edward Snowden : « ils ont tombé le masque : ne faites jamais confiance à OpenAI ou à ses produits ». Le lanceur d'alerte dénonce la décision d'OpenAI de nommer un ancien directeur de la NSA à son conseil
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #4
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 708
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 708
    Par défaut OpenAI veut se défendre contre les OPA hostiles et protéger Sam Altman contre toute ingérence extérieure
    La transformation d'OpenAI en une entité à but lucratif vise à protéger l'entreprise contre les OPA hostiles et le PDG Sam Altman de toute ingérence extérieure
    selon un rapport

    Un nouveau rapport souligne qu'OpenAI poursuit ses réflexions sur sa restructuration en une entité à but lucratif malgré la déchirure causée par cette initiative au sein de l'entreprise. Il indique que la décision d'OpenAI d'abandonner ses racines non lucratives pourrait permettre de protéger la startup contre les OPA hostiles et le PDG Sam Altman de toute ingérence extérieure. Si la démarche est finalisée, l'entité à but non lucratif qui a supervisé OpenAI depuis sa création en 2015 continuera d'exister, mais elle ne contrôlera plus les opérations de l'entreprise ni les décisions prises par Sam Altman, qui deviendra le seul maître à bord. Une idée qui déchire l'entreprise.

    OpenAI veut protéger son PDG Sam Altman contre toute ingérence extérieure

    La nouvelle a fait l'objet de fuite pour la première fois en septembre 2024 : OpenAI veut s'affranchir du contrôle de son organisation mère à but non lucratif. Le conseil d'administration d'OpenAI envisage de se restructurer en « société d'intérêt public », une structure inhabituelle qui permettrait à ses dirigeants de prendre en compte à la fois l'impact sociétal et le profit lors de la prise de décision. Des rivaux comme xAI d'Elon Musk et Anthropic, soutenue par Amazon, utilisent cette structure. Un récent rapport indique que le projet s'accélère et qu'il devrait permettre au PDG Sam Altman d'asseoir davantage son pouvoir.


    Cette restructuration viserait à donner à OpenAI les moyens de se défendre contre les OPA (offre publique d'achat) hostiles et protéger le PDG Sam Altman de toute ingérence extérieure. Selon des sources au fait des plans d'OpenAI, cette restructuration permettrait à OpenAI d'adopter « une approche multidimensionnelle des obligations fiduciaires » et « une sphère de sécurité contre tout investisseur activiste ou toute tentative de contestation de Sam Altman ».

    « Cette approche multidimensionnelle des obligations fiduciaires d'une entreprise donnerait à OpenAI une sphère de sécurité permettant de repousser les activistes qui pourraient prétendre que la société ne gagne pas assez d'argent. Cela vous donne encore plus de flexibilité pour dire : merci d'avoir appelé et passez une bonne journée », ont expliqué les sources. D'un autre côté, cette structure rendrait OpenAI plus attrayant aux yeux des potentiels investisseurs.

    Début octobre 2024, OpenAI a levé environ 6,6 milliards de dollars lors d'une levée de fonds qui a valorisé l'entreprise à 157 milliards de dollars. Et ce malgré le fait que l'entreprise a brûlé ses liquidités à un rythme effréné tout en développant ses prochains modèles d'IA. Selon une analyse de The Information, OpenAI pourrait perdre jusqu'à 5 milliards de dollars en 2024. Cette levée de fonds devrait permettre à OpenAI de faire à face à ses difficultés financières.

    En d'autres termes, sa nouvelle structure lui permettrait de continuer à attirer des investisseurs et d'obtenir les capitaux dont il a besoin pour affronter des rivaux bien financés tels que Google et supporter les coûts associés à la construction de puissants modèles d'IA.

    Sam Altman veut rester seul maître à bord après son renvoi inopiné en 2023

    Outre les problèmes de liquidité, OpenAI a également traversé une période tumultueuse à la fin de l'année dernière. En novembre 2023, Sam Altman a été brusquement renvoyé par le conseil d'administration de l'organisation à but non lucratif. La nouvelle a pris toute l'industrie de court et a mis en lumière les nombreux désaccords internes. Les raisons réelles de son renvoi ne sont toujours pas claires à la date d'aujourd'hui. Sam Altman est redevenu le PDG d'OpenAI en l'espace de quelques jours, à la suite de négociations qui ont vu la démission de la quasi-totalité des membres du conseil d'administration précédent.


    Entre-temps, Elon Musk, qui a cofondé et aidé à financer OpenAI en 2015, poursuit l'entreprise pour avoir prétendument abandonné sa mission initiale, qui était de bénéficier à l'humanité, en acceptant un partenariat de plusieurs milliards de dollars avec Microsoft. Elon Musk estime qu'OpenAI a rompu non seulement ses accords contractuels initiaux, mais est également devenu de facto une filiale de Microsoft et s'est lancé dans une course effrénée aux profits.

    Les sources au fait des réflexions sur le projet de restructuration ont déclaré au Financial Times qu'aucune décision n'a été prise et que la restructuration prendrait probablement du temps. Une fois la restructuration terminée, OpenAI deviendra « une société d'intérêt public » (public benefit corporation - PBC). L'organisation à but non lucratif, quant à elle, continuera d'exister, mais elle n'exercera plus de contrôle sur les actions de la nouvelle société à but lucratif.

    En outre, l'entité à but non lucratif, qui obtiendrait une participation minoritaire dans la nouvelle société à but lucratif, ne devrait pas être dirigée par Sam Altman. « OpenAI veut conserver cette licence sociétale, avec une mission et un devoir, tout en créant une technologie de pointe », a déclaré au Financial Times une source familière au projet. OpenAI envisagerait de donner au PDG Sam Altman une participation de 7 % dans la nouvelle société à but lucratif.

    Les informations sur une restructuration d'OpenAI sont apparues le mois dernier, le jour même où Mira Murati, directrice de la technologie, et deux autres cadres supérieurs ont démissionné de leur poste. Ces départs sont les derniers d'une longue série de cadres supérieurs d'OpenAI qui ont démissionné ou pris des congés prolongés depuis le début de l'année. Les démissions se sont multipliées depuis le retour de Sam Altman après son renvoi l'automne dernier.

    Qu'est-ce que le modèle PBC qui séduit de plus en plus les entreprises d'IA ?

    Le modèle PBC serait relativement nouveau. Le Delaware, où la plupart des sociétés PBC sont constituées, n'a adopté une législation sur les PBC qu'en 2013 et a ensuite modifié les dispositions en 2020 pour rendre la structure plus attrayante. Sur les milliers de sociétés cotées en bourse aux États-Unis, moins de 20 sont des PBC. Il s'agit notamment de Warby Parker, Black Rifle Coffee et Veeva Systems. Toutefois, les sociétés d'IA se sont révélées populaires. Anthropic, le fabricant du chatbot d'IA Claude, et xAI, la nouvelle startup d'IA d'Elon Musk, sont tous deux des PBC. Il offrirait plusieurs avantages aux fondateurs.

    Une personne proche de xAI a déclaré que cela signifie que la probabilité d'être poursuivi en justice était réduite si la société n'agissait pas conformément aux intérêts des actionnaires. Et la protection contre l'activisme, notamment les OPA hostiles, offerte par le modèle PBC a déjà été soulignée par d'autres groupes. Le modèle PBC n'a pas été testé sérieusement devant les tribunaux et n'a pas fait l'objet d'un examen public comme cela a déjà été le cas pour l'IA.

    Lemonade, une compagnie d'assurance en ligne, a déclaré dans des documents réglementaires que « le modèle PBC pourrait potentiellement permettre à un conseil d'administration de rejeter plus facilement une offre hostile, même lorsque la prise de contrôle offrirait le meilleur rendement financier à court terme aux investisseurs ». Le modèle PBC envisagé par OpenAI suscite des préoccupations sur la manière dont l'entreprise gèrera les risques liés à l'IA.

    Des sénateurs américains se sont inquiétés de la menace que l'IA pourrait faire peser sur la sécurité publique et nationale. Selon les experts, si les dirigeants des entreprises d'IA étaient appelés à témoigner devant le Congrès au sujet de leurs activités, le modèle PBC pourrait donner aux entreprises un moyen de détourner les critiques. Cela pourrait les pousser à développer la technologie sans se soucier des questions de sécurité.

    Jens Dammann, professeur à la faculté de droit de l'université du Texas, a déclaré que le modèle PBC offrait « une plus grande marge de manœuvre » par rapport à l'obligation d'une entreprise traditionnelle de maximiser la richesse de ses actionnaires. « C'est un moyen pour la direction et les administrateurs en place de se retrancher », a-t-il déclaré. Selon les experts, le modèle PBC introduit de nouvelles préoccupations en matière de responsabilité des entreprises.

    « Si vous pouvez transmettre aux gens l'idée que vous êtes une bonne entreprise, une entreprise moralement sûre, et que vous êtes soumis à très peu de contraintes, cela doit être tentant pour les entrepreneurs », a-t-il ajouté. Des critiques ont déjà accusé Sam Altman de donner la priorité à la rapidité des progrès plutôt qu'à la sécurité. Il est accusé par les critiques d'avoir un style de direction agressif et dominateur.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du projet visant à restructurer OpenAI en une société à but lucratif ?
    Quels impacts une telle restructuration pourrait-elle avoir sur OpenAI et sur l'industrie en général ?
    Que pensez-vous du modèle d'entreprise PBC ? Quid des préoccupations qu'il pose en matière de responsabilité ?
    Avec le modèle PBC, les entreprises d'IA tentent-elles de fuir leur responsabilité dans le cas où la technologie tournerait mal ?
    Faut-il craindre que le modèle PBC devienne un équivalent de la section 230 de la Communications Decency Act pour les plateformes en ligne ?

    Voir aussi

    La transformation d'OpenAI en une véritable entreprise est en train de la déchirer : trois dirigeants démissionnent, tandis que des informations sur un changement potentiel de structure font surface

    OpenAI veut s'affranchir du contrôle exercé par son conseil d'administration à but non lucratif, se restructurer en une société à but lucratif et donner des parts au PDG Sam Altman, selon un rapport

    OpenAI pourrait perdre 5 milliards de dollars cette année et se retrouver à court de liquidités dans 12 mois, selon un rapport qui évoque ses dépenses colossales en formation des modèles d'IA et en rémunération

  5. #5
    Membre Expert
    Avatar de shenron666
    Homme Profil pro
    avancé
    Inscrit en
    Avril 2005
    Messages
    2 612
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 49
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : avancé

    Informations forums :
    Inscription : Avril 2005
    Messages : 2 612
    Par défaut
    OpenAI n'a plus rien d'Open, si tant est qu'elle ait eu un jour le moindre lien avec le côté Open
    Tutoriels OpenGL
    Je ne répondrai à aucune question en MP
    - Si c'est simple tu dis que c'est compliqué et tu le fait
    - Si c'est compliqué tu dis que c'est simple et tu le sous-traite ou le fait faire par un stagiaire.

  6. #6
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 846
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 846
    Par défaut Malgré la levée de fonds de 6,6 Mds $, OpenAI pourrait ne pas devenir rentable, estime Ed Zitron
    Malgré la levée de fonds de 6,6 milliards de dollars, OpenAI pourrait ne pas devenir rentable, estime Ed Zitron
    Qui note qu'en dépit de la couverture médiatique, OpenAI n'a réussi à convertir que 3 % de ses utilisateurs en clients payants

    OpenAI a récemment clôturé une nouvelle levée de fonds impressionnante de 6,6 milliards de dollars, portant sa valorisation à 157 milliards de dollars, soit près du double de son évaluation précédente de 86 milliards de dollars. Cette levée de fonds, l’une des plus importantes jamais réalisées dans le secteur privé, renforce la position d’OpenAI parmi les startups les plus valorisées au monde, aux côtés de SpaceX et ByteDance. Néanmoins, cela n'empêche pas Ed Zitron, critique fréquent de l'IA, d'estimer qu'OpenAI est une mauvaise entreprise, estimant qu'il y a « quelques raisons de s'inquiéter ».

    En 2015, OpenAI a été fondée avec une mission ambitieuse : développer une intelligence artificielle (IA) avancée tout en assurant que ses bénéfices soient partagés équitablement. Cependant, l'entreprise veut désormais s'affranchir du contrôle exercé par son conseil d'administration à but non lucratif, se restructurer en une société à but lucratif et donner des parts au PDG Sam Altman.

    Pour se faire, OpenAI a levé plus de 6,6 milliards de dollars et a atteint une valorisation de 157 milliards de dollars.

    Cette levée de fonds s’accompagne de conditions strictes. Au cours des négociations, la société a clairement indiqué qu'elle attendait un accord de financement exclusif, selon trois personnes ayant eu connaissance des discussions. OpenAI a demandé à ses investisseurs de ne pas soutenir les startups concurrentes, notamment xAI, la nouvelle entreprise d’Elon Musk. Cette stratégie vise à protéger les intérêts d’OpenAI et à maintenir son avance dans le domaine de l’IA.

    La recherche de relations exclusives avec les investisseurs limite l'accès des rivaux aux capitaux et aux partenariats stratégiques. La démarche du fabricant de ChatGPT risque d'attiser les tensions existantes avec ses concurrents, notamment Musk, qui poursuit OpenAI en justice.

    Pourtant, malgré cette réussite de tour de table, Ed Zitron estime qu'il y a « quelques raisons de s'inquiéter »

    Ci-dessous, un extrait de son billet :

    OpenAI perd de l'argent chaque fois que quelqu'un utilise son produit, et bien qu'elle puisse gagner de l'argent en vendant des abonnements premium, je doute fortement qu'elle fasse des bénéfices avec ces clients, et qu'elle perde certainement de l'argent avec tous les grands utilisateurs. Comme je l'ai déjà dit, je pense qu'une crise de l'IA subprime se prépare parce que les services API d'OpenAI - qui permettent aux gens d'intégrer ses différents modèles dans des produits externes - sont actuellement facturés à perte, et l'augmentation des prix rendra probablement ce produit non viable pour de nombreuses entreprises qui comptent actuellement sur ces tarifs réduits.

    Comme je l'ai déjà dit, OpenAI n'est pas rentable, n'est pas viable et n'est pas tenable dans sa forme actuelle, mais je pense qu'il est important d'expliquer exactement à quel point elle est intenable, et je vais commencer par quelques déclarations :
    • Pour qu'OpenAI atteigne un chiffre d'affaires de 11,6 milliards de dollars d'ici à la fin de 2025, elle devra plus que tripler ses revenus.
    • Au coût actuel des revenus, il en coûtera à l'OpenAI plus de 27 milliards de dollars pour atteindre cet objectif. Même en divisant ses coûts par deux, OpenAI perdra encore 2 milliards de dollars.
      • Cependant, les coûts d'OpenAI sont susceptibles d'augmenter, car (comme le note le New York Times) si cette entreprise croît de 300 %, il est très probable que la base d'utilisateurs gratuits de ChatGPT augmente en même temps, ce qui alourdira les coûts de l'entreprise.
      • Même une augmentation de 2 $ (la première hausse de prix attendue pour ChatGPT Plus, alors que l'entreprise s'apprête à facturer 44 $ par mois) et des hausses de prix similaires pour les plans Teams et Enterprise ne suffiront pas à endiguer le flux d'encre rouge sur son bilan.
      • La formation de GPT-4 - sans compter GPT-4o - a coûté 100 millions de dollars, et les futurs modèles plus complexes coûteront des centaines de millions, voire un milliard de dollars. The Information a également estimé en juillet que les coûts de formation d'OpenAI atteindraient 3 milliards de dollars en 2024.
    • OpenAI n'a rien eu de vraiment important depuis le lancement de GPT-3.5, et son récent modèle o-1 n'a pas été particulièrement impressionnant. Il sera également beaucoup plus coûteux à utiliser, car le « raisonnement » de la « chaîne de pensée » qu'il effectue nécessite un tas de calculs supplémentaires (une quantité indéterminée qu'OpenAI cache délibérément), et OpenAI n'arrive même pas à trouver un cas d'utilisation significatif.
    • Les produits d'OpenAI sont de plus en plus banalisés, Google, Meta, Amazon et même Microsoft construisant des modèles d'IA générative pour les concurrencer. Pire encore, ces modèles utilisent tous des données d'entraînement identiques (et elles commencent à manquer !), ce qui rend leurs résultats (et par extension leur technologie sous-jacente) de plus en plus similaires.
    • Les activités d'OpenAI dans le cloud - c'est-à-dire les autres entreprises qui connectent leurs services à l'API d'OpenAI - sont remarquablement petites, au point de suggérer des faiblesses dans l'industrie de l'IA générative dans son ensemble. Il est extrêmement inquiétant que le plus grand acteur du jeu ne gagne qu'un milliard de dollars (moins de 30 % de son chiffre d'affaires) en donnant accès à ses modèles.

    Et, fondamentalement, je ne trouve aucune preuve convaincante qui suggère qu'OpenAI sera en mesure de soutenir cette croissance. En fait, je ne trouve aucune comparaison historique et je pense que la croissance d'OpenAI est déjà en train de trébucher.


    Comment OpenAI gagne-t-elle de l'argent ?

    Selon le New York Times, OpenAI s'attend à ce que ChatGPT réalise un chiffre d'affaires d'environ 2,7 milliards de dollars en 2024, auquel s'ajoutera 1 milliard de dollars provenant « d'autres entreprises utilisant sa technologie ».

    Dans les détails

    ChatGPT Plus, Teams et Enterprise constituent 73 % du chiffre d'affaires (environ 2,7 milliards de dollars)
    • OpenAI vend l'accès à ChatGPT Plus aux consommateurs pour 20 dollars par mois, offrant des temps de réponse plus rapides, un « accès prioritaire aux nouvelles fonctionnalités » et un accès 24 heures sur 24 et 7 jours sur 7 aux modèles d'OpenAI, avec « 5 fois plus de messages pour GPT-4o », un accès à la génération d'images, à l'analyse de données et à la navigation sur le web. Il est important de noter qu'OpenAI peut utiliser tout ce que vous faites comme données d'entraînement, à moins que vous ne vous y opposiez explicitement.
    • OpenAI vend l'accès à une version « Teams » de ChatGPT Plus, un produit en libre-service qui vous permet de partager des chatbots entre les utilisateurs de l'équipe, au prix de 25 dollars par utilisateur et par mois si le paiement est annuel (soit 300 dollars par an et par utilisateur), et de 30 dollars par utilisateur et par mois si le paiement est mensuel. À partir de ce moment, vos données sont exclues par défaut de celles utilisées pour entraîner les modèles d'OpenAI.
    • OpenAI vend des abonnements « entreprise » qui comprennent une fenêtre contextuelle élargie pour des invites plus longues (ce qui signifie que vous pouvez donner des instructions plus détaillées), des contrôles administratifs, ainsi qu'une « assistance améliorée et une gestion de compte continue ».
      • On ne sait pas exactement combien cela coûte, mais un fil de discussion Reddit datant d'il y a un an suggère que c'est 60 dollars par utilisateur et par mois, avec un minimum de 150 sièges dans le cadre d'un contrat annuel.
      • Je n'en suis pas certain, mais il est probable qu'OpenAI propose une sorte de remise pour les gros clients qui achètent en volume, comme c'est le cas pour pratiquement toutes les entreprises SaaS. J'expliquerai mon raisonnement plus loin dans cet article.
      • En supposant que ce soit le cas, c'est mauvais pour OpenAI, car l'IA générative n'est pas un produit SaaS comme les autres. Les économies d'échelle ne fonctionnent pas vraiment ici, car servir chaque utilisateur a son propre coût (à savoir, la puissance du cloud computing utilisée pour répondre aux requêtes). Ce coût par utilisateur ne diminue pas au fur et à mesure que vous ajoutez des clients. Vous avez besoin de plus de serveurs. Plus de GPU.
      • Réduire les prix ne sert donc qu'à réduire les maigres marges existantes sur ces clients, ou à transformer ces clients potentiellement rentables en centres de pertes

    Nom : departs.png
Affichages : 7024
Taille : 455,5 Ko

    Octroi de licences d'accès aux modèles et aux services - 27 % des recettes (environ 1 milliard de dollars)
    • OpenAI gagne le reste de son argent en octroyant des licences d'accès à ses modèles et services via son API. L'une des choses que l'on remarque en consultant la page de tarification est la variété des modèles et des API disponibles, ainsi que la diversité des prix pratiqués.
    • OpenAI offre de nombreuses options : son modèle GPT-4o, le plus puissant ; le modèle GPT-4o-mini, moins puissant mais moins cher ; le modèle de « raisonnement » o1 (et son équivalent « mini ») ; une API « text embeddings » qui est utilisée principalement pour des tâches où vous voulez identifier des anomalies ou des relations dans un texte, ou classer des éléments dans un texte ; une « API d'assistants » pour intégrer des assistants dans une application (qui se connectent à leur tour à l'un des autres modèles, ce qui inclut des choses comme l'interprétation de code ou la recherche de fichiers) ; trois modèles différents de génération d'images ; trois modèles audio différents ; et un tas d'API et de modèles plus anciens.
    • Dans de nombreux cas, les clients peuvent obtenir une réduction de 50 % en utilisant l'API par lots. Cela permet de retarder l'achèvement des travaux de 24 heures et d'exiger que toutes les tâches soient soumises en un seul lot, plutôt qu'au fur et à mesure. Cela peut s'avérer utile lorsque l'on utilise GPT pour fouiller dans des masses de données.
      • Par exemple, en utilisant l'API par lots, le coût d'utilisation de GPT-4o passe de 5 $ pour 1 million de jetons d'entrée à 2,5 $, et de 15 $ pour 1 million de jetons de sortie à 7,5 $.
      • La tarification par lots n'est pas disponible pour o1-preview.
      • De plus, cette réduction n'est pas disponible lors de l'achat de jetons d'entraînement pour le réglage fin des modèles (bien que vous bénéficiez toujours de la même réduction pour les jetons d'entrée et de sortie).
      • La tarification par lots n'est pas disponible pour DALL-E, l'API Assistants ou les modèles audio.
      • Elle n'est pas non plus disponible pour GPT-3.5-turbo-instruct et le dernier modèle 4-o.
    • La tarification de ces produits est un peu confuse, comme c'est le cas pour pratiquement toutes les entreprises de cloud computing.
    • OpenAI gagne également environ 200 millions de dollars par an en vendant l'accès à ses modèles par l'intermédiaire de Microsoft, selon Bloomberg.
    • En conclusion, cela signifie qu'OpenAI gagne environ 800 millions de dollars par an en vendant directement l'accès à son API, auxquels s'ajoutent 200 millions de dollars provenant d'un canal externe.

    Le problème des recettes

    En l'état actuel des choses, OpenAI tire la majeure partie (plus de 70 %) de ses revenus de la vente d'un accès premium à ChatGPT.

    ChatGPT Plus compte 10 millions de clients, ce qui rapporte à OpenAI environ 2,4 milliards de dollars par an (dix millions d'utilisateurs dépensant 20 dollars par mois équivalent à 200 millions de dollars. Multipliez ce chiffre par 12 et vous obtiendrez 2,4 milliards de dollars). Cela signifie que les utilisateurs professionnels représentent un revenu d'environ 300 millions de dollars par an, soit 25 millions de dollars par mois.

    Pour être franc, c'est extrêmement mauvais. Il s'agit d'estimations, mais même si elles étaient doublées, ces chiffres ne seraient pas particulièrement enthousiasmants.

    Si 10 millions d'abonnés payants peuvent sembler beaucoup, « ChatGPT » est effectivement à l'IA générative ce que « Google » est à la recherche. Dix millions de personnes qui paient pour cela, c'est un enjeu de table.

    OpenAI a été couvert par pratiquement tous les médias, est mentionné dans presque toutes les conversations sur l'IA (même lorsqu'il ne s'agit pas d'IA générative !), et bénéficie du soutien et de la pression marketing de Microsoft et de l'ensemble de la Silicon Valley. ChatGPT compte plus de 200 millions d'utilisateurs hebdomadaires, et le New York Times rapporte que 350 millions de personnes utilisent les services [d'OpenAI] chaque mois depuis juin (bien qu'il ne soit pas clair si cela inclut ceux qui utilisent l'API). Collectivement, cela signifie qu'OpenAI - l'entreprise la plus populaire du secteur - ne peut convertir qu'environ 3 % de ses utilisateurs.

    Source : Edward Zitron

    Et vous ?

    Quelle lecture faites-vous de l'analyse d'Edward Zitron ?
    Que pensez-vous de ses calculs et de ses projections ?
    Partagez-vous son point de vue sur les difficultés rencontrées par OpenAI pour devenir rentable malgré ce tour de table ? Dans quelle mesure ?
    Comment pouvez-vous expliquer qu'OpenAI n'a réussi a convertir qu'environ 3 % de ses utilisateurs en clients payants malgré la couverture médiatique, les soutiens de taille comme Microsoft et sa popularité dans le secteur ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  7. #7
    Membre chevronné Avatar de der§en
    Homme Profil pro
    Chambord
    Inscrit en
    Septembre 2005
    Messages
    1 237
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Chambord
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Septembre 2005
    Messages : 1 237
    Par défaut
    Tant que les réponses ne seront pas plus fiables qu’actuellement, pourquoi payer ?

  8. #8
    Membre chevronné
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Septembre 2019
    Messages
    320
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Morbihan (Bretagne)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Septembre 2019
    Messages : 320
    Par défaut
    Je dirais que le minimum serait d'avoir un score d'évaluation de la fiabilité de la réponse. Et si l'IA est réellement intelligente, elle devrait pouvoir estimer qu'elle n'a pas assez de données pour répondre et dire "je ne sais pas" ou au moins "je ne suis pas sûr" comme un humain répondrait (sauf un politique).

  9. #9
    Membre prolifique Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 857
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 62
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 857
    Par défaut
    Citation Envoyé par d_d_v Voir le message
    Je dirais que le minimum serait d'avoir un score d'évaluation de la fiabilité de la réponse. Et si l'IA est réellement intelligente, elle devrait pouvoir estimer qu'elle n'a pas assez de données pour répondre et dire "je ne sais pas" ou au moins "je ne suis pas sûr" comme un humain répondrait (sauf un politique).
    Le problème c'est que dans Intelligence Artificielle, seul le second mot est exact, l'autre n'est qu'un fantasme

  10. #10
    Membre averti
    Homme Profil pro
    Conseil - Consultant en systèmes d'information
    Inscrit en
    Juin 2023
    Messages
    53
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Grèce

    Informations professionnelles :
    Activité : Conseil - Consultant en systèmes d'information
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Juin 2023
    Messages : 53
    Par défaut
    ça va très mal finir cette histoire. En plus les gars qui quittent le navire s'en vont créer / travailler pour des entreprises concurrentes. Avec la concurrence actuelle, quelle serait la plus-value objective qui encouragerait un gars à payer pour le service ?

  11. #11
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 846
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 846
    Par défaut Un ancien employé d'OpenAI affirme que l'entreprise enfreint la loi sur le droit d'auteur et détruit internet
    Un ancien employé d'OpenAI affirme que l'entreprise enfreint la loi sur le droit d'auteur et détruit l'internet.
    Selon lui, les sorties de ChatGPT ne respectent pas le standard « d'utilisation équitable »

    Un ancien chercheur d'OpenAI, Suchir Balaji, a récemment exprimé ses préoccupations concernant les pratiques commerciales de la société, affirmant que l'entreprise enfreint les lois sur le droit d'auteur américaines et détruit la viabilité commerciale des individus, des entreprises et des services Internet qui ont créé les données numériques utilisées pour entraîner ces systèmes d'IA. Balaji, qui a rejoint OpenAI en 2020 après avoir obtenu son diplôme à l'UC Berkeley, a travaillé sur le modèle GPT-4 avant de quitter l'entreprise cet été. Dans un essai publié sur son site personnel, il a tenté de démontrer combien d'informations protégées par des droits d'auteur de la base de données de formation d'un modèle d'IA se retrouvent finalement dans les sorties du modèle.

    Un ancien chercheur d'OpenAI s'est prononcé contre le modèle commercial de l'entreprise, en écrivant, dans un blog personnel, qu'il pense que l'entreprise ne respecte pas la loi américaine sur les droits d'auteur. Il fait partie des voix de plus en plus nombreuses qui considèrent que l'activité d'accaparement de données du géant de la technologie repose sur des bases juridiques fragiles (voire carrément illégitimes).

    « Si vous croyez ce que je crois, vous devez quitter l'entreprise », a récemment déclaré Suchir Balaji. Balaji, un diplômé de l'université de Berkeley âgé de 25 ans qui a rejoint OpenAI en 2020 et a ensuite travaillé sur GPT-4, a déclaré qu'il s'était d'abord intéressé à une carrière dans l'industrie de l'IA parce qu'il pensait que la technologie pouvait « être utilisée pour résoudre des problèmes insolubles, tels que la guérison des maladies et l'arrêt du vieillissement ». Balaji a travaillé pour OpenAI pendant quatre ans avant de quitter l'entreprise cet été. Désormais, Balaji affirme que la technologie est utilisée à des fins qu'il désapprouve et que les entreprises d'IA « détruisent la viabilité commerciale des individus, des entreprises et des services Internet qui ont créé les données numériques utilisées pour former ces systèmes d'IA ».

    Nom : copy.png
Affichages : 7889
Taille : 25,7 Ko

    Selon Balaji, les sorties de ChatGPT ne respectent pas le standard « d'utilisation équitable »

    Cette semaine, Balaji a publié un essai sur son site web personnel, où il analyse l'utilisation du « fair use » (utilisation équitable) par OpenAI dans l'entraînement de ses modèles d'IA, notamment ChatGPT. Dans cet essai, il tente de montrer « combien d'informations protégées par le droit d'auteur » provenant de l'ensemble de données d'entraînement d'un système d'IA « aboutissent en fin de compte dans les résultats d'un modèle ». Il précise également que bien que les modèles génératifs ne produisent pas souvent des sorties substantiellement similaires à leurs entrées de formation, le processus d'entraînement implique la copie de données protégées par des droits d'auteur.

    Bien que les modèles génératifs produisent rarement des résultats qui sont substantiellement similaires à l'un de leurs intrants d'apprentissage, le processus d'apprentissage d'un modèle génératif implique de faire des copies de données protégées par le droit d'auteur. Si ces copies ne sont pas autorisées, elles peuvent être considérées comme une violation des droits d'auteur, selon que l'utilisation spécifique du modèle peut ou non être qualifiée d'« usage loyal ». L'usage loyal étant déterminé au cas par cas, il n'est pas possible de faire une déclaration générale sur les cas où l'IA générative peut être qualifiée d'usage loyal. Au lieu de cela, je fournirai une analyse spécifique de l'utilisation par ChatGPT de ses données d'entraînement, mais le même modèle de base s'appliquera également à de nombreux autres produits d'IA générative.

    L'usage loyal est défini dans la section 107 du Copyright Act de 1976, que je cite textuellement ci-dessous :

    Nonobstant les dispositions des sections 106 et 106A, l'utilisation équitable d'une œuvre protégée par le droit d'auteur, y compris l'utilisation par reproduction dans des copies ou des enregistrements phonographiques ou par tout autre moyen spécifié par cette section, à des fins telles que la critique, le commentaire, le reportage, l'enseignement (y compris les copies multiples pour l'utilisation en classe), l'érudition ou la recherche, ne constitue pas une violation du droit d'auteur. Pour déterminer si l'utilisation faite d'une œuvre dans un cas particulier est un usage loyal, les facteurs à prendre en considération sont notamment les suivants
    1. le but et la nature de l'utilisation, y compris la question de savoir si cette utilisation est de nature commerciale ou si elle est faite à des fins éducatives non lucratives ;
    2. la nature de l'œuvre protégée par le droit d'auteur
    3. la quantité et le caractère substantiel de la partie utilisée par rapport à l'ensemble de l'œuvre protégée par le droit d'auteur ; et
    4. l'effet de l'utilisation sur le marché potentiel ou la valeur de l'œuvre protégée.

    Le fait qu'une œuvre ne soit pas publiée n'empêche pas en soi de conclure à l'existence d'un usage loyal si cette conclusion est tirée après examen de tous les facteurs susmentionnés.
    Le chercheur a abordé les quatre critères en commençant par le critère 4 et 1 (tendant à être les plus importants).

    Il a terminé en affirmant qu'OpenAI enfreint la législation sur le droit d'auteur. En clair, la conclusion de l'analyse de Balaji est que les résultats de ChatGPT ne répondent pas à la norme « d'utilisation équitable », la norme juridique qui permet l'utilisation limitée de matériel protégé par le droit d'auteur sans l'autorisation du détenteur du droit d'auteur.

    Balaji critique également la notion de « fair use » en affirmant qu'elle est déterminée au cas par cas et qu'aucune déclaration générale ne peut être faite sur le moment où l'IA générative qualifie pour « fair use ». Il propose une analyse spécifique de l'utilisation des données de formation de ChatGPT et suggère que la régulation plus stricte de l'industrie de l'IA pourrait être une solution aux problèmes juridiques actuels

    Pour lui, « le seul moyen de sortir de tout cela est la réglementation », a déclaré plus tard Balaji, en référence aux problèmes juridiques créés par le modèle commercial de l'IA.

    OpenAI n'est pas d'accord avec son point de vue

    OpenAI a répondu en affirmant que ses modèles d'IA sont construits à partir de données publiques disponibles et que cette pratique est protégée par le principe de "fair use" et des précédents juridiques largement acceptés : « Nous construisons nos modèles d'IA en utilisant des données accessibles au public, d'une manière protégée par l'utilisation équitable et les principes connexes, et soutenue par des précédents juridiques de longue date et largement acceptés. Nous considérons que ce principe est juste pour les créateurs, nécessaire pour les innovateurs et essentiel pour la compétitivité des États-Unis ».

    Cependant, il convient de noter que le New York Times poursuit actuellement OpenAI pour utilisation sans licence de son matériel protégé par le droit d'auteur. Le Times a affirmé que la société et son partenaire, Microsoft, avaient utilisé des millions d'articles de presse du journal pour entraîner son algorithme, qui a depuis cherché à rivaliser sur le même marché.

    Le journal n'est pas le seul. OpenAI est actuellement poursuivie par un large éventail de célébrités, d'artistes, d'auteurs et de codeurs, qui affirment tous avoir été spoliés de leur travail par les algorithmes d'extraction de données de l'entreprise. D'autres personnes ou organisations bien connues ont poursuivi OpenAI, notamment Sarah Silverman, Ta-Nahisi Coates, George R. R. Martin, Jonathan Franzen, John Grisham, le Center for Investigative Reporting, The Intercept, divers journaux (dont le Denver Post et le Chicago Tribune), et divers YouTubers, entre autres.

    Conclusion

    Les critiques de Balaji mettent en lumière un débat plus large sur l'utilisation de l'IA et les implications juridiques qui en découlent. Les arguments contre OpenAI reposent sur la notion que l'IA, en utilisant des œuvres protégées par des droits d'auteur sans autorisation explicite, compromet la justice économique et la créativité individuelle. En effet, si les créateurs ne sont pas compensés pour l'utilisation de leurs œuvres, cela pourrait décourager l'innovation et la création de nouvelles œuvres.

    D'un autre côté, les défenseurs d'OpenAI soutiennent que l'utilisation de données publiques pour entraîner des modèles d'IA est essentielle pour le progrès technologique et le développement de systèmes d'IA avancés. Ils affirment que le "fair use" est un cadre juridique suffisant pour équilibrer les intérêts des créateurs et ceux de la société en matière d'innovation.

    Source : Suchir Balaji

    Et vous ?

    Quelle est votre opinion sur l'utilisation du "fair use" dans le cadre de l'entraînement des modèles d'IA ? Pensez-vous que cela protège suffisamment les droits des créateurs ?
    Comment pensez-vous que les entreprises d'IA devraient compenser les créateurs dont les œuvres sont utilisées pour entraîner les modèles ?
    Croyez-vous que la régulation de l'industrie de l'IA est nécessaire pour protéger les droits d'auteur, ou cela pourrait-il freiner l'innovation ?
    Quels autres défis voyez-vous émerger de l'utilisation croissante de l'IA dans notre société ?
    Comment les entreprises technologiques peuvent-elles trouver un équilibre entre l'utilisation des données publiques pour l'innovation et la protection des droits de propriété intellectuelle ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  12. #12
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 714
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 714
    Par défaut L'ancien chercheur IA d'OpenAI Suchir Balaji, devenu lanceur d'alerte contre OpenAI, a été retrouvé mort
    L'ancien chercheur IA d'OpenAI Suchir Balaji, devenu lanceur d'alerte, a été retrouvé mort, après avoir accusé OpenAI de violer des droits d'auteur, Elon Musk a posté une réaction énigmatique.

    L'ancien chercheur d'OpenAI Suchir Balaji a été retrouvé mort. Il avait accusé OpenAI de violer des droits d'auteur pour former ChatGPT, fait que la société a semblé confirmer depuis longtemps. Si OpenAI s'est dit dévastée d'apprendre son décès, Elon Musk a posté une réaction énigmatique.

    En octobre 2024, Suchir Balaji, ancien chercheur IA chez OpenAI, a exprimé ses préoccupations concernant les pratiques commerciales de la société, affirmant que l'entreprise enfreint les lois sur le droit d'auteur américaines et détruit la viabilité commerciale des individus, des entreprises et des services Internet qui ont créé les données numériques utilisées pour entraîner ces systèmes d'IA.

    Suchir Balaji, qui a rejoint OpenAI en 2020 après avoir obtenu son diplôme à l'UC Berkeley, a travaillé sur le modèle GPT-4 avant de quitter l'entreprise. Dans un essai publié sur son site personnel, il a tenté de démontrer combien d'informations protégées par des droits d'auteur de la base de données de formation d'un modèle d'IA se retrouvent finalement dans les sorties du modèle.

    Malheureusement, le lanceur d'alerte âgé de 26 ans est mort à San Francisco le 26 novembre dans un suicide présumé, selon les autorités locales. La police de San Francisco a déclaré avoir trouvé Balaji mort à l'intérieur de son appartement de Buchanan Street après avoir été appelée pour un contrôle de bien-être vers 13 heures le 26 novembre. Le bureau du médecin légiste de San Francisco a déclaré que la cause du décès de Balaji était un suicide. En début de semaine, la police a déclaré qu'il n'y avait "actuellement aucune preuve d'un acte criminel".


    Suchir Balaji : d'ancien chercheur chez OpenAI à dénonciateur des pratiques de la société d'IA

    Balaji avait rejoint OpenAI en 2020 en tant que chercheur IA, mais en 2022, il était de plus en plus préoccupé par l'attitude de l'entreprise à l'égard de la législation sur le droit d'auteur. Dans un message publié le 23 octobre sur X, anciennement Twitter, il a déclaré : "J'ai été chez OpenAI pendant près de 4 ans et j'ai travaillé sur ChatGPT pendant les récentes 1 an et demi. Au départ, je ne connaissais pas grand-chose au droit d'auteur, à l'utilisation équitable, etc., mais je suis devenu curieux après avoir vu tous les procès intentés contre des entreprises de GenAI."

    "Lorsque j'ai essayé de mieux comprendre la question, je suis finalement arrivé à la conclusion que l'utilisation équitable semble être une défense assez peu plausible pour de nombreux produits d'IA générative, pour la raison fondamentale qu'ils peuvent créer des substituts qui concurrencent les données sur lesquelles ils sont formés."

    Balaji a ajouté dans son message : "J'ai écrit les raisons plus détaillées pour lesquelles je crois cela dans mon article. Il est évident que je ne suis pas avocat, mais je pense qu'il est important que même les non-avocats comprennent la loi - à la fois la lettre et la raison pour laquelle elle existe en premier lieu. Cela étant dit, je ne veux pas que cela soit interprété comme une critique de ChatGPT ou d'OpenAI en soi, car l'utilisation équitable et l'IA générative sont des questions bien plus vastes que n'importe quel produit ou entreprise. J'encourage vivement les chercheurs en ML à en apprendre davantage sur le droit d'auteur - c'est un sujet vraiment important, et les précédents souvent cités, comme Google Books, ne sont pas aussi favorables qu'on pourrait le croire".

    Balaji a également fait part d'une interview qu'il a accordée au New York Times, qui poursuit actuellement OpenAI pour violation présumée des droits d'auteur du journal. Dans cette interview, Balaji a déclaré qu'il pensait initialement que "l'I.A. était une chose qui pouvait être utilisée pour résoudre des problèmes insolubles, comme la guérison de maladies et l'arrêt du vieillissement". Toutefois, au fil du temps, il a changé d'avis sur la position de l'OpenAI en matière de droits d'auteur, et a conclu : "Si vous croyez ce que je crois, vous n'avez qu'à quitter l'entreprise".

    Dans son entretien avec le New York Times, Suchir Balaji a déclaré qu'il avait quitté OpenAI parce qu'il ne voulait plus contribuer à des technologies qui, selon lui, apporteraient à la société plus de mal que de bien. Selon certaines informations, il aurait même affirmé qu'OpenAI violait la loi sur les droits d'auteur.

    Sur son site web, Balaji a déclaré qu'il ne pensait pas que la défense de l'utilisation équitable du droit d'auteur s'appliquait à ce qu'OpenAI faisait avec ChatGPT, bien qu'il ait noté que "des arguments similaires pourraient être avancés pour de nombreux produits d'IA générative dans une grande variété de domaines".

    En réaction à la mort de Balaji, OpenAI s'est déclarée "dévastée" d'apprendre le décès du technicien. 'Nous sommes dévastés d'apprendre cette nouvelle incroyablement triste aujourd'hui et nous sommes de tout cœur avec les proches de Suchir pendant cette période difficile", a déclaré un porte-parole d'OpenAI.

    De son côté, le milliardaire Elon Musk a également réagi à la mort du technicien et a posté un message énigmatique sur X. "Hmm", a écrit Elon Musk sur sa plateforme en partageant la nouvelle de la mort du technicien. Pour rappel, OpenAI a été fondée en 2015 par un groupe de passionnés de technologie, dont Sam Altman et Elon Musk, qui en sont devenus les coprésidents. Musk a quitté l'entreprise en 2018 à la suite d'un désaccord sur sa stratégie et, en février 2024, il a intenté une action en justice contre OpenAI et Altman.

    OpenAI reconnaît qu'elle utilise des contenus protégés par le droit d'auteur

    Ces dernières années, les capacités des chatbots alimentés par l'IA, comme le ChatGPT d'OpenAI, se sont considérablement améliorées ; ils s'appuient sur de vastes modèles de langage pour produire du contenu pour les utilisateurs. Cependant, le processus a également été controversé, certains éditeurs accusant OpenAI d'utiliser des œuvres protégées par des droits d'auteur sans autorisation, et un certain nombre d'affaires juridiques sont actuellement en cours.

    S'exprimant pour défendre ses pratiques commerciales dans une récente requête en justice, OpenAI a déclaré : "Les modèles apprennent, comme nous le faisons tous, de ce qui a été fait auparavant. La défense de l'usage loyal existe précisément pour cette raison : encourager et permettre le développement de nouvelles idées qui s'appuient sur des idées antérieures."

    Cette défense d'OpenAI est conforme à ces précédentes déclarations. En janvier, OpenAi avait déclaré : "Étant donné que le droit d'auteur couvre aujourd'hui pratiquement toutes les formes d'expression humaine ... il serait impossible d’entraîner les meilleurs modèles d'IA d'aujourd'hui sans utiliser des documents protégés par le droit d'auteur." OpenAI reconnaît donc ouvertement qu'elle utilise des contenus sous copyright pour créer son modèle d'IA ChatGPT.

    C'est pour cette raison que plusieurs éditeurs de presse ont poursuivi Microsoft et OpenAI pour violation du droit d'auteur. Parmi les poursuivants, on peut noter les éditeurs de presse de Californie, du Colorado, de l'Illinois, de Floride, du Minnesota et de New York. Certains procès sont en cours, mais le 7 novembre, le juge de district américain Colleen McMahon, à New York, a rejeté une poursuite contre OpenAI qui avait été intentée par les médias Raw Story et AlterNet. Selon les observateurs, la porte de sortie de la situation semble résider dans la conclusion d’accords de licence avec les éditeurs de presse.

    Et vous ?

    Quel est votre avis sur la réaction d'Elon Musk ?
    Pensez-vous que la défense d'OpenAI contre ces accusations est crédible ou pertinente ?

    Voir aussi :

    OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé par le droit d'auteur et estime que « légalement, la loi sur le droit d'auteur n'interdit pas l'entraînement »

    The Intercept, Raw Story et AlterNet poursuivent OpenAI et Microsoft en justice pour violation du droit d'auteur, ils exigent des dommages-intérêts et le retrait de leurs contenus des modèles d'IA

    Un ex employé d'OpenAI estime qu'il y a 70 % de chances que l'IA détruise l'humanité ou lui nuise de manière catastrophique, les puissants modèles d'IA ne doivent donc pas être open source, d'après des tiers
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  13. #13
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 714
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 714
    Par défaut Meta demande au procureur général de Californie d'empêcher OpenAI de devenir une société à but lucratif
    Meta de Mark Zuckerberg demande au procureur général de Californie de bloquer le projet de transformation d'OpenAI en société à but lucratif, car cela créerait un dangereux précédent injuste.

    Meta Platforms, société mère de Facebook, a demandé au procureur général de Californie de bloquer la conversion prévue d'OpenAI en société à but lucratif. Selon la lettre, permettre à OpenAI de devenir une société à but lucratif créerait un dangereux précédent en permettant aux startups de bénéficier des avantages du statut non lucratif jusqu'à ce qu'elles soient prêtes à devenir rentables. Dans sa lettre, Meta a déclaré qu'elle soutenait les efforts d'Elon Musk pour bloquer la transformation d'OpenAI en société àbut lucratif.

    OpenAI, une organisation pionnière dans le domaine de l’intelligence artificielle (IA), est actuellement au cœur d’une transformation majeure. Initialement fondée en tant qu’entité à but non lucratif avec pour mission de garantir que l’IA profite à toute l’humanité, OpenAI a adopté un modèle commercial pour financer ses recherches et ses développements coûteux. Cette transition a engendré des tensions internes significatives, mettant en lumière les défis de concilier innovation technologique, éthique et rentabilité.

    Cependant, ce n'est pas seulement en interne que cette décision a créé une controverse. Récemment, Meta Platforms, société mère de Facebook, a demandé au procureur général de Californie de bloquer la conversion prévue d'OpenAI en société à but lucratif. Dans une lettre adressée au procureur général Rob Bonta, Meta a déclaré que permettre à OpenAI de devenir une société à but lucratif créerait un dangereux précédent en permettant aux startups de bénéficier des avantages du statut non lucratif jusqu'à ce qu'elles soient prêtes à devenir rentables.

    "La conduite d'OpenAI pourrait avoir des implications sismiques pour la Silicon Valley. Si le nouveau modèle commercial d'OpenAI est valable, les investisseurs à but non lucratif obtiendraient les mêmes bénéfices que ceux qui investissent de manière conventionnelle dans des entreprises à but lucratif, tout en bénéficiant de déductions fiscales accordées par le gouvernement », a déclaré Meta dans la lettre.

    Dans sa lettre, Meta a déclaré qu'elle soutenait un effort d'Elon Musk pour représenter les intérêts du public en décidant si OpenAI sera autorisée à devenir une société à but lucratif. À la suite de la lettre de Meta, OpenAI a demandé à un juge fédéral de Californie de rejeter la demande du milliardaire Elon Musk d'interrompre sa conversion en une société à but lucratif.

    "Bien que notre travail se poursuive et que nous continuions à consulter des conseillers financiers et juridiques indépendants, toute restructuration potentielle garantirait que l'organisation à but non lucratif continue d'exister et de prospérer, et qu'elle reçoive la pleine valeur de sa participation actuelle dans l'organisation à but lucratif OpenAI, avec une capacité accrue de poursuivre sa mission", a déclaré Bret Taylor, le président d'OpenAI, dans un communiqué.


    Voici la lettre de Meta au procureur général de Californie Rob Bonta :

    Cher Procureur général Bonta :

    En tant qu'entreprise californienne qui développe une technologie d'IA générative, Meta Platforms, Inc. ("Meta") est profondément préoccupée par la tentative d'OpenAI de se débarrasser du statut d'organisation à but non lucratif sous lequel elle a été fondée afin de créer une entité à but lucratif. Nous vous demandons instamment d'examiner cette proposition de transaction, y compris la nature et le calendrier de tout transfert d'actifs de l'entité à but non lucratif d'OpenAI vers d'autres entités. Le fait de ne pas tenir OpenAI pour responsable de son choix de se constituer en entité à but non lucratif pourrait conduire à une prolifération de start-ups similaires qui sont théoriquement caritatives jusqu'à ce qu'elles soient potentiellement rentables. Le peuple californien a un intérêt direct et urgent à mettre fin à ce comportement. Toutes les activités à but lucratif d'OpenAI et de ses entités apparentées devraient être suspendues pour protéger les investisseurs et les consommateurs.

    En 2015, OpenAI a déposé son certificat d'incorporation original auprès de l'État du Delaware :

    Cette société sera une société à but non lucratif organisée exclusivement à des fins caritatives et/ou éducatives au sens de la section 501(c){3) du Code des revenus internes de 1986, tel qu'amendé, ou de la disposition correspondante de toute future loi sur les revenus internes des États-Unis. L'objectif spécifique de cette société est de fournir des fonds pour la recherche, le développement et la distribution de technologies liées à l'intelligence artificielle... La société n'est pas organisée pour le gain privé d'une personne... Les biens de cette société sont irrévocablement dédiés à ses objectifs... et aucune partie du revenu net ou des actifs de cette société ne sera jamais utilisée au profit d'un administrateur, d'un dirigeant ou d'un membre de la société ou au profit d'une personne privée.

    OpenAI a réaffirmé cet engagement sur son propre site web des années plus tard :

    Ne voyant pas de voie claire dans le secteur public, et compte tenu du succès d'autres projets ambitieux dans l'industrie privée, [OpenAI] a décidé de poursuivre ce projet par des moyens privés liés par des engagements forts en faveur du bien public. [OpenAI] a d'abord pensé qu'une organisation de type 501(c)(3) serait le véhicule le plus efficace pour diriger le développement d'une AGI sûre et largement bénéfique, tout en restant à l'abri des incitations au profit.

    Profitant de ce statut à but non lucratif, OpenAI a levé des milliards de dollars de capitaux auprès d'investisseurs pour poursuivre sa prétendue mission. La société a déclaré à l'État de Californie et au monde entier qu'elle serait gérée sans aucune motivation lucrative. Les investisseurs et le public se sont fiés à juste titre à cette assurance.

    Aujourd'hui, OpenAI veut changer de statut tout en conservant tous les avantages qui lui ont permis d'atteindre le point où elle se trouve aujourd'hui. C'est une erreur. OpenAI ne devrait pas être autorisée à bafouer la loi en prenant et en se réappropriant des actifs qu'elle a construits en tant qu'organisation caritative et en les utilisant pour des gains privés potentiellement énormes.

    De plus, la conversion proposée par OpenAI ne représente pas simplement un futur abus potentiel de la forme de société. Nous vous demandons également d'examiner si les pratiques passées d'OpenAI sont conformes à ses obligations en tant qu'organisation à but non lucratif, notamment si elle a épuisé de manière inappropriée les actifs de l'organisation à but non lucratif en distribuant des actifs à des entités tierces.

    Le comportement d'OpenAI pourrait avoir des implications sismiques pour la Silicon Valley. Si elle était autorisée, la restructuration d'OpenAI représenterait un changement de paradigme pour les startups technologiques ; autoriser cette restructuration ne ferait qu'inciter les investisseurs à lancer des organisations en tant qu'organisations à but non lucratif, à collecter des centaines de millions de dollars en dons exonérés d'impôts pour soutenir la recherche et le développement, puis à adopter le statut de société à but lucratif lorsque leur technologie devient commercialement viable.

    En effet, si le nouveau modèle commercial d'OpenAI est valable, les investisseurs à but non lucratif obtiendraient les mêmes bénéfices que ceux qui investissent de manière conventionnelle dans des entreprises à but lucratif, tout en bénéficiant de déductions fiscales accordées par le gouvernement et, en fin de compte, par le public. Cela fausserait le marché en obligeant essentiellement toute startup cherchant à rester compétitive à adopter le même cahier des charges.

    Nous comprenons qu'Elon Musk et Shivon Zilis cherchent actuellement à représenter les intérêts publics dans l'affaire Musk v. Altman, No. 4:24-cv-04722-YGR (N.D. Cal.). Bien que nous demandions instamment à votre bureau d'agir directement, nous pensons que Musk et Zilis sont qualifiés et bien placés pour représenter les intérêts des Californiens dans cette affaire. Leurs rôles précoces et fondamentaux dans la création et les opérations d'OpenAI et en tant que membres antérieurs de son conseil d'administration les placent en position de comprendre mieux que quiconque ce qu'OpenAI était censée être et comment sa conduite actuelle s'écarte de sa mission de bienfaisance.

    Meta s'engage en faveur de l'ouverture et de la transparence dans le domaine transformateur de l'IA. La promesse caritative d'OpenAI de développer une IA sûre et largement bénéfique, à l'abri des pressions commerciales, est importante et doit être tenue. Étant donné la vitesse fulgurante à laquelle OpenAI poursuit sa conversion à des fins lucratives, il s'agit d'un cas particulier où il est urgent d'agir.

    Nous vous remercions d'avoir pris en compte notre point de vue et sommes heureux de répondre à vos questions.

    Nos salutations respectueuses,

    Meta Platforms
    Elon Musk a déposé une injonction pour stopper la transition d'OpenAI vers un modèle à but lucratif

    Depuis qu'OpenAI a décidé d'adopter un modèle commercial pour financer ses recherches et ses développements coûteux, Elon Musk n'a cessé de déposer des plaintes contre la société. Elon Musk a d'abord intenté une action en justice contre OpenAI en mars 2024, mais a abandonné la procédure en juin 2024. Début août 2024, Elon Musk a relancé une plainte contre OpenAI et son dirigeant Sam Altman.

    Début décembre 2024, Elon Musk a déposé une injonction contre la transition d'OpenAI vers un modèle à but lucratif et les pratiques "déloyales" de l'entreprise. Les principales cibles sont Sam Altman, Reid Hoffman, Microsoft et ses investissements de 13 milliards de dollars dans OpenAI. Elon Musk a également accusé OpenAI d'utiliser des données sensibles et a demandé le respect de sa mission initiale à but non lucratif.

    Cette demande d'Elon Musk intervient après l'impressionnante levée de fonds de 6,6 milliards de dollars d'OpenAI, qui a fait grimper sa valorisation à 157 milliards de dollars. Mais selon des rapports, cette levée de fonds s'accompagne de conditions strictes : les investisseurs ont le droit de retirer leur argent si OpenAI ne réussit pas à passer d'une organisation à but non lucratif à une entreprise entièrement lucrative. De plus, OpenAI a demandé à ses investisseurs, tels que Microsoft, Nvidia et Thrive Capital, entre autres, de ne pas soutenir des startups concurrentes dans le domaine de l'IA.

    Elon Musk avait qualifié OpenAI de "diabolique" après cette investissement et ces accords exclusifs, et c'est l'une des raisons de sa demande de bloquer la conversion d'OpenAI en société à but lucratif. Pour l'instant, la situation autour d'OpenAI n'est pas claire, mais le soutien de Meta à Elon Musk pourrait vite changer le déroulement du conflit.

    Source : Meta Platforms

    Et vous ?

    Pensez-vous que cette lettre de Meta est crédible ou pertinente ?
    Quel est votre avis sur la situation ?

    Voir aussi :

    Elon Musk poursuit OpenAI et son PDG Sam Altman, évoquant une violation des accords contractuels initiaux des fabricants de ChatGPT qui cherchent à réaliser du profit, au lieu de se consacrer à la mission fondatrice de l'organisation

    OpenAI veut s'affranchir du contrôle exercé par son conseil d'administration à but non lucratif, se restructurer en une société à but lucratif et donner des parts au PDG Sam Altman, selon un rapport

    L'IA open source est la voie à suivre, car elle permet à un plus grand nombre de personnes dans le monde d'avoir accès aux avantages et aux opportunités de l'IA, par Mark Zuckerberg, fondateur et PDG de Meta
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  14. #14
    Membre chevronné
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Septembre 2019
    Messages
    320
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Morbihan (Bretagne)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Septembre 2019
    Messages : 320
    Par défaut
    La police de San Francisco a déclaré avoir trouvé Balaji mort à l'intérieur de son appartement de Buchanan Street après avoir été appelée pour un contrôle de bien-être vers 13 heures le 26 novembre.
    "Un contrôle de bien-être" ? Les USA sont déjà dans un système totalitaire décrit dans "Fahrenheit 451" ? Si la police de la pensée l'avait testé en "mal-être", on lui aurait administré un sérum pour qu'il retrouve la joie de vivre ?

  15. #15
    Invité
    Invité(e)
    Par défaut
    Bonne année 2025

  16. #16
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 327
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 327
    Par défaut
    Suchir Balaji, Jeffrey Epstein, et enfin Mike Lynch + Stephen Chamberlain, morts par "accident" à 48 heures d'intervalle.
    Le hasard et la "chance" pour certains ca existe, mais c'est tout de meme assez étrange tous cela...

    Bien sur nous ne sommes pas complotiste ici, il n y'a que Poutine qui tue des personnes qui dérange.

  17. #17
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 708
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 708
    Par défaut OpenAI donne des détails sur la façon dont il entend conduire sa restructuration en une entité à but lucratif
    OpenAI annonce qu'il amorce sa refonte en une société à but lucratif en 2025 et que cela lui permettra d'attirer plus de capitaux
    mais l'initiative est critiquée et combattue par des voix telles qu'Elon Musk

    OpenAI rend publics les premiers détails de son projet visant à se restructurer en une structure à but lucratif. Le fabricant de ChatGPT a annoncé que sa branche à but lucratif actuelle deviendra une société d'utilité publique (public benefit corporation - PBC) avec des actions ordinaires. Cette nouvelle société ne sera plus sous le contrôle de son conseil d'administration et fonctionnera davantage comme une startup à forte croissance. OpenAI estime que cela est nécessaire pour attirer plus de capitaux afin d'aller au bout de sa mission, qui est de construire une intelligence artificielle générale (AGI). Mais l'annonce suscite beaucoup de scepticisme.

    OpenAI donne des détails sur la façon dont il entend conduire sa restructuration

    OpenAI a eu jusqu'ici une structure inédite qui peut parfois s'avérer compliquée à déchiffrer pour certains. Cette confusion est intervenue en 2019 après qu'OpenAI, qui a été fondé à l'origine en tant que société à but non lucratif, a opéré une première restructuration. En gros, l'on distingue OpenAI LP (Limited Partnership), qui est une entité à profit plafonné qui a ouvert l'entreprise aux investissements tiers. Ces derniers sont soumis à « un rendement plafonné ».


    OpenAI LP est responsable du développement des modèles d'IA, des produits et des solutions. Toutefois, cette entité n'est pas autonome. Les activités d'OpenAI LP sont supervisées par le conseil d'administration de l'organisation à but non lucratif (OpenAI inc.) de départ. Cette première restructuration a vu l'arrivée d'investisseurs tels que Microsoft, qui a injecté un milliard de dollars dans OpenAI dès 2019, avant de rallonger de plusieurs milliards de dollars en 2023.

    Le 26 décembre 2024, OpenAI a annoncé que l'entreprise va subir pour une nouvelle transformation structurelle. OpenAI va transformer sa branche à but lucratif actuelle en une société d'utilité publique (public benefit corporation - PBC) pour superviser les opérations commerciales en 2025. À travers cette refonte, OpenAI vise à supprimer certaines restrictions liées au statut à but non lucratif afin de fonctionner davantage comme une startup à forte croissance :

    Citation Envoyé par OpenAI

    Les centaines de milliards de dollars que les grandes entreprises investissent actuellement dans le développement de l'IA montrent ce qu'il faudra vraiment pour qu'OpenAI poursuive sa mission. Nous avons une fois de plus besoin de lever plus de capitaux que nous ne l'avions imaginé. Les investisseurs veulent nous soutenir, mais, à cette échelle de capital, ils ont besoin de fonds propres conventionnels et de moins d'actions structurelles.
    « Le PBC est une structure utilisée par beaucoup d'autres qui exige de l'entreprise qu'elle équilibre les intérêts des actionnaires, les intérêts des parties prenantes et l'intérêt public dans sa prise de décision. Elle nous permettra de lever les capitaux nécessaires dans des conditions conventionnelles, comme d'autres acteurs de ce secteur », a déclaré OpenAI. Cette forme d'entreprise est de plus en plus courante, avec de grands noms tels que xAI et Anthropic.

    « Cette structure vise à générer des profits tout en bénéficiant à l'intérêt public. La branche à but non lucratif prendrait des parts dans la société d'intérêt public », a déclaré OpenAI, ajoutant que cela permettra de soutenir au mieux sa mission consistant à faire en sorte que l'AGI profite à l'ensemble de l'humanité.

    OpenAI subit diverses pressions pour se restructurer en une entité à but lucratif

    La pression exercée sur OpenAI pour qu'il se restructure serait liée à sa valorisation de 157 milliards de dollars. OpenAI a atteint ce seuil lors de son tour de table de 6,6 milliards de dollars en octobre 2024. Selon certains rapports, l'entreprise dispose de deux ans pour procéder à cette conversion, faute de quoi les investisseurs pourraient demander le remboursement de leur argent. Cela intervient deux ans après l'arrivée de ChatGPT et le boom de l'IA générative.

    OpenAI se préparant à concurrencer xAI d'Elon Musk ainsi que Microsoft, Google, Amazon et Anthropic sur un marché qui, selon les prévisions, devrait atteindre un chiffre d'affaires de plus de 1 000 milliards de dollars d'ici une dizaine d'années. Dans le même temps, le développement de grands modèles de langage (LLM) et d'autres produits d'IA générative nécessite un investissement continu dans des processeurs surpuissants (GPU) et dans l'infrastructure cloud.

    OpenAI prévoit environ 5 milliards de dollars de pertes sur 3,7 milliards de dollars de revenus cette année. Ces chiffres augmentent rapidement. En se transformant en une PBC, OpenAI affirme qu'il peut poursuivre ses activités commerciales, tout en embauchant séparément du personnel pour sa branche à but non lucratif et en permettant à cette dernière d'entreprendre des activités caritatives dans les domaines des soins de santé, de l'éducation et de la science.

    Elon Musk et d'autres voix dénoncent ce changement structurel initié par OpenAI

    Les efforts d'OpenAI pour se restructurer se heurtent à quelques obstacles majeurs. Le plus important est Elon Musk. Il a intenté un procès à OpenAI et a demandé à un tribunal d'empêcher la société de se convertir en société à but lucratif à partir d'un organisme à but non lucratif. Il accuse OpenAI d'avoir rompu ses accords contractuels initiaux. Dans des messages sur X, il a décrit cet effort comme une « arnaque totale » et a affirmé qu'OpenAI est « diabolique ».

    Au début du mois, OpenAI a riposté, alléguant qu'en 2017, « Elon Musk ne voulait pas seulement, mais a en fait créé une société à but lucratif » pour servir de nouvelle structure proposée par l'entreprise. Outre sa guéguerre avec Elon Musk, OpenAI a dû faire face à un exode de talents de haut niveau, en partie en raison de préoccupations selon lesquelles la société s'est concentrée sur la mise sur le marché de produits commerciaux au détriment de la sécurité.

    La directrice technique d'OpenAI, Mira Murati, a annoncé fin septembre 2024 qu'elle quitte l'entreprise après plus de 6 ans. Le même jour, le responsable de la recherche Bob McGrew et Barret Zoph, un vice-président de la recherche, ont annoncé leur départ. Un mois plus tôt, le cofondateur John Schulman avait annoncé son départ pour la startup rivale Anthropic. Plutôt dans l'année, le cofondateur et ancien scientifique en chef, Ilya Sutskever, quittait l'entreprise.

    L'ancien responsable de la sécurité d'OpenAI, Jan Leike, a quitté l'entreprise en même temps qu'Ilya Sutskever et a rejoint le rival Anthropic. Le PDG d'OpenAI, Sam Altman, a déclaré que les départs de plusieurs cadres d'OpenAI n'étaient pas liés à la restructuration potentielle de la société : « nous y réfléchissons, notre conseil d'administration y réfléchit depuis près d'un an, indépendamment, en pensant à ce qu'il faut faire pour passer à l'étape suivante ».

    « Ces dernières années, la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits brillants », avait déclaré Jan Leike lors de son départ. Enfin, OpenAI est empêtré dans de nombreux procès pour violation de droit d'auteur intentés par des artistes, des acteurs et des groupes de médias.

    Source : OpenAI

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la décision d'OpenAI de se restructurer en une société d'utilité publique ?
    Quels impacts cette décision pourrait-il avoir sur OpenAI ? Comment cela va-t-il affecter la sécurité de ses produits ?

    Voir aussi

    La transformation d'OpenAI en une entité à but lucratif vise à protéger l'entreprise contre les OPA hostiles et le PDG Sam Altman de toute ingérence extérieure, selon un rapport

    OpenAI s'attend à 5 milliards $ de pertes cette année, et pour échapper à la faillite se restructure en société commerciale et cherche des investisseurs confiants dans la bulle IA pour se renflouer

    OpenAI veut s'affranchir du contrôle exercé par son conseil d'administration à but non lucratif, se restructurer en une société à but lucratif et donner des parts au PDG Sam Altman, selon un rapport

  18. #18
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 846
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 846
    Par défaut Mort suspecte d’un lanceur d’alerte d’OpenAI : ses parents ne croient pas qu'il se soit suicidé
    Mort suspecte d’un lanceur d’alerte d’OpenAI : ses parents ne croient pas qu'il se soit suicidé et exigent une seconde autopsie
    pour lever le voile sur les circonstances

    Un drame entouré de mystère secoue la communauté technologique. Les parents d’un ancien employé d’OpenAI expriment leurs doutes quant aux circonstances de sa mort, initialement déclarée comme un suicide. Suchir Balaji, devenu lanceur d'alerte concernant les pratiques de l'entreprise en matière de données, a été retrouvé mort dans son appartement à San Francisco le 26 novembre 2024. Il était cité comme témoin dans des affaires judiciaires contre OpenAI comme ayant des « documents pertinents » sur la violation présumée des droits d'auteur par la startup. Suchir Balaji a dénoncé publiquement ce qu'il appelle « la collecte massive et abusive des données » effectuée par OpenAI dans le cadre de la formation de ses modèles d'IA et s'est interrogé sur la légalité de cette pratique.

    La mort tragique, à la fin du mois dernier, de l'ancien chercheur d'OpenAI, Suchir Balaji, retrouvé mort dans son appartement de Lower Haight à la suite d'un suicide apparent, suscite un peu plus d'intrigue.

    Suchir Balaji avait récemment dénoncé l'utilisation par OpenAI d'œuvres protégées par le droit d'auteur pour entraîner son modèle d'intelligence artificielle ChatGPT, dans une interview publiée en octobre par le New York Times. Outre les problèmes juridiques liés à la consommation de matériel protégé par des droits d'auteur, Balaji a déclaré au Times qu'il ne s'agissait pas non plus d'un « modèle durable pour l'écosystème de l'internet dans son ensemble ».

    Le 26 novembre, deux jours avant Thanksgiving, Balaji a été retrouvé mort dans son appartement de Buchanan Street. Le médecin légiste a conclu à un suicide et la police de San Francisco a déclaré qu'il n'y avait « aucune preuve d'acte criminel ».

    La mère de Balaji, Poornima Ramarao, qui vit dans la région de la baie, a déclaré cette semaine au Bay Area News Group qu'elle et son mari « exigent une enquête approfondie » sur la mort de leur fils. Ils ne croient pas qu'il se serait suicidé et affirment que rien dans son état mental ne laissait présager une telle éventualité.

    « Personne ne croit qu'il aurait pu faire cela », a déclaré madame Ramarao au groupe de presse. La mère explique que son mari et elle avaient parlé à leur fils pour la dernière fois le 22 novembre, lors d'un appel téléphonique de 10 minutes au cours duquel il n'avait rien indiqué de grave. Il avait dit qu'il sortait pour aller dîner.

    Des circonstances troubles

    Né en Floride et élevé dans la Bay Area, Balaji a été un prodige dès son plus jeune âge, a déclaré sa mère. Il prononçait son nom à 3 mois ; à 18 mois, il me demandait « d'allumer une lampe pour me remonter le moral » et pouvait reconnaître des mots à 20 mois, a-t-elle ajouté.

    Balaji semble avoir un don pour la technologie, les mathématiques et l'informatique. Il a remporté des trophées et s'est fait connaître, notamment lors des Olympiades informatiques des États-Unis d'Amérique en 2016.

    En 2020, il est allé travailler pour OpenAI, estimant que l'engagement de l'entreprise à fonctionner comme une organisation à but non lucratif était admirable, selon sa mère. Son opinion sur l'entreprise s'est détériorée en 2022, alors qu'il était chargé de recueillir des données sur Internet pour le programme GPT-4 de l'entreprise, a rapporté le New York Times. Ce programme analysait le texte de la quasi-totalité de l'internet afin d'entraîner son programme d'intelligence artificielle.

    Madame Ramarao a déclaré qu'elle n'était pas au courant de la décision de son fils d'exprimer publiquement ses inquiétudes au sujet d'OpenAI jusqu'à ce que le journal publie son interview. Si elle s'est immédiatement inquiétée de sa décision (allant jusqu'à lui demander de consulter un avocat spécialisé dans les droits d'auteur) elle s'est également déclarée fière du courage de son fils.

    Il n'a cessé de m'assurer : « Maman, je ne fais rien de mal, va voir l'article. Je dis simplement, à mon avis, qu'il n'y a rien de mal là-dedans », a déclaré madame Ramarao, elle-même ancienne employée de Microsoft qui a travaillé sur son programme de cloud computing Azure. « Je l'ai soutenu. Je ne l'ai pas critiqué. Je lui ai dit : « Je suis fière de toi, parce que tu as tes propres opinions et que tu sais ce qui est bien et ce qui est mal ».

    Après avoir quitté l'entreprise, Balaji a décidé de créer une association à but non lucratif, centrée sur l'apprentissage automatique et les neurosciences, a déclaré madame Ramarao. Il s'est déjà entretenu avec au moins un investisseur en capital-risque pour obtenir un financement de départ. « Je lui demande, par exemple, comment il va gagner sa vie », a déclaré madame Ramarao. Elle se souvient que son fils a tenté à plusieurs reprises d'apaiser les inquiétudes concernant ses finances, en suggérant que « l'argent n'est pas important pour moi - je veux offrir un service à l'humanité ».

    Balaji semblait également avoir un emploi du temps chargé. Il a fêté ses 26 ans lors d'une randonnée dans les îles Catalina avec plusieurs amis du lycée. Ce type de voyage était monnaie courante pour lui : en avril, il était parti avec plusieurs amis en Patagonie et en Amérique du Sud. Balaji a parlé à ses parents pour la dernière fois le 22 novembre, lors d'un appel téléphonique de 10 minutes qui a porté sur son récent voyage et qui s'est terminé par l'évocation du dîner.

    « Il était très heureux », a déclaré Ramarao. « Il s'est éclaté. Il a passé l'un des meilleurs moments de sa vie ».

    Ramarao se souvient d'avoir appelé son fils peu après midi le 23 novembre, mais elle a dit qu'il avait sonné une fois et qu'il était tombé sur la messagerie vocale. Estimant qu'il était occupé avec des amis, elle n'a pas essayé de se rendre à son appartement avant le 25 novembre, date à laquelle elle a frappé mais n'a pas obtenu de réponse. Elle dit avoir appelé les autorités le soir même, mais un centre de répartition de la police lui aurait dit qu'il n'y avait pas grand-chose à faire ce jour-là. Elle a fait un suivi le 26 novembre et la police de San Francisco a retrouvé le corps de Balaji dans son appartement.

    Ramarao a déclaré qu'elle n'a été informée de la mort de son fils que lorsqu'une civière est apparue devant l'appartement de Balaji. Elle n'a été autorisée à entrer que le lendemain.

    « Je ne pourrai jamais oublier cette tragédie », a déclaré madame Ramarao. « Mon cœur s'est brisé ».

    Elle a remis en question l'enquête menée par les autorités sur la mort de son fils, affirmant que la police de San Francisco avait classé l'affaire et l'avait confiée au bureau du médecin légiste du comté dans l'heure qui a suivi la découverte du corps de Balaji. Elle a déclaré qu'elle et son mari avaient depuis demandé une seconde autopsie du corps de Balaji. Elle a refusé de divulguer les documents issus de cette autopsie. Son avocat, Phil Kearney, a refusé de commenter les résultats de l'autopsie indépendante de la famille.

    Nom : suh.png
Affichages : 15086
Taille : 498,5 Ko
    Suchir Balaji et sa maman, Poornima Ramarao

    L'attente de la vérité

    La seconde autopsie pourrait devenir un point pivot dans cette affaire, apportant peut-être des réponses sur les causes réelles de cette tragédie. Pour l’instant, la famille espère que cette démarche permettra de lever le voile sur des zones d’ombre. « Nous ne voulons qu’une chose : la vérité », conclut le père du défunt, visiblement ému.

    Cette affaire, déjà très médiatisée, pourrait avoir des répercussions importantes, non seulement pour OpenAI, mais aussi pour les standards de gouvernance et d’éthique dans l’industrie technologique. En attendant, l’attention demeure focalisée sur les résultats de la nouvelle autopsie et sur les éventuelles révélations à venir.

    La mort de Balaji a provoqué une onde de choc dans la Silicon Valley et dans le secteur de l'intelligence artificielle.

    Il s'est retrouvé sous les feux de la rampe à la fin du mois d'octobre lorsqu'il a accusé son ancien employeur, OpenAI, d'avoir enfreint la loi fédérale sur les droits d'auteur en siphonnant des données provenant de l'ensemble de l'internet pour former son chatbot à succès, ChatGPT.

    Ses préoccupations ont confirmé les allégations formulées ces dernières années par des auteurs, des scénaristes et des programmeurs informatiques qui affirment qu'OpenAI a volé leur contenu sans autorisation, en violation des lois américaines sur « l'utilisation équitable » qui régissent l'utilisation d'œuvres publiées antérieurement.

    Les entreprises de médias ont été parmi les premières à poursuivre la société.

    OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé par le droit d'auteur

    La formation des modèles d’IA, tels que ceux développés par OpenAI, nécessite une quantité massive de données. Selon OpenAI, les matériaux disponibles dans le domaine public ne suffisent pas pour créer des modèles capables de répondre aux besoins actuels des utilisateurs. L’entreprise affirme que le droit d’auteur couvre pratiquement toutes les formes d’expression humaine, rendant ainsi indispensable l’utilisation de contenus protégés pour former des IA performantes.

    Cette position a provoqué une vague de réactions négatives, notamment de la part de grandes institutions comme le New York Times et la Authors Guild. Ces entités accusent OpenAI de violer massivement les droits d’auteur et de profiter commercialement des œuvres protégées sans compensation adéquate. Les auteurs célèbres, tels que John Grisham et George R.R. Martin, ont également rejoint les rangs des plaignants, soulignant que l’utilisation non autorisée de leurs œuvres menace leur subsistance.

    OpenAI supplie le Parlement britannique de l'autoriser à utiliser des œuvres protégées par le droit d'auteur, car il lui serait « impossible » d'entraîner ses modèles d'intelligence artificielle - et de poursuivre la croissance de son entreprise, qui pèse plusieurs milliards de dollars - sans ces œuvres.

    La société d'intelligence artificielle a déclaré dans un document soumis à une sous-commission de la Chambre des Lords que l'utilisation exclusive de contenus du domaine public serait insuffisante pour entraîner le type de grands modèles de langage (LLM) qu'elle construit, suggérant que l'entreprise doit donc être autorisée à utiliser du matériel protégé par le droit d'auteur.

    « Étant donné que le droit d'auteur couvre aujourd'hui pratiquement toutes les formes d'expression humaine - y compris les articles de blog, les photographies, les messages de forum, les bouts de code de logiciel et les documents gouvernementaux - il serait impossible d'entraîner les meilleurs modèles d'IA actuels sans utiliser des documents protégés par le droit d'auteur », a écrit l'entreprise dans son dossier de preuves. « Limiter les données d'entraînement aux livres et dessins du domaine public créés il y a plus d'un siècle pourrait donner lieu à une expérience intéressante, mais ne permettrait pas de fournir des systèmes d'IA répondant aux besoins des citoyens d'aujourd'hui ».

    OpenAI poursuit en insistant dans le document, soumis au comité des communications et du numérique de la Chambre des Lords, sur le fait qu'elle se conforme aux lois sur le droit d'auteur et qu'elle estime que « légalement, la loi sur le droit d'auteur n'interdit pas l'entraînement ».

    Source : interview de Poornima Ramara

    Et vous ?

    Que pensez-vous du fait que les parents ont exigé une seconde autopsie ?

    Les mécanismes actuels de protection des lanceurs d’alerte sont-ils suffisants, notamment dans les secteurs technologiques ?

    Comment garantir que des individus dénonçant des pratiques problématiques puissent le faire sans craindre pour leur sécurité ?

    Les grandes entreprises technologiques doivent-elles être soumises à des régulations spécifiques pour prévenir ce type de situation ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  19. #19
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 708
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 708
    Par défaut Les parents du lanceur d'alerte d'OpenAI décédé rejettent la thèse du suicide et engagent un détective privé
    Les parents du lanceur d'alerte d'OpenAI décédé tragiquement engagent un détective privé pour faire la lumière sur la mort suspecte du jeune ingénieur
    et demandent l'ouverture d'une enquête par le FBI

    Le lanceur d'alerte d'OpenAI, Suchir Balaji, a été retrouvé mort dans son appartement de San Francisco le 26 novembre 2024, trois mois seulement après qu'il a accusé la société d'avoir violé les lois sur le droit d'auteur pendant le développement de ChatGPT. La police a qualifié sa mort de suicide, mais ses parents ont contesté cette conclusion. S'exprimant lors d'une veillée en l'honneur de Suchir Balaji, son père a déclaré qu'il était la dernière personne à lui avoir parlé, ajoutant qu'il était heureux et ne montrait aucun signe de dépression. La famille soupçonne un acte criminel, a engagé un détective privé et a demandé l'ouverture d'une enquête par le FBI.

    Les parents de Suchir Balaji rejettent la thèse du suicide établie par la police

    La mort de Suchir Balaji est un drame entouré de mystère qui secoue la communauté technologique depuis la fin du mois de novembre 2024. Ancien ingénieur chez OpenAI, le jeune homme de 26 ans avait démissionné en août 2024, avant de devenir un lanceur d'alerte au sujet des pratiques de l'entreprise en matière de données. Il avait accusé OpenAI d'avoir violé les lois sur le droit d'auteur en collectant massivement des données protégées pour former son IA.


    Suchir Balaji a fait quelques sorties dans les médias au cours desquelles il a déclaré que leur travail chez OpenAI a porté préjudice aux artistes, éditeurs de presse, créateurs, écrivains, etc. Il a aussi remis en cause l'utilité et les avantages de ChatGPT, estimant qu'il ne s'agit pas d'un « modèle durable pour l'écosystème d'Internet dans son ensemble ». Malheureusement, Suchir Balaji a été retrouvé mort dans son appartement à San Francisco le 26 novembre 2024.

    Une expertise médico-légale a conclu à un suicide et la police de San Francisco a déclaré qu'il n'y avait « aucune preuve d'acte criminel ». Seulement, les parents de Suchir Balaji ne croient pas à cette version des faits. Une vidéo émouvante du père de Suchir Balaji évoquant la mort de son fils a fait surface sur les réseaux sociaux. Le père de l'ingénieur a déclaré qu'il était la dernière personne à lui avoir parlé avant qu'il ne soit retrouvé mort dans son appartement.

    Les parents de Suchir Balaji soupçonnent un acte criminel et ont demandé l'ouverture d'une enquête par le FBI. « Les parents du lanceur d'alerte d'OpenAI engagent un détective privé après que leur fils ait prétendument mis fin à ses jours, suggérant que leur fils a été tué. Les parents de Suchir Balaji, 26 ans, affirment que leur fils avait prévu de les voir en janvier et prétendent qu'il y avait des signes de dispute », peut-on lire dans un billet X qui a partagé la vidéo.

    Dans la vidéo, le père de l'ingénieur, Balagi Ramamurthy, déclare : « j'ai été la dernière personne à lui parler. Il était plus heureux, pas déprimé ou quoi que ce soit d'autre. Et c'était la semaine de son anniversaire ». Sa mère, Poornima Ramarao, prend ensuite la parole et affirme : « il avait prévu de nous voir en janvier [2025]. C'est la dernière conversation téléphonique qu'il a eue avec quelqu'un. Il est entré dans son appartement et n'en est jamais ressorti ».

    « Il n'y avait pas de lettre de suicide et il n'y avait personne d'autre sur les lieux, cela ne veut pas dire qu'ils peuvent en tirer des conclusions. Et nous avons vu des traces de sang dans la salle de bain, des signes de bagarre dans la salle de bain », poursuit-elle. Les parents du technicien d'origine indienne se sont exprimés devant le public lors d'une veillée organisée en l'honneur du jeune homme de 26 ans. Ces allégations contredisent les faits établis par la police.

    Les parents reçoivent un grand soutien sur les plateformes de médias sociaux

    En réponse à la vidéo des parents de Suchir Balaji, une personne a posté : « je fais confiance à l'intuition de la mère. Les mamans savent, c'est tout ». Un autre a ajouté : « cette histoire est insensée. Je suis heureux que ses parents cherchent la vérité ». Un troisième a écrit : « oui, il y a quelque chose qui ne colle pas... Un lanceur d'alerte meurt dans des circonstances suspectes, il y a des signes de bagarre, pas de mot, et des questions sans réponse ».

    Un autre a écrit : « les circonstances suspectes entourant la mort de Suchir Balaji - un lanceur d'alerte d'OpenAI - sont profondément troublantes. L'absence de lettre de suicide, les signes de lutte et son récent bonheur soulèvent de sérieux doutes. Le moment choisi, quelques mois seulement après avoir accusé OpenAI de violations du droit d'auteur, ajoute encore aux interrogations ». Pour beaucoup, il faut qu'il y ait « une enquête approfondie et ouverte ».

    Suchir Balaji est décédé trois mois seulement après qu'il a publiquement accusé OpenAI d'avoir violé les lois américaines sur les droits d'auteur lors du développement de ChatGPT. Selon certains rapports, les informations que Suchir Balaji avait fournies étaient censées jouer un rôle clé dans de nombreuses poursuites engagées contre l'entreprise. OpenAI a déclaré que l'ensemble de son travail sur ChatGPT était « légal en vertu des lois sur l'utilisation équitable ».

    Suchir Balaji a déclaré à l'Associated Press qu'il essaierait de témoigner dans les affaires de violation de droits d'auteur les plus sérieuses et qu'il considérait le procès intenté par le New York Times comme « le plus sérieux ». Les avocats du Times l'ont cité dans un dossier déposé au tribunal le 18 novembre 2024 comme quelqu'un qui pourrait avoir des « documents uniques et pertinents » démontrant la violation délibérée du droit d'auteur par OpenAI.

    Selon les récits sur Suchir Balaji, il était très apprécié par ses anciens collègues d'OpenAI. Un cofondateur d'OpenAI a même déclaré récemment que Suchir Balaji avait joué un rôle essentiel dans le développement de certains des produits d'IA générative de l'entreprise. « Les contributions de Suchir à ce projet ont été essentielles, et le projet n'aurait pas abouti sans lui », a déclaré John Schulman, cofondateur d'OpenAI, dans un hommage sur Suchir Balaji.

    Suchir Balaji n'a pas été auditionné par les tribunaux et l'on ne sait pas dans quelle mesure ses déclarations seront admises comme preuves dans les affaires judiciaires après sa mort. Il a également publié un billet de blogue personnel dans lequel il fait part de ses opinions sur le sujet.

    Suchir Balaji avait déclaré qu'il était de plus en plus désillusionné par OpenAI

    Les dossiers de Suchir Balaji ont également été demandés par des avocats dans un procès distinct intenté par des auteurs de livres, dont la comédienne Sarah Silverman. « Il n'est pas normal de s'entraîner sur les données des gens et de leur faire concurrence sur le marché. Je ne pense pas que vous devriez être en mesure de faire cela. Je ne pense pas qu'il soit possible de le faire légalement », a expliqué Suchir Balaji à l'Associated Press fin octobre 2024.

    Il a déclaré à l'Associated Press qu'il était de plus en plus désillusionné par OpenAI, en particulier après les troubles internes qui ont conduit son conseil d'administration à licencier le PDG, Sam Altman, en 2023, avant le réembaucher. Suchir Balaji a déclaré qu'il était globalement préoccupé par la manière dont ses produits commerciaux étaient déployés, notamment par leur propension à diffuser des informations erronées, connues sous le nom d'hallucinations.

    Mais parmi les nombreux problèmes qui le préoccupent, il a déclaré qu'il se concentrait sur les droits d'auteur, car « il était réellement possible de faire quelque chose ». Suchir Balaji a reconnu qu'il s'agissait d'une opinion impopulaire au sein de la communauté des chercheurs en IA, qui a l'habitude de puiser des données sur Internet. Cela dit, Suchir Balaji a ajouté que les chercheurs en IA vont finir par changer d'avis et que c'est une question de temps.

    John Schulman, qui a démissionné d'OpenAI en août 2024, a déclaré que Suchir Balaji et lui avaient quitté OpenAI le même jour, par coïncidence, et qu'ils avaient fêté leur départ avec d'autres collègues le soir même, en dînant et en buvant un verre dans un bar de San Francisco. Un autre des mentors de Suchir Balaji, le cofondateur et scientifique en chef Ilya Sutskever, avait quitté OpenAI quelques mois plus tôt, ce qui a motivé le départ de Suchir Balaji.

    John Schulman a déclaré que Suchir Balaji lui avait fait part, au début de l'année, de son intention de quitter OpenAI et qu'il ne pensait pas qu’une IA meilleure que l'homme était à portée de main, comme le reste de l'entreprise semblait le croire. « Le jeune ingénieur a exprimé son intérêt pour l'obtention d'un doctorat et l'exploration d'idées plus éloignées des sentiers battus sur la manière de construire l'intelligence », a déclaré John Schulman.

    Source : billet de blogue

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du mystère entourant le décès tragique du lanceur d'alerte d'OpenAI ?
    Selon vous, quelle thèse est la plus plausible ? Que se passerait-il dans le cas d'un acte criminel ?
    Quels impacts cette affaire pourrait-elle avoir sur les lanceurs d'alerte à l'avenir ?

    Voir aussi

    Mort suspecte d'un lanceur d'alerte d'OpenAI : ses parents ne croient pas qu'il se soit suicidé et exigent une seconde autopsie, relançant le débat sur la protection des lanceurs d'alerte dans le secteur tech

    Le lanceur d'alerte d'OpenAI décédé était considéré comme un témoin dans des procès contre l'entreprise, il détenait des « documents pertinents » démontrant les violations de droit d'auteur par OpenAI

    L'ancien chercheur d'OpenAI Suchir Balaji, devenu lanceur d'alerte, a été retrouvé mort, après avoir accusé OpenAI de violer des droits d'auteur, Elon Musk a posté une réaction énigmatique

  20. #20
    Membre éprouvé Avatar de Gunny
    Homme Profil pro
    Développeur Web
    Inscrit en
    Avril 2007
    Messages
    195
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : Danemark

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Avril 2007
    Messages : 195
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message

    OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé par le droit d'auteur

    OpenAI supplie le Parlement britannique de l'autoriser à utiliser des œuvres protégées par le droit d'auteur, car il lui serait « impossible » d'entraîner ses modèles d'intelligence artificielle - et de poursuivre la croissance de son entreprise, qui pèse plusieurs milliards de dollars - sans ces œuvres.

    La société d'intelligence artificielle a déclaré dans un document soumis à une sous-commission de la Chambre des Lords que l'utilisation exclusive de contenus du domaine public serait insuffisante pour entraîner le type de grands modèles de langage (LLM) qu'elle construit, suggérant que l'entreprise doit donc être autorisée à utiliser du matériel protégé par le droit d'auteur.
    "Notre business model est illégal mais vous devez nous laisser continuer sinon on va devoir fermer boutique "
    Je ne sais pas pourquoi on tolère ce genre de comportement des entreprises de la tech. Vous vous imaginez vous pointer au tribunal avec ce discours pour n'importe quelle autre entreprise ?

Discussions similaires

  1. Réponses: 32
    Dernier message: 05/02/2026, 15h03
  2. Réponses: 2
    Dernier message: 13/02/2025, 00h21
  3. Réponses: 11
    Dernier message: 02/08/2017, 00h36
  4. Réponses: 5
    Dernier message: 11/10/2011, 17h23

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo