IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre averti
    Homme Profil pro
    Architecte de système d'information
    Inscrit en
    Novembre 2015
    Messages
    21
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 67
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Architecte de système d'information
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Novembre 2015
    Messages : 21
    Par défaut Bien sûr, ce n'est pas un suicide !
    Bien sûr, ce n'est pas un suicide !

    Les intérêts financiers engagés sont trop importants pour laisser dire que l'IA générative de OpenAI transgresse les droits d'auteur !

    Moi, ancien informaticien, vous affirme que l'IA n'est en fait construit qu'à partir d'un ou plusieurs algorithmes écrits par des analystes-programmeurs (ou codeurs de nos jours),
    afin d'automatiser une prise de décision en utilisant une base de données dédiée au problème à résoudre... C'est, somme toute de l'informatique, point barre !

    Et pour parler de l'IA générative, eh bien oui, pour qu'elle puisse pleinement s'exprimer, elle va relire toutes les publications contenues sur le réseau internet sur le sujet traité, mais aussi celles
    protégées par le droit d'auteur....Tout ceci pour servir un résultat plus ou moins faux, puisque basé uniquement sur des publications dont le texte n'est pas "scientifiquement" validé...
    Donc, si vous demandez à Chat GPT si la majorité de la population est raciste, il vous répondra invariablement OUI puisque basé sur des publications de racistes qui sont bien plus nombreuses
    que celles des non-racistes !

    Le seul avantage de l'IA est celle qui est liée aux analyses des images ou vidéos : là oui, il faut de nombreux clusters pour pouvoir analyser des Tera octets de données vidéos, pour
    pourvoir analyser une prise de vue et détecter si la personne filmée est porteuse d'une arme ou non....

    Bon Bref, toute ces envolées sur l'IA n'est que pure mascarade et toutes les valorisations des sociétés proposant de l'IA sont tout à fait incongrues !

    Dernier mot pour bien comprendre : hier, j'ai vu un reportage sur une boulangerie de la chaîne ANGE : le gérant utilise un logiciel qui analyse ses ventes et lui prédit, de façon statistique,
    à quel moment de la journée ou de la semaine il va pouvoir vendre plus de pâtisseries. Le journaliste titre "L'IA envahit nos boulangeries" !!! Mais de qui se moque-t-on ?
    ...Ben de tous ceux qui se font berner et croient "acheter de l'IA" ! Quelle inconscience, que de naïveté, c'est simplement un logiciel informatique, point barre !

  2. #2
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    3 267
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 3 267
    Par défaut
    La série télévisée Les Experts a un jour posé le problème, dans la bouche de son personnage de médecin légiste :

    "C'est un cas de suicide tout-à-fait classique. L'intéressé avait un bras extensible qu'il a étiré à vingt mètres derrière lui, et de là il s'est tiré une balle dans la tête."

  3. #3
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 617
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 617
    Par défaut La police de San Francisco a officiellement confirmé le suicide du lanceur d'alerte d'OpenAI Suchir Balaji
    La police de San Francisco a officiellement déclaré que la mort du lanceur d'alerte d'OpenAI Suchir Balaji était un suicide, mais sa mère a déclaré que la police avait écrit des informations inexactes

    La police de San Francisco a officiellement déclaré que la mort du lanceur d'alerte d'OpenAI Suchir Balaji était un suicide. "L'OCME n'a trouvé aucune preuve ou information permettant d'établir une cause et un mode de décès pour Balaji autre qu'un suicide par blessure par balle auto-infligée à la tête", affirme le rapport d'autopsie. Mais sa mère a déclaré que la police avait écrit des informations inexactes dans les rapports d'autopsie et de police.

    Le 26 novembre 2024, le lanceur d'alerte d'OpenAI Suchir Balaji a été retrouvé mort dans son appartement à San Francisco. Il est mort d'une blessure par balle à la tête et les médecins légistes ont conclu à un suicide. Mais ses parents rejettent catégoriquement la thèse du suicide et appellent à une enquête plus approfondie sur les circonstances troubles de la mort de leur enfant, affirmant fréquemment qu'il avait été assassiné.

    L'ingénieur logiciel de 26 ans avait démissionné d'OpenAI, avant d'accuser publiquement l'entreprise de violer la loi sur le droit d'auteur, dans ce qu'il appelle "la collecte massive et abusive des données" effectuée par OpenAI. Suchir Balaji était notamment cité comme témoin dans des actions en justice contre OpenAI. Des rapports ont affirmé qu'il possédait des "documents pertinents" sur la violation présumée des droits d'auteur par la startup.

    Après des semaines d'enquête et des demandes répétées, les autorités ont confirmé leurs conclusions initiales, concluant qu'il n'y avait aucune preuve d'homicide. Le lanceur d'alerte d'OpenAI Suchir Balaji s'est suicidé, a confirmé la police de San Francisco en citant un rapport d'autopsie.


    Dans un rapport de 13 pages du Bureau du médecin légiste en chef (OCME) et une réponse commune de quatre pages à la plainte, la police de San Francisco et les médecins légistes ont annoncé le 14 février 2025 que l'enquête sur la mort de Balaji était officiellement close. Ils ont confirmé leur conclusion initiale, à savoir qu'il s'était suicidé.

    "L'OCME n'a trouvé aucune preuve ou information permettant d'établir une cause et un mode de décès pour Balaji autre qu'un suicide par blessure par balle auto-infligée à la tête", peut-on lire dans le rapport du médecin légiste. "Le SFPD a mené une enquête indépendante et, sur la base des informations examinées par le SFPD, il n'y a pas suffisamment de preuves pour conclure que la mort de Balaji est le résultat d'un homicide".

    Cependant, les parents de Balaji ont accusé la police d'avoir commis des erreurs lors de l'autopsie et ont souligné qu'elle n'avait pas réussi à obtenir les images de vidéosurveillance de l'immeuble où il vivait. Ils ont ajouté qu'il n'y avait pas de lettre de suicide.

    Poornima Rao, la mère de Suchir Balaji, a déclaré que le SFPD avait écrit des informations inexactes dans les rapports d'autopsie et de police. "Ils n'ont jamais récupéré les images de vidéosurveillance du bureau de location. Nous avons besoin du rapport de la police. Nous demandons seulement une enquête transparente", a-t-elle écrit sur X.

    Fait intéressant, Suchir Balaji n'était pas le seul à critiquer OpenAI après avoir quitté l'entreprise. Récemment, Steven Adler a annoncé qu'il a quitté son poste de chercheur en sécurité de l'IA chez OpenAI. Il a également profité de l'occasion pour lancer un avertissement concernant la course effrénée de l'industrie vers l'intelligence artificielle générale (AGI). Il a qualifié la course mondiale vers l'AGI de "pari très risqué, avec d'énormes inconvénients pour l'humanité". Il affirme que les entreprises d'IA, y compris OpenAI, ne savent pas comment aligner l'IA sur les valeurs humaines, ce qui fait peser une menace existentielle sur l'humanité. Il appelle à une réflexion sur le sujet.

    En outre, des rapports en juillet 2024 avaient révélé que l'OpenAI avait mis en place des accords contraignants visant à faire taire les lanceurs d'alerte qui seraient tentés d'évoquer publiquement les risques relatives à sa technologie d'IA. Une plainte déposée auprès de la Securities and Exchange Commission (SEC) des États-Unis accusait OpenAI d'avoir violé les droits des lanceurs d'alerte. La plainte indique qu'OpenAI a illégalement interdit à ses employés de divulguer aux régulateurs des informations sur les risques de sa technologie pour l'humanité. OpenAI aurait réduit ses employés au silence et a violé sa promesse de tester la dangerosité de son IA avant de la diffuser.

    Source : Police de San Francisco

    Et vous ?

    Pensez-vous que cette conclusion de la police est crédible ou pertinente ?
    Quel est votre avis sur le sujet

    Voir aussi :

    L'ancien chercheur d'OpenAI Suchir Balaji, devenu lanceur d'alerte, a été retrouvé mort, après avoir accusé OpenAI de violer des droits d'auteur. Elon Musk a posté une réaction énigmatique

    Le New York Times et d'autres médias intentent un procès contre OpenAI qui pourrait mettre en jeu l'avenir de ChatGPT. Microsoft et OpenAI tentent de le faire annuler

    Edward Snowden : « ils ont tombé le masque : ne faites jamais confiance à OpenAI ou à ses produits ». Le lanceur d'alerte dénonce la décision d'OpenAI de nommer un ancien directeur de la NSA à son conseil
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #4
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 617
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 617
    Par défaut Des anciens employés d'OpenAI demandent aux procureurs de Californie et du Delaware de bloquer la conversion
    Des anciens employés d'OpenAI demandent aux procureurs de Californie et du Delaware de bloquer la conversion à des fins lucratives de l'éditeur de ChatGPT

    Des anciens employés d'OpenAI demandent aux procureurs de Californie et du Delaware de bloquer la conversion à des fins lucratives de l'éditeur de ChatGPT, car ils s'inquiètent de ce qui se passerait si OpenAI construisait une IA plus performante que celle des humains. Cependant, OpenAI estime que cela est nécessaire pour attirer plus de capitaux afin d'aller au bout de sa mission, qui est de construire une intelligence artificielle générale (AGI).

    Fin 2024, OpenAI a rendu publics les premiers détails de son projet visant à se restructurer en une structure à but lucratif. L'éditeur de ChatGPT avait annoncé que sa branche à but lucratif actuelle deviendra une société d'utilité publique avec des actions ordinaires. Cette nouvelle société ne sera plus sous le contrôle de son conseil d'administration et fonctionnera davantage comme une startup à forte croissance.

    Pour rappel, OpenAI est une organisation américaine de recherche en intelligence artificielle (IA) fondée en décembre 2015. Elle vise à développer une intelligence générale artificielle (AGI) "sûre et bénéfique", qu'elle définit comme "des systèmes hautement autonomes qui surpassent les humains dans la plupart des tâches économiquement utiles". Mais l'organisation a une structure complexe. Actuellement, elle est dirigée par l'organisation à but non lucratif OpenAI, Inc, enregistrée dans le Delaware, et possède plusieurs filiales à but lucratif, dont OpenAI Holdings, LLC et OpenAI Global, LLC.

    Récemment, d'anciens employés d'OpenAI ont demandé aux plus hauts responsables de l'application des lois de Californie et du Delaware d'empêcher l'entreprise de faire passer le contrôle de sa technologie d'intelligence artificielle (IA) d'une organisation caritative à but non lucratif à une entreprise à but lucratif. Ils s'inquiètent de ce qui se passera si l'éditeur de ChatGPT réalise son ambition de construire une IA plus performante que les humains, mais n'est plus tenu de rendre compte de sa mission publique consistant à empêcher cette technologie de causer de graves préjudices.

    "En fin de compte, je m'inquiète de savoir qui possède et contrôle cette technologie une fois qu'elle est créée", a déclaré Page Hedley, ancien conseiller politique et éthique d'OpenAI. Soutenus par trois lauréats du prix Nobel et d'autres défenseurs et experts, Page Hedley et neuf autres anciens employés d'OpenAI ont envoyé cette semaine une lettre aux deux procureurs généraux des États.


    Parmi les signataires figurent deux économistes lauréats du prix Nobel, Oliver Hart et Joseph Stiglitz, ainsi que les pionniers de l'IA et les informaticiens Geoffrey Hinton, qui a remporté le prix Nobel de physique l'année dernière, et Stuart Russell. "J'apprécie la mission d'OpenAI qui consiste à « veiller à ce que l'intelligence artificielle générale profite à l'ensemble de l'humanité », et j'aimerais qu'ils exécutent cette mission au lieu d'enrichir leurs investisseurs", a déclaré Hinton dans un communiqué mercredi. "Je suis heureux qu'il y ait un effort pour faire respecter la mission d'OpenAI qui n'implique pas Elon Musk."

    La coalition demande au procureur général de Californie, Rob Bonta, et au procureur général du Delaware, Kathy Jennings, tous deux démocrates, d'user de leur autorité pour protéger l'objectif caritatif d'OpenAI et de bloquer sa restructuration prévue. OpenAI est constituée en société dans le Delaware et opère à partir de San Francisco.

    OpenAI a répondu que "tout changement apporté à notre structure existante servirait à garantir que le grand public puisse bénéficier de l'IA". L'entreprise à but lucratif sera une société d'utilité publique, semblable à d'autres laboratoires d'IA comme Anthropic et xAI du milliardaire Elon Musk, à la différence qu'OpenAI conservera une branche à but non lucratif. "Cette structure continuera à garantir que le succès et la croissance de l'entreprise à but lucratif s'accompagneront de ceux de l'entreprise à but non lucratif, ce qui nous permettra d'accomplir notre mission", a déclaré l'entreprise dans un communiqué.

    Cette lettre est la deuxième pétition adressée aux autorités de l'État ce mois-ci. La dernière émanait d'un groupe de dirigeants syndicaux et d'organisations à but non lucratif soucieux de protéger les milliards de dollars d'actifs caritatifs d'OpenAI.

    Kathy Jennings a déclaré à l'automne dernier qu'elle "examinerait toute transaction de ce type pour s'assurer que les intérêts du public sont protégés de manière adéquate". Le bureau de Rob Bonta a demandé plus d'informations à OpenAI à la fin de l'année dernière, mais a déclaré qu'il ne pouvait pas faire de commentaires, même pour confirmer ou infirmer l'existence d'une enquête.

    Hedley, avocat de formation, a travaillé pour OpenAI en 2017 et 2018, à une époque où l'organisation à but non lucratif cherchait encore les meilleurs moyens de gérer la technologie qu'elle voulait construire. En 2023, Altman a déclaré que l'IA avancée était prometteuse, mais a également mis en garde contre des risques extraordinaires, allant d'accidents radicaux à des perturbations sociétales.

    Ces dernières années, cependant, Hedley a déclaré avoir observé avec inquiétude qu'OpenAI, portée par le succès de ChatGPT, rognait de plus en plus sur les tests de sécurité et lançait de nouveaux produits à la hâte pour devancer ses concurrents. "Les coûts de ces décisions continueront d'augmenter à mesure que la technologie deviendra plus puissante", a-t-il déclaré. "Je pense que dans la nouvelle structure souhaitée par l'OpenAI, les incitations à se précipiter pour prendre ces décisions augmenteront et il n'y aura plus personne pour leur dire de ne pas le faire, pour leur dire que ce n'est pas correct."

    L'ingénieur logiciel Anish Tondwalkar, ancien membre de l'équipe technique d'OpenAI jusqu'à l'année dernière, a déclaré qu'une garantie importante dans la charte à but non lucratif d'OpenAI est une "clause d'arrêt et d'assistance" qui ordonne à OpenAI de se retirer et d'aider si une autre organisation est sur le point d'atteindre une IA meilleure que l'homme. "Si OpenAI est autorisée à devenir une organisation à but lucratif, ces garanties et le devoir de l'OpenAI envers le public peuvent disparaître du jour au lendemain" a-t-il affirmé.

    Un autre ancien employé qui a signé la lettre l'exprime plus crûment. "OpenAI pourrait un jour construire une technologie qui pourrait tous nous faire tuer", a déclaré Nisan Stiennon, un ingénieur en IA qui a travaillé chez OpenAI de 2018 à 2020. "C'est tout à l'honneur d'OpenAI d'être contrôlée par un organisme à but non lucratif ayant un devoir envers l'humanité. Ce devoir exclut de renoncer à ce contrôle."

    Nom : 1.jpg
Affichages : 5317
Taille : 44,1 Ko

    Les cofondateurs d'OpenAI, dont l'actuel PDG Sam Altman et Elon Musk, l'ont créée à l'origine en tant que laboratoire de recherche à but non lucratif ayant pour mission de construire en toute sécurité ce que l'on appelle l'intelligence artificielle générale (AGI), au bénéfice de l'humanité. Près de dix ans plus tard, OpenAI a annoncé une valeur de marché de 300 milliards de dollars et compte 400 millions d'utilisateurs hebdomadaires de ChatGPT, son produit phare.

    OpenAI dispose déjà d'une filiale à but lucratif, mais la conversion de sa structure de gouvernance principale se heurte à un certain nombre de difficultés. L'un d'entre eux est un procès intenté par Musk, qui accuse la société et Altman de trahir les principes fondateurs qui ont conduit le PDG de Tesla à investir dans l'organisation caritative.

    En février 2025, un consortium d'investisseurs dirigé par Elon Musk avait même proposé une offre pour acquérir le contrôle d'OpenAI, l'organisation à l'origine de ChatGPT. Cette proposition viserait à ramener OpenAI à ses racines en tant que laboratoire de recherche à but non lucratif, open source et axé sur la sécurité. Mais Elon Musk avait également déclaré qu'il "retira son offre d'achat de 97,4 milliards de dollars d'OpenAI si l'éditeur de ChatGPT reste une organisation à but non lucratif."

    Les conflits sur l'objectif d'OpenAI ont longtemps couvé à l'institut de San Francisco, contribuant au départ de Musk en 2018, à l'éviction éphémère d'Altman en 2023 et à d'autres départs très médiatisés. Si certains des signataires de la lettre de cette semaine soutiennent l'action en justice de Musk, Hedley a déclaré que d'autres sont "cyniques à juste titre" parce que Musk dirige également sa propre entreprise d'intelligence artificielle rivale.

    En effet, selon des éléments publiés par OpenAI, Elon Musk aurait proposé qu’OpenAI abandonne son statut non lucratif pour adopter une structure commerciale. Il justifiait cette idée par la nécessité d’attirer des capitaux importants et de développer des technologies capables de concurrencer les acteurs privés établis. Cette suggestion a suscité des désaccords au sein de l’organisation. En outre, Elon Musk aurait exigé une participation majoritaire, un contrôle absolu et d'être le PDG de l'entreprise à but lucratif.


    Et vous ?

    Pensez-vous que cette lettre est crédible ou pertinente ?
    Quel est votre avis sur la situation ?

    Voir aussi :

    Elon Musk demande aux procureurs généraux de Californie et du Delaware d'organiser une vente aux enchères pour déterminer la valeur marchande des actifs caritatifs d'OpenAI dans le cadre de sa restructuration

    Meta de Mark Zuckerberg demande au procureur général de Californie de bloquer le projet de transformation d'OpenAI en société à but lucratif, car cela créerait un dangereux précédent injuste

    OpenAI envisage de donner au conseil d'administration des pouvoirs de vote spéciaux pour bloquer l'offre de rachat de 97 milliards $ par Elon Musk, car OpenAI ne veut pas d'Elon Musk
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 759
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 759
    Par défaut Sous pression, OpenAI abandonne son projet controversé de devenir une entreprise à but lucratif
    Sous pression, OpenAI abandonne son projet controversé de devenir une entreprise à but lucratif :
    la structure à but non lucratif reprend le contrôle, mais le pouvoir d’influence des investisseurs reste intact

    C’était une ambition assumée mais controversée : faire d’OpenAI une entreprise à but lucratif « classique », quitte à remettre en cause les principes fondateurs de l’organisation. Sous le feu des critiques, OpenAI vient finalement d’y renoncer : Sam Altman a dévoilé un « plan actualisé pour faire évoluer la structure [de l'entreprise] ». Dans une lettre ouverte aux employés d'OpenAI, le PDG a confirmé que l'organisation à but non lucratif OpenAI conserverait finalement le contrôle de la société à but lucratif LLC.

    La structure à but non lucratif reprend donc officiellement le contrôle de l’organisation, mettant un coup d’arrêt à une stratégie qui inquiétait aussi bien les chercheurs, que certains salariés ou partenaires stratégiques. Mais cette décision ne met pas fin à la crise de gouvernance. Elle révèle plutôt une tension de fond : comment financer le développement d’une intelligence artificielle puissante, tout en garantissant qu’elle reste alignée avec l’intérêt public ?


    Contexte

    Créée en 2015 avec pour mission de développer une intelligence artificielle bénéfique pour l’humanité, OpenAI a introduit en 2019 une structure hybride « capped-profit ». Ce compromis, censé rassurer investisseurs et chercheurs, permettait de capter des milliards de dollars tout en limitant les rendements financiers à un plafond défini.

    Mais à mesure que les modèles GPT gagnaient en puissance (et en besoin énergétique), cette limite semblait de plus en plus symbolique. La montée en puissance de Microsoft dans l’écosystème d’OpenAI (avec plus de 13 milliards de dollars investis) a transformé l’organisation en véritable acteur commercial, au détriment de sa mission d’origine.

    En 2023, le limogeage temporaire de Sam Altman par le conseil d’administration (suivi de son retour express grâce au soutien des investisseurs) avait déjà souligné les failles du modèle. L’idée de modifier la structure pour renforcer le pouvoir des acteurs économiques n’a fait qu’envenimer le débat.

    Un modèle hybride instable depuis le début

    OpenAI a eu jusqu'ici une structure inédite qui peut parfois s'avérer compliquée à déchiffrer pour certains. Cette confusion est intervenue en 2019 après qu'OpenAI, qui a été fondé à l'origine en tant que société à but non lucratif, a opéré une première restructuration. En gros, l'on distingue OpenAI LP (Limited Partnership), qui est une entité à profit plafonné qui a ouvert l'entreprise aux investissements tiers. Ces derniers sont soumis à « un rendement plafonné »

    OpenAI LP est responsable du développement des modèles d'IA, des produits et des solutions. Toutefois, cette entité n'est pas autonome. Les activités d'OpenAI LP sont supervisées par le conseil d'administration de l'organisation à but non lucratif (OpenAI inc.) de départ. Cette première restructuration a vu l'arrivée d'investisseurs tels que Microsoft, qui a injecté un milliard de dollars dans OpenAI dès 2019, avant de rallonger de plusieurs milliards de dollars en 2023.

    Le 26 décembre 2024, OpenAI a annoncé que l'entreprise va subir pour une nouvelle transformation structurelle. OpenAI va transformer sa branche à but lucratif actuelle en une société d'utilité publique (public benefit corporation - PBC) pour superviser les opérations commerciales en 2025. À travers cette refonte, OpenAI vise à supprimer certaines restrictions liées au statut à but non lucratif afin de fonctionner davantage comme une startup à forte croissance :

    Citation Envoyé par OpenAI
    Les centaines de milliards de dollars que les grandes entreprises investissent actuellement dans le développement de l'IA montrent ce qu'il faudra vraiment pour qu'OpenAI poursuive sa mission. Nous avons une fois de plus besoin de lever plus de capitaux que nous ne l'avions imaginé. Les investisseurs veulent nous soutenir, mais, à cette échelle de capital, ils ont besoin de fonds propres conventionnels et de moins d'actions structurelles.
    « Le PBC est une structure utilisée par beaucoup d'autres qui exige de l'entreprise qu'elle équilibre les intérêts des actionnaires, les intérêts des parties prenantes et l'intérêt public dans sa prise de décision. Elle nous permettra de lever les capitaux nécessaires dans des conditions conventionnelles, comme d'autres acteurs de ce secteur », a déclaré OpenAI. Cette forme d'entreprise est de plus en plus courante, avec de grands noms tels que xAI et Anthropic.

    « Cette structure vise à générer des profits tout en bénéficiant à l'intérêt public. La branche à but non lucratif prendrait des parts dans la société d'intérêt public », a déclaré OpenAI, ajoutant que cela permettra de soutenir au mieux sa mission consistant à faire en sorte que l'IAG (l'intelligence artificielle générale) profite à l'ensemble de l'humanité.


    Elon Musk et d'autres voix ont dénoncé ce changement structurel initié par OpenAI

    Les efforts d'OpenAI pour se restructurer se sont heurté à quelques obstacles majeurs. Le plus important est Elon Musk. Il a intenté un procès à OpenAI et a demandé à un tribunal d'empêcher la société de se convertir en société à but lucratif à partir d'un organisme à but non lucratif. Il accuse OpenAI d'avoir rompu ses accords contractuels initiaux. Dans des messages sur X, il a décrit cet effort comme une « arnaque totale » et a affirmé qu'OpenAI est « diabolique ».

    OpenAI a riposté, alléguant qu'en 2017, « Elon Musk ne voulait pas seulement, mais a en fait créé une société à but lucratif » pour servir de nouvelle structure proposée par l'entreprise. Outre sa guéguerre avec Elon Musk, OpenAI a dû faire face à un exode de talents de haut niveau, en partie en raison de préoccupations selon lesquelles la société s'est concentrée sur la mise sur le marché de produits commerciaux au détriment de la sécurité.

    La directrice technique d'OpenAI, Mira Murati, a annoncé fin septembre 2024 qu'elle quitte l'entreprise après plus de 6 ans de collaboration. Le même jour, le responsable de la recherche Bob McGrew et Barret Zoph, un vice-président de la recherche, ont annoncé leur départ. Un mois plus tôt, le cofondateur John Schulman avait annoncé son départ pour la startup rivale Anthropic. Plutôt en 2024, le cofondateur et ancien scientifique en chef, Ilya Sutskever, quittait l'entreprise.

    L'ancien responsable de la sécurité d'OpenAI, Jan Leike, a quitté l'entreprise en même temps qu'Ilya Sutskever et a rejoint le rival Anthropic. Le PDG d'OpenAI, Sam Altman, a déclaré que les départs de plusieurs cadres d'OpenAI n'étaient pas liés à la restructuration potentielle de la société : « nous y réfléchissons, notre conseil d'administration y réfléchit depuis près d'un an, indépendamment, en pensant à ce qu'il faut faire pour passer à l'étape suivante ».

    « Ces dernières années, la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits brillants », avait déclaré Jan Leike lors de son départ. Enfin, OpenAI est empêtré dans de nombreux procès pour violation de droit d'auteur intentés par des artistes, des acteurs et des groupes de médias.

    Nom : sam.png
Affichages : 8188
Taille : 388,5 Ko

    OpenAI abdique face à la pression

    En somme, depuis plusieurs années, OpenAI avançait à visage double. Officiellement créée comme une organisation à but non lucratif en 2015, elle avait intégré en 2019 une structure hybride « capped-profit », censée permettre l’arrivée de capitaux extérieurs tout en limitant les rendements. Une formule atypique, censée préserver la mission humaniste de l’organisation — « assurer que l’IA générale bénéficie à toute l’humanité » — tout en attirant des partenaires industriels comme Microsoft.

    Mais les choses ont progressivement basculé. L’explosion de ChatGPT, les milliards injectés par Redmond, les velléités d’expansion commerciale et les remous internes autour de Sam Altman ont mis en lumière un virage assumé vers une IA de plus en plus monétisée, pilotée par les logiques de la Silicon Valley plus que par la prudence des chercheurs en sécurité de l’IA.

    Le projet de restructuration récente (visant à réduire l’influence de la structure à but non lucratif au profit d’un conseil d’administration mixte, où les investisseurs auraient plus de poids) a mis le feu aux poudres. Face à une levée de boucliers mêlant universitaires, employés démissionnaires et leaders d’opinion du secteur, OpenAI a finalement reculé.

    Dans une lettre adressée aux employés, Sam Altman a déclaré qu'il est temps pour OpenAI de faire évoluer sa structure. Il a défini les objectifs à accomplir :
    • Nous voulons être en mesure de fonctionner et d'obtenir des ressources de manière à pouvoir mettre nos services à la disposition de l'ensemble de l'humanité, ce qui nécessite actuellement des centaines de milliards de dollars et pourrait à terme nécessiter des milliers de milliards de dollars. Nous pensons que c'est le meilleur moyen de remplir notre mission et d'amener les gens à s'entraider massivement grâce à ces nouveaux outils.
    • Nous voulons que notre organisation soit la plus grande et la plus efficace de l'histoire et qu'elle se concentre sur l'utilisation de l'IA afin d'obtenir les meilleurs résultats pour les personnes.
    • Nous voulons que l'AGI soit bénéfique. Nous sommes fiers des résultats obtenus grâce aux systèmes que nous avons lancés, aux recherches que nous avons menées sur l'alignement, aux processus tels que le red teaming et à la transparence du comportement des modèles grâce à des innovations telles que le model spec(s'ouvre dans une nouvelle fenêtre). À mesure que l'IA s'accélère, notre engagement en faveur de la sécurité se renforce. Nous voulons nous assurer que l'IA démocratique l'emporte sur l'IA autoritaire.

    Citation Envoyé par Sam Altman
    Nous avons pris la décision de laisser le contrôle à l'organisation à but non lucratif après avoir entendu les leaders civiques et discuté avec les bureaux des procureurs généraux de Californie et du Delaware. Nous sommes impatients de faire avancer les détails de ce plan en continuant à discuter avec eux, avec Microsoft et avec nos commissaires à but non lucratif nouvellement nommés.

    OpenAI a été fondée en tant qu'association à but non lucratif, est aujourd'hui une association à but non lucratif qui supervise et contrôle l'association à but lucratif, et restera à l'avenir une association à but non lucratif qui supervise et contrôle l'association à but lucratif. Cela ne changera pas.

    La SARL à but lucratif sous l'égide de l'association à but non lucratif sera transformée en une société d'intérêt public (SIP) ayant la même mission. Les PBC sont devenues la structure à but lucratif standard pour d'autres laboratoires AGI comme Anthropic et X.ai, ainsi que pour de nombreuses entreprises orientées vers un but précis, comme Patagonia. Nous pensons que cela a du sens pour nous aussi.

    Au lieu de notre structure complexe actuelle à but lucratif plafonné - qui avait du sens lorsqu'il semblait y avoir un effort dominant de l'AGI, mais qui n'en a plus dans un monde où il y a beaucoup de grandes entreprises de l'AGI - nous passons à une structure de capital normale où tout le monde a des actions. Il ne s'agit pas d'une vente, mais d'un changement de structure vers quelque chose de plus simple.
    Des conséquences sur l’ensemble du secteur IA

    C’est donc sous une pression croissante (médiatique, interne et académique) qu’OpenAI a annoncé qu’elle renonçait à modifier sa gouvernance. La structure à but non lucratif conserve finalement le contrôle de la direction. Une décision saluée par certains chercheurs, mais perçue par d'autres comme un coup de communication destiné à préserver l’image d’une entreprise « éthique ».

    Car dans les faits, Microsoft reste l’allié incontournable d’OpenAI. Il a accès exclusif à certains modèles, héberge l’infrastructure d’IA sur Azure et intègre GPT-4 dans son écosystème produit. Ce partenariat ne disparaît pas. Le pouvoir d’influence des investisseurs reste intact, même si la façade non lucrative est maintenue.

    Ce retournement de stratégie pourrait avoir des répercussions bien au-delà d’OpenAI. Pour les investisseurs, il réintroduit de l’incertitude. Pour les concurrents comme Anthropic, Mistral ou Google DeepMind, cela ouvre potentiellement un espace pour se positionner comme des alternatives plus lisibles et plus stables.

    Pour les développeurs et entreprises clientes, la question de la transparence, de l’éthique et de la pérennité des outils OpenAI redevient centrale. L’avenir de l’open source, les conditions d’accès aux modèles ou la confidentialité des données sont autant de sujets suspendus aux arbitrages politiques internes… que peu de parties extérieures contrôlent.

    Un débat de fond : l’IA peut-elle rester d’intérêt général ?

    Au-delà de la gouvernance d’OpenAI, c’est une question systémique qui émerge : une IA d’envergure peut-elle être développée sans logique capitalistique agressive ? Et si oui, avec quels moyens ? En l’absence de financements publics massifs ou d’alternatives open source crédibles à grande échelle, les promesses de neutralité et de transparence risquent toujours de céder sous le poids des impératifs commerciaux.

    OpenAI, malgré son nom, est devenue emblématique de cette contradiction : ouverte dans l’intention, fermée dans la pratique. Et même si l’abandon du virage lucratif semble marquer un retour aux sources, il pourrait surtout annoncer une nouvelle phase d’instabilité, de compromis et de réajustements permanents.

    Une victoire en demi-teinte

    En refusant de devenir une entreprise à but lucratif pur, OpenAI envoie un signal fort. Mais ce geste, aussi symbolique soit-il, ne résout pas les tensions structurelles entre innovation, gouvernance et financement. Il ne fait que reporter un débat fondamental : à qui appartiendra demain l’intelligence artificielle de référence ?

    Source : OpenAI

    Et vous ?

    Les modèles hybrides comme celui d’OpenAI sont-ils tenables sur le long terme face aux exigences du marché ?

    Les gouvernements doivent-ils intervenir pour encadrer la gouvernance des IA stratégiques ?

    Ce retour à une structure non lucrative peut-il inspirer d'autres initiatives dans l'open source ou la recherche académique ?

    Peut-on vraiment parler de “non lucratif” quand des acteurs comme Microsoft ont un accès exclusif aux modèles ?

    Faudrait-il une réglementation internationale sur la gouvernance des IA à grande échelle ?

    L’open source peut-il redevenir une alternative crédible dans un secteur dominé par les géants privés ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #6
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 654
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 654
    Par défaut OpenAI se préparerait à lancer GPT-5 en août après des mois de retard et des coûts faramineux
    GPT-5 : OpenAI se préparerait à lancer son modèle tant attendu en août après des mois de retard et des coûts faramineux
    il suscite des attentes élevées face à des rivaux open source comme DeepSeek

    Un rapport indique qu'OpenAI prévoit de lancer son modèle GPT-5 dès le mois d'août 2025. Le nouveau modèle s'inscrit dans la stratégie d'OpenAI visant à combiner ses technologies GPT et o-series en un seul système, pour faciliter le travail des utilisateurs et des développeurs. Cette intégration devrait simplifier le processus de choix entre les modèles, en particulier pour les tâches qui reposent sur le raisonnement. Précédemment, le PDG Sam Altman avait laissé entendre que GPT-5 ne ressemblera en rien aux modèles actuels et devrait être une évolution majeure de l'IA générative. Il n'y a toutefois pas de détails sur ses performances et ses caractéristiques.

    GPT-5 est attendu comme la prochaine génération majeure des grands modèles de langage (LLM) GPT d'OpenAI. Le modèle fait l'objet de nombreuses spéculations de l'année dernière, certaines sources ayant annoncé son lancement pour l'été 2024. Mais des rapports ont souligné que le coût élevé du modèle et le manque de sources de données qualitatives ont entraîné un retard. Un nouveau rapport de The Verge indique que le lancement GPT-5 est imminent.

    OpenAI serait en phase finale de préparation de son modèle le plus sophistiqué à ce jour. GPT-5 a déjà fait son apparition en coulisses. Il suscite des attentes non seulement en matière de performances, mais aussi en matière d'implications stratégiques plus larges pour la plateforme et l'écosystème API d'OpenAI.

    Le PDG Sam Altman a confirmé le lancement imminent du modèle dans un message publié sur X (ex-Twitter) et a donné un aperçu de ses capacités lors d'une apparition dans un podcast avec Theo Von. Évoquant une question à laquelle il avait du mal à répondre, « je l'ai soumise au modèle, il s'agit de GPT-5, et il y a répondu parfaitement », a expliqué le PDG, décrivant ce moment comme lui ayant donné le sentiment d'être « inutile par rapport à l'IA ».

    OpenAI n'a pas encore communiqué de détails officiels, mais selon le rapport, le lancement devrait inclure plusieurs versions de GPT-5 : une version principale, une version « mini » plus petite et une version « nano » encore plus légère. Si les trois versions seront accessibles via l'API d'OpenAI, seules les versions principale et mini devraient être disponibles directement dans ChatGPT. La version nano, en revanche, devrait rester limitée à l'accès via l'API.

    Le prochain modèle GPT-5 devrait également reprendre les fonctionnalités de raisonnement du modèle o3 de l'entreprise, qui avait été testé séparément auparavant. Cette initiative permettra à OpenAI de présenter le modèle GPT-5 comme un système plus complet et plus performant. Elle ouvrirait la voie à son objectif plus large de création d'une intelligence artificielle générale (AGI), une IA capable d'effectuer des tâches à un niveau humain ou supérieur.

    GPT-5 : des défis liés à son entraînement et des coûts pharaoniques

    « GPT-5 sera plus intelligent, plus rapide, plus polyvalent et meilleur dans toutes les tâches que GPT-4 », a déclaré le PDG d'OpenAI, Sam Altman, lors du Sommet mondial des gouvernements (WGS) à Dubaï en février 2024. Microsoft, partenaire proche et principal bailleur de fonds d'OpenAI, s'attendait à voir le nouveau modèle vers le milieu de l'année 2024. Toutefois, des sources proches de la startup ont rapporté que rien ne s'est passé comme prévu.


    Selon un rapport publié en décembre dernier, le projet est en cours depuis plus de 24 mois, mais les problèmes se sont multipliés et les chercheurs d'OpenAI n'entrevoient pas le bout du tunnel. Selon les sources proches du projet, OpenAI aurait effectué au moins deux grands entraînements dans le but de rendre GPT-5 plus intelligent. Chaque fois, de nouveaux problèmes sont apparus et le logiciel n'a pas donné les résultats escomptés par les chercheurs.

    Selon Sam Altman, la formation de GPT-4 a coûté plus de 100 millions de dollars. Les futurs modèles d'IA devraient dépasser le milliard de dollars. L'échec d'une formation est comparable à l'explosion d'une fusée spatiale peu de temps après son lancement. Les informations sur le projet restent rares.

    « Que nous brûlions 500 millions de dollars, 5 milliards de dollars ou 50 milliards de dollars par an, cela m'est égal. Je m'en fiche vraiment tant que nous pouvons rester sur une trajectoire où nous créons finalement plus de valeur pour la société que cela et tant que nous pouvons trouver un moyen de payer les factures. Nous sommes en train de créer l'AGI, et cela va coûter cher, mais cela en vaut vraiment la peine », a déclaré Sam Altman en mai 2024.

    L'un des principaux problèmes techniques est la qualité des données. En règle générale, les modèles deviennent plus performants au fur et à mesure qu'ils ingurgitent des données. Les données utilisées par OpenAI et ses concurrents proviennent principalement de livres, de publications universitaires et d'autres sources réputées. Ce matériel aide les grands modèles de langage à mieux communiquer avec l'utilisateur et à gérer un large éventail de tâches.

    Pour ses modèles précédents, OpenAI a utilisé de vastes quantités de données extraites du Net : articles de presse, messages sur les médias sociaux et articles scientifiques. Pour rendre GPT-5 plus intelligent, OpenAI doit l'agrandir. Cela signifie qu'il a besoin de plus de données, mais il n'y en a pas assez. OpenAI a constaté que les données en question ne sont pas aussi diversifiées qu'il le pensait, ce qui a limité la capacité d'apprentissage de G¨T-5.

    Des chercheurs pensent que les progrès de l'IA se heurtent à un mur

    Les problèmes rencontrés par OpenAI dans le cadre du développement de GPT-5 ont montré à certains membres de l'entreprise que la stratégie « plus c'est gros, mieux c'est », qui avait été à l'origine de la plupart de ses succès antérieurs, est en train de s'essouffler. Les progrès rapides constatés après l'avènement de ChatGPT en 2022 ont considérablement ralenti. OpenAI n'est pas la seule entreprise à s'inquiéter du fait que les progrès se heurtent à un mur.

    Dans l'ensemble du secteur, le débat fait rage sur la question de savoir si l'amélioration des IA commence à plafonner. Ilya Sutskever, l'ancien scientifique en chef d'OpenAI, a déclaré que l'ère des données massives est révolue. « Les données n'augmentent pas parce que nous n'avons qu'un seul Internet. On peut même aller jusqu'à dire que les données sont le carburant fossile de l'IA », a déclaré Ilya Sutskever devant un parterre d'experts en 2024.

    Au début de l'année 2024, OpenAI commençait à ressentir la pression. GPT-4 avait déjà un an et les rivaux commençaient à rattraper leur retard. Un modèle d'Anthropic a été jugé meilleur que GPT-4 par de nombreux acteurs du secteur. Quelques mois plus tard, Google a lancé la nouvelle application d'IA la plus virale de l'année, appelée NotebookLM. Alors que GPT-5 était au point mort, OpenAI a commencé à développer d'autres projets et applications.

    Il s'agit notamment de versions allégées de GPT-4 et de Sora, un produit capable de produire des vidéos à partir d'invites textuelles. Selon des personnes au fait du dossier, cela a conduit à une lutte interne pour des ressources limitées entre les équipes travaillant sur les nouveaux produits et les chercheurs de GPT-5.

    OpenAI semble désormais prêt à livrer son modèle tant attendu, mais il pourrait toujours y avoir des surprises comme les fois précédentes. « Alors que le GPT-5 devrait faire ses débuts début août, les dates de sortie prévues par OpenAI changent souvent en fonction des défis liés au développement, des problèmes de capacité des serveurs, ou même des annonces et fuites concernant les modèles d'IA concurrents », indique le rapport de The Verge.

    DeepSeek a mis fin au mythe du contrôle de l'IA par la Silicon Valley

    Alors que les entreprises américaines investissent des milliards pour créer des modèles d’IA, l’efficacité de DeepSeek a jeté un doute profond sur la pertinence de ces dépenses. Selon certaines sources, le coût total de DeepSeek-R1 équivaudrait au salaire annuel d’un cadre supérieur de Google. En une semaine, l’application s’est hissée en tête des classements sur iPhone et Android. De plus, le modèle est open source et accessible à tous gratuitement.

    Nom : Capture d'écran 2025-07-25 132105.png
Affichages : 25381
Taille : 133,3 Ko

    Contrairement à la stratégie d'OpenAI, qui garde ses modèles d'IA fermés, ses concurrents, tels que le français Mistral AI et le chinois DeepSeek, mettent leurs modèles d'IA à la disposition des membres de la communauté de l'IA à des fins d'expérimentation et, dans certains cas, de commercialisation.

    La stratégie de l'open source s'est avérée très fructueuse pour certaines entreprises. Meta investit massivement dans sa famille de modèles d'IA ouverts Llama et a déclaré au début du mois de mars 2025 que Llama avait enregistré plus d'un milliard de téléchargements. Parallèlement, le succès de son modèle ouvert R1 a permis à DeepSeek de constituer rapidement une large base mondiale d'utilisateurs et d'attirer l'attention des investisseurs chinois.

    DeepSeek a démontré que le développement d'un modèle performant ne nécessite pas forcément des dépenses colossales. Ce qui a ébranlé la Silicon Valley. Grâce à une combinaison d’architectures efficaces, d'optimisations logicielles et d’un modèle open source, l’entreprise a repensé la logique économique de l’IA. Ce faisant, elle pousse l’industrie à revaloriser l’ingéniosité algorithmique et l’efficacité technique plutôt que la seule puissance brute.

    En février 2024, Sam Altman a déclaré que GPT-5 sera plus intelligent, plus rapide, plus polyvalent et meilleur dans toutes les tâches que GPT-4. « Ce bond en avant ne se résume pas à quelques fonctionnalités supplémentaires, il s'agit d'améliorer les capacités de l'IA dans tous les domaines. L'essence de l'avancée de GPT-5 réside dans son intelligence générale, qui promet des améliorations dans pratiquement toutes les tâches qu'elle entreprend », avait-il noté.

    Conclusion

    À l'approche du lancement, les investisseurs et les développeurs s'intéressent désormais à la manière dont GPT-5 pourrait rationaliser les expériences fragmentées en matière d'IA et redéfinir les attentes vis-à-vis des systèmes d'IA à usage général. Face à une rivalité croissante dans ce domaine, de Gemini de Google à Claude d'Anthropic, la sortie de GPT‑5 est un moment décisif qui met à l’épreuve la capacité d’OpenAI à rester en tête de la course à l'IA.

    OpenAI prévoit de publier un modèle d'IA open source avant même le déploiement prévu en août. Ce modèle devrait être lancé d'ici la fin du mois de juillet. Selon les sources, il sera similaire au modèle o3 mini, avec de bonnes capacités de raisonnement et offrant à la communauté de l'IA l'accès à des outils puissants sans restrictions. Il s'agit d'une avancée majeure, car OpenAI n'a pas publié de modèle entièrement ouvert depuis GPT-2, sorti en 2019.

    Le modèle ouvert serait disponible sur plusieurs plateformes, notamment Microsoft Azure, Hugging Face et d'autres services cloud majeurs. Cette publication pourrait aider OpenAI à concurrencer des entreprises telles que Meta et DeepSeek, qui ont déjà publié plusieurs modèles ouverts cette année.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Le lancement de GPT-5 serait imminent. Quelles sont vos attentes à son égard ?
    GPT-5 est considéré comme un test pour le leadership d'OpenAI dans la course à l'IA. Qu'en pensez-vous ?

    Voir aussi

    GPT-5, le prochain grand projet d'OpenAI dans le domaine de l'IA, est en retard sur le calendrier et est très coûteux. l'entreprise manque de sources de données fiables et fait face à des défis techniques

    OpenAI s'apprêterait à publier un modèle d'IA open source dès la semaine prochaine, son premier modèle à poids ouverts depuis GPT-2 en 2019, mais ce modèle pourrait envenimer les tensions avec Microsoft

    Sam Altman : « je me fiche de savoir si nous dépensons 50 milliards de dollars par an, nous construisons l'AGI et cela en vaudra la peine », ce montant dépasse largement le PIB de certains pays

  7. #7
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 645
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 645

  8. #8
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 617
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 617
    Par défaut OpenAI et Microsoft ont annoncé avoir signé un nouvel accord, vers la révision de leur partenariat
    OpenAI et Microsoft ont annoncé avoir signé un nouvel accord qui marque la première étape vers la révision des termes de leur partenariat de longue date, récemment détérioré.

    OpenAI et Microsoft ont publié une déclaration commune révélant que les deux sociétés ont signé un nouvel accord préliminaire axé sur un « protocole d'accord non contraignant (MOU) pour la prochaine phase de notre partenariat ». Les deux sociétés ont déclaré que, bien que ce nouveau protocole d'accord ne précise encore rien, elles s'efforcent de finaliser l'accord pour l'avenir de leur partenariat. La relation entre OpenAI et Microsoft est-elle compromise ?

    En décembre 2024, Google a demandé au gouvernement américain de rompre l'accord exclusif de Microsoft pour héberger la technologie d'OpenAI sur ses serveurs cloud. La conversation a eu lieu après que la Commission fédérale du commerce (FTC) des États-Unis a interrogé Google sur les pratiques commerciales de Microsoft dans le cadre d'une enquête plus large. En janvier 2025, un rapport a révélé que Microsoft, qui était auparavant le fournisseur exclusif de capacité cloud d'OpenAI, n'occupera plus cette fonction. Cependant, Microsoft conserve une position favorable auprès de la startup d'IA, ayant le "droit de premier refus" lorsqu'OpenAI cherche à obtenir une capacité supplémentaire.

    Puis en mars 2025, un nouveau rapport a indiqué que Microsoft est en train de développer ses propres modèles axés sur le raisonnement et teste des modèles tiers. Microsoft aurait testé les modèles de DeepSeek, Meta et xAI d'Elon Musk dans son chatbot Copilot. Le rapport indique que Microsoft envisage de rompre ses liens avec OpenAI et de se débarrasser de sa dépendance excessive aux technologies de la startup. Microsoft a déjà exprimé des plaintes concernant le modèle GPT-4 d'OpenAI, jugé trop coûteux et pas assez rapide pour répondre aux questions des utilisateurs. En outre, Microsoft semble également vouloir se débarrasser de ce partenariat pour éviter des poursuites judiciaires.

    Récemment, OpenAI et Microsoft ont tous deux annoncé avoir signé un nouvel accord préliminaire qui marque la première étape vers la révision des termes de leur partenariat de longue date. Les deux parties ont pris des mesures importantes qui sortaient de l'ordinaire dans leur accord de partenariat, ce qui a amené le secteur à se demander si elles étaient toujours en bons termes. L'une de ces mesures concernait Microsoft, qui aurait discuté avec Anthropic, un concurrent d'OpenAI, de l'utilisation de son modèle d'IA Claude pour alimenter les fonctionnalités de son Office 365 Copilot.

    OpenAI et Microsoft ont publié une déclaration commune révélant que les deux sociétés ont signé un nouvel accord préliminaire axé sur un « protocole d'accord non contraignant (MOU) pour la prochaine phase de notre partenariat ». Les deux sociétés ont déclaré que, bien que ce nouveau protocole d'accord ne précise encore rien, elles s'efforcent de finaliser l'accord pour l'avenir de leur partenariat. Selon le communiqué, les deux sociétés s'efforcent de finaliser les termes contractuels « dans un accord définitif » relatif à leur partenariat existant, qui a été renouvelé l'année dernière.

    Voici notamment le communiqué d'OpenAI :

    OpenAI et Microsoft ont signé un protocole d'accord non contraignant (MOU) pour la prochaine phase de notre partenariat. Nous travaillons activement à la finalisation des termes contractuels dans le cadre d'un accord définitif. Ensemble, nous restons déterminés à fournir les meilleurs outils d'IA pour tous, en nous appuyant sur notre engagement commun en faveur de la sécurité.
    Nom : 1.jpg
Affichages : 10920
Taille : 14,2 Ko

    OpenAI et Microsoft n'ont encore communiqué aucune information concrète sur la nature de ce nouveau développement, mais des spéculations et des rapports affirment que les relations entre les deux sociétés se sont détériorées. Les spéculations précédentes faisaient état de tensions croissantes entre OpenAI et Microsoft, d'autant plus que les deux entreprises se tournent vers d'autres partenaires pour leurs technologies.

    Tout d'abord, OpenAI est connu pour avoir récemment conclu un accord avec Oracle pour ses besoins en matière d'infrastructure d'IA et d'hébergement cloud, ainsi que pour avoir rejoint l'initiative Project Stargate, d'une valeur de 500 milliards de dollars. D'autre part, Microsoft s'est tourné vers des entreprises telles que Meta, xAI, DeepSeek et, plus récemment, Anthropic, afin d'étudier les modèles et les technologies d'IA permettant d'alimenter des plateformes telles qu'Azure, Office 365 et Copilot.

    Microsoft reste le plus grand soutien d'OpenAI, le géant du logiciel basé à Redmond étant également l'un de ses plus anciens partenaires, leur relation ayant débuté en 2019. Depuis lors, Microsoft a déjà investi 13 milliards de dollars dans la société de Sam Altman pour développer une technologie d'intelligence artificielle générative, et 1 milliard de dollars supplémentaires étaient prévus pour 2024.

    Bien que Microsoft reste un actionnaire important de l'entreprise, celle-ci n'a obtenu qu'un siège d'observateur l'année dernière, dans le contexte du licenciement et de la réintégration de Sam Altman. Cependant, Microsoft a renoncé à ce siège en raison de la surveillance réglementaire dont fait l'objet l'entreprise, mais elle a conservé ses investissements dans OpenAI et n'a pas modifié les termes de son partenariat.

    En effet, en avril, le PDG de Microsoft AI, Mustafa Suleyman, a déclaré que l'entreprise n'a pas l'intention de jouer un rôle de pionner dans la course à l'IA générative. Il a déclaré que Microsoft préfère laisser ce rôle aux constructeurs de modèles d'IA « frontières » comme OpenAI ou Anthropic. D'après lui, cette stratégie est plus avantageuse et moins coûteuse en ressources financières et en infrastructures. Microsoft laisse donc son partenaire OpenAI brûler de l'argent pour créer des modèles de base, puis s'appuie sur ses succès. Toutefois, Microsoft est à la traîne par rapport à ses concurrents et son assistant d'IA Copilot a été mal accueilli jusqu'à présent.

    Si l'annonce récente a rassuré le secteur sur la poursuite de leur partenariat et sur le caractère non contraignant de leur dernier accord, beaucoup se demandent ce qu'il adviendra de leur relation, alors que les deux parties cherchent d'autres partenaires.

    Sources : Annonce d'OpenAI, Annonce de Microsoft

    Et vous ?

    Pensez-vous que cet accord est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    OpenAI négocie avec Microsoft pour débloquer de nouveaux fonds et procéder à une future introduction en bourse

    OpenAI signe un accord de 300 milliards $ avec Oracle pour la construction de centres de données d'IA, le financement couvrira plus de la moitié des centres de données qu'OpenAI prévoit de construire aux USA

    OpenAI signe un accord surprise avec Google Cloud malgré une rivalité féroce entre les deux entreprises dans la course à l'IA. L'accord illustre l'éloignement progressif entre OpenAI et Microsoft
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  9. #9
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 617
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 617
    Par défaut Le nouvel accord non contraignant de Microsoft et OpenAI permettraient à OpenAI de se restructurer
    Microsoft et OpenAI ont signé un accord non contraignant établissant de nouvelles conditions qui permettraient à OpenAI de se restructurer en une société à but lucratif.

    OpenAI a conclu un nouvel accord provisoire avec Microsoft et a déclaré que son organisation à but non lucratif, qui contrôle techniquement ses activités, recevra désormais une participation de 100 milliards de dollars dans sa société à but lucratif. OpenAI a déclaré avoir conclu un nouvel accord non contraignant avec Microsoft, son partenaire de longue date, « pour la prochaine phase de notre partenariat ».

    En décembre 2024, OpenAI a rend publics les premiers détails de son projet visant à se restructurer en une structure à but lucratif. L'éditeur de ChatGPT a annoncé que sa branche à but lucratif actuelle deviendra une société d'utilité publique (public benefit corporation - PBC) avec des actions ordinaires. Cette nouvelle société ne serait plus sous le contrôle de son conseil d'administration et fonctionnerait davantage comme une startup à forte croissance. OpenAI estime que cela est nécessaire pour attirer plus de capitaux afin d'aller au bout de sa mission, qui est de construire une intelligence artificielle générale (AGI).

    OpenAI est une organisation américaine spécialisée dans l'intelligence artificielle (IA) qui a pour objectif de développer une intelligence artificielle générale (AGI) « sûre et bénéfique », qu'elle définit comme « des systèmes hautement autonomes qui surpassent les humains dans la plupart des tâches à forte valeur économique ». L'organisation a une structure d'entreprise complexe. Microsoft a investi 13 milliards de dollars américains dans OpenAI et a droit à 49 % des bénéfices de la filiale à but lucratif. Microsoft fournit également des ressources informatiques à OpenAI via sa plateforme cloud, Microsoft Azure.

    Récemment, OpenAI a conclu un nouvel accord provisoire avec Microsoft et a déclaré que son organisation à but non lucratif, qui contrôle techniquement ses activités, recevra désormais une participation de 100 milliards de dollars dans sa société à but lucratif. OpenAI a déclaré avoir conclu un nouvel accord non contraignant avec Microsoft, son partenaire de longue date, « pour la prochaine phase de notre partenariat ».

    Les annonces faites comprennent quelques détails sur ces nouveaux arrangements. Les changements proposés par OpenAI à sa structure d'entreprise ont attiré l'attention des régulateurs, des concurrents et des défenseurs préoccupés par les impacts de l'intelligence artificielle. OpenAI a été fondée en tant qu'organisation à but non lucratif en 2015 et son conseil d'administration à but non lucratif a continué à contrôler la filiale à but lucratif qui développe et commercialise désormais ses produits d'IA. Il n'est pas clair si la participation de 100 milliards de dollars que l'organisation à but non lucratif obtiendra dans le cadre de cette annonce représente une participation majoritaire dans l'entreprise.

    Le procureur général de Californie, Rob Bonta, a déclaré que son bureau enquêtait sur la restructuration financière et administrative proposée par OpenAI. Son bureau a déclaré ne pas pouvoir commenter les nouvelles annonces, mais s'est dit « déterminé à protéger les actifs caritatifs afin qu'ils soient utilisés aux fins prévues ». Bonta et la procureure générale du Delaware, Kathy Jennings, ont également envoyé une lettre à l'entreprise pour lui faire part de leurs inquiétudes concernant la sécurité de ChatGPT après avoir rencontré l'équipe juridique d'OpenAI au début de la semaine dernière dans le Delaware, où OpenAI est enregistrée. « Ensemble, nous sommes particulièrement soucieux de veiller à ce que la mission de sécurité déclarée d'OpenAI en tant qu'organisation à but non lucratif reste au premier plan », a déclaré Bonta dans un communiqué.

    Nom : 1.jpg
Affichages : 4192
Taille : 14,3 Ko

    Microsoft a investi son premier milliard de dollars dans OpenAI en 2019, puis les deux sociétés ont conclu un accord qui a fait de Microsoft le fournisseur exclusif de la puissance de calcul nécessaire pour développer la technologie d'OpenAI. En retour, Microsoft a largement utilisé la technologie derrière ChatGPT pour améliorer ses propres produits d'IA.

    Les deux sociétés ont déjà annoncé qu'elles modifiaient cet accord, permettant à la plus petite des deux sociétés de développer sa propre capacité de calcul, « principalement pour la recherche et la formation de modèles ». Cette annonce coïncidait avec celle d'OpenAI concernant un partenariat avec Oracle pour la construction d'un nouveau centre de données gigantesque à Abilene, au Texas. Mais d'autres aspects de ses accords avec Microsoft restaient en suspens, les deux sociétés semblant s'éloigner davantage l'une de l'autre. Dans leur communiqué conjoint publié, elles ont déclaré qu'elles « continuaient à travailler activement à la finalisation des termes contractuels d'un accord définitif ».

    OpenAI avait confié à son conseil d'administration à but non lucratif, dont fait désormais partie un ancien secrétaire au Trésor américain, la responsabilité de décider quand ses systèmes d'IA auraient atteint le stade où ils « surpasseraient les humains dans les tâches les plus rentables », un concept connu sous le nom d'intelligence artificielle générale, ou AGI. Une telle réalisation, selon ses accords antérieurs, priverait Microsoft des droits de commercialisation d'un tel système, puisque les termes « s'appliquent uniquement à la technologie pré-AGI ».

    Cependant, cette restructuration avait créé des tensions internes chez OpenAI. Certaines tensions sont liées à des conflits entre la mission initiale de l'OpenAI, qui consiste à développer l'IA pour le bien public, et de nouvelles initiatives visant à déployer des produits lucratifs. D'autres sont liées au chaos et aux querelles intestines entre les cadres, dignes d'un feuilleton. 20 chercheurs et cadres d'OpenAI qui ont quitté l'entreprise en 2024 et près de la moitié du personnel chargé de la sécurité de l'IAG (Intelligence Artificielle Générale) a quitté l'entreprise.

    La structure organisationnelle et la mission à but non lucratif d'OpenAI font également l'objet d'un procès intenté par Elon Musk, qui a contribué à la création du laboratoire de recherche à but non lucratif et a fourni le financement initial. Le procès intenté par Musk vise à empêcher OpenAI de retirer le contrôle de l'entreprise à son statut à but non lucratif et allègue qu'elle a trahi sa promesse de développer l'IA au profit de l'humanité. En outre, Elon Musk a proposé 97 milliards $ pour racheter OpenAI.

    Source : Microsot et OpenAI

    Et vous ?

    Pensez-vous que cette annonce est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    OpenAI et Microsoft ont annoncé avoir signé un nouvel accord qui marque la première étape vers la révision des termes de leur partenariat de longue date, récemment détérioré

    Les relations entre Microsoft et OpenAI ne sont pas au beau fixe. Microsoft développe des modèles d'IA capables de rivaliser avec ceux d'OpenAI et d'Anthropic, afin de se débarrasser de sa dépendance à OpenAI

    La stratégie de Microsoft en matière d'IA : laisser OpenAI brûler son argent pour créer des modèles pionniers, puis s'appuyer sur ses succès pour améliorer les capacités de Copilot avec 3 à 6 mois de retard
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #10
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 759
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 759
    Par défaut Tucker Carlson demande à Sam Altman si un employé d'OpenAI a été assassiné « sur vos ordres »
    Tucker Carlson demande à Sam Altman si un ancien employé d'OpenAI a été « assassiné sur vos ordres »,
    Suchir Balaji est devenu une épine dans le pied de l'entreprise lorsqu'il a commencé à dénoncer son utilisation d’œuvres protégées

    L’interview choc de Tucker Carlson avec Sam Altman, PDG d’OpenAI, a remis sur le devant de la scène le décès mystérieux de Suchir Balaji, ancien chercheur de l’entreprise. Officiellement classée comme un suicide, la mort du jeune homme est devenue le cœur d’une bataille de récits où s’entremêlent accusations de la famille, soupçons relayés par Elon Musk, et défense ferme mais troublée du patron d’OpenAI. Au-delà de l’affaire elle-même, c’est tout un climat de méfiance envers les géants de l’intelligence artificielle qui s’exprime.

    Suchir Balajin avait dénoncé l'utilisation par OpenAI d'œuvres protégées par le droit d'auteur pour entraîner son modèle d'intelligence artificielle ChatGPT, dans une interview publiée en octobre par le New York Times. Outre les problèmes juridiques liés à la consommation de matériel protégé par des droits d'auteur, Balaji a déclaré au Times qu'il ne s'agissait pas non plus d'un « modèle durable pour l'écosystème de l'internet dans son ensemble ».

    Dans une série d'entretiens, Suchir Balaji a expliqué à Cade Metz, journaliste du New York Times spécialisé dans les technologies, qu'il pensait qu'OpenAI causerait plus de tort que de bien à la société, et il a expliqué que la startup violait les lois sur le droit d'auteur en se fondant sur sa propre compréhension de la manière dont ses modèles sont formés. Cade Metz a publié son article en octobre 2024, ce qui a ravivé les critiques de longue date contre OpenAI.

    Le même jour, Suchir Balaji a mis en ligne un essai détaillé sur son site Web personnel, expliquant qu'OpenAI enfreignait les lois sur l'utilisation équitable. Il a également déclaré à l'Associated Press qu'il essaierait de témoigner dans les affaires de violation de droits d'auteur les plus sérieuses contre OpenAI.

    Il a ajouté qu'il considérait le procès intenté par le New York Times comme « le plus sérieux ». Les avocats du Times l'ont cité dans un dossier déposé au tribunal le 18 novembre 2024 comme quelqu'un qui pourrait avoir des « documents uniques et pertinents » démontrant la violation délibérée du droit d'auteur par OpenAI.

    Le 26 novembre, deux jours avant Thanksgiving, Balaji a été retrouvé mort dans son appartement de Buchanan Street. Le médecin légiste a conclu à un suicide et la police de San Francisco a déclaré qu'il n'y avait « aucune preuve d'acte criminel ».

    La mère de Balaji, Poornima Ramarao, qui vit dans la région de la baie, a déclaré au Bay Area News Group qu'elle et son mari « exigent une enquête approfondie » sur la mort de leur fils. Ils ne croient pas qu'il se serait suicidé et affirment que rien dans son état mental ne laissait présager une telle éventualité. « Personne ne croit qu'il aurait pu faire cela », a déclaré madame Ramarao au groupe de presse. La mère explique que son mari et elle avaient parlé à leur fils pour la dernière fois le 22 novembre, lors d'un appel téléphonique de 10 minutes au cours duquel il n'avait rien indiqué de grave. Il avait dit qu'il sortait pour aller dîner.

    Nom : mere.png
Affichages : 9078
Taille : 498,5 Ko
    Suchir Balaji et sa maman, Poornima Ramarao

    Des circonstances troubles poussent les parents à demander l'ouverture d'une enquête par le FBI, soupçonnant un acte criminel

    En 2020, il est allé travailler pour OpenAI, estimant que l'engagement de l'entreprise à fonctionner comme une organisation à but non lucratif était admirable, selon sa mère. Son opinion sur l'entreprise s'est détériorée en 2022, alors qu'il était chargé de recueillir des données sur Internet pour le programme GPT-4 de l'entreprise, a rapporté le New York Times. Ce programme analysait le texte de la quasi-totalité de l'internet afin d'entraîner son programme d'intelligence artificielle.

    Madame Ramarao a déclaré qu'elle n'était pas au courant de la décision de son fils d'exprimer publiquement ses inquiétudes au sujet d'OpenAI jusqu'à ce que le journal publie son interview. Si elle s'est immédiatement inquiétée de sa décision (allant jusqu'à lui demander de consulter un avocat spécialisé dans les droits d'auteur) elle s'est également déclarée fière du courage de son fils.

    Il n'a cessé de m'assurer : « Maman, je ne fais rien de mal, va voir l'article. Je dis simplement, à mon avis, qu'il n'y a rien de mal là-dedans », a déclaré madame Ramarao, elle-même ancienne employée de Microsoft qui a travaillé sur son programme de cloud computing Azure. « Je l'ai soutenu. Je ne l'ai pas critiqué. Je lui ai dit : « Je suis fière de toi, parce que tu as tes propres opinions et que tu sais ce qui est bien et ce qui est mal ».

    Les parents de Suchir Balaji soupçonnent un acte criminel et ont demandé l'ouverture d'une enquête par le FBI. Dans la vidéo, le père de l'ingénieur, Balagi Ramamurthy, déclare : « j'ai été la dernière personne à lui parler. Il était plus heureux, pas déprimé ou quoi que ce soit d'autre. Et c'était la semaine de son anniversaire ». Sa mère, Poornima Ramarao, prend ensuite la parole et affirme : « il avait prévu de nous voir en janvier [2025]. C'est la dernière conversation téléphonique qu'il a eue avec quelqu'un. Il est entré dans son appartement et n'en est jamais ressorti ».

    Tucker Carlson met Sam Altman sur la sellette

    C’est dans ce climat électrique que Tucker Carlson, figure médiatique américaine connue pour ses interviews sans concessions, a invité Sam Altman à répondre directement aux accusations. Il a évoqué sa croyance en une théorie selon laquelle l'ancien chercheur d'OpenAI Suchir Balaji aurait « sans aucun doute été assassiné ».

    Carlson a expliqué sans détour les raisons qui le poussent à croire à cette théorie, affirmant que « la mère [de Balji] prétend qu'il a été assassiné sur vos ordres ». Altman, visiblement mal à l'aise, a réfuté implicitement en choisissant de s'appuyer sur la version officielle. Il a évoqué les rapports de police et leurs conclusions après enquête, puis a remarqué : « Je trouve étrange et triste de débattre de cela, et devoir me défendre me semble complètement fou, et vous m'accusez un peu », même si Carlson nie l'avoir fait. Il a répété que « rien ne prouve un meurtre » et que la mort de Balaji est « une tragédie personnelle, pas une conspiration ».

    Ses réponses, parfois indirectes, ont laissé place à l’interprétation. Au lieu de nier frontalement l’accusation, Altman a semblé se retrancher derrière les enquêtes officielles, ce qui, pour ses critiques, entretient plus qu’il n’éteint la controverse.

    La mère de Balaji a déclaré qu'elle pensait qu'il avait été assassiné au profit d'OpenAI et d'autres entreprises spécialisées dans l'intelligence artificielle, invoquant l'absence de lettre et les conclusions des experts qu'elle a engagés. Elle est apparue dans l'émission de Carlson plus tôt cette année, dans un épisode intitulé « La mère du lanceur d'alerte d'OpenAI probablement assassiné révèle tout et demande l'ouverture d'une enquête sur Sam Altman ». Depuis la mort de Balaji, son point de vue a été relayé par Elon Musk et de nombreuses personnes de son entourage, ainsi que par plusieurs élus.


    Rendez-vous à 34:28

    Carlson : « ... Je pense qu'il a clairement été assassiné... Il y avait bien sûr des traces de lutte. Les câbles de la caméra de surveillance avaient été coupés. Il venait de commander un repas à emporter, il revenait de vacances avec ses amis sur l'île de Catalina. Rien n'indiquait qu'il était suicidaire. Il n'avait laissé aucune lettre et ne montrait aucun signe particulier. Il venait de parler à un membre de sa famille au téléphone.

    Et puis on l'a retrouvé mort, avec du sang dans plusieurs pièces. C'est impossible. Il semble évident qu'il a été assassiné. En avez-vous parlé aux autorités ? »

    Altman : Je n'en ai pas parlé aux autorités.

    Carlson : « Euh, et sa mère affirme qu'il a été assassiné sur vos ordres. »

    Altman : « Vous croyez ça ? »

    Carlson : « Je... Je, eh bien, je pose la question. »

    Altman : « Je veux dire... vous venez de le dire, alors y croyez-vous ?

    Carlson : « Je pense que cela vaut la peine d'être examiné. Et je ne... Je veux dire, si un type accuse votre entreprise d'avoir commis des crimes, je n'ai aucune idée si c'est vrai ou non, bien sûr. Et puis on le retrouve mort, et il y a des signes de lutte. Je... Je ne pense pas qu'il faille écarter cette hypothèse... Je ne pense pas qu'on doive dire, eh bien, il s'est suicidé alors qu'il n'y a aucune preuve que ce type était dépressif. Hum, je pense... et s'il était votre ami, je pense qu'il aurait voulu parler à sa mère ou...

    Altman : « Je lui ai proposé, mais elle n'a pas voulu.

    Carlson : « Alors, pensez-vous que lorsque les gens regardent cela et se disent que c'est possible, cela reflète leurs inquiétudes quant à ce qui se passe ici ? Comme si les gens avaient peur que ce soit comme... »

    Altman : « Je n'ai pas donné beaucoup d'interviews où j'ai été accusé de... »

    Carlson : « Oh, je ne vous accuse pas du tout. Je dis simplement que c'est ce que dit sa mère. »

    Elon Musk, amplificateur des soupçons

    L’affaire n’aurait sans doute pas pris une telle ampleur sans l’intervention d’Elon Musk. Le patron de Tesla et de X (ex-Twitter), rival assumé d’OpenAI depuis son départ houleux de l’organisation, a publiquement soutenu les doutes de la famille. Dans plusieurs messages, il a relayé l’idée que Balaji « n’a pas mis fin à ses jours » mais a été « assassiné ».

    Dans un contexte où Musk mène une bataille personnelle et juridique contre OpenAI — qu’il accuse d’avoir trahi sa mission initiale d’organisation à but non lucratif — son intervention a donné une caisse de résonance mondiale à des soupçons jusque-là cantonnés à des cercles restreints.

    Un climat d’hostilité croissante autour d’OpenAI

    La mort de Balaji survient dans un moment où OpenAI cristallise déjà de nombreuses critiques. Accusée de manque de transparence, de dérives monopolistiques, et d’avoir bâti ses modèles sur des données collectées sans consentement clair, la société est régulièrement ciblée par des procès d’auteurs, d’éditeurs et d’artistes.

    Suchir Balaji lui-même s’était montré critique sur la gestion des droits d’auteur par OpenAI, ce qui alimente aujourd’hui la thèse d’un conflit interne. Pour ses soutiens, il aurait pu être un lanceur d’alerte gênant, porteur d’informations compromettantes sur l’utilisation massive d’œuvres protégées pour entraîner des IA génératives comme GPT ou DALL-E.

    Cette dimension « lanceur d’alerte » rend sa mort particulièrement explosive. Car si l’on venait à démontrer que ses critiques étaient fondées, la responsabilité morale — voire juridique — d’OpenAI en serait renforcée.

    Sources : vidéo de l'interview dans le texte, Suchir Balaji

    Et vous ?

    Quel est votre avis sur le sujet ? Penchez-vous plus du côté des propos de la famille et de Carlson qui pense à un acte criminel, ou de ceux de Sam Altman et des autorités qui évoquent un suicide ?

    Jusqu’où faut-il aller dans la transparence quand un décès touche un employé d’une entreprise au cœur des enjeux mondiaux de l’IA ?

    Les lanceurs d’alerte dans le secteur technologique sont-ils suffisamment protégés face aux pressions internes et aux intérêts colossaux en jeu ?

    Peut-on reprocher aux médias et aux figures publiques comme Tucker Carlson ou Elon Musk d’alimenter le doute, ou jouent-ils un rôle nécessaire de contre-pouvoir ?

    Comment restaurer la confiance dans les entreprises d’IA si chaque drame personnel devient un terrain fertile pour les théories du complot ?

    Le cas Balaji est-il un simple épisode isolé ou le symptôme d’un malaise plus profond dans la gouvernance et la culture des géants de la tech ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  11. #11
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    123
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 123
    Par défaut
    Est-ce qu'on imagine une seule seconde un journaliste français osé poser une telle question ?

Discussions similaires

  1. Réponses: 2
    Dernier message: 13/02/2025, 00h21
  2. Réponses: 26
    Dernier message: 30/12/2024, 16h40
  3. Réponses: 11
    Dernier message: 02/08/2017, 00h36
  4. Réponses: 5
    Dernier message: 11/10/2011, 17h23

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo