IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 654
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 654
    Par défaut Suchir Balaji, le lanceur d'alerte d'OpenAI, était cité comme détenant des preuves accablantes sur OpenAI
    Le lanceur d'alerte d'OpenAI décédé était considéré comme un témoin dans des procès contre l'entreprise
    il détenait des « documents pertinents » démontrant les violations de droit d'auteur par OpenAI

    Suchir Balaji, un ancien ingénieur d'OpenAI devenu lanceur d'alerte concernant les pratiques de l'entreprise en matière de données, a été retrouvé mort dans son appartement à San Francisco le 26 novembre 2024. De nouveaux éléments révèlent que Suchir Balaji, 26 ans, était cité comme témoin dans des affaires judiciaires contre OpenAI comme ayant des « documents pertinents » sur la violation présumée des droits d'auteur par la startup. Suchir Balaji a dénoncé publiquement ce qu'il appelle « la collecte massive et abusive des données » effectuée par OpenAI dans le cadre de la formation de ses modèles d'IA et s'est interrogé sur la légalité de cette pratique.

    Suchir Balaji était cité comme détenant des preuves accablantes sur OpenAI

    Selon les récits sur Suchir Balaji, il était très apprécié par ses anciens collègues d'OpenAI. Un cofondateur d'OpenAI a même déclaré récemment que Suchir Balaji avait joué un rôle essentiel dans le développement de certains des produits d'IA générative de l'entreprise. « Les contributions de Suchir à ce projet ont été essentielles, et le projet n'aurait pas abouti sans lui », a déclaré John Schulman, cofondateur d'OpenAI, dans un hommage sur Suchir Balaji.


    John Schulman, qui a recruté Suchir Balaji dans son équipe, a déclaré que ce qui avait fait de lui un ingénieur et un scientifique exceptionnel était son souci du détail et sa capacité à remarquer des bogues subtils ou des erreurs logiques. « Il avait le don de trouver des solutions simples et d'écrire des codes élégants qui fonctionnaient. Il réfléchissait soigneusement et rigoureusement aux détails des choses », peut-on lire dans le message de John Schulman.

    Par la suite, Suchir Balaji s'est consacré à l'organisation des énormes ensembles de données utilisés pour former GPT-4, la quatrième génération du grand modèle de langage (LLM) phare d'OpenAI et la base du célèbre chatbot de la société. C'est ce travail qui a amené Suchir Balaji à s'interroger sur la technologie qu'il avait contribué à mettre au point, en particulier après que les éditeurs et les créateurs de contenus ont commencé à poursuivre OpenAI en justice.

    OpenAI est accusé de violation de droit d'auteur par les plaignants, qui réclament des lois pour protéger leurs moyens de subsistance contre l'essor de l'IA. Suchir Balaji partageait l'avis de ces travailleurs. Il a d'abord fait part de ses préoccupations au New York Times, qui les a rapportées dans un portrait de Suchir Balaji publié en octobre 2024. Le New York Times poursuit également OpenAI pour utilisation non autorisée de ses articles de presse par ChatGPT.

    Suchir Balaji a ensuite déclaré à l'Associated Press qu'il essaierait de témoigner dans les affaires de violation de droits d'auteur les plus sérieuses et qu'il considérait le procès intenté par le New York Times comme « le plus sérieux ». Les avocats du Times l'ont cité dans un dossier déposé au tribunal le 18 novembre 2024 comme quelqu'un qui pourrait avoir des « documents uniques et pertinents » démontrant la violation délibérée du droit d'auteur par OpenAI.

    Il n'a pas été auditionné par les tribunaux et l'on ne sait pas dans quelle mesure ses déclarations seront admises comme preuves dans les affaires judiciaires après sa mort. Il a également publié un billet de blogue personnel dans lequel il fait part de ses opinions sur le sujet.

    Suchir Balaji avait déclaré qu'il était de plus en plus désillusionné par OpenAI

    Les dossiers de Suchir Balaji ont également été demandés par des avocats dans un procès distinct intenté par des auteurs de livres, dont la comédienne Sarah Silverman. « Il n'est pas normal de s'entraîner sur les données des gens et de leur faire concurrence sur le marché. Je ne pense pas que vous devriez être en mesure de faire cela. Je ne pense pas qu'il soit possible de le faire légalement », a expliqué Suchir Balaji à l'Associated Press fin octobre 2024.

    Il a déclaré à l'Associated Press qu'il était de plus en plus désillusionné par OpenAI, en particulier après les troubles internes qui ont conduit son conseil d'administration à licencier le PDG, Sam Altman, en 2023, avant le réembaucher. Suchir Balaji a déclaré qu'il était globalement préoccupé par la manière dont ses produits commerciaux étaient déployés, notamment par leur propension à diffuser des informations erronées, connues sous le nom d'hallucinations.

    Mais parmi les nombreux problèmes qui le préoccupent, il a déclaré qu'il se concentrait sur les droits d'auteur, car « il était réellement possible de faire quelque chose ». Suchir Balaji a reconnu qu'il s'agissait d'une opinion impopulaire au sein de la communauté des chercheurs en IA, qui a l'habitude de puiser des données sur Internet. Cela dit, Suchir Balaji a ajouté que les chercheurs en IA vont finir par changer d'avis et que c'est une question de temps.

    John Schulman, qui a démissionné d'OpenAI en août 2024, a déclaré que Suchir Balaji et lui avaient quitté OpenAI le même jour, par coïncidence, et qu'ils avaient fêté leur départ avec d'autres collègues le soir même, en dînant et en buvant un verre dans un bar de San Francisco. Un autre des mentors de Suchir Balaji, le cofondateur et scientifique en chef Ilya Sutskever, avait quitté OpenAI quelques mois plus tôt, ce qui a motivé le départ de Suchir Balaji.

    John Schulman a déclaré que Suchir Balaji lui avait fait part, au début de l'année, de son intention de quitter OpenAI et qu'il ne pensait pas qu’une IA meilleure que l'homme était à portée de main, comme le reste de l'entreprise semblait le croire. « Le jeune ingénieur a exprimé son intérêt pour l'obtention d'un doctorat et l'exploration d'idées plus éloignées des sentiers battus sur la manière de construire l'intelligence », a déclaré John Schulman.

    OpenAI a confirmé qu'il s'appuie sur des œuvres protégées par le droit d'auteur

    Ces dernières années, les capacités des chatbots d'IA, comme ChatGPT d'OpenAI, se sont considérablement améliorées ; ils s'appuient sur de grands modèles de langage (LLM) pour produire du contenu pour les utilisateurs. Mais le processus de formation est largement controversé, certains éditeurs accusant OpenAI d'utiliser des œuvres protégées par des droits d'auteur sans autorisation, et un certain nombre d'affaires juridiques sont en cours.

    Défendant ses pratiques commerciales dans un récent procès, OpenAI a déclaré : « les modèles apprennent, comme nous le faisons tous, de ce qui a été fait auparavant. La défense de l'usage équitable existe précisément pour cette raison : encourager et permettre le développement de nouvelles idées qui s'appuient sur des idées antérieures ». Cette défense d'OpenAI est conforme aux précédentes déclarations de l'entreprise sur la formation de ses modèles.

    En janvier 2024, OpenAI affirmait : « étant donné que le droit d'auteur couvre aujourd'hui pratiquement toutes les formes d'expression humaine, il serait impossible d’entraîner les meilleurs modèles d'IA d'aujourd'hui sans utiliser des documents protégés par le droit d'auteur ». OpenAI reconnaît donc ouvertement qu'il utilise des contenus protégés par des droits d'auteurs pour créer ses modèles d'IA. L'entreprise n'a toutefois pas encore été condamnée.

    Plusieurs éditeurs de presse ont poursuivi Microsoft et OpenAI pour violation du droit d'auteur. Parmi les poursuivants, on peut noter les éditeurs de presse de Californie, du Colorado, de l'Illinois, de Floride, du Minnesota et de New York. Certains procès sont en cours, mais le 7 novembre 2024, le juge de district américain Colleen McMahon, à New York, a rejeté une poursuite contre OpenAI qui avait été intentée par les médias Raw Story et AlterNet.

    Selon les experts, la porte de sortie de la situation semble résider dans la conclusion d’accords de licence avec les éditeurs de presse. L'Associated Press et OpenAI ont conclu un accord de licence permettant à OpenAI d'accéder à une partie des archives textuelles du média. Mais ces accords sont controversés.

    Source : billet de blogue

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du décès subit de l'ancien ingénieur d'OpenAI devenu lanceur d'alerte ?
    Ses révélations seront-elles d'une quelconque utilité dans les affaires judiciaires en cours contre OpenAI ?

    Voir aussi

    L'ancien chercheur d'OpenAI Suchir Balaji, devenu lanceur d'alerte, a été retrouvé mort, après avoir accusé OpenAI de violer des droits d'auteur, Elon Musk a posté une réaction énigmatique

    GPT-5, le prochain grand projet d'OpenAI dans le domaine de l'IA, est en retard sur le calendrier et est très coûteux. L'entreprise manque de sources de données fiables et fait face à des défis techniques

    Des lanceurs d'alerte affirment qu'OpenAI a illégalement interdit à son personnel de divulguer les risques de sécurité liés à son IA en s'appuyant sur des accords contraignants et des menaces de représailles

  2. #2
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 617
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 617
    Par défaut Sam Altman estime que GPT continuera à s'améliorer pendant au moins les trois ou quatre prochaines générations
    Sam Altman estime que GPT continuera à s'améliorer pendant au moins les trois ou quatre prochaines générations de modèles : "Nous sommes très loin du moment où nous commencerons à nous stabiliser."

    Sam Altman estime que GPT continuera à s'améliorer et qu'on est très loin de la fin de l'évolution de l'IA.

    Sam Altman, de son vrai nom "Samuel Harris Altman", est un entrepreneur et investisseur américain surtout connu comme PDG d'OpenAI depuis 2019 (il a été brièvement licencié et réintégré en novembre 2023). Il est considéré comme l'une des figures de proue du boom de l'IA.

    Sam Altman estime que GPT continuera à s'améliorer pendant au moins les trois ou quatre prochaines générations de modèles. Selon sa déclaration, on serait très loin du moment où l'IA commencera à se stabiliser.

    Nous sommes très loin du moment où nous commencerons à nous stabiliser. Nous n'y pensons pas pour l'instant. Je pense que pour les trois ou quatre prochaines générations de modèles, nous pouvons faire beaucoup mieux à chaque fois. Nous devrions nous concentrer sur ce point et si nous y parvenons, tout le reste s'arrangera.

    Je pense que notre créneau, ou quoi que ce soit d'autre, est de fournir des capacités cognitives formidables, utiles, impressionnantes, aussi abondantes et peu coûteuses que possible, et il y a d'autres bonnes choses que nous pouvons faire. Mais si nous pouvons nous concentrer sur cela, je pense que ce sera un grand service pour le monde et que nous pourrons continuer ainsi pendant un certain temps.
    Et vous ?

    Pensez-vous que cette déclaration est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    GPT-5 pourrait arriver cet été en tant que MAJ « nettement améliorée » de ChatGPT. Les réactions divergentes soulignent les limites des MAJ précédentes et la nécessité d'une évaluation critique

    Sam Altman : « je me fiche de savoir si nous dépensons 50 milliards de dollars par an, nous construisons l'AGI et cela en vaudra la peine ». Ce montant dépasse largement le PIB de certains pays

    Découvrez Sam Altman, PDG d'OpenAI, qui a appris à programmer à l'âge de 8 ans et qui se prépare également à l'apocalypse avec une réserve d'or, des armes et des masques à gaz
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #3
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    375
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 375
    Par défaut
    Mais M. Lightcap estime qu'une IA plus avancée pourrait au moins jouer le rôle d'un « comédien de stand-up », ce qui, selon le dirigeant d'OpenAI, pourrait être possible.
    Pour l'instant c'est plus lui que son IA qui me fait rire .
    Ils vont tellement loin dans leurs déclarations absurdes qu'on dirait presque des interviews du gorafi.

    https://southpark.fandom.com/fr/wiki/Funnybot

  4. #4
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 758
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 758
    Par défaut OpenAI a commencé la formation d'un nouveau modèle d'IA qui va succéder à GPT-4
    OpenAI a commencé la formation d'un nouveau modèle d'IA qui va succéder à GPT-4 :
    « nous prévoyons que les systèmes qui en résulteront nous amèneront au niveau suivant de capacités sur la voie de l'IAG »

    OpenAI a déclaré mardi qu'elle avait commencé à former un nouveau modèle phare d'intelligence artificielle qui succéderait à la technologie GPT-4 qui alimente son populaire chatbot en ligne, ChatGPT. Ce nouveau modèle, encore en phase d’entraînement, promet d’être plus puissant, plus précis et plus polyvalent que jamais.

    La start-up de San Francisco, qui est l'une des principales entreprises d'intelligence artificielle au monde, a déclaré dans un billet de blog qu'elle s'attendait à ce que le nouveau modèle apporte « le prochain niveau de capacités » dans le cadre de ses efforts pour construire une « intelligence générale artificielle », ou IAG, une machine capable de faire tout ce que le cerveau humain est capable de faire. Le nouveau modèle serait un moteur pour les produits d'IA, notamment les chatbots, les assistants numériques semblables à Siri d'Apple, les moteurs de recherche et les générateurs d'images.

    OpenAI vise à faire progresser la technologie de l'intelligence artificielle plus rapidement que ses rivaux, tout en apaisant les critiques qui affirment que cette technologie devient de plus en plus dangereuse, contribuant à diffuser de la désinformation, à remplacer des emplois et même à menacer l'humanité. Les experts ne s'accordent pas sur la date à laquelle les entreprises technologiques atteindront l'intelligence artificielle générale, mais des sociétés comme OpenAI, Google, Meta et Microsoft ont régulièrement augmenté la puissance des technologies d'intelligence artificielle depuis plus d'une décennie, faisant un bond en avant tous les deux ou trois ans environ.

    Le GPT-4 d'OpenAI, publié en mars 2023, permet aux chatbots et à d'autres applications logicielles de répondre à des questions, de rédiger des courriels, de générer des mémoires et d'analyser des données. Une version actualisée de la technologie, qui a été dévoilée ce mois-ci et n'est pas encore disponible à grande échelle, peut également générer des images et répondre à des questions et à des commandes d'une voix très conversationnelle.

    Quelques jours après la présentation par OpenAI de la version actualisée, appelée GPT-4o, l'actrice Scarlett Johansson a déclaré qu'elle utilisait une voix « étrangement similaire à la mienne ». Elle a déclaré qu'elle avait refusé les efforts du directeur général d'OpenAI, Sam Altman, pour obtenir une licence d'utilisation de sa voix pour le produit et qu'elle avait engagé un avocat pour demander à OpenAI de cesser d'utiliser cette voix. L'entreprise a déclaré que la voix n'était pas celle de Johansson.

    Les technologies telles que GPT-4o acquièrent leurs compétences en analysant de vastes quantités de données numériques, notamment des sons, des photos, des vidéos, des articles de Wikipédia, des livres et des articles d'actualité. En décembre, le New York Times a intenté un procès à OpenAI et à Microsoft, arguant d'une violation des droits d'auteur sur les contenus d'information liés aux systèmes d'IA.

    La « formation » numérique des modèles d'IA peut prendre des mois, voire des années. Une fois la formation terminée, les entreprises d'I.A. consacrent généralement plusieurs mois supplémentaires à tester la technologie et à la peaufiner en vue d'une utilisation publique.
    Cela pourrait signifier que le prochain modèle d'OpenAI n'arrivera pas avant neuf mois ou un an, voire plus.

    Nom : open.png
Affichages : 20706
Taille : 347,8 Ko

    OpenAI a déclaré avoir créé un nouveau comité chargé d'évaluer les risques posés par la nouvelle technologie

    Ce comité sera dirigé conjointement par le PDG et cofondateur Sam Altman, ainsi que par trois membres du conseil d'administration de l'entreprise : le président Bret Taylor, Adam D'Angelo et Nicole Seligman.

    Six experts techniques et politiques de l'OpenAI - Aleksander Madry (responsable de la préparation), Lilian Weng (responsable des systèmes de sécurité), John Schulman (responsable de la science de l'alignement), Matt Knight (responsable de la sécurité) et Jakub Pachocki (scientifique en chef) - feront également partie du comité et l'entreprise a déclaré qu'elle « retiendra et consultera d'autres experts en matière de sûreté, de sécurité et de technologie » pour soutenir le travail.

    La première tâche du comité consistera à examiner et à développer les processus et les garanties de l'entreprise au cours des 90 prochains jours, après quoi il fera part de ses recommandations à l'ensemble du conseil d'administration.

    Alors qu'OpenAI forme son nouveau modèle, son nouveau comité de sûreté et de sécurité s'efforcera d'affiner les politiques et les processus de protection de la technologie, a indiqué l'entreprise.

    Au début du mois, OpenAI a annoncé qu'Ilya Sutskever, cofondateur et l'un des responsables de ses efforts en matière de sécurité, quittait l'entreprise. Ce départ a suscité des inquiétudes quant au fait qu'OpenAI ne s'attaquait pas suffisamment aux dangers posés par l'IA.

    En novembre, le Dr Sutskever s'est joint à trois autres membres du conseil d'administration pour écarter Altman d'OpenAI, estimant qu'on ne pouvait plus lui faire confiance dans le cadre du projet de l'entreprise visant à créer une intelligence artificielle générale pour le bien de l'humanité. Après une campagne de lobbying menée par les alliés d'Altman, ce dernier a été rétabli dans ses fonctions cinq jours plus tard et a depuis réaffirmé son contrôle sur l'entreprise.

    Sutskever a dirigé ce que l'OpenAI a appelé son équipe « Superalignment », qui a étudié les moyens de garantir que les futurs modèles d'IA ne soient pas nuisibles. Comme d'autres dans ce domaine, il était de plus en plus préoccupé par le fait que l'I.A. représentait une menace pour l'humanité.

    Jan Leike, qui dirigeait l'équipe Superalignment avec le Dr Sutskever, a démissionné de l'entreprise ce mois-ci, laissant planer le doute sur l'avenir de l'équipe.

    OpenAI a intégré ses recherches sur la sécurité à long terme dans ses efforts plus vastes visant à garantir la sécurité de ses technologies. Ces travaux seront dirigés par John Schulman, un autre cofondateur, qui dirigeait auparavant l'équipe à l'origine de ChatGPT. Le nouveau comité de sécurité supervisera les recherches de Schulman et fournira des conseils sur la manière dont l'entreprise abordera les risques technologiques.

    Nom : openai.png
Affichages : 6554
Taille : 194,7 Ko

    Le développement de GPT-5 ?

    L'entreprise n'a pas explicitement déclaré qu'il s'agissait du nom du modèle qu'elle forme actuellement. Jusqu'à présent, OpenAI a suivi une séquence de dénomination claire pour ses modèles fondamentaux sous la forme de variations numériquement croissantes de GPT. Son dernier modèle fondateur, qui alimente notamment ChatGPT, est GPT-4, de sorte que son prochain modèle phare devrait prendre la forme de GPT-5. On s'attend à ce qu'OpenAI publie une mise à jour majeure sous la forme de GPT-5 dans les mois à venir, en particulier face à la concurrence de plus en plus intense de modèles rivaux tels que le Llama 3 de Meta, le Gemini de Google et le Claude 3 d'Anthropic.

    Bien qu'elle soit « fière de construire et de diffuser des modèles qui sont à la pointe de l'industrie en termes de capacités et de sécurité », OpenAI a déclaré qu'elle souhaitait « un débat solide à ce moment important ».

    OpenAI n'a pas indiqué quand ce modèle serait publié. La formation des systèmes d'IA peut prendre des mois, voire des années. L'entreprise a récemment publié une mise à jour de GPT-4, le GPT-4o, pour alimenter son produit phare, ChatGPT, et introduire de nouvelles fonctionnalités telles que le mode vocal, qui lui permettra d'agir en tant qu'assistant numérique comme Alexa d'Amazon ou Siri d'Apple. L'entreprise a déjà été critiquée pour avoir utilisé une voix ressemblant à celle de l'actrice Scarlett Johansson pour l'un de ses assistants virtuels.

    Plusieurs zones d'ombre

    Bien qu'elle semble transparente à première vue, il y a beaucoup d'ambiguïté quant à la volonté d'OpenAI de partager ce que dit son nouveau comité. OpenAI a déclaré qu'elle « partagera publiquement une mise à jour des recommandations adoptées d'une manière compatible avec la sûreté et la sécurité » une fois que le comité aura présenté son rapport au conseil d'administration, mais elle n'a pas précisé quand elle le ferait après la période initiale de 90 jours.

    La formulation de l'entreprise est également limitée au partage des recommandations qu'elle choisit d'adopter et il n'est pas clair si l'entreprise partagera le rapport complet ou les recommandations du comité, en particulier s'ils sont en contradiction avec ce qu'elle décide de mettre en œuvre ou non.

    L'entreprise et le comité sont susceptibles de faire l'objet d'un examen minutieux de la part de la communauté de la sécurité de l'IA, notamment en raison de l'engagement déclaré d'OpenAI en faveur de la sécurité, de la division entre les directeurs concernant son approche de la sécurité et des critiques récentes remettant en cause l'engagement d'anciens membres du personnel, ainsi que du départ de plusieurs responsables clés de la sécurité au sein de l'entreprise.

    Source : OpenAI

    Et vous ?

    Quelles applications concrètes voyez-vous pour ce nouveau modèle d’IA ?
    Quels sont les avantages et les inconvénients potentiels de l’automatisation accrue grâce à l’IA ? Quelles implications voyez-vous notamment sur l’emploi, la productivité et la qualité de vie ?
    Comment pouvons-nous garantir que l’IA est utilisée de manière éthique et responsable ? Partagez vos idées sur la régulation, la transparence et la surveillance de l’IA.
    Quelles sont vos préoccupations concernant la sécurité et la confidentialité des données dans un monde où l’IA est omniprésente ? Cela peut inclure des discussions sur la vie privée, la surveillance et la protection des informations sensibles.
    Pensez-vous que l’IA pourrait révolutionner le travail à distance et le mode de vie des nomades numériques ? Explorez l’impact potentiel de l’IA sur la mobilité professionnelle et la flexibilité du travail.
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 758
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 758
    Par défaut Sam Altman reconnaît qu'OpenAI ne comprend pas entièrement le fonctionnement du GPT malgré des progrès rapides
    Sam Altman reconnaît qu'OpenAI ne comprend pas entièrement le fonctionnement du GPT malgré des progrès rapides,
    mais estime que ce n'est pas nécessaire pour publier de nouvelles versions

    Dans une récente interview, le PDG d’OpenAI, Sam Altman, a abordé la question de la sécurité de l’intelligence artificielle (IA) et du potentiel de cette technologie pour l’humanité. Cependant, il n’a pas semblé avoir une réponse satisfaisante à la question fondamentale de la façon dont GPT fonctionne. Altman a admis que l’interprétabilité, c’est-à-dire la compréhension de la manière dont les systèmes d’IA prennent des décisions, reste un défi. Il a comparé GPT au cerveau humain, soulignant que nous ne comprenons pas non plus exactement comment fonctionne notre propre cerveau, mais nous lui faisons confiance pour suivre certaines règles et expliquer pourquoi nous pensons de certaines manières.

    Fin mai, OpenAI a déclaré mardi qu'elle avait commencé à former un nouveau modèle phare d'intelligence artificielle qui succéderait à la technologie GPT-4 qui alimente son populaire chatbot en ligne, ChatGPT. Ce nouveau modèle, encore en phase d’entraînement, promet d’être plus puissant, plus précis et plus polyvalent que jamais.

    OpenAI vise à faire progresser la technologie de l'intelligence artificielle plus rapidement que ses rivaux, tout en apaisant les critiques qui affirment que cette technologie devient de plus en plus dangereuse, contribuant à diffuser de la désinformation, à remplacer des emplois et même à menacer l'humanité. Les experts ne s'accordent pas sur la date à laquelle les entreprises technologiques atteindront l'intelligence artificielle générale, mais des sociétés comme OpenAI, Google, Meta et Microsoft ont régulièrement augmenté la puissance des technologies d'intelligence artificielle depuis plus d'une décennie, faisant un bond en avant tous les deux ou trois ans environ.

    L'entreprise n'a pas explicitement déclaré qu'il s'agissait du GPT-5. Jusqu'à présent, OpenAI a suivi une séquence de dénomination claire pour ses modèles fondamentaux sous la forme de variations numériquement croissantes de GPT. Son dernier modèle fondateur, qui alimente notamment ChatGPT, est GPT-4, de sorte que son prochain modèle phare devrait prendre la forme de GPT-5. On s'attend à ce qu'OpenAI publie une mise à jour majeure sous la forme de GPT-5 dans les mois à venir, en particulier face à la concurrence de plus en plus intense de modèles rivaux tels que le Llama 3 de Meta, le Gemini de Google et le Claude 3 d'Anthropic.

    Nom : sam.png
Affichages : 136129
Taille : 365,5 Ko

    Pas besoin de savoir comment GPT fonctionne pour le proposer au public

    Quelques jours après cette annonce, le PDG de l'entreprise, Sam Altman, a déclaré qu'OpenAI n'avait pas besoin de comprendre parfaitement son produit pour en publier de nouvelles versions. Lors d'un entretien le 30 mai avec Nicholas Thompson, PDG de The Atlantic, au sommet mondial AI for Good de l'Union internationale des télécommunications (UIT) à Genève, en Suisse, Altman a parlé de la sécurité de l'IA et du potentiel de la technologie pour le bien de l'humanité. Toutefois, le PDG n'a pas semblé avoir une bonne réponse à la question fondamentale du fonctionnement de GPT.

    « Nous n'avons certainement pas résolu la question de l'interprétabilité », a déclaré Altman. Dans le domaine de l'IA, l'interprétabilité - ou l'explicabilité - consiste à comprendre comment les systèmes d'IA et d'apprentissage automatique prennent des décisions, selon le Centre pour la sécurité et les technologies émergentes de l'université de Georgetown.

    « Si vous ne comprenez pas ce qui se passe, n'est-ce pas un argument pour ne pas continuer à publier de nouveaux modèles plus puissants ? a demandé Thompson. Altman a éludé la question et a fini par répondre que, même en l'absence d'une cognition complète, « ces systèmes sont généralement considérés comme sûrs et robustes ».

    Voici son raisonnement : GPT, comme le cerveau humain, génère du contenu en se basant sur des ensembles de données existants et peut apprendre au fil du temps. Cependant, il ne possède pas d’intelligence émotionnelle ni de conscience humaine. Malgré cela, il peut être difficile de comprendre comment les algorithmes, tout comme notre cerveau, parviennent à leurs conclusions.

    « Nous ne comprenons pas ce qui se passe dans votre cerveau, neurone par neurone, et pourtant nous savons que vous pouvez suivre certaines règles et nous pouvons vous demander d'expliquer pourquoi vous pensez quelque chose », a déclaré Altman. En comparant le GPT au cerveau humain, Altman a évoqué la présence d'une boîte noire, ou d'un sentiment de mystère derrière sa fonctionnalité. À l'instar du cerveau humain, la technologie d'IA générative telle que GPT crée de nouveaux contenus sur la base d'ensembles de données existants et est censée apprendre au fil du temps.


    Alors qu'OpenAI poursuit son déploiement itératif, la sécurité reste une préoccupation majeure

    D'autant plus que l'entreprise a récemment dissous son ancienne équipe de sécurité, dirigée par l'ancien scientifique en chef Ilya Sutskever, et a créé une nouvelle équipe de sécurité dirigée par Altman lui-même.

    En fait, OpenAI a déclaré avoir créé un nouveau comité chargé d'évaluer les risques posés par la nouvelle technologie. Ce comité sera dirigé conjointement par le PDG et cofondateur Sam Altman, ainsi que par trois membres du conseil d'administration de l'entreprise : le président Bret Taylor, Adam D'Angelo et Nicole Seligman.

    Six experts techniques et politiques de l'OpenAI - Aleksander Madry (responsable de la préparation), Lilian Weng (responsable des systèmes de sécurité), John Schulman (responsable de la science de l'alignement), Matt Knight (responsable de la sécurité) et Jakub Pachocki (scientifique en chef) - feront également partie du comité et l'entreprise a déclaré qu'elle « retiendra et consultera d'autres experts en matière de sûreté, de sécurité et de technologie » pour soutenir le travail.

    La première tâche du comité consistera à examiner et à développer les processus et les garanties de l'entreprise au cours des 90 prochains jours, après quoi il fera part de ses recommandations à l'ensemble du conseil d'administration.

    Altman a réitéré lors du sommet que la formation d'un nouveau comité de sûreté et de sécurité a pour but d'aider OpenAI à se préparer pour le prochain modèle. « Si nous avons raison de dire que la trajectoire d'amélioration va rester abrupte, il est primordial de déterminer les structures et les politiques que les entreprises et les pays devraient mettre en place dans une perspective à long terme, a déclaré Altman.

    « Il me semble que plus nous pouvons comprendre ce qui se passe dans ces modèles, mieux c'est », a-t-il ajouté, tout en admettant qu'OpenAI n'en est pas encore là. « Je pense que cela peut faire partie de ce paquet cohérent sur la manière dont nous pouvons faire et vérifier les allégations de sécurité.

    Une perspective remise en cause par deux anciennes membres du conseil d'administration d'OpenAI

    Peut-on s'attendre à ce que les entreprises privées qui repoussent les frontières d'une nouvelle technologie révolutionnaire agissent dans l'intérêt de leurs actionnaires et du reste du monde ? Fin mai, Helen Toner et Tasha McCauley, anciennes membres du conseil d'administration d'OpenAI, ont publié un article d'opinion commun dans The Economist sur la décision d'OpenAI :

    « Lorsque nous avons été recrutées au conseil d'administration d'OpenAI - Tasha en 2018 et Helen en 2021 - nous étions prudemment optimistes et pensions que l'approche innovante de l'entreprise en matière d'autogouvernance pourrait offrir un modèle de développement responsable de l'IA. Mais notre expérience nous a appris que l'autogestion ne peut pas résister de manière fiable à la pression des incitations au profit. Compte tenu de l'énorme potentiel d'impact positif et négatif de l'IA, il n'est pas suffisant de supposer que ces incitations seront toujours alignées sur le bien public. Pour que l'essor de l'IA profite à tous, les gouvernements doivent commencer dès maintenant à mettre en place des cadres réglementaires efficaces.

    « Si une entreprise avait pu s'autogérer avec succès tout en développant en toute sécurité et de manière éthique des systèmes d'IA avancés, c'était bien OpenAI. L'organisation a été créée à l'origine en tant qu'organisation à but non lucratif avec une mission louable : veiller à ce que l'IAG, ou intelligence artificielle générale - les systèmes d'IA qui sont généralement plus intelligents que les humains - profite à "l'ensemble de l'humanité". Par la suite, une filiale à but lucratif a été créée pour réunir les capitaux nécessaires, mais l'association à but non lucratif est restée aux commandes. L'objectif déclaré de cette structure inhabituelle était de protéger la capacité de l'entreprise à s'en tenir à sa mission initiale, et le conseil d'administration avait pour mandat de faire respecter cette mission. C'était sans précédent, mais cela valait la peine d'essayer. Malheureusement, cela n'a pas fonctionné.

    « En novembre dernier, dans un effort pour sauver cette structure d'autorégulation, le conseil d'administration de l'OpenAI a licencié son PDG, Sam Altman. La capacité du conseil d'administration à défendre la mission de l'entreprise était devenue de plus en plus limitée en raison des comportements de longue date de M. Altman, qui, entre autres choses, ont, selon nous, sapé la surveillance du conseil d'administration sur les décisions clés et les protocoles de sécurité internes. Plusieurs hauts responsables ont fait part en privé de leurs graves préoccupations au conseil d'administration, affirmant qu'ils pensaient que M. Altman cultivait "une culture toxique du mensonge" et se livrait à "un comportement [qui] peut être qualifié d'abus psychologique". Selon OpenAI, une enquête interne a révélé que le conseil d'administration avait
    "agi dans le cadre de son large pouvoir discrétionnaire" pour licencier M. Altman, mais a également conclu que sa conduite n'avait pas "justifié son renvoi". OpenAI a fourni peu de détails justifiant cette conclusion et n'a pas mis le rapport d'enquête à la disposition des employés, de la presse ou du public.

    « La question de savoir si un tel comportement devrait généralement "justifier la révocation" d'un PDG est un sujet à débattre ultérieurement. Mais dans le cas spécifique d'OpenAI, étant donné le devoir du conseil d'administration de fournir un contrôle indépendant et de protéger la mission d'intérêt public de l'entreprise, nous soutenons l'action du conseil d'administration de licencier M. Altman. Nous pensons également que les développements survenus depuis son retour dans l'entreprise - y compris sa réintégration au conseil d'administration et le départ de talents seniors axés sur la sécurité - n'augurent rien de bon pour l'expérience d'OpenAI en matière d'autogouvernance ».

    Source : interview (vidéo dans le texte)

    Et vous ?

    Quelle est votre opinion sur l’opacité des modèles d’IA comme GPT ? Pensez-vous que les entreprises devraient être plus transparentes quant à la manière dont ces systèmes fonctionnent ?
    Comment percevez-vous le rôle de l’IA dans notre société ? Est-ce une opportunité pour l’innovation ou une menace pour l’emploi et la vie privée ?
    Croyez-vous que nous devrions accorder plus d’attention à la sécurité des systèmes d’IA ? Si oui, quelles mesures devraient être prises pour garantir leur utilisation responsable ?
    Pensez-vous que l’IA pourrait un jour atteindre un niveau d’intelligence comparable à celui de l’homme ? Quelles seraient les implications d’une telle avancée ?
    Quelles sont vos préoccupations concernant l’avenir de l’IA ? Comment pouvons-nous maximiser les avantages tout en minimisant les risques ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #6
    Membre très actif
    Homme Profil pro
    Expertise comptable
    Inscrit en
    Décembre 2019
    Messages
    862
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Expertise comptable
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 862
    Par défaut
    C'est hallucinant non ? C'est comme si le Président de Ferrrari expliquait calmement qu'il ne savait même plus comment ses voitures avancent mais que c'est pas grave tant qu'elles avancent !

    Je caricature mais c'est un peu flippant quand même.

    Et je pense tout de suite au début de l'IA, comme le walk out d'amazon, qui en fait sont juste des milliers de travailleurs sous payés en Inde, donc effectivement vu sous cet angle c'est mieux si le PDG dit qu'il sait même plus comment ça fonctionne, il risque moins gros

  7. #7
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 498
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 498
    Par défaut
    Citation Envoyé par Jules34 Voir le message
    C'est hallucinant non ?P
    Ben, non.

    Le monsieur prépare juste sa défense quand il finira devant un tribunal parce que son "IA machin" a entrainé des catastrophes.

    Rappelez-vous du charmant fondateur de Facebook Mark Zuckerberg mis en accusation par des sénateurs lors d'auditions organisées par les autorités américaines: Il a beaucoup pleuré, a dit qu'il ne savait pas et... s'est excusé platement de ne pas avoir fait plus pour éviter les dérives...

    Et après? Ben rien! Il a déposé sa cravate et son costard (cela servira pour les prochaines auditions), il a remis son jeans et son T-shirt sale puis a continué comme avant sa vie de milliardaire

  8. #8
    Membre émérite Avatar de sergio_is_back
    Homme Profil pro
    Consultant informatique industrielle, développeur tout-terrain
    Inscrit en
    Juin 2004
    Messages
    1 196
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 57
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Consultant informatique industrielle, développeur tout-terrain
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 196
    Par défaut
    Ça ne m'étonne même pas !

    Vous avez déjà amené une Renault en panne dans un garage Renault ?
    Eux aussi ne comprennent pas comment ça marche une Renault !!!

  9. #9
    Membre éprouvé
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    1 063
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 1 063
    Par défaut
    Cédric Villani (https://www.thinkerview.com/justine-...ouveau-maitre/) dit que c'est un des cas de l'histoire où on arrive de manière imprévue à de très bons résultats empiriquement alors même que la théorie est en retard sur la pratique.

  10. #10
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 617
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 617
    Par défaut Sam Altman, PDG d'OpenAI, estime que GPT-5 représente un "progrès significatif" par rapport à GPT-4
    Sam Altman, PDG d'OpenAI, estime que GPT-5 représente une "avancée significative" par rapport à GPT-4, qui "déraille" parfois en commettant des erreurs que même un enfant de six ans ne ferait pas.

    Sam Altman estime que le GPT-5 pourrait constituer une "avancée significative", mais qu'il reste encore "beaucoup de travail à faire".

    OpenAI est une organisation américaine de recherche en intelligence artificielle (IA) fondée en décembre 2015. Elle s'est donnée pour mission de développer une intelligence générale artificielle "sûre et bénéfique", qu'elle définit comme "des systèmes hautement autonomes qui surpassent les humains dans la plupart des travaux économiquement utiles".

    En Novembre 2022, elle lance ChatGPT, un chatbot et un assistant virtuel. Basé sur de grands modèles de langage (LLM), il permet aux utilisateurs d'affiner et d'orienter une conversation vers une longueur, un format, un style, un niveau de détail et un langage souhaités. On attribue à ChatGPT le début du boom de l'IA, qui a conduit à des investissements rapides et continus dans le domaine de l'intelligence artificielle (IA) et à l'attention du public à son égard.

    ChatGPT a été publié en tant qu'aperçu de recherche disponible gratuitement, mais en raison de sa popularité, OpenAI exploite maintenant le service sur un modèle freemium. Les utilisateurs du niveau gratuit peuvent accéder à GPT-4o et GPT-3.5. Les abonnements ChatGPT "Plus", "Team" et "Enterprise" offrent des fonctionnalités supplémentaires telles que la génération d'images DALL-E et une limite d'utilisation accrue de GPT-4o.

    Sam Altman, PDG d'OpenAI, s'attend à ce que GPT-5 fasse des progrès significatifs par rapport au GPT-4, mais il estime qu'il reste encore beaucoup de travail à faire. Altman est considéré comme l'une des figures de proue du boom de l'IA. Il s'attend à ce que le GPT-5 réponde à de nombreuses lacunes de GPT-4 et soit plus performant dans de nombreux domaines, tels que la logique. M. Altman s'attend à une amélioration prévisible des modèles. Il compare l'évolution actuelle au premier iPhone, qui était utile malgré ses défauts.

    Il considère que l'IA a le potentiel de changer la façon dont l'internet est utilisé et de remettre en question les modèles commerciaux existants. L'approche d'OpenAI, qui consiste à accorder des licences aux éditeurs, est plus honnête que les affirmations de Google ou de Perplexity selon lesquelles les offres d'IA profiteraient aux éditeurs. Mais elle présente également des risques pour la diversité des médias.


    Sam Altman estime que GPT-5 représente une "avancée significative" par rapport à GPT-4

    Le PDG d'OpenAI, Sam Altman, tempère les attentes à l'égard de GPT-5, mais s'attend tout de même à une "avancée significative". Lors d'une interview au Festival des idées d'Aspen, M. Altman s'est montré prudent quant aux progrès réalisés dans le développement de GPT-5. "Nous ne savons pas encore. Nous sommes optimistes, mais nous avons encore beaucoup de travail à faire", a-t-il déclaré.

    Malgré ses propos prudents, le responsable d'OpenAI s'attend à ce que GPT-5 représente une "avancée significative" par rapport à son prédécesseur, GPT-4. Le nouveau modèle vise à corriger de nombreuses erreurs commises par le GPT-4. "Je m'attends à ce qu'il constitue une avancée significative. La plupart des erreurs commises par le GPT-4 sont, par exemple, l'incapacité de raisonner, ou encore le fait de dérailler complètement et de commettre une erreur stupide, comme même un enfant de six ans n'en commettrait jamais", explique M. Altman.

    Il souligne que la technologie en est encore à ses débuts, avec des problèmes de données et d'algorithmes, et que les modèles sont relativement petits par rapport à leur potentiel futur. "Nous savons qu'ils s'améliorent de manière prévisible", déclare M. Altman, comparant le développement à celui de l'iPhone. "Le premier iPhone était encore très bogué, mais il était suffisamment bon pour être utile aux gens."

    Le commentaire d'Altman sur la taille des modèles semble être un léger changement par rapport à sa position d'il y a un an, lorsqu'il avait déclaré : "Nous sommes à la fin de l'ère des modèles géants". Mais même à l'époque, M. Altman n'avait pas dit que les modèles ne continueraient pas à se développer, et les investissements importants de Microsoft et d'OpenAI en matière de puissance de calcul et d'énergie témoignent d'un engagement permanent en faveur de l'augmentation des efforts de calcul.

    L'IA met l'économie de l'internet à l'épreuve

    M. Altman estime que "l'IA ne va pas changer de manière super significative, mais plutôt significative, la manière dont les gens utilisent l'internet", affirmant que les "modèles économiques du passé" doivent évoluer, et que cette discussion va au-delà du débat sur les données d'entraînement.

    L'approche d'OpenAI, qui consiste à conclure des accords avec des "éditeurs privilégiés" et à accorder des licences sur leur contenu d'actualités pour ChatGPT, peut être considérée comme plus honnête que celle d'autres entreprises proposant des produits similaires, telles que Google ou Perplexity. Ces dernières prétendent que leurs offres d'IA aident les éditeurs en augmentant le trafic vers leurs sites, ce qui est une affirmation douteuse, voire un mensonge pur et simple, compte tenu de l'état actuel de la technologie et de la manière dont ces services fonctionnent.

    Google n'a fourni aucune donnée pour étayer son affirmation selon laquelle les résumés d'IA pourraient être bénéfiques pour l'ensemble de l'écosystème Internet, et le PDG de Google, M. Pichai, reste extrêmement évasif lorsqu'il s'agit d'expliquer comment la stratégie d'IA de Google a déjà un impact sur le WWW, notamment avec Reddit, le partenaire de Google en matière d'IA, qui a récemment connu une hausse absurde de son trafic.

    Mais l'approche d'OpenAI n'est pas non plus parfaite. Si l'entreprise connaît un grand succès, elle pourrait devenir le gardien des médias dans un écosystème d'assistants d'IA, ce qui pourrait nuire à la diversité des médias et à la diversité d'opinion.

    Source : Interview de Sam Altman au Festival des idées d'Aspen

    Et vous ?

    Pensez-vous que ces propos sont crédibles ou pertinents ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Sam Altman assure que GPT-5 va bénéficier d'une amélioration massive par rapport à GPT-4, faisant « un bond en avant dans les capacités de raisonnement avancées »

    « GPT-5 sera plus intelligent, plus rapide, plus polyvalent et meilleur dans toutes les tâches que GPT-4 », affirme Sam Altman, qui appelle une nouvelle fois à une réglementation mondiale sur l'IA

    GPT-5 pourrait arriver cet été en tant que MAJ « nettement améliorée » de ChatGPT. Les réactions divergentes soulignent les limites des MAJ précédentes et la nécessité d'une évaluation critique
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  11. #11
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 959
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 959
    Par défaut Microsoft quitte le conseil d'administration d'OpenAI alors que l'examen antitrust des pactes IA s'intensifie
    Microsoft quitte le conseil d'administration d'OpenAI alors que l'examen antitrust des pactes d'IA s'intensifie, cette participation a été obtenue après le chaos causé par l'éviction brutale de Sam Altman

    Microsoft a renoncé à son siège au conseil d'administration d'OpenAI, estimant que sa participation n'est plus nécessaire car le fabricant de ChatGPT a amélioré sa gouvernance depuis le chaos qui régnait dans la salle du conseil l'année dernière.

    Microsoft Corporation est une multinationale américaine et une entreprise technologique dont le siège se trouve à Redmond, dans l'État de Washington. Ses produits logiciels les plus connus sont la gamme de systèmes d'exploitation Windows, la suite d'applications de productivité Microsoft 365, la plateforme de cloud computing Azure et le navigateur web Edge. Ses produits matériels phares sont les consoles de jeux vidéo Xbox et la gamme d'ordinateurs personnels à écran tactile Microsoft Surface. Microsoft a été classée n° 14 dans le classement Fortune 500 2022 des plus grandes entreprises américaines en fonction de leur chiffre d'affaires total, et elle a été le plus grand fabricant de logiciels au monde en termes de chiffre d'affaires en 2022, selon Forbes Global 2000. Elle est considérée comme l'une des cinq grandes entreprises américaines de technologies de l'information, aux côtés d'Alphabet (société mère de Google), d'Amazon, d'Apple et de Meta (société mère de Facebook).

    OpenAI est une organisation américaine de recherche en intelligence artificielle (IA) fondée en décembre 2015 et dont le siège se trouve à San Francisco. Sa mission est de développer une intelligence artificielle générale "sûre et bénéfique", qu'elle définit comme "des systèmes hautement autonomes qui surpassent les humains dans la plupart des tâches économiquement utiles". En tant qu'organisation de premier plan dans l'essor actuel de l'IA, OpenAI a développé plusieurs grands modèles de langage, des modèles avancés de génération d'images et, précédemment, des modèles en code source libre. Son lancement de ChatGPT a été considéré comme le catalyseur d'un intérêt généralisé pour l'IA.


    Dans une lettre datée du mardi 9 juillet, Microsoft a confirmé qu'elle démissionnait, "avec effet immédiat", de son rôle d'observateur au sein du conseil d'administration de l'entreprise d'intelligence artificielle.

    « Nous apprécions le soutien apporté par la direction et le conseil d'administration d'OpenAI lorsque nous avons pris cette décision », indique la lettre.

    Ce départ surprise intervient dans un contexte d'intensification de l'examen par les autorités de réglementation antitrust du puissant partenariat en matière d'intelligence artificielle. Microsoft aurait investi 13 milliards de dollars dans OpenAI.

    Les régulateurs de l'Union européenne ont déclaré le mois dernier qu'ils jetteraient un regard neuf sur le partenariat en vertu des règles antitrust de l'Union des 27, tandis que la Federal Trade Commission des États-Unis et l'organisme britannique de surveillance de la concurrence ont également examiné le pacte.

    Microsoft a pris le siège du conseil d'administration à la suite d'une lutte de pouvoir au cours de laquelle le PDG d'OpenAI, Sam Altman, a été licencié, puis rapidement réintégré, tandis que les membres du conseil d'administration à l'origine de l'éviction ont été évincés.

    « Au cours des huit derniers mois, nous avons constaté des progrès significatifs de la part du nouveau conseil d'administration et nous sommes confiants dans la direction de l'entreprise », a déclaré Microsoft dans sa lettre. « Compte tenu de tout cela, nous ne pensons plus que notre rôle limité d'observateur soit nécessaire. »

    Avec le départ de Microsoft, OpenAI ne disposera plus de sièges d'observateurs au sein de son conseil d'administration.

    « Nous sommes reconnaissants à Microsoft d'avoir exprimé sa confiance dans le conseil d'administration et dans la direction de l'entreprise, et nous nous réjouissons de poursuivre notre partenariat fructueux », a déclaré OpenAI dans un communiqué.

    Il n'est pas difficile de conclure que la décision de Microsoft de se débarrasser du siège au conseil d'administration a été fortement influencée par la surveillance croissante des grandes entreprises technologiques et de leurs liens avec les startups d'IA, a déclaré Alex Haffner, partenaire en matière de concurrence au cabinet d'avocats britannique Fladgate.

    « Il est clair que les régulateurs se concentrent sur le réseau complexe d'interrelations que les grandes entreprises technologiques ont créé avec les fournisseurs d'IA, d'où la nécessité pour Microsoft et d'autres d'examiner attentivement la manière dont ils structurent ces arrangements à l'avenir », a-t-il déclaré.

    OpenAI a déclaré qu'elle adopterait une nouvelle approche pour « informer et engager des partenaires stratégiques clés » tels que Microsoft et Apple et des investisseurs tels que Thrive Capital et Khosla Ventures, avec des réunions régulières pour informer les parties prenantes des progrès réalisés et assurer une collaboration plus forte en matière de sûreté et de sécurité.

    Et vous ?

    Quelle lecture faites-vous de cette situation ?
    Trouvez-vous la décision de Microsoft crédible ou pertinente ?

    Voir aussi :

    OpenAI licencie le co-fondateur et PDG Sam Altman, l'accusant d'avoir menti au conseil d'administration de l'entreprise. Viré du conseil, le co-fondateur Greg Brockman a préféré démissionner

    Microsoft annonce un nouvel investissement de plusieurs milliards de dollars dans OpenAI, le créateur de ChatGPT, afin d'accélérer les percées dans le domaine de l'IA
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #12
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 617
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 617
    Par défaut Le modèle GPT-Next d'OpenAI devrait être 100 fois plus puissant que GPT-4 et pourrait être lancé en 2024
    Le modèle GPT-Next d'OpenAI devrait être 100 fois plus puissant que GPT-4, et utilisera probablement une version plus petite du système d'IA avancé "Strawberry", qui pourrait être lancé en 2024

    Le président d'OpenAI au Japon révèle des détails sur "GPT-Next". Le GPT-Next d'OpenAI devrait être 100 fois plus puissant que le GPT-4, en mettant l'accent sur l'efficacité. Le modèle utilisera probablement une version plus petite du système d'IA avancé "Strawberry". GPT-Next pourrait être lancé en 2024, et un modèle encore plus avancé est attendu pour 2025.

    Des rapports en début d'année déclaraient qu'OpenAI s'apprêterait à dévoiler GPT-5, une version améliorée de son modèle d'IA qui alimente ChatGPT. Certaines entreprises clientes auraient eu des démonstrations de GPT-5 ainsi que des améliorations de ChatGPT. Cette mise à jour majeure, potentiellement nommée GPT-5, est décrite comme étant "matériellement meilleure" que son prédécesseur, le GPT-4, avec des capacités améliorées pour imiter la communication humaine et exécuter des tâches automatisées.

    Tadao Nagasaki, le président d'OpenAI au Japon a présenté le prochain modèle d'IA appelé "GPT-Next" et a indiqué qu'il s'attendait à ce qu'il soit beaucoup plus puissant que la version actuelle. Il a partagé ces informations lors de l'événement KDDI Summit 2024 qui s'est tenu à Tokyo. Nagasaki a déclaré : "Le modèle d'IA appelé GPT-Next, qui finira par voir le jour, évoluera près de 100 fois sur la base des réalisations passées. Contrairement aux logiciels conventionnels, la technologie de l'IA croît de manière exponentielle."


    L'amélioration majeure implicite proviendra d'une meilleure architecture et d'une meilleure efficacité d'apprentissage, plutôt que d'une simple puissance de calcul brute. Elle utilisera également une version plus petite de "Strawberry", le système d'IA avancé qu'OpenAI serait en train de développer.

    C'est la première fois que des informations sur GPT-Next sont partagées. OpenAI aurait déjà commencé à former GPT-5 en vue de la sortie du modèle d'IA prévue pour la fin 2024 ou le début 2025. Il aurait également confirmé qu'un modèle plus avancé pourrait voir le jour en 2025. Bien que la date n'ait pas été mentionnée, une diapositive derrière le président japonais d'OpenAI mentionne GPT-Next 2024, une diapositive montrant la trajectoire des versions d'OpenAI.

    Si les capacités multipliées par 100 sont exactes lors du lancement du prochain modèle, l'avenir d'OpenAI pourrait être encore plus excitant que prévu, car l'entreprise continue d'être le leader dans ce domaine. Nagasaki a évoqué l'étape que l'entreprise a franchie, ChatGPT comptant désormais 200 millions d'utilisateurs hebdomadaires.

    L'entreprise a quitté le secteur de la consommation pour cibler les entreprises, avec le lancement de ChatGPT Enterprise en août 2023. Depuis son lancement, OpenAI se targue d'avoir été adoptée par plus de 80 % des entreprises du Fortune 500. Parmi les premiers utilisateurs figurent des leaders de l'industrie tels que Canva, PwC et Zapier. "Le nombre d'adoptions par les entreprises augmente à un rythme effréné", a déclaré M. Nagasaki lors de la conférence.

    Source : Tadao Nagasaki, KDDI Summit 2024, Tokyo

    Et vous ?

    Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Sam Altman, PDG d'OpenAI, estime que GPT-5 représente une "avancée significative" par rapport à GPT-4, qui "déraille" parfois en commettant des erreurs que même un enfant de six ans ne ferait pas

    Bill Gates ne s'attend pas à ce que GPT-5, la nouvelle version du modèle d'IA générative, soit beaucoup plus performante que GPT-4. Il affirme que la technologie GPT a atteint un "plateau"

    OpenAI envisagerait de lancer dès cet automne une nouvelle IA appelée "Strawberry" avec des capacités de raisonnement avancées, mais l'amélioration des capacités de raisonnement des LLM suscite le scepticisme
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  13. #13
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 917
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 917
    Par défaut
    Citation Envoyé par Jade Emy Voir le message
    Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
    Quel est votre avis sur le sujet ?
    Il existe encore, ce type là? Je croyais que la bulle des IA génératives était en train d'éclater et que les investisseurs commençaient enfin à douter et à retirer leurs billes... Oh wait! C'est pour ça qu'il continue de raconter n'importe quoi

  14. #14
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    516
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 516
    Par défaut Je suis bien d'accord...
    Citation Envoyé par kain_tn Voir le message
    Il existe encore, ce type là? Je croyais que la bulle des IA génératives était en train d'éclater et que les investisseurs commençaient enfin à douter et à retirer leurs billes... Oh wait! C'est pour ça qu'il continue de raconter n'importe quoi
    Les annonces d'altman ressemble de plus en plus à celle de musk. ça me fais pensé à Bubka, le spécialiste du saut à la perche dans les années 80. Il ne battait jamais son propre record que d'un centimetre à la fois, car à chaque fois qu'il battait ce record, il touchait un max de l'organisateur d'un meeting. S'il avait battu son record de 5 cm quand il avait la condition et la possibilité de le faire, il ne le faisait pas. Je crois qu'il a augmenté son record une bonne vingtaine de fois. Il était malin.

    BàT et Peace & Love

  15. #15
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 645
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 645
    Par défaut
    Citation Envoyé par OuftiBoy Voir le message
    Les annonces d'altman ressemble de plus en plus à celle de musk. ça me fais pensé à Bubka, le spécialiste du saut à la perche dans les années 80. Il ne battait jamais son propre record que d'un centimetre à la fois, car à chaque fois qu'il battait ce record, il touchait un max de l'organisateur d'un meeting. S'il avait battu son record de 5 cm quand il avait la condition et la possibilité de le faire, il ne le faisait pas. Je crois qu'il a augmenté son record une bonne vingtaine de fois. Il était malin.
    Oui mais cette version est quand même 100fois plus puissante que celle d'avant, il faut à la fois faire pas trop - pour réussir à perpétrer la révolution - et promettre un gros chiffre pour que ça reste une révolution.

  16. #16
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    516
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 516
    Par défaut oui...
    Citation Envoyé par totozor Voir le message
    Oui mais cette version est quand même 100fois plus puissante que celle d'avant, il faut à la fois faire pas trop - pour réussir à perpétrer la révolution - et promettre un gros chiffre pour que ça reste une révolution.
    Et je le vois mal dire que la suivante sera moins puissante que celle d'avant. Ce mec c'est un vendeur, et on vend de l'IA exactement de la même manière qu'une poudre à laver, et le mec en blouse blanche pour faire sérieux et clinique, qui te répête pour la milièmme foisque suite à une étude auprès d'utilisateurs, on clairement remarquer que grâce à machin-truc-bidule, la lessive Y lave mieux de 50% à basse température. Faut pas demander comme ça lavait mal avant

    BàT et peace and love.

  17. #17
    Invité
    Invité(e)
    Par défaut
    #geai:globalvillagekeep:link:https://fr.wikipedia.org/wiki/Fraise
    hmm ...
    L'entreprise a quitté le secteur de la consommation pour cibler les entreprises, avec le lancement de ChatGPT Enterprise en août 2023. Depuis son lancement, OpenAI se targue d'avoir été adoptée par plus de 80 % des entreprises du Fortune 500.
    Des annonces, des messages ...

  18. #18
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    516
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 516
    Par défaut Je suis bien d'accord...
    Citation Envoyé par Fluxgraveon Voir le message
    #geai:globalvillagekeep:link:https://fr.wikipedia.org/wiki/Fraise
    hmm ...

    Des annonces, des messages ...
    Exactement, du blabla corporate.

  19. #19
    Expert confirmé
    Avatar de Jipété
    Profil pro
    Inscrit en
    Juillet 2006
    Messages
    11 203
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations forums :
    Inscription : Juillet 2006
    Messages : 11 203
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    ... sa première tâche était de déterminer quelle devrait être sa première tâche.
    Mais, il n'est pas parti en deadlock, là ? Son code est mal écrit, alors.

  20. #20
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    516
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 516
    Par défaut Ce n'est que mon opinion...
    Citation Envoyé par Jipété Voir le message
    Mais, il n'est pas parti en deadlock, là ? Son code est mal écrit, alors.
    Plus c'est gros, plus ça marche. C'est une constante universelle. Les c... ça ose tout, c'est d'ailleurs à ça qu'on les reconnait. Mais pourquoi se gènerait-il ? Si quelq'un lui barre la route, il lui glissera quelques millions de $ dans la poche et le problème sera règlé.

    On vit dans le monde De Defunes. Fort avec les Faibles, Faible avec les Forts.

    BàT et Peace & Love.

Discussions similaires

  1. Réponses: 2
    Dernier message: 13/02/2025, 00h21
  2. Réponses: 26
    Dernier message: 30/12/2024, 16h40
  3. Réponses: 11
    Dernier message: 02/08/2017, 00h36
  4. Réponses: 5
    Dernier message: 11/10/2011, 17h23

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo