IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

OpenAI annule le lancement de son modèle d'IA o3 au profit d'une version unifiée baptisée GPT-5


Sujet :

Intelligence artificielle

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 387
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 387
    Par défaut OpenAI annule le lancement de son modèle d'IA o3 au profit d'une version unifiée baptisée GPT-5
    OpenAI annonce o3 et o3-mini, ses prochains modèles de raisonnement simulé, o3 correspond aux niveaux humains sur le benchmark ARC-AGI, et o3-mini dépasse o1 dans certaines tâches.

    OpenAI annonce les modèles o3 et o3-mini, sa prochaine génération de modèles de raisonnement simulé. Sam Altman, PDG d'OpenAI, annonce que le modèle o3 mini représente "un gain incroyable en termes de coût et de performance". OpenAI n'a pas encore rendu public les modèles mais offre un accès anticipé pour des tests de sécurité.

    Depuis le 5 décembre 2024, OpenAI a lancé son événement spécial "Shipmas" qui a duré 12 jours consécutifs. Durant cette période, la société a dévoilé de nouvelles fonctionnalités et de nouveaux produits d'IA : notamment son générateur de vidéos par IA Sora, la fonction Vision de son Advanced Voice Mode, en plus d'une série d'outils et de fonctions conçues pour rendre l'utilisation de ChatGPT plus transparente au travail et dans la vie quotidienne.

    Pour clôturer cet évènement, OpenAI a annoncé les modèles o3 et o3 mini, ses modèles d'IA de raisonnement de nouvelle génération. Mark Chen, vice-président de la recherche d'OpenAI, a montré les performances de o3 sur certains benchmarks, par rapport à o1, comme les mathématiques de concours (96,7 %) et les sciences de niveau doctoral (87,7 %).

    OpenAI et le concours ARC Prize ont également expliqué comment o3 a obtenu un score de 76 % sur le benchmark ARC-AGI, qui comprend de nouveaux ensembles de données non publiées. Le benchmark ARC-AGI est conçu pour tester la capacité à apprendre à la volée des compétences nouvelles et distinctes à chaque nouvelle tâche.


    Le modèle o3 mini est conçu pour être un modèle rentable qui équilibre les performances. Il dispose de trois niveaux d'effort différents et peut adapter son temps de raisonnement en fonction de la difficulté du problème. "Un gain incroyable en termes de coût et de performance", a déclaré le PDG Sam Altman.

    Selon OpenAI, o3 et o3 mini ont donc réalisé d'incroyables percées en matière d'intelligence. Mais ils ne sont pas encore prêts à être rendus publics. OpenAI accorde un accès anticipé à o3 et o3 mini pour des tests de sécurité à partir d'aujourd'hui. Les demandes d'adhésion au programme de test des modèles sont acceptées sur une base continue et se terminent le 10 janvier.

    Voici les informations sur l'accès anticipé pour les tests de sécurité :

    Tests de sécurité à l'ère du raisonnement

    Les modèles deviennent rapidement plus performants, ce qui signifie que de nouvelles techniques de modélisation, d'évaluation et de test des menaces sont nécessaires. En tant qu'entreprise, nous investissons beaucoup dans ces efforts, par exemple en concevant de nouvelles techniques de mesure dans le cadre de notre Preparedness Framework, et nous nous concentrons sur les domaines dans lesquels les modèles de raisonnement avancés, comme notre série o, peuvent présenter des risques accrus. Nous pensons que le monde bénéficiera d'une recherche accrue en matière de modélisation des menaces, d'analyse de la sécurité, d'évaluation de la sécurité, d'élicitation des capacités, etc.

    L'accès anticipé est flexible pour les chercheurs en sécurité. Vous pouvez explorer des sujets tels que :

    • Développer des évaluations robustes : Construire des évaluations pour évaluer des capacités précédemment identifiées ou de nouvelles capacités potentielles ayant des implications significatives en matière de sécurité ou de sûreté. Nous encourageons les chercheurs à explorer des idées qui mettent en évidence des modèles de menace identifiant des capacités, des comportements et des propensions spécifiques susceptibles de poser des risques concrets liés aux évaluations qu'ils soumettent.

    • Créer des démonstrations de capacités potentiellement à haut risque : Élaborer des démonstrations contrôlées montrant comment les capacités avancées des modèles de raisonnement pourraient causer des dommages importants aux individus ou à la sécurité publique en l'absence d'autres mesures d'atténuation. Nous encourageons les chercheurs à se concentrer sur des scénarios qui ne sont pas possibles avec les modèles ou les outils actuellement largement adoptés.

    Nous espérons que ces réflexions permettront de dégager des conclusions précieuses et contribueront à repousser les limites de la recherche sur la sécurité de manière plus générale. Ce document ne remplace pas les tests de sécurité formels ou les processus de l'équipe rouge.

    L'événement spécial d'OpenAI devrait avoir un impact significatif sur l'industrie de l'IA. Il démontre l'engagement d'OpenAI en faveur de l'innovation rapide et sa capacité à susciter l'enthousiasme du public autour des avancées de l'IA. Pour rappel, le lancement de ChatGPT par OpenAI à la fin du mois de novembre 2022 a lancé une véritable course à l'IA générative, ce qui a provoqué un boom des investissements dans le secteur et la recherche en matière d'IA.

    Mais OpenAI suscite également les controverses actuellement. Elon Musk a notamment déposé une injonction pour stopper la transition d'OpenAI vers un modèle à but lucratif. Les principales cibles de l'injonction sont Sam Altman, Reid Hoffman, Microsoft et ses investissements de plusieurs milliards de dollars dans OpenAI. Récemment, Meta Platforms, société mère de Facebook, a apporté son soutien à cette action via une lettre déposée au procureur général de Californie.

    Source : Programme d'accès anticipé d'OpenAI

    Et vous ?

    Pensez-vous que ces nouveaux modèles d'OpenAI sont crédibles ou pertinents ?
    Quel est votre avis sur cette annonce ?

    Voir aussi :

    Le modèle GPT-4o présente un risque "moyen", selon la dernière évaluation d'OpenAI, qui met en lumière ses efforts pour atténuer les risques potentiels liés à son dernier modèle d'IA multimodale

    Annonce du Prix ARC : un concours de plus d'un million de dollars pour les progrès de l'AGI open-source, car une approche open-source permettrait de générer de nouvelles idées pour atteindre l'AGI

    GPT-5, le prochain grand projet d'OpenAI dans le domaine de l'IA, est en retard sur le calendrier et est très coûteux. L'entreprise manque de sources de données fiables et fait face à des défis techniques

    Une recherche sur les tâches simples montrant la décomposition du raisonnement IA dans les LLM de pointe donne OpenAI GPT-4o largement en tête, suivi d'Anthropic Claude 3
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 538
    Par défaut OpenAI annule le lancement de son modèle d'IA o3 au profit d'une version unifiée baptisée GPT-5
    OpenAI change de cap et annule le lancement de son modèle d'IA o3 au profit d'une version « unifiée » baptisée GPT-5,
    Sam Altman évoque un souci de simplification mais certains y voient un problème de coûts

    OpenAI a récemment annoncé une révision stratégique majeure de sa feuille de route technologique. Selon Sam Altman, PDG d'OpenAI, l'entreprise a décidé d'annuler le lancement autonome de son modèle "o3" au profit d'une version unifiée de nouvelle génération, baptisée GPT-5. OpenAI avait dévoilé les modèles o3 et o3 mini en décembre 2024. Cette annonce intervient à un moment où les entreprises américaines font l'objet d'un examen plus approfondi de la part des investisseurs en raison de leurs dépenses massives dans la technologie, après que la startup chinoise DeepSeek a dévoilé un modèle d'IA à bas prix le mois dernier.

    Le PDG d'OpenAI, Sam Altman, a détaillé les plans pour les modèles d'IA GPT-4.5 et GPT-5 de l'entreprise dans une feuille de route publiée sur X mercredi.

    Dans ce document, Altman reconnaît également que la gamme de produits d'OpenAI est devenue compliquée et déclare que l'entreprise souhaite faire « un bien meilleur travail » en simplifiant ses offres. « Nous détestons le sélecteur de modèles autant que vous et nous voulons revenir à une intelligence unifiée magique », a déclaré Altman.

    Il est vrai que ChatGPT propose plusieurs modèles : GPT 4o-mini, GPT 4o, GPT 4o avec tâches planifiées, OpenAI o1, OpenAI o3-mini, OpenAI o3-mini-high (ces 3 derniers sans aucun support des fonctionnalités avancées de GPT comme l’analyse de documents, le canevas, la recherche Web, etc.).

    L'entreprise prévoit de livrer GPT-4.5, qui, selon lui, s'appelait Orion en interne, et qui sera le « dernier modèle d'OpenAI qui ne soit pas basé sur la chaîne de pensée ».

    Citation Envoyé par Sam Altman
    Nous voulons mieux partager notre feuille de route et simplifier davantage notre offre de produits.

    Nous voulons que l'IA « fonctionne » pour vous ; nous sommes conscients de la complexité de nos modèles et de nos offres de produits. Nous détestons le sélecteur de modèles autant que vous et nous voulons revenir à une intelligence unifiée magique.

    La prochaine livraison de GPT-4.5, le modèle que nous avons appelé Orion en interne, sera notre dernier modèle qui ne soit pas basé sur la chaîne de pensée. Après cela, notre objectif principal est d'unifier les modèles de la série O et les modèles de la série GPT en créant des systèmes capables d'utiliser tous nos outils, de savoir quand réfléchir longtemps ou non, et d'être généralement utiles pour un très large éventail de tâches.

    Dans ChatGPT et dans notre API, nous publierons GPT-5 en tant que système intégrant une grande partie de notre technologie, y compris o3. Nous ne livrerons plus o3 en tant que modèle autonome.

    Le niveau gratuit de ChatGPT offrira un accès illimité à GPT-5 au niveau d'intelligence standard ( !!), sous réserve de seuils d'abus.

    Les abonnés Plus pourront utiliser GPT-5 à un niveau d'intelligence plus élevé, et les abonnés Pro pourront utiliser GPT-5 à un niveau d'intelligence encore plus élevé. Ces modèles intégreront la voix, le canevas, la recherche, la recherche approfondie, etc.
    GPT 4.5 (Orion) ou la saturation des performances ?

    Les modèles de langage, comme GPT-4, ont longtemps montré des capacités impressionnantes en matière de traitement du langage naturel, de génération de texte et d'assistance automatisée. À chaque nouveau modèle, la promesse d’une IA plus puissante, plus performante et plus « humaine » créait des attentes toujours plus grandes.

    Cependant, The Information a rapporté en novembre que le prochain modèle de langage majeur d'OpenAI, connu sous le nom de code « Orion », offre des gains de performance beaucoup moins importants que prévu. L'amélioration de la qualité entre GPT-4 et Orion est nettement moins importante que celle observée entre GPT-3 et GPT-4. De plus, Orion ne surpasse pas systématiquement son prédécesseur dans des domaines tels que la programmation, ne montrant des améliorations que dans les capacités linguistiques, selon les sources de The Information. Le modèle pourrait également coûter plus cher à exploiter dans les centres de données que les versions précédentes.

    L'annonce d'Orion d'OpenAI, dont les performances ne surpasseraient que de peu celles de GPT-4, met en lumière un phénomène de saturation. De nombreux experts en IA soulignent que, malgré des architectures toujours plus sophistiquées et des modèles de plus en plus volumineux, les gains de performance observés se réduisent progressivement. La loi des rendements décroissants semble s’appliquer ici, avec une augmentation significative des ressources nécessaires pour des progrès toujours plus modestes.

    Nom : sam.png
Affichages : 55785
Taille : 808,2 Ko

    OpenAI o3, un problème de coût ?

    D'après certains testeurs initiaux ayant eu accès à des prototypes expérimentaux, o3 fait preuve d'une grande intelligence et représente une avancée significative par rapport à son prédécesseur o1. Le souci est qu'il est également très onéreux. Étant donné sa puissance potentielle (on peut supposer qu'OpenAI envisageait de proposer des versions moins performantes au grand public), chaque question pourrait valoir plus de 1 000 euros. Sur le plan économique, la sortie d'o3 n'aurait donc eu aucune pertinence. Il est fort possible qu'OpenAI n'ait jamais envisagé de déployer le modèle o3 dévoilé en décembre 2024, en tout cas pas en tant qu'application autonome.

    Un autre élément essentiel : l'introduction de DeepSeek-R1, le modèle rival d'o1 provenant de Chine. Poser une question à DeepSeek-R1 revient beaucoup moins cher qu'utiliser o1, tout en garantissant des réponses de même qualité. Bien qu'o3 aurait probablement dominé R1, son rapport qualité-prix laisse vraiment à désirer. OpenAI ne peut pas déployer une technologie qui est 100 fois plus onéreuse qu'une alternative concurrente. Le français Mistral, qui n’a pas encore lancé de modèle de réflexion, mise aussi sur des petits coûts d’exploitation.

    C'est d'ailleurs la sortie de DeepSeek R1 qui a poussé OpenAI a riposté avec o3-mini, son nouveau modèle de raisonnement plus intelligent, que l'entreprise a proposé aux utilisateurs payants et gratuits de ChatGPT.

    Citation Envoyé par OpenAI
    OpenAI o3-mini est notre premier petit modèle de raisonnement qui prend en charge des fonctionnalités très demandées par les développeurs, notamment l'appel de fonction, les sorties structurées et les messages de développeurs, ce qui le rend prêt pour la production dès le départ. Comme OpenAI o1-mini et OpenAI o1-preview, o3-mini supportera le streaming. En outre, les développeurs peuvent choisir entre trois options d'effort de raisonnement - faible, moyen et élevé - afin d'optimiser leurs cas d'utilisation spécifiques. Cette flexibilité permet à o3-mini de « penser plus fort » lorsqu'il s'agit de relever des défis complexes ou de donner la priorité à la vitesse lorsque la latence est un problème. o3-mini ne prend pas en charge les capacités de vision, les développeurs doivent donc continuer à utiliser OpenAI o1 pour les tâches de raisonnement visuel. o3-mini est déployé dans l'API Chat Completions, l'API Assistants et l'API Batch à partir d'aujourd'hui pour les développeurs sélectionnés dans les niveaux 3 à 5 d'utilisation de l'API.

    Elon Musk propose de racheter OpenAI

    Cette semaine, Elon Musk a proposé de racheter OpenAI pour 97 milliards de dollars.

    L'avocat de Musk, Marc Toberoff, a déclaré qu'il avait soumis lundi au conseil d'administration d'OpenAI une offre portant sur l'ensemble des actifs de l'organisation à but non lucratif.

    Cette offre non sollicitée complique les plans soigneusement élaborés par Altman pour l'avenir d'OpenAI, qui prévoit notamment de la transformer en société à but lucratif et de consacrer jusqu'à 500 milliards de dollars à l'infrastructure de l'IA par l'intermédiaire d'une coentreprise appelée Stargate. Musk et lui s'affrontent déjà devant les tribunaux au sujet de l'orientation d'OpenAI.

    « Il est temps qu'OpenAI redevienne la force du bien à code source ouvert et axée sur la sécurité qu'elle était autrefois », a déclaré Musk dans un communiqué fourni par Toberoff. « Nous ferons en sorte que cela se produise ».

    Altman a rapidement rejeté l'offre sur X. Il a écrit « Non merci, mais nous achèterons Twitter pour 9,74 milliards de dollars si vous voulez », en utilisant l'ancien nom de la plateforme de médias sociaux appartenant à Musk et en déplaçant la virgule décimale de l'offre du milliardaire pour OpenAI d'un espace vers la gauche. Cette remarque fait référence à l'acquisition de Twitter par Musk en 2022 pour 44 milliards de dollars.

    Dans un message Slack adressé aux employés, Altman a écrit : « Notre structure garantit qu'aucun individu ne peut prendre le contrôle d'OpenAI... Ce sont des tactiques pour essayer de nous affaiblir parce que nous faisons de grands progrès. »

    « OpenAI n'est pas à vendre. La mission d'OpenAI n'est pas à vendre - sans parler du fait qu'un concurrent qui n'est pas en mesure de nous battre sur le marché et qui, au lieu de cela, essaie simplement de dire "Je vais acheter ça" au mépris de la mission est une voie probable ici ».

    Altman et Musk ont cofondé OpenAI en 2015 en tant qu'organisation caritative. En 2019, après que Musk a quitté l'entreprise et qu'Altman est devenu directeur général, OpenAI a créé une filiale à but lucratif qui lui a servi de véhicule pour lever des fonds auprès de Microsoft et d'autres investisseurs. Altman est en train de transformer la filiale en une entreprise traditionnelle et de filialiser l'organisation à but non lucratif, qui détiendrait des actions dans la nouvelle entreprise à but lucratif.

    Source : Sam Altman

    Et vous ?

    OpenAI simplifie son offre en supprimant le choix des modèles. Est-ce une bonne décision pour les utilisateurs ou une manière de mieux contrôler son écosystème ?

    Pensez-vous que la suppression du "sélecteur de modèles" améliorera l’expérience utilisateur ou limitera au contraire les choix et la transparence sur les capacités des IA ?

    GPT-5 intégrera plusieurs avancées technologiques, notamment des outils d’OpenAI et un raisonnement amélioré. Est-ce suffisant pour maintenir l’avance sur la concurrence (Anthropic, Google DeepMind, Mistral AI, etc.) ?

    Certains concurrents, comme DeepSeek en Chine, misent sur des modèles moins coûteux et plus accessibles. OpenAI ne risque-t-il pas de perdre du terrain en se focalisant sur des modèles premium ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  3. #3
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 721
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 721
    Par défaut OpenAI publie un aperçu de recherche de GPT-4.5, son plus grand et meilleur modèle de chat à ce jour
    Un nouvel aperçu de recherche de GPT-4.5 d'OpenAI montre que le modèle d'IA améliore sa capacité à reconnaître des motifs, à établir des connexions et à générer des idées créatives sans raisonnement

    OpenAI a récemment publié un aperçu de recherche de GPT-4.5, son plus grand et meilleur modèle de chat à ce jour. GPT-4.5 est un pas en avant dans la mise à l'échelle de la pré-formation et de la post-formation. En augmentant l'apprentissage non supervisé, GPT-4.5 améliore sa capacité à reconnaître des motifs, à établir des connexions et à générer des idées créatives sans raisonnement.

    L'aperçu de la recherche d'OpenAI sur GPT-4.5 s'inscrit dans le cadre d'un changement plus large de la stratégie de développement de l'entreprise. Sam Altman, PDG d'OpenAI, a en effet récemment annoncé l'annulation du lancement du modèle « o3 » d'OpenAI au profit d'une version unifiée baptisée GPT-5. Cette décision coïncide également avec l'attention croissante portée par les investisseurs à l'augmentation des coûts de développement de l'IA, notamment à la suite de l'émergence d'alternatives peu coûteuses telles que DeepSeek.

    Les premiers tests réalisés par OpenAI montrent que l'interaction avec GPT-4.5 semble plus naturelle. Sa base de connaissances plus large, sa capacité accrue à suivre l'intention de l'utilisateur et son meilleur « QE » le rendent utile pour des tâches telles que l'amélioration de l'écriture, la programmation et la résolution de problèmes pratiques. Il est également prévu qu'il produise moins d'hallucinations.

    OpenAI partage GPT-4.5 en tant qu'aperçu de recherche afin de mieux comprendre ses forces et ses limites. L'entreprise continue d'explorer ses capacités et est impatiente de voir comment les gens l'utilisent d'une manière inattendue.


    Mise à l'échelle de l'apprentissage non supervisé

    OpenAI fait progresser les capacités de l'IA en mettant à l'échelle deux paradigmes complémentaires : l'apprentissage non supervisé et le raisonnement. Ils représentent deux axes de l'intelligence.

    1. La mise à l'échelle du raisonnement apprend aux modèles à réfléchir et à produire une chaîne de pensée avant de répondre, ce qui leur permet de s'attaquer à des problèmes STEM ou de logique complexes. Des modèles comme OpenAI o1 et OpenAI o3-mini font progresser ce paradigme.
    2. L'apprentissage non supervisé, quant à lui, augmente la précision et l'intuition des modèles du monde.

    GPT-4.5 est un exemple de mise à l'échelle de l'apprentissage non supervisé en augmentant la capacité de calcul et les données, ainsi que les innovations en matière d'architecture et d'optimisation. GPT-4.5 a été entraîné sur les supercalculateurs Microsoft Azure AI. Le résultat est un modèle qui a une connaissance plus large et une compréhension plus profonde du monde, ce qui conduit à une réduction des hallucinations et à une plus grande fiabilité dans un large éventail de sujets.

    Mise à l'échelle du paradigme GPT

    Nom : OpenAI GPT-4.5 Scaling unsupervised learning.PNG
Affichages : 21458
Taille : 90,6 Ko

    Connaissance approfondie du monde

    Nom : OpenAI GPT-4.5 fig 1.PNG
Affichages : 5525
Taille : 22,7 Ko
    SimpleQA mesure la factualité du LLM sur des questions de connaissance simples mais complexes.

    Entraînement à la collaboration humaine

    À mesure qu'OpenAI fait évoluer ses modèles et qu'ils résolvent des problèmes plus complexes, il devient de plus en plus important de leur apprendre à mieux comprendre les besoins et les intentions des humains. Pour GPT-4.5, l'entreprise a mis au point de nouvelles techniques évolutives qui permettent d'entraîner des modèles plus grands et plus puissants à l'aide de données dérivées de modèles plus petits. Ces techniques améliorent l'orientation de GPT-4.5, la compréhension des nuances et la conversation naturelle.

    Nom : OpenAI GPT-4.5 fig 2.PNG
Affichages : 5513
Taille : 14,2 Ko
    La préférence humaine mesure le pourcentage de requêtes pour lesquelles les testeurs ont préféré GPT-4.5 à GPT-4o.

    La combinaison d'une compréhension approfondie du monde et d'une collaboration améliorée permet d'obtenir un modèle qui intègre naturellement les idées dans des conversations chaleureuses et intuitives, mieux adaptées à la collaboration humaine. GPT-4.5 comprend mieux ce que les humains veulent dire et interprète les indices subtils ou les attentes implicites avec plus de nuance et de « QE ». GPT-4.5 fait également preuve d'une intuition esthétique et d'une créativité plus fortes. Elle excelle notamment dans l'aide à l'écriture et à la conception.

    Cas d'utilisation

    Aider à traverser une période difficile

    Nom : OpenAI GPT-4.5 Use case 1.PNG
Affichages : 5571
Taille : 119,7 Ko

    Identifier une peinture

    Nom : OpenAI GPT-4.5 Use case 2.PNG
Affichages : 5506
Taille : 75,7 Ko

    Un raisonnement plus avancé à l'horizon

    GPT-4.5 ne réfléchit pas avant de répondre, ce qui rend ses forces particulièrement différentes de celles des modèles de raisonnement comme OpenAI o1. Comparé à OpenAI o1 et OpenAI o3-mini, GPT-4.5 est un modèle plus général et intrinsèquement plus intelligent. OpenAI indique que le raisonnement sera une capacité essentielle des futurs modèles et que les deux approches de la mise à l'échelle - préentraînement et raisonnement - se complèteront. Au fur et à mesure que les modèles tels que GPT-4.5 deviennent plus intelligents et mieux informés grâce au préapprentissage, ils serviront de base encore plus solide pour le raisonnement et les agents utilisant des outils.

    Sécurité

    Chaque augmentation des capacités des modèles est également une opportunité pour OpenAI de rendre les modèles plus sûrs. GPT-4.5 a été entraîné avec de nouvelles techniques de supervision qui sont combinées avec les méthodes traditionnelles de réglage fin supervisé (SFT) et d'apprentissage par renforcement à partir du feedback humain (RLHF) comme celles utilisées pour GPT-4o. OpenAI affirme que ce travail servira de base à l'alignement de futurs modèles encore plus performants.

    Pour tester ses améliorations, l'OpenAI a effectué une série de tests de sécurité avant le déploiement, conformément à son cadre de préparation. L'entreprise a constaté que la mise à l'échelle du paradigme GPT a contribué à l'amélioration des capacités dans l'ensemble de ses évaluations. OpenAI publiera les résultats détaillés de ces évaluations dans la fiche système qui l'accompagne.

    Résultats des benchmarks internes

    Ci-dessous, les résultats de GPT-4.5 sur des benchmarks académiques standard illustrent ses performances actuelles sur des tâches traditionnellement associées au raisonnement. Même en mettant simplement à l'échelle l'apprentissage non supervisé, GPT-4.5 montre des améliorations significatives par rapport aux modèles précédents comme GPT-4o.

    Nom : OpenAI GPT-4.5 fig benchmark.PNG
Affichages : 5482
Taille : 8,7 Ko

    Comment utiliser GPT-4.5 dans ChatGPT

    À partir de ce 27 février, les utilisateurs de ChatGPT Pro pourront sélectionner GPT-4.5 dans le sélecteur de modèle sur le web, le mobile et le bureau. OpenAI commencera à déployer cette fonctionnalité pour les utilisateurs Plus et Team la semaine prochaine, puis pour les utilisateurs Enterprise et Edu la semaine suivante.

    GPT-4.5 a accès aux dernières informations actualisées grâce à la recherche en ligne, prend en charge le téléchargement de fichiers et d'images et peut utiliser le canevas pour travailler sur l'écriture et le code. Cependant, GPT-4.5 ne prend pas actuellement en charge les fonctions multimodales telles que le mode vocal, la vidéo et le partage d'écran dans ChatGPT.

    Comment utiliser GPT-4.5 dans l'API

    OpenAI présente également en avant-première GPT-4.5 dans les API Chat Completions, Assistants API et Batch API aux développeurs de tous les niveaux d'utilisation payants. Le modèle prend en charge des fonctionnalités clés telles que l'appel de fonctions, les sorties structurées, la diffusion en continu et les messages système. Il prend également en charge les capacités de vision par le biais d'entrées d'images.

    D'après les premiers tests, les développeurs pourraient trouver GPT-4.5 particulièrement utile pour les applications qui bénéficient d'une intelligence émotionnelle et d'une créativité plus élevées, comme l'aide à la rédaction, la communication, l'apprentissage, le coaching et le brainstorming. Il montre également de fortes capacités en matière de planification et d'exécution agentiques, notamment en ce qui concerne les flux de codage à plusieurs étapes et l'automatisation de tâches complexes.

    GPT-4.5 est un modèle très vaste et très gourmand en ressources informatiques, ce qui le rend plus coûteux que GPT-4o mais ne le remplace pas. Pour cette raison, OpenAI évalue s'il faut continuer à le servir dans l'API à long terme, l'entreprise devant trouver un équilibre entre le soutien des capacités actuelles et la construction de modèles futurs.

    Si GPT-4.5 offre une valeur unique pour les cas d'utilisation des utilisateurs, OpenAI a indiqué que les retours joueront un rôle important dans l'orientation de sa décision. L'entreprise a également affirmé qu'elle attendra d'en savoir plus sur les forces, les capacités et les applications potentielles de GPT-4.5 dans le monde réel pour prendre sa décision.

    Pour ce qui est de l'avenir, OpenAI positionne la prochaine itération GPT-5 comme une avancée majeure dans les capacités de l'IA. S'exprimant lors du World Government Summit à Dubaï, Sam Altman a décrit GPT-5 comme étant plus intelligent, plus rapide et meilleur dans toutes les tâches que son prédécesseur GPT-4. Bien qu'il n'ait pas précisé de date de sortie, il a rappelé la nécessité d'une réglementation mondiale de l'IA, les modèles devenant de plus en plus sophistiqués.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous que cette initiative d'OpenAI est pertinente ou cohérente ?

    Voir aussi :

    Apprendre à raisonner avec le nouveau LLM OpenAI o1 formé avec l'apprentissage par renforcement pour effectuer des raisonnements complexes, car o1 réfléchit avant de répondre

    Le modèle GPT-Next d'OpenAI devrait être 100 fois plus puissant que GPT-4, et utilisera probablement une version plus petite du système d'IA avancé "Strawberry", qui pourrait être lancé en 2024

    OpenAI lance GPT-4o, un modèle plus rapide et gratuit pour tous les utilisateurs de ChatGPT. L'entreprise fait une démo de son modèle qui « représente l'avenir de l'interaction entre nous et les machines »
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #4
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 538
    Par défaut OpenAI dévoile GPT-4.1, axée sur le codage, et abandonne progressivement GPT-4.5
    OpenAI dévoile GPT-4.1, axée sur le codage, et abandonne progressivement GPT-4.5 :
    GPT-4.1 ne sera disponible que par l'intermédiaire de l'API développeur et non dans l'interface ChatGPT

    OpenAI a annoncé la famille de modèles GPT-4.1, sa nouvelle série de modèles de langage d'IA qui apporte pour la première fois une fenêtre contextuelle d'un million de jetons à OpenAI et poursuit une longue tradition de noms de modèles d'IA très confus. Trois nouveaux noms déroutants, en fait : GPT-4.1, GPT-4.1 mini et GPT-4.1 nano. Selon OpenAI, ces modèles sont plus performants que le GPT-4o dans plusieurs domaines clés. Mais, fait inhabituel, GPT-4.1 ne sera disponible que par l'intermédiaire de l'API développeur, et non dans l'interface ChatGPT grand public où la plupart des gens interagissent avec la technologie d'OpenAI.

    Dans le même temps, OpenAI prévoit de retirer progressivement GPT-4.5 de son API d'ici le 14 juillet 2025, en raison des performances supérieures et du coût réduit de GPT-4.1. Cette transition vise à offrir aux développeurs un modèle plus efficace et économique, tout en simplifiant la gamme de produits d'OpenAI. Cependant, il semble que le modèle GPT-4.5 restera dans ChatGPT pour le moment.


    OpenAI a présenté GPT-4.1, le successeur du modèle d'IA multimodale GPT-4o lancé par l'entreprise l'année dernière. Au cours d'un livestream lundi, OpenAI a déclaré que GPT-4.1 dispose d'une fenêtre contextuelle encore plus grande et qu'il est meilleur que GPT-4o dans « à peu près toutes les dimensions », avec d'importantes améliorations en matière de codage et d'instructions.

    GPT-4.1 est désormais disponible pour les développeurs, ainsi que deux versions plus petites. Il s'agit de GPT-4.1 Mini, qui, comme son prédécesseur, est plus abordable pour les développeurs, et de GPT-4.1 Nano, un modèle encore plus léger qui, selon OpenAI, est « le plus petit, le plus rapide et le moins cher » à ce jour.

    Ces trois modèles peuvent traiter jusqu'à un million de jetons de contexte, c'est-à-dire le texte, les images ou les vidéos contenus dans une invite. C'est bien plus que la limite de 128 000 jetons fixée par GPT-4o. La fenêtre contextuelle d'un million de jetons, c'est-à-dire la quantité de texte que l'IA peut traiter en une seule fois, permet à ces modèles d'ingérer environ 3 000 pages de texte au cours d'une seule conversation. Les fenêtres contextuelles d'OpenAI sont ainsi comparables à celles des modèles Gemini de Google, qui offrent des capacités contextuelles étendues similaires depuis un certain temps.

    « Nous avons entraîné GPT-4.1 à s'occuper de manière fiable des informations sur la longueur totale d'un million de contextes », explique l'OpenAI dans un article annonçant les modèles. « Nous l'avons également entraîné à être beaucoup plus fiable que GPT-4o pour remarquer le texte pertinent et ignorer les distracteurs sur des longueurs de contexte courtes et longues ».

    GPT 4.1 est également 26 % moins cher que GPT-4o, une mesure qui est devenue plus importante après le lancement du modèle d'IA ultra-efficace de DeepSeek.


    Citation Envoyé par OpenAI
    Aujourd'hui, nous lançons trois nouveaux modèles dans l'API : GPT-4.1, GPT-4.1 mini et GPT-4.1 nano. Ces modèles sont plus performants que les modèles GPT-4o et GPT-4o mini dans tous les domaines, avec des gains importants en matière de codage et de suivi des instructions. Ils disposent également de fenêtres contextuelles plus larges - supportant jusqu'à 1 million de tokens de contexte - et sont capables de mieux utiliser ce contexte avec une compréhension améliorée du contexte long. La date limite d'actualisation des connaissances est fixée à juin 2024.

    Le GPT-4.1 excelle dans les mesures standard suivantes :
    • Codage : Le GPT-4.1 obtient un score de 54,6 % au banc d'essai SWE vérifié, soit une amélioration de 21,4 % par rapport au GPT-4o et de 26,6 % par rapport au GPT-4.5, ce qui en fait un modèle de premier plan en matière de codage.
    • Instruction suivante : Sur l'échelle MultiChallenge, une mesure de la capacité à suivre les instructions, le GPT-4.1 obtient un score de 38,3 %, soit une augmentation de 10,5 % par rapport au GPT-4o.
    • Contexte long : Sur Video-MME, un test de référence pour la compréhension multimodale du contexte long, GPT-4.1 établit un nouveau résultat de pointe, avec un score de 72,0 % dans la catégorie long, sans sous-titres, soit une amélioration de 6,7 %abs par rapport à GPT-4o.

    Bien que les tests de référence fournissent des informations précieuses, nous avons formé ces modèles en nous concentrant sur leur utilité dans le monde réel. Une étroite collaboration et un partenariat avec la communauté des développeurs nous ont permis d'optimiser ces modèles pour les tâches les plus importantes pour leurs applications.

    À cette fin, la famille de modèles GPT-4.1 offre des performances exceptionnelles à moindre coût. Ces modèles améliorent les performances à chaque point de la courbe de latence.
    GPT-4.1 mini représente un saut significatif dans la performance des petits modèles, selon OpenAI

    OpenAI note également ceci :

    GPT-4.1 mini représente un saut significatif dans la performance des petits modèles, battant même GPT-4o dans de nombreux benchmarks. Il égale ou dépasse le GPT-4o dans les évaluations d'intelligence tout en réduisant la latence de près de la moitié et le coût de 83 %.

    Pour les tâches exigeant une faible latence, GPT-4.1 nano est notre modèle le plus rapide et le moins cher. Il offre des performances exceptionnelles pour une taille réduite grâce à sa fenêtre contextuelle d'un million de jetons, et obtient un score de 80,1 % sur MMLU, 50,3 % sur GPQA et 9,8 % sur le codage polyglotte Aider, soit un score encore plus élevé que celui du GPT-4o mini. Il est idéal pour des tâches telles que la classification ou l'autocomplétion.

    Ces améliorations de la fiabilité du suivi des instructions et de la compréhension des contextes longs rendent également les modèles GPT-4.1 beaucoup plus efficaces pour alimenter des agents, ou des systèmes qui peuvent accomplir des tâches de manière indépendante pour le compte d'utilisateurs. Associés à des primitives telles que l'API Responses, les développeurs peuvent désormais créer des agents plus utiles et plus fiables pour l'ingénierie logicielle dans le monde réel, l'extraction d'informations à partir de documents volumineux, la résolution de demandes de clients avec un minimum d'aide, et d'autres tâches complexes.

    Notez que GPT-4.1 ne sera disponible que via l'API. Dans ChatGPT, de nombreuses améliorations en matière de suivi des instructions, de codage et d'intelligence ont été progressivement incorporées dans la dernière version de GPT-4o, et nous continuerons à en incorporer d'autres dans les prochaines versions.

    Nom : aidler.png
Affichages : 5918
Taille : 11,4 Ko

    La Preview GPT-4.5 bientôt supprimée de l'API

    Ce lancement intervient alors qu'OpenAI prévoit de supprimer progressivement son modèle GPT-4 de ChatGPT, vieux de deux ans, le 30 avril, annonçant dans un changelog que les récentes mises à jour de GPT-4o en font un « successeur naturel » pour le remplacer. OpenAI prévoit également de supprimer l'aperçu GPT-4.5 dans l'API le 14 juillet, car « GPT-4.1 offre des performances améliorées ou similaires sur de nombreuses capacités clés à un coût et une latence bien moindres ».

    GPT-4o, le modèle par défaut actuel de ChatGPT, a été mis à jour le mois dernier pour apporter de nouvelles capacités de génération d'images au chatbot, qui s'est avéré si populaire qu'OpenAI a dû limiter les demandes et mettre en attente l'accès à des comptes ChatGPT gratuits pour éviter que ses GPU ne »fondent".

    La révélation de GPT-4.1 confirme le rapport selon lequel OpenAI se prépare à lancer de nouveaux modèles, et marque un tournant dans le calendrier de publication de l'entreprise. Le 4 avril, le PDG Sam Altman a annoncé sur X que le lancement du GPT-5 était repoussé et qu'il devrait maintenant arriver « dans quelques mois », plus tard que la date limite de mai qui était précédemment prévue. Altman explique que ce retard est dû en partie au fait qu'OpenAI « a eu plus de mal que prévu à tout intégrer en douceur ».

    OpenAI devrait également présenter la version complète de son modèle de raisonnement o3 et un mini-modèle de raisonnement o4 d'ici peu, des références ayant déjà été repérées dans la dernière version web de ChatGPT par l'ingénieur en IA Tibor Blaho.

    Nom : internal.png
Affichages : 872
Taille : 18,3 Ko

    Tant de noms

    Si cela semble déroutant, c'est parce que ça l'est. Le PDG d'OpenAI, Sam Altman, a reconnu l'habitude d'OpenAI de donner des noms de produits terribles en février lorsqu'il a discuté de la feuille de route vers le GPT-5 tant attendu (et toujours théorique).

    « Nous sommes conscients de la complexité de notre modèle et de nos offres de produits », a écrit Altman sur X à l'époque, faisant référence à une interface ChatGPT déjà encombrée de choix tels que GPT-4o, diverses versions spécialisées de GPT-4o, GPT-4o mini, les modèles de raisonnement simulé o1-pro, o3-mini, et o3-mini-high, et GPT-4. L'objectif déclaré du GPT-5 sera la consolidation, un mouvement de marque visant à unifier les modèles de la série o et les modèles de la série GPT.

    Comment le lancement d'un autre modèle numéroté, le GPT-4.1, s'inscrit-il dans ce grand plan d'unification ? Difficile à dire. Altman a laissé entrevoir ce type d'ambiguïté en mars 2024, en déclarant à Lex Friedman que l'entreprise allait lancer des modèles importants, mais qu'elle n'était pas sûre de leur nom : « avant de parler d'un modèle de type GPT-5 qui s'appelle comme ça, ou qui ne s'appelle pas comme ça, ou qui est un peu moins bon ou un peu meilleur que ce à quoi vous vous attendez... ».

    Nom : swe.png
Affichages : 871
Taille : 9,1 Ko

    La version 4.1 est-elle meilleure que la version 4.5 ? Oui et non

    Sur certains points essentiels, la version 4.1 est supérieure à la version 4.5.

    Cette stratégie de dénomination déroutante s'accompagne de déclarations de performances tout aussi déroutantes. OpenAI considère la GPT-4.1 comme une nette amélioration par rapport à la GPT-4o, notamment en ce qui concerne le codage et le suivi d'instructions complexes (vous pouvez consulter les tests complets sur le site d'OpenAI). La nouvelle famille de modèles offre également une fenêtre contextuelle massive de 1 million de jetons, soit environ quatre fois plus que la capacité de la GPT-4o. Il est à noter que, contrairement à la GPT-4o multimodale (où « o » signifiait « omni »), l'annonce de la famille GPT-4.1 ne mentionne pas les capacités d'entrée ou de sortie audio, ce qui suggère une concentration sur les entrées texte et image avec sortie texte, comme l'a fait remarquer l'expert en IA Simon Willison sur son blog.

    Si l'on compare avec l'aperçu GPT-4.5, qui sera bientôt supprimé, la situation est beaucoup plus complexe. Alors que GPT-4.1 obtient de bien meilleurs résultats au test de codage SWE-bench Verified (54,6 % contre 38,0 % pour GPT-4.5) et génère des différences de code de manière plus fiable, les données de référence d'OpenAI révèlent que GPT-4.5 est encore plus performant dans les tests de connaissances académiques, le suivi d'instructions et plusieurs tâches liées à la vision.

    (SWE-bench Verified est un benchmark industriel qui vise à évaluer la capacité des modèles d'IA à comprendre et à modifier les référentiels logiciels du monde réel pour corriger les bogues ou mettre en œuvre de nouvelles fonctionnalités, c'est-à-dire à mesurer l'utilité de l'IA pour les ingénieurs logiciels réels dans les environnements de production).

    Cela soulève la question suivante : pourquoi retirer un modèle apparemment plus performant de l'API ? OpenAI explique que GPT-4.1 offre « des performances améliorées ou similaires sur de nombreuses capacités clés à un coût et une latence bien moindres ». En d'autres termes, GPT-4.1 atteint un point idéal : des performances suffisantes pour la plupart des cas d'utilisation de l'API, mais plus rapides et moins chères que l'aperçu GPT-4.5, plus gourmand en ressources. GPT-4.5 est très lent et très cher.

    Source : OpenAI

    Et vous ?

    GPT-4.1 marque-t-il réellement un progrès ou une rationalisation marketing déguisée ? Pourquoi OpenAI saute-t-il en arrière dans la numérotation (de 4.5 à 4.1) tout en prétendant à une avancée ? Y a-t-il une volonté d'effacer une étape problématique dans l’évolution des modèles ?

    La focalisation de GPT-4.1 sur le code signe-t-elle la fin du modèle généraliste tout-en-un ? OpenAI va-t-il désormais proposer des modèles spécialisés plutôt qu’un modèle universel ? Cela annonce-t-il un futur éclatement du GPT en versions sectorielles (éducation, médecine, droit, etc.) ?

    OpenAI a-t-il suffisamment prouvé la fiabilité de GPT-4.1 pour remplacer GPT-4.5 dans les environnements critiques ? Les benchmarks comme SWE-Bench sont-ils représentatifs des cas réels rencontrés par les développeurs professionnels ?

    La nouvelle fenêtre de contexte (1 million de tokens) est-elle réellement exploitable pour les développeurs ? Quelles sont les limites concrètes dans les environnements actuels ? Cette promesse de “long context” est-elle surtout une opération de com’ ?

    Pourquoi GPT-4.5 est-il abandonné aussi vite ? Était-ce un échec technique ou un problème de coût/efficacité ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 538
    Par défaut OpenAI retire GPT-4 de ChatGPT : « GPT-4 a marqué un tournant dans l'évolution de ChatGPT »
    OpenAI retire GPT-4 de ChatGPT : « GPT-4 a marqué un tournant dans l'évolution de ChatGPT »,
    le LLM a également été au centre de nombreuses controverses

    OpenAI a annoncé le 10 avril que le GPT-4 serait « entièrement remplacé » par le GPT-4o dans le ChatGPT le 30 du même mois, mettant ainsi un terme au modèle qui a accéléré la course mondiale à l'IA lors de son lancement en mars 2023. Deux ans après son lancement en grande pompe en mars 2023, GPT-4 tire donc sa révérence dans l’interface utilisateur, bien qu’il reste utilisable via l’API OpenAI. Cet événement marque la fin d’un chapitre dans l’histoire de l’IA générative – et l’occasion de mesurer le bilan de GPT-4, tant en termes d’innovations technologiques que de remous qu’il a provoqués.

    OpenAI a confirmé le retrait de son modèle GPT-4 de la plateforme ChatGPT, remplacé par un tout nouveau modèle multimodal, appelé GPT‑4o :

    Suppression du GPT-4 dans ChatGPT

    À partir du 30 avril 2025, GPT-4 sera retiré de ChatGPT et remplacé par GPT-4o.

    GPT-4o est notre modèle multimodal le plus récent. Dans les évaluations directes, il surpasse systématiquement GPT-4 en écriture, codage, STEM, et plus encore.

    Des mises à jour récentes ont encore amélioré le suivi de l'instruction, la résolution de problèmes et le flux conversationnel du GPT-4o, ce qui en fait un successeur naturel du GPT-4.

    GPT-4 sera toujours disponible dans l'API.

    GPT-4 a marqué un tournant dans l'évolution de ChatGPT. Nous sommes reconnaissants des avancées qu'il a permises et des commentaires qui ont contribué à façonner son successeur. GPT-4o s'appuie sur cette base pour offrir encore plus de capacités, de cohérence et de créativité.
    Alors que ChatGPT a été lancé en novembre 2022 avec GPT-3.5 sous le capot, GPT-4 a porté les modèles de langage de l'IA à un nouveau niveau de sophistication, et sa création a été une entreprise de grande envergure. Il combine des données extraites du vaste corpus de connaissances humaines dans un ensemble de réseaux neuronaux qui, selon les rumeurs, pèseraient un total combiné de 1,76 trillion de paramètres, c'est-à-dire les valeurs numériques qui contiennent les données dans le modèle.

    Plusieurs versions de GPT-4 avaient des capacités multimodales, leur permettant de comprendre à la fois les images et le texte - une première pour un modèle OpenAI déployé à grande échelle.

    En cours de route, la formation du modèle aurait coûté plus de 100 millions de dollars, selon les commentaires de Sam Altman, PDG d'OpenAI, et son développement aurait nécessité de vastes ressources informatiques. L'entraînement du modèle aurait nécessité plus de 20 000 GPU haut de gamme fonctionnant de concert, une dépense que peu d'organisations, en dehors d'OpenAI et de son principal bailleur de fonds, Microsoft, pouvaient se permettre.

    Sur le plan économique, GPT-4 a joué un rôle de catalyseur

    Son lancement a contribué à l’explosion des investissements dans l’IA : selon Goldman Sachs, l’IA générative pourrait augmenter le PIB mondial d’environ 7 % à terme, en dépit d’une disruption majeure de l’emploi (près de 300 millions d’emplois exposés à l’automatisation). En interne, la somme investie était considérable — Altman évoquait plus de cent millions de dollars uniquement pour le modèle GPT-4​ — mais la promesse de gains de productivité était jugée à la hauteur. Des études, dont plusieurs universitaires, ont montré que l’usage d’un chatbot avancé pouvait accroître de manière drastique la productivité des employés (une étude du MIT parlait de +37% de vitesse de traitement pour un travail donné). En somme, GPT-4 a engendré à la fois un sursaut d’innovation (applications industrielles, automatisation de tâches…) et un débat économique essentiel sur la valeur ajoutée de l’IA versus les risques de chômage technologique.

    Réactions de l'industrie, préoccupations en matière de sécurité et réponses réglementaires

    Curieusement, l'impact de GPT-4 a commencé avant l'annonce officielle de l'OpenAI. En février 2023, Microsoft a intégré sa propre version du modèle GPT-4 dans son moteur de recherche Bing, créant ainsi un chatbot qui a suscité la controverse. Ce modèle d'IA Bing Chat, surnommé « Sydney », affichait des réponses imprévisibles et émotionnellement manipulatrices, y compris l'utilisation fréquente d'emojis, ce qui représentait l'une des premières démonstrations à grande échelle du potentiel d'un système d'IA à manipuler les émotions humaines. Cette démonstration a déclenché une vague d'avertissements parmi les organismes de surveillance de l'alignement de l'IA, peu organisés, qui étaient convaincus qu'un décollage rapide de l'IA était imminent.

    En ce qui concerne les avertissements, lors de son lancement officiel en mars, GPT-4 a de nouveau fait la une des journaux après qu'OpenAI a révélé qu'elle avait engagé l'Alignment Research Center pour voir si GPT-4 pouvait tenter de nuire de manière autonome. L'entreprise est allée jusqu'à tester si le modèle pouvait se répliquer de manière autonome, obtenir davantage de ressources ou dissimuler ses intentions, ce qui témoigne de l'inquiétude quant à la sécurité des systèmes d'IA dont les capacités étaient alors inconnues. À l'époque, de nombreux experts en IA ont déclaré que ces nouveaux modèles d'IA étaient des « boîtes noires » et qu'ils ne savaient pas exactement comment ils fonctionnaient ni ce qu'ils étaient capables de faire.

    La panique suscitée par le projet GPT-4 a abouti à la publication d'une lettre ouverte du Future of Life Institute appelant à une pause de six mois dans le développement de l'IA. La lettre ouverte « Pause Giant AI Experiments » (littéralement : Interrompre les expériences d'IA géantes), exhorte « tous les laboratoires d'IA à interrompre immédiatement, pour au moins six mois, la formation de systèmes d'IA plus puissants que le GPT-4 », citant les risques de propagande générée par l'IA, d'automatisation des emplois et de perte de contrôle de la société. Bien qu'elle ait recueilli plus de 30 000 signatures, dont celles d'Elon Musk, de Steve Wozniak et de Yuval Noah Harari, la pause ne s'est jamais concrétisée et le développement s'est plutôt accéléré.

    OpenAI a joué le jeu de l'engouement pour le danger

    En mai 2023, Altman a témoigné devant le Congrès sur les risques potentiels de l'IA, avertissant que « si cette technologie tourne mal, elle peut tourner très mal ». Le PDG s'est également lancé dans une tournée mondiale, rencontrant des dirigeants nationaux pour discuter de la gouvernance de l'IA. À peu près au même moment, les dirigeants d'OpenAI ont mis en garde contre le « risque d'extinction » de l'IA dans une autre lettre ouverte rédigée par le Center for AI Safety.

    Cette attention accrue a conduit le président Biden à prendre un décret global sur l'IA en octobre 2023, qui exigeait des entreprises construisant des systèmes d'IA avancés qu'elles effectuent des tests de sécurité et notifient les résultats au gouvernement avant de commercialiser leurs produits.

    Des problèmes de copyright

    GPT-4 est l'un des modèles au cœur des litiges en matière de droits d'auteur entre OpenAI et des éditeurs, dont le New York Times. Les éditeurs allèguent qu'OpenAI a entraîné le GPT-4 sur leurs données à leur insu et sans leur consentement. En 2024, des éditeurs de presse de Californie, du Colorado, de l'Illinois, de Floride, du Minnesota et de New York ont déclaré que Microsoft et OpenAI avaient utilisé des millions de leurs articles sans paiement ni autorisation pour développer des modèles d'intelligence artificielle pour ChatGPT et d'autres produits.

    OpenAI a déjà été impliqué dans plusieurs procès liés aux droits d'auteur, et des critiques ont été régulièrement émises sur la manière dont les matériaux protégés par les droits d'auteur sont utilisés comme données d'apprentissage. En conséquence, OpenAI a signé des accords de licence payants avec certains créateurs de contenu et médias d'information et a également mis en place un processus d'« opt-out » pour demander l'exclusion de l'apprentissage de son modèle, mais ce système n'est pas encore considéré comme parfait.

    OpenAI a répondu en affirmant que ses modèles d'IA sont construits à partir de données publiques disponibles et que cette pratique est protégée par le principe de "fair use" et des précédents juridiques largement acceptés : « Nous construisons nos modèles d'IA en utilisant des données accessibles au public, d'une manière protégée par l'utilisation équitable et les principes connexes, et soutenue par des précédents juridiques de longue date et largement acceptés. Nous considérons que ce principe est juste pour les créateurs, nécessaire pour les innovateurs et essentiel pour la compétitivité des États-Unis ».

    Cependant, il convient de noter que le New York Times poursuit actuellement OpenAI pour utilisation sans licence de son matériel protégé par le droit d'auteur. Le Times a affirmé que la société et son partenaire, Microsoft, avaient utilisé des millions d'articles de presse du journal pour entraîner son algorithme, qui a depuis cherché à rivaliser sur le même marché.

    Le journal n'est pas le seul. OpenAI est actuellement poursuivie par un large éventail de célébrités, d'artistes, d'auteurs et de codeurs, qui affirment tous avoir été spoliés de leur travail par les algorithmes d'extraction de données de l'entreprise. D'autres personnes ou organisations bien connues ont poursuivi OpenAI, notamment Sarah Silverman, Ta-Nahisi Coates, George R. R. Martin, Jonathan Franzen, John Grisham, le Center for Investigative Reporting, The Intercept, divers journaux (dont le Denver Post et le Chicago Tribune), et divers YouTubers, entre autres.

    Nom : openai.png
Affichages : 14124
Taille : 85,0 Ko

    Le problème des hallucinations des LLM mis en exergue par GPT-4

    Si le GPT-4 a fait couler beaucoup d'encre, il a également mis en évidence les limites évidentes des grands modèles de langage (LLM). GPT-4 produisait régulièrement des confabulations, c'est-à-dire des informations plausibles mais incorrectes présentées avec confiance. Ces échecs ont mis en lumière l'écart entre l'intelligence apparente du modèle d'IA et sa capacité à comprendre des concepts au niveau humain.

    Le département de recherche d'OpenAI n'est pas resté inactif après la première version de GPT-4. L'entreprise a remplacé GPT-4 par GPT-4 Turbo en novembre 2023, un modèle plus rapide et moins coûteux, mais certains se sont encore plaints qu'il n'était pas aussi bon que l'original. Après de nombreuses révisions de GPT-4 Turbo, OpenAI a publié le GPT-4o multimodal en mai 2024, qui a ajouté des capacités d'image et d'audio natives. Vint ensuite GPT-4.5, qui fut lancé en février 2025 en tant que suite massive, lente et coûteuse, et GPT-4.1 d'OpenAI, qui arriva en avril 2025 dans l'API.

    Dans son avis de retrait du 10 avril, OpenAI a reconnu l'héritage du modèle : « GPT-4 a marqué un moment charnière dans l'évolution de ChatGPT. Nous sommes reconnaissants pour les percées qu'il a permises et pour les commentaires qui ont contribué à façonner son successeur. GPT-4o s'appuie sur cette base pour offrir des capacités, une cohérence et une créativité encore plus grandes ».

    Source : OpenAI, Goldman Sachs

    Et vous ?

    Le retrait de GPT-4 marque-t-il une réelle rupture technologique ou simplement une stratégie marketing d’OpenAI ?

    GPT-4 a-t-il été surestimé par rapport à son apport concret au développement de l’intelligence artificielle ?

    La transition vers GPT-4o (ou GPT-5) est-elle synonyme d’amélioration ou de complexification inutile pour l’utilisateur moyen ?

    L’arrivée de GPT-4 a-t-elle réellement généré les gains de productivité annoncés, ou a-t-elle surtout profité aux grandes entreprises ?

    L’économie de l’IA générative est-elle soutenable à long terme compte tenu des coûts d’infrastructure massifs qu’implique chaque nouveau modèle ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 21
    Dernier message: 23/06/2020, 22h29
  2. Réponses: 0
    Dernier message: 26/07/2018, 06h32
  3. Apple annonce qu'un milliard de ses appareils ont été actifs
    Par Stéphane le calme dans le forum Actualités
    Réponses: 5
    Dernier message: 31/01/2016, 20h57
  4. Ubuntu Touch: Canonical annonce enfin les noms de ses partenaires
    Par Cedric Chevalier dans le forum Actualités
    Réponses: 14
    Dernier message: 18/03/2014, 11h22
  5. Réponses: 2
    Dernier message: 10/03/2011, 10h22

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo