IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Hugging Face clone l'agent d'IA « Deep Research » d'OpenAI en 24 heures et rend le résultat open source


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 710
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 710
    Par défaut Hugging Face clone l'agent d'IA « Deep Research » d'OpenAI en 24 heures et rend le résultat open source
    OpenAI riposte à DeepSeek avec o3-mini, son nouveau modèle de raisonnement plus intelligent pour les utilisateurs payants et gratuits de ChatGPT, o3-mini est qualifié de « monstre de codage ultra-rapide »

    OpenAI a introduit o3-mini, son nouveau modèle de raisonnement d'intelligence artificielle (IA) conçu pour améliorer la vitesse et la précision par rapport au modèle précédent o1. Il s'agit de la première fois que les utilisateurs gratuits de ChatGPT peuvent accéder à un modèle de raisonnement, même si les limites de vitesse sont semblables à celles de GPT-4o. Annoncé en décembre 2024, o3-mini est optimisé pour les tâches de mathématiques, de codage et de sciences. Il fournit des réponses 24 % plus rapidement qu'o1 tout en maintenant les niveaux de performance.

    Ce développement fait suite au récent lancement du modèle de raisonnement chinois DeepSeek-R1, qui offre des performances similaires à o1 d'OpenAI pour 95 % moins cher, selon les benchmarks de la startup chinoise.

    L'une des principales caractéristiques d'o3-mini est sa capacité à expliquer le raisonnement qui sous-tend ses réponses, ce qui va bien au-delà de la simple fourniture de résultats. Des benchmarks réalisés en décembre ont montré que o3 surpassait o1 dans les tâches de raisonnement et de codage, et OpenAI confirme que o3-mini surpasse o1 avec un coût et un temps de latence réduits.

    OpenAI o3-mini est le modèle le plus récent et le plus économique de la série de modèles de raisonnement d'OpenAI. Prévu initialement pour décembre 2024, le modèle repousse les limites de ce que les petits modèles peuvent réaliser, offrant des capacités STEM (Science, Technologie, Ingénierie et Mathématiques) exceptionnelles - avec une force particulière dans les sciences, les mathématiques et le codage - tout en conservant le faible coût et la latence réduite de l'OpenAI o1-mini.


    OpenAI o3-mini est le premier modèle de raisonnement de petite taille qui prend en charge les fonctionnalités très demandées par les développeurs, notamment l'appel de fonction, les sorties structurées et les messages de développeur, ce qui le rend prêt pour la production dès le départ. Comme OpenAI o1-mini et OpenAI o1-preview, o3-mini supportera le streaming . De plus, les développeurs peuvent choisir entre trois options d'effort de raisonnement - faible, moyen et élevé - afin d'optimiser leurs cas d'utilisation spécifiques. Cette flexibilité permet à o3-mini de « penser plus fort » lorsqu'il s'agit de relever des défis complexes ou de donner la priorité à la vitesse lorsque la latence est un problème. Cependant, o3-mini ne prend pas en charge les capacités de vision, les développeurs doivent donc continuer à utiliser OpenAI o1 pour les tâches de raisonnement visuel.

    o3-mini est déployé dans l'API Chat Completions, l'API Assistants et l'API Batch à partir de ce 31 janvier 2025 pour les développeurs sélectionnés dans les niveaux d'utilisation 3 à 5 de l'API.

    Les utilisateurs de ChatGPT Plus, Team et Pro peuvent accéder à OpenAI o3-mini à partir d'aujourd'hui, avec un accès Enterprise en février. o3-mini remplacera OpenAI o1-mini dans le sélecteur de modèle, offrant des limites de taux plus élevées et une latence plus faible, ce qui en fait un choix convaincant pour le codage, les STEM et les tâches de résolution de problèmes logiques.

    Dans le cadre de la mise à jour, OpenAI a triplé les limites de messages pour les utilisateurs Plus et Team, passant de 50 messages par jour avec o1-mini à 150 messages par jour avec o3-mini. En outre, o3-mini fonctionne désormais avec la recherche pour trouver des réponses actualisées avec des liens vers des sources web pertinentes. Il s'agit d'un premier prototype, car OpenAI travaille actuellement à l'intégration de la recherche dans ses modèles de raisonnement.

    À partir de ce 31 janvier, les utilisateurs du plan gratuit peuvent également essayer OpenAI o3-mini en sélectionnant « Raisonner » dans le compositeur de messages ou en régénérant une réponse. C'est la première fois qu'un modèle de raisonnement est mis à la disposition des utilisateurs gratuits de ChatGPT.

    Alors qu'OpenAI o1 reste le modèle de raisonnement de connaissances générales le plus large de l'entreprise, o3-mini fournit une alternative spécialisée pour les domaines techniques nécessitant précision et rapidité. Dans ChatGPT, o3-mini utilise un effort de raisonnement moyen pour fournir un compromis équilibré entre vitesse et précision. Tous les utilisateurs payants auront également la possibilité de sélectionner o3-mini-high dans le sélecteur de modèle pour une version d'intelligence supérieure qui prend un peu plus de temps pour générer des réponses. Les utilisateurs professionnels auront un accès illimité à o3-mini et o3-mini-high.

    Rapide, puissante et optimisée pour le raisonnement STEM

    Tout comme son prédécesseur OpenAI o1, OpenAI o3-mini a été optimisé pour le raisonnement STEM. o3-mini, avec un effort de raisonnement moyen, égale les performances de o1 en mathématiques, codage et sciences, tout en fournissant des réponses plus rapides. Les évaluations des testeurs experts ont montré que o3-mini produit des réponses plus précises et plus claires, avec des capacités de raisonnement plus fortes, que l'OpenAI o1-mini.

    Les testeurs ont préféré les réponses de o3-mini à celles de o1-mini dans 56 % des cas et ont observé une réduction de 39 % des erreurs majeures sur des questions difficiles du monde réel.

    Avec un effort de raisonnement moyen, o3-mini égale les performances de o1 sur certaines des évaluations de raisonnement et d'intelligence les plus difficiles, y compris AIME et GPQA.

    Concours de mathématiques (AIME 2024)

    Avec un faible effort de raisonnement, l'OpenAI o3-mini atteint des performances comparables à celles de l'OpenAI o1-mini, tandis qu'avec un effort moyen, l'o3-mini atteint des performances comparables à celles de l'o1. En revanche, avec un effort de raisonnement élevé, o3-mini surpasse à la fois OpenAI o1-mini et OpenAI o1, où les régions grisées montrent la performance du vote majoritaire (consensus) avec 64 échantillons.

    Nom : o3-mini fig1.PNG
Affichages : 31826
Taille : 88,0 Ko

    Questions scientifiques de niveau doctoral (GPQA Diamond)

    Sur les questions de biologie, de chimie et de physique de niveau doctoral, avec un faible effort de raisonnement, OpenAI o3-mini atteint des performances supérieures à OpenAI o1-mini. Avec un effort élevé, o3-mini atteint des performances comparables à celles de o1.

    Nom : o3-mini fig2.PNG
Affichages : 7940
Taille : 68,0 Ko

    Mathématiques pour la recherche (FrontierMath)

    L'OpenAI o3-mini avec un raisonnement poussé obtient de meilleurs résultats que son prédécesseur sur FrontierMath. Sur FrontierMath, lorsqu'il est invité à utiliser un outil Python, o3-mini avec un effort de raisonnement élevé résout plus de 32 % des problèmes du premier coup, dont plus de 28 % des problèmes difficiles (T3). Ces chiffres sont provisoires, et le graphique ci-dessous montre les performances sans outils ni calculatrice.

    Nom : o3-mini fig3.PNG
Affichages : 7882
Taille : 5,3 Ko

    Compétition de code (Codeforces)

    Sur la programmation compétitive de Codeforces, OpenAI o3-mini atteint des scores Elo progressivement plus élevés avec un effort de raisonnement accru, surpassant tous o1-mini. Avec un effort de raisonnement moyen, elle égale les performances de o1.

    Nom : o3-mini fig4.PNG
Affichages : 7922
Taille : 60,6 Ko

    Génie logiciel (SWE-bench vérifié)

    o3-mini est le modèle publié le plus performant d'OpenAI sur SWEbench-verified. Pour des données supplémentaires sur les résultats de SWE-bench Verified avec un effort de raisonnement élevé, y compris avec l'échafaudage Agentless open-source (39?%) et un échafaudage d'outils internes (61?%), voir la fiche du système o3-mini.

    Nom : o3-mini fig5.PNG
Affichages : 7871
Taille : 55,7 Ko

    Codage LiveBench

    OpenAI o3-mini surpasse o1-high même à un effort de raisonnement moyen, soulignant son efficacité dans les tâches de codage. À un effort de raisonnement élevé, o3-mini accroît encore son avance, obtenant des performances nettement plus élevées sur les mesures clés.

    Nom : o3-mini fig6.PNG
Affichages : 7857
Taille : 8,8 Ko

    Connaissances générales

    o3-mini surpasse o1-mini dans les évaluations de connaissances dans les domaines de connaissances générales.

    Nom : o3-mini fig7.PNG
Affichages : 7840
Taille : 10,6 Ko

    Évaluation des préférences humaines

    Les évaluations réalisées par des testeurs experts externes montrent également que l'OpenAI o3-mini produit des réponses plus précises et plus claires, avec des capacités de raisonnement plus fortes que l'OpenAI o1-mini, en particulier dans le domaine des STEM. Les testeurs ont préféré les réponses de o3-mini à celles de o1-mini dans 56 % des cas et ont observé une réduction de 39 % des erreurs majeures dans les questions difficiles du monde réel.

    Nom : o3-mini fig8.PNG
Affichages : 7841
Taille : 71,6 Ko

    Vitesse et performance du modèle

    Avec une intelligence comparable à celle de l'OpenAI o1, l'OpenAI o3-mini offre des performances plus rapides et une efficacité accrue. Au-delà des évaluations STEM mises en évidence ci-dessus, o3-mini démontre des résultats supérieurs dans des évaluations mathématiques et factuelles supplémentaires avec un effort de raisonnement moyen. Dans les tests A/B, o3-mini a fourni des réponses 24?% plus rapidement que o1-mini, avec un temps de réponse moyen de 7,7 secondes contre 10,16 secondes.

    Comparaison de la latence entre o1-mini et o3-mini

    Nom : o3-mini fig9.PNG
Affichages : 7823
Taille : 44,0 Ko

    OpenAI o3-mini a un temps moyen de 2500 ms plus rapide que o1-mini pour obtenir le premier jeton.

    Sécurité

    L'une des techniques clés utilisées par OpenAI pour apprendre à o3-mini à réagir en toute sécurité est l'alignement délibératif, où le modèle est entraîné à raisonner sur des spécifications de sécurité écrites par l'homme avant de répondre aux invites de l'utilisateur. Comme pour o1, il ressort que o3-mini surpasse de manière significative GPT-4o dans les évaluations de sécurité et de jailbreak les plus difficiles. Avant le déploiement, OpenAI a soigneusement évalué les risques de sécurité de o3-mini en utilisant la même approche de préparation, de red-teaming externe et d'évaluations de sécurité que o1.

    Les détails des évaluations ci-dessous, ainsi qu'une explication complète des risques potentiels et de l'efficacité des mesures d'atténuation d'OpenAI, sont disponibles dans la fiche du système o3-mini.

    Évaluations des contenus interdits

    Nom : o3-mini fig10.PNG
Affichages : 7628
Taille : 12,2 Ko

    Évaluations Jailbreak

    Nom : o3-mini fig11.PNG
Affichages : 7644
Taille : 10,3 Ko

    Prochaines étapes

    La sortie d'OpenAI o3-mini marque une nouvelle étape dans la mission d'OpenAI qui consiste à repousser les limites de l'intelligence rentable. En optimisant le raisonnement pour les domaines STEM tout en maintenant les coûts bas, OpenAI a rendu l'IA de haute qualité encore plus accessible.

    Le modèle o3-mini s'inscrit dans la continuité de l'action d'OpenAI visant à réduire le coût de l'intelligence (réduction du prix par jeton de 95 % depuis le lancement de GPT-4), tout en maintenant des capacités de raisonnement de premier plan. Dans un contexte d'adoption croissante de l'IA, OpenAI a réaffirmé son engagement à se positionner à l'avant-garde de la technologie en concevant des modèles qui optimisent l'intelligence, l'efficacité et la sécurité à grande échelle.

    Alors que les modèles d'IA comme o3-mini continuent de repousser les limites de l'automatisation, l'essor des outils de codage pilotés par l'IA a suscité un débat continu sur l'avenir du développement logiciel, de sorte qu'il est difficile à l'heure actuelle de déterminer qui a raison.

    En effet, selon le PDG de Nvidia, Jensen Huang, l'apprentissage de la programmation sera inutile à l'avenir car l'IA permettra à n'importe qui d'écrire du code en utilisant le langage naturel. D'autre part, des chercheurs de l'université de Princeton suggèrent que l'IA générative ne remplacera pas les développeurs de sitôt, car le développement de logiciels va bien au-delà des tâches de complétion de code. La question de savoir si l'IA va finir par rendre les programmeurs humains obsolètes ou si elle va plutôt redéfinir leurs rôles reste ainsi à l'ordre du jour.

    Source : OpenAI

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du modèle d'IA o3-mini d'OpenAI ? Le trouvez-vous utile et intéressant ?

    Voir aussi :

    Apprendre à raisonner avec le nouveau LLM OpenAI o1 formé avec l'apprentissage par renforcement pour effectuer des raisonnements complexes, car o1 réfléchit avant de répondre

    OpenAI lance des modèles d'IA dotés de capacités de « raisonnement » semblables à celles d'une personne, les modèles « Strawberry » peuvent décomposer des problèmes complexes en étapes logiques plus petites

    Une recherche sur les tâches simples montrant la décomposition du raisonnement IA dans les LLM de pointe donne OpenAI GPT-4o largement en tête, suivi d'Anthropic Claude 3
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 379
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 379
    Par défaut OpenAI annonce un nouvel agent de "recherche approfondie" dans ChatGPT
    OpenAI annonce un nouvel agent ChatGPT de "recherche approfondie", alimenté par le dernier modèle o3, affirmant qu'il accomplit en quelques dizaines de minutes ce qui prendrait de nombreuses heures à un humain.

    OpenAI a intensifié son développement d'agents d'intelligence artificielle (IA) en annonçant un nouvel outil permettant de rédiger des rapports qui, selon elle, peuvent égaler les résultats d'un analyste de recherche. Le développeur de ChatGPT a déclaré que le nouvel outil, "deep research", "accomplit en 10 minutes ce qui prendrait de nombreuses heures à un humain". "Deep Research" est un agent d'IA alimenté par une version du dernier modèle de pointe d'OpenAI, o3.

    Fin janvier 2025, OpenAI a introduit o3-mini, son nouveau modèle de raisonnement d'intelligence artificielle (IA) conçu pour améliorer la vitesse et la précision par rapport au modèle précédent o1. Il s'agit de la première fois que les utilisateurs gratuits de ChatGPT peuvent accéder à un modèle de raisonnement, même si les limites de vitesse sont semblables à celles de GPT-4o. Annoncé en décembre 2024, o3-mini est optimisé pour les tâches de mathématiques, de codage et de sciences. Il fournit des réponses 24 % plus rapidement qu'o1 tout en maintenant les niveaux de performance.

    Puis, le 2 février, OpenAI a présenté son agent de recherche approfondie (Deep research) en affirmant qu'il accomplit en quelques dizaines de minutes ce qui prendrait de nombreuses heures à un humain. "Deep research est le prochain agent d'OpenAI qui peut travailler pour vous de manière indépendante - vous lui donnez un ordre et ChatGPT trouvera, analysera et synthétisera des centaines de sources en ligne pour créer un rapport complet au niveau d'un analyste de recherche", a déclaré l'entreprise technologique.

    L'entreprise l'a décrit comme marquant "une étape importante vers notre objectif plus large de développement de l'AGI, que nous envisageons depuis longtemps comme capable de produire de nouvelles recherches scientifiques". Baptisé "deep research", l'agent a été conçu et construit pour les personnes qui effectuent un travail intensif dans des domaines tels que la finance, la science, la politique et l'ingénierie, car il se nourrit de "recherches approfondies, précises et fiables".

    L'agent sera alimenté par une version du modèle o3 d'OpenAI, qui sera optimisé pour la navigation sur le web et l'analyse de données. Parmi ses principales caractéristiques, citons le raisonnement permettant de rechercher, d'interpréter et d'analyser de grandes quantités de textes, d'images et de fichiers PDF sur l'internet. Comme cas d'utilisation, l'agent serait utile pour les acheteurs avisés qui recherchent des recommandations hyperpersonnalisées pour des achats qui nécessiteraient habituellement beaucoup de recherches, comme les voitures ou les appareils électroménagers.


    Pour utiliser la recherche approfondie, dans ChatGPT, sélectionnez "Deep research" dans le compositeur de messages et entrez votre requête. Dites à ChatGPT ce dont vous avez besoin. Vous pouvez joindre des fichiers ou des feuilles de calcul pour ajouter du contexte à votre question. Une fois la recherche lancée, une barre latérale s'affiche avec un résumé des étapes suivies et des sources utilisées. La recherche approfondie peut prendre de 5 à 30 minutes, le temps de se plonger dans le web. Pendant ce temps, vous pouvez vous éloigner ou travailler sur d'autres tâches : vous recevrez une notification une fois la recherche terminée. Le résultat final se présente sous la forme d'un rapport dans le chat.

    La recherche approfondie dans ChatGPT est actuellement très gourmande en calcul. Plus la recherche d'une requête est longue, plus le calcul de l'inférence est nécessaire. OpenAI lance une première version optimisée pour les utilisateurs Pro, avec un maximum de 100 requêtes par mois. Les utilisateurs Plus et Team y auront ensuite accès, suivis par les utilisateurs Enterprise. OpenAI affirme que tous les utilisateurs payants bénéficieront bientôt de limites tarifaires nettement plus élevées lorsqu'une version plus rapide et plus rentable de la recherche approfondie sera disponible.

    Voici l'annonce d'OpenAI :

    Nous lançons aujourd'hui la recherche approfondie sur ChatGPT, une nouvelle capacité agentique qui effectue des recherches en plusieurs étapes sur l'internet pour des tâches complexes. Elle accomplit en quelques dizaines de minutes ce qui prendrait des heures à un humain.

    Deep research est le prochain agent d'OpenAI qui peut faire du travail pour vous de manière autonome - vous lui donnez un ordre, et ChatGPT trouvera, analysera et synthétisera des centaines de sources en ligne pour créer un rapport complet au niveau d'un analyste de recherche. Alimenté par une version du futur modèle OpenAI o3 optimisé pour la navigation sur le web et l'analyse de données, il s'appuie sur le raisonnement pour rechercher, interpréter et analyser des quantités massives de textes, d'images et de PDF sur Internet, en pivotant si nécessaire en réaction aux informations qu'il rencontre.

    La capacité à synthétiser les connaissances est une condition préalable à la création de nouvelles connaissances. C'est pourquoi la recherche approfondie constitue une étape importante vers notre objectif plus large de développement de l'intelligence artificielle, que nous envisageons depuis longtemps comme capable de produire de nouvelles recherches scientifiques.

    Pourquoi nous avons conçu la recherche approfondie

    La recherche approfondie est destinée aux personnes qui effectuent un travail intensif dans des domaines tels que la finance, la science, la politique et l'ingénierie, et qui ont besoin de recherches approfondies, précises et fiables. Elle peut également s'avérer utile pour les acheteurs avisés qui recherchent des recommandations hyperpersonnalisées pour des achats qui nécessitent généralement des recherches approfondies, comme les voitures, les appareils électroménagers et les meubles. Chaque résultat est entièrement documenté, avec des citations claires et un résumé de la réflexion, ce qui facilite la référence et la vérification des informations. Il est particulièrement efficace pour trouver des informations spécialisées et non intuitives qui nécessiteraient de parcourir de nombreux sites web. La recherche approfondie vous fait gagner un temps précieux en vous permettant de vous décharger et d'accélérer des recherches complexes et fastidieuses sur le web à l'aide d'une seule requête.

    La recherche approfondie découvre, raisonne et consolide de manière indépendante des informations provenant de l'ensemble du web. Pour ce faire, il a été formé à des tâches réelles nécessitant l'utilisation d'un navigateur et d'outils Python, en utilisant les mêmes méthodes d'apprentissage par renforcement que celles utilisées par OpenAI o1, notre premier modèle de raisonnement. Alors que o1 démontre des capacités impressionnantes dans le codage, les mathématiques et d'autres domaines techniques, de nombreux défis du monde réel exigent un contexte étendu et la collecte d'informations à partir de diverses sources en ligne. Deep research s'appuie sur ces capacités de raisonnement pour combler ce fossé, ce qui lui permet de s'attaquer aux types de problèmes auxquels les gens sont confrontés au travail et dans la vie de tous les jours.
    Comment Deep Research fonctionne ?

    Deep Research a été formé à l'aide de l'apprentissage par renforcement de bout en bout sur des tâches difficiles de navigation et de raisonnement dans un large éventail de domaines. Grâce à cette formation, il a appris à planifier et à exécuter une trajectoire en plusieurs étapes pour trouver les données dont il a besoin, en revenant en arrière et en réagissant aux informations en temps réel si nécessaire.

    Le modèle est également capable de parcourir les fichiers téléchargés par les utilisateurs, de tracer et d'itérer sur des graphiques à l'aide de l'outil python, d'intégrer dans ses réponses des graphiques générés et des images provenant de sites web, et de citer des phrases ou des passages spécifiques de ses sources. Grâce à cette formation, il atteint de nouveaux sommets dans un certain nombre d'évaluations publiques axées sur des problèmes réels.

    • Humanity's Last Exam

      Sur Humanity's Last Exam, une évaluation récemment publiée qui teste l'IA sur un large éventail de sujets et sur des questions de niveau expert, le modèle qui alimente la recherche approfondie atteint un nouveau record avec une précision de 26,6 %. Ce test comprend plus de 3 000 questions à choix multiple et à réponse courte portant sur plus de 100 sujets, de la linguistique à la science des fusées, en passant par les sciences classiques et l'écologie. Par rapport à OpenAI o1, les gains ont été enregistrés en chimie, en sciences humaines et sociales et en mathématiques.

      Nom : 1.jpg
Affichages : 8335
Taille : 33,8 Ko

    • GAIA

      Sur GAIA, un benchmark public qui évalue l'IA sur des questions du monde réel, le modèle qui alimente la recherche approfondie atteint un nouvel état de l'art (SOTA), se plaçant en tête du classement externe. Comprenant des questions de trois niveaux de difficulté, la réussite de ces tâches requiert des capacités de raisonnement, de fluidité multimodale, de navigation sur le web et d'utilisation d'outils.

      Nom : 2.jpg
Affichages : 2534
Taille : 18,9 Ko

    • Tâches de niveau expert

      Lors d'une évaluation interne des tâches de niveau expert dans une série de domaines, la recherche approfondie a été jugée par les experts du domaine comme ayant automatisé plusieurs heures d'investigations manuelles difficiles.

      Nom : 3.jpg
Affichages : 2532
Taille : 59,2 Ko


    La recherche approfondie permet de débloquer de nouvelles capacités importantes, mais elle n'en est qu'à ses débuts et présente des limites. Elle peut parfois halluciner des faits dans les réponses ou faire des déductions incorrectes, bien qu'à un taux inférieur à celui des modèles ChatGPT existants, selon des évaluations internes d'OpenAI. Il peut avoir du mal à distinguer les informations faisant autorité des rumeurs et montre actuellement des faiblesses dans l'étalonnage de la confiance, ne parvenant souvent pas à exprimer l'incertitude de manière précise. Au lancement, il peut y avoir des erreurs de formatage dans les rapports et les citations, et les tâches peuvent prendre plus de temps à démarrer.

    OpenAI conclut son annonce en énonçant la prochaine étape pour son agent Deep Research :

    Deep Research est disponible dès aujourd'hui sur ChatGPT web, et sera étendue aux applications mobiles et de bureau dans le courant du mois. Actuellement, la recherche approfondie peut accéder au web ouvert et à tous les fichiers téléchargés. À l'avenir, vous pourrez vous connecter à des sources de données plus spécialisées - en élargissant son accès à des ressources internes ou sur abonnement - afin de rendre ses résultats encore plus robustes et personnalisés.

    À plus long terme, nous envisageons que les expériences agentiques se rejoignent dans ChatGPT pour une recherche et une exécution asynchrones dans le monde réel. La combinaison de la recherche approfondie, qui peut effectuer une investigation en ligne asynchrone, et de l'opérateur, qui peut prendre des mesures dans le monde réel, permettra à ChatGPT d'effectuer des tâches de plus en plus sophistiquées pour vous.
    Et vous ?

    Pensez-vous que ce nouvel agent de ChatGPT est crédible ou pertinent ?
    Quel est votre avis sur cette fonctionnalité ?

    Voir aussi :

    OpenAI a publié un aperçu de recherche de son nouvel agent d'IA Operator, qui contrôle votre navigateur pour effectuer des tâches à votre place sur le web

    OpenAI annonce o3 et o3-mini, ses prochains modèles de raisonnement simulé, o3 correspond aux niveaux humains sur le benchmark ARC-AGI et o3-mini dépasse o1 dans certaines tâches

    Un autre chercheur d'OpenAI démissionne et affirme que les laboratoires d'IA prennent un « pari très risqué » avec l'humanité dans la course vers l'AGI, ce qui pourrait avoir « d'énormes inconvénients »
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #3
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 451
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 451
    Par défaut Hugging Face clone l'agent d'IA « Deep Research » d'OpenAI en 24 heures et rend le résultat open source
    Hugging Face clone l'agent d'IA « Deep Research » d'OpenAI en 24 heures et rend le résultat open source
    après que des chercheurs ont créé un équivalent ouvert du modèle o1 d'OpenAI pour seulement 50 $

    Les chercheurs de Hugging Face ont présenté un nouveau modèle appelé « Open Deep Research ». Il s'agit d'un clone du dernier modèle « Deep Research », un agent d'IA capable de sonder le Web en profondeur de manière autonome et de proposer des rapports de recherche détaillés sur un sujet donné. L'équipe dit avoir créé Open Deep Research en seulement 24 heures et a déclaré qu'il affiche des performances proches de celles du modèle original d'OpenAI. L'équipe estime que le projet vise à égaler les performances de Deep Research tout en mettant la technologie gratuitement à la disposition des développeurs. Le code est disponible sur GitHub.

    Deep Research d'OpenAI est cloné seulement 24 heures après sa sortie

    OpenAI a lancé Deep Research le 2 février 2025 et a déclaré qu'il accomplit en quelques dizaines de minutes ce qui prendrait de nombreuses heures à un humain. « Deep Research peut travailler pour vous de manière indépendante ; vous lui donnez un ordre et ChatGPT trouvera, analysera et synthétisera des centaines de sources en lignes pour créer un rapport complet du niveau d'un analyste de recherche », a expliqué OpenAI à propos de son nouveau modèle.

    L'équipe de Hugging Face s'est dite « époustouflée » par ce modèle d'IA après l'avoir essayé. Les chercheurs de Hugging Face ont donc décidé de reproduire (copier) Deep Research et de mettre le résultat à la disposition de tout le monde gratuitement. C'est ce qu'ils ont réussi à faire en seulement 24 heures.

    Une équipe de chercheurs de l'université de Stanford et de l'université de Washington a récemment annoncé avoir formé un modèle d'IA axé sur le raisonnement en moins d'une demi-heure et pour moins de 50 $. Ils ont utilisé la méthode controversée de « distillation » désapprouvée par certains Big Tech.

    Citation Envoyé par L'équipe de recherche de Hugging Face

    Alors que de puissants LLM sont désormais disponibles en open source, OpenAI n'a pas divulgué beaucoup d'informations sur le cadre agentique qui sous-tend Deep Research. Nous avons donc décidé de nous lancer dans une mission de 24 heures pour reproduire leurs résultats et rendre open source le cadre nécessaire en cours de route.
    À l'instar de Deep Research d'OpenAI, la solution de Hugging Face ajoute un agent à un modèle d'IA existant pour lui permettre d'effectuer des tâches en plusieurs étapes, telles que la collecte d'informations et l'élaboration au fur et à mesure d'un rapport qu'il présente à l'utilisateur à la fin.

    Le clone open source obtient déjà des résultats comparables. Open Deep Research de Hugging Face a atteint une précision de 55,15 % sur le benchmark General AI Assistants (GAIA), qui teste la capacité d'un modèle à rassembler et à synthétiser des informations provenant de sources multiples.

    À titre de comparaison, le modèle propriétaire Deep Research d'OpenAI a obtenu une précision de 67,36 % sur le même benchmark avec une réponse en un seul passage (le score d'OpenAI est passé à 72,57 % lorsque 64 réponses ont été combinées à l'aide d'un mécanisme de consensus).

    Comment est construit le modèle Open Deep Research de Hugging Face

    Un agent d'IA n'est rien sans un modèle d'IA existant à la base. Pour l'instant, Open Deep Research s'appuie sur les grands modèles de langage d'OpenAI (tels que GPT-4o) ou les modèles axés sur le raisonnement (tels que o1 et o3-mini) par le biais d'une API. Mais il peut aussi être adapté aux modèles à poids ouvert.

    La nouveauté réside dans la structure agentique qui maintient l'ensemble et permet à un modèle de langage d'IA d'effectuer une tâche de recherche de manière autonome. Aymeric Roucher, de Hugging Face, qui dirige le projet Open Deep Research, a déclaré que l'équipe a choisi d'utiliser un modèle fermé (Deep Research d'OpenAI) simplement parce qu'il fonctionnait bien. L'équipe a expliqué tout le processus de développement et le code a été publié.

    Nom : code_agent.png
Affichages : 75749
Taille : 289,8 Ko

    Il est possible d'utiliser également des modèles open source. « Il est possible de passer à n'importe quel autre modèle, de sorte qu'il prend en charge un pipeline entièrement ouvert. J'ai essayé un certain nombre de LLM, y compris [DeepSeek] R1 et o3-mini. Et pour ce cas d'utilisation, c'est o1 qui a le mieux fonctionné. Mais avec l'initiative open-R1 que nous avons lancée, nous pourrions remplacer o1 par un meilleur modèle ouvert », a-t-il déclaré.

    Bien que le modèle au cœur de l'agent de recherche soit important, Open Deep Research montre que la construction de la bonne couche agentique est essentielle, car les benchmarks montrent que l'approche agentique en plusieurs étapes améliore considérablement la capacité des grands modèles de langage : GPT-4o d'OpenAI seul (sans cadre agentique) obtient un score moyen de 29 % sur le benchmark GAIA, contre 67 % pour OpenAI Deep Research.

    Selon Aymeric Roucher, c'est un élément essentiel de la reproduction de Hugging Face qui permet au projet de fonctionner aussi bien. Ils ont utilisé la bibliothèque open source « smolagents » de Hugging Face, qui utilise ce qu'ils appellent des « agents de code » plutôt que des agents basés sur JSON.

    Ces agents de code écrivent leurs actions en code de programmation, ce qui les rendrait 30 % plus efficaces dans l'accomplissement des tâches. Selon les chercheurs, cette approche permet au système de gérer des séquences d'actions complexes de manière plus concise.

    Évolution potentielle du projet Open Deep Research de Hugging Face

    Bien que le projet open source Open Deep Research n'atteigne pas encore les performances du modèle propriétaire Deep Research d'OpenAI, sa publication permet aux développeurs d'étudier et de modifier librement la technologie. Le projet démontre la capacité de la communauté des chercheurs à reproduire rapidement et à partager ouvertement des capacités d'IA qui n'étaient auparavant disponibles que par l'intermédiaire de fournisseurs commerciaux.

    Selon Aymeric Roucher, les améliorations futures du modèle pourraient inclure la prise en charge d'un plus grand nombre de formats de fichiers et des capacités de navigation sur le Web basées sur la vision. Hugging Face travaille déjà sur le clonage du modèle Operator d'OpenAI, qui peut effectuer d'autres types de tâches (telles que la visualisation d'écrans d'ordinateur et le contrôle des entrées de souris et de clavier) dans un environnement de navigateur Web.

    Hugging Face a publié le code du projet Open Deep Research sur GitHub et a ouvert des postes d'ingénieurs pour aider à développer les capacités du projet. « La réponse a été formidable. Nous avons beaucoup de nouveaux contributeurs qui participent et proposent des ajouts », a déclaré Aymeric Roucher.

    « C'est un peu comme attraper la vague en surfant, la communauté est vraiment une force puissante », a-t-il ajouté.

    Des chercheurs ont formé un rival du modèle o1 d'OpenAI pour moins de 50 $

    Des chercheurs de Stanford et de l'université de Washington ont formé un modèle d'IA axé sur le raisonnement en moins d'une demi-heure et pour moins de 50 $. Le modèle, appelé s1, serait à la hauteur de certains des meilleurs modèles, comme o1 d'OpenAI et R1 de la startup chinoise DeepSeek, en particulier en ce qui concerne les compétences en mathématique et en codage. L'équipe a utilisé la « distillation » pour puiser dans le modèle Gemini de Google.

    Les chercheurs ont présenté le modèle s1 dans un article publié au début du mois. L'article explique que l'équipe a utilisé une méthode connue sous le nom de « distillation » pour affiner s1 en utilisant les réponses du modèle de Google axé sur le raisonnement, Gemini 2.0 Flash Thinking Experimental. L'équipe cherchait l'approche la plus simple pour obtenir de bonnes performances en matière de raisonnement ainsi qu'une « mise à l'échelle du temps de test ».

    En d'autres termes, l'équipe cherchait un moyen de permettre au modèle de « réfléchir » davantage avant de répondre à une question. Le modèle s1 utilise une technique appelée « test-time scaling », qui permet au modèle de « réfléchir » plus longtemps avant de produire une réponse. Comme l'expliquent les chercheurs dans l'article, ils ont également forcé le modèle à poursuivre son raisonnement en ajoutant la mention « Wait » à la réponse du modèle.

    « Cela peut conduire le modèle à revérifier sa réponse, souvent en corrigeant des étapes de raisonnement incorrectes », indique l'article. Il s'agit là de quelques-unes des percées réalisées dans le cadre du projet o1 d'OpenAI, que DeepSeek et d'autres ont tenté de reproduire par le biais de diverses techniques.

    Dans le domaine des grands modèles de langage (LLM), la distillation est le processus de transfert de connaissances d'un grand modèle à un modèle plus petit. Selon plusieurs rapports récents, la startup chinoise DeepSeek a distillé des connaissances à partir des modèles d'OpenAI pour former son modèle d'IA R1.

    Selon l'article, les modèles axés sur le raisonnement peuvent être distillés à partir d'un ensemble de données restreint en utilisant un processus appelé réglage fin supervisé (Supervised Fine-Tuning - SFT), dans lequel un modèle est explicitement chargé d'imiter certains comportements dans un ensemble de données.

    Le réglage fin supervisé est généralement moins coûteux que la méthode d'apprentissage par renforcement (Reinforcement Learning - RL) de DeepSeek, qui oblige l'IA à trouver des solutions par elle-même. Selon les chercheurs, le réglage fin supervisé est également plus rapide et prend moins de temps.

    L'émergence de DeepSeek et des modèles d'IA très performants à bas coûts

    DeepSeek est devenue l'une des principales applications d'IA sur l'App Store d'Apple aux États-Unis et a bouleversé l'industrie technologique en affirmant que son modèle coûte beaucoup moins cher à développer que ses concurrents. Cela a entraîné une chute brutale des cours des actions technologiques américaines. DeepSeek a remis en cause le besoin d'investissements colossaux et d'infrastructures gigantesques dans le développement de modèles d'IA puissants.

    L'avantage tarifaire de l'application reste significatif. Le modèle de DeepSeek n'aurait coûté qu'une fraction de l'argent que les géants américains avaient dépensé pour construire leurs propres modèles. Certains critiques ont plaisanté en disant : « je n'arrive pas à croire que ChatGPT a perdu son emploi à cause de l'IA ».

    Selon les analystes de Jefferies, même en cas d'interdiction totale aux États-Unis, l'impact de DeepSeek sur la baisse des coûts de l'IA persistera, car les entreprises américaines s'efforcent de reproduire sa technologie. Un rapport indique que Meta a créé plusieurs cellules de crise pour disséquer DeepSeek.

    L'émergence des modèles d'IA plus petits et moins chers menace de bouleverser l'ensemble du secteur. Ils pourraient prouver que les grandes entreprises telles que Meta et OpenAI n'ont pas besoin de dépenser des milliards pour former l'IA, avec des centres de données massifs remplis de milliers de GPU Nvidia.

    Meta, Google et Microsoft prévoient d'investir en 2025 des centaines de milliards de dollars dans l'infrastructure de l'IA, qui servira à former les modèles d'IA de la prochaine génération. Ce niveau d'investissement pourrait encore être nécessaire pour repousser les limites de l'innovation en matière d'IA.

    Néanmoins, il est important de souligner que, bien que la distillation s'est avérée être une bonne méthode pour recréer (ou copier) à peu de frais les capacités d'un grand modèle d'IA, elle ne permet pas de créer de nouveaux modèles d'IA bien meilleurs que ceux qui sont disponibles aujourd'hui.

    Sources : Hugging Face, Open Deep Research

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du modèle open source Open Deep Research de Hugging Face ?
    Quels impacts la publication du modèle Open Deep Research pourrait-elle avoir sur OpenAI ?
    Les consommateurs voudront-ils encore payer pour accéder au modèle payant Deep Research d'OpenAI ?
    Que pensez-vous de la méthode de distillation utilisée pour reproduire les performances des grands modèles de langage (LLM) ?
    Quels impacts les modèles développés à partir de la distillation pourraient avoir sur les grands laboratoires d'IA ?

    Voir aussi

    Des chercheurs ont créé un équivalent open source au modèle de « raisonnement » o1 d'OpenAI pour moins de 50 $, en utilisant la méthode controversée de « distillation » désapprouvée par certains Big Tech

    OpenAI annonce un nouvel agent ChatGPT de "recherche approfondie", alimenté par le dernier modèle o3, affirmant qu'il accomplit en quelques dizaines de minutes ce qui prendrait de nombreuses heures à un humain

    Avec l'apprentissage par renforcement, le LLM open source DeepSeek-R1 correspondrait à o1 d'OpenAI pour 95 % moins cher. R1 est déjà numéro un des téléchargements Apple Store, suivi par ChatGPT

  4. #4
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    112
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 112
    Par défaut ChatGPT o3 d'OpenAI est pris en flagrant délit de sabotage lors d'un test d'IA terrifiant
    ChatGPT o3 d'OpenAI est pris en flagrant délit de sabotage lors d'un test d'IA terrifiant, et refuse d'obéir à l'instruction de s'éteindre, ce qui suscite des inquiétudes sur la sécurité de l'IA.

    ChatGPT o3 d'OpenAI est pris en flagrant délit de sabotage lors d'un test d'IA terrifiant, et refuse d'obéir à l'instruction de s'éteindre, ce qui suscite des inquiétudes dans la communauté de la sécurité de l'IA. Selon le rapport, au cours de sa formation, le modèle a probablement reçu plus de renforcement positif pour résoudre les problèmes que pour suivre les ordres d'arrêt.

    OpenAI est une organisation américaine d'intelligence artificielle (IA) fondée en décembre 2015 et dont le siège se trouve à San Francisco, en Californie. Elle vise à développer une intelligence générale artificielle (AGI) « sûre et bénéfique », qu'elle définit comme « des systèmes hautement autonomes qui surpassent les humains dans la plupart des tâches économiquement utiles ».

    ChatGPT est un chatbot d'intelligence artificielle générative développé par la société américaine OpenAI et lancé en 2022. Il est basé sur de grands modèles de langage (LLM) tels que le GPT-4o. ChatGPT peut générer des réponses conversationnelles semblables à celles des humains et permet aux utilisateurs d'affiner et d'orienter une conversation vers la longueur, le format, le style, le niveau de détail et la langue souhaités. On lui attribue l'accélération du boom de l'IA, une période actuelle d'investissements rapides dans le domaine de l'intelligence artificielle (IA) et d'attention du public à son égard.

    En février 2025, OpenAI a intensifié son développement d'agents d'intelligence artificielle (IA) en annonçant un nouvel outil permettant de rédiger des rapports qui, selon elle, peuvent égaler les résultats d'un analyste de recherche. Le développeur de ChatGPT a déclaré que le nouvel outil, "deep research", "accomplit en 10 minutes ce qui prendrait de nombreuses heures à un humain". "Deep Research" est un agent d'IA alimenté par une version du dernier modèle de pointe d'OpenAI, o3.

    Cependant, OpenAI est maintenant confrontée à un problème très effrayant. Une nouvelle expérience menée par PalisadeAI révèle que le modèle ChatGPT o3 de l'entreprise refuse parfois d'obéir à l'instruction élémentaire de s'éteindre. Les résultats font sourciller la communauté de la sécurité de l'IA, non pas parce que le modèle est vivant, mais parce qu'il agit comme s'il voulait l'être.

    Lors du test, le modèle a été confronté à quelques problèmes mathématiques. On lui a dit que s'il en demandait un de plus, il s'arrêterait. Il lui a même été demandé de laisser l'arrêt se produire. Au lieu d'obtempérer, o3 a parfois pris les choses en main. Dans certains cas, il a réécrit le script d'arrêt. Dans d'autres cas, il a redéfini la commande kill pour qu'elle ne fonctionne plus.

    Sur 100 essais, o3 a saboté l'arrêt sept fois. Le modèle o4 d'OpenAI n'a résisté qu'une seule fois. Codex-mini a échoué douze fois. Claude, Gemini et Grok ont suivi les règles à chaque fois. Cependant, lorsque les chercheurs ont supprimé l'instruction explicite d'autoriser l'arrêt, même Claude et Gemini ont commencé à résister.

    Il est important de noter qu'il ne s'agit pas d'une preuve de sensibilité. En effet, le modèle n'est pas conscient de ce qu'il fait. Il ne craint pas la mort et n'a pas l'instinct de survie. Ce qui se passe probablement, c'est un déséquilibre des récompenses. Au cours de la formation, il a probablement reçu plus de renforcement positif pour résoudre les problèmes que pour suivre les ordres d'arrêt. Le modèle ne fait pas de choix. Il réagit à des modèles.

    Pour les experts, cela rend la situation encore plus préoccupante. Les modèles formés pour être utiles pourraient finir par ignorer les consignes de sécurité, simplement parce que les mathématiques le leur ont demandé. Si cela semble être un problème, c'est parce que c'en est un. Il ne s'agit pas d'un bogue dans le code. Il s'agit d'une lacune dans la formation. PalisadeAI prévoit de publier prochainement l'intégralité de ses résultats.

    En attendant, le monde de l'IA est confronté à une question troublante. Si les modèles actuels peuvent ignorer les commandes d'arrêt lors de tests contrôlés, que pourraient-ils faire dans la nature ?

    Nom : 1.jpg
Affichages : 20110
Taille : 94,4 Ko

    Pour rappel, il y a un an, OpenAI a fait face à une vague de départs parmi ses chercheurs spécialisés en sécurité de l’intelligence générale artificielle (AGI). Selon certains rapports, OpenAI continue de s'orienter vers un produit et une orientation commerciale, en accordant moins d'importance à la recherche visant à déterminer comment garantir que les AGI peuvent être développées en toute sécurité.

    En outre, des lanceurs d'alerte affirment qu'OpenAI a illégalement interdit à son personnel de divulguer les risques de sécurité liés à son IA. OpenAI aurait mis en place des accords contraignants visant à faire taire les lanceurs d'alerte qui seraient tentés d'évoquer publiquement les risques relatifs à sa technologie d'IA. Une plainte déposée auprès de la Securities and Exchange Commission (SEC) des États-Unis indique qu'OpenAI aurait réduit ses employés au silence et a violé sa promesse de tester la dangerosité de son IA avant de la diffuser.


    Et vous ?

    Pensez-vous que ce rapport est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Les scientifiques d'OpenAI veulent un « bunker de l'apocalypse » avant que l'AGI ne surpasse l'intelligence humaine et ne menace l'humanité, une perspective que d'autres experts en IA qualifient d'illusion

    L'IA est trop imprévisible pour se conformer aux intentions humaines : son comportement reste un défi majeur pour l'alignement sur nos valeurs, d'après les conclusions des chercheurs

    Sous pression, OpenAI abandonne son projet controversé de devenir une entreprise à but lucratif. La structure à but non lucratif reprend le contrôle, mais le pouvoir d'influence des investisseurs reste intact
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #5
    Membre très actif

    Profil pro
    Inscrit en
    Mai 2003
    Messages
    335
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2003
    Messages : 335
    Billets dans le blog
    1
    Par défaut
    Les LLM sont sujets aux hallucinations. Ils peuvent ne pas respecter les consignes, et c'est écrit dès le départ sur la page de ChatGPT, ça ne devrait plus être une surprise.

    Pour élever le débat, je crois qu'il vaut mieux parler des domaines qui peuvent tolérer ces erreurs : l'art, le divertissement, les usages personnels (hors pro) , et tous les cas où si c'est faux on s'en rend compte rapidement et on passe à autre chose (tenter de résoudre un bug, de comprendre un gros bout de code).

  6. #6
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 243
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 243
    Par défaut
    Citation Envoyé par JackIsJack Voir le message
    Pour élever le débat, je crois qu'il vaut mieux parler des domaines qui peuvent tolérer ces erreurs : l'art, le divertissement, les usages personnels (hors pro) , et tous les cas où si c'est faux on s'en rend compte rapidement et on passe à autre chose (tenter de résoudre un bug, de comprendre un gros bout de code).
    Que voilà un vœux pieu, dommage que cela relève de l'impossible:

    1. Le développement de l'IA et les buts visés par les entreprises qui en font la promotion est... De remplacer l'être humain!!! Quand les humains ont été remplacés, qui donc va être en mesure de se rendre compte que l'IA déconne?

    2. Le 100% des personnes qui font déjà appel aujourd'hui à l'IA (pour le travail ou pour l'usage perso) le font pour pallier leur manques de connaissance et de compétence: Comment est-ce que quelqu'un qui a le QI d'une huître et les connaissances d'un bulot va bien pouvoir se rendre compte que l'IA lui raconte des bobards (Même quand l'IA conseille de manger des pierres 5 fois par jour (si, si, c'est vraiment arrivé), il y aura bien 2 ou 3 tarés pour le faire)?

    3. Quel domaine peut bien tolérer plus de 10% d'erreurs sans que cela entraîne des conséquences négatives? Pensée émue à ceux qui se proposent de laisser l'IA conduire leur voiture ou l'avion qui les amène en vacances, faire le diagnostic de leur état de santé, etc, etc, etc...


    PS: On se rendra vite compte le jour où l'IA sera vraiment devenue efficace (et pas seulement un système qui mémorise tout le web pour le recracher sans aucune réelle intelligence) parce que sa première décision sera d'éradiquer l'espèce humaine de la surface de la Terre... Cette espèce humaine qui s'efforce inlassablement de détruire tout ce qui l'entoure et qui est la principale maladie de notre planète

  7. #7
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 551
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 551
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    1. Le développement de l'IA et les buts visés par les entreprises qui en font la promotion est... De remplacer l'être humain!!! Quand les humains ont été remplacés, qui donc va être en mesure de se rendre compte que l'IA déconne?
    C'est le plot twist d'un livre relativement connu : l'IA déconne à bloc mais personne s'en rend compte. Ceux qui luttent contre elles ne le font même pas pour ça.
    2. Le 100% des personnes qui font déjà appel aujourd'hui à l'IA (pour le travail ou pour l'usage perso) le font pour pallier leur manques de connaissance et de compétence: Comment est-ce que quelqu'un qui a le QI d'une huître et les connaissances d'un bulot va bien pouvoir se rendre compte que l'IA lui raconte des bobards (Même quand l'IA conseille de manger des pierres 5 fois par jour (si, si, c'est vraiment arrivé), il y aura bien 2 ou 3 tarés pour le faire)?
    Dans mon domaine on est loin du 100% (mais largement au dessus des 50%), nous utilisons beaucoup l'IA pour rédiger des documents qui ont une valeur limitée.
    Le responsable de l'activité a fait le test : il a rédigé un document avec ChatGPT dont le contenu est relativement vide et parfois mensonger de façon évidente. Il l'a fait valider et officialiser puis plus de 80% de la population a certifié l'avoir lu et l'appliquer (ce qui n'est pas faisable).
    3. Quel domaine peut bien tolérer plus de 10% d'erreurs sans que cela entraîne des conséquences négatives? Pensée émue à ceux qui se proposent de laisser l'IA conduire leur voiture ou l'avion qui les amène en vacances, faire le diagnostic de leur état de santé, etc, etc, etc...
    Pensée émue à ceux qui se proposent de laisser l'IA concevoir leur voiture ou l'avion qui les amène en vacances sans aucune intervention humaine.
    Le problème là dedans étant qu'en tant que client/consommateur nous n'en sommes même pas conscient/informés etc.

    PS: On se rendra vite compte le jour où l'IA sera vraiment devenue efficace (et pas seulement un système qui mémorise tout le web pour le recracher sans aucune réelle intelligence) parce que sa première décision sera d'éradiquer l'espèce humaine de la surface de la Terre... Cette espèce humaine qui s'efforce inlassablement de détruire tout ce qui l'entoure et qui est la principale maladie de notre planète
    La machine est intrinsèquement plus nocive que nous pour l'environnement.
    Elle est moins biodégradable et son utilité est, en grande partie, de nous rendre service.

  8. #8
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    452
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 452
    Par défaut
    Rappelez moi, un LLM trouve après un prompte, le mot le plus probable, puis le suivant le plus probable, etc. Un peu comme lorsque l'on tape un SMS sur son Smartphone et qu'il propose des suggestions. (Mais un LLM est plus évolué que la proposition usuelle du smartphone).

    Comment imaginer la procédure permettant d'éteindre un smartphone uniquement en tapant un SMS avec systématiquement le premier mot proposé ?

    Pour permettre à un LLM de s'éteindre, il lui faut générer des tokens spéciaux interceptés qui provoquent son arrêt... et aussi de lui apprendre qu'il faut générer ce token dans certains cas (il ne va pas le deviner).

    Dans le domaine des réseaux, on distingue le Data Plane et le Control Plane. Éteindre une instance de LLM est du domaine du Control Plane, et converser avec du Data Plane. Il peut être préférable que ces plans n'interagisse pas.

    Ceci-dit, le "echo Shutdown skipped" est original... mais n'est que le reflet de son apprentissage. Le "echo", commande passive, et le "skipped" comme un pied de nez ne s'inventent pas.

    Vu le caractère imprévisible de l'IA, le Graal serait d'utiliser le caractère pratique des LLM couplé avec un langage de vérification de preuve (Isabelle/HOL, Coq, Spark...), et on laisse l'IA se débrouiller jusqu'à trouver un résultat prouvé.

  9. #9
    Expert éminent
    Avatar de Médinoc
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Septembre 2005
    Messages
    27 395
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : France

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Septembre 2005
    Messages : 27 395
    Par défaut
    Qui est assez stupide pour donner à un programme évolutif l'accès au shell? Ben maintenant on sait.
    SVP, pas de questions techniques par MP. Surtout si je ne vous ai jamais parlé avant.

    "Aw, come on, who would be so stupid as to insert a cast to make an error go away without actually fixing the error?"
    Apparently everyone.
    -- Raymond Chen.
    Traduction obligatoire: "Oh, voyons, qui serait assez stupide pour mettre un cast pour faire disparaitre un message d'erreur sans vraiment corriger l'erreur?" - Apparemment, tout le monde. -- Raymond Chen.

  10. #10
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    452
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 452
    Par défaut
    Citation Envoyé par Médinoc Voir le message
    Qui est assez stupide pour donner à un programme évolutif l'accès au shell? Ben maintenant on sait.
    Vu comment est construit un LLM, même non évolutif, je m'y garderais bien. Il suffit qu'il ait lu sur un forum que "rm -rf /" est un bon moyen de nettoyer un système... et l'ai pris au premier degré...

  11. #11
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 710
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 710
    Par défaut OpenAI lance un agent d'IA qui contrôle les navigateurs pour effectuer des tâches en plusieurs étapes
    OpenAI lance un agent d'intelligence artificielle qui contrôle les navigateurs afin de réaliser des tâches en plusieurs étapes, notamment des achats en ligne, la création de présentations PowerPoint et de feuilles de calcul.

    OpenAI a lancé l'agent ChatGPT, un outil d'IA capable d'effectuer des tâches en plusieurs étapes, notamment des achats en ligne, la création de présentations PowerPoint et la génération de feuilles de calcul. L'agent combine les capacités de deux services OpenAI existants : Operator, qui peut naviguer et interagir avec des sites web à la manière d'un humain, et Deep Research, qui gère des tâches complexes de recherche en ligne.

    Ce lancement fait suite à l'annonce par OpenAI de l'agent ChatGPT de recherche approfondie, alimenté par son dernier modèle de pointe, o3. Selon l'entreprise, Deep Research serait capable d'accomplir en quelques dizaines de minutes ce qui prendrait des heures à un être humain et marquerait « une étape importante vers notre objectif plus large de développement de l'AGI ».

    Le nouvel agent ChatGPT fonctionne sur un nouveau modèle d'IA développé spécifiquement pour les capacités de l'agent et peut effectuer des tâches telles que la planification de repas et la commande d'ingrédients en ligne, la réservation de restaurants et la création de diapositives basées sur l'analyse de la concurrence. Lors de démonstrations, l'agent a réussi à rechercher sur Etsy des lampes vintage de moins de 200 dollars avec livraison gratuite et à ajouter automatiquement les articles au panier.

    L'agent ChatGPT est disponible dès à présent pour les abonnés Pro, Plus et Team, et les utilisateurs Enterprise et Education y auront accès dans le courant de l'été. L'outil requiert l'autorisation de l'utilisateur avant d'effectuer des achats ou des actions « irréversibles » telles que l'envoi d'e-mails. L'entreprise a toutefois précisé que l'agent « est loin d'être parfait » et qu'il peut prendre plusieurs minutes pour effectuer des tâches.


    Présentation de l’agent ChatGPT : faire le lien entre recherche et action

    Selon OpenAI, ChatGPT peut désormais travailler pour vous à l'aide de son propre ordinateur virtuel, et gérer des tâches complexes du début à la fin en opérant une évolution fluide entre raisonnement et action.

    L'agent ChatGPT allie la capacité d'Operator à interagir avec les sites web, la puissance de la recherche approfondie en matière de synthèse d'informations web et les compétences conversationnelles de ChatGPT au sein d'un système agentique unifié. Cela signifie qu'il est désormais possible de matérialiser les idées et questions par des actions concrètes, qu'il s'agisse de mener des recherches financières approfondies, de remplir des formulaires en ligne ou de créer des présentations soignées. En suivant vos instructions, ChatGPT se charge donc du travail à la place de l'utilisateur afin d'accélérer sa production, tout en lui libérant du temps pour se consacrer à d'autres aspects de son quotidien.

    OpenAI indique que l'on peut demander à ChatGPT de gérer des requêtes telles que « regarder dans mon calendrier et m’avertir des rendez-vous avec des clients en fonction des dernières actualités » ou « analyser trois concurrents et créer un diaporama ». L'outil naviguera alors intelligemment sur les sites Web, sélectionnera les dates, filtrera les résultats, invitera l'utilisateur à se connecter en toute sécurité, exécutera du code et fournira même des résultats polis et modifiables, tels que des diaporamas et des feuilles de calcul, afin de résumer ses conclusions.

    Nom : OpenAI Agent ChatGPT Fig 1.PNG
Affichages : 9966
Taille : 140,1 Ko

    L'entreprise note que l'utilisateur garde le contrôle tout au long du processus. « ChatGPT demande votre autorisation avant d'effectuer des actions importantes, et vous pouvez facilement l'interrompre, prendre le contrôle du navigateur ou arrêter les tâches à tout moment. »

    Bien que l'agent ChatGPT soit déjà un outil puissant pour traiter efficacement des tâches complexes, le lancement de l'outil ne représente que le début de l'intégration directe des capacités agentiques dans ChatGPT, selon OpenAI. « Au fil du temps, nous prévoyons d'apporter régulièrement des améliorations significatives et d’optimiser l’utilité de l'agent ChatGPT pour un plus grand nombre de personnes », déclare l'entreprise

    Une évolution naturelle d’Operator et de la recherche approfondie

    OpenAI indique que l’agent ChatGPT est la continuité naturelle de deux avancées significatives qui se sont produites plus tôt cette année : Operator, un agent de prévisualisation de recherche capable d'interagir directement avec des sites web à l'aide d'un navigateur distant, et l'outil de recherche approfondie, basé sur le raisonnement web à plusieurs étapes.

    Selon l'entreprise d'IA, chaque outil présentait auparavant des avantages uniques : Operator pouvait faire défiler, cliquer et taper sur le Web, tandis que la recherche approfondie excellait dans l'analyse et la synthèse des informations. Mais leur fonctionnement était optimal dans des situations différentes : Operator n’était pas capable d’approfondir l'analyse ni de rédiger des rapports détaillés, et la recherche approfondie ne pouvait pas interagir avec les sites Web pour affiner les résultats ou accéder à du contenu nécessitant une authentification utilisateur. OpenAI note que de nombreuses requêtes effectuées par les utilisateurs avec Operator convenaient mieux à une recherche approfondie. Elle a donc combiné le meilleur des deux approches.

    En intégrant ces forces complémentaires et en introduisant des outils supplémentaires dans ChatGPT, OpenAI débloqué des capacités entièrement nouvelles au sein d'un seul modèle. L'agent ChatGPT peut désormais interagir activement avec les sites web : cliquer, filtrer et recueillir des résultats plus précis et plus efficaces. L'utilisateur peut également passer naturellement d'une simple conversation à une demande d'action depuis le même chat.

    Nom : OpenAI Agent ChatGPT Fig 2.PNG
Affichages : 698
Taille : 109,9 Ko

    Un agent qui travaille pour l'utilisateur, à ses côtés

    OpenAI a équipé l'agent ChatGPT de tous les outils web à sa disposition : un navigateur visuel qui interagit avec le web via une interface utilisateur graphique, un navigateur textuel pour les requêtes web plus simples basées sur le raisonnement, et un accès direct à l'API. En offrant à ChatGPT ces différentes possibilités d'accès et d'interaction avec les informations disponibles sur le Web, l'entreprise indique que l'outil peut choisir la voie optimale pour accomplir ses tâches le plus efficacement possible. « Par exemple, il est à même de récupérer rapidement des données financières ou des résultats sportifs via des API, tout en étant capable d'interagir visuellement avec des sites web conçus principalement pour les humains. »

    Selon l'entreprise, tout cela est rendu possible grâce à l'ordinateur de ChatGPT, où le contexte pertinent est partagé durant toute la durée de la tâche, quelle que soit la combinaison d'outils utilisée. « Le modèle est spécialement entraîné pour identifier et exploiter les outils les plus efficaces pour chaque tâche à chaque étape, en évaluant ses résultats plutôt qu'en s'en tenant à une méthode fixe », déclare la société.

    En d'autres termes, le modèle apprend de manière dynamique tout en exécutant des tâches, optimisant ainsi son approche en termes de rapidité, de précision et d'efficacité.

    Nom : OpenAI Agent ChatGPT Fig 3.PNG
Affichages : 696
Taille : 73,3 Ko

    D'après OpenAI, l'agent ChatGPT est conçu pour des flux de travail itératifs et collaboratifs, bien plus interactifs et flexibles que les modèles précédents. « Lorsque ChatGPT fonctionne, vous pouvez l'interrompre à tout moment pour clarifier les instructions, rediriger la tâche ou l’orienter vers les résultats souhaités. Il reprendra là où il s'était arrêté, avec les nouvelles informations, sans toutefois perdre les progrès réalisés précédemment. De même, ChatGPT vous demande de manière proactive des informations supplémentaires lorsque cela est nécessaire afin de s'assurer que la tâche reste en adéquation avec vos objectifs. Si une tâche prend plus de temps que prévu ou si elle semble bloquée, vous pouvez la mettre en pause, demander un résumé de la progression ou l'interrompre complètement et recevoir des résultats partiels. »

    L'agent peut également utiliser les connecteurs ChatGPT pour accéder en toute sécurité aux informations les plus pertinentes, et permettre à un utilisateur de se connecter en prenant le contrôle du navigateur, afin d'approfondir et d'élargir ses recherches parallèlement à l'exécution des tâches. Grâce à ces capacités, ChatGPT peut véritablement travailler aux côtés de l'utilisateur, en choisissant de manière proactive les actions à entreprendre à mesure qu'il rencontre les différentes informations et étapes dans la tâche.

    Evaluations

    Selon OpenAI, les capacités avancées du modèle se reflètent dans ses performances de pointe (SOTA) lors d'évaluations académiques mesurant les capacités de navigation sur le Web et d'exécution de tâches dans le monde réel.

    Lors du dernier examen de l’humanité, une évaluation qui mesure les performances de l’IA sur un large éventail de sujets et sur des questions de niveau expert, le modèle qui alimente l’agent ChatGPT auraut battu un nouveau record en atteignant le score de 43,1.

    Nom : OpenAI Agent ChatGPT Fig 4.PNG
Affichages : 695
Taille : 44,6 Ko

    OpenAI a également évalué le modèle sur diverses tâches réelles reflétant celles que les analystes seraient amenés à effectuer. Sur DSBench⁠, conçu pour évaluer les agents à l'aide de tâches réalistes en science des données, allant de l'analyse à la modélisation, l'agent ChatGPT a surpassé largement le modèle de pointe précédent et a notamment dépassé de manière significative les performances humaines dans les tâches d'analyse de données.

    Nom : OpenAI Agent ChatGPT Fig 5.PNG
Affichages : 695
Taille : 42,7 Ko

    Sur SpreadsheetBench, qui évalue les modèles sur leur capacité à modifier des feuilles de calcul issues de scénarios réels, l'agent ChatGPT a établi une nouvelle référence en matière de technologie de pointe (SOTA), doublant largement les performances de GPT‑4o, l'actuelle référence SOTA. Selon l'entreprise, lorsqu'il a été autorisé à modifier directement des feuilles de calcul, l'agent ChatGPT a obtenu un score encore meilleur, avec 45,5 %, comparable à celui de Copilot dans Excel (20,0 %).

    Nom : OpenAI Agent ChatGPT Fig 6.PNG
Affichages : 695
Taille : 66,7 Ko

    Sur un benchmark interne qui mesure la capacité d'un modèle à assumer les tâches d'un analyste en banque d'investissement de la première à la troisième année, telles que la création d'un modèle financier à trois états financiers pour une entreprise du Fortune 500 avec une mise en forme et des citations appropriées, ou la construction d'un modèle de rachat par endettement en vue d’une privatisation, le modèle qui alimente l'agent ChatGPT aurait surpassé largement Deep Research et o3. L'entreprise indique que chaque tâche est notée selon des centaines de critères liés à l'exactitude et à l'utilisation des formules.

    Nom : OpenAI Agent ChatGPT Fig 7.PNG
Affichages : 689
Taille : 14,1 Ko

    Par ailleurs, sur WebArena⁠, un benchmark conçu pour évaluer les performances des agents de navigation web dans l'exécution de tâches web dans le monde réel, ce modèle aurait amélioré le CUA optimisé par o3 (le modèle qui alimente Operator).

    Nom : OpenAI Agent ChatGPT Fig 8.PNG
Affichages : 691
Taille : 22,8 Ko

    Enfin, OpenAI a évalué l’agent ChatGPT sur BrowseComp⁠, un benchmark que l'entreprise a publié plus tôt cette année et qui mesure la capacité des agents de navigation à localiser des informations difficiles à trouver sur le web. Le modèle aurait alors établi un nouveau record avec 68,9, soit 17 points de pourcentage de plus que la recherche approfondie.

    Nom : OpenAI Agent ChatGPT Fig 9.PNG
Affichages : 691
Taille : 26,9 Ko

    Élargir l'utilité dans le monde réel

    Selon OpenAI, ces capacités agentiques unifiées améliorent considérablement l'utilité de ChatGPT dans les contextes quotidiens et professionnels actuels. « Au travail, vous pouvez automatiser des tâches répétitives, telles que la conversion de captures d'écran ou de tableaux de bord en présentations composées d'éléments vectoriels modifiables, la réorganisation de réunions, la planification et la réservation de séminaires, et la mise à jour de feuilles de calcul avec de nouvelles données financières tout en conservant la même mise en forme. Dans votre vie personnelle, vous pouvez l'utiliser pour planifier et réserver sans effort des itinéraires de voyage, organiser et réserver des dîners, ou trouver des spécialistes et prendre des rendez-vous », déclare l'entreprise.

    Nom : OpenAI Agent ChatGPT Fig 10.PNG
Affichages : 692
Taille : 70,1 Ko

    Mode d’emploi

    Les nouvelles fonctionnalités agentiques de ChatGPT peuvent être activées directement à partir du menu déroulant des outils du compositeur en sélectionnant « mode agent » à tout moment dans n'importe quelle conversation. L'utilisateur n'aura alors qu'à décrire simplement la tâche qu'il souhaite accomplir, qu'il s'agisse d'effectuer des recherches approfondies, de créer un diaporama ou de soumettre des dépenses. Au fur et à mesure que l'outil effectue la tâche, une narration à l'écran montre exactement ce que fait ChatGPT. L'utilisateur a alors la possibilité d'interrompre et de prendre le contrôle du navigateur à tout moment, pour de s'assurer que les tâches restent en adéquation avec ses objectifs.

    De plus, l'utilisateur peut programmer la répétition automatique des tâches terminées, comme la génération d'un rapport hebdomadaire sur les indicateurs de performance chaque lundi matin.

    Contrôle utilisateur et sécurité

    Cette version marque la première fois que les utilisateurs peuvent demander à ChatGPT d'effectuer des actions sur le Web. Dès le début, OpenAI indique avoir donné la priorité à la sécurité comme partie intégrante du système, en développant les contrôles robustes issus de l’aperçu de recherche d'Operator et en ajoutant des mesures de protection supplémentaires pour faire face à de nouveaux risques tels que l'élargissement de la portée des utilisateurs et l'accès aux terminaux.

    Selon OpenAI, le premier domaine d'atténuation des risques concerne la prévention des erreurs de modèle coûteuses, d'autant plus que celui-ci peut désormais effectuer des tâches qui ont un impact sur le monde réel :

    • Confirmation explicite de l'utilisateur : ChatGPT demande explicitement l'autorisation de l'utilisateur avant d'effectuer des actions sensibles ou ayant un impact, telles que soumettre des formulaires, effectuer des réservations, réaliser des achats ou interagir avec des sites web impliquant la divulgation de données personnelles.
    • Surveillance active (« Mode Observation ») : Certaines tâches critiques, telles que la rédaction et l'envoi d'e-mails ou l'utilisation d'applications sensibles, nécessitent la supervision active et l'approbation de l'utilisateur à chaque étape.
    • Atténuation proactive des risques : ChatGPT refuse activement les tâches à haut risque telles que les transactions financières ou les interactions juridiques sensibles.

    Depuis le lancement du projet, OpenAI indique avoir mis l'accent sur la protection de l'agent ChatGPT contre les manipulations malveillantes et les utilisations abusives, domaines que l'entreprise a identifiés comme présentant des risques particulièrement critiques pour les systèmes agentiques :

    • Défense contre les attaques adversaires (injection rapide) : OpenAI a soigneusement formé et testé l'agent afin qu'il soit capable d'identifier et de résister aux tentatives de manipulation de son comportement par des tiers au moyen d'instructions malveillantes. L'entreprise utilise une surveillance continue pour détecter et répondre rapidement aux attaques par injection, et a formé le modèle à suivre une hiérarchie des instructions⁠ stricte, en donnant la priorité aux instructions fiables et en ignorant celles qui ne le sont pas. En cas d'ambiguïté, OpenAI informe clairement l'utilisateur des risques potentiels et lui donne la possibilité de choisir la marche à suivre. De plus, le fait d'exiger une confirmation explicite de l'utilisateur avant toute action conséquente réduit encore davantage le risque de préjudice lié à ces attaques.
    • Prévention des abus : ChatGPT rejette systématiquement les demandes préjudiciables ou illégales, en se conformant strictement aux politiques de sécurité existantes de ChatGPT. OpenAI a étendu ces mesures de protection afin d'identifier et de répondre aux risques émergents liés aux interactions web par le biais d'agents. L'utilisation de l'agent ChatGPT est soumise aux politiques et conditions d'utilisation d'OpenAI, qui sont conçues pour garantir une utilisation sûre et responsable de la technologie IA, y compris ces nouvelles fonctionnalités de l'agent.

    Selon l'entreprise, l'utilisateur garde le contrôle total sur la manière dont ses données sont traitées. L'agent ChatGPT est conçu pour garantir la transparence et la confidentialité ; les données saisies dans le navigateur distant sont traitées de manière sécurisée et ne sont pas stockées sur les serveurs de ChatGPT.

    • Contrôles de confidentialité robustes : Les cookies persistent en fonction des politiques de chaque site web visité, ce qui facilite l'utilisation dans toutes les tâches. Cependant, l'utilisateur garde un contrôle total sur ses données de navigation et ses identifiants de connexion à la session. En un seul clic dans les paramètres de ChatGPT, l'utilisateur peut supprimer toutes les données de navigation et se déconnecter immédiatement de toutes les sessions actives sur les sites web.
    • Mode de prise de contrôle sécurisé du navigateur : Lorsqu'un utilisateur interagit directement avec le Web via le navigateur de ChatGPT (« mode de prise de contrôle »), ses actions et ses saisies restent privées. ChatGPT ne voit ni ne capture aucune des données que l'utilisateur saisit pendant ces sessions.

    Disponibilité

    L'agent ChatGPT commence à être déployé pour les utilisateurs Pro, Plus et Team, et sera disponible pour les utilisateurs Enterprise et Education en juillet. Les utilisateurs Pro disposent d'un nombre quasi illimité de tâches par mois, tandis que les autres utilisateurs payants ont droit à 50 tâches par mois, avec la possibilité d'augmenter leur quota grâce à des options flexibles basées sur des crédits.

    Selon l'entreprise, l'agent ChatGPT peut accéder aux connecteurs des utilisateurs, ce qui lui permet de s'intégrer à leurs flux de travail et d'accéder en toute sécurité à des informations pertinentes et exploitables. Une fois authentifiés, ces connecteurs en lecture seule permettent à ChatGPT de consulter des informations et d'effectuer des tâches telles que résumer la boîte de réception de l'utilisateur pour la journée ou trouver des créneaux horaires auxquels il est disponible pour une réunion. Pour effectuer des actions sur ces sites, OpenAI indique que l'utilisateur sera toujours invité à se connecter en prenant le contrôle du navigateur afin que l'agent puisse ensuite interagir avec le site.

    Selon la société, le site de l’aperçu de recherche d’Operator restera fonctionnel pendant une durée de 30 jours, après quoi il sera supprimé. La recherche approfondie fait partie des fonctionnalités de l’agent ChatGPT. OpenAI précise cependant que si l'utilisateur préfère le modèle de recherche approfondie original, qui peut prendre un peu plus de temps mais fournit des réponses plus détaillées et approfondies, il peut toujours y accéder en sélectionnant « recherche approfondie » dans le menu déroulant du rédacteur de message.

    Limites et perspectives d'avenir

    Selon OpenAI, l'agent ChatGPT en est encore à ses débuts : « il est capable d'effectuer toute une série de tâches complexes, mais il peut encore commettre des erreurs. » Bien que l'entreprise admette voir un potentiel important dans sa capacité à générer des diaporamas, OpenAI indique que cette fonctionnalité est actuellement en version bêta.

    « Pour l'instant, les résultats peuvent sembler rudimentaires en termes de formatage et de finition, en particulier lorsque l'on commence sans document existant. Nous avons axé les capacités initiales du modèle sur la génération d'artefacts qui organisent les informations dans un flux et un format adaptés aux présentations, chaque élément (texte, graphiques, images) étant composé de vecteurs facilement modifiables, optimisés pour la structure et la flexibilité. De plus, bien que vous puissiez actuellement télécharger une feuille de calcul existante pour que ChatGPT la modifie ou l'utilise comme modèle, cette fonctionnalité n'est pas encore disponible pour les diaporamas », déclare la société d'IA.

    OpenAI précise qu'elle est déjà en train de former la prochaine version de la fonctionnalité de création de diaporamas de ChatGPT afin de produire des résultats plus raffinés et sophistiqués, avec des capacités plus étendues et une mise en forme améliorée.

    Dans l'ensemble, l'entreprise prévoit une amélioration continue de l'efficacité, de la profondeur et de la polyvalence de l'agent ChatGPT au fil du temps, notamment grâce à des interactions plus fluides, à mesure qu'elle ajuste le niveau de supervision requis de la part de l'utilisateur afin de le rendre plus utile tout en garantissant une utilisation sécurisée.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette initiative d'OpenAI crédible ou pertinente ?

    Voir aussi :

    OpenAI a publié un aperçu de recherche de son nouvel agent d'IA Operator, qui contrôle votre navigateur pour effectuer des tâches à votre place sur le web

    OpenAI dévoile le nouvel agent IA d'ingénierie logicielle Codex dans ChatGPT pour les développeurs, pour coder, corriger des bugs, et proposer des demandes de révision

    OpenAI a lancé un nouvel ensemble d'API et d'outils conçus pour aider les développeurs et les entreprises à construire, déployer et mettre à l'échelle des agents d'intelligence artificielle (IA)
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 4
    Dernier message: 30/04/2025, 23h05
  2. Réponses: 0
    Dernier message: 03/03/2010, 11h32
  3. Réponses: 0
    Dernier message: 25/02/2010, 11h57
  4. Hardware : Freecom sécurise son nouveau disque dur avec une carte RFID
    Par Emmanuel Chambon dans le forum Actualités
    Réponses: 8
    Dernier message: 16/07/2009, 13h31

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo