IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

OpenAI a lancé un nouvel ensemble d'API et d'outils pour construire des agents d'IA


Sujet :

Intelligence artificielle

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 387
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 387
    Par défaut OpenAI a lancé un nouvel ensemble d'API et d'outils pour construire des agents d'IA
    OpenAI a lancé un nouvel ensemble d'API et d'outils conçus pour aider les développeurs et les entreprises à construire, déployer et mettre à l'échelle des agents d'intelligence artificielle (IA).

    OpenAI a lancé de nouveaux outils pour les développeurs qui les aideront à créer des agents d'IA avancés, en utilisant quelques interfaces de programmation d'applications (API). Les agents d'IA sont conçus pour exécuter de manière autonome des tâches complexes dans le monde réel sans intervention humaine directe, tandis que l'API est une chaîne de code qui permet une communication normalisée, l'échange de données et la fonctionnalité entre les composants logiciels. Le nouvel outil, appelé API Responses, est mis à la disposition de tous les développeurs sans frais supplémentaires. Il remplace l'API Assistants d'OpenAI, qui devrait être progressivement supprimée d'ici la seconde moitié de 2026.

    OpenAI a lancé un nouvel ensemble d'API et d'outils conçus pour aider les développeurs et les entreprises à créer, déployer et mettre à l'échelle des agents d'intelligence artificielle. OpenAI est une organisation américaine de recherche en intelligence artificielle (IA). Elle vise à développer une intelligence générale artificielle (AGI) "sûre et bénéfique", qu'elle définit comme "des systèmes hautement autonomes qui surpassent les humains dans la plupart des tâches économiquement utiles".

    OpenAI est notamment connue pour la famille GPT de grands modèles de langage, la série DALL-E de modèles texte-image et un modèle texte-vidéo appelé Sora. Alors que la société offrait déjà des capacités de modèles d'IA pouvant supporter des agents d'IA, elle a ajouté ces nouveaux outils en réponse aux demandes des clients qui souhaitaient un moyen plus facile de transformer ces capacités en agents d'IA.

    Les nouvelles offres comprennent une nouvelle API Responses qui aide à construire des agents ; des outils intégrés tels que la recherche sur le web, la recherche de fichiers et l'utilisation d'ordinateurs ; un nouveau SDK Agents qui orchestre des flux de travail à agent unique et à agents multiples ; et des outils d'observabilité intégrés qui aident les utilisateurs à tracer et à inspecter le développement du flux de travail de l'agent.

    Avec l'introduction de ces outils, OpenAI continuera à prendre en charge son API Chat Completions, utilisée par les développeurs qui n'ont pas besoin d'outils intégrés, mais elle prévoit de supprimer son API Assistants après avoir incorporé toutes ses fonctionnalités dans la nouvelle API Responses d'ici la moitié de 2026. OpenAI a indiqué qu'elle prévoyait également d'ajouter d'autres outils et capacités qui simplifient et accélèrent la création d'applications agentiques sur sa plateforme au cours des semaines et des mois à venir.

    Nom : 1.jpg
Affichages : 7072
Taille : 40,7 Ko

    Les agents d'IA capables de gérer des tâches complexes, de penser de manière autonome et d'apprendre de leur environnement sont en train de remodeler les industries et d'automatiser des tâches d'une manière qui n'était pas possible auparavant. Cependant, ces agents et le modèle commercial qui l'entoure suscitent des interrogations et des critiques quant à leur réelle valeur ajoutée.

    Par exemple, OpenAI proposerait ces agents IA "de niveau doctoral" jusqu'à 20 000 dollars par mois. Cette approche repose notamment sur la promesse d’une IA capable de rivaliser avec des experts humains dans des domaines nécessitant une formation avancée. Mais une analyse critique montre que ces affirmations doivent être nuancées. D’un point de vue économique, plusieurs observateurs relèvent que pour un coût équivalent, il serait possible d’embaucher plusieurs doctorants ou post-doctorants humains. Le prix avancé semble donc démesuré par rapport aux alternatives humaines.

    Voici un extrait de l'annonce d'OpenAI concernant le nouvel ensemble d'outils :

    Aujourd'hui, nous publions la première série d'outils qui aideront les développeurs et les entreprises à créer des agents utiles et fiables. Nous considérons les agents comme des systèmes qui accomplissent des tâches de manière indépendante pour le compte des utilisateurs. Au cours de l'année écoulée, nous avons introduit de nouvelles capacités de modélisation, telles que le raisonnement avancé, les interactions multimodales et les nouvelles techniques de sécurité, qui ont jeté les bases permettant à nos modèles de gérer les tâches complexes et multiétapes nécessaires à la création d'agents. Cependant, les clients nous ont fait part de leur difficulté à transformer ces capacités en agents prêts pour la production, ce qui nécessite souvent une itération rapide et une logique d'orchestration personnalisée sans visibilité suffisante ni support intégré.

    Pour relever ces défis, nous lançons un nouvel ensemble d'API et d'outils spécialement conçus pour simplifier le développement d'applications agentiques :

    • La nouvelle API Responses, qui combine la simplicité de l'API Chat Completions avec les capacités d'utilisation d'outils de l'API Assistants pour la création d'agents.

    • Des outils intégrés comprenant la recherche sur le web, la recherche de fichiers et l'utilisation d'un ordinateur.

    • Le nouveau SDK Agents pour orchestrer des flux de travail mono-agent et multi-agent.

    • Des outils d'observabilité intégrés pour suivre et inspecter l'exécution du flux de travail de l'agent.

    Ces nouveaux outils rationalisent la logique, l'orchestration et les interactions de base des agents, ce qui permet aux développeurs de commencer plus facilement à créer des agents. Au cours des semaines et des mois à venir, nous prévoyons de mettre à disposition des outils et des capacités supplémentaires afin de simplifier et d'accélérer la création d'applications agentiques sur notre plateforme.

    Présentation de l'API Responses

    L'API Responses est une nouvelle primitive d'API pour tirer parti des outils intégrés d'OpenAI afin de créer des agents. Elle combine Chat Completions avec les capacités d'utilisation d'outils de l'API Assistants. Avec un seul appel à l'API Responses, les développeurs devraient être en mesure de résoudre des tâches de plus en plus complexes à l'aide de plusieurs outils et modèles.

    Nom : 2.jpg
Affichages : 1507
Taille : 34,1 Ko

    Pour commencer, l'API Responses prendra en charge de nouveaux outils intégrés tels que la recherche sur le Web, la recherche de fichiers et l'utilisation de l'ordinateur. Ces outils sont conçus pour fonctionner ensemble afin de relier les modèles au monde réel, ce qui les rend plus utiles dans l'accomplissement des tâches.

    L'API Responses est conçue pour les développeurs qui souhaitent combiner facilement les modèles OpenAI et les outils intégrés dans leurs applications, sans la complexité de l'intégration de plusieurs API ou de fournisseurs externes. L'API facilite également le stockage des données sur OpenAI afin que les développeurs puissent évaluer les performances de l'agent à l'aide de fonctions telles que le traçage et les évaluations.


    Ce que cela signifie pour les API existantes :

    • API Chat Completions : Chat Completions reste l'API la plus largement adoptée, et OpenAI affirme continuer à la soutenir avec de nouveaux modèles et de nouvelles capacités. Les développeurs qui n'ont pas besoin d'outils intégrés peuvent continuer à utiliser Chat Completions en toute confiance.

    • API Assistants : OpenAI travaillerait à l'obtention d'une parité totale des fonctionnalités entre l'API Assistants et l'API Responses, y compris la prise en charge des objets de type assistant et de type thread, ainsi que de l'outil d'interprétation du code. Une fois cette étape franchie, OpenAI prévoit d'annoncer officiellement la suppression de l'API « Assistants », avec une date d'expiration prévue pour la mi-2026. Jusqu'à l'annonce officielle de la suppression, OpenAI affirme continuer à fournir de nouveaux modèles à l'API Assistants.


    Présentation des outils intégrés dans l'API Responses

    Recherche sur le Web

    Les développeurs peuvent désormais obtenir des réponses actualisées avec des citations du Web. Dans l'API Responses, la recherche sur le Web est disponible en tant qu'outil lors de l'utilisation de gpt-4o et gpt-4o-mini, et peut être associée à d'autres outils ou appels de fonction.

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    const response = await openai.responses.create({
        model: "gpt-4o",
        tools: [ { type: "web_search_preview" } ],
        input: "What was a positive news story that happened today?",
    });
     
    console.log(response.output_text);


    La recherche sur le web dans l'API est alimentée par le même modèle que celui utilisé pour la recherche ChatGPT. Sur SimpleQA, un benchmark qui évalue la précision des LLM en répondant à des questions courtes et factuelles, GPT-4o search preview et GPT-4o mini search preview obtiennent respectivement 90% et 88%.

    Nom : 3.jpg
Affichages : 1513
Taille : 31,5 Ko

    Les réponses générées par la recherche web dans l'API comprennent des liens vers des sources, telles que des articles de presse et des billets de blog, ce qui permet aux utilisateurs d'en savoir plus. Tout site web ou éditeur peut choisir d'apparaître dans la recherche web dans l'API.

    L'outil de recherche web est disponible pour tous les développeurs en avant-première dans l'API des réponses. Un accès aux modèles de recherche affinés dans l'API Chat Completions via gpt-4o-search-preview et gpt-4o-mini-search-preview est également disponible. Les prix commencent respectivement à 30 $ et 25 $ par millier de requêtes pour GPT-4o search et 4o-mini search.

    Recherche de fichiers

    Les développeurs peuvent désormais récupérer des informations pertinentes dans de grands volumes de documents grâce à l'outil de recherche de fichiers amélioré. Grâce à la prise en charge de plusieurs types de fichiers, à l'optimisation des requêtes, au filtrage des métadonnées et au reclassement personnalisé, il serait possible d'obtenir des résultats de recherche rapides et précis. De plus, grâce à l'API Responses, l'intégration ne nécessite que quelques lignes de code.

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    const productDocs = await openai.vectorStores.create({
        name: "Product Documentation",
        file_ids: [file1.id, file2.id, file3.id],
    });
     
    const response = await openai.responses.create({
        model: "gpt-4o-mini",
        tools: [{
            type: "file_search",
            vector_store_ids: [productDocs.id],
        }],
        input: "What is deep research by OpenAI?",
    });
     
    console.log(response.output_text);


    Cet outil est disponible dans l'API Responses pour tous les développeurs. L'utilisation est factur à 2,50 $ par millier de requêtes et le stockage de fichiers à 0,10 $/Go/jour, le premier Go étant gratuit. L'outil reste disponible dans l'API Assistants. OpenAI a également ajouté un nouveau point d'extrémité de recherche aux objets de l'API Vector Store pour interroger directement vos données afin de les utiliser dans d'autres applications et API.

    Utilisation de l'ordinateur

    Pour créer des agents capables d'effectuer des tâches sur un ordinateur, les développeurs peuvent désormais utiliser l'outil d'utilisation de l'ordinateur dans l'API Responses, qui s'appuie sur le même modèle d'agent d'utilisation de l'ordinateur (CUA) que celui qui permet de créer Operator. Ce modèle de prévisualisation de la recherche a atteint 38,1 % de réussite sur OSWorld pour les tâches d'utilisation complète d'un ordinateur, 58,1 % sur WebArena et 87 % sur WebVoyager pour les interactions basées sur le web.

    L'outil intégré d'utilisation de l'ordinateur capture les actions de la souris et du clavier générées par le modèle, ce qui permet aux développeurs d'automatiser les tâches d'utilisation de l'ordinateur en traduisant directement ces actions en commandes exécutables dans leurs environnements.

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    const response = await openai.responses.create({
        model: "computer-use-preview",
        tools: [{
            type: "computer_use_preview",
            display_width: 1024,
            display_height: 768,
            environment: "browser",
        }],
        truncation: "auto",
        input: "I'm looking for a new camera. Help me find the best one.",
    });
     
    console.log(response.output);


    OpenAI affirme avoir pris des mesures pour la sécurité et la fiabilité de cette fonctionnalité, cependant, le modèle reste sensible aux erreurs involontaires, en particulier dans les environnements autres que les navigateurs. Par exemple, les performances du CUA sur OSWorld, un benchmark conçu pour mesurer les performances des agents d'intelligence artificielle sur des tâches réelles, sont actuellement de 38,1 %, ce qui indique que le modèle n'est pas encore très fiable pour automatiser des tâches sur les systèmes d'exploitation. Une supervision humaine est recommandée dans ces scénarios.

    Nom : 4.jpg
Affichages : 1486
Taille : 22,5 Ko

    L'outil d'utilisation de l'ordinateur est disponible en tant qu'aperçu de recherche dans l'API Responses pour les développeurs sélectionnés dans les niveaux d'utilisation 3 à 5. Le prix d'utilisation est de 3 $/1M de jetons d'entrée et de 12 $/1M de jetons de sortie.


    Présentation du SDK Agents

    En plus de construire la logique de base des agents et de leur donner accès à des outils pour qu'ils soient utiles, les développeurs ont également besoin d'orchestrer les flux de travail des agents. Le nouveau SDK open-source Agents simplifie l'orchestration des flux de travail multi-agents et offre des améliorations significatives par rapport à Swarm, un SDK expérimental publié en 2024.

    Les améliorations sont les suivantes :

    • Agents : LLMs facilement configurables avec des instructions claires et des outils intégrés.

    • Transferts : Transfert intelligent du contrôle entre les agents.

    • Garde-fous : Contrôles de sécurité configurables pour la validation des entrées et des sorties.

    • Traçage et observabilité : Visualisation des traces d'exécution des agents pour déboguer et optimiser les performances.


    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    from agents import Agent, Runner, WebSearchTool, function_tool, guardrail
     
    @function_tool
    def submit_refund_request(item_id: str, reason: str):
        # Your refund logic goes here
        return "success"
     
    support_agent = Agent(
        name="Support & Returns",
        instructions="You are a support agent who can submit refunds [...]",
        tools=[submit_refund_request],
    )
     
    shopping_agent = Agent(
        name="Shopping Assistant",
        instructions="You are a shopping assistant who can search the web [...]",
        tools=[WebSearchTool()],
    )
     
    triage_agent = Agent(
        name="Triage Agent",
        instructions="Route the user to the correct agent.",
        handoffs=[shopping_agent, support_agent],
    )
     
    output = Runner.run_sync(
        starting_agent=triage_agent,
        input="What shoes might work best with my outfit so far?",
    )


    Le SDK Agents fonctionne avec l'API Responses et l'API Chat Completions. Le SDK fonctionnera également avec les modèles d'autres fournisseurs, à condition qu'ils fournissent un point d'extrémité d'API de type Chat Completions. Les développeurs peuvent l'intégrer immédiatement dans leurs bases de code Python, avec une prise en charge Node.js à venir.

    Pour conclure son annonce, OpenAI a partagé la prochaine étape concernant les agents IA :

    Nous pensons que les agents feront bientôt partie intégrante de la main-d'œuvre, améliorant considérablement la productivité dans tous les secteurs. Alors que les entreprises cherchent de plus en plus à exploiter l'IA pour des tâches complexes, nous nous engageons à fournir les éléments de base qui permettent aux développeurs et aux entreprises de créer efficacement des systèmes autonomes qui ont un impact sur le monde réel.

    Avec les versions d'aujourd'hui, nous introduisons les premières briques permettant aux développeurs et aux entreprises de construire, déployer et mettre à l'échelle plus facilement des agents d'IA fiables et performants. Au fur et à mesure que les capacités des modèles deviennent de plus en plus agentiques, nous continuerons à investir dans des intégrations plus profondes à travers nos API et dans de nouveaux outils pour aider à déployer, évaluer et optimiser les agents en production. Notre objectif est d'offrir aux développeurs une expérience de plateforme transparente pour créer des agents qui peuvent aider à effectuer une variété de tâches dans n'importe quel secteur d'activité. Nous sommes impatients de voir ce que les développeurs vont créer. Pour commencer, explorez notre documentation (s'ouvre dans une nouvelle fenêtre) et restez à l'écoute pour d'autres mises à jour bientôt.

    Source : OpenAI

    Et vous ?

    Pensez-vous que cette annonce est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    OpenAI envisagerait de facturer jusqu'à 20 000 dollars par mois l'accès à ses agents d'IA de niveau doctorat, un prix controversé en raison de l'hallucination et des nombreuses autres limites de l'IA

    L'IA agentique expliquée : Un cadre philosophique pour comprendre les agents d'IA, par David Barkol

    Gérer les agents IA comme des employés est le défi de 2025, pour finalement "employer" et former les travailleurs IA dans des équipes hybrides d'humains et d'IA, selon le DSI de Goldman Sachs
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 387
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 387
    Par défaut OpenAI annonce la prise en charge de la norme MCP d'Anthropic dans son SDK Agent
    OpenAI annonce la prise en charge de la norme MCP (Model Context Protocol) d'Anthropic dans son SDK Agents afin d'améliorer la précision et la pertinence des réponses des assistants d'IA

    OpenAI a annoncé la prise en charge de la norme MCP d'Anthropic pour améliorer la qualité des réponses des assistants d'IA. MCP permet aux modèles d'IA d'accéder à des informations provenant de diverses sources de données, créant ainsi une connexion bidirectionnelle. De nombreuses entreprises ont rejoint l'initiative MCP, favorisant la croissance de cette norme ouverte.

    Début mars 2025, OpenAI a lancé de nouveaux outils pour les développeurs qui les aideront à créer des agents d'IA avancés. Les nouvelles offres comprennent une nouvelle API Responses qui aide à construire des agents IA ; des outils intégrés tels que la recherche sur le web, la recherche de fichiers et l'utilisation d'ordinateurs ; un nouveau SDK Agents qui orchestre des flux de travail à agent unique et à agents multiples ; et des outils d'observabilité intégrés qui aident les utilisateurs à tracer et à inspecter le développement du flux de travail de l'agent.

    Récemment, Sam Altman, PDG d'OpenAI, a déclaré qu'OpenAI intégrera le Model context protocol MCP dans plusieurs de ses produits, y compris l'application de bureau ChatGPT. Il a noté : "La réponse à MCP a été fantastique, et nous sommes ravis d'ajouter son support dans nos produits." Il a également révélé que MCP est actuellement disponible dans le SDK Agents et qu'il sera étendu à l'application de bureau ChatGPT et à l'API de réponse à l'avenir.

    Nom : 1.jpg
Affichages : 6890
Taille : 41,1 Ko

    La fonction principale de MCP est de permettre aux modèles d'extraire des informations de diverses sources de données, telles que des outils commerciaux, des logiciels et des référentiels de contenu, afin de mieux accomplir les tâches. Ce protocole offre aux développeurs un moyen d'établir une connexion bidirectionnelle, leur permettant de relier des sources de données à des applications d'IA telles que les chatbots. Les développeurs peuvent fournir des données par l'intermédiaire de "serveurs MCP" et créer des "clients MCP", tels que des applications et des flux de travail, pour se connecter à ces serveurs en cas de besoin.

    Depuis qu'Anthropic a ouvert MCP, plusieurs entreprises, dont Block, Apollo, Replit, Codeium et Sourcegraph, ont ajouté la prise en charge de MCP à leurs plateformes. Mike Krieger, Chief Product Officer d'Anthropic, a déclaré : "Je suis ravi de voir l'élan de MCP s'étendre à OpenAI - bienvenue à bord !". Il a également souligné que MCP est devenu un standard ouvert florissant avec des milliers d'intégrations, et que les grands modèles de langage réalisent leur plein potentiel lorsqu'ils sont connectés à des données et des logiciels existants.


    Voici les détails partagés par OpenAI :

    Model Context Protocol (MCP)

    Le Model Context Protocol (MCP) est un moyen de fournir des outils et un contexte au LLM. Extrait de la documentation MCP : "MCP est un protocole ouvert qui standardise la manière dont les applications fournissent un contexte aux LLM. Pensez à MCP comme à un port USB-C pour les applications d'IA. Tout comme l'USB-C fournit un moyen standardisé de connecter vos appareils à divers périphériques et accessoires, MCP fournit un moyen standardisé de connecter les modèles d'IA à différentes sources de données et outils."

    Le SDK Agents prend en charge le MCP. Cela vous permet d'utiliser une large gamme de serveurs MCP pour fournir des outils à vos agents.

    Serveurs MCP

    Actuellement, la spécification MCP définit deux types de serveurs, en fonction du mécanisme de transport qu'ils utilisent :

    1. Les serveurs stdio s'exécutent en tant que sous-processus de votre application. Vous pouvez considérer qu'ils s'exécutent "localement".
    2. Les serveurs HTTP over SSE s'exécutent à distance. Vous vous y connectez via une URL.

    Vous pouvez utiliser les classes MCPServerStdio et MCPServerSse pour vous connecter à ces serveurs.

    Par exemple, voici comment utiliser le serveur de système de fichiers MCP officiel.

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    async with MCPServerStdio(
        params={
            "command": "npx",
            "args": ["-y", "@modelcontextprotocol/server-filesystem", samples_dir],
        }
    ) as server:
        tools = await server.list_tools()


    Utilisation des serveurs MCP

    Les serveurs MCP peuvent être ajoutés aux agents. Le SDK Agents appellera list_tools() sur les serveurs MCP à chaque fois que l'agent est exécuté. Cela permet au LLM de connaître les outils du serveur MCP. Lorsque le LLM appelle un outil d'un serveur MCP, le SDK appelle call_tool() sur ce serveur.

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    agent=Agent(
        name="Assistant",
        instructions="Use the tools to achieve the task",
        mcp_servers=[mcp_server_1, mcp_server_2]
    )


    Mise en cache

    Chaque fois qu'un agent s'exécute, il appelle list_tools() sur le serveur MCP. Cela peut entraîner des problèmes de latence, en particulier si le serveur est un serveur distant. Pour mettre automatiquement en cache la liste des outils, vous pouvez passer cache_tools_list=True à MCPServerStdio et MCPServerSse. Vous ne devez le faire que si vous êtes certain que la liste des outils ne changera pas.

    Si vous souhaitez invalider le cache, vous pouvez appeler invalidate_tools_cache() sur les serveurs.


    Traçage

    Le traçage capture automatiquement les opérations MCP, y compris :

    1. Les appels au serveur MCP pour lister les outils
    2. Les informations relatives à MCP sur les appels de fonction


    Nom : 2.jpg
Affichages : 1108
Taille : 64,0 Ko

    Source : OpenAI

    Et vous ?

    Pensez-vous que cette annonce est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Anthropic rend open-source le Model Context Protocol (MCP) pour l'intégration de l'IA avec une connectivité universelle des données pour des applications plus intelligentes, contextuelles et évolutives

    OpenAI a publié un aperçu de recherche de son nouvel agent d'IA Operator, qui contrôle votre navigateur pour effectuer des tâches à votre place sur le web

    L'IA agentique expliquée : Un cadre philosophique pour comprendre les agents d'IA, par David Barkol
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #3
    Membre éclairé

    Profil pro
    Conseil - Consultant en systèmes d'information
    Inscrit en
    Février 2004
    Messages
    771
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Conseil - Consultant en systèmes d'information

    Informations forums :
    Inscription : Février 2004
    Messages : 771
    Par défaut
    En gros, c'est juste une API normalisée pour avoir une liste des connexions et fonctions disponibles pour l'IA, que ce soit en web service ou en local.

Discussions similaires

  1. Réponses: 0
    Dernier message: 23/10/2020, 10h15
  2. Réponses: 1
    Dernier message: 16/11/2012, 11h31
  3. Réponses: 0
    Dernier message: 15/11/2012, 16h22
  4. Réponses: 0
    Dernier message: 27/10/2009, 18h45
  5. Bean ou API pour construire des réseaux
    Par mabdylon dans le forum API standards et tierces
    Réponses: 2
    Dernier message: 22/12/2007, 14h49

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo