Comment construire une recherche d'entreprise de type ChatGPT sur vos propres données, d'après Microsoft
Microsoft présente un nouveau modèle afin d'exploiter l'IA pour créer un chatbot de type ChatGPT. L'objectif étant qu'une entreprise puisse discuter avec son propre modèle d'IA construit sur ses propres données.
Vous arrive-t-il de vous noyer dans la documentation de l'entreprise, de passer des heures à chercher une information spécifique dans SharePoint, les bases de connaissances et les référentiels de contrats ? Vous n'êtes pas le seul. Les organisations disposent aujourd'hui d'une grande quantité d'informations : le défi consiste à trouver la bonne information quand vous en avez besoin.
Pour aider à résoudre ce problème, Microsoft a créé un modèle GitHub afin d'exploiter l'IA pour rendre "vos" données consultables et utiles. Ce modèle devrait vous aider à créer votre propre expérience de recherche et de chat d'entreprise de type ChatGPT, alimentée par Azure AI Search et de grands modèles de langage.
Cas d'utilisation
Considérez les scénarios suivants : Un nouvel employé demande "Quelle est notre politique en matière de congé parental ?" et reçoit une réponse instantanée et précise. Un conseiller financier prépare une réunion avec un client en ayant une conversation naturelle avec sa documentation sur les fonds des marchés émergents. Les équipes juridiques posent des questions telles que "Quelles sont les clauses de résiliation ?" et reçoivent instantanément des extraits pertinents avec des liens vers les documents sources - plus de recherche manuelle à travers des centaines de pages.
Avantages de la solution
Selon Microsoft, contrairement au ChatGPT public, cette solution a pour but de préserver la confidentialité de vos données sensibles. Ainsi, ils auraient conçu ce modèle pour des déploiements d'entreprise privilégiant la confidentialité, où vous gardez le contrôle de vos données. Microsoft affirme que les services financiers, l'industrie, le gouvernement et les organisations juridiques utilisent déjà ce modèle pour stimuler la productivité de leurs employés et les opérations de service à la clientèle. Les équipes constatent des temps de réponse plus rapides, des coûts opérationnels réduits et des employés qui se concentrent sur des tâches à forte valeur ajoutée plutôt que sur la recherche de documents.
Comment cela fonctionne-t-il ? L'architecture
Le modèle utilise RAG (Retrieval-Augmented Generation), qui permet aux LLM de récupérer et de répondre avec des données pertinentes à partir de vos sources de données au moment de l'inférence. Voici comment cela fonctionne :
- Entrée et traitement des documents : Les applications fonctionnelles ingèrent vos documents (PDF, fichiers Word, etc.), les découpent en morceaux et les traitent pour en faire des balises. Azure AI Document Intelligence extrait la mise en page du document tandis que Azure OpenAI Service crée des balises.
- Historique des conversations : Cosmos stocke vos questions et vos réponses, ce qui vous permet de reprendre la conversation là où vous l'avez laissée.
- Stockage des balises : Azure AI Search stocke les balises extraits en vue de leur récupération.
- Recherche intelligente : Lorsque vous posez une question, le système trouve les éléments d'information les plus pertinents dans Azure AI Search.
- Réponse : Azure OpenAI Service transforme ces éléments en réponses adaptées à l'homme.
Ce que vous pouvez construire
Microsoft affirme que les développeurs peuvent créer des applications puissantes avec ce modèle dans différents domaines. Ces assistants intelligents comprennent le contexte, fournissent des liens vers la documentation et guident les utilisateurs dans des processus complexes.
Les équipes RH pourront déployer des robots intelligents qui traitent les demandes de congés et d'avantages sociaux, en fournissant des conseils étape par étape et des liens vers les documents pertinents. Les équipes juridiques pourront accélérer la gestion des contrats grâce à des assistants qui font instantanément apparaître les clauses similaires de milliers de contrats antérieurs. Les équipes d'assistance à la clientèle pourront mettre en place des systèmes qui puisent dans l'ensemble de leur base de connaissances - chaque manuel, FAQ et ticket d'assistance historique - permettant aux agents d'assistance de fournir des réponses plus rapides et plus précises à des questions complexes.
Source : How to build ChatGPT-like enterprise search on your own data
Et vous ?
Pensez-vous que ce modèle est crédible ou pertinent ?
Quel est votre avis sur le sujet ?
Voir aussi :
Construisez un chatbot sur vos propres données en 1 heure avec Azure SQL, Langchain et Chainlit, par Davide Mauri
Hugging Face lance un fabricant d'assistants IA open source pour rivaliser avec les GPT personnalisés d'OpenAI. L'outil est gratuit et permet de choisir parmi plusieurs LLM open source
Le rapport de l'ISG révèle une insatisfaction croissante des entreprises à l'égard des services d'IA et d'automatisation, malgré l'adoption croissante de ces technologies dans les accords d'externalisation
Partager