IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Philipp Schmid : « La nouvelle compétence de l'IA n'est pas le prompting, mais l'ingénierie contextuelle »


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 491
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 491
    Par défaut Philipp Schmid : « La nouvelle compétence de l'IA n'est pas le prompting, mais l'ingénierie contextuelle »
    Philipp Schmid : « La nouvelle compétence de l'IA n'est pas le prompting, mais l'ingénierie contextuelle ».
    Structurer dynamiquement le contexte permettrait de booster la pertinence des modèles d'IA, selon lui

    Depuis l’avènement des grands modèles de langage (LLM) tels que ChatGPT, Claude ou Mistral, l’art du prompting (formuler soigneusement une requête textuelle pour obtenir une réponse pertinente) est devenu l’une des compétences les plus recherchées dans le monde de l’IA générative. Des centaines de guides, tutoriels et formations promettaient de vous transformer en « prompt engineer ». Pourtant, à mesure que ces modèles deviennent plus puissants, une nouvelle compétence se distingue comme bien plus cruciale : l’ingénierie du contexte, ou context engineering.

    C’est en tout cas la thèse défendue par Philipp Schmid, Senior AI Relation Engineer au sein de Google DeepMind. Selon lui, ce n’est plus tant comment vous posez la question à l’IA, mais ce que vous lui donnez à voir avant qu’elle ne réponde qui détermine la qualité du résultat.


    L'intelligence artificielle, et plus particulièrement les modèles de langage de grande envergure (LLM), a révolutionné notre manière d'interagir avec la technologie. Pendant longtemps, l'accent a été mis sur le prompt engineering, l'art de formuler des instructions précises pour guider ces modèles vers les réponses souhaitées. C'était la compétence clé pour débloquer le potentiel des IA. Cependant, une évolution significative est en cours, soulignée par des experts comme Philipp Schmid : la véritable maîtrise de l'IA ne réside plus seulement dans le prompting, mais dans l'ingénierie de contexte.

    Cette nouvelle approche, plus profonde et plus stratégique, reconnaît que la performance d'un modèle d'IA ne dépend pas uniquement de la clarté de la question posée, mais aussi de la richesse, de la pertinence et de la structure des informations qui lui sont fournies en amont. C'est l'idée que pour obtenir des résultats précis et fiables, il faut « éduquer » le modèle avec un environnement informatif bien pensé, plutôt que de simplement lui donner des ordres.

    Citation Envoyé par Philipp Schmid
    L'ingénierie contextuelle est un nouveau terme qui gagne du terrain dans le monde de l'IA. La conversation se déplace de « l'ingénierie de la demande » vers un concept plus large et plus puissant : l'ingénierie contextuelle. Tobi Lutke la décrit comme « l'art de fournir tout le contexte nécessaire pour que la tâche puisse être résolue de manière plausible par le LLM » et il a raison.

    Avec l'essor des agents, il devient plus important de savoir quelles informations nous chargeons dans la « mémoire de travail limitée ». Nous constatons que la principale chose qui détermine la réussite ou l'échec d'un agent est la qualité du contexte que vous lui donnez. La plupart des échecs des agents ne sont plus des échecs de modèle, mais des échecs de contexte.
    Nom : tobi.png
Affichages : 37471
Taille : 14,2 Ko

    De quoi s'agit-il ? Le rôle fondamental du contexte

    Un prompt n’est qu’une petite partie d’une interaction avec un modèle. Ce que l’on appelle contexte, c’est tout ce que l’IA peut consulter ou savoir au moment où elle produit une réponse :
    • L’historique des conversations
    • Les documents de référence (manuels, bases de données, CRM…)
    • L’agenda ou les préférences d’un utilisateur
    • Les outils qu’elle peut invoquer (ex. fonction send_email(), get_weather())
    • Les métadonnées et résumés pertinents

    Concrètement, un assistant personnel IA ne doit pas seulement savoir que « vous avez une réunion demain ». Il doit aussi :
    • accéder à votre calendrier,
    • comprendre la relation que vous avez avec votre interlocuteur,
    • connaître les contraintes d’agenda de chacun,
    • disposer d’une fonction lui permettant d’envoyer une invitation ou un message automatique.

    C’est cette capacité à assembler, structurer et formater dynamiquement toutes ces données qui fonde l’ingénierie du contexte.

    Philipp Schmid prend la peine de le préciser :

    Pour comprendre l'ingénierie contextuelle, nous devons d'abord élargir notre définition du « contexte ». Il ne s'agit pas seulement de l'invite unique que vous envoyez à un LLM. Il s'agit de tout ce que le modèle voit avant de générer une réponse.
    • Instructions / Invite du système : Un ensemble initial d'instructions qui définissent le comportement du modèle pendant une conversation, peut/doit inclure des exemples, des règles ....
    • Invitation de l'utilisateur : Tâche ou question immédiate de l'utilisateur.
    • État / Historique (mémoire à court terme) : La conversation en cours, y compris les réponses de l'utilisateur et du modèle qui ont conduit à ce moment.
    • Mémoire à long terme : Base de connaissances persistante, recueillie au cours de nombreuses conversations antérieures, contenant les préférences de l'utilisateur, des résumés de projets antérieurs ou des faits qu'on lui a demandé de se rappeler pour une utilisation future.
    • Information récupérée (RAG) : Connaissances externes et actualisées, informations pertinentes provenant de documents, de bases de données ou d'API pour répondre à des questions spécifiques.
    • Outils disponibles : Définitions de toutes les fonctions ou outils intégrés qu'il peut appeler (par exemple, check_inventory, send_email).
    • Sortie structurée : Définitions du format de la réponse du modèle, par exemple un objet JSON.
    Nom : contexte.png
Affichages : 13851
Taille : 88,3 Ko

    Qu'est-ce que l'ingénierie contextuelle ?

    Citation Envoyé par Philipp Schmid
    Alors que « l'ingénierie de l'invite » se concentre sur l'élaboration d'un ensemble parfait d'instructions dans une seule chaîne de texte, l'ingénierie contextuelle est beaucoup plus large. Disons-le simplement :

    « L'ingénierie contextuelle est la discipline qui consiste à concevoir et à construire des systèmes dynamiques qui fournissent les bonnes informations et les bons outils, dans le bon format, au bon moment, afin de donner à un LLM tout ce dont il a besoin pour accomplir une tâche ».

    L'ingénierie contextuelle est :
    • Un système, pas une chaîne de caractères : le contexte n'est pas un simple modèle statique d'invite. C'est le résultat d'un système qui s'exécute avant l'appel principal du LLM.
    • Dynamique : créé à la volée, adapté à la tâche immédiate. Pour une demande, il peut s'agir des données du calendrier, pour une autre, des courriels ou d'une recherche sur le web.
    • Les bonnes informations, les bons outils au bon moment : la tâche principale consiste à s'assurer que le modèle ne manque pas de détails cruciaux ("Garbage In, Garbage Out"). Cela signifie qu'il faut fournir des connaissances (informations) et des capacités (outils) uniquement lorsque cela est nécessaire et utile.
    • où le format est important : la manière dont vous présentez l'information est importante. Un résumé concis vaut mieux qu'une masse de données brutes.
    Pourquoi cette compétence devient stratégique ?

    Alors que le prompt engineering est comparable à donner une instruction directe à un élève, l'ingénierie de contexte, c'est comme lui fournir une bibliothèque entière, des études de cas détaillées et un guide d'étude personnalisé avant même qu'il ne commence son devoir. Voici pourquoi cette distinction est cruciale :

    Lever les ambiguïtés et préciser l'intention

    Le langage humain est intrinsèquement ambigu. Un même mot ou une même phrase peut avoir plusieurs significations selon le contexte. Sans un cadre de référence clair, un LLM pourrait interpréter une requête de manière inattendue, menant à des réponses inexactes ou non pertinentes. L'ingénierie de contexte vise à éliminer cette ambiguïté en ancrant la requête dans des informations spécifiques.

    Améliorer la précision et la pertinence des résultats

    Les modèles d'IA, malgré leur vaste base de connaissances, peuvent parfois « halluciner », c'est-à-dire générer des informations incorrectes ou inventées. En fournissant des données factuelles et des exemples concrets directement dans le contexte, on réduit considérablement ce risque. L'IA n'a plus besoin de « deviner » ou d'inférer à partir de ses données d'entraînement génériques ; elle peut s'appuyer sur des faits vérifiés et des directives claires.

    C'est particulièrement vrai pour les domaines de niche ou les informations très récentes qui n'auraient pas été incluses dans ses données d'entraînement initiales.

    Gérer la complexité des tâches spécifiques

    Certaines tâches, comme la rédaction de documents techniques complexes, l'analyse de données financières ou la génération de code spécifique à une API, dépassent largement les capacités d'un simple prompt. Ces tâches nécessitent une compréhension approfondie du domaine, l'application de règles spécifiques et souvent l'intégration de multiples sources d'information.

    L'ingénierie de contexte permet de décomposer la complexité en fournissant à l'IA tous les éléments nécessaires : des extraits de documentation technique, des exemples de code, des schémas, ou même les résultats de calculs intermédiaires.

    Exercer un contrôle granulaire sur la sortie

    Au-delà de la justesse de l'information, le style, le ton, le format et la structure de la réponse sont souvent cruciaux. L'ingénierie de contexte offre un contrôle plus fin sur ces aspects. En incluant des exemples de réponses souhaitées, des directives de style ou des contraintes spécifiques, on peut sculpter la sortie de l'IA avec une plus grande précision.

    Intégrer des connaissances externes et dynamiques

    L'un des plus grands avantages de l'ingénierie de contexte est sa capacité à intégrer des sources de données externes et dynamiques aux LLM. Plutôt que de se limiter à ce qu'un modèle a appris lors de sa phase d'entraînement (qui est statique et souvent dépassée), on peut lui fournir des informations en temps réel : les dernières actualités boursières, les données d'un capteur IdO, les informations d'une base de données clients, ou le contenu d'une page web spécifique.

    Et Philipp Schmid d'expliquer :

    Le secret de la construction d'agents d'intelligence artificielle vraiment efficaces a moins à voir avec la complexité du code que vous écrivez, et tout à voir avec la qualité du contexte que vous fournissez. La construction d'agents est moins liée au code que vous écrivez ou au cadre que vous utilisez. La différence entre une démo bon marché et un agent « magique » réside dans la qualité du contexte que vous fournissez. Imaginez que l'on demande à un assistant IA de planifier une réunion sur la base d'un simple courriel :

    « Hey, je voulais juste savoir si tu étais disponible pour une rapide synchronisation demain ».

    L'agent « Démo bon marché » dispose d'un contexte médiocre. Il ne voit que la demande de l'utilisateur et rien d'autre. Son code peut être parfaitement fonctionnel - il appelle un LLM et obtient une réponse - mais le résultat est inutile et robotique :

    « Merci pour votre message. Demain me convient. Puis-je vous demander à quelle heure vous pensiez ? »

    L'agent « magique » est alimenté par un contexte riche. La tâche principale du code n'est pas de déterminer comment répondre, mais de rassembler les informations dont le LLM a besoin pour atteindre son objectif. Avant d'appeler le LLM, vous devez étendre le contexte pour y inclure
    • Les informations de votre agenda (qui montrent que votre emploi du temps est chargé).
    • Les courriels que vous avez échangés avec cette personne (pour déterminer le ton informel approprié).
    • Votre liste de contacts (pour l'identifier comme un partenaire clé).
    • Les outils pour envoyer_invitation ou envoyer_email.

    Vous pouvez ensuite générer une réponse.

    « Hey Jim ! Demain, c'est plein à craquer de mon côté. Jeudi matin libre si ça te convient ? J'ai envoyé une invitation, j'aimerais savoir si ça marche ».

    La magie ne réside pas dans un modèle ou un algorithme plus intelligent. Il s'agit de fournir le bon contexte pour la bonne tâche. C'est pourquoi l'ingénierie contextuelle sera importante. Les échecs des agents ne sont pas seulement des échecs de modèle ; ce sont des échecs de contexte.


    Le prompt engineering, qui a émergé avec l'essor de l'IA générative, est en voie d'extinction

    Cette compétence a été particulièrement recherchée entre fin 2022 et 2024, avec des offres d'emploi proposant des salaires élevés. Aujourd'hui, avec les progrès de l'IA, l'industrie ne considère plus l'ingénierie de requête comme un rôle à part entière, mais simplement comme une compétence attendue.

    Certaines entreprises utilisent même l'IA pour générer les meilleurs messages-guides pour leurs propres systèmes d'IA. Un rapport publié en avril 2024 suggère que l'IA a surpassé les humains en matière de persuasion. Le mois suivant, Anthropic a lancé un logiciel permettant à l'utilisateur de décrire ses objectifs et son chatbot Claude utilisera des techniques d'ingénierie de requête afin de créer « des requêtes beaucoup plus efficaces, plus précises et plus fiables ».

    Cela accélère les itérations et permet aux utilisateurs de tester différents scénarios plus rapidement. Le logiciel est disponible via la console en ligne d'Antropic. Dès son lancement, l'outil a été perçu comme une menace pour l'avenir du métier naissant d'ingénieur de requête. Aujourd'hui, les offres d'emploi pour ce poste ont pratiquement disparu. Le déclin de l'ingénierie de requête est une mise en garde pour le marché de l'emploi dans le domaine de l'IA.

    Pourquoi le métier d'ingénieur de requête disparaît-il rapidement ?

    L'attrait de l'ingénierie de requête tenait en partie à sa faible barrière à l'entrée. Le poste ne nécessitait que peu d'expertise technique (ou pas du tout), ce qui en faisait une voie accessible aux personnes désireuses de rejoindre un marché en plein essor. Mais comme le poste était très généraliste, il était aussi facilement remplaçable. Les fabricants de chatbots ont rapidement inondé le marché d'outils permettant aux entreprises clientes de se passer de ces rôles.

    Malcom Frank, PDG de TalentGenius, compare l'ingénierie de requête à des fonctions telles que « magicien Excel » et « expert PowerPoint » ; des compétences précieuses, mais pour lesquelles les entreprises ne recrutent généralement pas individuellement. Et les ingénieurs de requête ne sont peut-être pas les seuls rôles à disparaître. Malcolm Frank imagine un monde où les agents d'IA, qui prennent déjà forme, remplaceront les tâches de niveau inférieur.

    Il explique : « l'IA se nourrit déjà d'elle-même. L'ingénierie de requête est devenue quelque chose d'intégré dans presque toutes les fonctions, et les gens savent comment s'y prendre. De plus, l'IA peut désormais vous aider à rédiger les messages parfaits dont vous avez besoin. C'est passé d'un travail à une tâche très, très rapidement ». De nombreux facteurs ont favorisé le déclin rapide du métier de l'ingénieur de requête pour l'IA, notamment :
    • les IA comprennent mieux le langage naturel : les modèles les plus récents (comme GPT-4.5, Claude 3, Gemini 1.5, etc.) peuvent répondre de façon pertinente à des requêtes très simples. Il n’est plus nécessaire de formuler des instructions complexes ;
    • des outils automatisent l'optimisation des requêtes : de nouveaux systèmes comme les agents autonomes ou les interfaces enrichies proposent eux-mêmes les bonnes requêtes, ou les génèrent à la place de l’utilisateur.

    Source : Philipp Schmid

    Et vous ?

    Que pensez-vous de la réflexion de Philipp Schmid ? La trouvez-vous crédible ou pertinente ? Dans quelle mesure ?

    Que pensez-vous de ces métiers de l'IA ? Estimez-vous qu'on peut les qualifier comme tel (métier) ou s'agit-il simplement, selon vous, de compétences parmi d'autres ?

    Que pensez-vous des noms qui leur sont attribué (prompt engineering et autres) ?

    Le prompt engineering est-il réellement dépassé ou simplement devenu une sous-discipline de la context engineering ?

    Peut-on imaginer des cas où un bon prompt suffit, sans aucun contexte enrichi ? Quels sont ces cas limites ?

    Où situer la frontière entre prompt et contexte : à partir de quand un prompt devient-il un système contextuel ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 520
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 520
    Par défaut
    Je pense que la vraie compétence pertinence est le bullshit engineering : la compétence à faire croire à des recruteurs qu'une réflexion de fin de soirée est le résultat d'une longue réflexion naturelle qui prouve que vous êtes expert et senior dans un domaine qui a quelques années.

  3. #3
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    2 961
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 2 961
    Par défaut
    Citation Envoyé par Philipp Schmid
    Alors que « l'ingénierie de l'invite » se concentre sur l'élaboration d'un ensemble parfait d'instructions dans une seule chaîne de texte, l'ingénierie contextuelle est beaucoup plus large. Disons-le simplement :

    « L'ingénierie contextuelle est la discipline qui consiste à concevoir et à construire des systèmes dynamiques qui fournissent les bonnes informations et les bons outils, dans le bon format, au bon moment, afin de donner à un LLM tout ce dont il a besoin pour accomplir une tâche ».

    L'ingénierie contextuelle est :
    Un système, pas une chaîne de caractères : le contexte n'est pas un simple modèle statique d'invite. C'est le résultat d'un système qui s'exécute avant l'appel principal du LLM.
    Dynamique : créé à la volée, adapté à la tâche immédiate. Pour une demande, il peut s'agir des données du calendrier, pour une autre, des courriels ou d'une recherche sur le web.
    Les bonnes informations, les bons outils au bon moment : la tâche principale consiste à s'assurer que le modèle ne manque pas de détails cruciaux ("Garbage In, Garbage Out"). Cela signifie qu'il faut fournir des connaissances (informations) et des capacités (outils) uniquement lorsque cela est nécessaire et utile.
    où le format est important : la manière dont vous présentez l'information est importante. Un résumé concis vaut mieux qu'une masse de données brutes.
    C'est moi qui comprend mal ?
    J'ai l'impression que la phrase en gras signifie que pour que ça fonctionne correctement, il faut lui fournir l'URL de la page où se trouve la réponse.
    Du coup, il est où l'intérêt si on sais déjà trouver la réponse ?

  4. #4
    Membre habitué
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Avril 2013
    Messages
    10
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Enseignement

    Informations forums :
    Inscription : Avril 2013
    Messages : 10
    Par défaut Mais c'est bien sur !
    Je comprends mieux pourquoi j'obtiens de meilleurs résultats plus rapidement quand je retravaille explicitement le contexte !

  5. #5
    Membre averti
    Profil pro
    ingénieur
    Inscrit en
    Octobre 2004
    Messages
    58
    Détails du profil
    Informations personnelles :
    Localisation : France, Côtes d'Armor (Bretagne)

    Informations professionnelles :
    Activité : ingénieur

    Informations forums :
    Inscription : Octobre 2004
    Messages : 58
    Par défaut
    Citation Envoyé par popo Voir le message
    C'est moi qui comprend mal ?
    J'ai l'impression que la phrase en gras signifie que pour que ça fonctionne correctement, il faut lui fournir l'URL de la page où se trouve la réponse.
    Du coup, il est où l'intérêt si on sais déjà trouver la réponse ?
    Moi je n'ai pas compris ça comme ça..🤔

  6. #6
    Membre éprouvé Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 837
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 837
    Par défaut
    Citation Envoyé par popo Voir le message
    C'est moi qui comprend mal ?
    J'ai l'impression que la phrase en gras signifie que pour que ça fonctionne correctement, il faut lui fournir l'URL de la page où se trouve la réponse.
    Du coup, il est où l'intérêt si on sais déjà trouver la réponse ?
    Relis bien ce que tu as quoté de l'article et tu comprendras que le contexte n'est pas donné que par l'utilisateur mais par le concepteur de l'IA au travers de sources telles que url, images, vidéos ou que sais-je.

Discussions similaires

  1. Réponses: 4
    Dernier message: 06/11/2009, 16h18
  2. Réponses: 0
    Dernier message: 26/09/2009, 12h36
  3. Réponses: 0
    Dernier message: 26/09/2009, 12h36
  4. Nouvel enregistrement si n'est pas dans liste
    Par Sami Xite dans le forum IHM
    Réponses: 18
    Dernier message: 01/03/2007, 16h09

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo