Le personnel ne sait pas coder ? Pas de problème. Le LLM d'une superapplication de Singapour crée des applications pour eux
mais les développeurs sont sceptiques quant à la qualité et la sécurité du code
Les outils no-code reviennent sur le devant de la scène avec l'avènement de l'IA générative. Grab, une superapplication qui s'apparente à Uber, affirme avoir mis au point un grand modèle de langage (LLM) qui permet à ses employés de créer des applications sans avoir à coder. Le logiciel est baptisé « Spellvault » et selon Grab, il permet à tout le personnel, y compris ceux qui n'ont aucune compétence en codage, de créer des applications qui ont accès au riche référentiel de données de Grab. En outre, Grab affirme que les applications personnalisées peuvent être créées en cinq minutes, la qualité et la sécurité du code, ainsi que sa maintenabilité inquiètent.
Qu'est-ce que Spellvault ?
Grab est une entreprise de commerce en ligne spécialisée dans la mise en relation des chauffeurs et de clients. Son outil Spellvault permet aux utilisateurs de créer des applications LLM qui ont accès à son riche référentiel de données. Ces applications peuvent ensuite être utilisées pour effectuer une variété de tâches impliquant le traitement et la génération de langage naturel, comme répondre à des questions, générer du contenu ou analyser des données et des sentiments.
En fonction de leur rôle au sein de l'entreprise, qu'il s'agisse du service client, du marketing, des opérations ou de tout autre département, les utilisateurs peuvent adapter les applications créées à l'aide de Spellvault à leurs besoins spécifiques. « Sans avoir besoin de coder, ils peuvent créer une application personnalisée qui les aide à résoudre leurs problèmes en cinq minutes à peine », a déclaré Grab dans un billet de blogue présentant son logiciel Spellvault sur son site Web.
En mai dernier, OpenAI, le fabricant de ChatGPT, et Grab ont déclaré qu'ils avaient conclu un accord pour construire et déployer l'IA pour ses utilisateurs, ses partenaires et ses employés. Il s'agit notamment de créer des chatbots d'assistance à la clientèle, comme celui conçu par l'entreprise d'assurance de Grab.Envoyé par Grab
Comment fonctionne Spellvault ?
L'outil fonctionne en trois étapes. Les utilisateurs commencent par définir la tâche du modèle, par exemple en évaluant les initiatives de produits en fonction des risques politiques potentiels. Ils téléchargent ensuite les données dans le coffre-fort des connaissances, un référentiel dans lequel Spellvault stocke des informations structurées. Enfin, les utilisateurs peuvent spécifier des API si le modèle requiert des informations supplémentaires provenant de sources externes.
Selon Grab, la plateforme est également utilisée comme outil de partage entre les Grabbers, où les collègues accèdent au code existant. Selon un billet de blogue publié par Grab en octobre dernier, en arrière-plan, Spellvault utilise la génération augmentée par récupération (retrieval-augmented generation- RAG). Le framework intègre une étape de récupération avant de générer des réponses, ce qui est censé améliorer la précision et la pertinence des LLM.
RAG permet à Spellvault d'appeler des plug-ins pertinents tels que l'API interne Data-Arks de Grab pour répondre aux questions des utilisateurs. L'API Data-Arks, basée sur Python, agit comme un intergiciel qui fournit les données nécessaires aux agents LLM par le biais d'API. Spellvault peut extraire ces données de Data-Arks, qui renvoie une sortie SQL, qui est ensuite résumée dans d'autres outils comme Slack. Grab prévoit d'étendre les fonctionnalités de Spellvault.
Grab prévoit, par exemple, d'utiliser Data-Arks pour fournir des images à GPT, car « GPT-4o est un modèle multimodal doté de capacités visuelles ». Mais Spellvault n'impressionne pas tout le monde. Un critique affirme : « les IA/LLM sont comme des crapauds et des champignons qui poussent un peu partout. En plus d'être potentiellement mortels à la consommation, ils ont déjà envoyé leurs tentacules (mycéliums) pour se nourrir dans le bois en décomposition ».
Préoccupations liées aux outils d'IA de codage
Les assistants de codage ont été un cas d'utilisation précoce évident dans la ruée vers l'IA générative. Mais une étude publiée par la société d'analyse Uplevel indique que les améliorations de productivité promises sont loin d'être au rendez-vous, si tant est qu'elles existent. Uplevel, qui fournit des informations sur les données de codage et de collaboration, rapporte que l'utilisation de l'assistant GitHub Copilot a également introduit 41 % de bogues supplémentaires.
L'utilisation de solutions d'IA générative pour produire du code informatique est censée permettre de rationaliser le processus de développement de logiciels et faciliter l'écriture de code pour les développeurs de tous niveaux de compétence. L'utilisateur saisit un texte décrivant ce que le code doit faire, et l'outil d'IA de génération de code crée automatiquement le code. Cependant, des analyses ont révélé que le code généré par l'IA peut s'avérer très problématique.
L'IA est censée faciliter le travail des développeurs, mais selon Harness, le code généré par l'IA pourrait en réalité tripler leur charge de travail dans l'année à venir. L'augmentation du volume de code livré accroît les risques de failles et de vulnérabilités si les tests et les mesures de sécurité ne sont pas rigoureusement appliqués. Selon un rapport publié en juin 2024 par Harness, neuf développeurs sur dix utilisent déjà l'IA pour accélérer la livraison de logiciels.
Néanmoins, cette tendance nécessite une vigilance accrue à chaque étape du cycle de vie du développement logiciel (SDLC) pour prévenir les incidents de sécurité. Harness propose d'utiliser davantage l'IA pour automatiser l'analyse des changements dans le code, tester les failles, et s'assurer que les déploiements peuvent être rapidement annulés en cas de problème. Une autre préoccupation liée au code générée par l'IA concerne la maintenabilité de ce dernier.
Avec l'augmentation du volume de code livré, le potentiel d'erreurs et de vulnérabilités croît également si les développeurs ne procèdent pas à des tests rigoureux. Bien que l'IA ne crée pas de nouvelles failles de sécurité, elle accroît le risque de répétition des failles existantes dans le code généré.
Source : Grab
Et vous ?
Que pensez-vous de l'outil d'IA de création d'application LLM Spellvault ?
Quels sont les avantages et les inconvénients liés à l'utilisation de Spellvault selon vous ?
Quid des préoccupations liées à la sécurité, la qualité, la sécurité et la maintenabilité du code ?
Voir aussi
GitHub, propriété de Microsoft, conclut des accords avec Google et Anthropic pour intégrer leurs modèles d'IA à son assistant de codage Copilot, mais la qualité et la sécurité du code généré restent un défi
Les défis croissants du code généré par l'IA : le code généré par l'IA pourrait augmenter la charge de travail des développeurs et accroître les risques, selon Harness
Que vaut vraiment ChatGPT en matière de codage informatique ? Une étude confirme que les entreprises exagèrent sur les capacités de l'IA et surtout sur son aptitude à remplacer les humains dans la filière
Partager