GitHub annonce qu'à partir du 24 avril, les données d'interaction des utilisateurs de Copilot Free, Pro et Pro+ seront utilisées pour entraîner et améliorer les modèles d'IA de Copilot, sauf refus explicite
GitHub a annoncé qu'à partir du 24 avril, il commencerait à utiliser les données d'interaction des utilisateurs de Copilot Free, Pro et Pro+ pour entraîner ses modèles d'intelligence artificielle, à moins que les utilisateurs n'expriment explicitement leur refus. L'entreprise indique que cette initiative vise à améliorer les suggestions de code, la sécurité et la détection des bogues de Copilot. Les données collectées comprennent notamment des extraits de code, la structure des dépôts, la documentation ou les interactions avec les fonctionnalités de Copilot, mais excluent les dépôts privés « au repos ». Les utilisateurs de Copilot Business et Enterprise ne seront toutefois pas concernés par ces changements et les données des utilisateurs ayant précédemment choisi de ne pas participer au programme de collecte de données continueront d'être exclues.
GitHub est une plateforme propriétaire destinée aux développeurs qui leur permet de créer, stocker, gérer et partager leur code. Elle utilise Git pour assurer un contrôle de version distribué, et GitHub propose en outre des fonctionnalités de contrôle d'accès, de suivi des bogues, de gestion des demandes de fonctionnalités logicielles, de gestion des tâches, d'intégration continue et de wikis pour chaque projet. GitHub est exploité par GitHub, Inc., une filiale de Microsoft depuis 2018 dont le siège social est situé à San Francisco.
GitHub a annoncé qu'à compter du 24 avril 2026, les données d'interaction des utilisateurs de Copilot Free, Pro et Pro+ seront utilisées pour entraîner et améliorer les modèles d'IA de Copilot, à moins que les utilisateurs ne choisissent expressément de ne pas y participer. Ce changement ne concerne pas les utilisateurs de Copilot Business ou Copilot Enterprise, qui restent exclus du nouveau programme de collecte de données.
Pour les utilisateurs qui avaient précédemment choisi de ne pas participer à la collecte de données par GitHub à des fins d'amélioration des produits, leurs préférences seront conservées et leurs données continueront d'être exclues de l'entraînement des modèles.
Selon GitHub, les données d'interaction des utilisateurs concernés comprennent les extraits de code saisis ou présentés à Copilot, les résultats acceptés ou modifiés, les noms de fichiers, la structure des dépôts, le contexte du code environnant, les commentaires et la documentation, les habitudes de navigation, les interactions avec les fonctionnalités de Copilot telles que le chat ou les suggestions intégrées, ainsi que les commentaires fournis sur les suggestions.
Bien que ce champ d'application soit large, GitHub précise que les données issues des tickets d'utilisateurs, des discussions ou du contenu des dépôts privés « au repos » sont explicitement exclues. S'appuyant sur ses pratiques en matière de données, GitHub indique que les informations collectées peuvent être partagées avec les entreprises affiliées à GitHub, ceux appartenant à son groupe, y compris avec Microsoft, mais ne seront pas transmises à des fournisseurs tiers d'IA. GitHub précise que ces changements s'alignent sur les pratiques du secteur et visent à améliorer les suggestions de code, la sécurité et la détection des bogues de Copilot.
Annonce de GitHub
«
Nous annonçons aujourd’hui une mise à jour concernant la manière dont GitHub utilisera les données pour proposer une assistance au codage plus intelligente et mieux adaptée au contexte. À compter du 24 avril, les données d’interaction — notamment les entrées, les sorties, les extraits de code et le contexte associé — des utilisateurs de Copilot Free, Pro et Pro+ seront utilisées pour entraîner et améliorer nos modèles d’IA, sauf s’ils choisissent de ne pas y consentir. Les utilisateurs de Copilot Business et Copilot Enterprise ne sont pas concernés par cette mise à jour.
Cela ne vous intéresse pas ? Vous pouvez désactiver cette option dans les paramètres, sous « Confidentialité ». Si vous aviez déjà désactivé le paramètre autorisant GitHub à collecter ces données à des fins d'amélioration des produits, votre choix a été conservé : vos données ne seront pas utilisées pour l'entraînement, sauf si vous activez cette option.
Cette approche s'inscrit dans les pratiques établies du secteur et permettra d'améliorer les performances des modèles pour tous les utilisateurs. En participant, vous aiderez nos modèles à mieux comprendre les processus de développement, à proposer des suggestions de modèles de code plus précises et plus sûres, et à améliorer leur capacité à vous aider à détecter les bugs potentiels avant qu'ils n'atteignent l'environnement de production.
Données issues du monde réel = modèles plus performants
Nos premiers modèles ont été élaborés à partir d'un mélange de données accessibles au public et d'exemples de code créés manuellement. Au cours de l'année écoulée, nous avons commencé à intégrer des données d'interaction provenant des employés de Microsoft et avons constaté des améliorations significatives, notamment une augmentation des taux d'acceptation dans plusieurs langages.
Les améliorations observées grâce à l'intégration des données d'interaction de Microsoft montrent que nous pouvons améliorer les performances des modèles pour un éventail plus large de cas d'utilisation en les entraînant sur des données d'interaction réelles. Si vous décidez de participer à ce programme, les données d'interaction que nous pourrions collecter et exploiter comprennent :
- Données de sortie que vous avez acceptées ou modifiées
- Données d'entrée envoyées à GitHub Copilot, y compris les extraits de code présentés au modèle
- Contexte de code entourant la position de votre curseur
- Les commentaires et la documentation que vous rédigez
- Les noms de fichiers, la structure du référentiel et les schémas de navigation
- Les interactions avec les fonctionnalités de Copilot (chat, suggestions intégrées, etc.)
- Vos réactions aux suggestions (évaluations par pouce vers le haut ou vers le bas)
Ce programme n'utilise pas :
- Les données d'interaction provenant de Copilot Business, de Copilot Enterprise ou des référentiels appartenant à l'entreprise
- Lonnées d'interaction provenant des utilisateurs qui ont désactivé l'entraînement des modèles dans leurs paramètres Copilot
- Le contenu de vos tickets, discussions ou dépôts privés au repos. Nous utilisons délibérément l'expression « au repos », car Copilot traite effectivement le code provenant des dépôts privés lorsque vous utilisez activement Copilot. Ces données d'interaction sont nécessaires au fonctionnement du service et pourraient être utilisées pour l'entraînement des modèles, sauf si vous désactivez cette option.
Les données utilisées dans le cadre de ce programme peuvent être partagées avec les sociétés affiliées à GitHub, c'est-à-dire les entreprises de notre groupe, y compris Microsoft. Ces données ne seront pas partagées avec des fournisseurs tiers de modèles d'IA ni avec d'autres prestataires de services indépendants.
Nous sommes convaincus que l'avenir du développement assisté par l'IA repose sur les données d'interaction réelles fournies par des développeurs comme vous. C'est pourquoi nous utilisons les données d'interaction de Microsoft pour l'entraînement de nos modèles et que nous commencerons également à utiliser celles des employés de GitHub.
Si vous choisissez de nous aider à améliorer nos modèles grâce à vos données d'interaction, nous vous en remercions. Vos contributions jouent un rôle essentiel dans le développement d'outils d'IA au service de l'ensemble de la communauté des développeurs. Si vous préférez ne pas participer, ce n'est pas grave : vous pourrez tout de même profiter pleinement des fonctionnalités d'IA que vous connaissez et appréciez.
Ensemble, nous pouvons continuer à développer une IA qui accélère vos processus de travail et vous permet de créer des logiciels plus performants et plus sûrs, plus rapidement que jamais.
»
Cette évolution s’inscrit dans un contexte où la gestion du consentement et des données par les outils d’IA soulève de plus en plus d'interrogations. Un développeur a récemment signalé que l'IA GitHub Copilot s'était activée sans consentement explicite dans des environnements de travail privés. Dans un post détaillé sur GitHub, l'utilisateur explique que, bien que Copilot ait été configuré pour ne fonctionner que sur certains fichiers ou dans des espaces de travail publics, l'outil s'est activé dans tous les environnements de développement, y compris les espaces de travail privés.
Cette activation non sollicitée a des conséquences directes sur la sécurité et la confidentialité des projets, car des données sensibles auraient pu être envoyées à des serveurs externes sans que l'utilisateur en soit informé ou ait donné son consentement. Cette situation soulève des préoccupations cruciales concernant la sécurité des outils d'IA dans les environnements de développement et concernant le respect des choix des utilisateurs.
Source : GitHub
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous cette initiative de GitHub judicieuse ou pertinente ?
Voir aussi :
GitHub sous tension : certains utilisateurs mécontents se rebellent contre les fonctionnalités IA Copilot imposées, quand l'aide optionnelle au codage se transforme en prison numérique
L'outil d'IA GitHub Copilot améliore-t-il la qualité du code ? Si GitHub estime que le code produit est plus fonctionnel, GitClear note que cela peut entraîner « une dette technique induite par l'IA »
Workflows GitHub Agentic offre l'automatisation des référentiels, l'exécution des agents de codage, tels que Copilot, Claude ou OpenAI Codex, avec des garde-fous solides dans GitHub Actions








Quel est votre avis sur le sujet ?
Répondre avec citation
Partager