Des dirigeants de Microsoft craignent que l'IA ne supprime les emplois de codeurs débutants, Russinovich et Hanselman affirment que les entreprises doivent former les juniors et non les remplacer
Mark Russinovich, directeur technique de Microsoft Azure, et Scott Hanselman, vice-président de la communauté des développeurs, ont rédigé un rapport dans lequel ils affirment que les ingénieurs logiciels seniors doivent encadrer les développeurs juniors afin d'empêcher les agents de codage IA de vider la base de compétences futures de la profession. Ils affirment notamment : "Notre thèse est simple : nous devons continuer à embaucher des développeurs débutants, accepter qu'ils réduisent initialement la capacité de production et concevoir délibérément des systèmes qui font de leur croissance un objectif organisationnel explicite."
Le marché de l'emploi dans le secteur technologique se rétrécit alors que l'IA redéfinit les exigences de l'industrie. Et la situation des jeunes diplômés devient de plus en plus inquiétante, car ils sont désormais en concurrence avec l'IA pour les postes de débutant. Une étude de mai 2025 rapporte que les Big Tech ont réduit l'embauche de nouveaux diplômés de 25 % en 2024 par rapport à 2023. En outre, le recrutement de diplômés dans les startups a chuté de 11 %. Bien que toutes les raisons expliquant ce phénomène ne soient pas claires, les experts affirment qu'il existe des « preuves convaincantes » que l'IA est un facteur qui y contribue de manière significative.
Récemment, Mark Russinovich, directeur technique de Microsoft Azure, et Scott Hanselman, vice-président de la communauté des développeurs, ont rédigé un rapport dans lequel ils affirment que les ingénieurs logiciels seniors doivent encadrer les développeurs juniors afin d'empêcher les agents de codage IA de vider la base de compétences futures de la profession. Mark Eugene Russinovich (né le 22 décembre 1966) est un ingénieur logiciel et auteur américain d'origine espagnole qui occupe le poste de directeur technique de Microsoft Azure. Il a cofondé le éditeur de logiciels Winternals avant son rachat par Microsoft en 2006.
Ce rapport, intitulé « Redefining the Engineering Profession for AI » (Redéfinir la profession d'ingénieur pour l'IA), repose sur plusieurs hypothèses, dont la première est que les assistants de codage « donnent un coup de pouce aux ingénieurs seniors en matière d'IA... tout en imposant un frein aux développeurs en début de carrière (EiC) pour diriger, vérifier et intégrer les résultats de l'IA ». Dans un podcast précédent sur le sujet, Russinovich a déclaré que cette prémisse de base – selon laquelle l'IA augmente la productivité des développeurs seniors tout en la réduisant pour les juniors – est un « sujet brûlant dans toutes nos relations avec nos clients... ils disent tous qu'ils le constatent dans leurs entreprises ».
Le problème est que les agents IA peuvent revendiquer leur succès alors qu'en réalité, le code est mauvais, avec des problèmes tels que :
- Bugs importants
- Mise en œuvre d'algorithmes inefficaces
- Duplication de code commun dans toute la base de code
- Rejet des plantages et des blocages comme non pertinents
- Omission du code de débogage
- Faire fonctionner le code pour des tests spécifiques, mais pas de manière générale
Un exemple de la situation, au cœur du secteur technologique en plein essor de l'Inde, un changement radical est en cours, l'intelligence artificielle (IA) redéfinissant les points d'entrée pour les jeunes talents. Les géants indiens de l'informatique, longtemps considérés comme les moteurs des aspirations de la classe moyenne, ont réduit de 70 % le recrutement de jeunes diplômés entre les exercices 2023 et 2024.
Selon une analyse publiée par India Dispatch, les quatre plus grands exportateurs informatiques (Tata Consultancy Services, Infosys, Wipro et HCL Technologies) ont réduit leurs recrutements de 225 000 à seulement 60 000 nouveaux arrivants. Ce ralentissement coïncide avec des réductions d'effectifs, dont 38 000 suppressions d'emplois chez TCS et Infosys pour le seul exercice 2024, alors que les entreprises se tournent vers l'efficacité offerte par l'IA. L'essor de l'IA dans l'automatisation des tâches L1 et L2 (support et maintenance de base) a rendu obsolètes les postes traditionnels destinés aux débutants, poussant les entreprises à recruter des profils de niveau intermédiaire dotés de compétences spécialisées.
Voici le rapport de Mark Russinovich et Scott Hanselman :
Redéfinir le métier d'ingénieur logiciel pour l'IA
L'IA générative a bouleversé l'économie du génie logiciel. Les assistants de codage agentifs donnent désormais aux ingénieurs seniors un coup de pouce grâce à l'IA, multipliant leur rendement, tout en imposant un frein à l'IA aux développeurs en début de carrière (EiC) qui manquent de jugement et de contexte pour orienter, vérifier et intégrer les résultats de l'IA. Il en résulte une nouvelle structure d'incitation : embaucher des seniors, automatiser les juniors. Mais sans l'embauche d'EiC, le vivier de talents de la profession s'effondre et les organisations sont confrontées à un avenir sans la prochaine génération d'ingénieurs expérimentés.
Notre thèse est simple : nous devons continuer à embaucher des développeurs débutants, accepter qu'ils réduisent initialement la capacité de production et concevoir délibérément des systèmes qui font de leur croissance un objectif organisationnel explicite. La voie à suivre est une culture de mentorat à grande échelle. Nous devons permettre le mentorat des seniors grâce à des systèmes d'IA qui capturent le raisonnement, mettent en évidence les idées fausses et transforment le travail quotidien en moments d'apprentissage pour les développeurs débutants. Cet article explore comment de tels systèmes peuvent combler le déficit de formation et préserver le métier d'ingénieur logiciel à l'ère de l'IA.
L'essor de l'IA
L'année écoulée a marqué un tournant décisif dans la productivité du génie logiciel. Les assistants de codage agents, des systèmes qui interprètent les objectifs, raisonnent à travers les référentiels et génèrent, testent et affinent le code de manière itérative, redéfinissent ce que les petites équipes peuvent accomplir. Des données internes et des études indépendantes montrent désormais que les développeurs expérimentés qui utilisent ces outils peuvent accomplir des tâches complexes plusieurs fois plus rapidement, avec des améliorations d'ordre de grandeur de plus en plus courantes.
Dans le cadre du projet Societas de Microsoft, nom donné à leur nouvel Office Agent, sept ingénieurs à temps partiel ont livré une préversion prête à l'emploi en seulement 10 semaines, produisant plus de 110 000 lignes de code générées à 98 % par l'IA. Le travail humain est passé de la création à la direction : spécification des objectifs, vérification de l'exactitude et intégration des résultats de l'agent dans un système cohérent.
Aspire est un autre système de grande envergure qui montre comment cette transformation se déroule dans la pratique et modifie le mode de fonctionnement des équipes d'ingénieurs. Les équipes ont franchi différentes étapes, en utilisant d'abord des assistants de chat localement, puis en permettant aux agents de codage d'ouvrir des pull requests, pour finalement fonctionner dans des essaims d'agents humains où chaque pull request (PR) était livrable et où la révision devenait un dialogue partagé entre les personnes et les machines. Le travail s'est déroulé dans le cadre de longues PR GitHub où les ingénieurs seniors discutent des objectifs architecturaux tandis que l'agent de codage fournit des solutions. Il en a résulté une boucle de rétroaction plus rapide, un parallélisme plus élevé et une réduction considérable du coût d'opportunité pour l'expérimentation.
Le stagiaire en ingénierie agentielle. Alors que l'IA stimule le développement de logiciels, les exemples d'agents de codage de pointe présentant des comportements similaires à ceux de stagiaires démontrent leurs limites et la difficulté qu'un développeur EiC peut avoir à repérer ou à guider les agents pour les éloigner des conceptions sous-optimales et des conclusions erronées.
Dans la figure 1, l'agent a inséré une pause dans le code qui plantait en raison d'une condition de concurrence. Ce type de modification ne fait que masquer un bug de synchronisation complexe sous-jacent, mais un développeur EiC pourrait le considérer comme une correction efficace si la concurrence n'apparaît plus dans les tests.
L'agent a même du mal à expliquer les raisons qui l'ont poussé à introduire ce délai, qui ne réduit en réalité pas le risque de course dans ce cas précis. Lorsqu'il est contesté, il admet que son raisonnement était erroné (figure 2), mais l'IA peut également conclure qu'un raisonnement correct est erroné lorsqu'elle est contestée par les suggestions d'un utilisateur qui estime qu'il pourrait être incorrect.
Seul un ingénieur familiarisé avec les protocoles de synchronisation, les primitives de synchronisation utilisées et l'architecture du code peut avoir l'assurance nécessaire pour signaler les erreurs de l'agent et disposer des connaissances requises pour le guider dans la bonne direction.
Dans bon nombre de ces cas, pour progresser, l'utilisateur doit indiquer à l'agent comment procéder. Dans la figure 3, par exemple, l'utilisateur guide l'agent pour qu'il insère des pauses qui induiront le code à présenter une condition de concurrence afin de permettre un débogage plus fiable.
Il existe des dizaines d'exemples de ce type issus de multiples projets d'IA agentielle qui montrent que le modèle prétendait avoir réussi alors que le code comportait des bogues importants, mettait en œuvre des algorithmes inefficaces, dupliquait du code commun dans toute la base de code, rejetait les plantages et les blocages comme n'étant pas pertinents pour la tâche à accomplir, laissait du code de débogage derrière lui, prenait des raccourcis avec des hacks qui faisaient fonctionner le code pour des tests spécifiques mais qui ne pouvaient pas être généralisés, etc.
Bien que les agents IA progressent rapidement, l'expertise humaine reste essentielle dans le développement de logiciels. La programmation n'est pas du génie logiciel. Même les systèmes les plus fiables ne peuvent pas remplacer entièrement le jugement, la créativité et l'adaptabilité nécessaires pour gérer l'incertitude, prendre des décisions complexes et maintenir la sécurité. Si les agents peuvent accélérer les flux de travail et réduire les efforts manuels, ils manquent d'intuition pour anticiper les cas limites et élaborer des solutions robustes. Se fier trop à l'IA risque de faire passer à côté de bogues subtils, de défauts architecturaux et de vulnérabilités que seuls des ingénieurs qualifiés peuvent détecter. La supervision humaine, la pensée critique et la connaissance du domaine sont indispensables pour corriger les erreurs et stimuler l'innovation à mesure que la technologie progresse.
L'hypothèse de la pyramide qui se rétrécit. Les organisations traditionnelles d'ingénierie logicielle embauchent des développeurs EiC pour augmenter la capacité de l'organisation en leur confiant des tâches relativement simples de correction de bogues et de codage. En accomplissant ces tâches, ils acquièrent de l'expérience et se familiarisent avec les normes de codage d'un projet, ainsi qu'avec son architecture, sa mise en œuvre, sa construction et ses systèmes de test. Certains d'entre eux, qui en ont la volonté et la capacité, deviennent des responsables techniques, qui se voient confier des tâches plus complexes couvrant des parties plus larges d'un système et délèguent des tâches aux EiC. Le ratio entre les EiC et les responsables est généralement de l'ordre de 10 pour 1.
L'IA générative agit actuellement comme un changement technologique favorisant l'ancienneté : elle amplifie de manière disproportionnée les ingénieurs qui possèdent déjà un jugement systémique, comme le goût pour l'architecture, le débogage dans l'incertitude et l'intuition opérationnelle. Les développeurs EiC qui ne possèdent pas les connaissances systémiques acquises à la sueur de leur front auront du mal à apporter leur contribution dans un environnement axé sur l'IA. Les données sur l'emploi montrent qu'après la sortie de GPT-4, l'emploi des 22-25 ans dans des postes fortement exposés à l'IA (comme le développement de logiciels) a chuté d'environ 13 %, alors même que les postes seniors ont augmenté. Une étude récente de Harvard, intitulée « Generative AI as Seniority-Biased Technological Change: Evidence from U.S. Résumé and Job Posting Data » (L'IA générative en tant que changement technologique favorisant l'ancienneté : preuves tirées des données sur les CV et les offres d'emploi aux États-Unis), observe que l'IA semble déjà créer une forme de « changement technologique favorisant l'ancienneté ».
L'IA amplifie les talents seniors, mais risque de laisser les nouveaux talents à la traîne, créant ainsi une organisation déséquilibrée et une « base de la pyramide » en déclin. L'ancien modèle consistant à former de grandes équipes de développeurs de niveau intermédiaire/junior ajoutant des fonctionnalités supplémentaires est désormais soumis à des pressions économiques. Si rien n'est fait, moins d'EiC acquerront le « goût des systèmes », l'intuition architecturale et le sens opérationnel, ce qui nuira à la qualité du code et ralentira l'innovation. Ethan Mollick observe dans son article « On Working with Wizards » :
La solution n'est pas de supposer que les EiC bénéficieront des mêmes gains de productivité que les seniors, mais de les embaucher et d'investir délibérément en eux. Cela signifie leur donner une exposition directe au débogage, aux compromis de conception, à la mise en œuvre et aux systèmes de construction, c'est-à-dire les fondamentaux nécessaires pour évaluer de manière critique les résultats de l'IA.Deuxièmement, nous devons devenir des connaisseurs du résultat plutôt que du processus. Nous devons sélectionner et trier les résultats fournis par l'IA, mais plus encore, nous devons travailler suffisamment avec l'IA pour développer notre instinct et savoir quand elle réussit et quand elle échoue. Nous devons apprendre à juger ce qui est juste, ce qui ne l'est pas et ce qui vaut la peine de prendre le risque de ne pas savoir. Cela pose un problème difficile pour l'éducation : comment former quelqu'un à vérifier un travail dans des domaines qu'il ne maîtrise pas, alors que l'IA elle-même l'empêche de développer cette maîtrise ? Il est de plus en plus urgent de trouver comment combler cette lacune.
Les praticiens doivent évoluer lorsqu'ils sont exposés à l'IA, sinon tout cela ne sert à rien. Encore une fois, Ethan Mollick :
Le nouveau modèle doit permettre aux seniors et aux juniors, expérimentés ou en début de carrière, d'apprendre, et pas seulement de produire. Les mentors seniors doivent évaluer les faiblesses et orienter les domaines d'intérêt, tandis que l'IA sert d'accélérateur, et non de béquille.Chaque fois que nous confions un travail à un magicien, nous perdons une occasion de développer notre propre expertise, de construire le jugement dont nous avons besoin pour évaluer le travail du magicien. Nous obtenons quelque chose de magique, mais nous devenons aussi le public plutôt que le magicien, ou même l'assistant du magicien.
Le programme de préceptorat. Pour relever le défi de former des développeurs EiC dans un environnement axé sur l'IA, nous proposons un programme de préceptorat qui met directement en relation les développeurs EiC avec des mentors expérimentés au sein d'équipes de production réelles. Les précepteurs guident et forment les praticiens, leur apprenant à diriger des outils d'IA agentique, à développer leur esprit critique et à acquérir les compétences de production des ingénieurs seniors. Cette approche garantit que l'apprentissage, et pas seulement le rendement, est au cœur de l'ingénierie à l'ère de l'IA.
Une étude menée par le MIT au début de l'année 2025 a observé une « dette cognitive » chez les adultes qui utilisaient ChatGPT pour rédiger des dissertations de type SAT, notant une activité cérébrale réduite par rapport à ceux qui rédigeaient sans aide, ainsi qu'une mémoire plus faible quelques minutes après.1 L'engagement direct est associé à des résultats d'apprentissage plus efficaces. En formant les développeurs EiC spécifiquement pour un environnement alimenté par l'IA (apprentissage des fondamentaux, compréhension des forces et des faiblesses de l'IA, développement du jugement pour savoir quand faire confiance ou passer outre), nous préservons la santé à long terme de notre main-d'œuvre d'ingénieurs. Cet investissement intentionnel maintient la solidité de la pyramide de la base au sommet, mais avec une base axée sur le renouvellement des talents seniors plutôt que sur l'augmentation de la productivité de l'organisation
Pour les équipes accélérées par l'IA, les principes de jugement et de sensibilité au « code smell » deviennent essentiels. Les développeurs EiC ne doivent pas être tenus à l'écart du processus de résolution des problèmes ; ils doivent être invités à participer à tous les aspects, en aidant à la suggestion, au débogage et à la révision aux côtés de leurs mentors afin qu'ils puissent voir comment l'expertise interagit avec l'IA. Leur contribution n'est pas une simple question de vitesse, mais d'apprentissage en contexte : mettre en évidence les idées fausses, demander pourquoi les résultats de l'agent échouent et intérioriser progressivement le raisonnement que leurs précepteurs considèrent déjà comme acquis. Les précepteurs ingénieurs seniors ont quant à eux la responsabilité d'extérioriser leur jugement senior, en aidant à transformer l'expertise en moments d'apprentissage, dans le but de convertir le « frein IA » de l'inexpérience en capacité de discernement de la prochaine génération.
Le mentorat revêt une importance professionnelle délibérée : il implique à la fois une évaluation et une responsabilité. Il présente l'ingénierie logicielle non pas comme un métier en voie de disparition à l'ère de l'IA, mais comme une profession dans laquelle les ingénieurs seniors ont la responsabilité de guider ceux qui débutent dans la pratique. Les précepteurs forment un sous-ensemble formé de seniors, chacun capable d'encadrer trois à cinq EiC. Avec un budget d'inférence pratiquement illimité, ces binômes peuvent expérimenter librement : commencer modestement, itérer rapidement, apprendre en continu et évoluer à mesure que le programme mûrit.
Pour aider les apprenants et fournir des informations aux précepteurs, les assistants de codage peuvent bénéficier d'un mode EiC explicite qui utilise par défaut le coaching socratique avant la génération de code. Andrej Karpathy, dans une récente interview, a déclaré : « [En tant qu'éducateur], je ne vais pas vous présenter la solution avant que vous ne l'ayez devinée. Ce serait du gaspillage... de vous présenter la solution avant de vous donner une chance d'essayer de la trouver vous-même. » L'assistant de codage, tout comme Khanmigo de Khan Academy pour les mathématiques et les sciences, devrait mettre l'apprenant au défi, lui expliquer son processus de génération de code, le questionner sur les concepts et les décisions clés, et suivre activement ses points forts et ses points faibles tout au long de leurs interactions.
Les précepteurs devraient pouvoir consulter les journaux de discussion des apprenants afin de suivre leurs progrès, leur fournir des conseils ciblés et combler leurs lacunes. Cela garantit que les assistants ne se contentent pas de générer du code, mais favorisent également l'apprentissage et un mentorat efficace.
Le ratio idéal entre apprenants et précepteurs est estimé entre 3:1 et 5:1, en fonction de la complexité du logiciel, de l'expérience des apprenants et de l'implication des précepteurs. Les programmes devraient durer au moins un an, voire plus, en fonction des compétences requises et de la complexité du produit.
Conclusion
L'IA générative a profondément transformé l'ingénierie logicielle, amplifiant la productivité des ingénieurs expérimentés tout en exposant la fragilité des filières traditionnelles de recrutement de talents. Si les organisations se concentrent uniquement sur l'efficacité à court terme, en embauchant ceux qui savent déjà diriger l'IA, elles risquent de vider de leur substance la prochaine génération de leaders techniques. Pour pérenniser cette discipline, il faut concevoir de manière intentionnelle une stratégie de croissance : intégrer un mentorat et un préceptorat structurés dans le travail quotidien, et équiper les systèmes d'IA pour qu'ils enseignent par le dialogue socratique et le raisonnement guidé.
L'avenir du génie logiciel ne sera pas défini par le volume de code que l'IA peut générer, mais par l'efficacité avec laquelle les humains apprennent, raisonnent et mûrissent aux côtés de ces systèmes. Investir dans les développeurs en début de carrière grâce à un préceptorat délibéré garantit que l'expertise d'aujourd'hui devienne l'intuition de demain. En équilibrant l'automatisation et l'apprentissage, nous préservons la vitalité durable de la profession d'ingénieur logiciel.
Source : Rapport de Mark Russinovich, directeur technique d'Azure, et Scott Hanselman, vice-président de la communauté des développeurs chez Microsoft CoreAI
Et vous ?
Pensez-vous que cette article est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
L'IA remplacera-t-elle les développeurs juniors ? Un ancien ingénieur de Google répond par l'affirmative, mais cela interroge sur ce qui se passera lorsque les développeurs séniors partiront à la retraite
Des diplômés de Stanford peinent à trouver un emploi en raison de l'automatisation par l'intelligence artificielle qui remet en cause la pertinence des postes de développeur junior
Microsoft encourage désormais une partie significative de ses équipes internes à utiliser Claude Code, l'outil de programmation IA développé par Anthropic













Pensez-vous que cette article est crédible ou pertinente ?
Répondre avec citation







Partager