3 pièce(s) jointe(s)
L'IA n'est pas prête à remplacer les développeurs humains pour le débogage, selon des chercheurs de Microsoft
L'IA n'est pas prête à remplacer les développeurs humains pour le débogage, selon des chercheurs de Microsoft
Les agents d'IA ne peuvent pas déboguer les logiciels de manière fiable même lorsqu'ils ont accès à des outils
Alors que les modèles d’intelligence artificielle générative comme ChatGPT, Claude, Gemini ou CodeWhisperer font déjà figure d’assistants prometteurs pour l’écriture de code, une nouvelle étude menée par des chercheurs de Microsoft met un sérieux bémol à l’enthousiasme ambiant : l’IA n’est pas encore à la hauteur lorsqu’il s’agit de déboguer efficacement du code réel.
La prolifération continue des outils de codage de l'IA ne stimule pas seulement l'efficacité des développeurs, elle signale également un avenir où l'IA générera une part croissante de tout nouveau code. Thomas Dohmke, PDG de GitHub, l'a prédit en 2023, lorsqu'il a déclaré que « tôt ou tard, 80 % du code sera écrit par Copilot ».
Les petites et grandes entreprises de logiciels utilisent déjà largement l'IA pour générer du code. Garry Tan, de Y Combinator, a noté que 95 % du code d'un quart des dernières start-ups de Y Combinator était écrit par de grands modèles de langage.
En fait, selon Microsoft, la plupart des développeurs passent la majeure partie de leur temps à déboguer le code, et non à l'écrire. Des chercheurs de son écurie déclare d'ailleurs :
« En tant que mainteneurs de dépôts de logiciels libres populaires, nous nous sentons concernés par ce constat. Mais que se passerait-il si un outil d'IA pouvait proposer des correctifs pour des centaines de problèmes ouverts, et si nous n'avions qu'à les approuver avant de les fusionner ? C'est ce qui nous a incités à maximiser les gains de temps potentiels des outils de codage IA en leur apprenant à déboguer le code.
« Par débogage, nous entendons le processus interactif et itératif de correction du code. Les développeurs émettent généralement des hypothèses sur la raison du plantage de leur code, puis rassemblent des preuves en parcourant le programme et en examinant les valeurs des variables. Ils utilisent souvent des outils de débogage tels que pdb (débogueur Python) pour les aider à recueillir des informations. Ce processus est répété jusqu'à ce que le code soit corrigé.
« Les outils de codage IA d'aujourd'hui stimulent la productivité et excellent à suggérer des solutions aux bogues sur la base du code disponible et des messages d'erreur. Cependant, contrairement aux développeurs humains, ces outils ne recherchent pas d'informations supplémentaires lorsque les solutions échouent, ce qui laisse certains bogues sans réponse, comme vous pouvez le voir dans cette démonstration simple qui montre comment une colonne mal étiquetée fait échouer les outils de codage d'aujourd'hui. Les utilisateurs peuvent ainsi avoir l'impression que les outils de codage de l'IA ne comprennent pas tout le contexte des problèmes qu'ils tentent de résoudre ».
Debug-gym : un environnement pour les outils de codage de l'IA afin d'apprendre à déboguer le code comme des programmeurs
Il existe peu de domaines dans lesquels l'IA a été déployée de manière aussi robuste que dans celui du développement de logiciels. Du « vibe coding » (une nouvelle pratique dans laquelle des personnes, dont certaines ont une expérience limitée du codage, développent rapidement des logiciels à l'aide d'outils de codage assistés par l'IA, sans se préoccuper de l'efficacité du code tant qu'il est fonctionnel) à GitHub Copilot, en passant par les startups qui créent des applications rapides avec l'aide de LLM, l'IA est déjà profondément intégrée. Même Google a déclaré avoir généré 25% de son code par IA.
Toutefois, ceux qui prétendent que nous ne sommes qu'à quelques mois du remplacement de la plupart des développeurs par des agents d'IA devraient revoir leurs attentes, car les modèles ne sont pas assez performants en matière de débogage, et le débogage occupe la majeure partie du temps d'un développeur. C'est ce que suggère Microsoft Research, qui a créé un nouvel outil appelé debug-gym pour tester et améliorer la façon dont les modèles d'IA peuvent déboguer les logiciels.
Debug-gym (disponible sur GitHub et détaillé dans un billet de blog) est un environnement qui permet aux modèles d'IA d'essayer de déboguer n'importe quel dépôt de code existant en ayant accès à des outils de débogage qui ne font pas historiquement partie du processus pour ces modèles. Microsoft a constaté que sans cette approche, les modèles sont très mauvais dans les tâches de débogage. Avec cette approche, ils s'améliorent, mais sont encore loin de ce que peut faire un développeur humain expérimenté.
Voici comment les chercheurs de Microsoft décrivent debug-gym :
« Une question de recherche naturelle émerge : dans quelle mesure les LLM peuvent-ils utiliser des outils de débogage interactifs tels que pdb ? Pour explorer cette question, nous avons lancé debug-gym - un environnement qui permet aux agents de réparation de code d'accéder à des outils pour un comportement actif de recherche d'informations. Debug-gym élargit l'espace d'action et d'observation d'un agent grâce au retour d'information de l'utilisation des outils, ce qui permet de définir des points d'arrêt, de naviguer dans le code, d'imprimer des valeurs variables et de créer des fonctions de test. Les agents peuvent interagir avec les outils pour étudier le code ou le réécrire, s'ils ont confiance. Nous pensons que le débogage interactif avec des outils appropriés peut permettre aux agents de codage de s'attaquer à des tâches réelles de génie logiciel et qu'il est au cœur de la recherche sur les agents basée sur le LLM. Les corrections proposées par un agent de codage doté de capacités de débogage, puis approuvées par un programmeur humain, seront fondées sur le contexte de la base de code, de l'exécution du programme et de la documentation, plutôt que de s'appuyer uniquement sur des suppositions basées sur des données d'entraînement vues précédemment ».
Vous trouverez ci-dessous les résultats des tests effectués avec debug-gym.
Pièce jointe 666488
Les agents qui utilisent des outils de débogage sont nettement plus performants que ceux qui n'en utilisent pas, mais leur taux de réussite n'est pas encore assez élevé
Une approche efficace mais qui souligne les limites de l'outil
Cette approche est beaucoup plus efficace que celle qui consiste à s'appuyer sur les modèles tels qu'ils sont habituellement utilisés, mais lorsque votre meilleur cas est un taux de réussite de 48,4 %, vous n'êtes pas prêt pour le primetime. Les limites sont probablement dues au fait que les modèles ne comprennent pas parfaitement comment utiliser au mieux les outils et que leurs données d'entraînement actuelles ne sont pas adaptées à ce cas d'utilisation.
« Nous pensons que cela est dû à la rareté des données représentant un comportement décisionnel séquentiel (par exemple, les traces de débogage) dans le corpus d'entraînement LLM actuel », indique le billet de blog. « Cependant, l'amélioration significative des performances... valide le fait qu'il s'agit d'une direction de recherche prometteuse ».
Ce rapport initial n'est que le début des efforts, affirme le billet. L'étape suivante consiste à « affiner un modèle de recherche d'informations spécialisé dans la collecte des informations nécessaires à la résolution des bogues ». Si le modèle est volumineux, la meilleure solution pour réduire les coûts d'inférence pourrait être de « construire un modèle de recherche d'informations plus petit qui puisse fournir des informations pertinentes au modèle plus important ».
Ce n'est pas la première fois que nous voyons des résultats qui suggèrent que certaines des idées ambitieuses sur les agents d'IA remplaçant directement les développeurs sont assez éloignées de la réalité. De nombreuses études ont déjà montré que même si un outil d'IA peut parfois créer une application qui semble acceptable à l'utilisateur pour une tâche précise, les modèles ont tendance à produire un code chargé de bogues et de vulnérabilités de sécurité, et ils ne sont généralement pas capables de résoudre ces problèmes.
Il s'agit d'une première étape sur la voie des agents de codage IA, mais la plupart des chercheurs s'accordent à dire que le meilleur résultat sera probablement un agent qui fera gagner beaucoup de temps à un développeur humain, et non un agent capable de faire tout ce qu'il peut faire.
L'IA est en train de créer une génération de programmeurs illettrés
C'est le constat amer d'un développeur qui raconte son expérience avec l'IA. Voici un extrait de son billet :
Il y a de cela quelques jours, Cursor est tombé en panne lors d'un arrêt de ChatGPT.
J'ai regardé fixement mon terminal, faisant face à ces messages d'erreur rouges que je déteste voir. Une erreur AWS est apparue. Je ne voulais pas la résoudre sans l'aide de l'intelligence artificielle (IA).
Après 12 ans de codage, j'étais devenu plus mauvais dans mon propre métier. Et ce n'est pas une hyperbole : c'est la nouvelle réalité des développeurs logiciels.
La décrépitude
Elle s'est insinuée subtilement en moi.
Tout d'abord, j'ai cessé de lire la documentation. Pourquoi s'embêter quand l'IA pouvait expliquer les choses instantanément ?
Ensuite, mes compétences en matière de débogage en ont pris un coup. Les traces de pile me semblent désormais inaccessibles sans l'IA. Je ne lis même plus les messages d'erreur, je me contente de les copier et de les coller.
Je suis devenu un presse-papier humain, un simple intermédiaire entre mon code et un LLM.
Auparavant, chaque message d'erreur m'apprenait quelque chose. Aujourd'hui ? La solution apparaît comme par magie et je n'apprends rien. La dopamine des réponses instantanées a remplacé la satisfaction d'une véritable compréhension.
La compréhension en profondeur est la prochaine chose qui a été affectée. Vous vous souvenez avoir passé des heures à comprendre pourquoi une solution fonctionne ? Aujourd'hui, je me contente d'appliquer les suggestions de l'IA. Si elles ne fonctionnent pas, j'améliore le contexte et je demande à nouveau à l'IA. C'est un cycle de dépendance croissante.
Viennent ensuite les changements émotionnels. Auparavant, la résolution de nouveaux problèmes faisait partie du plaisir de programmer. Maintenant, je suis frustré si l'IA ne me donne pas de solution en 5 minutes.
Le plus effrayant ? Je suis en train de construire un outil de développement alimenté par l'IA, mais je ne peux pas me débarrasser du sentiment que je contribue au problème même qui érode nos compétences collectives.
Source : Microsoft
Et vous ?
:fleche: Que pensez-vous de cette étude de Microsoft ? Vous semble-t-elle pertinente ou crédible ?
:fleche: Faut-il ralentir l’intégration de l’IA dans le développement logiciel sans garde-fous humains ?
:fleche: Les éditeurs d’EDI devraient-ils imposer des alertes de « confiance faible » dans les suggestions IA ?
:fleche: Peut-on entraîner des IA réellement performantes en débogage sans accès à des millions d’exemples de sessions humaines ?
:fleche: Le débogage est-il une compétence inimitable par les LLM, ou juste une question de data et de calcul ?
:fleche: Comment sensibiliser les jeunes développeurs aux limites actuelles de ces outils, dans un contexte où ils sont omniprésents dans les formations ?
1 pièce(s) jointe(s)
Le PDG de GitHub affirme que savoir coder manuellement reste une compétence irremplaçable
Au-delà de la génération de code par l'IA : malgré l’essor fulgurant des IA comme Copilot ou ChatGPT dans le développement logiciel,
le PDG de GitHub affirme que savoir coder manuellement reste une compétence irremplaçable
À l’heure où les outils d’intelligence artificielle révolutionnent le développement logiciel, le PDG de GitHub, Thomas Dohmke, prend le contre-pied d’un enthousiasme parfois excessif. Dans une série d’interventions récentes, notamment lors d’un passage dans le podcast The Mad, il a martelé un message simple mais crucial : l’IA ne remplace pas la programmation manuelle. Selon lui, savoir coder reste une compétence indispensable à long terme, même dans un monde où GitHub Copilot ou ChatGPT peuvent générer du code à la volée. Ce positionnement soulève un débat plus large : faut-il encore apprendre à coder à la main quand l’IA peut le faire à notre place ? Pour Thomas Dohmke, la réponse est clairement oui. Et il le justifie avec des arguments qui méritent un examen attentif.
Depuis l’introduction de GitHub Copilot en 2021, le développement assisté par IA a connu une progression fulgurante. En quelques lignes de commande ou requêtes en langage naturel, les développeurs peuvent générer des fonctions, corriger des bugs ou même créer des applications entières. Cette assistance a permis :
- Une réduction significative du temps de développement.
- Une accélération du prototypage.
- Une meilleure accessibilité au code pour les débutants et les profils non techniques.
Cependant, Dohmke met en garde contre une forme de paresse cognitive qui pourrait se développer. Utiliser uniquement l’IA sans comprendre le code généré est risqué, car cela revient à manipuler des mécanismes dont on ignore les fondements. Il cite notamment le phénomène du « vibe coding » (coder par intuition via IA sans réelle compréhension) comme une tendance dangereuse pour la qualité des logiciels.
Les avantages du codage manuel à l’ère de l’IA
Thomas Dohmke insiste sur le fait que l’apprentissage du code reste la clé pour bien utiliser l’IA. Selon lui, l'IA ne doit pas être vue comme une béquille, mais comme une extension des compétences humaines. Voici pourquoi le codage manuel reste crucial :
- Compréhension profonde des systèmes : écrire soi-même du code permet de saisir les subtilités des langages, des algorithmes, de la logique métier et des architectures logicielles.
- Capacité d’adaptation : aucun outil d’IA ne peut encore anticiper tous les contextes d’utilisation, les besoins métier spécifiques ou les imprévus techniques. L’humain reste maître de l’adaptation et de la personnalisation.
- Contrôle qualité : les IA peuvent générer du code erroné, inefficace ou vulnérable. Savoir lire, corriger et optimiser ce code est indispensable pour garantir la sécurité et la performance.
- Créativité et innovation : l’IA suggère, mais ne crée pas. Les idées nouvelles, les approches inédites, les expérimentations techniques viennent toujours de l’humain.
Les limites de l’IA : entre illusion d’autonomie et dépendance accrue
Bien que l’IA ait démontré sa puissance, ses limites sont encore nombreuses :
- Manque de contexte : une IA ne comprend pas toujours l’objectif global d’un projet. Elle peut générer un code fonctionnel localement, mais inadéquat dans l’ensemble du système.
- Biais dans les suggestions : les modèles sont formés sur du code existant, parfois obsolète ou non optimal. Cela peut renforcer de mauvaises pratiques.
- Sécurité insuffisante : le code généré peut introduire des failles si l’utilisateur ne le vérifie pas attentivement.
- Risques de désapprentissage : chez les développeurs débutants, l’usage intensif de l’IA peut entraver l’apprentissage des bases essentielles (structures de données, complexité algorithmique, etc.).
Dohmke insiste donc : même dans une startup où l’IA permet de développer un MVP rapidement, il faut à terme des développeurs expérimentés pour soutenir l’évolution du produit, assurer sa stabilité et répondre aux attentes des investisseurs.
Faut-il alors bannir l’IA du développement ?
Absolument pas. Thomas Dohmke est le premier à reconnaître l’apport immense de l’IA au développement logiciel. En tant que PDG de GitHub, il est bien placé pour défendre son efficacité. Mais il souhaite instaurer une culture de complémentarité entre humain et machine. Pour lui, l’IA doit rester un assistant, pas un remplaçant. Elle booste la productivité, facilite les tâches répétitives, suggère des idées, mais elle ne comprend pas les objectifs métier, ne pense pas en termes d’expérience utilisateur, et ne porte pas de vision produit.
En clair, l'assertion de Dohmke n'est pas un rejet de l'IA, mais une reconnaissance de la complexité intrinsèque du développement logiciel. Bien que les modèles d'IA puissent générer des extraits de code, voire des fonctions entières, leur compréhension est souvent superficielle. Un programmeur humain, en revanche, ne se contente pas d'écrire des lignes de code ; il conçoit des architectures, anticipe des problèmes, optimise des performances et résout des bugs complexes. C'est cette capacité de pensée critique, de raisonnement abstrait et de résolution de problèmes non triviaux qui distingue le développeur humain. La maîtrise du codage manuel permet non seulement de comprendre ce que l'IA produit, mais aussi de le déboguer, de le modifier et de l'adapter aux exigences uniques d'un projet, souvent implicites ou difficiles à formaliser pour une machine.
Loin d'imaginer un futur où l'IA prend les rênes, Thomas Dohmke promeut une symbiose entre l'intelligence artificielle et l'intelligence humaine. Pour lui, l'IA doit servir de copilote, assistant le développeur dans des tâches répétitives ou pour générer des ébauches rapides. Il envisage un scénario idéal où l'IA génère du code, qui est ensuite soumis sous forme de « pull requests » – une pratique courante dans le développement collaboratif. Cela permet aux programmeurs humains de passer en revue le code, d'apporter des ajustements précis, d'intégrer des nuances contextuelles et de garantir la qualité et la sécurité du logiciel final. Cette approche garantit que la créativité, l'intuition et la profonde compréhension du domaine métier, apanages de l'humain, restent au cœur du processus de création.
Les pièges de la dépendance excessive à l'IA
Dohmke met également en garde contre le danger d'une dépendance excessive à l'égard des outils d'IA. Bien qu'ils puissent accélérer certaines phases de développement, se fier aveuglément à l'IA sans une compréhension sous-jacente du code peut entraîner des inefficacités inattendues. Tenter de corriger une erreur simple en la décrivant à une IA peut s'avérer plus long et plus frustrant que de modifier directement le code. Cette « surcharge cognitive » liée à la reformulation de problèmes simples en langage naturel peut briser le flux de travail d'un développeur et nuire à sa productivité. L'objectif n'est pas de déléguer la pensée, mais d'augmenter les capacités humaines.
« La pire alternative est d'essayer de comprendre comment fournir un retour d'information ou une invitation à décrire en langage naturel ce que je sais déjà faire en langage de programmation », a-t-il déclaré, soulignant la valeur de l'intuition du développeur.
L'IA est en train de créer une génération de programmeurs illettrés
Un développeur a partagé son témoignage :
Citation:
Il y a de cela quelques jours, Cursor est tombé en panne lors d'un arrêt de ChatGPT. J'ai regardé fixement mon terminal, faisant face à ces messages d'erreur rouges que je déteste voir. Une erreur AWS est apparue. Je ne voulais pas la résoudre sans l'aide de l'intelligence artificielle (IA). Après 12 ans de codage, j'étais devenu plus mauvais dans mon propre métier. Et ce n'est pas une hyperbole : c'est la nouvelle réalité des développeurs logiciels.
La situation qu'il a décrite s'est installée progressivement :
« Tout d'abord, j'ai cessé de lire la documentation. Pourquoi s'embêter quand l'IA pouvait expliquer les choses instantanément ? Ensuite, mes compétences en matière de débogage en ont pris un coup. Les traces de pile me semblent désormais inaccessibles sans l'IA. Je ne lis même plus les messages d'erreur, je me contente de les copier et de les coller.
« Je suis devenu un presse-papier humain, un simple intermédiaire entre mon code et un LLM.
« Auparavant, chaque message d'erreur m'apprenait quelque chose. Aujourd'hui ? La solution apparaît comme par magie et je n'apprends rien. La dopamine des réponses instantanées a remplacé la satisfaction d'une véritable compréhension.
« La compréhension en profondeur est la prochaine chose qui a été affectée. Vous vous souvenez avoir passé des heures à comprendre pourquoi une solution fonctionne ? Aujourd'hui, je me contente d'appliquer les suggestions de l'IA. Si elles ne fonctionnent pas, j'améliore le contexte et je demande à nouveau à l'IA. C'est un cycle de dépendance croissante.
« Viennent ensuite les changements émotionnels. Auparavant, la résolution de nouveaux problèmes faisait partie du plaisir de programmer. Maintenant, je suis frustré si l'IA ne me donne pas de solution en 5 minutes ».
Le codage avec l'IA nécessite toujours une touche humaine
Les réflexions de Dohmke font écho à un consensus croissant dans le monde de la technologie : l'IA doit être utilisée comme un outil complémentaire, et non comme un substitut à part entière. Une étude de Deloitte renforce ce point de vue en montrant que la plupart des développeurs utilisent l'IA pour automatiser les tâches répétitives, comme l'écriture de codes standard, tout en continuant à s'appuyer sur la supervision humaine pour garantir la qualité et l'exactitude des données. Ce modèle de collaboration peut améliorer la productivité de manière modeste mais significative, jusqu'à 20 minutes par jour.
Le concept de « confiance et vérification » s'est imposé car le code généré par l'IA, bien qu'impressionnant, contient souvent des erreurs subtiles. Environ la moitié de ces échantillons de code doivent être corrigés par un développeur, ce qui souligne pourquoi une révision humaine reste indispensable. Même les entreprises à la pointe du développement de l'IA, comme Google, indiquent que plus d'un quart de leur base de code provient désormais de systèmes d'IA. Pourtant, chaque ligne est toujours soumise à un examen rigoureux de la part des ingénieurs.
Source : interview du PDG de GitHub (vidéo dans le texte)
Et vous ?
:fleche: Que pensez-vous des propos du PDG de GitHub ? Partagez-vous son point de vue ? Dans quelle mesure ?
:fleche: L’intelligence artificielle va-t-elle vraiment remplacer les développeurs ou simplement transformer leur métier ?
:fleche: Peut-on encore parler de “savoir coder” si l’on se contente d’écrire des prompts à une IA ?
:fleche: Faut-il enseigner le code différemment à la génération Copilot/ChatGPT ?
:fleche: L’IA peut-elle comprendre l’intention métier derrière une ligne de code comme un humain le ferait ?
:fleche: À quel moment devient-on trop dépendant de l’IA dans son travail de développeur ?
:fleche: Les écoles doivent-elles prioriser l’apprentissage du code “à la main” ou se concentrer sur l’usage des outils IA ?
:fleche: Est-ce que l’usage intensif de Copilot chez les débutants risque de nuire à la compréhension des bases ?
:fleche: Comment éviter que les nouvelles générations de développeurs deviennent de simples “opérateurs de prompts” ?
Le PDG de GitHub affirme que les entreprises qui adoptent l'IA embaucheront davantage de développeurs humains
Le PDG de GitHub, Thomas Dohmke, affirme que les entreprises qui tirent le meilleur parti de l'IA ne l'utiliseront pas pour remplacer les développeurs humains, mais embaucheront plutôt davantage de personnel
Alors que l'intelligence artificielle (IA) ne cesse de progresser, Thomas Dohmke, le PDG de GitHub, affirme que les entreprises qui l'adoptent sont plus susceptibles d'agrandir leurs équipes de développement que de les réduire, afin de tirer parti des gains de productivité générés par l'IA. S'exprimant lors d'un récent podcast, le PDG a souligné le rôle de l'IA dans l'amélioration de la productivité des développeurs, insistant sur son potentiel transformateur, malgré les récentes suppressions d'emplois dans les grandes entreprises technologiques.
Thomas Dohmke soutient depuis longtemps que l'IA ne réduira pas le besoin de développeurs. Déjà en 2023, il a souligné lors d'une conférence que, malgré les avancées de l'IA, la demande de développeurs de logiciels continuerait de dépasser l'offre. Mettant en avant les outils d'assistance aux développeurs de GitHub, comme Copilot et Copilot Chat, Dohmke a affirmé que ces technologies visaient à aider les programmeurs à rationaliser leurs flux de travail, et non à rendre l'expertise humaine obsolète.
Lors de son récent passage dans le podcast Silicon Valley Girl, Thomas Dohmke a déclaré : « Les entreprises les plus intelligentes vont embaucher davantage de développeurs. Car si vous multipliez par 10 les capacités d'un seul développeur, alors 10 développeurs peuvent faire 100 fois plus. »
Les remarques du PDG de GitHub interviennent dans un contexte de débat intense sur la question de savoir si l'IA va remplacer les travailleurs humains. Selon plusieurs rapports, plus de 100 000 emplois ont déjà été supprimés par les grandes entreprises technologiques, notamment Intel, Google et Microsoft, depuis le début de l'année. Bon nombre de ces entreprises ont invoqué le ralentissement de la croissance, l'augmentation des coûts opérationnels et un changement stratégique vers l'IA et l'automatisation pour justifier ces licenciements.
Apprentissage facile
Selon Thomas Dohmke, l'IA réduit les obstacles à l'apprentissage de la programmation tout en augmentant la productivité des développeurs expérimentés. Ce changement, dit-il, permet à davantage de personnes d'apprendre et d'appliquer des compétences en codage d'une manière qui était auparavant hors de leur portée.
« Le plus frustrant quand on apprend quelque chose, c'est de se retrouver bloqué à un moment donné et de ne trouver personne à la maison, dans sa famille ou parmi ses amis qui puisse nous aider, car personne n'a de connaissances techniques. C'est ce que nous voulons dire quand nous affirmons que l'IA démocratise l'accès à la programmation. Tous ceux qui souhaitent l'apprendre peuvent le faire », explique Thomas Dohmke.
Besoin de professionnels
Malgré cette accessibilité croissante, Thomas Dohmke a déclaré que les entreprises auront toujours besoin de professionnels possédant une solide expertise technique pour tirer le meilleur parti des outils d'IA. Si l'IA peut aider les particuliers à développer de petits projets personnels, la réussite d'une entreprise dépend toujours de connaissances plus approfondies.
« L'éventail sera beaucoup plus large, allant des développeurs amateurs qui créent leurs propres micro-applications aux développeurs professionnels qui conçoivent des systèmes d'IA avancés », a-t-il déclaré.
Thomas Dohmke a ajouté que se fier uniquement à l'IA sans aucune connaissance en codage pour développer une grande entreprise était une hypothèse erronée. « Car si c'était le cas, tout le monde le ferait. »
Bien que certaines entreprises technologiques aient ralenti leurs embauches, voire réduit leurs effectifs, tout en adoptant l'IA, Thomas Dohmke estime qu'il s'agit d'une tendance à court terme. Il s'attend à ce que de nombreuses entreprises reconnaissent bientôt les avantages d'investir dans davantage de développeurs.
« Je pense qu'il s'agit d'un effet temporaire pour l'instant. C'est la conclusion naturelle à court terme : nous maintenons la stabilité et nous essayons de comprendre comment le marché évolue. Mais très rapidement, je pense que nous allons voir des gens dire : "Attendez une seconde, si j'ai un développeur productif de plus, pourquoi ne pas en embaucher un autre, puis un autre ?" », a déclaré Thomas Dohmke.
Même si l'IA accélère la productivité des développeurs, Thomas Dohmke affirme n'avoir vu aucune entreprise déclarer ne plus avoir besoin de leurs services. Au contraire, l'IA semble augmenter le volume de travail traité par les équipes de développement.
« L'IA a déjà ajouté davantage de travail aux backlogs. Je n'ai vu aucune entreprise déclarer : "Nous avons rattrapé tous nos retards et il ne nous reste presque plus rien à faire" », a ajouté le PDG de GitHub.
En outre, Thomas Dohmke a insisté sur le fait que savoir coder manuellement restait une compétence irremplaçable, même dans un environnement axé sur l'IA. Lors de son intervention dans le podcast The Mad, le PDG de GitHub a rejeté l'idée que le code généré par l'IA rendrait les compétences manuelles superflues, estimant au contraire que les connaissances fondamentales en programmation sont essentielles pour réussir à long terme dans ce domaine.
Source : Thomas Dohmke, PDG de GitHub, s'exprimant dans le podcast Silicon Valley Girl
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Trouvez-vous la position du PDG de GitHub crédible ou pertinente ?
Voir aussi :
:fleche: Le PDG de GitHub explique pourquoi les développeurs de logiciels libres devraient être exemptés de la loi européenne sur l'IA, ajoutant que cela pourrait aider l'UE à devenir le leader du secteur
:fleche: L'IA remplacera-t-elle les développeurs juniors ? Un ancien ingénieur de Google répond par l'affirmative, mais cela interroge sur ce qui se passera lorsque les développeurs séniors partiront à la retraite
:fleche: Le PDG de GitHub, propriété de Microsoft, déclare que le licenciement de 80 % de son personnel basé en Inde est dû aux facteurs économiques qui ont affecté l'équipe et non à une réflexion sur le pays lui-même
Vers une évolution du métier de développeur
Ce message a été posté en 2023 et 2 ans après, on est encore loin de cette idée d’autonomie totale de l’IA en termes de programmation. On verra d’ici 5 ans ma foi …
“systèmes capables d’écrire du code et de le maintenir sans intervention humaine. Ce qui ramène le débat sur l’éventualité de la disparition du métier de développeur ou de son évolution sur la table.”
Cette question revient sans cesse dans le monde IT et en tant que webmarketer entourée de développeurs au quotidien, je pense que le métier est bel et bien amené à évoluer d’une manière ou d’une autre. Certains s’imaginent travailler uniquement sur des projets IA dans le futur tandis que d’autres insistent sur le fait que l’intervention humaine sera toujours nécessaire.
“entre deux et quatre heures par jour sont consacrées à l'écriture du code. Le reste de la journée, ils font d'autres choses, comme des réunions, des rapports de crash.”
De ce que j’ai pu observer, ils ne font que coder haha Après cela dépend des tâches attribuées à chacun. Oui il y a bien des résolutions d’erreurs et des réunions mais de là à dire qu’ils codent 2h par jour …
Êtes-vous d’accord avec les avis selon lesquels ce n’est qu’une question de temps avant que l’intelligence artificielle ne s’accapare tous les postes de développeur informatique ?
J’ai traité ce sujet il n’y a pas longtemps si jamais ça intéresse quelqu’un. Les missions du développeur vont évoluer c’est certain. Laissons au moins quelques années à l’IA avant de paniquer parce que mine de rien, certains clients préfèrent faire confiance aux capacités et compétences d’un professionnel plutôt qu’une machine avec des connaissances encore limitées/machine learning.
C'est la direction qui est incompétente
Ce ne sont pas les programmeurs mais les décideurs qu'il faudrait congédier. Dans les entreprises, ce sont les travailleurs qui font le vrai travail, la haute direction est peuplée d'imposteurs qui font n'importe quoi. Il suffit d'observer l'état de la situation mondiale pour le constater. Le problème ne vient pas d'en bas, il vient d'en haut. Pas besoin d'être un génie pour s'en rendre compte.