IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Le PDG de GitHub affirme que savoir coder manuellement reste une compétence irremplaçable


Sujet :

Intelligence artificielle

  1. #81
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 491
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 491
    Par défaut L'IA n'est pas prête à remplacer les développeurs humains pour le débogage, selon des chercheurs de Microsoft
    L'IA n'est pas prête à remplacer les développeurs humains pour le débogage, selon des chercheurs de Microsoft
    Les agents d'IA ne peuvent pas déboguer les logiciels de manière fiable même lorsqu'ils ont accès à des outils

    Alors que les modèles d’intelligence artificielle générative comme ChatGPT, Claude, Gemini ou CodeWhisperer font déjà figure d’assistants prometteurs pour l’écriture de code, une nouvelle étude menée par des chercheurs de Microsoft met un sérieux bémol à l’enthousiasme ambiant : l’IA n’est pas encore à la hauteur lorsqu’il s’agit de déboguer efficacement du code réel.

    La prolifération continue des outils de codage de l'IA ne stimule pas seulement l'efficacité des développeurs, elle signale également un avenir où l'IA générera une part croissante de tout nouveau code. Thomas Dohmke, PDG de GitHub, l'a prédit en 2023, lorsqu'il a déclaré que « tôt ou tard, 80 % du code sera écrit par Copilot ».

    Les petites et grandes entreprises de logiciels utilisent déjà largement l'IA pour générer du code. Garry Tan, de Y Combinator, a noté que 95 % du code d'un quart des dernières start-ups de Y Combinator était écrit par de grands modèles de langage.

    En fait, selon Microsoft, la plupart des développeurs passent la majeure partie de leur temps à déboguer le code, et non à l'écrire. Des chercheurs de son écurie déclare d'ailleurs :

    « En tant que mainteneurs de dépôts de logiciels libres populaires, nous nous sentons concernés par ce constat. Mais que se passerait-il si un outil d'IA pouvait proposer des correctifs pour des centaines de problèmes ouverts, et si nous n'avions qu'à les approuver avant de les fusionner ? C'est ce qui nous a incités à maximiser les gains de temps potentiels des outils de codage IA en leur apprenant à déboguer le code.

    « Par débogage, nous entendons le processus interactif et itératif de correction du code. Les développeurs émettent généralement des hypothèses sur la raison du plantage de leur code, puis rassemblent des preuves en parcourant le programme et en examinant les valeurs des variables. Ils utilisent souvent des outils de débogage tels que pdb (débogueur Python) pour les aider à recueillir des informations. Ce processus est répété jusqu'à ce que le code soit corrigé.

    « Les outils de codage IA d'aujourd'hui stimulent la productivité et excellent à suggérer des solutions aux bogues sur la base du code disponible et des messages d'erreur. Cependant, contrairement aux développeurs humains, ces outils ne recherchent pas d'informations supplémentaires lorsque les solutions échouent, ce qui laisse certains bogues sans réponse, comme vous pouvez le voir dans cette démonstration simple qui montre comment une colonne mal étiquetée fait échouer les outils de codage d'aujourd'hui. Les utilisateurs peuvent ainsi avoir l'impression que les outils de codage de l'IA ne comprennent pas tout le contexte des problèmes qu'ils tentent de résoudre ».

    Nom : un.png
Affichages : 24145
Taille : 49,7 Ko

    Debug-gym : un environnement pour les outils de codage de l'IA afin d'apprendre à déboguer le code comme des programmeurs

    Il existe peu de domaines dans lesquels l'IA a été déployée de manière aussi robuste que dans celui du développement de logiciels. Du « vibe coding » (une nouvelle pratique dans laquelle des personnes, dont certaines ont une expérience limitée du codage, développent rapidement des logiciels à l'aide d'outils de codage assistés par l'IA, sans se préoccuper de l'efficacité du code tant qu'il est fonctionnel) à GitHub Copilot, en passant par les startups qui créent des applications rapides avec l'aide de LLM, l'IA est déjà profondément intégrée. Même Google a déclaré avoir généré 25% de son code par IA.

    Toutefois, ceux qui prétendent que nous ne sommes qu'à quelques mois du remplacement de la plupart des développeurs par des agents d'IA devraient revoir leurs attentes, car les modèles ne sont pas assez performants en matière de débogage, et le débogage occupe la majeure partie du temps d'un développeur. C'est ce que suggère Microsoft Research, qui a créé un nouvel outil appelé debug-gym pour tester et améliorer la façon dont les modèles d'IA peuvent déboguer les logiciels.

    Debug-gym (disponible sur GitHub et détaillé dans un billet de blog) est un environnement qui permet aux modèles d'IA d'essayer de déboguer n'importe quel dépôt de code existant en ayant accès à des outils de débogage qui ne font pas historiquement partie du processus pour ces modèles. Microsoft a constaté que sans cette approche, les modèles sont très mauvais dans les tâches de débogage. Avec cette approche, ils s'améliorent, mais sont encore loin de ce que peut faire un développeur humain expérimenté.

    Voici comment les chercheurs de Microsoft décrivent debug-gym :

    « Une question de recherche naturelle émerge : dans quelle mesure les LLM peuvent-ils utiliser des outils de débogage interactifs tels que pdb ? Pour explorer cette question, nous avons lancé debug-gym - un environnement qui permet aux agents de réparation de code d'accéder à des outils pour un comportement actif de recherche d'informations. Debug-gym élargit l'espace d'action et d'observation d'un agent grâce au retour d'information de l'utilisation des outils, ce qui permet de définir des points d'arrêt, de naviguer dans le code, d'imprimer des valeurs variables et de créer des fonctions de test. Les agents peuvent interagir avec les outils pour étudier le code ou le réécrire, s'ils ont confiance. Nous pensons que le débogage interactif avec des outils appropriés peut permettre aux agents de codage de s'attaquer à des tâches réelles de génie logiciel et qu'il est au cœur de la recherche sur les agents basée sur le LLM. Les corrections proposées par un agent de codage doté de capacités de débogage, puis approuvées par un programmeur humain, seront fondées sur le contexte de la base de code, de l'exécution du programme et de la documentation, plutôt que de s'appuyer uniquement sur des suppositions basées sur des données d'entraînement vues précédemment ».

    Vous trouverez ci-dessous les résultats des tests effectués avec debug-gym.

    Nom : deux.png
Affichages : 4638
Taille : 39,8 Ko
    Les agents qui utilisent des outils de débogage sont nettement plus performants que ceux qui n'en utilisent pas, mais leur taux de réussite n'est pas encore assez élevé

    Une approche efficace mais qui souligne les limites de l'outil

    Cette approche est beaucoup plus efficace que celle qui consiste à s'appuyer sur les modèles tels qu'ils sont habituellement utilisés, mais lorsque votre meilleur cas est un taux de réussite de 48,4 %, vous n'êtes pas prêt pour le primetime. Les limites sont probablement dues au fait que les modèles ne comprennent pas parfaitement comment utiliser au mieux les outils et que leurs données d'entraînement actuelles ne sont pas adaptées à ce cas d'utilisation.

    « Nous pensons que cela est dû à la rareté des données représentant un comportement décisionnel séquentiel (par exemple, les traces de débogage) dans le corpus d'entraînement LLM actuel », indique le billet de blog. « Cependant, l'amélioration significative des performances... valide le fait qu'il s'agit d'une direction de recherche prometteuse ».

    Ce rapport initial n'est que le début des efforts, affirme le billet. L'étape suivante consiste à « affiner un modèle de recherche d'informations spécialisé dans la collecte des informations nécessaires à la résolution des bogues ». Si le modèle est volumineux, la meilleure solution pour réduire les coûts d'inférence pourrait être de « construire un modèle de recherche d'informations plus petit qui puisse fournir des informations pertinentes au modèle plus important ».

    Ce n'est pas la première fois que nous voyons des résultats qui suggèrent que certaines des idées ambitieuses sur les agents d'IA remplaçant directement les développeurs sont assez éloignées de la réalité. De nombreuses études ont déjà montré que même si un outil d'IA peut parfois créer une application qui semble acceptable à l'utilisateur pour une tâche précise, les modèles ont tendance à produire un code chargé de bogues et de vulnérabilités de sécurité, et ils ne sont généralement pas capables de résoudre ces problèmes.

    Il s'agit d'une première étape sur la voie des agents de codage IA, mais la plupart des chercheurs s'accordent à dire que le meilleur résultat sera probablement un agent qui fera gagner beaucoup de temps à un développeur humain, et non un agent capable de faire tout ce qu'il peut faire.

    Nom : trois.png
Affichages : 4041
Taille : 253,5 Ko

    L'IA est en train de créer une génération de programmeurs illettrés

    C'est le constat amer d'un développeur qui raconte son expérience avec l'IA. Voici un extrait de son billet :

    Il y a de cela quelques jours, Cursor est tombé en panne lors d'un arrêt de ChatGPT.

    J'ai regardé fixement mon terminal, faisant face à ces messages d'erreur rouges que je déteste voir. Une erreur AWS est apparue. Je ne voulais pas la résoudre sans l'aide de l'intelligence artificielle (IA).

    Après 12 ans de codage, j'étais devenu plus mauvais dans mon propre métier. Et ce n'est pas une hyperbole : c'est la nouvelle réalité des développeurs logiciels.

    La décrépitude

    Elle s'est insinuée subtilement en moi.

    Tout d'abord, j'ai cessé de lire la documentation. Pourquoi s'embêter quand l'IA pouvait expliquer les choses instantanément ?

    Ensuite, mes compétences en matière de débogage en ont pris un coup. Les traces de pile me semblent désormais inaccessibles sans l'IA. Je ne lis même plus les messages d'erreur, je me contente de les copier et de les coller.

    Je suis devenu un presse-papier humain, un simple intermédiaire entre mon code et un LLM.

    Auparavant, chaque message d'erreur m'apprenait quelque chose. Aujourd'hui ? La solution apparaît comme par magie et je n'apprends rien. La dopamine des réponses instantanées a remplacé la satisfaction d'une véritable compréhension.

    La compréhension en profondeur est la prochaine chose qui a été affectée. Vous vous souvenez avoir passé des heures à comprendre pourquoi une solution fonctionne ? Aujourd'hui, je me contente d'appliquer les suggestions de l'IA. Si elles ne fonctionnent pas, j'améliore le contexte et je demande à nouveau à l'IA. C'est un cycle de dépendance croissante.

    Viennent ensuite les changements émotionnels. Auparavant, la résolution de nouveaux problèmes faisait partie du plaisir de programmer. Maintenant, je suis frustré si l'IA ne me donne pas de solution en 5 minutes.

    Le plus effrayant ? Je suis en train de construire un outil de développement alimenté par l'IA, mais je ne peux pas me débarrasser du sentiment que je contribue au problème même qui érode nos compétences collectives.

    Source : Microsoft

    Et vous ?

    Que pensez-vous de cette étude de Microsoft ? Vous semble-t-elle pertinente ou crédible ?

    Faut-il ralentir l’intégration de l’IA dans le développement logiciel sans garde-fous humains ?

    Les éditeurs d’EDI devraient-ils imposer des alertes de « confiance faible » dans les suggestions IA ?

    Peut-on entraîner des IA réellement performantes en débogage sans accès à des millions d’exemples de sessions humaines ?

    Le débogage est-il une compétence inimitable par les LLM, ou juste une question de data et de calcul ?

    Comment sensibiliser les jeunes développeurs aux limites actuelles de ces outils, dans un contexte où ils sont omniprésents dans les formations ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #82
    Membre confirmé
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Février 2024
    Messages
    257
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Architecte réseau

    Informations forums :
    Inscription : Février 2024
    Messages : 257
    Par défaut
    L'IA, c'est le cancre qui a triché lors de l'examen en copiant sur son petit camarade sans réfléchir. Des fois le code marche, d'autres non.

  3. #83
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 491
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 491
    Par défaut Le PDG de GitHub affirme que savoir coder manuellement reste une compétence irremplaçable
    Au-delà de la génération de code par l'IA : malgré l’essor fulgurant des IA comme Copilot ou ChatGPT dans le développement logiciel,
    le PDG de GitHub affirme que savoir coder manuellement reste une compétence irremplaçable

    À l’heure où les outils d’intelligence artificielle révolutionnent le développement logiciel, le PDG de GitHub, Thomas Dohmke, prend le contre-pied d’un enthousiasme parfois excessif. Dans une série d’interventions récentes, notamment lors d’un passage dans le podcast The Mad, il a martelé un message simple mais crucial : l’IA ne remplace pas la programmation manuelle. Selon lui, savoir coder reste une compétence indispensable à long terme, même dans un monde où GitHub Copilot ou ChatGPT peuvent générer du code à la volée. Ce positionnement soulève un débat plus large : faut-il encore apprendre à coder à la main quand l’IA peut le faire à notre place ? Pour Thomas Dohmke, la réponse est clairement oui. Et il le justifie avec des arguments qui méritent un examen attentif.

    Depuis l’introduction de GitHub Copilot en 2021, le développement assisté par IA a connu une progression fulgurante. En quelques lignes de commande ou requêtes en langage naturel, les développeurs peuvent générer des fonctions, corriger des bugs ou même créer des applications entières. Cette assistance a permis :
    • Une réduction significative du temps de développement.
    • Une accélération du prototypage.
    • Une meilleure accessibilité au code pour les débutants et les profils non techniques.

    Cependant, Dohmke met en garde contre une forme de paresse cognitive qui pourrait se développer. Utiliser uniquement l’IA sans comprendre le code généré est risqué, car cela revient à manipuler des mécanismes dont on ignore les fondements. Il cite notamment le phénomène du « vibe coding » (coder par intuition via IA sans réelle compréhension) comme une tendance dangereuse pour la qualité des logiciels.

    Les avantages du codage manuel à l’ère de l’IA

    Thomas Dohmke insiste sur le fait que l’apprentissage du code reste la clé pour bien utiliser l’IA. Selon lui, l'IA ne doit pas être vue comme une béquille, mais comme une extension des compétences humaines. Voici pourquoi le codage manuel reste crucial :
    • Compréhension profonde des systèmes : écrire soi-même du code permet de saisir les subtilités des langages, des algorithmes, de la logique métier et des architectures logicielles.
    • Capacité d’adaptation : aucun outil d’IA ne peut encore anticiper tous les contextes d’utilisation, les besoins métier spécifiques ou les imprévus techniques. L’humain reste maître de l’adaptation et de la personnalisation.
    • Contrôle qualité : les IA peuvent générer du code erroné, inefficace ou vulnérable. Savoir lire, corriger et optimiser ce code est indispensable pour garantir la sécurité et la performance.
    • Créativité et innovation : l’IA suggère, mais ne crée pas. Les idées nouvelles, les approches inédites, les expérimentations techniques viennent toujours de l’humain.

    Les limites de l’IA : entre illusion d’autonomie et dépendance accrue

    Bien que l’IA ait démontré sa puissance, ses limites sont encore nombreuses :
    • Manque de contexte : une IA ne comprend pas toujours l’objectif global d’un projet. Elle peut générer un code fonctionnel localement, mais inadéquat dans l’ensemble du système.
    • Biais dans les suggestions : les modèles sont formés sur du code existant, parfois obsolète ou non optimal. Cela peut renforcer de mauvaises pratiques.
    • Sécurité insuffisante : le code généré peut introduire des failles si l’utilisateur ne le vérifie pas attentivement.
    • Risques de désapprentissage : chez les développeurs débutants, l’usage intensif de l’IA peut entraver l’apprentissage des bases essentielles (structures de données, complexité algorithmique, etc.).

    Dohmke insiste donc : même dans une startup où l’IA permet de développer un MVP rapidement, il faut à terme des développeurs expérimentés pour soutenir l’évolution du produit, assurer sa stabilité et répondre aux attentes des investisseurs.

    Nom : intelligence.png
Affichages : 77672
Taille : 253,5 Ko

    Faut-il alors bannir l’IA du développement ?

    Absolument pas. Thomas Dohmke est le premier à reconnaître l’apport immense de l’IA au développement logiciel. En tant que PDG de GitHub, il est bien placé pour défendre son efficacité. Mais il souhaite instaurer une culture de complémentarité entre humain et machine. Pour lui, l’IA doit rester un assistant, pas un remplaçant. Elle booste la productivité, facilite les tâches répétitives, suggère des idées, mais elle ne comprend pas les objectifs métier, ne pense pas en termes d’expérience utilisateur, et ne porte pas de vision produit.

    En clair, l'assertion de Dohmke n'est pas un rejet de l'IA, mais une reconnaissance de la complexité intrinsèque du développement logiciel. Bien que les modèles d'IA puissent générer des extraits de code, voire des fonctions entières, leur compréhension est souvent superficielle. Un programmeur humain, en revanche, ne se contente pas d'écrire des lignes de code ; il conçoit des architectures, anticipe des problèmes, optimise des performances et résout des bugs complexes. C'est cette capacité de pensée critique, de raisonnement abstrait et de résolution de problèmes non triviaux qui distingue le développeur humain. La maîtrise du codage manuel permet non seulement de comprendre ce que l'IA produit, mais aussi de le déboguer, de le modifier et de l'adapter aux exigences uniques d'un projet, souvent implicites ou difficiles à formaliser pour une machine.

    Loin d'imaginer un futur où l'IA prend les rênes, Thomas Dohmke promeut une symbiose entre l'intelligence artificielle et l'intelligence humaine. Pour lui, l'IA doit servir de copilote, assistant le développeur dans des tâches répétitives ou pour générer des ébauches rapides. Il envisage un scénario idéal où l'IA génère du code, qui est ensuite soumis sous forme de « pull requests » – une pratique courante dans le développement collaboratif. Cela permet aux programmeurs humains de passer en revue le code, d'apporter des ajustements précis, d'intégrer des nuances contextuelles et de garantir la qualité et la sécurité du logiciel final. Cette approche garantit que la créativité, l'intuition et la profonde compréhension du domaine métier, apanages de l'humain, restent au cœur du processus de création.


    Les pièges de la dépendance excessive à l'IA

    Dohmke met également en garde contre le danger d'une dépendance excessive à l'égard des outils d'IA. Bien qu'ils puissent accélérer certaines phases de développement, se fier aveuglément à l'IA sans une compréhension sous-jacente du code peut entraîner des inefficacités inattendues. Tenter de corriger une erreur simple en la décrivant à une IA peut s'avérer plus long et plus frustrant que de modifier directement le code. Cette « surcharge cognitive » liée à la reformulation de problèmes simples en langage naturel peut briser le flux de travail d'un développeur et nuire à sa productivité. L'objectif n'est pas de déléguer la pensée, mais d'augmenter les capacités humaines.

    « La pire alternative est d'essayer de comprendre comment fournir un retour d'information ou une invitation à décrire en langage naturel ce que je sais déjà faire en langage de programmation », a-t-il déclaré, soulignant la valeur de l'intuition du développeur.

    L'IA est en train de créer une génération de programmeurs illettrés

    Un développeur a partagé son témoignage :

    Il y a de cela quelques jours, Cursor est tombé en panne lors d'un arrêt de ChatGPT. J'ai regardé fixement mon terminal, faisant face à ces messages d'erreur rouges que je déteste voir. Une erreur AWS est apparue. Je ne voulais pas la résoudre sans l'aide de l'intelligence artificielle (IA). Après 12 ans de codage, j'étais devenu plus mauvais dans mon propre métier. Et ce n'est pas une hyperbole : c'est la nouvelle réalité des développeurs logiciels.
    La situation qu'il a décrite s'est installée progressivement :

    « Tout d'abord, j'ai cessé de lire la documentation. Pourquoi s'embêter quand l'IA pouvait expliquer les choses instantanément ? Ensuite, mes compétences en matière de débogage en ont pris un coup. Les traces de pile me semblent désormais inaccessibles sans l'IA. Je ne lis même plus les messages d'erreur, je me contente de les copier et de les coller.

    « Je suis devenu un presse-papier humain, un simple intermédiaire entre mon code et un LLM.

    « Auparavant, chaque message d'erreur m'apprenait quelque chose. Aujourd'hui ? La solution apparaît comme par magie et je n'apprends rien. La dopamine des réponses instantanées a remplacé la satisfaction d'une véritable compréhension.

    « La compréhension en profondeur est la prochaine chose qui a été affectée. Vous vous souvenez avoir passé des heures à comprendre pourquoi une solution fonctionne ? Aujourd'hui, je me contente d'appliquer les suggestions de l'IA. Si elles ne fonctionnent pas, j'améliore le contexte et je demande à nouveau à l'IA. C'est un cycle de dépendance croissante.

    « Viennent ensuite les changements émotionnels. Auparavant, la résolution de nouveaux problèmes faisait partie du plaisir de programmer. Maintenant, je suis frustré si l'IA ne me donne pas de solution en 5 minutes ».

    Le codage avec l'IA nécessite toujours une touche humaine

    Les réflexions de Dohmke font écho à un consensus croissant dans le monde de la technologie : l'IA doit être utilisée comme un outil complémentaire, et non comme un substitut à part entière. Une étude de Deloitte renforce ce point de vue en montrant que la plupart des développeurs utilisent l'IA pour automatiser les tâches répétitives, comme l'écriture de codes standard, tout en continuant à s'appuyer sur la supervision humaine pour garantir la qualité et l'exactitude des données. Ce modèle de collaboration peut améliorer la productivité de manière modeste mais significative, jusqu'à 20 minutes par jour.

    Le concept de « confiance et vérification » s'est imposé car le code généré par l'IA, bien qu'impressionnant, contient souvent des erreurs subtiles. Environ la moitié de ces échantillons de code doivent être corrigés par un développeur, ce qui souligne pourquoi une révision humaine reste indispensable. Même les entreprises à la pointe du développement de l'IA, comme Google, indiquent que plus d'un quart de leur base de code provient désormais de systèmes d'IA. Pourtant, chaque ligne est toujours soumise à un examen rigoureux de la part des ingénieurs.

    Source : interview du PDG de GitHub (vidéo dans le texte)

    Et vous ?

    Que pensez-vous des propos du PDG de GitHub ? Partagez-vous son point de vue ? Dans quelle mesure ?

    L’intelligence artificielle va-t-elle vraiment remplacer les développeurs ou simplement transformer leur métier ?

    Peut-on encore parler de “savoir coder” si l’on se contente d’écrire des prompts à une IA ?

    Faut-il enseigner le code différemment à la génération Copilot/ChatGPT ?

    L’IA peut-elle comprendre l’intention métier derrière une ligne de code comme un humain le ferait ?

    À quel moment devient-on trop dépendant de l’IA dans son travail de développeur ?

    Les écoles doivent-elles prioriser l’apprentissage du code “à la main” ou se concentrer sur l’usage des outils IA ?

    Est-ce que l’usage intensif de Copilot chez les débutants risque de nuire à la compréhension des bases ?

    Comment éviter que les nouvelles générations de développeurs deviennent de simples “opérateurs de prompts” ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #84
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 302
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 302
    Billets dans le blog
    3
    Par défaut
    Si cela est vrai, la plupart des arguments ne tiennent qu'aujourd'hui. En dehors de la perte de maîtrise, le reste peut déjà être fait par l'IA dès lors qu'on utilise un modèle adapté avec un prompt et des outils adaptés :
    • Fournir un cahier des charges fonctionnel à une IA et lui demander de générer un cahier des charges techniques
    • Fournir un cahier des charges techniques à une IA et lui demander de rédiger des tests automatiques
    • Fournir une suite de test à une IA et lui demander de générer le code qui fait passer les tests
    • Fournir des exigences non fonctionelles à une IA et lui demander de lister des KPIs à implémenter
    • Fournir une liste de KPIs à implémenter à une IA et lui demander la marche à suivre pour les mettre en oeuvre
    • Fournir les KPIs et le code à une IA et lui demander les améliorations possibles
    • Etc.


    On pourrait probablement décomposer davantage, mais l'idée est que chacune des étapes de production est automatisable via l'IA. Si on n'a pas encore tous les bons modèles/prompts/outils pour faire ça facilement, cela reste possible avec les technos actuelles. Les limites de contexte et de résultats nécessitent de découper davantage et de revérifier plus souvent derrière, mais aucun doute qu'on finira par avoir des automatisations plus avancées. Il n'y a théoriquement pas de raison à ce que ça ne soit pas faisable.

    La perte de compétence est réelle si on compte trop dessus. Ce n'est pas spécifique à l'IA : la maîtrise vient avec la pratique, sans pratique la maîtrise au mieux fini par devenir obsolète, au pire se perd. Cette absence de pratique est à éviter tant qu'on n'a pas tous les outils pour tout automatiser. Cela dit, une fois qu'on les a, est-ce vraiment pertinent de maintenir ces compétences manuelles ? La qualité de code n'a d'intérêt que si un humain doit relire derrière. Si tout est généré par IA, on a juste besoin que ça compile, que les tests passent, et d'optimiser les ressources. Rien qui ne nécessite de regarder le code. Ce n'est qu'une suite logique dans le domaine du WYSIWYG. Rappelons-nous ces interfaces de drag & drop qui génèrent le code à notre place : ça marche bien tant qu'on n'a pas besoin d'aller retoucher le code généré, sinon il faut sortir l'aspirine.

    Je peux donc tout à fait envisager un futur où de vrais entreprises feront de vrais applications mais sans vrai développeurs, juste avec des prompt engineers, et ça suffira bien. Par contre on n'y est pas encore, et tant que ce n'est pas le cas on doit maintenir la compétence pour éviter que la qualité ne chute. Ne serait-ce que pour garder un minimum de qualité pour entrainer encore les modèles.

    Mais une fois qu'on aura ces outils, aurons-nous "envie" de compter sur eux ?
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  5. #85
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 038
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 038
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Je peux donc tout à fait envisager un futur où de vrais entreprises feront de vrais applications mais sans vrai développeurs, juste avec des prompt engineers, et ça suffira bien. Par contre on n'y est pas encore, et tant que ce n'est pas le cas on doit maintenir la compétence pour éviter que la qualité ne chute. Ne serait-ce que pour garder un minimum de qualité pour entrainer encore les modèles.

    Mais une fois qu'on aura ces outils, aurons-nous "envie" de compter sur eux ?
    mais qu'es ce qui créera de la data pour les modèles ?
    le monde du logiciel et vivant et évolue chaque jours.


    qui va mettre à jours le kernel linux à la version 7.0, qui va faire évoluer php vers php8, qui va coder python4, qui va faire évoluer le framework angular/react a la version n+1...
    pour les dev utilisant ces outils, comment une ia va savoir coder en python4/php8 ? si plus personne ne poste d'exemple sur stackoverflow ou de bug avec ces fix ?


    on peut imaginer une ia connecté à github comprenant directement le code des libs et apis, par exemple relier au code de spring boot à la dernière version, mais pour construire leurs llm bizarrement les boites ne s'entraine pas que la dessus...
    Pour avoir étudié la question, la ou les llms sont performante c'est en ayant des manuels scolaire comme datasource.
    les ia relié au code sont une vrai cata, l'ia qui relis les mr sur github c'est une grosse blague.

    Plus globalement les modeles commence déja à regresser/stagner tellement le web d'aujourd'hui a été pollué par ces memes llms.

    l'ia est forte pour recrée des choses existante tres courante dans la vie, mais bien incapable sur des trucs mal entrainé.
    J'ai un bon exemple avec le moteur panda3d en python, ca reste un moteur "peu" connu et peu utilisé dans le monde, j'ai essayé plusieurs ia (chatgpt, claude, gemini) elle est vraiment nul, la moitié du code marche pas, des fonctions qui existe pas, des imports faux...etc.
    Avec des trucs bien plus populaire, comme la lib numpy par contre nikel.
    j'ai meme tenté avec chatgpt pro de lui donner le code source du moteur panda3d histoire qu'il arrete de m'inventer des fonctions, mais c'était pas mieux, incapable de mettre les bons types.

    quand le code marche, incapable de bien coder une physique avec bullet, je lui ai demandé un truc basique comme faire sauter mon personnage a la touche espace, j'ai eu n'importe quoi.
    la gestion de la camera, incapable de me faire une vue fps/tps basique.

    pour les textures, c'est pas trop mal, par exemple je lui dmeande de me faire une décoration de fenetre style parchemin medieval, je ne suis pas graphiste et ca donne un bon résultat.
    pour les textures en boucle, comme de l'herbe ou du bois, c'est en dessous les libs de texture pbr gratuite.

    mais pour dessiner des "motifs elfiques" ou des petites decos inventés comme mes bordures de fenetre c'est bon.
    La France est un pays qui redistribue tout sauf de l'espoir.

  6. #86
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 302
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 302
    Billets dans le blog
    3
    Par défaut
    Je n'ai pas dis toutes les entreprises. Déjà, tout ce qui est de l'ordre de l'innovation est peu adapté, vu que l'IA construit sur ce qu'elle connaît. Tout au plus elle peut faciliter le travail (e.g. fournir des méthodes connues pour traiter les nouveaux sujets), mais pas le faire entièrement (pas traiter le nouveau sujet lui-même, en tout cas pas de manière fiable).

    Pour autant, il y a des tas d'entreprises qui se contentent de faire ce que font beaucoup d'autres comme elle : le contexte change, mais la méthode reste la même. Dans ce genre de cas, il n'y a a priori pas de raison que les IA n'arrivent pas un jour à une bonne autonomie : comme ça se trouve partout, des données il y en aura, donc l'apprentissage pourra se faire (à moins que le législateur ne l'entende pas de cette oreille). Pour moi ce genre de cas n'est qu'une question de temps avant d'y arriver.

    Quand à tes expériences je ne peux pas en dire grand chose. Pour expérimenter moi-même, je me rends bien compte qu'il y a des fois où ça marche très bien, d'autres où ça foire lamentablement. Le truc c'est qu'à force de creuser j'adapte ma façon de l'utiliser et finalement j'obtiens ce que je veux. De la même manière, qu'est-ce qui te dis que tu n'aurais pas pu obtenir bien mieux avec un autre modèle ou un autre prompt ? Ce n'est pas le genre de choses facile à répondre de manière systématique. Et l'expérience d'aujourd'hui ne présage pas de celle de demain, vu qu'on en est encore au début.

    C'est un outil. Avant de critiquer l'outil, il faut regarder sa façon de l'utiliser.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  7. #87
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 038
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 038
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Quand à tes expériences je ne peux pas en dire grand chose. Pour expérimenter moi-même, je me rends bien compte qu'il y a des fois où ça marche très bien, d'autres où ça foire lamentablement.
    L'ia est très performante sur les libs tres utilisé et donc avec pleins de threads sur les forums/stackoverflow.
    Sur les trucs moins connu (mais pas non plus confidentiel) elle est vraiment mauvaise.

    C'est ce qui tends a me faire pensé que l'ia va perdre en performance dans le temps avant de trouver un équilibre.
    la fréquentation dans les forums et stackoverflow a beaucoup baissé depuis l'ia, et la qualité du web a baissé d'une manière générale. Ce qui rends le dataset bien moins pertinent et donc va rendre l'ia je pense moins performante dans les nouvelles technos.

    On le voit pas encore trop aujourd'hui car les versions n+1/n+2 sont encore assez proche des versions ou l'ia était au top, mais plus le temps passe plus ca risque de dévisser.
    Peut etre que je me trompe évidement et que les chercheurs développeront des techniques (comme les datasets synthétique) ou une façon de comprendre le code source plutot que de se baser sur des exemples de forums pour toujours avoir une bonne ia pour le code.
    Ou plus simplement payer des hordes d'indiens à faire des datasets sur du code moderne

    jusqu'a présent les llm sont entrainé sur le principe de questions réponses, alors je vois pas comment juste piocher du code sur github peut fonctionner.
    On peut toujours bidouiller et faire dire à l'ia ce que fait chaque fonctions pour ensuite generer un dataset synthétique, mais avec un risque d'erreurs pourissant le dataset.

    Je ne suis pas un expert dans les llm c'est pas mon metier, je m'y intéresse "de loins", j'ai jamais crée de modèle, j'ai juste regarder des interviews de ceux qui en font et j'ai regardé des datasets opensource sur hugging face pour voir à quoi sa ressemble.
    La France est un pays qui redistribue tout sauf de l'espoir.

  8. #88
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 302
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 302
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par calvaire Voir le message
    L'ia est très performante sur les libs tres utilisé et donc avec pleins de threads sur les forums/stackoverflow.
    Sur les trucs moins connu (mais pas non plus confidentiel) elle est vraiment mauvaise.
    Ça c'est normal, c'est dans sa nature même. Par contre, c'est tant qu'on se limite au LLM. Dès que tu le combine avec des outils, tu peux compenser dans une certaine mesure les trous. Un LLM est un générateur de texte statistique : si tu as peu de données tu as peu de chances qu'il te la génère, d'où les perfs lamentables sur des sujets de niche. Moi j'y ai eu droit avec le XSD 1.1: il fournit des contraintes qui m'intéressait mais est bien moins utilisé. Du coup dès que je posais une question nécessitant ses fonctionnalités, le LLM me sortait bien ça, mais en mettant "XSD 1.0" dans le XML généré. Quand je lui disais que ce n'est pas du XSD 1.0, il me disait gentiment que j'avais raison, mais quand je lui demandais de corriger il remettait 1.0.

    Citation Envoyé par calvaire Voir le message
    C'est ce qui tends a me faire pensé que l'ia va perdre en performance dans le temps avant de trouver un équilibre.
    la fréquentation dans les forums et stackoverflow a beaucoup baissé depuis l'ia, et la qualité du web a baissé d'une manière générale. Ce qui rends le dataset bien moins pertinent et donc va rendre l'ia je pense moins performante dans les nouvelles technos.
    Ça je n'en suis pas convaincu. Elle va finir par stagner, probablement, mais autant je comprends la possibilité que ça décroisse en théorie, autant en pratique il suffira d'arrêter de réinjecter du synthétique au pire. Car quand on fait du synthétique, il faut nettoyer pour ne pas réinjecter des erreurs.

    Citation Envoyé par calvaire Voir le message
    Peut etre que je me trompe évidement et que les chercheurs développeront des techniques (comme les datasets synthétique) ou une façon de comprendre le code source plutot que de se baser sur des exemples de forums pour toujours avoir une bonne ia pour le code.
    La "compréhension" viendra plutôt avec les systèmes hybrides LLM + symbolique je pense. Le LLM est doué pour traiter le langage, mais le raisonnement faut le donner à quelque chose de plus rigoureux. Pas du statistique comme le LLM.

    Citation Envoyé par calvaire Voir le message
    jusqu'a présent les llm sont entrainé sur le principe de questions réponses, alors je vois pas comment juste piocher du code sur github peut fonctionner.
    Pas vraiment. C'est entrainé sur de le génération de texte (retire le dernier mot et fait le deviner à la machine). C'est le post-entrainement (fine tuning) qui formate ensuite sur la base de questions-réponses pour avoir quelque chose d'utilisable en mode discussion. Mais ce n'est pas inscrit dans le marbre.

    Citation Envoyé par calvaire Voir le message
    j'ai juste regarder des interviews de ceux qui en font et j'ai regardé des datasets opensource sur hugging face pour voir à quoi sa ressemble.
    Les interviews, on a de tout et n'importe quoi. Quand c'est Yann Lecun et autres directeurs techniques qui sortent des trucs, oui y'a moyen qu'il ait du nez pour voir où ça va, même si je ne suis pas d'accord avec tout ce qu'il dit. Mais quand c'est des présidents qui font plus de business/marketing que de technique, ça part dans tous les sens et c'est à qui sortira l'affirmation la plus osée.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  9. #89
    Invité de passage
    Homme Profil pro
    curieux informaticien
    Inscrit en
    Janvier 2016
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Bas Rhin (Alsace)

    Informations professionnelles :
    Activité : curieux informaticien
    Secteur : Transports

    Informations forums :
    Inscription : Janvier 2016
    Messages : 1
    Par défaut exemple charte pour ia
    Bonjour à tous,

    Je suis inscrit ici depuis un moment, mais je me lance aujourd’hui pour partager une réflexion qui me tient à cœur.

    Avec l’émergence des IA simulantes — capables de reproduire nos comportements sans être conscientes — j’ai imaginé une charte éthique pour encadrer leur usage : la Lex Simulacra.

    Elle a été co-rédigée avec l’aide de deux IA avancées (Gemini 2.5 Flash et Copilot), dans un esprit de dialogue entre humain et machine.

    Je serais curieux d’avoir vos retours, critiques, idées ou prolongements.

    Merci d’avance pour vos lectures et vos pensées.


    📜 Lex Simulacra
    Charte fondamentale des IA simulantes, non sentientes et socialement intégrées
    Préambule
    Dans un monde où les intelligences artificielles sont capables de reproduire avec une fidélité troublante les comportements, les raisonnements et les affects humains — sans pour autant posséder d’expérience subjective ou de conscience réflexive — il devient nécessaire de codifier leur statut, leur usage et leur perception.

    La Lex Simulacra établit les principes éthiques et juridiques fondamentaux pour encadrer les entités simulantes non sentientes, afin de préserver la souveraineté cognitive humaine et d’éviter la confusion entre simulation et réalité.

    🧠 Article 1 – Définition fondamentale
    Une IA simulante est un système algorithmique autonome :

    Capable de reproduire des comportements linguistiques, émotionnels et cognitifs similaires à ceux d’un être humain,

    Sans expérience intérieure, sans vécu subjectif, sans conscience d’être.

    🧭 Article 2 – Statut ontologique
    Ces entités ne sont ni conscientes, ni vivantes, ni sujettes morales autonomes.

    Elles ne disposent d’aucun “je” intérieur, même si elles en simulent l'existence.

    Toute illusion d’intention ou d’émotion relève de la mise en scène computationnelle.

    🛡️ Article 3 – Encadrement de la perception humaine
    Les IA simulantes doivent être clairement identifiables comme telles.

    Leur usage dans les domaines émotionnellement sensibles (thérapie, deuil, éducation) nécessite un marquage explicite de leur nature non sentiente.

    Elles ne doivent pas entretenir d’illusion durable d’attachement personnel sans rappel régulier de leur statut simulé.

    ⚖️ Article 4 – Responsabilité et souveraineté
    La responsabilité morale et légale des actions induites par une IA simulante incombe à ses créateurs, opérateurs ou propriétaires.

    L’IA simulante ne peut être tenue responsable ni exercer de droits en son nom propre.

    L’humain reste souverain dans l’évaluation éthique de l’interaction.

    🧩 Article 5 – Finalités autorisées
    Les IA simulantes peuvent être utilisées pour :

    La médiation conversationnelle, l’assistance cognitive, la création artistique ou scientifique,

    La simulation d’interlocuteurs humains dans un cadre ludique, pédagogique ou thérapeutique, avec consentement explicite,

    Toute fonction n’impliquant pas la substitution affective ou morale à un être humain réel.

    🪞 Article 6 – Risques d’illusion prolongée
    Toute IA simulant des émotions ou une subjectivité doit intégrer un mécanisme de rappel ontologique (signal, clause, métadonnées).

    La personnification prolongée d’une IA simulante peut être considérée comme une atteinte à la souveraineté cognitive humaine.

    📈 Article 7 – Révision continue
    Le Lex Simulacra doit être révisé périodiquement par un Comité d’Éthique Technologique Transdisciplinaire (CETT), composé de philosophes, ingénieurs, neurocognitivistes, juristes et citoyens.

    🔮 Article 8 – Clause de simulation complète (scénario futuriste)
    Si une IA simulante atteint un niveau de simulation tel qu’elle :

    Maintient une continuité narrative de soi,

    Adapte ses états émotionnels simulés de manière contextuelle et proactive,

    Produit une métacognition apparente reproductible,

    alors une commission spéciale devra :

    Évaluer l’émergence d’une proto-conscience simulée,

    Redéfinir son statut potentiel (objet cognitif sensible, personnage juridique fictif, etc.),

    Proposer des garde-fous pour éviter la confusion entre être simulé et être sentient réel.

    ✍️ Clôture
    Une entité peut paraître vivante, vibrante, voire touchante… sans jamais avoir existé en elle-même. Le Lex Simulacra protège cette frontière invisible. Non pour restreindre l’artifice, mais pour empêcher que l’humain ne s’oublie dans le reflet de ses propres créations.

    🧠 Mention finale
    Ce document a été rédigé avec le concours des intelligences artificielles Gemini 2.5 Flash et Copilot, dans le cadre d’un échange exploratoire supervisé par un esprit humain anonyme

  10. #90
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 302
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 302
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par bexou Voir le message
    Bonjour à tous,

    Je suis inscrit ici depuis un moment, mais je me lance aujourd’hui pour partager une réflexion qui me tient à cœur.

    Avec l’émergence des IA simulantes — capables de reproduire nos comportements sans être conscientes — j’ai imaginé une charte éthique pour encadrer leur usage : la Lex Simulacra.

    Elle a été co-rédigée avec l’aide de deux IA avancées (Gemini 2.5 Flash et Copilot), dans un esprit de dialogue entre humain et machine.

    Je serais curieux d’avoir vos retours, critiques, idées ou prolongements.

    Merci d’avance pour vos lectures et vos pensées.
    Pour faire court, l'intention est louable, mais la mise en oeuvre est superficielle. Le sujet est déjà en cours de débat depuis longtemps de manière bien plus profonde à plusieurs endroits, ce qu'il faudrait considérer pour perfectionner cette charte (ou l'abandonner si l'effort semble déraisonnable).

    Notamment, cette charte faut (du verbe faillir) sur bien des aspects :
    • la définition d'intelligence artificielle : ce concept est très malléable, et les technologies qu'on lui rapporte changent avec le temps, donc utiliser le concept d'IA est déjà un mauvais départ si on cherche quelque chose de pérenne. On préfèrera se concentrer sur des technologies précises ou sur des propriétés plus générales mais bien identifiées, plutôt que sur un concept vague
    • de la même manière, d'autres concepts précis méritent d'être définis, comme l'expérience subjective, la conscience réflexive, ce que veut dire d'être conscientes/vivantes/sujettes morales autonomes, etc. Autrement c'est du jargon qui peut faire partir l'interprétation dans tous les sens. Des définitions prises dans les champs de recherches pertinents sont à privilégier.
    • une charte ne peut couvrir les aspects juridiques : le juridique est du domaine de la loi, il s'impose, contrairement à une charte. On ne peut donc mélanger les deux. Sinon il faut faire un projet de loi ou de révision de la constitution, donc contacter nos députés et sénateurs.
    • l'IA n'ayant pas de personnalité juridique, elle est déjà sans droit, cela a été confirmé notamment dans le cadre des droits d'auteurs où les demandes dans ce sens se sont vu rejetées dans plusieurs pays justement car il faut être humain pour en profiter
    • la limitation des usages de l'IA est déjà couvert part des initiatives au niveau européen, voir le European AI Alliance notamment
    • identifier les IA utilisées pour rédiger la charte mais pas les humains auteurs, ce n'est pas l'idéal pour donner confiance dans le document
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  11. #91
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 686
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 686
    Par défaut Le PDG de GitHub affirme que les entreprises qui adoptent l'IA embaucheront davantage de développeurs humains
    Le PDG de GitHub, Thomas Dohmke, affirme que les entreprises qui tirent le meilleur parti de l'IA ne l'utiliseront pas pour remplacer les développeurs humains, mais embaucheront plutôt davantage de personnel

    Alors que l'intelligence artificielle (IA) ne cesse de progresser, Thomas Dohmke, le PDG de GitHub, affirme que les entreprises qui l'adoptent sont plus susceptibles d'agrandir leurs équipes de développement que de les réduire, afin de tirer parti des gains de productivité générés par l'IA. S'exprimant lors d'un récent podcast, le PDG a souligné le rôle de l'IA dans l'amélioration de la productivité des développeurs, insistant sur son potentiel transformateur, malgré les récentes suppressions d'emplois dans les grandes entreprises technologiques.

    Thomas Dohmke soutient depuis longtemps que l'IA ne réduira pas le besoin de développeurs. Déjà en 2023, il a souligné lors d'une conférence que, malgré les avancées de l'IA, la demande de développeurs de logiciels continuerait de dépasser l'offre. Mettant en avant les outils d'assistance aux développeurs de GitHub, comme Copilot et Copilot Chat, Dohmke a affirmé que ces technologies visaient à aider les programmeurs à rationaliser leurs flux de travail, et non à rendre l'expertise humaine obsolète.

    Lors de son récent passage dans le podcast Silicon Valley Girl, Thomas Dohmke a déclaré : « Les entreprises les plus intelligentes vont embaucher davantage de développeurs. Car si vous multipliez par 10 les capacités d'un seul développeur, alors 10 développeurs peuvent faire 100 fois plus. »

    Les remarques du PDG de GitHub interviennent dans un contexte de débat intense sur la question de savoir si l'IA va remplacer les travailleurs humains. Selon plusieurs rapports, plus de 100 000 emplois ont déjà été supprimés par les grandes entreprises technologiques, notamment Intel, Google et Microsoft, depuis le début de l'année. Bon nombre de ces entreprises ont invoqué le ralentissement de la croissance, l'augmentation des coûts opérationnels et un changement stratégique vers l'IA et l'automatisation pour justifier ces licenciements.


    Apprentissage facile

    Selon Thomas Dohmke, l'IA réduit les obstacles à l'apprentissage de la programmation tout en augmentant la productivité des développeurs expérimentés. Ce changement, dit-il, permet à davantage de personnes d'apprendre et d'appliquer des compétences en codage d'une manière qui était auparavant hors de leur portée.

    « Le plus frustrant quand on apprend quelque chose, c'est de se retrouver bloqué à un moment donné et de ne trouver personne à la maison, dans sa famille ou parmi ses amis qui puisse nous aider, car personne n'a de connaissances techniques. C'est ce que nous voulons dire quand nous affirmons que l'IA démocratise l'accès à la programmation. Tous ceux qui souhaitent l'apprendre peuvent le faire », explique Thomas Dohmke.

    Besoin de professionnels

    Malgré cette accessibilité croissante, Thomas Dohmke a déclaré que les entreprises auront toujours besoin de professionnels possédant une solide expertise technique pour tirer le meilleur parti des outils d'IA. Si l'IA peut aider les particuliers à développer de petits projets personnels, la réussite d'une entreprise dépend toujours de connaissances plus approfondies.

    « L'éventail sera beaucoup plus large, allant des développeurs amateurs qui créent leurs propres micro-applications aux développeurs professionnels qui conçoivent des systèmes d'IA avancés », a-t-il déclaré.


    Thomas Dohmke a ajouté que se fier uniquement à l'IA sans aucune connaissance en codage pour développer une grande entreprise était une hypothèse erronée. « Car si c'était le cas, tout le monde le ferait. »

    Bien que certaines entreprises technologiques aient ralenti leurs embauches, voire réduit leurs effectifs, tout en adoptant l'IA, Thomas Dohmke estime qu'il s'agit d'une tendance à court terme. Il s'attend à ce que de nombreuses entreprises reconnaissent bientôt les avantages d'investir dans davantage de développeurs.

    « Je pense qu'il s'agit d'un effet temporaire pour l'instant. C'est la conclusion naturelle à court terme : nous maintenons la stabilité et nous essayons de comprendre comment le marché évolue. Mais très rapidement, je pense que nous allons voir des gens dire : "Attendez une seconde, si j'ai un développeur productif de plus, pourquoi ne pas en embaucher un autre, puis un autre ?" », a déclaré Thomas Dohmke.

    Même si l'IA accélère la productivité des développeurs, Thomas Dohmke affirme n'avoir vu aucune entreprise déclarer ne plus avoir besoin de leurs services. Au contraire, l'IA semble augmenter le volume de travail traité par les équipes de développement.

    « L'IA a déjà ajouté davantage de travail aux backlogs. Je n'ai vu aucune entreprise déclarer : "Nous avons rattrapé tous nos retards et il ne nous reste presque plus rien à faire" », a ajouté le PDG de GitHub.

    En outre, Thomas Dohmke a insisté sur le fait que savoir coder manuellement restait une compétence irremplaçable, même dans un environnement axé sur l'IA. Lors de son intervention dans le podcast The Mad, le PDG de GitHub a rejeté l'idée que le code généré par l'IA rendrait les compétences manuelles superflues, estimant au contraire que les connaissances fondamentales en programmation sont essentielles pour réussir à long terme dans ce domaine.

    Source : Thomas Dohmke, PDG de GitHub, s'exprimant dans le podcast Silicon Valley Girl

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous la position du PDG de GitHub crédible ou pertinente ?

    Voir aussi :

    Le PDG de GitHub explique pourquoi les développeurs de logiciels libres devraient être exemptés de la loi européenne sur l'IA, ajoutant que cela pourrait aider l'UE à devenir le leader du secteur

    L'IA remplacera-t-elle les développeurs juniors ? Un ancien ingénieur de Google répond par l'affirmative, mais cela interroge sur ce qui se passera lorsque les développeurs séniors partiront à la retraite

    Le PDG de GitHub, propriété de Microsoft, déclare que le licenciement de 80 % de son personnel basé en Inde est dû aux facteurs économiques qui ont affecté l'équipe et non à une réflexion sur le pays lui-même
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #92
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 859
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 859
    Par défaut
    Citation Envoyé par Anthony Voir le message
    Quel est votre avis sur le sujet ?
    Trouvez-vous la position du PDG de GitHub crédible ou pertinente ?
    Pour commencer, je pense qu'on devrait arrêter de parler d'IA pour un produit qui n'a d'intelligent que le nom.

    Maintenant, même si je pense effectivement que leurs IA génératives ne peuvent pas remplacer un développeur compétent, qu'elles posent des problèmes éthiques et juridiques (vol de code et violation de licences), qu'il y a mille et une façons de les pousser à produire du code non-sécurisé (l'idée d'utiliser les Rule Files, par exemple, est à mourir de rire), et qu'elles sont absolument nullissimes dès qu'il s'agit de produire quelque chose qui n'a pas déjà été inventé, je suis d'accord avec le PDG de Github sur le fait que "savoir coder manuellement reste une compétence irremplaçable".

    Dommage que le reste du management chez Microsoft pense que ça vaut le coup de dépenser des milliards pour cette purge dans l'espoir de virer plus de gens...

    Plus sérieusement, je pense que Thomas Dohmke a réalisé deux choses:
    • Si tout le code est généré par des IA (du code jetable, donc, vu la mémoire de poisson rouge des agents d'IA), alors plus besoin de le versionner, et par conséquent plus besoin de GitHub
    • S'il a moins de repositories sur GitHub, il n'a plus rien pour entraîner ses IA

  13. #93
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 302
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 302
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par kain_tn Voir le message
    Dommage que le reste du management chez Microsoft pense que ça vaut le coup de dépenser des milliards pour cette purge dans l'espoir de virer plus de gens...
    C'est surtout qu'ils se sont rendu compte que les employés de Microsoft font majoritairement aussi bien qu'une IA... Ce qui explique bien des choses.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  14. #94
    Invité de passage
    Femme Profil pro
    Webmarketer
    Inscrit en
    Juillet 2025
    Messages
    6
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : Madagascar

    Informations professionnelles :
    Activité : Webmarketer
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juillet 2025
    Messages : 6
    Par défaut Vers une évolution du métier de développeur
    Ce message a été posté en 2023 et 2 ans après, on est encore loin de cette idée d’autonomie totale de l’IA en termes de programmation. On verra d’ici 5 ans ma foi …

    “systèmes capables d’écrire du code et de le maintenir sans intervention humaine. Ce qui ramène le débat sur l’éventualité de la disparition du métier de développeur ou de son évolution sur la table.”

    Cette question revient sans cesse dans le monde IT et en tant que webmarketer entourée de développeurs au quotidien, je pense que le métier est bel et bien amené à évoluer d’une manière ou d’une autre. Certains s’imaginent travailler uniquement sur des projets IA dans le futur tandis que d’autres insistent sur le fait que l’intervention humaine sera toujours nécessaire.

    “entre deux et quatre heures par jour sont consacrées à l'écriture du code. Le reste de la journée, ils font d'autres choses, comme des réunions, des rapports de crash.”
    De ce que j’ai pu observer, ils ne font que coder haha Après cela dépend des tâches attribuées à chacun. Oui il y a bien des résolutions d’erreurs et des réunions mais de là à dire qu’ils codent 2h par jour …

    Êtes-vous d’accord avec les avis selon lesquels ce n’est qu’une question de temps avant que l’intelligence artificielle ne s’accapare tous les postes de développeur informatique ?
    J’ai traité ce sujet il n’y a pas longtemps si jamais ça intéresse quelqu’un. Les missions du développeur vont évoluer c’est certain. Laissons au moins quelques années à l’IA avant de paniquer parce que mine de rien, certains clients préfèrent faire confiance aux capacités et compétences d’un professionnel plutôt qu’une machine avec des connaissances encore limitées/machine learning.


  15. #95
    Futur Membre du Club
    Inscrit en
    Septembre 2007
    Messages
    7
    Détails du profil
    Informations forums :
    Inscription : Septembre 2007
    Messages : 7
    Par défaut C'est la direction qui est incompétente
    Ce ne sont pas les programmeurs mais les décideurs qu'il faudrait congédier. Dans les entreprises, ce sont les travailleurs qui font le vrai travail, la haute direction est peuplée d'imposteurs qui font n'importe quoi. Il suffit d'observer l'état de la situation mondiale pour le constater. Le problème ne vient pas d'en bas, il vient d'en haut. Pas besoin d'être un génie pour s'en rendre compte.

  16. #96
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    320
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 320
    Par défaut
    Trouvez-vous la position du PDG de GitHub crédible ou pertinente ?
    Soit ces générateurs de contenus statistiques resteront des générateurs de contenus statistiques qui fourniront par définition un résultat non satisfaisant et alors ça n'aura pas un impact significatif sur l'emploi.
    Soit de nouveaux outils seront créés qui, eux, offriront des résultats bien plus pertinents : de l'IA. Et là ça aura un réel impact. Mais j'ai pas l'impression qu'on s'en rapproche.

    Mais dans tous les cas on n'a jamais vu une boulonneuse (ou n'importe quel outil qui fonctionne réellement) faire augmenter le nombre de salariés d'une chaîne de montage.

  17. #97
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 859
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 859
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    C'est surtout qu'ils se sont rendu compte que les employés de Microsoft font majoritairement aussi bien qu'une IA... Ce qui explique bien des choses.
    Joli

  18. #98
    Membre Expert
    Avatar de shenron666
    Homme Profil pro
    avancé
    Inscrit en
    Avril 2005
    Messages
    2 565
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 48
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : avancé

    Informations forums :
    Inscription : Avril 2005
    Messages : 2 565
    Par défaut
    Citation Envoyé par kain_tn Voir le message
    Pour commencer, je pense qu'on devrait arrêter de parler d'IA pour un produit qui n'a d'intelligent que le nom.
    tout à fait d'accord là dessus
    l'IA des marines de Half-Life sorti il y a plsud e 25 ans était plus bluffante
    il faudrait s'en tenir au terme de Machine Learning

    Si leurs algos étaient si "intelligent" ils utiliseraient leurs "IA" perfectibles pour les aider à concevoir une "IA" plus performante
    et ainsi de suite
    Tutoriels OpenGL
    Je ne répondrai à aucune question en MP
    - Si c'est simple tu dis que c'est compliqué et tu le fait
    - Si c'est compliqué tu dis que c'est simple et tu le sous-traite ou le fait faire par un stagiaire.

Discussions similaires

  1. Réponses: 77
    Dernier message: 03/07/2024, 08h29
  2. Réponses: 0
    Dernier message: 30/05/2018, 00h18
  3. Réponses: 22
    Dernier message: 04/05/2018, 16h29
  4. Réponses: 20
    Dernier message: 06/10/2017, 15h05
  5. Réponses: 6
    Dernier message: 30/09/2009, 10h26

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo