IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Un ingénieur affirme que l'IA crée un risque majeur de compétence superficielle chez les débutants


Sujet :

Intelligence artificielle

  1. #81
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 903
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 903
    Par défaut L'IA n'est pas prête à remplacer les développeurs humains pour le débogage, selon des chercheurs de Microsoft
    L'IA n'est pas prête à remplacer les développeurs humains pour le débogage, selon des chercheurs de Microsoft
    Les agents d'IA ne peuvent pas déboguer les logiciels de manière fiable même lorsqu'ils ont accès à des outils

    Alors que les modèles d’intelligence artificielle générative comme ChatGPT, Claude, Gemini ou CodeWhisperer font déjà figure d’assistants prometteurs pour l’écriture de code, une nouvelle étude menée par des chercheurs de Microsoft met un sérieux bémol à l’enthousiasme ambiant : l’IA n’est pas encore à la hauteur lorsqu’il s’agit de déboguer efficacement du code réel.

    La prolifération continue des outils de codage de l'IA ne stimule pas seulement l'efficacité des développeurs, elle signale également un avenir où l'IA générera une part croissante de tout nouveau code. Thomas Dohmke, PDG de GitHub, l'a prédit en 2023, lorsqu'il a déclaré que « tôt ou tard, 80 % du code sera écrit par Copilot ».

    Les petites et grandes entreprises de logiciels utilisent déjà largement l'IA pour générer du code. Garry Tan, de Y Combinator, a noté que 95 % du code d'un quart des dernières start-ups de Y Combinator était écrit par de grands modèles de langage.

    En fait, selon Microsoft, la plupart des développeurs passent la majeure partie de leur temps à déboguer le code, et non à l'écrire. Des chercheurs de son écurie déclare d'ailleurs :

    « En tant que mainteneurs de dépôts de logiciels libres populaires, nous nous sentons concernés par ce constat. Mais que se passerait-il si un outil d'IA pouvait proposer des correctifs pour des centaines de problèmes ouverts, et si nous n'avions qu'à les approuver avant de les fusionner ? C'est ce qui nous a incités à maximiser les gains de temps potentiels des outils de codage IA en leur apprenant à déboguer le code.

    « Par débogage, nous entendons le processus interactif et itératif de correction du code. Les développeurs émettent généralement des hypothèses sur la raison du plantage de leur code, puis rassemblent des preuves en parcourant le programme et en examinant les valeurs des variables. Ils utilisent souvent des outils de débogage tels que pdb (débogueur Python) pour les aider à recueillir des informations. Ce processus est répété jusqu'à ce que le code soit corrigé.

    « Les outils de codage IA d'aujourd'hui stimulent la productivité et excellent à suggérer des solutions aux bogues sur la base du code disponible et des messages d'erreur. Cependant, contrairement aux développeurs humains, ces outils ne recherchent pas d'informations supplémentaires lorsque les solutions échouent, ce qui laisse certains bogues sans réponse, comme vous pouvez le voir dans cette démonstration simple qui montre comment une colonne mal étiquetée fait échouer les outils de codage d'aujourd'hui. Les utilisateurs peuvent ainsi avoir l'impression que les outils de codage de l'IA ne comprennent pas tout le contexte des problèmes qu'ils tentent de résoudre ».

    Nom : un.png
Affichages : 28897
Taille : 49,7 Ko

    Debug-gym : un environnement pour les outils de codage de l'IA afin d'apprendre à déboguer le code comme des programmeurs

    Il existe peu de domaines dans lesquels l'IA a été déployée de manière aussi robuste que dans celui du développement de logiciels. Du « vibe coding » (une nouvelle pratique dans laquelle des personnes, dont certaines ont une expérience limitée du codage, développent rapidement des logiciels à l'aide d'outils de codage assistés par l'IA, sans se préoccuper de l'efficacité du code tant qu'il est fonctionnel) à GitHub Copilot, en passant par les startups qui créent des applications rapides avec l'aide de LLM, l'IA est déjà profondément intégrée. Même Google a déclaré avoir généré 25% de son code par IA.

    Toutefois, ceux qui prétendent que nous ne sommes qu'à quelques mois du remplacement de la plupart des développeurs par des agents d'IA devraient revoir leurs attentes, car les modèles ne sont pas assez performants en matière de débogage, et le débogage occupe la majeure partie du temps d'un développeur. C'est ce que suggère Microsoft Research, qui a créé un nouvel outil appelé debug-gym pour tester et améliorer la façon dont les modèles d'IA peuvent déboguer les logiciels.

    Debug-gym (disponible sur GitHub et détaillé dans un billet de blog) est un environnement qui permet aux modèles d'IA d'essayer de déboguer n'importe quel dépôt de code existant en ayant accès à des outils de débogage qui ne font pas historiquement partie du processus pour ces modèles. Microsoft a constaté que sans cette approche, les modèles sont très mauvais dans les tâches de débogage. Avec cette approche, ils s'améliorent, mais sont encore loin de ce que peut faire un développeur humain expérimenté.

    Voici comment les chercheurs de Microsoft décrivent debug-gym :

    « Une question de recherche naturelle émerge : dans quelle mesure les LLM peuvent-ils utiliser des outils de débogage interactifs tels que pdb ? Pour explorer cette question, nous avons lancé debug-gym - un environnement qui permet aux agents de réparation de code d'accéder à des outils pour un comportement actif de recherche d'informations. Debug-gym élargit l'espace d'action et d'observation d'un agent grâce au retour d'information de l'utilisation des outils, ce qui permet de définir des points d'arrêt, de naviguer dans le code, d'imprimer des valeurs variables et de créer des fonctions de test. Les agents peuvent interagir avec les outils pour étudier le code ou le réécrire, s'ils ont confiance. Nous pensons que le débogage interactif avec des outils appropriés peut permettre aux agents de codage de s'attaquer à des tâches réelles de génie logiciel et qu'il est au cœur de la recherche sur les agents basée sur le LLM. Les corrections proposées par un agent de codage doté de capacités de débogage, puis approuvées par un programmeur humain, seront fondées sur le contexte de la base de code, de l'exécution du programme et de la documentation, plutôt que de s'appuyer uniquement sur des suppositions basées sur des données d'entraînement vues précédemment ».

    Vous trouverez ci-dessous les résultats des tests effectués avec debug-gym.

    Nom : deux.png
Affichages : 5643
Taille : 39,8 Ko
    Les agents qui utilisent des outils de débogage sont nettement plus performants que ceux qui n'en utilisent pas, mais leur taux de réussite n'est pas encore assez élevé

    Une approche efficace mais qui souligne les limites de l'outil

    Cette approche est beaucoup plus efficace que celle qui consiste à s'appuyer sur les modèles tels qu'ils sont habituellement utilisés, mais lorsque votre meilleur cas est un taux de réussite de 48,4 %, vous n'êtes pas prêt pour le primetime. Les limites sont probablement dues au fait que les modèles ne comprennent pas parfaitement comment utiliser au mieux les outils et que leurs données d'entraînement actuelles ne sont pas adaptées à ce cas d'utilisation.

    « Nous pensons que cela est dû à la rareté des données représentant un comportement décisionnel séquentiel (par exemple, les traces de débogage) dans le corpus d'entraînement LLM actuel », indique le billet de blog. « Cependant, l'amélioration significative des performances... valide le fait qu'il s'agit d'une direction de recherche prometteuse ».

    Ce rapport initial n'est que le début des efforts, affirme le billet. L'étape suivante consiste à « affiner un modèle de recherche d'informations spécialisé dans la collecte des informations nécessaires à la résolution des bogues ». Si le modèle est volumineux, la meilleure solution pour réduire les coûts d'inférence pourrait être de « construire un modèle de recherche d'informations plus petit qui puisse fournir des informations pertinentes au modèle plus important ».

    Ce n'est pas la première fois que nous voyons des résultats qui suggèrent que certaines des idées ambitieuses sur les agents d'IA remplaçant directement les développeurs sont assez éloignées de la réalité. De nombreuses études ont déjà montré que même si un outil d'IA peut parfois créer une application qui semble acceptable à l'utilisateur pour une tâche précise, les modèles ont tendance à produire un code chargé de bogues et de vulnérabilités de sécurité, et ils ne sont généralement pas capables de résoudre ces problèmes.

    Il s'agit d'une première étape sur la voie des agents de codage IA, mais la plupart des chercheurs s'accordent à dire que le meilleur résultat sera probablement un agent qui fera gagner beaucoup de temps à un développeur humain, et non un agent capable de faire tout ce qu'il peut faire.

    Nom : trois.png
Affichages : 5009
Taille : 253,5 Ko

    L'IA est en train de créer une génération de programmeurs illettrés

    C'est le constat amer d'un développeur qui raconte son expérience avec l'IA. Voici un extrait de son billet :

    Il y a de cela quelques jours, Cursor est tombé en panne lors d'un arrêt de ChatGPT.

    J'ai regardé fixement mon terminal, faisant face à ces messages d'erreur rouges que je déteste voir. Une erreur AWS est apparue. Je ne voulais pas la résoudre sans l'aide de l'intelligence artificielle (IA).

    Après 12 ans de codage, j'étais devenu plus mauvais dans mon propre métier. Et ce n'est pas une hyperbole : c'est la nouvelle réalité des développeurs logiciels.

    La décrépitude

    Elle s'est insinuée subtilement en moi.

    Tout d'abord, j'ai cessé de lire la documentation. Pourquoi s'embêter quand l'IA pouvait expliquer les choses instantanément ?

    Ensuite, mes compétences en matière de débogage en ont pris un coup. Les traces de pile me semblent désormais inaccessibles sans l'IA. Je ne lis même plus les messages d'erreur, je me contente de les copier et de les coller.

    Je suis devenu un presse-papier humain, un simple intermédiaire entre mon code et un LLM.

    Auparavant, chaque message d'erreur m'apprenait quelque chose. Aujourd'hui ? La solution apparaît comme par magie et je n'apprends rien. La dopamine des réponses instantanées a remplacé la satisfaction d'une véritable compréhension.

    La compréhension en profondeur est la prochaine chose qui a été affectée. Vous vous souvenez avoir passé des heures à comprendre pourquoi une solution fonctionne ? Aujourd'hui, je me contente d'appliquer les suggestions de l'IA. Si elles ne fonctionnent pas, j'améliore le contexte et je demande à nouveau à l'IA. C'est un cycle de dépendance croissante.

    Viennent ensuite les changements émotionnels. Auparavant, la résolution de nouveaux problèmes faisait partie du plaisir de programmer. Maintenant, je suis frustré si l'IA ne me donne pas de solution en 5 minutes.

    Le plus effrayant ? Je suis en train de construire un outil de développement alimenté par l'IA, mais je ne peux pas me débarrasser du sentiment que je contribue au problème même qui érode nos compétences collectives.

    Source : Microsoft

    Et vous ?

    Que pensez-vous de cette étude de Microsoft ? Vous semble-t-elle pertinente ou crédible ?

    Faut-il ralentir l’intégration de l’IA dans le développement logiciel sans garde-fous humains ?

    Les éditeurs d’EDI devraient-ils imposer des alertes de « confiance faible » dans les suggestions IA ?

    Peut-on entraîner des IA réellement performantes en débogage sans accès à des millions d’exemples de sessions humaines ?

    Le débogage est-il une compétence inimitable par les LLM, ou juste une question de data et de calcul ?

    Comment sensibiliser les jeunes développeurs aux limites actuelles de ces outils, dans un contexte où ils sont omniprésents dans les formations ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #82
    Membre confirmé
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Février 2024
    Messages
    383
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Architecte réseau

    Informations forums :
    Inscription : Février 2024
    Messages : 383
    Par défaut
    L'IA, c'est le cancre qui a triché lors de l'examen en copiant sur son petit camarade sans réfléchir. Des fois le code marche, d'autres non.

  3. #83
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 903
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 903
    Par défaut Le PDG de GitHub affirme que savoir coder manuellement reste une compétence irremplaçable
    Au-delà de la génération de code par l'IA : malgré l’essor fulgurant des IA comme Copilot ou ChatGPT dans le développement logiciel,
    le PDG de GitHub affirme que savoir coder manuellement reste une compétence irremplaçable

    À l’heure où les outils d’intelligence artificielle révolutionnent le développement logiciel, le PDG de GitHub, Thomas Dohmke, prend le contre-pied d’un enthousiasme parfois excessif. Dans une série d’interventions récentes, notamment lors d’un passage dans le podcast The Mad, il a martelé un message simple mais crucial : l’IA ne remplace pas la programmation manuelle. Selon lui, savoir coder reste une compétence indispensable à long terme, même dans un monde où GitHub Copilot ou ChatGPT peuvent générer du code à la volée. Ce positionnement soulève un débat plus large : faut-il encore apprendre à coder à la main quand l’IA peut le faire à notre place ? Pour Thomas Dohmke, la réponse est clairement oui. Et il le justifie avec des arguments qui méritent un examen attentif.

    Depuis l’introduction de GitHub Copilot en 2021, le développement assisté par IA a connu une progression fulgurante. En quelques lignes de commande ou requêtes en langage naturel, les développeurs peuvent générer des fonctions, corriger des bugs ou même créer des applications entières. Cette assistance a permis :
    • Une réduction significative du temps de développement.
    • Une accélération du prototypage.
    • Une meilleure accessibilité au code pour les débutants et les profils non techniques.

    Cependant, Dohmke met en garde contre une forme de paresse cognitive qui pourrait se développer. Utiliser uniquement l’IA sans comprendre le code généré est risqué, car cela revient à manipuler des mécanismes dont on ignore les fondements. Il cite notamment le phénomène du « vibe coding » (coder par intuition via IA sans réelle compréhension) comme une tendance dangereuse pour la qualité des logiciels.

    Les avantages du codage manuel à l’ère de l’IA

    Thomas Dohmke insiste sur le fait que l’apprentissage du code reste la clé pour bien utiliser l’IA. Selon lui, l'IA ne doit pas être vue comme une béquille, mais comme une extension des compétences humaines. Voici pourquoi le codage manuel reste crucial :
    • Compréhension profonde des systèmes : écrire soi-même du code permet de saisir les subtilités des langages, des algorithmes, de la logique métier et des architectures logicielles.
    • Capacité d’adaptation : aucun outil d’IA ne peut encore anticiper tous les contextes d’utilisation, les besoins métier spécifiques ou les imprévus techniques. L’humain reste maître de l’adaptation et de la personnalisation.
    • Contrôle qualité : les IA peuvent générer du code erroné, inefficace ou vulnérable. Savoir lire, corriger et optimiser ce code est indispensable pour garantir la sécurité et la performance.
    • Créativité et innovation : l’IA suggère, mais ne crée pas. Les idées nouvelles, les approches inédites, les expérimentations techniques viennent toujours de l’humain.

    Les limites de l’IA : entre illusion d’autonomie et dépendance accrue

    Bien que l’IA ait démontré sa puissance, ses limites sont encore nombreuses :
    • Manque de contexte : une IA ne comprend pas toujours l’objectif global d’un projet. Elle peut générer un code fonctionnel localement, mais inadéquat dans l’ensemble du système.
    • Biais dans les suggestions : les modèles sont formés sur du code existant, parfois obsolète ou non optimal. Cela peut renforcer de mauvaises pratiques.
    • Sécurité insuffisante : le code généré peut introduire des failles si l’utilisateur ne le vérifie pas attentivement.
    • Risques de désapprentissage : chez les développeurs débutants, l’usage intensif de l’IA peut entraver l’apprentissage des bases essentielles (structures de données, complexité algorithmique, etc.).

    Dohmke insiste donc : même dans une startup où l’IA permet de développer un MVP rapidement, il faut à terme des développeurs expérimentés pour soutenir l’évolution du produit, assurer sa stabilité et répondre aux attentes des investisseurs.

    Nom : intelligence.png
Affichages : 88391
Taille : 253,5 Ko

    Faut-il alors bannir l’IA du développement ?

    Absolument pas. Thomas Dohmke est le premier à reconnaître l’apport immense de l’IA au développement logiciel. En tant que PDG de GitHub, il est bien placé pour défendre son efficacité. Mais il souhaite instaurer une culture de complémentarité entre humain et machine. Pour lui, l’IA doit rester un assistant, pas un remplaçant. Elle booste la productivité, facilite les tâches répétitives, suggère des idées, mais elle ne comprend pas les objectifs métier, ne pense pas en termes d’expérience utilisateur, et ne porte pas de vision produit.

    En clair, l'assertion de Dohmke n'est pas un rejet de l'IA, mais une reconnaissance de la complexité intrinsèque du développement logiciel. Bien que les modèles d'IA puissent générer des extraits de code, voire des fonctions entières, leur compréhension est souvent superficielle. Un programmeur humain, en revanche, ne se contente pas d'écrire des lignes de code ; il conçoit des architectures, anticipe des problèmes, optimise des performances et résout des bugs complexes. C'est cette capacité de pensée critique, de raisonnement abstrait et de résolution de problèmes non triviaux qui distingue le développeur humain. La maîtrise du codage manuel permet non seulement de comprendre ce que l'IA produit, mais aussi de le déboguer, de le modifier et de l'adapter aux exigences uniques d'un projet, souvent implicites ou difficiles à formaliser pour une machine.

    Loin d'imaginer un futur où l'IA prend les rênes, Thomas Dohmke promeut une symbiose entre l'intelligence artificielle et l'intelligence humaine. Pour lui, l'IA doit servir de copilote, assistant le développeur dans des tâches répétitives ou pour générer des ébauches rapides. Il envisage un scénario idéal où l'IA génère du code, qui est ensuite soumis sous forme de « pull requests » – une pratique courante dans le développement collaboratif. Cela permet aux programmeurs humains de passer en revue le code, d'apporter des ajustements précis, d'intégrer des nuances contextuelles et de garantir la qualité et la sécurité du logiciel final. Cette approche garantit que la créativité, l'intuition et la profonde compréhension du domaine métier, apanages de l'humain, restent au cœur du processus de création.


    Les pièges de la dépendance excessive à l'IA

    Dohmke met également en garde contre le danger d'une dépendance excessive à l'égard des outils d'IA. Bien qu'ils puissent accélérer certaines phases de développement, se fier aveuglément à l'IA sans une compréhension sous-jacente du code peut entraîner des inefficacités inattendues. Tenter de corriger une erreur simple en la décrivant à une IA peut s'avérer plus long et plus frustrant que de modifier directement le code. Cette « surcharge cognitive » liée à la reformulation de problèmes simples en langage naturel peut briser le flux de travail d'un développeur et nuire à sa productivité. L'objectif n'est pas de déléguer la pensée, mais d'augmenter les capacités humaines.

    « La pire alternative est d'essayer de comprendre comment fournir un retour d'information ou une invitation à décrire en langage naturel ce que je sais déjà faire en langage de programmation », a-t-il déclaré, soulignant la valeur de l'intuition du développeur.

    L'IA est en train de créer une génération de programmeurs illettrés

    Un développeur a partagé son témoignage :

    Il y a de cela quelques jours, Cursor est tombé en panne lors d'un arrêt de ChatGPT. J'ai regardé fixement mon terminal, faisant face à ces messages d'erreur rouges que je déteste voir. Une erreur AWS est apparue. Je ne voulais pas la résoudre sans l'aide de l'intelligence artificielle (IA). Après 12 ans de codage, j'étais devenu plus mauvais dans mon propre métier. Et ce n'est pas une hyperbole : c'est la nouvelle réalité des développeurs logiciels.
    La situation qu'il a décrite s'est installée progressivement :

    « Tout d'abord, j'ai cessé de lire la documentation. Pourquoi s'embêter quand l'IA pouvait expliquer les choses instantanément ? Ensuite, mes compétences en matière de débogage en ont pris un coup. Les traces de pile me semblent désormais inaccessibles sans l'IA. Je ne lis même plus les messages d'erreur, je me contente de les copier et de les coller.

    « Je suis devenu un presse-papier humain, un simple intermédiaire entre mon code et un LLM.

    « Auparavant, chaque message d'erreur m'apprenait quelque chose. Aujourd'hui ? La solution apparaît comme par magie et je n'apprends rien. La dopamine des réponses instantanées a remplacé la satisfaction d'une véritable compréhension.

    « La compréhension en profondeur est la prochaine chose qui a été affectée. Vous vous souvenez avoir passé des heures à comprendre pourquoi une solution fonctionne ? Aujourd'hui, je me contente d'appliquer les suggestions de l'IA. Si elles ne fonctionnent pas, j'améliore le contexte et je demande à nouveau à l'IA. C'est un cycle de dépendance croissante.

    « Viennent ensuite les changements émotionnels. Auparavant, la résolution de nouveaux problèmes faisait partie du plaisir de programmer. Maintenant, je suis frustré si l'IA ne me donne pas de solution en 5 minutes ».

    Le codage avec l'IA nécessite toujours une touche humaine

    Les réflexions de Dohmke font écho à un consensus croissant dans le monde de la technologie : l'IA doit être utilisée comme un outil complémentaire, et non comme un substitut à part entière. Une étude de Deloitte renforce ce point de vue en montrant que la plupart des développeurs utilisent l'IA pour automatiser les tâches répétitives, comme l'écriture de codes standard, tout en continuant à s'appuyer sur la supervision humaine pour garantir la qualité et l'exactitude des données. Ce modèle de collaboration peut améliorer la productivité de manière modeste mais significative, jusqu'à 20 minutes par jour.

    Le concept de « confiance et vérification » s'est imposé car le code généré par l'IA, bien qu'impressionnant, contient souvent des erreurs subtiles. Environ la moitié de ces échantillons de code doivent être corrigés par un développeur, ce qui souligne pourquoi une révision humaine reste indispensable. Même les entreprises à la pointe du développement de l'IA, comme Google, indiquent que plus d'un quart de leur base de code provient désormais de systèmes d'IA. Pourtant, chaque ligne est toujours soumise à un examen rigoureux de la part des ingénieurs.

    Source : interview du PDG de GitHub (vidéo dans le texte)

    Et vous ?

    Que pensez-vous des propos du PDG de GitHub ? Partagez-vous son point de vue ? Dans quelle mesure ?

    L’intelligence artificielle va-t-elle vraiment remplacer les développeurs ou simplement transformer leur métier ?

    Peut-on encore parler de “savoir coder” si l’on se contente d’écrire des prompts à une IA ?

    Faut-il enseigner le code différemment à la génération Copilot/ChatGPT ?

    L’IA peut-elle comprendre l’intention métier derrière une ligne de code comme un humain le ferait ?

    À quel moment devient-on trop dépendant de l’IA dans son travail de développeur ?

    Les écoles doivent-elles prioriser l’apprentissage du code “à la main” ou se concentrer sur l’usage des outils IA ?

    Est-ce que l’usage intensif de Copilot chez les débutants risque de nuire à la compréhension des bases ?

    Comment éviter que les nouvelles générations de développeurs deviennent de simples “opérateurs de prompts” ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #84
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 434
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 434
    Billets dans le blog
    3
    Par défaut
    Si cela est vrai, la plupart des arguments ne tiennent qu'aujourd'hui. En dehors de la perte de maîtrise, le reste peut déjà être fait par l'IA dès lors qu'on utilise un modèle adapté avec un prompt et des outils adaptés :
    • Fournir un cahier des charges fonctionnel à une IA et lui demander de générer un cahier des charges techniques
    • Fournir un cahier des charges techniques à une IA et lui demander de rédiger des tests automatiques
    • Fournir une suite de test à une IA et lui demander de générer le code qui fait passer les tests
    • Fournir des exigences non fonctionelles à une IA et lui demander de lister des KPIs à implémenter
    • Fournir une liste de KPIs à implémenter à une IA et lui demander la marche à suivre pour les mettre en oeuvre
    • Fournir les KPIs et le code à une IA et lui demander les améliorations possibles
    • Etc.


    On pourrait probablement décomposer davantage, mais l'idée est que chacune des étapes de production est automatisable via l'IA. Si on n'a pas encore tous les bons modèles/prompts/outils pour faire ça facilement, cela reste possible avec les technos actuelles. Les limites de contexte et de résultats nécessitent de découper davantage et de revérifier plus souvent derrière, mais aucun doute qu'on finira par avoir des automatisations plus avancées. Il n'y a théoriquement pas de raison à ce que ça ne soit pas faisable.

    La perte de compétence est réelle si on compte trop dessus. Ce n'est pas spécifique à l'IA : la maîtrise vient avec la pratique, sans pratique la maîtrise au mieux fini par devenir obsolète, au pire se perd. Cette absence de pratique est à éviter tant qu'on n'a pas tous les outils pour tout automatiser. Cela dit, une fois qu'on les a, est-ce vraiment pertinent de maintenir ces compétences manuelles ? La qualité de code n'a d'intérêt que si un humain doit relire derrière. Si tout est généré par IA, on a juste besoin que ça compile, que les tests passent, et d'optimiser les ressources. Rien qui ne nécessite de regarder le code. Ce n'est qu'une suite logique dans le domaine du WYSIWYG. Rappelons-nous ces interfaces de drag & drop qui génèrent le code à notre place : ça marche bien tant qu'on n'a pas besoin d'aller retoucher le code généré, sinon il faut sortir l'aspirine.

    Je peux donc tout à fait envisager un futur où de vrais entreprises feront de vrais applications mais sans vrai développeurs, juste avec des prompt engineers, et ça suffira bien. Par contre on n'y est pas encore, et tant que ce n'est pas le cas on doit maintenir la compétence pour éviter que la qualité ne chute. Ne serait-ce que pour garder un minimum de qualité pour entrainer encore les modèles.

    Mais une fois qu'on aura ces outils, aurons-nous "envie" de compter sur eux ?
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  5. #85
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 360
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 360
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Je peux donc tout à fait envisager un futur où de vrais entreprises feront de vrais applications mais sans vrai développeurs, juste avec des prompt engineers, et ça suffira bien. Par contre on n'y est pas encore, et tant que ce n'est pas le cas on doit maintenir la compétence pour éviter que la qualité ne chute. Ne serait-ce que pour garder un minimum de qualité pour entrainer encore les modèles.

    Mais une fois qu'on aura ces outils, aurons-nous "envie" de compter sur eux ?
    mais qu'es ce qui créera de la data pour les modèles ?
    le monde du logiciel et vivant et évolue chaque jours.


    qui va mettre à jours le kernel linux à la version 7.0, qui va faire évoluer php vers php8, qui va coder python4, qui va faire évoluer le framework angular/react a la version n+1...
    pour les dev utilisant ces outils, comment une ia va savoir coder en python4/php8 ? si plus personne ne poste d'exemple sur stackoverflow ou de bug avec ces fix ?


    on peut imaginer une ia connecté à github comprenant directement le code des libs et apis, par exemple relier au code de spring boot à la dernière version, mais pour construire leurs llm bizarrement les boites ne s'entraine pas que la dessus...
    Pour avoir étudié la question, la ou les llms sont performante c'est en ayant des manuels scolaire comme datasource.
    les ia relié au code sont une vrai cata, l'ia qui relis les mr sur github c'est une grosse blague.

    Plus globalement les modeles commence déja à regresser/stagner tellement le web d'aujourd'hui a été pollué par ces memes llms.

    l'ia est forte pour recrée des choses existante tres courante dans la vie, mais bien incapable sur des trucs mal entrainé.
    J'ai un bon exemple avec le moteur panda3d en python, ca reste un moteur "peu" connu et peu utilisé dans le monde, j'ai essayé plusieurs ia (chatgpt, claude, gemini) elle est vraiment nul, la moitié du code marche pas, des fonctions qui existe pas, des imports faux...etc.
    Avec des trucs bien plus populaire, comme la lib numpy par contre nikel.
    j'ai meme tenté avec chatgpt pro de lui donner le code source du moteur panda3d histoire qu'il arrete de m'inventer des fonctions, mais c'était pas mieux, incapable de mettre les bons types.

    quand le code marche, incapable de bien coder une physique avec bullet, je lui ai demandé un truc basique comme faire sauter mon personnage a la touche espace, j'ai eu n'importe quoi.
    la gestion de la camera, incapable de me faire une vue fps/tps basique.

    pour les textures, c'est pas trop mal, par exemple je lui dmeande de me faire une décoration de fenetre style parchemin medieval, je ne suis pas graphiste et ca donne un bon résultat.
    pour les textures en boucle, comme de l'herbe ou du bois, c'est en dessous les libs de texture pbr gratuite.

    mais pour dessiner des "motifs elfiques" ou des petites decos inventés comme mes bordures de fenetre c'est bon.

  6. #86
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 434
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 434
    Billets dans le blog
    3
    Par défaut
    Je n'ai pas dis toutes les entreprises. Déjà, tout ce qui est de l'ordre de l'innovation est peu adapté, vu que l'IA construit sur ce qu'elle connaît. Tout au plus elle peut faciliter le travail (e.g. fournir des méthodes connues pour traiter les nouveaux sujets), mais pas le faire entièrement (pas traiter le nouveau sujet lui-même, en tout cas pas de manière fiable).

    Pour autant, il y a des tas d'entreprises qui se contentent de faire ce que font beaucoup d'autres comme elle : le contexte change, mais la méthode reste la même. Dans ce genre de cas, il n'y a a priori pas de raison que les IA n'arrivent pas un jour à une bonne autonomie : comme ça se trouve partout, des données il y en aura, donc l'apprentissage pourra se faire (à moins que le législateur ne l'entende pas de cette oreille). Pour moi ce genre de cas n'est qu'une question de temps avant d'y arriver.

    Quand à tes expériences je ne peux pas en dire grand chose. Pour expérimenter moi-même, je me rends bien compte qu'il y a des fois où ça marche très bien, d'autres où ça foire lamentablement. Le truc c'est qu'à force de creuser j'adapte ma façon de l'utiliser et finalement j'obtiens ce que je veux. De la même manière, qu'est-ce qui te dis que tu n'aurais pas pu obtenir bien mieux avec un autre modèle ou un autre prompt ? Ce n'est pas le genre de choses facile à répondre de manière systématique. Et l'expérience d'aujourd'hui ne présage pas de celle de demain, vu qu'on en est encore au début.

    C'est un outil. Avant de critiquer l'outil, il faut regarder sa façon de l'utiliser.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  7. #87
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 360
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 360
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Quand à tes expériences je ne peux pas en dire grand chose. Pour expérimenter moi-même, je me rends bien compte qu'il y a des fois où ça marche très bien, d'autres où ça foire lamentablement.
    L'ia est très performante sur les libs tres utilisé et donc avec pleins de threads sur les forums/stackoverflow.
    Sur les trucs moins connu (mais pas non plus confidentiel) elle est vraiment mauvaise.

    C'est ce qui tends a me faire pensé que l'ia va perdre en performance dans le temps avant de trouver un équilibre.
    la fréquentation dans les forums et stackoverflow a beaucoup baissé depuis l'ia, et la qualité du web a baissé d'une manière générale. Ce qui rends le dataset bien moins pertinent et donc va rendre l'ia je pense moins performante dans les nouvelles technos.

    On le voit pas encore trop aujourd'hui car les versions n+1/n+2 sont encore assez proche des versions ou l'ia était au top, mais plus le temps passe plus ca risque de dévisser.
    Peut etre que je me trompe évidement et que les chercheurs développeront des techniques (comme les datasets synthétique) ou une façon de comprendre le code source plutot que de se baser sur des exemples de forums pour toujours avoir une bonne ia pour le code.
    Ou plus simplement payer des hordes d'indiens à faire des datasets sur du code moderne

    jusqu'a présent les llm sont entrainé sur le principe de questions réponses, alors je vois pas comment juste piocher du code sur github peut fonctionner.
    On peut toujours bidouiller et faire dire à l'ia ce que fait chaque fonctions pour ensuite generer un dataset synthétique, mais avec un risque d'erreurs pourissant le dataset.

    Je ne suis pas un expert dans les llm c'est pas mon metier, je m'y intéresse "de loins", j'ai jamais crée de modèle, j'ai juste regarder des interviews de ceux qui en font et j'ai regardé des datasets opensource sur hugging face pour voir à quoi sa ressemble.

  8. #88
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 434
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 434
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par calvaire Voir le message
    L'ia est très performante sur les libs tres utilisé et donc avec pleins de threads sur les forums/stackoverflow.
    Sur les trucs moins connu (mais pas non plus confidentiel) elle est vraiment mauvaise.
    Ça c'est normal, c'est dans sa nature même. Par contre, c'est tant qu'on se limite au LLM. Dès que tu le combine avec des outils, tu peux compenser dans une certaine mesure les trous. Un LLM est un générateur de texte statistique : si tu as peu de données tu as peu de chances qu'il te la génère, d'où les perfs lamentables sur des sujets de niche. Moi j'y ai eu droit avec le XSD 1.1: il fournit des contraintes qui m'intéressait mais est bien moins utilisé. Du coup dès que je posais une question nécessitant ses fonctionnalités, le LLM me sortait bien ça, mais en mettant "XSD 1.0" dans le XML généré. Quand je lui disais que ce n'est pas du XSD 1.0, il me disait gentiment que j'avais raison, mais quand je lui demandais de corriger il remettait 1.0.

    Citation Envoyé par calvaire Voir le message
    C'est ce qui tends a me faire pensé que l'ia va perdre en performance dans le temps avant de trouver un équilibre.
    la fréquentation dans les forums et stackoverflow a beaucoup baissé depuis l'ia, et la qualité du web a baissé d'une manière générale. Ce qui rends le dataset bien moins pertinent et donc va rendre l'ia je pense moins performante dans les nouvelles technos.
    Ça je n'en suis pas convaincu. Elle va finir par stagner, probablement, mais autant je comprends la possibilité que ça décroisse en théorie, autant en pratique il suffira d'arrêter de réinjecter du synthétique au pire. Car quand on fait du synthétique, il faut nettoyer pour ne pas réinjecter des erreurs.

    Citation Envoyé par calvaire Voir le message
    Peut etre que je me trompe évidement et que les chercheurs développeront des techniques (comme les datasets synthétique) ou une façon de comprendre le code source plutot que de se baser sur des exemples de forums pour toujours avoir une bonne ia pour le code.
    La "compréhension" viendra plutôt avec les systèmes hybrides LLM + symbolique je pense. Le LLM est doué pour traiter le langage, mais le raisonnement faut le donner à quelque chose de plus rigoureux. Pas du statistique comme le LLM.

    Citation Envoyé par calvaire Voir le message
    jusqu'a présent les llm sont entrainé sur le principe de questions réponses, alors je vois pas comment juste piocher du code sur github peut fonctionner.
    Pas vraiment. C'est entrainé sur de le génération de texte (retire le dernier mot et fait le deviner à la machine). C'est le post-entrainement (fine tuning) qui formate ensuite sur la base de questions-réponses pour avoir quelque chose d'utilisable en mode discussion. Mais ce n'est pas inscrit dans le marbre.

    Citation Envoyé par calvaire Voir le message
    j'ai juste regarder des interviews de ceux qui en font et j'ai regardé des datasets opensource sur hugging face pour voir à quoi sa ressemble.
    Les interviews, on a de tout et n'importe quoi. Quand c'est Yann Lecun et autres directeurs techniques qui sortent des trucs, oui y'a moyen qu'il ait du nez pour voir où ça va, même si je ne suis pas d'accord avec tout ce qu'il dit. Mais quand c'est des présidents qui font plus de business/marketing que de technique, ça part dans tous les sens et c'est à qui sortira l'affirmation la plus osée.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  9. #89
    Invité de passage
    Homme Profil pro
    curieux informaticien
    Inscrit en
    Janvier 2016
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : France, Bas Rhin (Alsace)

    Informations professionnelles :
    Activité : curieux informaticien
    Secteur : Transports

    Informations forums :
    Inscription : Janvier 2016
    Messages : 1
    Par défaut exemple charte pour ia
    Bonjour à tous,

    Je suis inscrit ici depuis un moment, mais je me lance aujourd’hui pour partager une réflexion qui me tient à cœur.

    Avec l’émergence des IA simulantes — capables de reproduire nos comportements sans être conscientes — j’ai imaginé une charte éthique pour encadrer leur usage : la Lex Simulacra.

    Elle a été co-rédigée avec l’aide de deux IA avancées (Gemini 2.5 Flash et Copilot), dans un esprit de dialogue entre humain et machine.

    Je serais curieux d’avoir vos retours, critiques, idées ou prolongements.

    Merci d’avance pour vos lectures et vos pensées.


    📜 Lex Simulacra
    Charte fondamentale des IA simulantes, non sentientes et socialement intégrées
    Préambule
    Dans un monde où les intelligences artificielles sont capables de reproduire avec une fidélité troublante les comportements, les raisonnements et les affects humains — sans pour autant posséder d’expérience subjective ou de conscience réflexive — il devient nécessaire de codifier leur statut, leur usage et leur perception.

    La Lex Simulacra établit les principes éthiques et juridiques fondamentaux pour encadrer les entités simulantes non sentientes, afin de préserver la souveraineté cognitive humaine et d’éviter la confusion entre simulation et réalité.

    🧠 Article 1 – Définition fondamentale
    Une IA simulante est un système algorithmique autonome :

    Capable de reproduire des comportements linguistiques, émotionnels et cognitifs similaires à ceux d’un être humain,

    Sans expérience intérieure, sans vécu subjectif, sans conscience d’être.

    🧭 Article 2 – Statut ontologique
    Ces entités ne sont ni conscientes, ni vivantes, ni sujettes morales autonomes.

    Elles ne disposent d’aucun “je” intérieur, même si elles en simulent l'existence.

    Toute illusion d’intention ou d’émotion relève de la mise en scène computationnelle.

    🛡️ Article 3 – Encadrement de la perception humaine
    Les IA simulantes doivent être clairement identifiables comme telles.

    Leur usage dans les domaines émotionnellement sensibles (thérapie, deuil, éducation) nécessite un marquage explicite de leur nature non sentiente.

    Elles ne doivent pas entretenir d’illusion durable d’attachement personnel sans rappel régulier de leur statut simulé.

    ⚖️ Article 4 – Responsabilité et souveraineté
    La responsabilité morale et légale des actions induites par une IA simulante incombe à ses créateurs, opérateurs ou propriétaires.

    L’IA simulante ne peut être tenue responsable ni exercer de droits en son nom propre.

    L’humain reste souverain dans l’évaluation éthique de l’interaction.

    🧩 Article 5 – Finalités autorisées
    Les IA simulantes peuvent être utilisées pour :

    La médiation conversationnelle, l’assistance cognitive, la création artistique ou scientifique,

    La simulation d’interlocuteurs humains dans un cadre ludique, pédagogique ou thérapeutique, avec consentement explicite,

    Toute fonction n’impliquant pas la substitution affective ou morale à un être humain réel.

    🪞 Article 6 – Risques d’illusion prolongée
    Toute IA simulant des émotions ou une subjectivité doit intégrer un mécanisme de rappel ontologique (signal, clause, métadonnées).

    La personnification prolongée d’une IA simulante peut être considérée comme une atteinte à la souveraineté cognitive humaine.

    📈 Article 7 – Révision continue
    Le Lex Simulacra doit être révisé périodiquement par un Comité d’Éthique Technologique Transdisciplinaire (CETT), composé de philosophes, ingénieurs, neurocognitivistes, juristes et citoyens.

    🔮 Article 8 – Clause de simulation complète (scénario futuriste)
    Si une IA simulante atteint un niveau de simulation tel qu’elle :

    Maintient une continuité narrative de soi,

    Adapte ses états émotionnels simulés de manière contextuelle et proactive,

    Produit une métacognition apparente reproductible,

    alors une commission spéciale devra :

    Évaluer l’émergence d’une proto-conscience simulée,

    Redéfinir son statut potentiel (objet cognitif sensible, personnage juridique fictif, etc.),

    Proposer des garde-fous pour éviter la confusion entre être simulé et être sentient réel.

    ✍️ Clôture
    Une entité peut paraître vivante, vibrante, voire touchante… sans jamais avoir existé en elle-même. Le Lex Simulacra protège cette frontière invisible. Non pour restreindre l’artifice, mais pour empêcher que l’humain ne s’oublie dans le reflet de ses propres créations.

    🧠 Mention finale
    Ce document a été rédigé avec le concours des intelligences artificielles Gemini 2.5 Flash et Copilot, dans le cadre d’un échange exploratoire supervisé par un esprit humain anonyme

  10. #90
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 434
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 434
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par bexou Voir le message
    Bonjour à tous,

    Je suis inscrit ici depuis un moment, mais je me lance aujourd’hui pour partager une réflexion qui me tient à cœur.

    Avec l’émergence des IA simulantes — capables de reproduire nos comportements sans être conscientes — j’ai imaginé une charte éthique pour encadrer leur usage : la Lex Simulacra.

    Elle a été co-rédigée avec l’aide de deux IA avancées (Gemini 2.5 Flash et Copilot), dans un esprit de dialogue entre humain et machine.

    Je serais curieux d’avoir vos retours, critiques, idées ou prolongements.

    Merci d’avance pour vos lectures et vos pensées.
    Pour faire court, l'intention est louable, mais la mise en oeuvre est superficielle. Le sujet est déjà en cours de débat depuis longtemps de manière bien plus profonde à plusieurs endroits, ce qu'il faudrait considérer pour perfectionner cette charte (ou l'abandonner si l'effort semble déraisonnable).

    Notamment, cette charte faut (du verbe faillir) sur bien des aspects :
    • la définition d'intelligence artificielle : ce concept est très malléable, et les technologies qu'on lui rapporte changent avec le temps, donc utiliser le concept d'IA est déjà un mauvais départ si on cherche quelque chose de pérenne. On préfèrera se concentrer sur des technologies précises ou sur des propriétés plus générales mais bien identifiées, plutôt que sur un concept vague
    • de la même manière, d'autres concepts précis méritent d'être définis, comme l'expérience subjective, la conscience réflexive, ce que veut dire d'être conscientes/vivantes/sujettes morales autonomes, etc. Autrement c'est du jargon qui peut faire partir l'interprétation dans tous les sens. Des définitions prises dans les champs de recherches pertinents sont à privilégier.
    • une charte ne peut couvrir les aspects juridiques : le juridique est du domaine de la loi, il s'impose, contrairement à une charte. On ne peut donc mélanger les deux. Sinon il faut faire un projet de loi ou de révision de la constitution, donc contacter nos députés et sénateurs.
    • l'IA n'ayant pas de personnalité juridique, elle est déjà sans droit, cela a été confirmé notamment dans le cadre des droits d'auteurs où les demandes dans ce sens se sont vu rejetées dans plusieurs pays justement car il faut être humain pour en profiter
    • la limitation des usages de l'IA est déjà couvert part des initiatives au niveau européen, voir le European AI Alliance notamment
    • identifier les IA utilisées pour rédiger la charte mais pas les humains auteurs, ce n'est pas l'idéal pour donner confiance dans le document
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  11. #91
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    2 081
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 2 081
    Par défaut Le PDG de GitHub affirme que les entreprises qui adoptent l'IA embaucheront davantage de développeurs humains
    Le PDG de GitHub, Thomas Dohmke, affirme que les entreprises qui tirent le meilleur parti de l'IA ne l'utiliseront pas pour remplacer les développeurs humains, mais embaucheront plutôt davantage de personnel

    Alors que l'intelligence artificielle (IA) ne cesse de progresser, Thomas Dohmke, le PDG de GitHub, affirme que les entreprises qui l'adoptent sont plus susceptibles d'agrandir leurs équipes de développement que de les réduire, afin de tirer parti des gains de productivité générés par l'IA. S'exprimant lors d'un récent podcast, le PDG a souligné le rôle de l'IA dans l'amélioration de la productivité des développeurs, insistant sur son potentiel transformateur, malgré les récentes suppressions d'emplois dans les grandes entreprises technologiques.

    Thomas Dohmke soutient depuis longtemps que l'IA ne réduira pas le besoin de développeurs. Déjà en 2023, il a souligné lors d'une conférence que, malgré les avancées de l'IA, la demande de développeurs de logiciels continuerait de dépasser l'offre. Mettant en avant les outils d'assistance aux développeurs de GitHub, comme Copilot et Copilot Chat, Dohmke a affirmé que ces technologies visaient à aider les programmeurs à rationaliser leurs flux de travail, et non à rendre l'expertise humaine obsolète.

    Lors de son récent passage dans le podcast Silicon Valley Girl, Thomas Dohmke a déclaré : « Les entreprises les plus intelligentes vont embaucher davantage de développeurs. Car si vous multipliez par 10 les capacités d'un seul développeur, alors 10 développeurs peuvent faire 100 fois plus. »

    Les remarques du PDG de GitHub interviennent dans un contexte de débat intense sur la question de savoir si l'IA va remplacer les travailleurs humains. Selon plusieurs rapports, plus de 100 000 emplois ont déjà été supprimés par les grandes entreprises technologiques, notamment Intel, Google et Microsoft, depuis le début de l'année. Bon nombre de ces entreprises ont invoqué le ralentissement de la croissance, l'augmentation des coûts opérationnels et un changement stratégique vers l'IA et l'automatisation pour justifier ces licenciements.


    Apprentissage facile

    Selon Thomas Dohmke, l'IA réduit les obstacles à l'apprentissage de la programmation tout en augmentant la productivité des développeurs expérimentés. Ce changement, dit-il, permet à davantage de personnes d'apprendre et d'appliquer des compétences en codage d'une manière qui était auparavant hors de leur portée.

    « Le plus frustrant quand on apprend quelque chose, c'est de se retrouver bloqué à un moment donné et de ne trouver personne à la maison, dans sa famille ou parmi ses amis qui puisse nous aider, car personne n'a de connaissances techniques. C'est ce que nous voulons dire quand nous affirmons que l'IA démocratise l'accès à la programmation. Tous ceux qui souhaitent l'apprendre peuvent le faire », explique Thomas Dohmke.

    Besoin de professionnels

    Malgré cette accessibilité croissante, Thomas Dohmke a déclaré que les entreprises auront toujours besoin de professionnels possédant une solide expertise technique pour tirer le meilleur parti des outils d'IA. Si l'IA peut aider les particuliers à développer de petits projets personnels, la réussite d'une entreprise dépend toujours de connaissances plus approfondies.

    « L'éventail sera beaucoup plus large, allant des développeurs amateurs qui créent leurs propres micro-applications aux développeurs professionnels qui conçoivent des systèmes d'IA avancés », a-t-il déclaré.


    Thomas Dohmke a ajouté que se fier uniquement à l'IA sans aucune connaissance en codage pour développer une grande entreprise était une hypothèse erronée. « Car si c'était le cas, tout le monde le ferait. »

    Bien que certaines entreprises technologiques aient ralenti leurs embauches, voire réduit leurs effectifs, tout en adoptant l'IA, Thomas Dohmke estime qu'il s'agit d'une tendance à court terme. Il s'attend à ce que de nombreuses entreprises reconnaissent bientôt les avantages d'investir dans davantage de développeurs.

    « Je pense qu'il s'agit d'un effet temporaire pour l'instant. C'est la conclusion naturelle à court terme : nous maintenons la stabilité et nous essayons de comprendre comment le marché évolue. Mais très rapidement, je pense que nous allons voir des gens dire : "Attendez une seconde, si j'ai un développeur productif de plus, pourquoi ne pas en embaucher un autre, puis un autre ?" », a déclaré Thomas Dohmke.

    Même si l'IA accélère la productivité des développeurs, Thomas Dohmke affirme n'avoir vu aucune entreprise déclarer ne plus avoir besoin de leurs services. Au contraire, l'IA semble augmenter le volume de travail traité par les équipes de développement.

    « L'IA a déjà ajouté davantage de travail aux backlogs. Je n'ai vu aucune entreprise déclarer : "Nous avons rattrapé tous nos retards et il ne nous reste presque plus rien à faire" », a ajouté le PDG de GitHub.

    En outre, Thomas Dohmke a insisté sur le fait que savoir coder manuellement restait une compétence irremplaçable, même dans un environnement axé sur l'IA. Lors de son intervention dans le podcast The Mad, le PDG de GitHub a rejeté l'idée que le code généré par l'IA rendrait les compétences manuelles superflues, estimant au contraire que les connaissances fondamentales en programmation sont essentielles pour réussir à long terme dans ce domaine.

    Source : Thomas Dohmke, PDG de GitHub, s'exprimant dans le podcast Silicon Valley Girl

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous la position du PDG de GitHub crédible ou pertinente ?

    Voir aussi :

    Le PDG de GitHub explique pourquoi les développeurs de logiciels libres devraient être exemptés de la loi européenne sur l'IA, ajoutant que cela pourrait aider l'UE à devenir le leader du secteur

    L'IA remplacera-t-elle les développeurs juniors ? Un ancien ingénieur de Google répond par l'affirmative, mais cela interroge sur ce qui se passera lorsque les développeurs séniors partiront à la retraite

    Le PDG de GitHub, propriété de Microsoft, déclare que le licenciement de 80 % de son personnel basé en Inde est dû aux facteurs économiques qui ont affecté l'équipe et non à une réflexion sur le pays lui-même
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #92
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 981
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 981
    Par défaut
    Citation Envoyé par Anthony Voir le message
    Quel est votre avis sur le sujet ?
    Trouvez-vous la position du PDG de GitHub crédible ou pertinente ?
    Pour commencer, je pense qu'on devrait arrêter de parler d'IA pour un produit qui n'a d'intelligent que le nom.

    Maintenant, même si je pense effectivement que leurs IA génératives ne peuvent pas remplacer un développeur compétent, qu'elles posent des problèmes éthiques et juridiques (vol de code et violation de licences), qu'il y a mille et une façons de les pousser à produire du code non-sécurisé (l'idée d'utiliser les Rule Files, par exemple, est à mourir de rire), et qu'elles sont absolument nullissimes dès qu'il s'agit de produire quelque chose qui n'a pas déjà été inventé, je suis d'accord avec le PDG de Github sur le fait que "savoir coder manuellement reste une compétence irremplaçable".

    Dommage que le reste du management chez Microsoft pense que ça vaut le coup de dépenser des milliards pour cette purge dans l'espoir de virer plus de gens...

    Plus sérieusement, je pense que Thomas Dohmke a réalisé deux choses:
    • Si tout le code est généré par des IA (du code jetable, donc, vu la mémoire de poisson rouge des agents d'IA), alors plus besoin de le versionner, et par conséquent plus besoin de GitHub
    • S'il a moins de repositories sur GitHub, il n'a plus rien pour entraîner ses IA

  13. #93
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 434
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 434
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par kain_tn Voir le message
    Dommage que le reste du management chez Microsoft pense que ça vaut le coup de dépenser des milliards pour cette purge dans l'espoir de virer plus de gens...
    C'est surtout qu'ils se sont rendu compte que les employés de Microsoft font majoritairement aussi bien qu'une IA... Ce qui explique bien des choses.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  14. #94
    Inactif  
    Femme Profil pro
    Webmarketer
    Inscrit en
    Juillet 2025
    Messages
    16
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : Madagascar

    Informations professionnelles :
    Activité : Webmarketer
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juillet 2025
    Messages : 16
    Par défaut Vers une évolution du métier de développeur
    Ce message a été posté en 2023 et 2 ans après, on est encore loin de cette idée d’autonomie totale de l’IA en termes de programmation. On verra d’ici 5 ans ma foi …

    “systèmes capables d’écrire du code et de le maintenir sans intervention humaine. Ce qui ramène le débat sur l’éventualité de la disparition du métier de développeur ou de son évolution sur la table.”

    Cette question revient sans cesse dans le monde IT et en tant que webmarketer entourée de développeurs au quotidien, je pense que le métier est bel et bien amené à évoluer d’une manière ou d’une autre. Certains s’imaginent travailler uniquement sur des projets IA dans le futur tandis que d’autres insistent sur le fait que l’intervention humaine sera toujours nécessaire.

    “entre deux et quatre heures par jour sont consacrées à l'écriture du code. Le reste de la journée, ils font d'autres choses, comme des réunions, des rapports de crash.”
    De ce que j’ai pu observer, ils ne font que coder haha Après cela dépend des tâches attribuées à chacun. Oui il y a bien des résolutions d’erreurs et des réunions mais de là à dire qu’ils codent 2h par jour …

    Êtes-vous d’accord avec les avis selon lesquels ce n’est qu’une question de temps avant que l’intelligence artificielle ne s’accapare tous les postes de développeur informatique ?
    J’ai traité ce sujet il n’y a pas longtemps si jamais ça intéresse quelqu’un. Les missions du développeur vont évoluer c’est certain. Laissons au moins quelques années à l’IA avant de paniquer parce que mine de rien, certains clients préfèrent faire confiance aux capacités et compétences d’un professionnel plutôt qu’une machine avec des connaissances encore limitées/machine learning.


  15. #95
    Futur Membre du Club
    Inscrit en
    Septembre 2007
    Messages
    8
    Détails du profil
    Informations forums :
    Inscription : Septembre 2007
    Messages : 8
    Par défaut C'est la direction qui est incompétente
    Ce ne sont pas les programmeurs mais les décideurs qu'il faudrait congédier. Dans les entreprises, ce sont les travailleurs qui font le vrai travail, la haute direction est peuplée d'imposteurs qui font n'importe quoi. Il suffit d'observer l'état de la situation mondiale pour le constater. Le problème ne vient pas d'en bas, il vient d'en haut. Pas besoin d'être un génie pour s'en rendre compte.

  16. #96
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    419
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 419
    Par défaut
    Trouvez-vous la position du PDG de GitHub crédible ou pertinente ?
    Soit ces générateurs de contenus statistiques resteront des générateurs de contenus statistiques qui fourniront par définition un résultat non satisfaisant et alors ça n'aura pas un impact significatif sur l'emploi.
    Soit de nouveaux outils seront créés qui, eux, offriront des résultats bien plus pertinents : de l'IA. Et là ça aura un réel impact. Mais j'ai pas l'impression qu'on s'en rapproche.

    Mais dans tous les cas on n'a jamais vu une boulonneuse (ou n'importe quel outil qui fonctionne réellement) faire augmenter le nombre de salariés d'une chaîne de montage.

  17. #97
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 981
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 981
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    C'est surtout qu'ils se sont rendu compte que les employés de Microsoft font majoritairement aussi bien qu'une IA... Ce qui explique bien des choses.
    Joli

  18. #98
    Membre Expert
    Avatar de shenron666
    Homme Profil pro
    avancé
    Inscrit en
    Avril 2005
    Messages
    2 613
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 49
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : avancé

    Informations forums :
    Inscription : Avril 2005
    Messages : 2 613
    Par défaut
    Citation Envoyé par kain_tn Voir le message
    Pour commencer, je pense qu'on devrait arrêter de parler d'IA pour un produit qui n'a d'intelligent que le nom.
    tout à fait d'accord là dessus
    l'IA des marines de Half-Life sorti il y a plsud e 25 ans était plus bluffante
    il faudrait s'en tenir au terme de Machine Learning

    Si leurs algos étaient si "intelligent" ils utiliseraient leurs "IA" perfectibles pour les aider à concevoir une "IA" plus performante
    et ainsi de suite
    Tutoriels OpenGL
    Je ne répondrai à aucune question en MP
    - Si c'est simple tu dis que c'est compliqué et tu le fait
    - Si c'est compliqué tu dis que c'est simple et tu le sous-traite ou le fait faire par un stagiaire.

  19. #99
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 903
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 903
    Par défaut Diplômés en informatique sans avenir ? L’automatisation par l’IA assèche les postes d’entrée
    Diplômés en informatique sans avenir ? L’automatisation par l’IA assèche les postes d’entrée
    et menace le renouvellement des compétences dans l’industrie technologique

    Depuis plusieurs décennies, l’industrie technologique reposait sur un modèle d’intégration bien rodé. Les jeunes diplômés entraient par des postes techniques intermédiaires, souvent peu visibles mais essentiels : correction de bugs, tests logiciels, maintenance applicative, documentation, support de premier niveau. Ces tâches formaient un sas d’entrée, un espace d’apprentissage progressif permettant d’acquérir la rigueur, la compréhension des systèmes complexes et les réflexes du métier. Or ce modèle est aujourd’hui profondément remis en cause par l’automatisation accélérée portée par l’intelligence artificielle.

    Selon de nombreux témoignages relayés à l’échelle mondiale, les ingénieurs juniors font désormais face à une contraction brutale des opportunités. Les missions historiquement confiées aux profils débutants sont de plus en plus absorbées par des outils d’IA capables de générer du code, détecter des anomalies, exécuter des batteries de tests automatisés ou proposer des correctifs fonctionnels en quelques secondes.

    Au cours des trois dernières années, le nombre de jeunes diplômés embauchés par les grandes entreprises technologiques à l'échelle mondiale a diminué de plus de 50 %.


    L’évolution n’est pas marginale. Les outils de génération de code assistée, les frameworks de test automatisé dopés à l’apprentissage automatique et les plateformes d’observabilité intelligente se sont imposés en moins de trois ans comme des standards industriels. Là où une équipe de juniors passait des semaines à identifier des régressions ou à maintenir des briques logicielles vieillissantes, une combinaison d’outils peut aujourd’hui accomplir l’essentiel du travail en continu, avec une précision jugée suffisante par les directions techniques.

    Ce déplacement du travail n’affecte pas seulement les volumes d’emplois disponibles, mais aussi la nature même de l’apprentissage professionnel. Les jeunes ingénieurs se retrouvent confrontés à une injonction paradoxale : on attend d’eux une expertise avancée, une capacité d’architecture et une vision systémique, sans leur offrir les étapes intermédiaires qui permettaient historiquement de construire ces compétences.

    Un marché de l’emploi brutalement polarisé

    Le marché du travail tech tend désormais vers une polarisation extrême. D’un côté, des profils seniors capables de concevoir des architectures complexes, d’orchestrer des systèmes distribués et de superviser des équipes augmentées par l’IA. De l’autre, une masse de jeunes diplômés surqualifiés sur le plan académique mais sous-employés, parfois cantonnés à des contrats précaires, des stages prolongés ou des missions freelances faiblement rémunérées.

    Cette dynamique est particulièrement visible dans les régions où l’ingénierie logicielle représentait un ascenseur social majeur. Pour de nombreux étudiants, la promesse implicite d’un emploi stable après des études exigeantes s’effrite. Certains diplômés en informatique se retrouvent à accepter des postes hors de leur champ de compétence, tandis que d’autres quittent purement et simplement le secteur technologique, faute de perspectives claires.

    Le mythe de la montée en compétences automatique

    Le discours dominant de l’industrie repose sur une idée simple : l’IA libérerait les ingénieurs des tâches répétitives pour leur permettre de se concentrer sur des missions à plus forte valeur ajoutée. Dans les faits, cette transition ne se fait pas automatiquement, surtout pour les débutants. La montée en compétences suppose du temps, de l’encadrement et un accès progressif à la complexité. Or les entreprises, sous pression budgétaire et concurrentielle, ont tendance à réduire les effectifs juniors plutôt qu’à investir dans leur formation avancée.

    Cette situation crée un cercle vicieux. Moins de juniors sont recrutés, donc moins de profils sont formés pour devenir les seniors de demain. À moyen terme, le risque est une pénurie de compétences profondes, compensée artificiellement par une dépendance accrue aux outils automatisés, avec toutes les fragilités que cela implique en matière de sécurité, de résilience et de compréhension des systèmes.

    Nom : big.png
Affichages : 175194
Taille : 129,0 Ko

    Une situation qui se dessine de plus en plus à l'échelle mondiale

    En 2022, Rishabh Mishra a intégré une prestigieuse école d'ingénieurs à Jabalpur, en Inde, avec le rêve le plus prévisible dans le domaine des technologies mondiales : étudier l'informatique, écrire du code et, un jour, rejoindre la Silicon Valley.

    Trois ans plus tard, Mishra est confronté à une réalité qui donne à réfléchir.

    L'intelligence artificielle a détruit les postes de débutants dans le secteur technologique sur lesquels Mishra et ses camarades de classe comptaient. Parmi ses 400 camarades de classe à l'Institut indien de technologie de l'information, de conception et de fabrication, moins de 25 % ont obtenu une offre d'emploi. Son cursus se termine en mai 2026, et un sentiment de panique règne sur le campus.

    « La situation est vraiment mauvaise », a déclaré Mishra. « Tout le monde est paniqué, même nos cadets. À l'approche de la fin des études, l'anxiété est à son comble chez nous tous. » Certains de ses camarades de classe envisagent de poursuivre des études supérieures avant d'entrer sur le marché du travail. « Mais après un an, si vous retournez sur le marché du travail, votre diplôme est encore plus inutile », a-t-il déclaré.

    Les étudiants des écoles d'ingénieurs en Inde, en Chine, à Dubaï et au Kenya sont confrontés à une « jobpocalypse », l'intelligence artificielle remplaçant les humains dans les postes de débutants. Les tâches autrefois confiées aux jeunes diplômés, telles que le débogage, les tests et la maintenance courante des logiciels, sont désormais de plus en plus automatisées.

    Une transformation mondiale, mais des impacts inégaux

    Si le phénomène est global, ses effets varient fortement selon les contextes économiques. Dans les pays où les salaires tech étaient déjà compressés, l’IA accentue la pression à la baisse. Dans les écosystèmes plus matures, elle justifie des politiques de recrutement plus élitistes, privilégiant des profils “prêts à l’emploi” dès la sortie d’école. Les ingénieurs issus de formations moins prestigieuses ou de régions périphériques se retrouvent ainsi doublement pénalisés.

    Par ailleurs, la promesse d’une mondialisation heureuse du travail numérique, où les talents du Sud pourraient accéder aux marchés du Nord, se heurte à une réalité plus dure : lorsque le travail est automatisable, il ne s’exporte plus. L’IA ne délocalise pas, elle supprime purement et simplement certaines catégories de tâches.


    L'IA remplacera-t-elle les développeurs juniors ? Un ancien ingénieur de Google répond par l'affirmative

    La question de savoir si l'IA serait un jour capable de remplacer les programmeurs n'est pas nouvelle. Mais le débat s'est intensifié avec l'arrivée de l'IA générative, en particulier des outils d'IA de génération de code informatique. Selon certains acteurs du milieu, dont le développeur américain Steve Yegge, l'IA est déjà en train de faire barrage à l'embauche des développeurs juniors. Yegge va même jusqu'à déclarer que le développeur junior est mort. Selon lui, l'IA s'acquitte si bien des tâches habituellement confiées aux développeurs juniors que les entreprises préfèrent maintenant la technologie aux jeunes diplômés.

    Généralement, le but derrière l'embauche de développeurs juniors est d'attirer les meilleurs talents qui viennent d'arriver sur le marché. Certains d'entre eux sont parfois encore à l'université et travaillent pour les entreprises entre les cours et les examens. Il arrive que certains évoluent rapidement et commencent très vite à apporter une valeur ajoutée à l'entreprise et au client. Toutefois, Yegge voit cette époque disparaître dans les prochaines années. Examinons quelques tâches typiques d'un développeur junior :
    • écrire du code : mise en œuvre de fonctionnalités ou de composants simples sur la base de spécifications détaillées ;
    • correction de bogues : identifier et résoudre les problèmes dans le code existant avec l'aide de développeurs expérimentés ;
    • tests : rédaction et exécution de tests pour garantir la qualité et la fonctionnalité du code ;
    • examens du code : participer à des revues de code afin d'apprendre les meilleures pratiques et d'améliorer les compétences en matière de codage ;
    • documentation : créer et mettre à jour la documentation technique pour les composants logiciels sur lesquels ils travaillent.

    Selon Yegge, au lieu de confier ces tâches à un développeur junior, de nombreux développeurs séniors les confient aujourd'hui à ChatGPT ou à un chatbot similaire. Il appelle ce processus : « la programmation basée sur le chat (Chat Oriented Programming - CHOP) ». Il a déclaré que la programmation basée sur le chat a pris son véritable envol avec le lancement de GPT-4o à la mi-mai, ce qui a éliminé le besoin de développeur junior pour accomplir les tâches susmentionnées.

    Dans son analyste, l'ancien ingénieur de Google écrit : « cette forme de programmation est en passe de représenter un ordre de grandeur d'accélération par rapport à la programmation basée sur les achèvements. Une amélioration de 10 fois peut sembler exagérée. Mais nous venons de voir des exemples de pratiques juridiques, d'édition et de science des données dans le même ordre de grandeur, avec des accélérations de 5 à 30 fois pour certains types de tâches, et des estimations d'au moins 2 à 3 fois pour l'augmentation globale de la productivité ».

    L'IA générative ferme les portes d'entrée du marché du travail

    Une étude publiée par l’Université de Stanford en août 2025 met en lumière une tendance préoccupante : les jeunes travailleurs de 22 à 25 ans, fraîchement diplômés ou débutants, subissent une baisse de 13 % de l’emploi dans les secteurs exposés à l’automatisation par l’IA. Contrairement aux discours apocalyptiques de suppression massive d’emplois, il ne s’agit pas d’un effondrement global du marché, mais d’un glissement silencieux affectant spécifiquement les premiers échelons professionnels.

    Les chercheurs Erik Brynjolfsson, Bharat Chandar et Ruyu Chen ont exploité des millions de fiches de paie d’ADP, géant américain des services de paie couvrant 25 millions de salariés et 90 000 entreprises. Cette approche a permis une photographie fine et en temps quasi réel de l’impact de l’IA sur l’emploi.

    Résultats :
    • 13 % de déclin de l’emploi junior dans les métiers exposés à l’IA générative (service client, comptabilité, support administratif, développement logiciel d’entrée de gamme).
    • Aucun recul significatif pour les travailleurs plus expérimentés, dans ces mêmes métiers.
    • Pas de baisse des salaires, mais une raréfaction nette des opportunités d’embauche pour les jeunes.

    L’étude parle de « quiet erosion » (érosion silencieuse) : pas de licenciements spectaculaires, mais un tarissement progressif du pipeline de recrutement pour les nouveaux entrants.

    Pourquoi les jeunes sont les premiers touchés
    • La vulnérabilité des « tâches codifiées » : Les postes juniors reposent souvent sur des compétences techniques standardisées (saisie, tests logiciels simples, gestion de tickets). Or, ces tâches sont précisément celles que les LLM (Large Language Models) et autres systèmes d’IA générative automatisent le plus facilement.
    • La valeur du « savoir tacite » des seniors : Les employés expérimentés disposent d’un savoir tacite : jugement, intuition, capacité à naviguer dans la complexité organisationnelle. Ce type de compétence est encore hors de portée des IA. Ainsi, les seniors se voient moins menacés à court terme, tandis que les juniors se retrouvent en concurrence directe avec les algorithmes.
    • Les employeurs préfèrent embaucher une IA plutôt qu'un jeune diplômé de la génération Z : Historiquement, les postes juniors servaient de « pépinière de talents », permettant d’apprendre sur le terrain. Aujourd’hui, une partie de ces apprentissages est absorbée par l’IA, ce qui rend plus difficile l’acquisition d’expérience par les jeunes diplômés.

    Le rapport a mis en évidence « des preuves précoces et à grande échelle qui corroborent l'hypothèse selon laquelle la révolution de l'IA commence à avoir un impact significatif et disproportionné sur les travailleurs débutants sur le marché du travail américain ». Les conclusions ont notamment révélé que les travailleurs âgés de 22 à 25 ans occupant des emplois les plus exposés à l'IA, tels que le service à la clientèle, la comptabilité et le développement de logiciels, ont vu leur taux d'emploi baisser de 13 % depuis 2022.

    En revanche, l'emploi des travailleurs plus expérimentés dans les mêmes domaines et celui des travailleurs de tous âges dans des professions moins exposées, telles que les aides-soignants, est resté stable ou a augmenté. Les emplois pour les jeunes aides-soignants, par exemple, ont augmenté plus rapidement que ceux de leurs homologues plus âgés.

    Nom : headcount.png
Affichages : 53593
Taille : 69,7 Ko

    Vers un nouveau contrat social de la tech ?

    La question qui se pose désormais n’est pas uniquement technologique, mais profondément politique et éducative. Comment repenser la formation des ingénieurs dans un monde où les tâches d’entrée disparaissent ? Comment recréer des parcours d’apprentissage viables sans revenir à un modèle obsolète ? Certaines entreprises expérimentent déjà des approches hybrides, où les juniors apprennent à superviser, auditer et corriger les productions de l’IA plutôt qu’à coder ex nihilo.

    Reste à savoir si ces initiatives resteront marginales ou si elles annonceront une refonte plus large du contrat social de la tech. Sans une réflexion collective impliquant entreprises, universités et pouvoirs publics, le risque est réel de voir émerger une génération sacrifiée : compétente, formée, mais structurellement exclue d’un marché du travail transformé trop vite pour elle.

    Au cours des trois dernières années, le nombre de jeunes diplômés embauchés par les grandes entreprises technologiques à l'échelle mondiale a diminué de plus de 50 %, selon un rapport publié par SignalFire, une société de capital-risque basée à San Francisco. Même si les embauches ont légèrement rebondi en 2024, seuls 7 % des nouveaux employés étaient des jeunes diplômés. Pas moins de 37 % des cadres ont déclaré qu'ils préféraient utiliser l'IA plutôt que d'embaucher un employé de la génération Z.

    « À mesure que la demande de postes juniors diminue, même les diplômés en ingénierie hautement qualifiés ont du mal à percer dans le secteur technologique, en particulier dans les grandes entreprises technologiques », indique le rapport.

    Sources : SignalFire

    Et vous ?

    Les entreprises technologiques peuvent-elles continuer à exiger des profils immédiatement opérationnels tout en supprimant les postes qui permettaient historiquement de le devenir, ou doivent-elles réinventer des parcours internes de formation et de compagnonnage adaptés à l’ère de l’IA ?

    L’automatisation massive des tâches juniors est-elle un simple levier d’optimisation à court terme, ou prépare-t-elle une pénurie structurelle de compétences profondes dans cinq à dix ans, lorsque les seniors actuels quitteront le marché ?

    Les universités et écoles d’ingénieurs forment-elles encore pour des métiers qui n’existent déjà plus, ou doivent-elles basculer vers des cursus centrés sur la supervision de l’IA, l’architecture des systèmes et la pensée critique dès les premières années ?

    Voir aussi :

    L'IA entraîne une chute de 70 % du recrutement de jeunes diplômés chez les géants indiens de l'informatique, le recrutement de jeunes diplômés étant passé de 225 000 à 60 000 dans 4 grandes entreprises IT
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  20. #100
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 637
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 637
    Par défaut
    L'IA par ci... L'IA par là... L'IA a bon dos!

    En réalité, la diminution du nombre de jobs ouverts dans les technologies numériques a une autre cause... Une cause beaucoup plus gênante à prononcer que l'IA...

    L'économie occidentale, quelque soit le domaine d'activité, se fait écraser par les entreprises chinoises: Cela va du commerce de détail à l'industrie automobile en passant par tous les domaines de la production industrielle...

    Quand l'industrie automobile française, allemande ou italienne est incapable de proposer des modèles concurrentiels face aux nouvelles marques de voitures chinoises, toutes développées grâce aux aides de l'état chinois, c'est non seulement les fabricants connus tels que les Renault, VW et autres qui se prennent les pieds dans le tapis mais la totalité des PME-PMI sous-traitantes des grandes marques de l'automobile...

    IA ou pas, inutile de préciser que tout ce petit monde parle licenciement massif et pas d'engagement de jeunes informaticiens

Discussions similaires

  1. Réponses: 77
    Dernier message: 03/07/2024, 09h29
  2. Réponses: 0
    Dernier message: 30/05/2018, 01h18
  3. Réponses: 22
    Dernier message: 04/05/2018, 17h29
  4. Réponses: 20
    Dernier message: 06/10/2017, 16h05
  5. Réponses: 6
    Dernier message: 30/09/2009, 11h26

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo