IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Le code généré par l'IA pourrait augmenter la charge de travail des développeurs et accroître les risques


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 109
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 109
    Points : 18 347
    Points
    18 347
    Par défaut Le code généré par l'IA pourrait augmenter la charge de travail des développeurs et accroître les risques
    92 % des développeurs utiliseraient des outils d'intelligence artificielle, selon une enquête de GitHub auprès des développeurs

    Une enquête menée par la plateforme de collaboration entre développeurs GitHub a révélé que 92 % des programmeurs utilisent déjà l'intelligence artificielle. Environ 70 % des personnes interrogées ont déclaré que les outils basés sur l'IA offraient un avantage au travail. Pour son enquête DevEx, GitHub a interrogé 500 entreprises américaines comptant plus de 1 000 employés afin de comprendre l'impact des outils d'IA sur la productivité des développeurs et leur expérience globale.

    "Aujourd'hui, les développeurs ne se contentent pas d'écrire et d'expédier du code - ils doivent naviguer dans un certain nombre d'outils, d'environnements et de technologies, y compris la nouvelle frontière des outils de codage d'intelligence artificielle générative (IA)", a déclaré Inbal Shani, chief product officer, chez GitHub.


    Principaux résultats

    • Presque tous les développeurs ont utilisé des outils de codage de l'IA - 92 % de ceux que nous avons interrogés disent les avoir utilisés au travail ou pendant leur temps libre. Nous nous attendons à ce que ce chiffre augmente dans les mois à venir.
    • 70 % des développeurs pensent que l'utilisation d'outils de codage de l'IA leur offrira un avantage dans leur travail, l'amélioration des compétences étant le principal avantage, suivi par les gains de productivité.
    • Étant donné que l'amélioration des compétences est la principale tâche que les développeurs considèrent comme améliorant leur journée de travail, ce résultat est remarquable car les outils de codage de l'IA peuvent l'intégrer directement dans le flux de travail d'un développeur.

    Les développeurs utilisent déjà des outils de codage de l'IA au travail

    92 % des développeurs américains travaillant dans de grandes entreprises déclarent utiliser un outil de codage de l'IA, que ce soit au travail ou pendant leur temps libre, et 70 % d'entre eux affirment que l'utilisation de ces outils leur apporte des avantages significatifs.

    • L'IA est là pour rester et elle transforme déjà la façon dont les développeurs abordent leur travail quotidien. Il est donc essentiel que les entreprises et les responsables de l'ingénierie adoptent des outils d'IA de qualité professionnelle afin d'éviter que leurs développeurs n'utilisent des applications non approuvées. Les entreprises devraient également établir des normes de gouvernance pour l'utilisation des outils d'IA afin de s'assurer qu'ils sont utilisés de manière éthique et efficace.

    Nom : 11.0@2x.png
Affichages : 22091
Taille : 37,6 Ko

    Presque tous les développeurs (92 %) utilisent des outils de codage de l'IA au travail - et une majorité (67 %) a utilisé ces outils à la fois dans un cadre professionnel et pendant son temps libre. Curieusement, seuls 6 % des développeurs interrogés dans le cadre de notre enquête déclarent n'utiliser ces outils qu'en dehors du travail.

    Les développeurs pensent que les outils de codage basés sur l'IA amélioreront leurs performances

    La plupart des développeurs expérimentant les outils d'IA sur leur lieu de travail, les résultats de notre enquête suggèrent que ce n'est pas seulement un intérêt futile qui pousse les développeurs à utiliser l'IA. Il s'agit plutôt d'une reconnaissance du fait que les outils de codage de l'IA les aideront à atteindre les normes de performance.

    • Dans notre enquête, les développeurs affirment que les outils de codage basés sur l'IA peuvent les aider à respecter les normes de performance existantes en améliorant la qualité du code, en accélérant les résultats et en réduisant le nombre d'incidents au niveau de la production. Ils estiment également que ces paramètres devraient être utilisés pour mesurer leurs performances au-delà de la quantité de code.

    Nom : 12.0@2x.png
Affichages : 3794
Taille : 198,4 Ko

    Environ un tiers des développeurs déclarent que leurs responsables évaluent actuellement leurs performances sur la base du volume de code qu'ils produisent, et un nombre égal d'entre eux prévoient que cette situation perdurera lorsqu'ils commenceront à utiliser des outils de codage basés sur l'IA.

    • Il est à noter que la quantité de code produite par un développeur ne correspond pas nécessairement à sa valeur commerciale.
    • Rester intelligent. Avec l'augmentation des outils d'IA utilisés dans le développement de logiciels - qui contribuent souvent au volume de code - les responsables de l'ingénierie devront se demander si la mesure du volume de code est toujours le meilleur moyen de mesurer la productivité et la production.

    Les développeurs pensent que les outils de codage à base d'IA conduiront à une meilleure collaboration au sein des équipes

    Au-delà de l'amélioration des performances individuelles, plus de 4 développeurs sur 5 interrogés (81 %) affirment que les outils de codage basés sur l'IA contribueront à renforcer la collaboration au sein de leurs équipes et de leurs organisations.

    • En fait, les examens de sécurité, la planification et la programmation en binôme sont les points de collaboration les plus importants et les tâches sur lesquelles les équipes de développement sont censées, et devraient, travailler avec l'aide des outils de codage par l'IA. Cela indique également que les examens du code et de la sécurité resteront importants à mesure que les développeurs utiliseront davantage les outils de codage basés sur l'IA sur leur lieu de travail.

    Nom : 13.0@2x.png
Affichages : 3752
Taille : 93,8 Ko

    Parfois, les développeurs peuvent faire la même chose avec une ligne ou plusieurs lignes de code. Malgré cela, un tiers des développeurs interrogés dans le cadre de notre enquête déclarent que leurs responsables mesurent leurs performances en fonction de la quantité de code qu'ils produisent.

    Les développeurs estiment notamment que les outils de codage de l'IA leur donneront plus de temps pour se concentrer sur la conception de solutions. Cela présente des avantages organisationnels directs et signifie que les développeurs pensent qu'ils passeront plus de temps à concevoir de nouvelles fonctionnalités et de nouveaux produits avec l'IA plutôt qu'à écrire du code standard.

    • Les développeurs utilisent déjà des outils de codage génératif de l'IA pour automatiser certaines parties de leur flux de travail, ce qui leur permet de consacrer plus de temps à des projets plus collaboratifs tels que les examens de sécurité, la planification et la programmation en binôme.

    Nom : 15.0@2x.png
Affichages : 3759
Taille : 72,0 Ko

    Les développeurs pensent que l'IA augmente la productivité et prévient l'épuisement professionnel

    Non seulement les outils de codage de l'IA peuvent contribuer à améliorer la productivité globale, mais ils peuvent également offrir des opportunités de perfectionnement pour aider à créer une main-d'œuvre plus intelligente, selon les développeurs que nous avons interrogés.

    • 57 % des développeurs pensent que les outils de codage basés sur l'IA les aident à améliorer leurs compétences en matière de langage de codage, ce qui est le principal avantage qu'ils en retirent. Au-delà de la perspective d'agir comme une aide à l'amélioration des compétences, les développeurs affirment également que les outils de codage par l'IA peuvent également contribuer à réduire l'effort cognitif, et comme la capacité mentale et le temps sont tous deux des ressources limitées, 41 % des développeurs pensent que les outils de codage par l'IA peuvent contribuer à prévenir l'épuisement professionnel.
    • Lors d'une étude précédente, 87 % des développeurs ont déclaré que l'outil de codage par IA GitHub Copilot les aidait à préserver leur effort mental tout en accomplissant des tâches plus répétitives. Cela montre que les outils de codage à base d'IA permettent aux développeurs de préserver leur effort cognitif et de se concentrer sur des aspects plus stimulants et innovants du développement de logiciels ou de la recherche et du développement.
    • Les outils de codage à base d'IA aident les développeurs à se perfectionner tout en travaillant. Dans l'ensemble de notre enquête, les développeurs placent systématiquement l'acquisition de nouvelles compétences au premier rang des facteurs contribuant à une journée de travail positive. Mais 30 % d'entre eux déclarent également que l'apprentissage et le développement peuvent avoir un impact négatif sur leur journée de travail globale, ce qui suggère que certains développeurs considèrent que l'apprentissage et le développement ajoutent du travail à leur journée de travail. Notamment, les développeurs déclarent que le principal avantage des outils de codage par l'IA est l'acquisition de nouvelles compétences - et ces outils peuvent aider les développeurs à apprendre tout en travaillant, au lieu de faire de l'apprentissage et du développement une tâche supplémentaire.

    Les développeurs utilisent déjà des outils de codage d'IA générative pour automatiser certaines parties de leur flux de travail, ce qui libère du temps pour des projets plus collaboratifs tels que les examens de sécurité, la planification et la programmation en binôme.

    L'IA améliore l'expérience des développeurs dans tous les domaines

    Les développeurs interrogés dans le cadre de notre enquête indiquent qu'ils peuvent mieux respecter les normes relatives à la qualité du code, au temps de réalisation et au nombre d'incidents lorsqu'ils utilisent des outils de codage IA - autant de mesures que les développeurs considèrent comme des domaines clés pour l'évaluation de leurs performances.

    Les outils de codage par l'IA peuvent également contribuer à réduire la probabilité d'erreurs de codage et à améliorer la précision du code, ce qui conduit en fin de compte à des logiciels plus fiables, à des performances accrues des applications et à de meilleurs chiffres de performance pour les développeurs. À mesure que la technologie de l'IA continue de progresser, il est probable que ces outils de codage auront un impact encore plus important sur les performances et le perfectionnement des développeurs.

    Les développeurs pensent que les outils de codage de l'IA les aideront à se perfectionner tout en travaillant

    57 % des développeurs interrogés déclarent que l'utilisation d'outils de codage de l'IA les aide à développer leurs compétences en langage de codage, ce qu'ils considèrent comme le principal avantage de l'utilisation de ces applications (le deuxième avantage étant une plus grande productivité). Cela suggère que les développeurs considèrent l'utilisation d'outils de codage par IA comme un moyen de se perfectionner tout en travaillant, au lieu d'ajouter une autre tâche à leur journée de travail pour l'apprentissage et le développement.

    Les outils de codage par l'IA s'intègrent dans les flux de travail existants des développeurs et génèrent une plus grande efficacité

    Les développeurs pensent que les outils de codage par l'IA augmenteront leur productivité, mais notre enquête suggère que les développeurs ne pensent pas que ces outils modifient fondamentalement le cycle de vie du développement logiciel. Au contraire, les développeurs pensent qu'ils apportent une plus grande efficacité à ce cycle.

    • L'utilisation de l'automatisation et de l'IA fait partie du flux de travail des développeurs depuis longtemps, ces derniers utilisant déjà une gamme d'outils automatisés et alimentés par l'IA, tels que les contrôles de sécurité basés sur l'apprentissage automatique et les pipelines CI/CD.
    • Plutôt que de refondre complètement les opérations, ces outils créent une plus grande efficacité dans les flux de travail existants, ce qui libère plus de temps pour que les développeurs se concentrent sur l'élaboration de solutions.

    Le bilan

    Presque tous les développeurs (92 %) utilisent le codage de l'IA au travail - et ils affirment que ces outils ne se contentent pas d'améliorer les tâches quotidiennes, mais qu'ils offrent également des possibilités d'amélioration des compétences. Les développeurs voient des avantages matériels à l'utilisation d'outils d'IA, notamment l'amélioration des performances et des compétences de codage, ainsi qu'une meilleure collaboration au sein de l'équipe.
    Source : Enquête de GitHub

    Et vous ?

    Quel est votre avis sur le sujet ?

    Que pensez-vous des résultats de cette enquête de GitHub ? Trouvez-vous qu'ils sont crédibles ou pertinents ?

    Pensez-vous que ces résultats obtenus sur une base USA on un sens pour l'ensemble des développeurs ?

    Utilisez-vous des outils de codage à base d'IA au sein de votre entreprise ? Si oui, comment évaluez-vous l'utilisation de ces outils ?

    Voir aussi

    Le Codage assisté par l'IA gratuit avec Colab : Google introduira bientôt des fonctions de codage de l'IA utilisant la famille de modèles de code la plus avancée de Google, Codey

    L'IA Codex d'OpenAI fait ses débuts en programmation et peut déjà coder dans une dizaine de langages, l'IA pourra-t-elle bientôt décharger les développeurs de certaines tâches, voire les remplacer ?

    Meta annonce la création d'un nouvel outil d'IA générative "révolutionnaire" à des fins de codage, baptisé CodeCompose, dont le fonctionnement est assez similaire à celui du Copilot de GitHub

    Les assistants de programmation basés sur l'IA incitent à repenser l'enseignement de l'informatique, selon des chercheurs

  2. #2
    Membre du Club
    Homme Profil pro
    Inscrit en
    Février 2008
    Messages
    18
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Février 2008
    Messages : 18
    Points : 50
    Points
    50
    Par défaut
    Absolument aucun conflit d'intérêt à déclarer entre la légitimité de cette enquête de GitHub et leur produit Copilot

  3. #3
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    1 906
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 1 906
    Points : 6 055
    Points
    6 055
    Par défaut
    Comme c'est la mode de voir de l'intelligence artificielle partout dès qu'il y a un électron qui se promène quelque part et dans le 100% des applications informatiques, il y a donc pas 92 mais bien 100% des développeurs qui utilisent l'IA!!!!!!!!!!!!!!

    Perso, cela me fait marrer! L'IA émerge dans le domaine public et 6 mois plus tard la totalité du monde techno dit faire appel à l'IA... Quelle réactivité! Dans notre société on est encore plus fort, la totalité de nos logiciels font appel à l'IA, y compris les logiciels que l'on a développé il y a plus de 25 ans et dont on n'a pas modifié un point-virgule du code CQFD...

    Allez, je vous laisse, je vais au petit coin, j'y allume la lumière à l'aide d'un interrupteur réglé par IA pour libéré la fée électricité afin qu'elle émerge du réseau géré par l'IA, quand l'ampoule s'est allumé grâce à l'IA, je pose mon petit "popo" (sans IA pour le moment en attendant l'implémentation de la puce Musk dans le cerveau), j'utilise du papier hygiénique bien évidemment produit dans une usine IA, transportée sur une palette IA jusqu'au rayon de mon supermarché chez qui j'ai acheté le papier en question en passant à la caisse IA qui m'indique avec un logiciel IA la somme totale de mes amplettes que je règle bien évidemment avec un moyen de paiement IA (que cela soit un billet de banque imprimé par l'IA ou un moyen de paiement électronique, c'est de l'IA).

    Ceci est bien évidemment un texte produit par IA!!!

  4. #4
    Membre expérimenté Avatar de dfiad77pro
    Homme Profil pro
    Responsable Architecture logicielle
    Inscrit en
    Décembre 2008
    Messages
    542
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Responsable Architecture logicielle
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2008
    Messages : 542
    Points : 1 734
    Points
    1 734
    Par défaut
    le truc du genre 'les devs déclarent que ça les aident à respecter le planning'
    ouais on connais la suite on va tripler la charge...

    je me sert de copilote en tant que compagnon uniquement, mais faut pas ce leurrer, le dev ne sera pas mieu traité...


    et pour moi ce genre d'outils est plus efficace coté dev expérimenté , car actuellement si on suis les suggestions sans réfléchir c'est catastrophique

  5. #5
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 622
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 622
    Points : 7 563
    Points
    7 563
    Par défaut
    Citation Envoyé par Anthony Voir le message
    Que pensez-vous des résultats de cette enquête de GitHub ? Trouvez-vous qu'ils sont crédibles ou pertinents ?
    Pas crédible du tout, mais bon, ils font de la com pour vendre leur produit, et pour faire oublier le procès sur le copyright de certains bouts de code fournis par Copilot, ou demander du soutient: "Oulala! 92% des développeurs utilisent ce genre d'outils! Imaginez la catastrophe si vous nous mettiez des bâtons dans les roues!"

    Citation Envoyé par Anthony Voir le message
    Utilisez-vous des outils de codage à base d'IA au sein de votre entreprise ?
    Non. Aucun intérêt.

  6. #6
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 224
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 224
    Points : 85 597
    Points
    85 597
    Par défaut Génération de code à l'aide de grands modèles de langage : 62 % du code généré contient des erreurs d'API
    Génération de code à l'aide de grands modèles de langage : 62 % du code généré contient des erreurs d'API, qui auraient des conséquences inattendues si le code était introduit dans un logiciel réel.

    Récemment, les grands modèles de langage (LLM) ont montré une capacité extraordinaire à comprendre le langage naturel et à générer du code de programmation. Les ingénieurs logiciels ont l'habitude de consulter les LLM lorsqu'ils sont confrontés à des questions de codage. Bien que des efforts aient été faits pour éviter les erreurs de syntaxe et aligner le code sur la sémantique prévue, la fiabilité et la robustesse de la génération de code à partir des LLM n'ont pas encore fait l'objet d'une étude approfondie.

    La mauvaise utilisation des API dans le code généré pourrait conduire à des problèmes graves, tels que les fuites de ressources, les plantages de programme. Les utilisateurs des services de génération de code LLM sont en fait les développeurs qui sont les plus vulnérables à ce code qui semble correct. Ce sont toujours des développeurs novices qui ne sont pas familiers avec les API que les LLM génèrent du code pour eux. Par conséquent, ils peuvent difficilement détecter les abus dans le code généré par les LLM, ce qui facilite davantage l'application de codes incorrects dans les logiciels du monde réel. Les repères et les ensembles de données d'évaluation de code existants se concentrent sur l'élaboration de petites tâches telles que les questions de programmation dans les entretiens de codage, ce qui s'écarte toutefois du problème des développeurs qui demanderaient au LLM une aide au codage dans le monde réel.


    Pour combler cette lacune, Li Zhong et Zilong Wang proposent dans leur travail un ensemble de données RobustAPI pour évaluer la fiabilité et la robustesse du code généré par les LLM. Ils ont recueilli 1208 questions de codage de StackOverflow sur 24 API Java représentatives. Ils ont résumé les schémas d'utilisation abusive courants de ces API et les évaluons sur des LLM courants et populaires. Les résultats de l'évaluation montrent que même pour GPT-4, 62% du code généré contient des abus d'API, ce qui entraînerait des conséquences inattendues si le code était introduit dans un logiciel réel.

    Vous pourrez trouver les détails de leur étude dans le lien source.

    Source : "A Study on Robustness and Reliability of Large Language Model Code Generation"

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    GPT-4 est capable d'améliorer ses performances de 30 % en utilisant un processus d'auto-réflexion, consistant à demander au modèle d'apprendre de ses erreurs pour pouvoir ensuite s'auto-corriger

    GPT Pilot pourrait coder l'ensemble d'une application pendant que vous supervisez l'écriture du code, d'après son créateur

    92 % des développeurs utiliseraient des outils d'intelligence artificielle selon une enquête de GitHub auprès des développeurs

  7. #7
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 109
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 109
    Points : 18 347
    Points
    18 347
    Par défaut Les développeurs et les responsables de la sécurité des applications se tournent vers l'IA générative
    Les développeurs et les responsables de la sécurité des applications se tournent vers l'IA générative, malgré les risques de sécurité identifiés, selon une étude de Sonatype

    Selon 800 développeurs (DevOps) et responsables de la sécurité des applications (SecOps) interrogés, 97 % d'entre eux utilisent aujourd'hui la technologie GenAI, 74 % d'entre eux déclarant qu'ils se sentent contraints de l'utiliser malgré les risques de sécurité identifiés.

    L'étude de la société de gestion de la chaîne d'approvisionnement logicielle Sonatype montre que 45 % des responsables SecOps ont déjà mis en œuvre l'IA générative dans le processus de développement logiciel, contre seulement 31 % pour les DevOps.

    Cela peut s'expliquer par le fait que les responsables SecOps constatent des gains de temps plus importants que leurs homologues DevOps, 57 % d'entre eux déclarant que l'IA générative leur permet d'économiser au moins six heures par semaine, contre seulement 31 % des répondants DevOps.

    Interrogés sur les impacts les plus positifs de cette technologie, les responsables DevOps font état d'un développement logiciel plus rapide (16 %) et d'un logiciel plus sûr (15 %). Les responsables SecOps citent l'augmentation de la productivité (21 %) et l'identification/résolution plus rapide des problèmes (16 %) comme leurs principaux avantages.


    En revanche, plus des trois quarts des responsables DevOps estiment que l'utilisation de l'IA générative entraînera une augmentation des vulnérabilités dans le code source ouvert. Il est peut-être surprenant de constater que les responsables SecOps sont moins inquiets (58 %). Par ailleurs, 42 % des répondants DevOps et 40 % des responsables SecOps affirment que l'absence de réglementation pourrait dissuader les développeurs de contribuer à des projets open source.

    Les responsables des deux domaines souhaitent davantage de réglementation. À la question de savoir qui, selon eux, est responsable de la réglementation de l'utilisation de l'IA générative, 59 % des responsables DevOps et 78 % des responsables SecOps déclarent que le gouvernement et les entreprises individuelles devraient être responsables de la réglementation.

    "L'ère de l'IA ressemble aux premiers jours de l'open source, comme si nous construisions l'avion au fur et à mesure que nous le pilotons en termes de sécurité, de politique et de réglementation", déclare Brian Fox, cofondateur et directeur technique de Sonatype. "L'adoption a été généralisée, et le cycle de développement des logiciels ne fait pas exception. Si les dividendes de la productivité sont évidents, nos données révèlent également une réalité préoccupante et indissociable : les menaces de sécurité posées par cette technologie encore naissante. Chaque cycle d'innovation s'accompagne de nouveaux risques, et il est primordial que les développeurs et les responsables de la sécurité des applications envisagent l'adoption de l'IA en tenant compte de la sûreté et de la sécurité."

    Nom : devops & secops ia.png
Affichages : 2335
Taille : 58,3 Ko

    La question des licences et de la rémunération des contenus générés par l'IA est également préoccupante. Notamment, les décisions contre la protection du droit d'auteur pour les œuvres d'art générées par l'IA ont déjà suscité un débat sur la quantité d'apport humain nécessaire pour répondre à ce que la loi actuelle définit comme une véritable paternité de l'œuvre. Les personnes interrogées sont d'accord pour dire que les créateurs devraient détenir les droits d'auteur sur les résultats générés par l'IA en l'absence de loi sur les droits d'auteur (40 %), et les deux groupes sont massivement d'accord pour dire que les développeurs devraient être indemnisés pour le code qu'ils ont écrit s'il est utilisé dans des artefacts open source dans les LLM.

    Source : Sonatype

    Et vous ?

    Quelle lecture faites-vous de cette situation ?

    Trouvez-vous que les conclusions de cette étude de Sonatype sont crédibles et pertinentes ?

    Qu'en est-il au sein de votre organisation ?

    Voir aussi

    92 % des développeurs utiliseraient des outils d'intelligence artificielle, selon une enquête de GitHub auprès des développeurs

    L'intelligence artificielle générative boosterait la productivité des travailleurs de 14 %, selon une étude menée par l'Université de Stanford

    34 % des développeurs d'applications utiliseraient désormais l'IA, d'après Sensor Tower

    L'IA va-t-elle éliminer des emplois, en particulier pour les développeurs ? Non, selon une enquête qui estime que l'intelligence artificielle pourrait créer plus d'emplois qu'elle n'en supprime

  8. #8
    Membre chevronné Avatar de Mister Nono
    Homme Profil pro
    Ingénieur Mathématiques et Informatique
    Inscrit en
    Septembre 2002
    Messages
    2 232
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Ingénieur Mathématiques et Informatique
    Secteur : Santé

    Informations forums :
    Inscription : Septembre 2002
    Messages : 2 232
    Points : 1 898
    Points
    1 898
    Par défaut
    Et bien oui, on dit tous ceux qui veulent l'entendre que l'IA est le passage obligé, alors tout le monde s'y engouffre : même pour vendre un article à 0,01€.


    • L'investissement : sans limite pour certains
    • L'éthique : exit pour d'autres
    • L'écologie : à quoi cela sert pour la plupart
    • La vie privée : cela existe-t-il encore ? (1984 - Orson Well)
    • Le profit : oui pour presque tous


    A quand la fin de cette " boulimie " sans mesure des conséquences, tant humaines qu'humanitaire ?

    Comme il était beau le temps où l'informatique n'existait pas... On pouvait rêver, avoir des projets d'avenir, connaitre des liens sociaux forts, être en phase avec la nature, dormir du sommeil du juste, être bien dans sa peau, connaitre le bonheur et l'amour vrai...

  9. #9
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 915
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 915
    Points : 37 409
    Points
    37 409
    Par défaut Codegen, un outil d’IA qui facilite le passage de la conception au code, il peut aussi nuire à la créativité
    Codegen, un outil d’IA qui facilite le passage de la conception au code, il peut aussi nuire à la créativité,
    à la curiosité et à l’apprentissage des développeurs

    Codegen est un outil d’intelligence artificielle (IA) qui aide les développeurs à traduire plus facilement les conceptions en code. Il fonctionne en analysant les éléments visuels d’une conception et en suggérant des noms de composants et des valeurs de propriétés qui correspondent au système de conception utilisé par le développeur. Codegen n’est pas un outil magique qui écrit le code à la place du développeur, mais un outil qui l’accompagne et l’augmente. Il lui permet de gagner du temps et d’éviter des erreurs en lui donnant un point de départ pour le code. Les développeurs doivent donc utiliser codegen avec prudence, discernement et éthique, et ne pas oublier que le code est avant tout une expression de leur pensée et de leur créativité.

    Toutefois, le développeur doit donc toujours vérifier, modifier et optimiser le code suggéré, ce qui peut demander du temps et de l’énergie. Le code suggéré peut contenir des erreurs, des biais ou des failles. Le développeur doit donc toujours comprendre le code qu’il utilise, et ne pas le copier-coller sans le tester ou le documenter. Sinon, il risque de compromettre la fiabilité, la sécurité et la maintenabilité du code. Cet outil d’IA ne peut pas se substituer au travail du développeur, qui doit toujours faire preuve de jugement, de compétence et de responsabilité.


    Nom : Figma.jpg
Affichages : 10229
Taille : 2,7 Ko

    Codegen ne peut pas s’adapter à tous les cas d’utilisation, car il ne connaît pas les besoins spécifiques et le cadre de chaque projet. Il peut créer une dépendance ou une paresse chez les développeurs, qui pourraient se reposer entièrement sur l’IA pour écrire le code. Cela pourrait réduire la créativité, la curiosité et l’apprentissage des développeurs, qui ne chercheraient plus à améliorer ou à innover leur code. Cela pourrait également poser des problèmes d’éthique ou de sécurité, si le code suggéré contient des données sensibles ou personnelles, ou si le code suggéré est utilisé à des fins malveillantes ou illégales.

    Seuls 3 % de développeurs déclarent avoir une grande confiance dans la précision des outils d’IA pour le développement. « Ce scepticisme n'est pas surprenant. Lorsque nous avons commencé à travailler sur Dev Mode, un espace pour les développeurs dans Figma, nous l'avons imaginé comme un moyen d'automatiser le passage de la conception au code. Les premières versions étaient prometteuses, mais au fur et à mesure de l'itération de notre approche, nous avons constaté que les développeurs ne trouvaient pas toujours le code utile », déclare Figma.

    Cependant, codegen offre le plus d'avantages lorsqu’il est appliqué d'une manière spécifique, pour une équipe, une entreprise et votre flux de travail. Par exemple, si votre système de conception et votre bibliothèque de composants sont déjà dans Figma, vous n'avez pas besoin d'une application automatisée de conception à codage. Dans ce cas, il est préférable de se référer aux jetons, de consulter la documentation ou de créer un plugin codegen pour générer des extraits personnalisés.

    Selon Figma, en appliquant ces conseils, il est possible de traiter et de comprendre ce que vous regardez plus rapidement, lorsque vous commencerez à écrire le code vous-même. « Codegen vous aidera à passer d'un écran vide à un point de départ - peut-être pas de 0 à 1, mais de 0 à 0,5 - beaucoup plus rapidement. » Codegen peut également aider à interpréter les exigences de conception comme les valeurs de style brutes - telles que les codes hexadécimaux et les pixels - pour construire un élément d'interface utilisateur ou découvrir un nom de jeton ou une valeur de propriété de composant lorsque vous mettez en œuvre un système de conception.

    Le code d'implémentation d'une instance d'un composant est très différent du code définissant le style et les propriétés d'un composant. Si vous développez la bibliothèque de composants de votre équipe, vous écrirez le code du composant pour le style visuel sous-jacent ainsi que les définitions des variantes et des propriétés. Si vous mettez en œuvre une bibliothèque de composants, le code que vous écrivez est souvent un code d'instance de composant ainsi que le style de présentation qui l'entoure.

    L’équipe Figma explique que Codegen analyse les éléments visuels d’une conception et recommande des noms de composants et des valeurs de propriétés qui correspondent au système de conception utilisé par le développeur.

    Ainsi, Codegen permet au développeur de gagner du temps et d’éviter des erreurs en lui donnant un point de départ pour le code. L’équipe suggère également de créer un plugin Codegen personnalisé, qui pourrait s’adapter aux besoins et aux cadres spécifiques de chaque projet. Toutefois, l’entreprise reconnaît que cela prend du temps et des ressources, et qu’il est plus simple d’établir une bonne base en s’assurant que les conceptions de l’équipe correspondent à des modèles dans le code.

    À l’exemple des composants et des variables de Figma, qui rendent les systèmes de conception faciles à mettre en œuvre et à maintenir, car ils encapsulent les modèles dans des jetons et des propriétés. L’équipe Figma souligne ensuite les limites de Codegen, qui ne peut pas se substituer au travail du développeur, ni remplacer les modèles de l’équipe. Il rappelle que le développeur doit toujours vérifier, modifier et optimiser le code suggéré, ce qui peut demander du temps et de l’énergie.

    Codegen ne remplacera pas les modèles de votre équipe

    Les besoins de votre équipe en matière de conception et de développement sont uniques. Des facteurs tels que la taille de l'entreprise, les exigences de sécurité et les contraintes techniques contribuent tous à une situation spécifique. Afin de répondre et de s'adapter à ces besoins, une équipe a certainement pris des décisions sur le style ou les Framework de composants pour la bibliothèque d'interface utilisateur, le schéma de des jetons de conception, la façon dont les fichiers sont organisés et nommés, ou même les conventions préférées autour de la syntaxe et du formatage du code.

    Avec tout ce contexte spécifique à l'organisation, il n’est simplement pas possible de coller le code généré automatiquement directement dans une base de code sans le modifier davantage. Bien qu’il est possible de trouver des moyens d'utiliser l'apprentissage automatique pour se faire aider, en raison des limites des outils existants, la création de la base de code d’une équipe est une activité pratique, et les modèles de l'équipe sont là pour faciliter le processus.

    Le code généré peut être un point de départ très utile. Mais même dans ce cas, les bouts de code doivent encore être modifiés pour y intégrer d'autres propriétés, ajouter du formatage, des styles supplémentaires et bien d'autres choses encore. Une fois que le code est dans cet état, les modifications ultérieures du fichier Figma ne peuvent pas toujours être « collées » en utilisant codegen de la même manière ; cela reviendrait à écraser le travail déjà édité. Tout outil finit par se heurter à ses limites.

    Récemment, les grands modèles de langage (LLM) ont montré une capacité extraordinaire à comprendre le langage naturel et à générer du code de programmation. Les ingénieurs logiciels ont l'habitude de consulter les LLM lorsqu'ils sont confrontés à des questions de codage. Bien que des efforts aient été faits pour éviter les erreurs de syntaxe et aligner le code sur la sémantique prévue, la fiabilité et la robustesse de la génération de code à partir des LLM n'ont pas encore fait l'objet d'une étude approfondie.

    Pour combler cette lacune, Li Zhong et Zilong Wang proposent dans leur travail un ensemble de données RobustAPI pour évaluer la fiabilité et la robustesse du code généré par les LLM. Ils ont recueilli 1208 questions de codage de StackOverflow sur 24 API Java représentatives. Ils ont résumé les schémas d'utilisation abusive courants de ces API et les évaluons sur des LLM courants et populaires. Les résultats de l'évaluation montrent que même pour GPT-4, 62% du code généré contient des abus d'API, ce qui entraînerait des conséquences inattendues si le code était introduit dans un logiciel réel.

    Inconvénients des outils d’IA de génération de code comme codegen

    Les outils d’IA de génération de code comme codegen sont présentés comme des innovations qui facilitent le travail des développeurs, mais ils ne sont pas sans risques ni limites. En effet, ces outils présentent plusieurs inconvénients qui peuvent nuire à la qualité, à la sécurité et à l’éthique du code produit.

    Tout d’abord, ces outils ne peuvent pas générer un code parfait pour tous les cas d’utilisation, car ils doivent tenir compte des besoins spécifiques et du cadre de chaque projet. Par exemple, le code généré pour une application web peut ne pas être adapté pour une application mobile, ou le code généré pour un système de conception peut ne pas respecter les normes de performance ou d’accessibilité. Le développeur doit donc toujours vérifier, modifier et optimiser le code généré, ce qui peut prendre du temps et de l’énergie.

    Ensuite, ces outils ne peuvent pas remplacer le travail du développeur, qui doit toujours faire preuve de jugement, de compétence et de responsabilité. Le code généré n’est qu’une suggestion, qui peut contenir des erreurs, des biais ou des failles. Le développeur doit donc toujours comprendre le code qu’il utilise, et ne pas se contenter de le copier-coller sans le tester ou le documenter. Sinon, il risque de compromettre la fiabilité, la sécurité et la maintenabilité du code.

    Ces outils peuvent créer une dépendance ou une paresse chez les développeurs, qui pourraient se reposer entièrement sur l’IA pour écrire le code. Cela pourrait réduire la créativité, la curiosité et l’apprentissage des développeurs, qui ne chercheraient plus à améliorer ou à innover leur code. Cela pourrait également poser des problèmes d’éthique ou de sécurité, si le code généré contient des données sensibles ou personnelles, ou si le code généré est utilisé à des fins malveillantes ou illégales.

    S'il est vrai que les outils d’IA de génération de code comme codegen sont des outils qui peuvent aider les développeurs à passer de la conception au code plus rapidement, il n'en est pas moins vrai qu'ils ne peuvent pas se substituer à leur intelligence humaine. Les développeurs devraient utiliser ces outils avec prudence, discernement et éthique, et ne pas oublier que le code est avant tout une expression de leur pensée et de leur créativité.

    Source : Figma

    Et vous ?

    Quels sont selon vous, les critères de qualité et de fiabilité du code généré ?
    Quels sont les risques de sécurité ou de confidentialité liés au code généré ?
    Êtes-vous pour ou contre l'utilisation des codes générés ? Que pensez-vous de Codegen ?
    Quels sont les impacts des codes générés sur la motivation et la satisfaction des développeurs ?
    Comment les codes générés affectent-ils les compétences et les connaissances des développeurs ?
    Quels sont les avantages et les inconvénients des codes générés par rapport aux codes écrits manuellement ?

    Voir aussi :

    Génération de code à l'aide de grands modèles de langage : 62 % du code généré contient des erreurs d'API, qui auraient des conséquences inattendues si le code était introduit dans un logiciel réel

    ChatGPT génère un code informatique peu sûr, mais ne vous le dira pas à moins que vous ne le lui demandiez, les experts mettent en garde contre les risques d'une surconfiance en ChatGPT

  10. #10
    Membre à l'essai
    Homme Profil pro
    Ingénieur intégration/validation
    Inscrit en
    Septembre 2021
    Messages
    5
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur intégration/validation
    Secteur : Industrie

    Informations forums :
    Inscription : Septembre 2021
    Messages : 5
    Points : 19
    Points
    19
    Par défaut
    Que pensez-vous des résultats de cette enquête de GitHub ? Trouvez-vous qu'ils sont crédibles ou pertinents ?
    ils ne sont pas crédible du tout.

    Pensez-vous que ces résultats obtenus sur une base USA on un sens pour l'ensemble des développeurs ?
    Ils n'ont pas de sens, car ils sont limités à zone géographique particulière et qui n'est pas forcément représentative du reste de la communauté mondiale des dévoloppeurs logiciels.

    Utilisez-vous des outils de codage à base d'IA au sein de votre entreprise ? Si oui, comment évaluez-vous l'utilisation de ces outils ?
    Non, le projet ne le permet pas.


    À titre personnel, non plus. De plus, il m'a été remonté par des collègues qui l'ont essayé en dehors de travail que les solutions proposées étaient bourrées d'erreurs.
    Dans ce cas, je n'en vois pas l'intérêt.

  11. #11
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 915
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 915
    Points : 37 409
    Points
    37 409
    Par défaut 87% des organisations envisagent d'investir dans des outils Gen AI, 71% en cours d'adoption
    87 % des organisations envisagent d'investir dans des outils de codage Gen AI, et 71 % des développeurs sont actuellement à divers stades d'adoption,
    allant des essais au déploiement complet

    Un rapport d'étude publié par LinearB révèle que 87 % des organisations envisagent d'investir dans des outils de codage Gen AI en 2024, et 71 % sont actuellement engagées dans l'adoption de cette technologie, allant des essais au déploiement complet. Basé sur les données recueillies auprès de plus de 150 directeurs techniques et vice-présidents de l'ingénierie, le rapport explore l'impact potentiel du code d'IA générative sur l'ensemble du cycle de livraison du logiciel. L'IA générative devrait être responsable d'environ 20 % du code d'ici à la fin de 2024.

    La plupart des développeurs explorent l'intégration de la GenAI dans leurs processus, avec une majorité ayant déjà investi dans des outils tels que GitHub Copilot, Amazon CodeWhisperer, Codium.ai, Tabnine, etc. Le rapport aborde la question cruciale de mesurer l'impact de cette initiative. LinearB décompose l'évaluation en trois catégories principales : l'adoption, les avantages et les risques. Pour évaluer l'adoption, le suivi du nombre de Pull Requests générées par GenAI est suggéré comme point de départ, tandis que les avantages peuvent être mesurés en évaluant le temps de codage, la fréquence de fusion, les histoires terminées, et la précision de la planification.

    Presque toutes les équipes d'ingénieurs se penchent sur l'intégration de la GenAI dans leurs processus, et un grand nombre d'entre elles ont déjà franchi le pas. Elles ont investi dans des outils tels que GitHub Copilot, Amazon CodeWhisperer, Codium.ai, Tabnine, et d'autres outils similaires pour concrétiser cette initiative. En effet, l'enquête menée par LinearB a révélé qu'un pourcentage significatif, soit 87%, des participants sont susceptibles ou très susceptibles d'investir dans un outil de codage GenAI d'ici 2024.

    Quelle est la probabilité que votre organisation investisse dans un outil de codage de l'IA générative en 2024 ?

    Nom : Teco.jpg
Affichages : 6206
Taille : 10,1 Ko
    Note moyenne 3.8/5


    L'IA générative ou l'intelligence artificielle générative fait référence à l'utilisation de l'IA pour créer de nouveaux contenus, comme du texte, des images, de la musique, de l'audio et des vidéos. L'IA générative s'appuie sur des modèles de base (grands modèles d'IA) qui peuvent effectuer plusieurs opérations en même temps et réaliser des tâches prêtes à l'emploi, telles que la synthèse, les questions/réponses, la classification, etc. De plus, les modèles de base ne nécessitent qu'un entraînement minimal et peuvent être adaptés à des cas d'utilisation ciblés avec très peu d'exemples de données.

    L'IA générative s'appuie sur un modèle de ML pour apprendre les schémas et les relations dans un ensemble de données de contenus créés manuellement. Elle utilise ensuite les schémas appris pour générer de nouveaux contenus. La méthode la plus courante pour entraîner un modèle d'IA générative consiste à utiliser l'apprentissage supervisé. Le modèle se voit attribuer un ensemble de contenus créés manuellement et des étiquettes correspondantes. Il apprend ensuite à générer du contenu semblable au contenu créé par un humain et doté des mêmes étiquettes.

    L'IA générative traite un grand volume de contenus, générant des insights et des réponses sous forme de texte, d'images et de formats conviviaux. Voici des exemple d'utilisations de l'IA générative :

    • Améliorer les interactions client grâce à des fonctionnalités optimisées de chat et de recherche ;
    • Explorer de grandes quantités de données non structurées via des interfaces de conversation et des résumés ;
    • Faciliter les tâches répétitives en répondant aux appels d'offres, en localisant le contenu marketing dans cinq langues et en vérifiant la conformité des contrats client, etc.

    Le rapport de LinearB souligne également les risques associés à l'adoption de la GenAI, tels que la taille des Pull Requests, le taux de reprise, la profondeur de révision, et d'autres indicateurs. Il met en lumière l'importance d'évaluer comment les processus des équipes sont impactés pour prévenir les risques avant qu'ils n'affectent la livraison.

    En parallèle à l'adoption et aux avantages de la GenAI, il existe des risques significatifs à prendre en considération. Outre les préoccupations liées à la sécurité, à la conformité et à la propriété intellectuelle, l'adoption de la GenAI pour le codage annonce un changement fondamental dans la « forme » de la base de code et dans la manière dont elle est mise à jour.

    Nom : Risk.jpg
Affichages : 1659
Taille : 7,7 Ko

    Le rapport propose également une approche pratique pour mesurer l'adoption, les avantages, et les risques du code GenAI en utilisant des métriques spécifiques telles que les demandes d'extraction ouvertes, les demandes de retrait fusionnées, la fréquence de fusion, le temps de codage, les histoires terminées, la précision de la planification, la taille des Pull Requests, le taux de reprise, la profondeur de révision, et d'autres.

    De nombreux responsables de l'ingénierie sont chargés de superviser des dizaines, voire des centaines de développeurs, ce qui rend pratiquement impossible le contrôle manuel de l'utilisation d'un nouvel outil, en particulier un outil aussi complet que la GenAI.

    Selon LinearB, une fois que vous avez entamé l'utilisation d'un produit tel que Copilot, ou même si vous envisagez encore de le déployer, trois questions principales doivent être abordées :

    • Quels sont les cas d'utilisation que nous résolvons avec la GenAI ?
    • Quelles parties de ma base de code sont écrites par une machine ? Le nouveau code ? Les tests ?
    • Mon équipe utilise-t-elle effectivement cet outil ? Si oui, dans quelle mesure ? Et comment évolue notre utilisation au fil du temps ?

    À titre de référence, le suivi du nombre de Pull Requests (PR) ouvertes dont le code est généré par la GenAI constitue un bon point de départ pour évaluer l'adoption de cette technologie.

    Risques et stratégies pour utiliser l'IA générative dans le développement de logiciels

    En parallèle de l'adoption et des avantages liés à la GenAI, il existe des risques significatifs à prendre en compte. Outre les préoccupations relatives à la sécurité, à la conformité et à la propriété intellectuelle, l'adoption de la GenAI pour le codage annonce un changement fondamental dans la "forme" et la manière dont la base de code est mise à jour. Bien que la GenAI permette une création de code beaucoup plus rapide, il est crucial de déterminer si les pipelines de révision et de livraison sont prêts à gérer cette évolution. Il est essentiel d'évaluer l'impact de ces changements sur les processus des équipes afin de prévenir les risques avant qu'ils n'affectent la livraison.

    Dans de nombreux cas, le code généré peut s'avérer plus difficile à réviser. L'auteur des Pull Requests (PR) trouve souvent plus ardu de raisonner à son sujet et de le défendre, étant donné qu'il n'a pas réellement rédigé le code. Pour garantir une inspection adéquate des PR générées par la GenAI, utilisez la profondeur de révision et le suivi des PR fusionnés. Les mesures telles que le temps d'approbation et le temps de révision sont également utiles pour identifier les éventuels goulots d'étranglement dans le processus de développement.

    Enfin, le recours au taux de reprise peut aider à comprendre s'il existe un besoin de réécriture fréquente du code, tandis que le suivi des bogues échappés permet de surveiller l'évolution des tendances générales en matière de qualité.

    Comme certains développeurs l'ont découvert l’année dernière, il n'est pas toujours simple ou sûr de faire appel à l'IA générative pour gérer un peu de codage, mais il existe des moyens pour les équipes de développement de la faire travailler avec plus de confiance. En avril dernier, des employés de Samsung ont introduit une partie du code propriétaire de l'entreprise dans ChatGPT, réalisant par la suite que l'IA générative conservait ce qu'on lui donnait à lire pour s'entraîner. Cela a provoqué un tollé, avec des craintes d'exposition, bien que cela ait sensibilisé d'autres entreprises aux risques qui peuvent survenir lors de l'utilisation de l'IA générative dans le développement et le codage.

    L'idée est assez simple : laisser l'IA créer du code pendant que les développeurs se concentrent sur d'autres tâches qui requièrent leur attention. L'astrophysicien Neil deGrasse Tyson a évoqué en juin certains des avantages de l'utilisation de l'IA pour traiter des données sur le cosmos et lui permettre de se consacrer à d'autres tâches. Il semble qu'une stratégie bien pensée puisse permettre à l'IA générative de jouer un rôle productif dans le développement de logiciels, à condition que des garde-fous soient mis en place.

    Josh Miramant, PDG de la société de données et d'analyse Blue Orange Digital, estime que l'utilisation de l'IA par les développeurs est de plus en plus inévitable. « Nous nous trouvons à un carrefour intéressant pour ce qui est de l'avenir des LLM (grands modèles de langage) et de l'IA générative en vue d'une adoption massive. » Selon Miramant, les entreprises peuvent mettre l'IA au service du développement de logiciels à condition de respecter certaines lignes directrices. « L'un des types de transition qui se produira est que ces entreprises commenceront à utiliser des modèles en libre accès qu'elles formeront et utiliseront en interne avec un accès beaucoup plus restrictif, explique-t-il. Les murs doivent être très hauts pour qu'une entreprise se lance dans la formation sur des données d'entreprise très exclusives. »

    « En tant que vice-président de la R&D chez SOLIDUS Labs, le suivi des indicateurs de performance en ingénierie m'a permis d'engager des discussions éclairées tant avec mes collaborateurs directs qu'avec le PDG. Cela me permet de repérer rapidement les points de blocage, d'évaluer l'efficacité de l'équipe et l'expérience des développeurs, puis d'apporter des améliorations ciblées en fonction des données recueillies », Idan Lavy, vice-président de la R&D, SOLIDUS Labs.

    Controles et mesures de securite dans l'integration de l'IA generative dans le developpement de logiciels

    Parmi les risques liés à l'utilisation de l'IA dans le développement de logiciels, il y a la possibilité qu'elle reproduise le mauvais code qui a fait le tour du monde dans le domaine des logiciels libres. « Il y a du mauvais code qui est copié et utilisé partout », déclare Muddu Sudhakar, PDG et cofondateur d'Aisera, développeur d'une plateforme d'IA générative pour les entreprises. « C'est un risque important. Le risque n'est pas seulement que du code mal écrit soit répété - le mauvais code peut être mis en jeu par des acteurs malveillants qui cherchent à introduire des vulnérabilités qu'ils pourront exploiter ultérieurement. »

    Selon Sudhakar, les organisations qui font appel à l'IA générative et à d'autres ressources libres devraient mettre en place des contrôles pour repérer ces risques si elles ont l'intention d'intégrer l'IA dans l'équation de développement. « C'est dans leur intérêt, car il suffit d'un mauvais code », explique-t-il en évoquant la longue campagne de piratage à l'origine de la violation des données de Solar Winds.

    L'attrait croissant de l'IA pour le développement semble l'emporter sur les inquiétudes concernant les risques de fuite de données ou d'autres problèmes. « L'utilité de l'IA est telle qu'il vaut la peine d'être conscient des risques et de le faire quand même », déclare Babak Hodjat, directeur technique de l'IA et directeur de Cognizant AI Labs.

    Selon lui, il faut tenir compte du fait qu'un code accessible au public ne signifie pas qu'il n'est pas protégé par des droits d'auteur, ce qui pourrait être problématique si une entreprise intégrait ce code dans une ligne de ses propres produits logiciels. « Nous devons vraiment, vraiment être attentifs et veiller à ne pas tomber dans ce piège », déclare Hodjat.

    En plus de surveiller le mauvais code, il ajoute que les organisations devraient vérifier que le code de l'IA générative n'est pas protégé par des droits d'auteur ou des droits de propriété, un processus qui pourrait en fait être assisté par d'autres formes d'IA. « Ces éléments sont en fait bien meilleurs pour critiquer que pour produire, et ils sont déjà très bons pour produire du texte ou du code », explique Hodjat.

    Sudhakar est d'accord pour dire qu'un outil d'inspection à code open source devrait être mis en place pour inspecter le code provenant de l'IA afin de détecter d'éventuels droits d'auteur ou de propriété intellectuelle, « si vous disposez de personnel logiciel pour inspecter cela et en fonction de votre niveau d'investissement ».
    Selon Hodjat, il existe également des moyens de tirer parti de l'IA générative accessible au public, tout en réduisant certains risques.

    Il peut s'agir par exemple de télécharger un modèle de langage large open source et de l'exécuter localement. De cette manière, les données et le code sensibles ne quittent pas l'organisation. « Le fait de pouvoir exécuter ces modèles sur place va nous permettre d'utiliser ces systèmes pour améliorer le codage de manière beaucoup plus importante », explique-t-il. Pour certains codes propriétaires, cependant, l'IA pourrait être complètement interdite.

    Voici un tableau de bord GenAI personnalisé

    Nom : GenAI.jpg
Affichages : 1668
Taille : 55,9 Ko

    Tous les Pull Requests (PR) arborant l'étiquette "Copilot" dans GitHub ont été inclus dans la définition du filtre du tableau de bord. Dans cette représentation visuelle, la ligne bleue inférieure illustre l'ensemble des PR avec l'étiquette "Copilot", tandis que la ligne grise représente tous les autres PR, servant ainsi de référence de base dans ce contexte.

    Plongeons maintenant en détail dans les Pull Requests (PR) fusionnés sans examen. À titre d'exemple, au sein de l'équipe d'ingénieurs chez LinearB, une décision collective a été prise pour ne pas intégrer de PR générés par GenAI sans qu'ils aient fait l'objet d'une révision.

    Dans le graphique, on observe un pic de PR fusionnés sans révision lors de la semaine 50, constituant une anomalie. Chaque fois que LinearB détecte une tendance dans les données qui ne correspond pas aux attentes, elle approfondit l'analyse en cliquant sur le pic du graphique. Cela permet d'afficher une liste de tous les PR qui ont contribué à ce point de données, permettant ainsi d'examiner de près tous les PR GenAI qui ont été fusionnés sans examen.

    En principe, un outil de GenAI conçu pour générer des morceaux de code pour une équipe devrait logiquement entraîner une réduction du temps de codage et des coûts de développement en accélérant les tâches simples. Pour évaluer si les avantages attendus de la GenAI se concrétisent, LinearB suggère d'analyser les performances et la vélocité de l'équipe.

    Diverses mesures peuvent être suivies à cet égard, notamment le temps de codage, défini comme la période entre le premier commit et l'émission d'une Pull Request (PR). Cette métrique peut être utile pour déterminer si la GenAI contribue effectivement à réduire le temps de codage des développeurs.

    La fréquence de fusion, qui indique à quelle fréquence les développeurs peuvent intégrer du code dans la base de code, revêt également une importance particulière. Elle ne se limite pas seulement au temps de codage, mais englobe également la dynamique de révision du code, fournissant ainsi un aperçu de l'efficacité de la GenAI pour accélérer l'ensemble du processus.

    « La nature imprévisible des projets logiciels, due à divers facteurs tels que des défis techniques inattendus et des problèmes de sécurité, peut poser des défis considérables. Les mesures d'ingénierie, notamment la précision de la planification et l'utilisation d'outils d'automatisation du flux de travail, ont été des catalyseurs essentiels pour accroître notre productivité. Ces outils ont par ailleurs contribué à renforcer la prévisibilité de nos calendriers de publication et des délais associés », souligne Marko T., Directeur Technique chez ASSIGNAR.

    Les développeurs utilisent déjà des outils de codage de l'IA au travail

    Selon une enquête de GitHub auprès des développeurs, 92 % des développeurs travaillant dans de grandes entreprises déclarent utiliser un outil de codage de l'IA, que ce soit au travail ou pendant leur temps libre, et 70 % d'entre eux affirment que l'utilisation de ces outils leur apporte des avantages significatifs.

    L'IA est là pour rester et elle transforme déjà la façon dont les développeurs abordent leur travail quotidien. Il est donc essentiel que les entreprises et les responsables de l'ingénierie adoptent des outils d'IA de qualité professionnelle afin d'éviter que leurs développeurs n'utilisent des applications non approuvées. Les entreprises devraient également établir des normes de gouvernance pour l'utilisation des outils d'IA afin de s'assurer qu'ils sont utilisés de manière éthique et efficace.

    Presque tous les développeurs (92 %) utilisent des outils de codage de l'IA au travail - et une majorité (67 %) a utilisé ces outils à la fois dans un cadre professionnel et pendant son temps libre. Curieusement, seuls 6 % des développeurs interrogés dans le cadre de notre enquête déclarent n'utiliser ces outils qu'en dehors du travail.

    Les développeurs pensent que les outils de codage basés sur l'IA amélioreront leurs performances

    La plupart des développeurs expérimentant les outils d'IA sur leur lieu de travail, les résultats de notre enquête suggèrent que ce n'est pas seulement un intérêt futile qui pousse les développeurs à utiliser l'IA. Il s'agit plutôt d'une reconnaissance du fait que les outils de codage de l'IA les aideront à atteindre les normes de performance.

    Dans notre enquête, les développeurs affirment que les outils de codage basés sur l'IA peuvent les aider à respecter les normes de performance existantes en améliorant la qualité du code, en accélérant les résultats et en réduisant le nombre d'incidents au niveau de la production. Ils estiment également que ces paramètres devraient être utilisés pour mesurer leurs performances au-delà de la quantité de code.

    Évaluation de la pertinence et de la fiabilité du rapport d'étude de LinearB

    LinearB explique comment son approche, basée sur l'étiquetage des Pull Requests, permet aux responsables de l'ingénierie de suivre l'adoption, les bénéfices, et les risques de la GenAI, offrant une visibilité claire à tout moment, du déploiement à l'utilisation complète.

    La méthodologie de collecte des données présentée par LinearB n'est pas explicitement détaillée dans la description du rapport. L'absence de détails sur la manière dont les réponses ont été obtenues rend difficile l'évaluation de la représentativité de l'échantillon et la validité des conclusions tirées. De plus, la source des données, composée de plus de 150 directeurs techniques et vice-présidents de l'ingénierie, pourrait potentiellement introduire un biais, ces individus pouvant avoir des perspectives spécifiques basées sur leurs rôles et leurs expériences. Une enquête plus vaste et diversifiée aurait renforcé la crédibilité des résultats.

    Les prévisions quant à la part de l'IA générative dans le code d'ici à la fin de 2024, représentant environ 20 %, reposent sur des projections sujettes à des variables inconnues. Ces prévisions nécessitent une interprétation prudente en raison de la nature évolutive du domaine de l'IA et du codage génératif.

    Bien que le rapport de LinearB présente des informations intrigantes, il est crucial de considérer ces données avec discernement en raison du possible biais de l'échantillon, du manque de détails sur la méthodologie et de la nature spéculative des prévisions avancées. Une analyse approfondie et une compréhension des limites de l'étude sont nécessaires pour formuler des conclusions informées.

    Source : LinearB

    Et vous ?

    Est-ce que les conclusions de l'étude publiée par LinearB sont pertinentes ?

    Dans quelle mesure les résultats de cette étude peuvent-ils être généralisés à l'ensemble de l'industrie, étant donné la diversité des organisations et de leurs besoins ?

    Quelle est votre opinion concernant l'adoption des outils de codage Gen AI par les départements d'ingénierie logiciels ?

    Estimez-vous que les conclusions tirées par LinearB ont une signification pour l'ensemble des développeurs ?

    Voir aussi :

    Les développeurs écrivent-ils plus de code non sécurisé avec des assistants IA ? Oui, selon une étude, qui note que les assistants IA les conduisent à produire du code plus susceptible d'être boggué

    92 % des développeurs utiliseraient des outils d'intelligence artificielle, selon une enquête de GitHub auprès des développeurs

    Les assistants de programmation basés sur l'IA incitent à repenser l'enseignement de l'informatique, selon des chercheurs

  12. #12
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 915
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 915
    Points : 37 409
    Points
    37 409
    Par défaut Imposer l'IA aux développeurs serait une mauvaise idée qui semble se concrétiser
    Imposer l'IA aux développeurs serait une mauvaise idée qui semble se concrétiser,
    l'ajout de fonctionnalités non optionnelles à un moment inopportun pourrait entraîner des complications inutiles

    Les entreprises ont souvent adopté un comportement problématique consistant à intégrer de nouvelles fonctionnalités indésirables, créant ainsi un phénomène persistant qui mériterait sa propre désignation. Bien que le terme "creeping featurism" du Hacker's Dictionary approche cette réalité, il ne parvient pas à refléter pleinement la nocivité de cette pratique, capable de perturber les habitudes, de complexifier les tâches quotidiennes et même de nécessiter le réapprentissage de compétences déjà acquises.

    Certains analystes considèrent que l'introduction par JetBrains d'un plugin d'assistant d'IA inamovible dans l'environnement quotidien des développeurs est une idée si préjudiciable qu'elle pourrait donner naissance au "syndrome JetBrains". Cette problématique ne découle pas de la qualité intrinsèque de l'IA, mais plutôt d'une compréhension insuffisante des réalités pratiques du métier de développeur. Les développeurs, soumis à des contraintes temporelles strictes pour produire un code fonctionnel dans le cadre de projets, pourraient faire face à des complications inutiles avec l'ajout de fonctionnalités non optionnelles à des moments inopportuns.

    Nom : JeuneB.png
Affichages : 6801
Taille : 323,6 Ko

    Par ailleurs, Oracle a annoncé en 2021 la disponibilité des services d'IA d'Oracle Cloud Infrastructure (OCI), permettant aux développeurs d'appliquer plus facilement des services d'IA à leurs applications sans nécessiter une expertise approfondie en science des données. Ces services OCI AI offrent aux développeurs la possibilité d'utiliser des modèles prêts à l'emploi ou de former des services sur mesure en fonction des données spécifiques à leur organisation. Oracle propose six nouveaux services couvrant diverses tâches complexes, de la compréhension du langage à la vision par ordinateur et aux prévisions de séries chronologiques.

    Oracle affirme que les entreprises actuelles ont besoin de l'IA pour accélérer l'innovation, évaluer les conditions commerciales et offrir de nouvelles expériences client. Cependant, elles font souvent face à des défis tels que la rareté de l'expertise en science des données et la difficulté de former des modèles sur des données commerciales pertinentes, entravant ainsi la mise en œuvre de l'IA. Oracle se positionne comme un acteur clé pour aider les organisations à concrétiser la valeur de l'IA en tirant parti de son expertise en applications d'entreprise, données d'entreprise et infrastructure cloud de nouvelle génération.

    Les développeurs expriment des inquiétudes quant à l'introduction de l'IA dans le processus de développement logiciel

    Dans un autre registre, Microsoft et Nvidia ont collaboré pour fournir aux développeurs des outils améliorés permettant d'exécuter et de configurer des modèles d'IA sur leurs PC Windows. Lors de l'événement Microsoft Ignite, Microsoft a présenté Windows AI Studio, un hub central permettant aux développeurs d'accéder à une variété de modèles d'IA et de les personnaliser en fonction de leurs besoins. Nvidia a également annoncé des mises à jour pour son outil de développement de l'IA, TensorRT-LLM.

    « En raison des nombreux outils, frameworks et modèles open source disponibles, il est difficile de choisir le bon ensemble d'outils pour tester, affiner et optimiser les modèles ou sélectionner les modèles les plus fiables qui répondent le mieux aux divers besoins de l'entreprise. C'est pourquoi nous sommes ravis d'annoncer Windows AI Studio, une nouvelle expérience pour les développeurs, qui étend l'outillage d'Azure AI Studio pour lancer le développement de l'IA sur Windows », a écrit Microsoft dans un billet de blogue. Selon l'entreprise, Windows AI Studio s'appuie sur des plateformes existantes comme Azure AI Studio et Hugging Face.

    Cependant, cette évolution n'est pas sans controverse, GitHub, la plateforme d'hébergement de code appartenant à Microsoft, ayant suscité le mécontentement des développeurs en imposant des recommandations d'IA. Cette décision a modifié le flux de la page d'accueil des développeurs, les privant ainsi de leur choix entre un flux chronologique et un flux personnalisé, provoquant ainsi la colère de nombreux membres de la communauté.

    Les entreprises se tournent de plus en plus vers l'intelligence artificielle pour accélérer la livraison de logiciels. Mais la popularité croissante des outils de développement basés sur l'IA soulève des inquiétudes en matière de sécurité, de précision et d'implications pour les travailleurs du secteur technologique. À mesure que l'IA se généralise, les dirigeants du secteur technologique s'interrogent sur la manière de l'intégrer en toute sécurité dans le développement de logiciels, et les travailleurs s'inquiètent de la qualité du code généré par l'IA, ainsi que de ce que l'IA signifie pour leur emploi.

    Lorsque l'on expérimente le développement de logiciels assistés par l'IA, « l'un des risques est de générer du mauvais code, tout comme une personne génère du mauvais code », a déclaré Mike Gualtieri, vice-président et analyste principal chez Forrester Research. Cela inclut les risques de sécurité. Les outils de génération de code et de recommandation reflètent les failles de sécurité et les mauvaises configurations du code utilisé comme données de formation. De même, les sources et la sensibilité des données utilisées pour former et affiner les systèmes d'IA suscitent des inquiétudes en matière de sécurité et de protection de la vie privée.

    L'adoption hâtive de l'IA sans évaluation minutieuse peut avoir des conséquences néfastes

    Imposer l'intelligence artificielle aux développeurs représente une perspective préoccupante qui mérite une analyse critique. Bien que l'IA puisse offrir des avantages significatifs dans le domaine du développement logiciel, son imposition sans discernement soulève des inquiétudes légitimes.

    D'abord, il est essentiel de reconnaître que l'intégration forcée de l'IA peut entraîner des complications inutiles. Les développeurs, déjà confrontés à des contraintes temporelles strictes, pourraient se retrouver sous pression pour assimiler rapidement de nouvelles fonctionnalités non optionnelles, perturbant ainsi leur flux de travail quotidien. Cette approche risque de compromettre la qualité du code et d'entraver la productivité, car les développeurs pourraient être contraints de se familiariser avec des fonctionnalités auxquelles ils ne sont pas préparés.


    Certains développeurs perçoivent l'IA, comme le démontre son utilisation pour le débogage, comme un outil potentiellement précieux au sein de leur arsenal, capable d'apporter une assistance significative à des tâches spécifiques. Cependant, cette approbation n'est pas universelle. Certains développeurs, favorables à des outils tels que Co-pilot, considèrent l'IA comme un moyen de simplifier des tâches répétitives et d'améliorer l'efficacité au sein du processus de développement. Cependant, des préoccupations émergent, soulignant le risque d'une dépendance excessive à l'IA. Ces inquiétudes s'articulent autour de la qualité potentielle du code généré et de la nécessité d'un contrôle humain adéquat.

    Au-delà de ces considérations techniques, des inquiétudes plus larges émergent sur la « technopathie ». Celui-ci met en lumière les préoccupations éthiques et sociales entourant l'utilisation de l'IA à des fins principalement lucratives plutôt que pour des avantages sociaux significatifs. La perspective d'une dystopie, où la croissance des revenus s'accompagne de la suppression d'emplois et de la désintégration de la qualité de vie, est une préoccupation centrale soulevée dans les opinions.


    L'histoire a montré que l'adoption précipitée de technologies sans une évaluation approfondie peut entraîner des conséquences indésirables. L'imposition de l'IA sans une compréhension adéquate des besoins et des réalités pratiques des développeurs risque de reproduire ces erreurs du passé.

    Si les créateurs d'outils de développement comme JetBrains ne tiennent pas compte des contraintes et des préférences des développeurs, cela pourrait compromettre la satisfaction et l'efficacité des utilisateurs finaux. Les développeurs devraient avoir la liberté de choisir les outils et les technologies qui correspondent le mieux à leurs besoins, tout en bénéficiant d'une formation adéquate pour maximiser les avantages de l'IA de manière responsable. La réussite de l'intégration de l'IA dépendra de la compréhension des réalités du terrain, de la collaboration et de la considération des besoins individuels des développeurs.

    Et vous ?

    Quel est votre avis sur le sujet ?

    Comment intégrez-vous l'IA dans votre routine quotidienne en tant que développeur ?

    Quels sont les risques potentiels associés à l'imposition de l'IA aux développeurs dans le contexte du développement logiciel ?

    Avez-vous des exemples concrets de complications inutiles qui pourraient découler de l'ajout de fonctionnalités non optionnelles et à des moments inopportuns ?

    Voir aussi :

    Les nouveaux services d'IA cloud d'Oracle visent à apporter un apprentissage automatique prêt à l'emploi, pour les développeurs même sans expertise en science des données

    Microsoft et Nvidia collaborent pour faciliter l'exécution de modèles d'IA sous Windows aux développeurs, avec des outils permettant de travailler localement avec des modèles d'IA volumineux

    92 % des développeurs utiliseraient des outils d'intelligence artificielle, selon une enquête de GitHub auprès des développeurs

  13. #13
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 109
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 109
    Points : 18 347
    Points
    18 347
    Par défaut Les cadres sont prêts à adopter les outils de codage IA, mais les développeurs le sont moins, selon une étude
    Les cadres sont prêts à adopter les outils de codage IA, mais les développeurs le sont moins, alors que les directeurs techniques estiment que ces outils ne présentent aucun risque et sont "extrêmement prêts"

    Un nouveau rapport révèle un décalage entre les dirigeants et leur empressement à adopter les outils de codage IA et ceux qui les utilisent réellement et qui sont prudents à l'égard de l'IA.

    L'étude de Snyk montre que les directeurs techniques et les RSSI sont cinq fois plus nombreux que les développeurs à penser que les outils de codage IA ne présentent aucun risque et deux fois plus nombreux que les développeurs à penser qu'ils sont « extrêmement prêts » à adopter des outils de codage IA.

    32 % des personnes interrogées dans la suite C décrivent l'adoption rapide des outils de codage IA comme critique, soit deux fois plus que les personnes interrogées dans le cadre de l'AppSec.


    « L'ère de la GenAI est arrivée, et il n'est pas possible de “remettre le génie dans la bouteille”. Nous pensons qu'il incombe désormais au secteur de la cybersécurité de recommander des lignes directrices claires qui nous permettront à tous de bénéficier de cette productivité accrue, sans les sacrifices de sécurité associés », déclare Danny Allan, directeur de la technologie chez Snyk. « Cette dernière étude montre aussi clairement que la mise à l'échelle des outils de codage IA doit être un effort de collaboration. Les directeurs techniques devraient s'efforcer de travailler côte à côte et de faire confiance à leurs chefs d'équipe DevSecOps afin qu'ensemble, nous puissions récolter en toute sécurité tous les avantages de la GenAI sur le long terme. »

    Dans l'ensemble, la sécurité du code généré par l'IA n'est pas une préoccupation majeure pour la majorité des organisations interrogées. Près des deux tiers (63,3 %) des personnes interrogées considèrent que la sécurité est excellente ou bonne, et seulement 5,9 % la considèrent comme mauvaise.

    Une fois de plus, il y a un décalage, 38,3 % du personnel AppSec estimant que les outils de codage IA sont « très risqués ». Les répondants AppSec s'interrogent également sur les politiques de sécurité de leur organisation concernant les outils de codage IA. Près d'un tiers (30,1 %) des membres de l'équipe AppSec déclarent que les politiques de sécurité de leur organisation en matière d'IA sont insuffisantes, contre 11 % des personnes interrogées de la suite C et 19 % des développeurs/ingénieurs. 19 % des personnes interrogées de la suite C affirment que les outils de codage de l'IA ne sont pas du tout risqués, alors que seulement 4,1 % des personnes interrogées de l'AppSec sont d'accord avec cette affirmation.

    Les résultats clés du rapport 2023 AI Code Security Report de Snyk sont présentés ci-dessous :

    Selon le rapport 2023 AI Code Security Report de Snyk, 96 % des codeurs utilisent des outils d'IA générative dans leurs flux de travail. Les organisations qui conçoivent des logiciels savent qu'elles doivent adopter ces outils pour rester compétitives et pour attirer et retenir les talents. L'intégration d'outils de codage IA dans le cycle de développement des logiciels pose divers défis en matière de sécurité et d'exploitation. Dans quelle mesure les leaders technologiques et leurs équipes sont-ils prêts pour la nouvelle ère des outils de codage IA ? Et comment se préparent-ils à ce changement important dans la manière dont les logiciels sont écrits ?

    Snyk a posé à plus de 400 technologues une série de questions destinées à évaluer le degré de préparation à l'IA de leurs organisations et à mesurer leurs perceptions des outils de codage IA. L'enquête a porté sur trois groupes : les cadres technologiques de haut niveau, les équipes de sécurité des applications et les développeurs/ingénieurs. Ces groupes avaient des points de vue différents sur la sécurité des outils de codage IA et du code, sur l'efficacité des politiques de sécurité du code IA et sur l'état de préparation des organisations au codage IA.

    Les organisations sont confiantes dans leur préparation à l'IA, en particulier les dirigeants

    Les organisations sont généralement convaincues qu'elles sont prêtes et préparées à adopter l'IA. En réponse aux questions portant directement ou indirectement sur l'état de préparation à l'IA, la majorité des organisations adoptent rapidement l'IA au point de court-circuiter l'analyse standard des cas d'utilisation et les tests de produits avant le déploiement. Pour leur part, les répondants de la suite C sont à la fois plus sûrs que leur organisation est prête à adopter l'IA et plus sûrs que leurs outils d'IA sont sécurisés.

    Nom : Snyk AI fig 1.PNG
Affichages : 7437
Taille : 27,6 Ko

    Excellente préparation à l'IA ? Les RSSI et les directeurs techniques sont deux fois plus disposés à adopter l'IA que les développeurs

    Dans les trois types de rôles, une majorité de répondants ont déclaré que leur organisation était « extrêmement prête » ou « très prête » pour l'adoption d'outils de codage IA. Moins de 4 % ont déclaré que leur organisation n'était pas prête. Cependant, les répondants de la suite C sont plus confiants que les autres groupes de répondants dans le fait que leur organisation est amorcée et prête pour le déploiement et l'adoption d'outils de codage IA. 40,3 % de ce groupe ont estimé que leur organisation était « extrêmement prête », contre seulement 26 % des membres de l'équipe AppSec et 22,4 % des développeurs. Il n'y avait pas de différence significative entre les RSSI et les CTO, ce qui semble contre-intuitif étant donné l'accent mis sur la sécurité et le risque par les RSSI. Cela pourrait être dû à la pression intense exercée sur le leadership technologique pour déployer rapidement des outils de codage IA et accélérer les processus de développement de logiciels. La réticence d'autres groupes reflète probablement des préoccupations sur le terrain concernant des problèmes de préparation spécifiques liés à la sécurité, à la formation, à la qualité du code et à d'autres détails de la couche de mise en œuvre.

    Les organisations craignent sur la sécurité du codage IA mais ne se préparent pas correctement

    Malgré des réponses fortement positives concernant la préparation des organisations, les politiques de sécurité, la qualité du code IA et le risque, les personnes interrogées citent toujours la sécurité comme le plus grand obstacle à l'adoption des outils de codage IA. En contradiction apparente avec ce sentiment, ils ne parviennent pas non plus à prendre des mesures de base pour minimiser les risques et préparer leurs organisations, telles que l'exécution de POC et la formation des développeurs sur les outils de codage IA.

    Nom : Snyk AI fig 3.PNG
Affichages : 1769
Taille : 26,9 Ko

    Ceux qui travaillent plus étroitement avec le code ont plus de doutes sur les questions de sécurité

    Les équipes AppSec ont tendance à avoir une vision plus négative des risques de sécurité de l'IA et de la façon dont leur organisation gère ces risques. Elles avaient notamment une moins bonne opinion de la sécurité du code généré par l'IA, une plus grande perception du risque lié aux outils d'IA et une moins bonne opinion de la suffisance des politiques de sécurité de leur organisation en matière d'IA.

    Conclusion

    Prêt ou non ? Les répondants sont généralement positifs quant à l'état de préparation des outils de codage IA dans leurs organisations. Ils pensent généralement que leurs politiques de sécurité sont suffisantes et que le code généré par l'IA est sécurisé. Dans l'ensemble, ils estiment être prêts pour l'adoption de l'IA. Cependant, ils restent partagés sur la question de la sécurité des outils de codage IA. Dans tous les rôles, les craintes en matière de sécurité sont perçues comme le plus grand obstacle à l'entrée des outils de codage IA. En ce qui concerne les processus pratiques de préparation, moins d'un cinquième des personnes interrogées ont déclaré que leur organisation avait réalisé des PoC, une étape fondamentale pour l'adoption d'une nouvelle technologie. Et moins de la moitié des répondants ont déclaré que la majorité de leurs développeurs avaient reçu une formation aux outils de codage IA. Ces contradictions peuvent indiquer un manque de planification et de stratégie, ainsi qu'un manque de structure autour de l'adoption de l'IA.

    En approfondissant, les répondants à l'enquête ont montré une divergence constante par rôle dans leur perception de la qualité du code, de la sécurité des outils et de l'état de préparation général de l'organisation. Les membres de la suite C ont une vision plus positive des outils de codage IA et de l'état de préparation que les répondants qui travaillent plus près du code ou des processus et politiques de sécurité. En particulier, les membres de l'équipe de sécurité avaient une vision plus sombre de la sécurité des outils de codage IA, ce qui implique que ce groupe influent est exposé à davantage de problèmes générés par le codage IA et réagit en conséquence.

    Les contradictions ci-dessus impliquent une planification insuffisante ou une stratégie cohésive autour de l'adoption d'outils de codage IA, ainsi qu'un manque de structure dans la détermination et le respect des conditions préalables nécessaires, potentiellement en raison d'un manque de visibilité interorganisationnelle cohérente. Cela peut s'expliquer par le fait que, comme dans le cas des smartphones et de certains logiciels grand public, l'adoption a d'abord été rapide et incontrôlée avant d'être institutionnalisée par les services informatiques. En ce sens, les déploiements ont pu être initialement chaotiques et difficiles à contrôler par la suite. En fin de compte, cependant, les organisations devraient envisager une approche plus structurée de l'adoption et de la sécurité des outils de codage IA, plus proche des processus d'adoption d'autres types de logiciels d'entreprise. Cette approche devrait également permettre de dissiper les craintes en matière de sécurité et de répondre aux préoccupations majeures des développeurs et des équipes de sécurité. Pour ce faire, elle mettra en place de meilleurs contrôles et équilibres et fournira une approche plus holistique, méthodique et programmatique du déploiement d'un changement fondamental dans le processus de développement de logiciels.

    A propos de Snyk
    Snyk est une plateforme pour la sécurité des développeurs d’applications et cloud. Elle leur permet de sécuriser l’ensemble de leur application en identifiant et corrigeant les vulnérabilités de leurs premières lignes de code à leur cloud de production. Snyk teste les vulnérabilités du code, les dépendances open source, les images de conteneur, les configurations d’infrastructure en tant que code et les environnements cloud, puis propose un contexte, une priorisation et des solutions de correction.

    Source : "2023 AI Code Security Report" (étude de Snyk)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous les conclusions de cette étude de Snyk crédibles ou pertinentes ?
    Qui a raison ? les développeurs ou les managers ?
    Quelles sont vos expériences d'utilisation d'outils IA pour le codage ?

    Voir aussi :

    87 % des organisations envisagent d'investir dans des outils de codage Gen AI, et 71 % des développeurs sont actuellement à divers stades d'adoption, allant des essais au déploiement complet

    Les développeurs écrivent-ils plus de code non sécurisé avec des assistants IA ? Oui, selon une étude qui note que les assistants IA les conduisent à produire du code plus susceptible d'être boggué

    92 % des développeurs utiliseraient des outils d'intelligence artificielle, selon une enquête de GitHub auprès des développeurs
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  14. #14
    Expert confirmé
    Homme Profil pro
    Développeur
    Inscrit en
    Août 2003
    Messages
    1 319
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Charente Maritime (Poitou Charente)

    Informations professionnelles :
    Activité : Développeur

    Informations forums :
    Inscription : Août 2003
    Messages : 1 319
    Points : 4 270
    Points
    4 270
    Par défaut
    Pour ma part, tout ce qui n'est pas auto-hébergé présente plus de risque de sécurité. Si je devais décider, ça devrait forcément être une solution auto-hébergeable.

    Je trouve la démarche inversée, se sont les dirigeant qui poussent l'utilisation de l'IA alors que ça devrait être ceux qui codent qui testent et fassent les demandes pour ce genre d'outils.

    Je suppose que les dirigeants sont sollicités par des commerciaux afin de leur vendre le produit, créer potentiellement un faux besoin.

  15. #15
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 915
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 915
    Points : 37 409
    Points
    37 409
    Par défaut Le code généré par l'IA pourrait augmenter la charge de travail des développeurs et accroître les risques
    Les défis croissants du code généré par l'IA : le code généré par l'IA pourrait augmenter la charge de travail des développeurs et accroître les risques,
    selon Harness

    L'intelligence artificielle (IA) est censée faciliter le travail des développeurs, mais selon Harness, le code généré par l'IA pourrait en réalité tripler leur charge de travail dans l'année à venir. L'augmentation du volume de code livré accroît les risques de failles et de vulnérabilités si les tests et les mesures de sécurité ne sont pas rigoureusement appliqués. Bien que neuf développeurs sur dix utilisent déjà des outils d'IA pour accélérer la livraison de logiciels, cette tendance nécessite une vigilance accrue à chaque étape du cycle de vie du développement logiciel (SDLC) pour prévenir les incidents de sécurité.

    L'utilisation de solutions d'intelligence artificielle générative pour produire du code informatique permet de rationaliser le processus de développement de logiciels et facilite l'écriture de code pour les développeurs de tous niveaux de compétence. L'utilisateur saisit un texte décrivant ce que le code doit faire, et l'outil de développement de code d'IA générative crée automatiquement le code. Il peut également moderniser le code existant et traduire le code d'un langage de programmation à un autre.

    Nom : devellopeur.jpg
Affichages : 66606
Taille : 25,0 Ko

    Harness propose d'utiliser davantage l'IA pour automatiser l'analyse des changements de code, tester les failles, et s'assurer que les déploiements peuvent être rapidement annulés en cas de problème. L'intégration de la sécurité à chaque phase du SDLC et l'automatisation des processus de surveillance des composants logiciels sont essentielles. Finalement, en adoptant des mesures robustes d'assurance qualité et de sécurité, les entreprises peuvent réduire les charges de travail des développeurs tout en augmentant la sécurité et la conformité.

    Optimisation du processus de codage par l'IA générative

    L'IA générative pour le codage est possible grâce aux récentes percées dans les technologies des grands modèles de langage (LLM) et du traitement du langage naturel (NLP). Elle utilise des algorithmes d'apprentissage profond et de grands réseaux neuronaux formés sur de vastes ensembles de données de divers codes sources existants. Le code d'entraînement provient généralement d'un code accessible au public produit par des projets open source.

    Les programmeurs saisissent des invites en texte clair décrivant ce qu'ils veulent que le code fasse. Les outils d'IA générative suggèrent des extraits de code ou des fonctions complètes, ce qui rationalise le processus de codage en gérant les tâches répétitives et en réduisant le codage manuel. L'IA générative peut également traduire le code d'un langage à un autre, rationalisant ainsi la conversion du code ou les projets de modernisation, tels que la mise à jour des applications existantes en transformant COBOL en Java. Même si le code produit par l'IA générative et les technologies LLM devient plus précis, il peut toujours contenir des défauts et doit être revu, édité et affiné par des humains. Certains outils d'IA générative pour le code créent automatiquement des tests unitaires pour faciliter cette tâche.

    L'IA générative, le "low-code" et le "no-code" permettent tous de générer du code rapidement. Cependant, les outils "low-code" et "no-code" dépendent de modèles et de bibliothèques de composants préconstruits. Ces outils permettent aux personnes n'ayant pas de compétences en matière de codage d'utiliser des interfaces visuelles et des commandes intuitives telles que le glisser-déposer pour créer et modifier des applications rapidement et efficacement, tandis que le code proprement dit reste caché en arrière-plan. Les logiciels d'IA générative pour le code, quant à eux, n'utilisent pas de modèles ni de bibliothèques de composants. Le logiciel lit les invites en langage clair d'un développeur et suggère des extraits de code à partir de zéro qui produiront les résultats souhaités. Alors que les outils "low-code" et "no-code" s'adressent généralement aux non-développeurs et aux utilisateurs professionnels, les développeurs professionnels et les autres utilisateurs peuvent utiliser les logiciels d'IA pour la génération de code.

    Exemples d'outils d'IA de génération de code actuellement disponibles

    IBM watsonx Code Assistant : IBM watsonx Code Assistant aide les développeurs à écrire du code en utilisant des recommandations générées par l'IA, quel que soit leur niveau d'expérience. Les développeurs peuvent formuler des demandes en langage clair ou utiliser le code source existant pour générer du code pour des cas d'utilisation ciblés. Dès le départ, watsonx Code Assistant fournit des modèles pré-entraînés basés sur des langages de programmation spécifiques afin de garantir la confiance et l'efficacité pour une génération de code précise.

    Github Copilot : Github Copilot est un modèle d'IA pré-entraîné et un outil de complétion de code qui écrit du code dans de nombreux langages, notamment JavaScript, Go, Perl, PHP, Ruby, Swift et TypeScript, et fonctionne avec HTML et CSS. Il utilise l'apprentissage automatique pour suggérer du code en fonction du contexte, peut analyser votre code à la recherche de vulnérabilités et est disponible en tant qu'extension pour les environnements de développement intégrés (IDE) tels que Visual Studio Code, Visual Studio, Neovim et JetBrains. GitHub Copilot utilise du code disponible publiquement à partir des dépôts GitHub et est alimenté par OpenAI Codex, basé sur GPT-3.

    TabNine : TabNine est un assistant de code IA qui apprend de la base de code sur laquelle on travaille et fournit en temps réel la complétion de code, le chat et la génération de code. Il comprend le formatage du code, la détection du langage et la documentation. TabNine prend en charge Java, Python, JavaScript, SQL et d'autres langages courants, et s'intègre dans des éditeurs de code tels que VSCode, IntelliJ et PyCharm.

    Parmi les outils de codage d'IA générative, on trouve Ask Codi, CodeT5, WPCode, Codeium, CodePal, mutable.ai et Codegen. Codegen, en particulier, est un outil d'intelligence artificielle qui facilite la traduction des conceptions en code pour les développeurs. Cependant, 62 % du code produit présente des erreurs potentielles au niveau des API, susceptibles d'entraîner des impacts imprévus s'ils sont intégrés dans un logiciel en production. Cette réalité soulève des inquiétudes quant à l'augmentation du volume de code livré, augmentant ainsi le risque de failles et de vulnérabilités, selon les arguments avancés par Harness.

    Défis de sécurité et de gestion dans la génération de code par l'IA

    L'augmentation du volume de code généré par les outils d'intelligence artificielle pose un défi majeur en termes de sécurité et de gestion des vulnérabilités. Bien que l'automatisation et la génération de code puissent considérablement accélérer le processus de développement, elles introduisent également de nouveaux risques. Si les tests et les mesures de sécurité ne sont pas rigoureusement appliqués à chaque étape du cycle de vie du développement logiciel, il devient presque inévitable que des failles passent inaperçues et soient déployées en production.

    La rapidité avec laquelle le code est produit grâce à l'IA peut surpasser la capacité des développeurs à effectuer des tests approfondis et à assurer la sécurité de chaque ligne de code. Sans une infrastructure solide pour la détection et la correction des failles, les erreurs et les vulnérabilités peuvent s'accumuler, augmentant le risque d'exploits et de temps d'arrêt coûteux. La complexité accrue et la vitesse du développement exigent des outils de tests automatisés et des processus de sécurité intégrés pour compenser les limitations humaines.

    Cette dépendance accrue aux outils d'IA pour la génération de code peut entraîner une réduction de la vigilance humaine, où les développeurs pourraient faire excessivement confiance aux suggestions de l'IA sans une vérification rigoureuse. Cette approche peut devenir dangereuse, car même les systèmes d'IA avancés peuvent générer du code défectueux ou vulnérable. Une approche équilibrée, combinant l'efficacité de l'IA avec une supervision humaine minutieuse, est essentielle pour garantir la qualité et la sécurité du code.


    Les suggestions de code générées automatiquement peuvent accroître la productivité des développeurs et optimiser leur flux de travail en fournissant des réponses directes, en gérant les tâches de codage de routine, en réduisant la nécessité de changer de contexte et en conservant l'énergie mentale. Elles peuvent également aider à identifier les erreurs de codage et les failles de sécurité potentielles.

    Martin Reynolds, directeur technique chez Harness, explique que l'IA générative a révolutionné le travail des développeurs en permettant de réaliser des projets qui auraient pris huit semaines en seulement quatre semaines. Cependant, avec l'augmentation du volume de code livré, le potentiel d'erreurs et de vulnérabilités croît également si les développeurs ne procèdent pas à des tests rigoureux. Bien que l'IA ne crée pas de nouvelles failles de sécurité, elle accroît la quantité de code traversant des failles existantes, augmentant ainsi le risque de vulnérabilités et de bugs, à moins que des efforts supplémentaires ne soient déployés pour tester et sécuriser le code.

    Harness préconise une réponse basée sur davantage d'IA, utilisée pour analyser automatiquement les modifications de code, tester les failles et les vulnérabilités, évaluer l'impact des risques, et garantir la possibilité d'annuler instantanément les problèmes de déploiement. Il est crucial de maintenir des standards élevés de tests et de sécurité pour gérer les risques associés à l'augmentation du volume de code. Les organisations doivent investir dans des outils de tests automatisés, des audits de sécurité réguliers et des formations continues pour les développeurs afin de naviguer efficacement dans ce nouvel environnement technologique. L'équilibre entre l'innovation rapide et la rigueur en matière de sécurité est la clé pour tirer pleinement parti des bénéfices de l'IA sans compromettre la fiabilité et la sécurité des logiciels.

    Source : Harness

    Et vous ?

    Quel est votre avis sur l'utilisation des outils d'IA pour générer du code ?

    Comment les développeurs peuvent-ils s'adapter efficacement à l'augmentation du volume de code généré par l'IA sans compromettre la qualité et la sécurité des logiciels ?

    Voir aussi :

    Génération de code à l'aide de grands modèles de langage : 62 % du code généré contient des erreurs d'API, qui auraient des conséquences inattendues si le code était introduit dans un logiciel réel

    Codegen, un outil d'IA qui facilite le passage de la conception au code, il peut aussi nuire à la créativité, à la curiosité et à l'apprentissage des développeurs
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  16. #16
    Membre averti
    Homme Profil pro
    amateur
    Inscrit en
    Juillet 2015
    Messages
    91
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Var (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : amateur

    Informations forums :
    Inscription : Juillet 2015
    Messages : 91
    Points : 364
    Points
    364
    Par défaut
    Juste une suggestion...

    Ne serait-il pas plus pertinent de s'appuyer sur l'IA pour tester les codes produits et laisser le codage aux humains?

Discussions similaires

  1. Réponses: 2
    Dernier message: 24/09/2021, 17h47
  2. Il existe une grande lacune dans la chaîne d'approvisionnement des données, selon une enquête d'Immuta
    Par Sandra Coret dans le forum Statistiques, Data Mining et Data Science
    Réponses: 0
    Dernier message: 17/08/2021, 13h34
  3. Réponses: 1
    Dernier message: 15/07/2021, 14h55
  4. Réponses: 146
    Dernier message: 16/10/2020, 13h17
  5. Réponses: 0
    Dernier message: 08/03/2012, 12h26

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo