IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Imposer l'IA aux développeurs serait une mauvaise idée qui semble se concrétiser


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    938
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 938
    Points : 15 562
    Points
    15 562
    Par défaut Imposer l'IA aux développeurs serait une mauvaise idée qui semble se concrétiser
    92 % des développeurs utiliseraient des outils d'intelligence artificielle, selon une enquête de GitHub auprès des développeurs

    Une enquête menée par la plateforme de collaboration entre développeurs GitHub a révélé que 92 % des programmeurs utilisent déjà l'intelligence artificielle. Environ 70 % des personnes interrogées ont déclaré que les outils basés sur l'IA offraient un avantage au travail. Pour son enquête DevEx, GitHub a interrogé 500 entreprises américaines comptant plus de 1 000 employés afin de comprendre l'impact des outils d'IA sur la productivité des développeurs et leur expérience globale.

    "Aujourd'hui, les développeurs ne se contentent pas d'écrire et d'expédier du code - ils doivent naviguer dans un certain nombre d'outils, d'environnements et de technologies, y compris la nouvelle frontière des outils de codage d'intelligence artificielle générative (IA)", a déclaré Inbal Shani, chief product officer, chez GitHub.


    Principaux résultats

    • Presque tous les développeurs ont utilisé des outils de codage de l'IA - 92 % de ceux que nous avons interrogés disent les avoir utilisés au travail ou pendant leur temps libre. Nous nous attendons à ce que ce chiffre augmente dans les mois à venir.
    • 70 % des développeurs pensent que l'utilisation d'outils de codage de l'IA leur offrira un avantage dans leur travail, l'amélioration des compétences étant le principal avantage, suivi par les gains de productivité.
    • Étant donné que l'amélioration des compétences est la principale tâche que les développeurs considèrent comme améliorant leur journée de travail, ce résultat est remarquable car les outils de codage de l'IA peuvent l'intégrer directement dans le flux de travail d'un développeur.

    Les développeurs utilisent déjà des outils de codage de l'IA au travail

    92 % des développeurs américains travaillant dans de grandes entreprises déclarent utiliser un outil de codage de l'IA, que ce soit au travail ou pendant leur temps libre, et 70 % d'entre eux affirment que l'utilisation de ces outils leur apporte des avantages significatifs.

    • L'IA est là pour rester et elle transforme déjà la façon dont les développeurs abordent leur travail quotidien. Il est donc essentiel que les entreprises et les responsables de l'ingénierie adoptent des outils d'IA de qualité professionnelle afin d'éviter que leurs développeurs n'utilisent des applications non approuvées. Les entreprises devraient également établir des normes de gouvernance pour l'utilisation des outils d'IA afin de s'assurer qu'ils sont utilisés de manière éthique et efficace.

    Nom : 11.0@2x.png
Affichages : 20490
Taille : 37,6 Ko

    Presque tous les développeurs (92 %) utilisent des outils de codage de l'IA au travail - et une majorité (67 %) a utilisé ces outils à la fois dans un cadre professionnel et pendant son temps libre. Curieusement, seuls 6 % des développeurs interrogés dans le cadre de notre enquête déclarent n'utiliser ces outils qu'en dehors du travail.

    Les développeurs pensent que les outils de codage basés sur l'IA amélioreront leurs performances

    La plupart des développeurs expérimentant les outils d'IA sur leur lieu de travail, les résultats de notre enquête suggèrent que ce n'est pas seulement un intérêt futile qui pousse les développeurs à utiliser l'IA. Il s'agit plutôt d'une reconnaissance du fait que les outils de codage de l'IA les aideront à atteindre les normes de performance.

    • Dans notre enquête, les développeurs affirment que les outils de codage basés sur l'IA peuvent les aider à respecter les normes de performance existantes en améliorant la qualité du code, en accélérant les résultats et en réduisant le nombre d'incidents au niveau de la production. Ils estiment également que ces paramètres devraient être utilisés pour mesurer leurs performances au-delà de la quantité de code.

    Nom : 12.0@2x.png
Affichages : 2822
Taille : 198,4 Ko

    Environ un tiers des développeurs déclarent que leurs responsables évaluent actuellement leurs performances sur la base du volume de code qu'ils produisent, et un nombre égal d'entre eux prévoient que cette situation perdurera lorsqu'ils commenceront à utiliser des outils de codage basés sur l'IA.

    • Il est à noter que la quantité de code produite par un développeur ne correspond pas nécessairement à sa valeur commerciale.
    • Rester intelligent. Avec l'augmentation des outils d'IA utilisés dans le développement de logiciels - qui contribuent souvent au volume de code - les responsables de l'ingénierie devront se demander si la mesure du volume de code est toujours le meilleur moyen de mesurer la productivité et la production.

    Les développeurs pensent que les outils de codage à base d'IA conduiront à une meilleure collaboration au sein des équipes

    Au-delà de l'amélioration des performances individuelles, plus de 4 développeurs sur 5 interrogés (81 %) affirment que les outils de codage basés sur l'IA contribueront à renforcer la collaboration au sein de leurs équipes et de leurs organisations.

    • En fait, les examens de sécurité, la planification et la programmation en binôme sont les points de collaboration les plus importants et les tâches sur lesquelles les équipes de développement sont censées, et devraient, travailler avec l'aide des outils de codage par l'IA. Cela indique également que les examens du code et de la sécurité resteront importants à mesure que les développeurs utiliseront davantage les outils de codage basés sur l'IA sur leur lieu de travail.

    Nom : 13.0@2x.png
Affichages : 2795
Taille : 93,8 Ko

    Parfois, les développeurs peuvent faire la même chose avec une ligne ou plusieurs lignes de code. Malgré cela, un tiers des développeurs interrogés dans le cadre de notre enquête déclarent que leurs responsables mesurent leurs performances en fonction de la quantité de code qu'ils produisent.

    Les développeurs estiment notamment que les outils de codage de l'IA leur donneront plus de temps pour se concentrer sur la conception de solutions. Cela présente des avantages organisationnels directs et signifie que les développeurs pensent qu'ils passeront plus de temps à concevoir de nouvelles fonctionnalités et de nouveaux produits avec l'IA plutôt qu'à écrire du code standard.

    • Les développeurs utilisent déjà des outils de codage génératif de l'IA pour automatiser certaines parties de leur flux de travail, ce qui leur permet de consacrer plus de temps à des projets plus collaboratifs tels que les examens de sécurité, la planification et la programmation en binôme.

    Nom : 15.0@2x.png
Affichages : 2805
Taille : 72,0 Ko

    Les développeurs pensent que l'IA augmente la productivité et prévient l'épuisement professionnel

    Non seulement les outils de codage de l'IA peuvent contribuer à améliorer la productivité globale, mais ils peuvent également offrir des opportunités de perfectionnement pour aider à créer une main-d'œuvre plus intelligente, selon les développeurs que nous avons interrogés.

    • 57 % des développeurs pensent que les outils de codage basés sur l'IA les aident à améliorer leurs compétences en matière de langage de codage, ce qui est le principal avantage qu'ils en retirent. Au-delà de la perspective d'agir comme une aide à l'amélioration des compétences, les développeurs affirment également que les outils de codage par l'IA peuvent également contribuer à réduire l'effort cognitif, et comme la capacité mentale et le temps sont tous deux des ressources limitées, 41 % des développeurs pensent que les outils de codage par l'IA peuvent contribuer à prévenir l'épuisement professionnel.
    • Lors d'une étude précédente, 87 % des développeurs ont déclaré que l'outil de codage par IA GitHub Copilot les aidait à préserver leur effort mental tout en accomplissant des tâches plus répétitives. Cela montre que les outils de codage à base d'IA permettent aux développeurs de préserver leur effort cognitif et de se concentrer sur des aspects plus stimulants et innovants du développement de logiciels ou de la recherche et du développement.
    • Les outils de codage à base d'IA aident les développeurs à se perfectionner tout en travaillant. Dans l'ensemble de notre enquête, les développeurs placent systématiquement l'acquisition de nouvelles compétences au premier rang des facteurs contribuant à une journée de travail positive. Mais 30 % d'entre eux déclarent également que l'apprentissage et le développement peuvent avoir un impact négatif sur leur journée de travail globale, ce qui suggère que certains développeurs considèrent que l'apprentissage et le développement ajoutent du travail à leur journée de travail. Notamment, les développeurs déclarent que le principal avantage des outils de codage par l'IA est l'acquisition de nouvelles compétences - et ces outils peuvent aider les développeurs à apprendre tout en travaillant, au lieu de faire de l'apprentissage et du développement une tâche supplémentaire.

    Les développeurs utilisent déjà des outils de codage d'IA générative pour automatiser certaines parties de leur flux de travail, ce qui libère du temps pour des projets plus collaboratifs tels que les examens de sécurité, la planification et la programmation en binôme.

    L'IA améliore l'expérience des développeurs dans tous les domaines

    Les développeurs interrogés dans le cadre de notre enquête indiquent qu'ils peuvent mieux respecter les normes relatives à la qualité du code, au temps de réalisation et au nombre d'incidents lorsqu'ils utilisent des outils de codage IA - autant de mesures que les développeurs considèrent comme des domaines clés pour l'évaluation de leurs performances.

    Les outils de codage par l'IA peuvent également contribuer à réduire la probabilité d'erreurs de codage et à améliorer la précision du code, ce qui conduit en fin de compte à des logiciels plus fiables, à des performances accrues des applications et à de meilleurs chiffres de performance pour les développeurs. À mesure que la technologie de l'IA continue de progresser, il est probable que ces outils de codage auront un impact encore plus important sur les performances et le perfectionnement des développeurs.

    Les développeurs pensent que les outils de codage de l'IA les aideront à se perfectionner tout en travaillant

    57 % des développeurs interrogés déclarent que l'utilisation d'outils de codage de l'IA les aide à développer leurs compétences en langage de codage, ce qu'ils considèrent comme le principal avantage de l'utilisation de ces applications (le deuxième avantage étant une plus grande productivité). Cela suggère que les développeurs considèrent l'utilisation d'outils de codage par IA comme un moyen de se perfectionner tout en travaillant, au lieu d'ajouter une autre tâche à leur journée de travail pour l'apprentissage et le développement.

    Les outils de codage par l'IA s'intègrent dans les flux de travail existants des développeurs et génèrent une plus grande efficacité

    Les développeurs pensent que les outils de codage par l'IA augmenteront leur productivité, mais notre enquête suggère que les développeurs ne pensent pas que ces outils modifient fondamentalement le cycle de vie du développement logiciel. Au contraire, les développeurs pensent qu'ils apportent une plus grande efficacité à ce cycle.

    • L'utilisation de l'automatisation et de l'IA fait partie du flux de travail des développeurs depuis longtemps, ces derniers utilisant déjà une gamme d'outils automatisés et alimentés par l'IA, tels que les contrôles de sécurité basés sur l'apprentissage automatique et les pipelines CI/CD.
    • Plutôt que de refondre complètement les opérations, ces outils créent une plus grande efficacité dans les flux de travail existants, ce qui libère plus de temps pour que les développeurs se concentrent sur l'élaboration de solutions.

    Le bilan

    Presque tous les développeurs (92 %) utilisent le codage de l'IA au travail - et ils affirment que ces outils ne se contentent pas d'améliorer les tâches quotidiennes, mais qu'ils offrent également des possibilités d'amélioration des compétences. Les développeurs voient des avantages matériels à l'utilisation d'outils d'IA, notamment l'amélioration des performances et des compétences de codage, ainsi qu'une meilleure collaboration au sein de l'équipe.
    Source : Enquête de GitHub

    Et vous ?

    Quel est votre avis sur le sujet ?

    Que pensez-vous des résultats de cette enquête de GitHub ? Trouvez-vous qu'ils sont crédibles ou pertinents ?

    Pensez-vous que ces résultats obtenus sur une base USA on un sens pour l'ensemble des développeurs ?

    Utilisez-vous des outils de codage à base d'IA au sein de votre entreprise ? Si oui, comment évaluez-vous l'utilisation de ces outils ?

    Voir aussi

    Le Codage assisté par l'IA gratuit avec Colab : Google introduira bientôt des fonctions de codage de l'IA utilisant la famille de modèles de code la plus avancée de Google, Codey

    L'IA Codex d'OpenAI fait ses débuts en programmation et peut déjà coder dans une dizaine de langages, l'IA pourra-t-elle bientôt décharger les développeurs de certaines tâches, voire les remplacer ?

    Meta annonce la création d'un nouvel outil d'IA générative "révolutionnaire" à des fins de codage, baptisé CodeCompose, dont le fonctionnement est assez similaire à celui du Copilot de GitHub

    Les assistants de programmation basés sur l'IA incitent à repenser l'enseignement de l'informatique, selon des chercheurs
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre du Club
    Homme Profil pro
    Inscrit en
    Février 2008
    Messages
    18
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Février 2008
    Messages : 18
    Points : 50
    Points
    50
    Par défaut
    Absolument aucun conflit d'intérêt à déclarer entre la légitimité de cette enquête de GitHub et leur produit Copilot

  3. #3
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    1 791
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 1 791
    Points : 5 758
    Points
    5 758
    Par défaut
    Comme c'est la mode de voir de l'intelligence artificielle partout dès qu'il y a un électron qui se promène quelque part et dans le 100% des applications informatiques, il y a donc pas 92 mais bien 100% des développeurs qui utilisent l'IA!!!!!!!!!!!!!!

    Perso, cela me fait marrer! L'IA émerge dans le domaine public et 6 mois plus tard la totalité du monde techno dit faire appel à l'IA... Quelle réactivité! Dans notre société on est encore plus fort, la totalité de nos logiciels font appel à l'IA, y compris les logiciels que l'on a développé il y a plus de 25 ans et dont on n'a pas modifié un point-virgule du code CQFD...

    Allez, je vous laisse, je vais au petit coin, j'y allume la lumière à l'aide d'un interrupteur réglé par IA pour libéré la fée électricité afin qu'elle émerge du réseau géré par l'IA, quand l'ampoule s'est allumé grâce à l'IA, je pose mon petit "popo" (sans IA pour le moment en attendant l'implémentation de la puce Musk dans le cerveau), j'utilise du papier hygiénique bien évidemment produit dans une usine IA, transportée sur une palette IA jusqu'au rayon de mon supermarché chez qui j'ai acheté le papier en question en passant à la caisse IA qui m'indique avec un logiciel IA la somme totale de mes amplettes que je règle bien évidemment avec un moyen de paiement IA (que cela soit un billet de banque imprimé par l'IA ou un moyen de paiement électronique, c'est de l'IA).

    Ceci est bien évidemment un texte produit par IA!!!

  4. #4
    Membre expérimenté Avatar de dfiad77pro
    Homme Profil pro
    Responsable Architecture logicielle
    Inscrit en
    Décembre 2008
    Messages
    541
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Responsable Architecture logicielle
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2008
    Messages : 541
    Points : 1 729
    Points
    1 729
    Par défaut
    le truc du genre 'les devs déclarent que ça les aident à respecter le planning'
    ouais on connais la suite on va tripler la charge...

    je me sert de copilote en tant que compagnon uniquement, mais faut pas ce leurrer, le dev ne sera pas mieu traité...


    et pour moi ce genre d'outils est plus efficace coté dev expérimenté , car actuellement si on suis les suggestions sans réfléchir c'est catastrophique

  5. #5
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 565
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 565
    Points : 7 293
    Points
    7 293
    Par défaut
    Citation Envoyé par Anthony Voir le message
    Que pensez-vous des résultats de cette enquête de GitHub ? Trouvez-vous qu'ils sont crédibles ou pertinents ?
    Pas crédible du tout, mais bon, ils font de la com pour vendre leur produit, et pour faire oublier le procès sur le copyright de certains bouts de code fournis par Copilot, ou demander du soutient: "Oulala! 92% des développeurs utilisent ce genre d'outils! Imaginez la catastrophe si vous nous mettiez des bâtons dans les roues!"

    Citation Envoyé par Anthony Voir le message
    Utilisez-vous des outils de codage à base d'IA au sein de votre entreprise ?
    Non. Aucun intérêt.
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  6. #6
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    944
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 944
    Points : 66 353
    Points
    66 353
    Par défaut Génération de code à l'aide de grands modèles de langage : 62 % du code généré contient des erreurs d'API
    Génération de code à l'aide de grands modèles de langage : 62 % du code généré contient des erreurs d'API, qui auraient des conséquences inattendues si le code était introduit dans un logiciel réel.

    Récemment, les grands modèles de langage (LLM) ont montré une capacité extraordinaire à comprendre le langage naturel et à générer du code de programmation. Les ingénieurs logiciels ont l'habitude de consulter les LLM lorsqu'ils sont confrontés à des questions de codage. Bien que des efforts aient été faits pour éviter les erreurs de syntaxe et aligner le code sur la sémantique prévue, la fiabilité et la robustesse de la génération de code à partir des LLM n'ont pas encore fait l'objet d'une étude approfondie.

    La mauvaise utilisation des API dans le code généré pourrait conduire à des problèmes graves, tels que les fuites de ressources, les plantages de programme. Les utilisateurs des services de génération de code LLM sont en fait les développeurs qui sont les plus vulnérables à ce code qui semble correct. Ce sont toujours des développeurs novices qui ne sont pas familiers avec les API que les LLM génèrent du code pour eux. Par conséquent, ils peuvent difficilement détecter les abus dans le code généré par les LLM, ce qui facilite davantage l'application de codes incorrects dans les logiciels du monde réel. Les repères et les ensembles de données d'évaluation de code existants se concentrent sur l'élaboration de petites tâches telles que les questions de programmation dans les entretiens de codage, ce qui s'écarte toutefois du problème des développeurs qui demanderaient au LLM une aide au codage dans le monde réel.


    Pour combler cette lacune, Li Zhong et Zilong Wang proposent dans leur travail un ensemble de données RobustAPI pour évaluer la fiabilité et la robustesse du code généré par les LLM. Ils ont recueilli 1208 questions de codage de StackOverflow sur 24 API Java représentatives. Ils ont résumé les schémas d'utilisation abusive courants de ces API et les évaluons sur des LLM courants et populaires. Les résultats de l'évaluation montrent que même pour GPT-4, 62% du code généré contient des abus d'API, ce qui entraînerait des conséquences inattendues si le code était introduit dans un logiciel réel.

    Vous pourrez trouver les détails de leur étude dans le lien source.

    Source : "A Study on Robustness and Reliability of Large Language Model Code Generation"

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    GPT-4 est capable d'améliorer ses performances de 30 % en utilisant un processus d'auto-réflexion, consistant à demander au modèle d'apprendre de ses erreurs pour pouvoir ensuite s'auto-corriger

    GPT Pilot pourrait coder l'ensemble d'une application pendant que vous supervisez l'écriture du code, d'après son créateur

    92 % des développeurs utiliseraient des outils d'intelligence artificielle selon une enquête de GitHub auprès des développeurs
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #7
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    938
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 938
    Points : 15 562
    Points
    15 562
    Par défaut Les développeurs et les responsables de la sécurité des applications se tournent vers l'IA générative
    Les développeurs et les responsables de la sécurité des applications se tournent vers l'IA générative, malgré les risques de sécurité identifiés, selon une étude de Sonatype

    Selon 800 développeurs (DevOps) et responsables de la sécurité des applications (SecOps) interrogés, 97 % d'entre eux utilisent aujourd'hui la technologie GenAI, 74 % d'entre eux déclarant qu'ils se sentent contraints de l'utiliser malgré les risques de sécurité identifiés.

    L'étude de la société de gestion de la chaîne d'approvisionnement logicielle Sonatype montre que 45 % des responsables SecOps ont déjà mis en œuvre l'IA générative dans le processus de développement logiciel, contre seulement 31 % pour les DevOps.

    Cela peut s'expliquer par le fait que les responsables SecOps constatent des gains de temps plus importants que leurs homologues DevOps, 57 % d'entre eux déclarant que l'IA générative leur permet d'économiser au moins six heures par semaine, contre seulement 31 % des répondants DevOps.

    Interrogés sur les impacts les plus positifs de cette technologie, les responsables DevOps font état d'un développement logiciel plus rapide (16 %) et d'un logiciel plus sûr (15 %). Les responsables SecOps citent l'augmentation de la productivité (21 %) et l'identification/résolution plus rapide des problèmes (16 %) comme leurs principaux avantages.


    En revanche, plus des trois quarts des responsables DevOps estiment que l'utilisation de l'IA générative entraînera une augmentation des vulnérabilités dans le code source ouvert. Il est peut-être surprenant de constater que les responsables SecOps sont moins inquiets (58 %). Par ailleurs, 42 % des répondants DevOps et 40 % des responsables SecOps affirment que l'absence de réglementation pourrait dissuader les développeurs de contribuer à des projets open source.

    Les responsables des deux domaines souhaitent davantage de réglementation. À la question de savoir qui, selon eux, est responsable de la réglementation de l'utilisation de l'IA générative, 59 % des responsables DevOps et 78 % des responsables SecOps déclarent que le gouvernement et les entreprises individuelles devraient être responsables de la réglementation.

    "L'ère de l'IA ressemble aux premiers jours de l'open source, comme si nous construisions l'avion au fur et à mesure que nous le pilotons en termes de sécurité, de politique et de réglementation", déclare Brian Fox, cofondateur et directeur technique de Sonatype. "L'adoption a été généralisée, et le cycle de développement des logiciels ne fait pas exception. Si les dividendes de la productivité sont évidents, nos données révèlent également une réalité préoccupante et indissociable : les menaces de sécurité posées par cette technologie encore naissante. Chaque cycle d'innovation s'accompagne de nouveaux risques, et il est primordial que les développeurs et les responsables de la sécurité des applications envisagent l'adoption de l'IA en tenant compte de la sûreté et de la sécurité."

    Nom : devops & secops ia.png
Affichages : 1077
Taille : 58,3 Ko

    La question des licences et de la rémunération des contenus générés par l'IA est également préoccupante. Notamment, les décisions contre la protection du droit d'auteur pour les œuvres d'art générées par l'IA ont déjà suscité un débat sur la quantité d'apport humain nécessaire pour répondre à ce que la loi actuelle définit comme une véritable paternité de l'œuvre. Les personnes interrogées sont d'accord pour dire que les créateurs devraient détenir les droits d'auteur sur les résultats générés par l'IA en l'absence de loi sur les droits d'auteur (40 %), et les deux groupes sont massivement d'accord pour dire que les développeurs devraient être indemnisés pour le code qu'ils ont écrit s'il est utilisé dans des artefacts open source dans les LLM.

    Source : Sonatype

    Et vous ?

    Quelle lecture faites-vous de cette situation ?

    Trouvez-vous que les conclusions de cette étude de Sonatype sont crédibles et pertinentes ?

    Qu'en est-il au sein de votre organisation ?

    Voir aussi

    92 % des développeurs utiliseraient des outils d'intelligence artificielle, selon une enquête de GitHub auprès des développeurs

    L'intelligence artificielle générative boosterait la productivité des travailleurs de 14 %, selon une étude menée par l'Université de Stanford

    34 % des développeurs d'applications utiliseraient désormais l'IA, d'après Sensor Tower

    L'IA va-t-elle éliminer des emplois, en particulier pour les développeurs ? Non, selon une enquête qui estime que l'intelligence artificielle pourrait créer plus d'emplois qu'elle n'en supprime
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  8. #8
    Membre chevronné Avatar de Mister Nono
    Homme Profil pro
    Ingénieur Mathématiques et Informatique
    Inscrit en
    Septembre 2002
    Messages
    2 232
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Ingénieur Mathématiques et Informatique
    Secteur : Santé

    Informations forums :
    Inscription : Septembre 2002
    Messages : 2 232
    Points : 1 897
    Points
    1 897
    Par défaut
    Et bien oui, on dit tous ceux qui veulent l'entendre que l'IA est le passage obligé, alors tout le monde s'y engouffre : même pour vendre un article à 0,01€.


    • L'investissement : sans limite pour certains
    • L'éthique : exit pour d'autres
    • L'écologie : à quoi cela sert pour la plupart
    • La vie privée : cela existe-t-il encore ? (1984 - Orson Well)
    • Le profit : oui pour presque tous


    A quand la fin de cette " boulimie " sans mesure des conséquences, tant humaines qu'humanitaire ?

    Comme il était beau le temps où l'informatique n'existait pas... On pouvait rêver, avoir des projets d'avenir, connaitre des liens sociaux forts, être en phase avec la nature, dormir du sommeil du juste, être bien dans sa peau, connaitre le bonheur et l'amour vrai...
    La connaissance ne sert que si elle est partagée.
    http://ms2i.net

  9. #9
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 857
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 857
    Points : 36 480
    Points
    36 480
    Par défaut Codegen, un outil d’IA qui facilite le passage de la conception au code, il peut aussi nuire à la créativité
    Codegen, un outil d’IA qui facilite le passage de la conception au code, il peut aussi nuire à la créativité,
    à la curiosité et à l’apprentissage des développeurs

    Codegen est un outil d’intelligence artificielle (IA) qui aide les développeurs à traduire plus facilement les conceptions en code. Il fonctionne en analysant les éléments visuels d’une conception et en suggérant des noms de composants et des valeurs de propriétés qui correspondent au système de conception utilisé par le développeur. Codegen n’est pas un outil magique qui écrit le code à la place du développeur, mais un outil qui l’accompagne et l’augmente. Il lui permet de gagner du temps et d’éviter des erreurs en lui donnant un point de départ pour le code. Les développeurs doivent donc utiliser codegen avec prudence, discernement et éthique, et ne pas oublier que le code est avant tout une expression de leur pensée et de leur créativité.

    Toutefois, le développeur doit donc toujours vérifier, modifier et optimiser le code suggéré, ce qui peut demander du temps et de l’énergie. Le code suggéré peut contenir des erreurs, des biais ou des failles. Le développeur doit donc toujours comprendre le code qu’il utilise, et ne pas le copier-coller sans le tester ou le documenter. Sinon, il risque de compromettre la fiabilité, la sécurité et la maintenabilité du code. Cet outil d’IA ne peut pas se substituer au travail du développeur, qui doit toujours faire preuve de jugement, de compétence et de responsabilité.


    Nom : Figma.jpg
Affichages : 8192
Taille : 2,7 Ko

    Codegen ne peut pas s’adapter à tous les cas d’utilisation, car il ne connaît pas les besoins spécifiques et le cadre de chaque projet. Il peut créer une dépendance ou une paresse chez les développeurs, qui pourraient se reposer entièrement sur l’IA pour écrire le code. Cela pourrait réduire la créativité, la curiosité et l’apprentissage des développeurs, qui ne chercheraient plus à améliorer ou à innover leur code. Cela pourrait également poser des problèmes d’éthique ou de sécurité, si le code suggéré contient des données sensibles ou personnelles, ou si le code suggéré est utilisé à des fins malveillantes ou illégales.

    Seuls 3 % de développeurs déclarent avoir une grande confiance dans la précision des outils d’IA pour le développement. « Ce scepticisme n'est pas surprenant. Lorsque nous avons commencé à travailler sur Dev Mode, un espace pour les développeurs dans Figma, nous l'avons imaginé comme un moyen d'automatiser le passage de la conception au code. Les premières versions étaient prometteuses, mais au fur et à mesure de l'itération de notre approche, nous avons constaté que les développeurs ne trouvaient pas toujours le code utile », déclare Figma.

    Cependant, codegen offre le plus d'avantages lorsqu’il est appliqué d'une manière spécifique, pour une équipe, une entreprise et votre flux de travail. Par exemple, si votre système de conception et votre bibliothèque de composants sont déjà dans Figma, vous n'avez pas besoin d'une application automatisée de conception à codage. Dans ce cas, il est préférable de se référer aux jetons, de consulter la documentation ou de créer un plugin codegen pour générer des extraits personnalisés.

    Selon Figma, en appliquant ces conseils, il est possible de traiter et de comprendre ce que vous regardez plus rapidement, lorsque vous commencerez à écrire le code vous-même. « Codegen vous aidera à passer d'un écran vide à un point de départ - peut-être pas de 0 à 1, mais de 0 à 0,5 - beaucoup plus rapidement. » Codegen peut également aider à interpréter les exigences de conception comme les valeurs de style brutes - telles que les codes hexadécimaux et les pixels - pour construire un élément d'interface utilisateur ou découvrir un nom de jeton ou une valeur de propriété de composant lorsque vous mettez en œuvre un système de conception.

    Le code d'implémentation d'une instance d'un composant est très différent du code définissant le style et les propriétés d'un composant. Si vous développez la bibliothèque de composants de votre équipe, vous écrirez le code du composant pour le style visuel sous-jacent ainsi que les définitions des variantes et des propriétés. Si vous mettez en œuvre une bibliothèque de composants, le code que vous écrivez est souvent un code d'instance de composant ainsi que le style de présentation qui l'entoure.

    L’équipe Figma explique que Codegen analyse les éléments visuels d’une conception et recommande des noms de composants et des valeurs de propriétés qui correspondent au système de conception utilisé par le développeur.

    Ainsi, Codegen permet au développeur de gagner du temps et d’éviter des erreurs en lui donnant un point de départ pour le code. L’équipe suggère également de créer un plugin Codegen personnalisé, qui pourrait s’adapter aux besoins et aux cadres spécifiques de chaque projet. Toutefois, l’entreprise reconnaît que cela prend du temps et des ressources, et qu’il est plus simple d’établir une bonne base en s’assurant que les conceptions de l’équipe correspondent à des modèles dans le code.

    À l’exemple des composants et des variables de Figma, qui rendent les systèmes de conception faciles à mettre en œuvre et à maintenir, car ils encapsulent les modèles dans des jetons et des propriétés. L’équipe Figma souligne ensuite les limites de Codegen, qui ne peut pas se substituer au travail du développeur, ni remplacer les modèles de l’équipe. Il rappelle que le développeur doit toujours vérifier, modifier et optimiser le code suggéré, ce qui peut demander du temps et de l’énergie.

    Codegen ne remplacera pas les modèles de votre équipe

    Les besoins de votre équipe en matière de conception et de développement sont uniques. Des facteurs tels que la taille de l'entreprise, les exigences de sécurité et les contraintes techniques contribuent tous à une situation spécifique. Afin de répondre et de s'adapter à ces besoins, une équipe a certainement pris des décisions sur le style ou les Framework de composants pour la bibliothèque d'interface utilisateur, le schéma de des jetons de conception, la façon dont les fichiers sont organisés et nommés, ou même les conventions préférées autour de la syntaxe et du formatage du code.

    Avec tout ce contexte spécifique à l'organisation, il n’est simplement pas possible de coller le code généré automatiquement directement dans une base de code sans le modifier davantage. Bien qu’il est possible de trouver des moyens d'utiliser l'apprentissage automatique pour se faire aider, en raison des limites des outils existants, la création de la base de code d’une équipe est une activité pratique, et les modèles de l'équipe sont là pour faciliter le processus.

    Le code généré peut être un point de départ très utile. Mais même dans ce cas, les bouts de code doivent encore être modifiés pour y intégrer d'autres propriétés, ajouter du formatage, des styles supplémentaires et bien d'autres choses encore. Une fois que le code est dans cet état, les modifications ultérieures du fichier Figma ne peuvent pas toujours être « collées » en utilisant codegen de la même manière ; cela reviendrait à écraser le travail déjà édité. Tout outil finit par se heurter à ses limites.

    Récemment, les grands modèles de langage (LLM) ont montré une capacité extraordinaire à comprendre le langage naturel et à générer du code de programmation. Les ingénieurs logiciels ont l'habitude de consulter les LLM lorsqu'ils sont confrontés à des questions de codage. Bien que des efforts aient été faits pour éviter les erreurs de syntaxe et aligner le code sur la sémantique prévue, la fiabilité et la robustesse de la génération de code à partir des LLM n'ont pas encore fait l'objet d'une étude approfondie.

    Pour combler cette lacune, Li Zhong et Zilong Wang proposent dans leur travail un ensemble de données RobustAPI pour évaluer la fiabilité et la robustesse du code généré par les LLM. Ils ont recueilli 1208 questions de codage de StackOverflow sur 24 API Java représentatives. Ils ont résumé les schémas d'utilisation abusive courants de ces API et les évaluons sur des LLM courants et populaires. Les résultats de l'évaluation montrent que même pour GPT-4, 62% du code généré contient des abus d'API, ce qui entraînerait des conséquences inattendues si le code était introduit dans un logiciel réel.

    Inconvénients des outils d’IA de génération de code comme codegen

    Les outils d’IA de génération de code comme codegen sont présentés comme des innovations qui facilitent le travail des développeurs, mais ils ne sont pas sans risques ni limites. En effet, ces outils présentent plusieurs inconvénients qui peuvent nuire à la qualité, à la sécurité et à l’éthique du code produit.

    Tout d’abord, ces outils ne peuvent pas générer un code parfait pour tous les cas d’utilisation, car ils doivent tenir compte des besoins spécifiques et du cadre de chaque projet. Par exemple, le code généré pour une application web peut ne pas être adapté pour une application mobile, ou le code généré pour un système de conception peut ne pas respecter les normes de performance ou d’accessibilité. Le développeur doit donc toujours vérifier, modifier et optimiser le code généré, ce qui peut prendre du temps et de l’énergie.

    Ensuite, ces outils ne peuvent pas remplacer le travail du développeur, qui doit toujours faire preuve de jugement, de compétence et de responsabilité. Le code généré n’est qu’une suggestion, qui peut contenir des erreurs, des biais ou des failles. Le développeur doit donc toujours comprendre le code qu’il utilise, et ne pas se contenter de le copier-coller sans le tester ou le documenter. Sinon, il risque de compromettre la fiabilité, la sécurité et la maintenabilité du code.

    Ces outils peuvent créer une dépendance ou une paresse chez les développeurs, qui pourraient se reposer entièrement sur l’IA pour écrire le code. Cela pourrait réduire la créativité, la curiosité et l’apprentissage des développeurs, qui ne chercheraient plus à améliorer ou à innover leur code. Cela pourrait également poser des problèmes d’éthique ou de sécurité, si le code généré contient des données sensibles ou personnelles, ou si le code généré est utilisé à des fins malveillantes ou illégales.

    S'il est vrai que les outils d’IA de génération de code comme codegen sont des outils qui peuvent aider les développeurs à passer de la conception au code plus rapidement, il n'en est pas moins vrai qu'ils ne peuvent pas se substituer à leur intelligence humaine. Les développeurs devraient utiliser ces outils avec prudence, discernement et éthique, et ne pas oublier que le code est avant tout une expression de leur pensée et de leur créativité.

    Source : Figma

    Et vous ?

    Quels sont selon vous, les critères de qualité et de fiabilité du code généré ?
    Quels sont les risques de sécurité ou de confidentialité liés au code généré ?
    Êtes-vous pour ou contre l'utilisation des codes générés ? Que pensez-vous de Codegen ?
    Quels sont les impacts des codes générés sur la motivation et la satisfaction des développeurs ?
    Comment les codes générés affectent-ils les compétences et les connaissances des développeurs ?
    Quels sont les avantages et les inconvénients des codes générés par rapport aux codes écrits manuellement ?

    Voir aussi :

    Génération de code à l'aide de grands modèles de langage : 62 % du code généré contient des erreurs d'API, qui auraient des conséquences inattendues si le code était introduit dans un logiciel réel

    ChatGPT génère un code informatique peu sûr, mais ne vous le dira pas à moins que vous ne le lui demandiez, les experts mettent en garde contre les risques d'une surconfiance en ChatGPT
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #10
    Membre à l'essai
    Homme Profil pro
    Ingénieur intégration/validation
    Inscrit en
    Septembre 2021
    Messages
    4
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur intégration/validation
    Secteur : Industrie

    Informations forums :
    Inscription : Septembre 2021
    Messages : 4
    Points : 17
    Points
    17
    Par défaut
    Que pensez-vous des résultats de cette enquête de GitHub ? Trouvez-vous qu'ils sont crédibles ou pertinents ?
    ils ne sont pas crédible du tout.

    Pensez-vous que ces résultats obtenus sur une base USA on un sens pour l'ensemble des développeurs ?
    Ils n'ont pas de sens, car ils sont limités à zone géographique particulière et qui n'est pas forcément représentative du reste de la communauté mondiale des dévoloppeurs logiciels.

    Utilisez-vous des outils de codage à base d'IA au sein de votre entreprise ? Si oui, comment évaluez-vous l'utilisation de ces outils ?
    Non, le projet ne le permet pas.


    À titre personnel, non plus. De plus, il m'a été remonté par des collègues qui l'ont essayé en dehors de travail que les solutions proposées étaient bourrées d'erreurs.
    Dans ce cas, je n'en vois pas l'intérêt.

  11. #11
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 857
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 857
    Points : 36 480
    Points
    36 480
    Par défaut 87% des organisations envisagent d'investir dans des outils Gen AI, 71% en cours d'adoption
    87 % des organisations envisagent d'investir dans des outils de codage Gen AI, et 71 % des développeurs sont actuellement à divers stades d'adoption,
    allant des essais au déploiement complet

    Un rapport d'étude publié par LinearB révèle que 87 % des organisations envisagent d'investir dans des outils de codage Gen AI en 2024, et 71 % sont actuellement engagées dans l'adoption de cette technologie, allant des essais au déploiement complet. Basé sur les données recueillies auprès de plus de 150 directeurs techniques et vice-présidents de l'ingénierie, le rapport explore l'impact potentiel du code d'IA générative sur l'ensemble du cycle de livraison du logiciel. L'IA générative devrait être responsable d'environ 20 % du code d'ici à la fin de 2024.

    La plupart des développeurs explorent l'intégration de la GenAI dans leurs processus, avec une majorité ayant déjà investi dans des outils tels que GitHub Copilot, Amazon CodeWhisperer, Codium.ai, Tabnine, etc. Le rapport aborde la question cruciale de mesurer l'impact de cette initiative. LinearB décompose l'évaluation en trois catégories principales : l'adoption, les avantages et les risques. Pour évaluer l'adoption, le suivi du nombre de Pull Requests générées par GenAI est suggéré comme point de départ, tandis que les avantages peuvent être mesurés en évaluant le temps de codage, la fréquence de fusion, les histoires terminées, et la précision de la planification.

    Presque toutes les équipes d'ingénieurs se penchent sur l'intégration de la GenAI dans leurs processus, et un grand nombre d'entre elles ont déjà franchi le pas. Elles ont investi dans des outils tels que GitHub Copilot, Amazon CodeWhisperer, Codium.ai, Tabnine, et d'autres outils similaires pour concrétiser cette initiative. En effet, l'enquête menée par LinearB a révélé qu'un pourcentage significatif, soit 87%, des participants sont susceptibles ou très susceptibles d'investir dans un outil de codage GenAI d'ici 2024.

    Quelle est la probabilité que votre organisation investisse dans un outil de codage de l'IA générative en 2024 ?

    Nom : Teco.jpg
Affichages : 5189
Taille : 10,1 Ko
    Note moyenne 3.8/5


    L'IA générative ou l'intelligence artificielle générative fait référence à l'utilisation de l'IA pour créer de nouveaux contenus, comme du texte, des images, de la musique, de l'audio et des vidéos. L'IA générative s'appuie sur des modèles de base (grands modèles d'IA) qui peuvent effectuer plusieurs opérations en même temps et réaliser des tâches prêtes à l'emploi, telles que la synthèse, les questions/réponses, la classification, etc. De plus, les modèles de base ne nécessitent qu'un entraînement minimal et peuvent être adaptés à des cas d'utilisation ciblés avec très peu d'exemples de données.

    L'IA générative s'appuie sur un modèle de ML pour apprendre les schémas et les relations dans un ensemble de données de contenus créés manuellement. Elle utilise ensuite les schémas appris pour générer de nouveaux contenus. La méthode la plus courante pour entraîner un modèle d'IA générative consiste à utiliser l'apprentissage supervisé. Le modèle se voit attribuer un ensemble de contenus créés manuellement et des étiquettes correspondantes. Il apprend ensuite à générer du contenu semblable au contenu créé par un humain et doté des mêmes étiquettes.

    L'IA générative traite un grand volume de contenus, générant des insights et des réponses sous forme de texte, d'images et de formats conviviaux. Voici des exemple d'utilisations de l'IA générative :

    • Améliorer les interactions client grâce à des fonctionnalités optimisées de chat et de recherche ;
    • Explorer de grandes quantités de données non structurées via des interfaces de conversation et des résumés ;
    • Faciliter les tâches répétitives en répondant aux appels d'offres, en localisant le contenu marketing dans cinq langues et en vérifiant la conformité des contrats client, etc.

    Le rapport de LinearB souligne également les risques associés à l'adoption de la GenAI, tels que la taille des Pull Requests, le taux de reprise, la profondeur de révision, et d'autres indicateurs. Il met en lumière l'importance d'évaluer comment les processus des équipes sont impactés pour prévenir les risques avant qu'ils n'affectent la livraison.

    En parallèle à l'adoption et aux avantages de la GenAI, il existe des risques significatifs à prendre en considération. Outre les préoccupations liées à la sécurité, à la conformité et à la propriété intellectuelle, l'adoption de la GenAI pour le codage annonce un changement fondamental dans la « forme » de la base de code et dans la manière dont elle est mise à jour.

    Nom : Risk.jpg
Affichages : 824
Taille : 7,7 Ko

    Le rapport propose également une approche pratique pour mesurer l'adoption, les avantages, et les risques du code GenAI en utilisant des métriques spécifiques telles que les demandes d'extraction ouvertes, les demandes de retrait fusionnées, la fréquence de fusion, le temps de codage, les histoires terminées, la précision de la planification, la taille des Pull Requests, le taux de reprise, la profondeur de révision, et d'autres.

    De nombreux responsables de l'ingénierie sont chargés de superviser des dizaines, voire des centaines de développeurs, ce qui rend pratiquement impossible le contrôle manuel de l'utilisation d'un nouvel outil, en particulier un outil aussi complet que la GenAI.

    Selon LinearB, une fois que vous avez entamé l'utilisation d'un produit tel que Copilot, ou même si vous envisagez encore de le déployer, trois questions principales doivent être abordées :

    • Quels sont les cas d'utilisation que nous résolvons avec la GenAI ?
    • Quelles parties de ma base de code sont écrites par une machine ? Le nouveau code ? Les tests ?
    • Mon équipe utilise-t-elle effectivement cet outil ? Si oui, dans quelle mesure ? Et comment évolue notre utilisation au fil du temps ?

    À titre de référence, le suivi du nombre de Pull Requests (PR) ouvertes dont le code est généré par la GenAI constitue un bon point de départ pour évaluer l'adoption de cette technologie.

    Risques et stratégies pour utiliser l'IA générative dans le développement de logiciels

    En parallèle de l'adoption et des avantages liés à la GenAI, il existe des risques significatifs à prendre en compte. Outre les préoccupations relatives à la sécurité, à la conformité et à la propriété intellectuelle, l'adoption de la GenAI pour le codage annonce un changement fondamental dans la "forme" et la manière dont la base de code est mise à jour. Bien que la GenAI permette une création de code beaucoup plus rapide, il est crucial de déterminer si les pipelines de révision et de livraison sont prêts à gérer cette évolution. Il est essentiel d'évaluer l'impact de ces changements sur les processus des équipes afin de prévenir les risques avant qu'ils n'affectent la livraison.

    Dans de nombreux cas, le code généré peut s'avérer plus difficile à réviser. L'auteur des Pull Requests (PR) trouve souvent plus ardu de raisonner à son sujet et de le défendre, étant donné qu'il n'a pas réellement rédigé le code. Pour garantir une inspection adéquate des PR générées par la GenAI, utilisez la profondeur de révision et le suivi des PR fusionnés. Les mesures telles que le temps d'approbation et le temps de révision sont également utiles pour identifier les éventuels goulots d'étranglement dans le processus de développement.

    Enfin, le recours au taux de reprise peut aider à comprendre s'il existe un besoin de réécriture fréquente du code, tandis que le suivi des bogues échappés permet de surveiller l'évolution des tendances générales en matière de qualité.

    Comme certains développeurs l'ont découvert l’année dernière, il n'est pas toujours simple ou sûr de faire appel à l'IA générative pour gérer un peu de codage, mais il existe des moyens pour les équipes de développement de la faire travailler avec plus de confiance. En avril dernier, des employés de Samsung ont introduit une partie du code propriétaire de l'entreprise dans ChatGPT, réalisant par la suite que l'IA générative conservait ce qu'on lui donnait à lire pour s'entraîner. Cela a provoqué un tollé, avec des craintes d'exposition, bien que cela ait sensibilisé d'autres entreprises aux risques qui peuvent survenir lors de l'utilisation de l'IA générative dans le développement et le codage.

    L'idée est assez simple : laisser l'IA créer du code pendant que les développeurs se concentrent sur d'autres tâches qui requièrent leur attention. L'astrophysicien Neil deGrasse Tyson a évoqué en juin certains des avantages de l'utilisation de l'IA pour traiter des données sur le cosmos et lui permettre de se consacrer à d'autres tâches. Il semble qu'une stratégie bien pensée puisse permettre à l'IA générative de jouer un rôle productif dans le développement de logiciels, à condition que des garde-fous soient mis en place.

    Josh Miramant, PDG de la société de données et d'analyse Blue Orange Digital, estime que l'utilisation de l'IA par les développeurs est de plus en plus inévitable. « Nous nous trouvons à un carrefour intéressant pour ce qui est de l'avenir des LLM (grands modèles de langage) et de l'IA générative en vue d'une adoption massive. » Selon Miramant, les entreprises peuvent mettre l'IA au service du développement de logiciels à condition de respecter certaines lignes directrices. « L'un des types de transition qui se produira est que ces entreprises commenceront à utiliser des modèles en libre accès qu'elles formeront et utiliseront en interne avec un accès beaucoup plus restrictif, explique-t-il. Les murs doivent être très hauts pour qu'une entreprise se lance dans la formation sur des données d'entreprise très exclusives. »

    « En tant que vice-président de la R&D chez SOLIDUS Labs, le suivi des indicateurs de performance en ingénierie m'a permis d'engager des discussions éclairées tant avec mes collaborateurs directs qu'avec le PDG. Cela me permet de repérer rapidement les points de blocage, d'évaluer l'efficacité de l'équipe et l'expérience des développeurs, puis d'apporter des améliorations ciblées en fonction des données recueillies », Idan Lavy, vice-président de la R&D, SOLIDUS Labs.

    Controles et mesures de securite dans l'integration de l'IA generative dans le developpement de logiciels

    Parmi les risques liés à l'utilisation de l'IA dans le développement de logiciels, il y a la possibilité qu'elle reproduise le mauvais code qui a fait le tour du monde dans le domaine des logiciels libres. « Il y a du mauvais code qui est copié et utilisé partout », déclare Muddu Sudhakar, PDG et cofondateur d'Aisera, développeur d'une plateforme d'IA générative pour les entreprises. « C'est un risque important. Le risque n'est pas seulement que du code mal écrit soit répété - le mauvais code peut être mis en jeu par des acteurs malveillants qui cherchent à introduire des vulnérabilités qu'ils pourront exploiter ultérieurement. »

    Selon Sudhakar, les organisations qui font appel à l'IA générative et à d'autres ressources libres devraient mettre en place des contrôles pour repérer ces risques si elles ont l'intention d'intégrer l'IA dans l'équation de développement. « C'est dans leur intérêt, car il suffit d'un mauvais code », explique-t-il en évoquant la longue campagne de piratage à l'origine de la violation des données de Solar Winds.

    L'attrait croissant de l'IA pour le développement semble l'emporter sur les inquiétudes concernant les risques de fuite de données ou d'autres problèmes. « L'utilité de l'IA est telle qu'il vaut la peine d'être conscient des risques et de le faire quand même », déclare Babak Hodjat, directeur technique de l'IA et directeur de Cognizant AI Labs.

    Selon lui, il faut tenir compte du fait qu'un code accessible au public ne signifie pas qu'il n'est pas protégé par des droits d'auteur, ce qui pourrait être problématique si une entreprise intégrait ce code dans une ligne de ses propres produits logiciels. « Nous devons vraiment, vraiment être attentifs et veiller à ne pas tomber dans ce piège », déclare Hodjat.

    En plus de surveiller le mauvais code, il ajoute que les organisations devraient vérifier que le code de l'IA générative n'est pas protégé par des droits d'auteur ou des droits de propriété, un processus qui pourrait en fait être assisté par d'autres formes d'IA. « Ces éléments sont en fait bien meilleurs pour critiquer que pour produire, et ils sont déjà très bons pour produire du texte ou du code », explique Hodjat.

    Sudhakar est d'accord pour dire qu'un outil d'inspection à code open source devrait être mis en place pour inspecter le code provenant de l'IA afin de détecter d'éventuels droits d'auteur ou de propriété intellectuelle, « si vous disposez de personnel logiciel pour inspecter cela et en fonction de votre niveau d'investissement ».
    Selon Hodjat, il existe également des moyens de tirer parti de l'IA générative accessible au public, tout en réduisant certains risques.

    Il peut s'agir par exemple de télécharger un modèle de langage large open source et de l'exécuter localement. De cette manière, les données et le code sensibles ne quittent pas l'organisation. « Le fait de pouvoir exécuter ces modèles sur place va nous permettre d'utiliser ces systèmes pour améliorer le codage de manière beaucoup plus importante », explique-t-il. Pour certains codes propriétaires, cependant, l'IA pourrait être complètement interdite.

    Voici un tableau de bord GenAI personnalisé

    Nom : GenAI.jpg
Affichages : 826
Taille : 55,9 Ko

    Tous les Pull Requests (PR) arborant l'étiquette "Copilot" dans GitHub ont été inclus dans la définition du filtre du tableau de bord. Dans cette représentation visuelle, la ligne bleue inférieure illustre l'ensemble des PR avec l'étiquette "Copilot", tandis que la ligne grise représente tous les autres PR, servant ainsi de référence de base dans ce contexte.

    Plongeons maintenant en détail dans les Pull Requests (PR) fusionnés sans examen. À titre d'exemple, au sein de l'équipe d'ingénieurs chez LinearB, une décision collective a été prise pour ne pas intégrer de PR générés par GenAI sans qu'ils aient fait l'objet d'une révision.

    Dans le graphique, on observe un pic de PR fusionnés sans révision lors de la semaine 50, constituant une anomalie. Chaque fois que LinearB détecte une tendance dans les données qui ne correspond pas aux attentes, elle approfondit l'analyse en cliquant sur le pic du graphique. Cela permet d'afficher une liste de tous les PR qui ont contribué à ce point de données, permettant ainsi d'examiner de près tous les PR GenAI qui ont été fusionnés sans examen.

    En principe, un outil de GenAI conçu pour générer des morceaux de code pour une équipe devrait logiquement entraîner une réduction du temps de codage et des coûts de développement en accélérant les tâches simples. Pour évaluer si les avantages attendus de la GenAI se concrétisent, LinearB suggère d'analyser les performances et la vélocité de l'équipe.

    Diverses mesures peuvent être suivies à cet égard, notamment le temps de codage, défini comme la période entre le premier commit et l'émission d'une Pull Request (PR). Cette métrique peut être utile pour déterminer si la GenAI contribue effectivement à réduire le temps de codage des développeurs.

    La fréquence de fusion, qui indique à quelle fréquence les développeurs peuvent intégrer du code dans la base de code, revêt également une importance particulière. Elle ne se limite pas seulement au temps de codage, mais englobe également la dynamique de révision du code, fournissant ainsi un aperçu de l'efficacité de la GenAI pour accélérer l'ensemble du processus.

    « La nature imprévisible des projets logiciels, due à divers facteurs tels que des défis techniques inattendus et des problèmes de sécurité, peut poser des défis considérables. Les mesures d'ingénierie, notamment la précision de la planification et l'utilisation d'outils d'automatisation du flux de travail, ont été des catalyseurs essentiels pour accroître notre productivité. Ces outils ont par ailleurs contribué à renforcer la prévisibilité de nos calendriers de publication et des délais associés », souligne Marko T., Directeur Technique chez ASSIGNAR.

    Les développeurs utilisent déjà des outils de codage de l'IA au travail

    Selon une enquête de GitHub auprès des développeurs, 92 % des développeurs travaillant dans de grandes entreprises déclarent utiliser un outil de codage de l'IA, que ce soit au travail ou pendant leur temps libre, et 70 % d'entre eux affirment que l'utilisation de ces outils leur apporte des avantages significatifs.

    L'IA est là pour rester et elle transforme déjà la façon dont les développeurs abordent leur travail quotidien. Il est donc essentiel que les entreprises et les responsables de l'ingénierie adoptent des outils d'IA de qualité professionnelle afin d'éviter que leurs développeurs n'utilisent des applications non approuvées. Les entreprises devraient également établir des normes de gouvernance pour l'utilisation des outils d'IA afin de s'assurer qu'ils sont utilisés de manière éthique et efficace.

    Presque tous les développeurs (92 %) utilisent des outils de codage de l'IA au travail - et une majorité (67 %) a utilisé ces outils à la fois dans un cadre professionnel et pendant son temps libre. Curieusement, seuls 6 % des développeurs interrogés dans le cadre de notre enquête déclarent n'utiliser ces outils qu'en dehors du travail.

    Les développeurs pensent que les outils de codage basés sur l'IA amélioreront leurs performances

    La plupart des développeurs expérimentant les outils d'IA sur leur lieu de travail, les résultats de notre enquête suggèrent que ce n'est pas seulement un intérêt futile qui pousse les développeurs à utiliser l'IA. Il s'agit plutôt d'une reconnaissance du fait que les outils de codage de l'IA les aideront à atteindre les normes de performance.

    Dans notre enquête, les développeurs affirment que les outils de codage basés sur l'IA peuvent les aider à respecter les normes de performance existantes en améliorant la qualité du code, en accélérant les résultats et en réduisant le nombre d'incidents au niveau de la production. Ils estiment également que ces paramètres devraient être utilisés pour mesurer leurs performances au-delà de la quantité de code.

    Évaluation de la pertinence et de la fiabilité du rapport d'étude de LinearB

    LinearB explique comment son approche, basée sur l'étiquetage des Pull Requests, permet aux responsables de l'ingénierie de suivre l'adoption, les bénéfices, et les risques de la GenAI, offrant une visibilité claire à tout moment, du déploiement à l'utilisation complète.

    La méthodologie de collecte des données présentée par LinearB n'est pas explicitement détaillée dans la description du rapport. L'absence de détails sur la manière dont les réponses ont été obtenues rend difficile l'évaluation de la représentativité de l'échantillon et la validité des conclusions tirées. De plus, la source des données, composée de plus de 150 directeurs techniques et vice-présidents de l'ingénierie, pourrait potentiellement introduire un biais, ces individus pouvant avoir des perspectives spécifiques basées sur leurs rôles et leurs expériences. Une enquête plus vaste et diversifiée aurait renforcé la crédibilité des résultats.

    Les prévisions quant à la part de l'IA générative dans le code d'ici à la fin de 2024, représentant environ 20 %, reposent sur des projections sujettes à des variables inconnues. Ces prévisions nécessitent une interprétation prudente en raison de la nature évolutive du domaine de l'IA et du codage génératif.

    Bien que le rapport de LinearB présente des informations intrigantes, il est crucial de considérer ces données avec discernement en raison du possible biais de l'échantillon, du manque de détails sur la méthodologie et de la nature spéculative des prévisions avancées. Une analyse approfondie et une compréhension des limites de l'étude sont nécessaires pour formuler des conclusions informées.

    Source : LinearB

    Et vous ?

    Est-ce que les conclusions de l'étude publiée par LinearB sont pertinentes ?

    Dans quelle mesure les résultats de cette étude peuvent-ils être généralisés à l'ensemble de l'industrie, étant donné la diversité des organisations et de leurs besoins ?

    Quelle est votre opinion concernant l'adoption des outils de codage Gen AI par les départements d'ingénierie logiciels ?

    Estimez-vous que les conclusions tirées par LinearB ont une signification pour l'ensemble des développeurs ?

    Voir aussi :

    Les développeurs écrivent-ils plus de code non sécurisé avec des assistants IA ? Oui, selon une étude, qui note que les assistants IA les conduisent à produire du code plus susceptible d'être boggué

    92 % des développeurs utiliseraient des outils d'intelligence artificielle, selon une enquête de GitHub auprès des développeurs

    Les assistants de programmation basés sur l'IA incitent à repenser l'enseignement de l'informatique, selon des chercheurs
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #12
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 857
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 857
    Points : 36 480
    Points
    36 480
    Par défaut Imposer l'IA aux développeurs serait une mauvaise idée qui semble se concrétiser
    Imposer l'IA aux développeurs serait une mauvaise idée qui semble se concrétiser,
    l'ajout de fonctionnalités non optionnelles à un moment inopportun pourrait entraîner des complications inutiles

    Les entreprises ont souvent adopté un comportement problématique consistant à intégrer de nouvelles fonctionnalités indésirables, créant ainsi un phénomène persistant qui mériterait sa propre désignation. Bien que le terme "creeping featurism" du Hacker's Dictionary approche cette réalité, il ne parvient pas à refléter pleinement la nocivité de cette pratique, capable de perturber les habitudes, de complexifier les tâches quotidiennes et même de nécessiter le réapprentissage de compétences déjà acquises.

    Certains analystes considèrent que l'introduction par JetBrains d'un plugin d'assistant d'IA inamovible dans l'environnement quotidien des développeurs est une idée si préjudiciable qu'elle pourrait donner naissance au "syndrome JetBrains". Cette problématique ne découle pas de la qualité intrinsèque de l'IA, mais plutôt d'une compréhension insuffisante des réalités pratiques du métier de développeur. Les développeurs, soumis à des contraintes temporelles strictes pour produire un code fonctionnel dans le cadre de projets, pourraient faire face à des complications inutiles avec l'ajout de fonctionnalités non optionnelles à des moments inopportuns.

    Nom : JeuneB.png
Affichages : 5639
Taille : 323,6 Ko

    Par ailleurs, Oracle a annoncé en 2021 la disponibilité des services d'IA d'Oracle Cloud Infrastructure (OCI), permettant aux développeurs d'appliquer plus facilement des services d'IA à leurs applications sans nécessiter une expertise approfondie en science des données. Ces services OCI AI offrent aux développeurs la possibilité d'utiliser des modèles prêts à l'emploi ou de former des services sur mesure en fonction des données spécifiques à leur organisation. Oracle propose six nouveaux services couvrant diverses tâches complexes, de la compréhension du langage à la vision par ordinateur et aux prévisions de séries chronologiques.

    Oracle affirme que les entreprises actuelles ont besoin de l'IA pour accélérer l'innovation, évaluer les conditions commerciales et offrir de nouvelles expériences client. Cependant, elles font souvent face à des défis tels que la rareté de l'expertise en science des données et la difficulté de former des modèles sur des données commerciales pertinentes, entravant ainsi la mise en œuvre de l'IA. Oracle se positionne comme un acteur clé pour aider les organisations à concrétiser la valeur de l'IA en tirant parti de son expertise en applications d'entreprise, données d'entreprise et infrastructure cloud de nouvelle génération.

    Les développeurs expriment des inquiétudes quant à l'introduction de l'IA dans le processus de développement logiciel

    Dans un autre registre, Microsoft et Nvidia ont collaboré pour fournir aux développeurs des outils améliorés permettant d'exécuter et de configurer des modèles d'IA sur leurs PC Windows. Lors de l'événement Microsoft Ignite, Microsoft a présenté Windows AI Studio, un hub central permettant aux développeurs d'accéder à une variété de modèles d'IA et de les personnaliser en fonction de leurs besoins. Nvidia a également annoncé des mises à jour pour son outil de développement de l'IA, TensorRT-LLM.

    « En raison des nombreux outils, frameworks et modèles open source disponibles, il est difficile de choisir le bon ensemble d'outils pour tester, affiner et optimiser les modèles ou sélectionner les modèles les plus fiables qui répondent le mieux aux divers besoins de l'entreprise. C'est pourquoi nous sommes ravis d'annoncer Windows AI Studio, une nouvelle expérience pour les développeurs, qui étend l'outillage d'Azure AI Studio pour lancer le développement de l'IA sur Windows », a écrit Microsoft dans un billet de blogue. Selon l'entreprise, Windows AI Studio s'appuie sur des plateformes existantes comme Azure AI Studio et Hugging Face.

    Cependant, cette évolution n'est pas sans controverse, GitHub, la plateforme d'hébergement de code appartenant à Microsoft, ayant suscité le mécontentement des développeurs en imposant des recommandations d'IA. Cette décision a modifié le flux de la page d'accueil des développeurs, les privant ainsi de leur choix entre un flux chronologique et un flux personnalisé, provoquant ainsi la colère de nombreux membres de la communauté.

    Les entreprises se tournent de plus en plus vers l'intelligence artificielle pour accélérer la livraison de logiciels. Mais la popularité croissante des outils de développement basés sur l'IA soulève des inquiétudes en matière de sécurité, de précision et d'implications pour les travailleurs du secteur technologique. À mesure que l'IA se généralise, les dirigeants du secteur technologique s'interrogent sur la manière de l'intégrer en toute sécurité dans le développement de logiciels, et les travailleurs s'inquiètent de la qualité du code généré par l'IA, ainsi que de ce que l'IA signifie pour leur emploi.

    Lorsque l'on expérimente le développement de logiciels assistés par l'IA, « l'un des risques est de générer du mauvais code, tout comme une personne génère du mauvais code », a déclaré Mike Gualtieri, vice-président et analyste principal chez Forrester Research. Cela inclut les risques de sécurité. Les outils de génération de code et de recommandation reflètent les failles de sécurité et les mauvaises configurations du code utilisé comme données de formation. De même, les sources et la sensibilité des données utilisées pour former et affiner les systèmes d'IA suscitent des inquiétudes en matière de sécurité et de protection de la vie privée.

    L'adoption hâtive de l'IA sans évaluation minutieuse peut avoir des conséquences néfastes

    Imposer l'intelligence artificielle aux développeurs représente une perspective préoccupante qui mérite une analyse critique. Bien que l'IA puisse offrir des avantages significatifs dans le domaine du développement logiciel, son imposition sans discernement soulève des inquiétudes légitimes.

    D'abord, il est essentiel de reconnaître que l'intégration forcée de l'IA peut entraîner des complications inutiles. Les développeurs, déjà confrontés à des contraintes temporelles strictes, pourraient se retrouver sous pression pour assimiler rapidement de nouvelles fonctionnalités non optionnelles, perturbant ainsi leur flux de travail quotidien. Cette approche risque de compromettre la qualité du code et d'entraver la productivité, car les développeurs pourraient être contraints de se familiariser avec des fonctionnalités auxquelles ils ne sont pas préparés.


    Certains développeurs perçoivent l'IA, comme le démontre son utilisation pour le débogage, comme un outil potentiellement précieux au sein de leur arsenal, capable d'apporter une assistance significative à des tâches spécifiques. Cependant, cette approbation n'est pas universelle. Certains développeurs, favorables à des outils tels que Co-pilot, considèrent l'IA comme un moyen de simplifier des tâches répétitives et d'améliorer l'efficacité au sein du processus de développement. Cependant, des préoccupations émergent, soulignant le risque d'une dépendance excessive à l'IA. Ces inquiétudes s'articulent autour de la qualité potentielle du code généré et de la nécessité d'un contrôle humain adéquat.

    Au-delà de ces considérations techniques, des inquiétudes plus larges émergent sur la « technopathie ». Celui-ci met en lumière les préoccupations éthiques et sociales entourant l'utilisation de l'IA à des fins principalement lucratives plutôt que pour des avantages sociaux significatifs. La perspective d'une dystopie, où la croissance des revenus s'accompagne de la suppression d'emplois et de la désintégration de la qualité de vie, est une préoccupation centrale soulevée dans les opinions.


    L'histoire a montré que l'adoption précipitée de technologies sans une évaluation approfondie peut entraîner des conséquences indésirables. L'imposition de l'IA sans une compréhension adéquate des besoins et des réalités pratiques des développeurs risque de reproduire ces erreurs du passé.

    Si les créateurs d'outils de développement comme JetBrains ne tiennent pas compte des contraintes et des préférences des développeurs, cela pourrait compromettre la satisfaction et l'efficacité des utilisateurs finaux. Les développeurs devraient avoir la liberté de choisir les outils et les technologies qui correspondent le mieux à leurs besoins, tout en bénéficiant d'une formation adéquate pour maximiser les avantages de l'IA de manière responsable. La réussite de l'intégration de l'IA dépendra de la compréhension des réalités du terrain, de la collaboration et de la considération des besoins individuels des développeurs.

    Et vous ?

    Quel est votre avis sur le sujet ?

    Comment intégrez-vous l'IA dans votre routine quotidienne en tant que développeur ?

    Quels sont les risques potentiels associés à l'imposition de l'IA aux développeurs dans le contexte du développement logiciel ?

    Avez-vous des exemples concrets de complications inutiles qui pourraient découler de l'ajout de fonctionnalités non optionnelles et à des moments inopportuns ?

    Voir aussi :

    Les nouveaux services d'IA cloud d'Oracle visent à apporter un apprentissage automatique prêt à l'emploi, pour les développeurs même sans expertise en science des données

    Microsoft et Nvidia collaborent pour faciliter l'exécution de modèles d'IA sous Windows aux développeurs, avec des outils permettant de travailler localement avec des modèles d'IA volumineux

    92 % des développeurs utiliseraient des outils d'intelligence artificielle, selon une enquête de GitHub auprès des développeurs
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 2
    Dernier message: 24/09/2021, 17h47
  2. Il existe une grande lacune dans la chaîne d'approvisionnement des données, selon une enquête d'Immuta
    Par Sandra Coret dans le forum Statistiques, Data Mining et Data Science
    Réponses: 0
    Dernier message: 17/08/2021, 13h34
  3. Réponses: 1
    Dernier message: 15/07/2021, 14h55
  4. Réponses: 146
    Dernier message: 16/10/2020, 13h17
  5. Réponses: 0
    Dernier message: 08/03/2012, 12h26

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo