IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Google sur un projet qui consiste à apprendre à l’IA à écrire du code et à l’améliorer ?


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    février 2017
    Messages
    1 519
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : février 2017
    Messages : 1 519
    Points : 44 443
    Points
    44 443
    Par défaut Google sur un projet qui consiste à apprendre à l’IA à écrire du code et à l’améliorer ?
    Google sur un projet qui consiste à apprendre à l’IA à écrire du code et à l’améliorer ? C’est ce que suggèrent des confidences :
    Menace en gestation pour les développeurs humains à l’avenir ?

    Les grandes enseignes technologiques semblent s'être engagées à révolutionner la filière du génie logiciel. Microsoft a fait le premier pas avec GitHub et Copilot, son intelligence artificielle de suggestion de blocs de code. Google veut semble-t-il aller encore plus loin avec un projet secret qui cherche à créer un code capable de s'écrire, de se corriger et de se mettre à jour tout seul. L'initiative s'appuie sur les avancées en matière d'intelligence artificielle. Elle ravive le débat sur la possible disparition d'informaticiens humains à l'avenir.

    Comme le rapportent des tiers au courant des développements pour le moment interne à Google, l'initiative est née sous le nom de Pitchfork et a été rebaptisée AI Developer Assistance. Elle fait partie des paris de Google dans le domaine de l'intelligence artificielle générative.

    Nom : 1.png
Affichages : 928
Taille : 35,2 Ko

    Les détails du fonctionnement de cet outil à but révolutionnaire restent un mystère. Cependant, certains qui ont été mis en lumière dressent un tableau très intéressant de ce que l'on peut attendre de ce projet. Pitchfork, ou AI Developer Assistance, est en soi un outil qui utilise l'apprentissage automatique pour apprendre au code à s'écrire et se réécrire lui-même. Comment ? En apprenant des styles correspondant à des langages de programmation, et en appliquant ces connaissances pour écrire de nouvelles lignes de code.

    L’intention initiale derrière ce projet était de de créer une plateforme capable de mettre automatiquement à jour la base de code Python chaque fois qu'une nouvelle version était publiée, sans nécessiter l'intervention ou l'embauche d'un grand nombre d'ingénieurs.

    Cependant, le potentiel du programme s'est avéré beaucoup plus important que prévu. Désormais, l'intention est de donner vie à un système polyvalent capable de maintenir un standard de qualité dans le code, mais sans dépendre de l'intervention humaine dans les tâches de développement et de mise à jour.

    Les responsables de Google doivent résoudre plusieurs problèmes avant de le montrer au public. Au-delà des aspects techniques qu’il reste encore à couvrir, le plan juridique et le plan éthique ne seront pas en reste. En effet, la firme californienne a été au centre de la scène à mi-parcours de l’année dans l'affaire de l'ingénieur licencié pour avoir déclaré que LaMDA, son modèle d'intelligence artificielle pour les conversations en langage naturel, avait montré des signes de sensibilité similaires à ceux d’un humain.

    L’initiative Pitchfork ravive le débat sur la future disparition des développeurs. En effet, lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, ce, sans plus et celui des intervenants et observateurs qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine. Les retours sur le débat s’accumulent et certains laissent filtrer que l’intelligence artificielle générale pourrait nous tomber dessus dans 5 à 10 ans.

    Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » Des intiatives comme Pitchfork se trouveraient alors en pôle position pour provoquer une mise au garage des informaticiens humains.

    Et vous ?

    Les développements en cours dans la filière du génie logiciel donnent-ils lieu à des inquiétudes légitimes quant à l’avenir des informaticiens humains dans la filière ?
    Que vous suggère la possibilité que la recherche aboutisse à l’intelligence artificielle générale dans 5 à 10 ans ?
    Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?

    Voir aussi :

    La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
    La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
    Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
    Les actions Tesla chutent après que son système d'autopilote soit impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre averti
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    mars 2011
    Messages
    129
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : mars 2011
    Messages : 129
    Points : 358
    Points
    358
    Par défaut
    L'IA n'est pas une menace pour les devs, Pitchfork ou autre. Elle n'atteindra jamais l'autoréflexivité décrite dans l'article.

  3. #3
    Nouveau membre du Club
    Femme Profil pro
    Développeur informatique
    Inscrit en
    septembre 2012
    Messages
    6
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : septembre 2012
    Messages : 6
    Points : 32
    Points
    32
    Par défaut
    Dans 5 ou 10 ans ?

    Un nouvel hiver de l'IA.
    Soit parce que les résultats seront en dessous de l'attente générée par la hype irrationnelle.
    Soit parce que les diverses crises écologiques et/ou politiques feront qu'on aura d'autres choses à s'occuper que développer des IA.

  4. #4
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    novembre 2011
    Messages
    2 237
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : novembre 2011
    Messages : 2 237
    Points : 7 650
    Points
    7 650
    Billets dans le blog
    3
    Par défaut
    Le développeur perdra son job quand son employeur acceptera de déléguer la production ET la maintenance du logiciel à l'IA. Quand tu reçois des plaintes d'humain te disant ce qui ne va pas, et que ton seul recours c'est de demander à l'IA de revoir le logiciel pour corriger le problème sans régression sur les autres fonctionnalités, et qu'elle doive te faire remonter les compromis possibles le cas échéant, autant dire qu'il faut avoir sacrément confiance.

    D'ici là, il faudra forcément avoir des développeurs humains dans la boucle, ce qui implique d'avoir un code compréhensible par ces humains, et donc pas du code généré automatiquement car imbuvable pour un humain.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

Discussions similaires

  1. Runtime package forcés sur un projet qui n'en veut pas
    Par pprem dans le forum Composants VCL
    Réponses: 1
    Dernier message: 15/10/2021, 12h49
  2. Réponses: 1
    Dernier message: 21/01/2021, 16h17
  3. Quelles sont les habitudes qui peuvent vous amener à écrire un code de mauvaise qualité ?
    Par Michael Guilloux dans le forum Débats sur le développement - Le Best Of
    Réponses: 30
    Dernier message: 10/07/2017, 13h50
  4. Bill Gates tacle Google sur son projet Loon
    Par Hinault Romaric dans le forum Actualités
    Réponses: 56
    Dernier message: 04/09/2013, 17h51
  5. [CV] Projets qui peuvent figurer sur un CV
    Par afrikha dans le forum CV
    Réponses: 20
    Dernier message: 09/12/2005, 07h34

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo