IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

James Betker d'OpenAI prévoit un agent incarné intelligent en trois ans

  1. #241
    Expert éminent sénior Avatar de Artemus24
    Homme Profil pro
    Agent secret au service du président Ulysses S. Grant !
    Inscrit en
    Février 2011
    Messages
    6 390
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Agent secret au service du président Ulysses S. Grant !
    Secteur : Finance

    Informations forums :
    Inscription : Février 2011
    Messages : 6 390
    Points : 19 126
    Points
    19 126
    Par défaut
    Je suis d'accord avec toi que le mot "intelligent" n'est pas ce que j'aurai utilisé pour décrire ce type de fonctionnement.
    C'est comme la signification de MI6 : Military Intelligence, section 6. Je ne vois pas ce qu'il y a d'intelligent dans l'espionnage.
    Si vous êtes de mon aide, vous pouvez cliquer sur .
    Mon site : http://www.jcz.fr

  2. #242
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 189
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 189
    Points : 3 634
    Points
    3 634
    Par défaut
    Citation Envoyé par Artemus24 Voir le message
    Je suis d'accord avec toi que le mot "intelligent" n'est pas ce que j'aurai utilisé pour décrire ce type de fonctionnement.
    C'est comme la signification de MI6 : Military Intelligence, section 6. Je ne vois pas ce qu'il y a d'intelligent dans l'espionnage.
    Intelligence en Anglais peut signifier renseignement.
    La CIA est la Central Intelligence Agency, et le I signifie bien renseignement.

  3. #243
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 684
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 684
    Points : 18 659
    Points
    18 659
    Par défaut
    Citation Envoyé par Kannagi Voir le message
    c'est juste le mot "intelligent" qui me gêne
    Pourquoi ce mot se met à déranger ?
    Avant il ne dérangeait personne :
    Les meilleurs cours et tutoriels pour apprendre l'algorithmique - INTELLIGENCE ARTIFICIELLE
    Les bots dans les jeux vidéo peuvent être considérés comme des exemples d'intelligences artificielles.

    Il n'y a qu'à se dire qu'une des définitions du mot "intelligence" n'a rien à voir avec l'autre définition.
    D'ailleurs qu'est-ce que ça veut dire "intelligence" ? (bon après ça dépend des dictionnaires)
    • faculté de connaître et de comprendre
    • capacité d’un esprit qui s’adapte et comprend facilement
    • l’ensemble des fonctions mentales ayant pour objet la connaissance conceptuelle et rationnelle


    Maintenant dans les dictionnaires il y a une définition spéciale pour l'intelligence artificielle.
    Le Robert - intelligence
    Intelligence artificielle​​​ (IA​​​ ) : ensemble des théories et des techniques développant des programmes informatiques complexes capables de simuler certains traits de l'intelligence humaine (raisonnement, apprentissage…).
    Intelligence artificielle générative, capable, à partir de grands volumes de données (textes, sons, images…), de dégager des modèles et d'en générer de nouveaux, ou d'améliorer les modèles existants.
    Il n'y a qu'à se dire qu'il y a une histoire de polysémie et voilà le débat est clos.
    On s'en moque un peu de la sémantique, non ?
    Keith Flint 1969 - 2019

  4. #244
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 264
    Points : 2 415
    Points
    2 415
    Par défaut
    Pour Sam Altman, ça vaut le coup de dépenser 50 milliards de dollars par an pour créer l'intelligence artificielle, parce qu'avec ça il pourra tous nous affamer après.

    Il peut faire ça parce que nous avons stoïquement regardé nos députés valider l'affirmation selon laquelle le système des retraites a été réformé, alors qu'une violence inouïe a été développée pour le maintenir en l'état, sur une trajectoire où il ne fournit déjà plus que la moitié des résultats qu'on en attend, et à un moment où l'actualité nous montrait que cette moitié ne va pas durer du tout.

    Dire "l'intelligence artificielle est une bonne chose" ou "l'intelligence artificielle est une mauvaise chose" est une indifférence de gamin.

    L'enjeu, ce n'est pas l'intelligence artificielle, c'est la démocratie qui refuse de faire le nécessaire pour rester en place.

  5. #245
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 264
    Points : 2 415
    Points
    2 415
    Par défaut
    Citation Envoyé par totozor Voir le message
    Intelligence en Anglais peut signifier renseignement.
    La CIA est la Central Intelligence Agency, et le I signifie bien renseignement.
    Il est vrai que quand on parle d'"intelligence avec l'ennemi", ça a une signification toute différente.

  6. #246
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 270
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 270
    Points : 7 792
    Points
    7 792
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Il n'y a qu'à se dire qu'il y a une histoire de polysémie et voilà le débat est clos.
    On s'en moque un peu de la sémantique, non ?
    Tu as d'un côté ceux qui pensent qu'effectivement ça n'a pas d'importance, et de l'autre ceux qui pensent qu'au contraire c'est un problème fondamental. J'en ai croisé quelques uns du premier bord, moi je suis du second. Je ne comprends pas qu'on puisse établir un consensus (notamment scientifique) si on ne sait pas de quoi on parle, et rechigner à définir revient à laisser chacun y aller de sa propre interprétation, ce qui pour moi ne permet justement pas de conclure puisqu'on n'a pas de base commune. Quand tu en as qui tirent des conclusions en étudiant l'intelligence d'un point de vue performance, d'autre d'un point de vue conscience, d'autres d'un point de vue renseignement (rare mais déjà vu), etc. comment veux-tu comprendre à quoi tu as affaire ? Chacun parlant d'un truc différent sans jamais préciser quoi exactement. Et après d'autres souffrent (ou profitent) de cette ambiguïté sémantique en prenant des hypothèses qui font sens pour une interprétation, mais en tirent ensuite des conclusions qu'ils appliquent à une autre interprétation, ce qui donne des raisonnements fallacieux pas toujours évidents à déceler.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  7. #247
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 684
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 684
    Points : 18 659
    Points
    18 659
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    et de l'autre ceux qui pensent qu'au contraire c'est un problème fondamental.
    Ça fait des décennies qu'on parle d'intelligence artificielle ça ne dérangeait pas grand monde et maintenant qu'il y a un gros engouement autour de l'IA des gens commencent à dire "il n'y a pas d'intelligence dans l'IA et il n'y en aura peut-être jamais", ben oui ça a toujours été le cas…

    De toute façon l'industrie ne va pas changer le terme pour être plus précis.
    Donc il faut bien vivre avec.
    On doit bien tolérer les gens qui disent "digital" à la place de "numérique" ou les gens qui disent "crypter".

    Que les gens continuent de se plaindre du fait que l'expression "intelligence artificielle" soit mal choisit, de toute façon ça ne changera rien.
    Keith Flint 1969 - 2019

  8. #248
    Expert éminent sénior Avatar de Artemus24
    Homme Profil pro
    Agent secret au service du président Ulysses S. Grant !
    Inscrit en
    Février 2011
    Messages
    6 390
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Agent secret au service du président Ulysses S. Grant !
    Secteur : Finance

    Informations forums :
    Inscription : Février 2011
    Messages : 6 390
    Points : 19 126
    Points
    19 126
    Par défaut
    Que cela ne change rien je suis d'accord. Mais il faudrait déjà définir ce que l'on entend par "intelligence". Le terme n'est pas approprié car selon mon opinion, il n'y a rien d'intelligent dans une machine. Et si par intelligent, tu ramènes cela au QI (quotient intellectuel), nécessairement, il sera d'un haut niveau. Nous sommes faces à une machine qui est capable de résoudre des problèmes que nous, pauvres humains, ne sommes pas capable par nos moyens limités. Et pourtant, nous avons été capable de créer une machine pour le faire à notre place. Je veux dire que comparer des choses qui ne sont pas comparables, va réduire les humains à pas grand chose ou de faire de l'IA un nouveau Dieu. Je ne fais pas l'apologie de l'IA, mais elles ont été créés justement pour être plus performant que les humains ! Je ne crois pas qu'une conscience puisse prendre naissance dans une machine, car je suis persuadé que c'est lié au vivant. Maintenant, je ne sais pas ce qu'est une conscience, ni d'ailleurs une intelligence. J'aimerai que l'on me définisse ce que l'on entend par conscience et par intelligence et nous pourrons alors avoir un échange constructif.

    Je suis comme M. Matthieu Vergne, je fais parti de la seconde catégorie. Bien que nous sommes au balbutiement de l'IA, je trouve déjà que c'est fort honorable ce que font ces machines. Mais je préfère de loin faire des recherches sur le net, plutôt que d'interroger une IA comme ChatGPT.
    Si vous êtes de mon aide, vous pouvez cliquer sur .
    Mon site : http://www.jcz.fr

  9. #249
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 161
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 161
    Points : 81 013
    Points
    81 013
    Par défaut Selon Sam Altman, PDG d'OpenAI, nous pourrions n'être qu'à une ou deux percées de l'AGI
    Selon Sam Altman, PDG d'OpenAI, nous pourrions n'être qu'à une ou deux percées de l'intelligence artificielle générale (AGI), mais ni GPT-4 ni le prochain grand modèle atteindraient le seuil de l'AGI

    Selon Sam Altman, nous pourrions n'être qu'à une ou deux percées de l'intelligence artificielle générale (AGI), et ce qui importe est le rythme des progrès année après année.

    La création d'une intelligence artificielle générale (AGI) est l'un des principaux objectifs de la recherche en IA et d'entreprises telles qu'OpenAI. L'intelligence artificielle générale (AGI) est un type d'intelligence artificielle (IA) capable de réaliser des performances équivalentes ou supérieures à celles des humains dans un large éventail de tâches cognitives, contrairement à l'IA étroite, conçue pour des tâches spécifiques.

    Le calendrier de réalisation de l'AGI fait l'objet d'un débat permanent entre les chercheurs et les experts. En 2023, certains affirment qu'elle sera possible dans quelques années ou décennies, d'autres maintiennent qu'il faudra un siècle ou plus, et une minorité pense qu'elle ne sera jamais atteinte. Il y a un débat sur la définition exacte de l'AGI, et sur la question de savoir si les grands modèles de langage (LLM) modernes tels que GPT-4 sont des formes précoces et incomplètes de l'AGI.

    Selon Sam Altman, "nous pourrions n'être qu'à une ou deux percées de l'intelligence artificielle générale (AGI)." Sam Altman est un entrepreneur et investisseur américain surtout connu comme PDG d'OpenAI depuis 2019. Altman est considéré comme l'une des figures de proue du boom de l'IA.

    Ma conception naïve, lorsque nous avons commencé, était que nous arriverions à un moment où nous n'aurions pas l'AGI, puis que nous l'aurions, et que ce serait une véritable discontinuité. Et je pense toujours qu'il y a une certaine chance de discontinuité réelle. Mais dans l'ensemble, je pense que cela ressemblera davantage à une courbe exponentielle continue où ce qui importe est le rythme des progrès année après année.

    Vous et moi ne serons probablement pas d'accord sur le mois ou même l'année où nous nous dirons : "Ok, maintenant c'est l'AGI". Nous pouvons trouver d'autres tests avec lesquels nous serons d'accord, mais même cela est plus difficile qu'il n'y paraît.

    GPT-4 n'a certainement pas dépassé un seuil que presque tout le monde qualifierait d'AGI et je ne m'attends pas à ce que notre prochain grand modèle le soit non plus. Mais je peux imaginer que nous ne sommes qu'à une ou deux idées, ou à un petit nombre d'idées, et à une échelle un peu plus grande de quelque chose où nous nous dirons : "C'est maintenant un peu différent"
    Et vous ?

    Pensez-vous qu'il soit crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Le PDG d'OpenAI, Sam Altman, affirme que l'IA de niveau humain est imminente, mais qu'elle ne changera pas le monde autant que nous le pensons et que les craintes autour de l'AGI sont exagérées

    L'AGI serait déjà présente, « les modèles d'IA tels que ChatGPT, Bard, LLaMA et Claude ont franchi un seuil que les générations précédentes d'IA n'ont jamais atteint», selon des chercheurs

    Selon un groupe de chercheurs en IA, les LLM actuels ne mèneront pas à l'AGI, mais les robots dotés d'une IA qui se développent dans le monde 3D pourraient le faire
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #250
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 684
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 684
    Points : 18 659
    Points
    18 659
    Par défaut
    Citation Envoyé par Jade Emy Voir le message
    Selon Sam Altman, "nous pourrions n'être qu'à une ou deux percées de l'intelligence artificielle générale (AGI)."
    Peut-être.
    Mais les percées peuvent mettre du temps à venir, voir ne jamais arriver.

    On peut également dire qu'on est à 3 ou 4 percées de maitriser la fusion nucléaire. Mais si ça se trouve la prochaine grande percée aura lieu dans 20 ans.

    Citation Envoyé par Artemus24 Voir le message
    Que cela ne change rien je suis d'accord.
    Faites bien comme vous voulez, ça ne m'intéresse pas et de toute façon les choses ne changeront pas.
    Ils ont décidé d'appeler ça "intelligence artificielle" et ils ne changeront pas le nom. Vous pouvez critiquer le terme autant que vous voulez, ça ne changera rien.

    Je préfère me battre contre "digital" et "crypter" puisque les bons termes sont "numérique" et "chiffrer". Même si je sais que ça ne sert à rien, l'industrie francophone parlera toujours de "digital" ce qui est extrêmement frustrant.
    Avant la mode actuelle personne ne critiquait l'expression "intelligence artificielle".
    Keith Flint 1969 - 2019

  11. #251
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 948
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 948
    Points : 53 740
    Points
    53 740
    Par défaut Le responsable de la division IA de Meta est d’avis que les LLM n’atteindront pas l’intelligence humaine
    Le responsable de la division IA de Meta est d’avis que les grands modèles de langage n’atteindront pas l’intelligence humaine
    Il travaille sur d'autres pistes susceptibles de déboucher sur cet objectif

    Yann LeCun, responsable de la division intelligence artificielle de Meta, est d’avis que l’intelligence artificielle de niveau humain est atteignable. Ce qu’il souligne par contre est que cela ne se fera pas au travers des grands modèles de langage (LLM). C’est d’ailleurs la raison pour laquelle ses travaux actuels chez Meta portent sur une approche différente destinée à atteindre l’intelligence artificielle dite générale – ce stade où les machines seront dotées de bon sens, capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »

    « Les grands modèles de langage (LLM) ont une compréhension très limitée de la logique, ne comprennent pas le monde physique, n'ont pas de mémoire persistante, ne peuvent pas raisonner au sens propre du terme et ne peuvent pas planifier de manière hiérarchique », souligne-t-il.

    Nom : 1.png
Affichages : 49926
Taille : 54,2 Ko

    Yann LeCun reste donc cohérent avec ses précédentes sorties selon lesquelles les grands modèles de langage n’ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. « la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'intelligence artificielle », déclare-t-il.

    C’est la raison pour laquelle il soutient que l’atteinte de l’intelligence artificielle générale ne se fera pas par le biais des grands modèles de langage. Il conseille d’ailleurs aux jeunes étudiants qui envisagent d’intégrer la filière de se lancer dans les systèmes d’intelligence artificielle du futur qui lèvent les limitations des grands modèles de langage.

    Nom : 0.png
Affichages : 15554
Taille : 143,4 Ko

    En effet, l’un des inconvénients avec les grands modèles de langage est l’hallucination. C’est en raison de cette limitation incontournable chez les LLM, selon une étude, que ChatGPT a créé de fausses histoires sur de nombreuses personnes à travers le monde et cite parfois même des sources inexistantes pour étayer ses récits. Dans un cas aux États-Unis, ChatGPT a inventé un scandale de harcèlement sexuel et a désigné un vrai professeur de droit comme l'accusé. En Australie, il a accusé à tort un maire de corruption avec de fausses preuves. De telles histoires pullulent sur Internet, y compris en France.

    Jonathan Turley, professeur de droit à l'université George Washington, a soudainement appris qu'il était l'accusé dans une affaire de harcèlement sexuel. Le professeur n'avait pas connaissance de cette histoire jusqu'à présent parce qu'elle vient tout juste d'être inventée de toutes pièces par ChatGPT. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un. À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte.

    « Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », a récemment écrit un journaliste du MIT Technology Review. Dans une affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT. ChatGPT a causé des ennuis à un avocat qui l’a utilisé pour citer des affaires imaginaires dans un document juridique. Le juge était furieux et a menacé de le sanctionner. Quand le juge a demandé les copies des affaires, l’avocat a fait appel à ChatGPT, qui a inventé des informations sur les affaires fantômes.

    L’avocat, Steven Schwartz, défendait un homme qui attaquait Avianca en justice après avoir été blessé au genou par un chariot de service pendant un vol vers New York en 2019. Schwartz a dit qu’il ne connaissait pas ChatGPT et qu’il ignorait qu’il fabriquait des affaires. Il a même dit qu’il avait vérifié avec ChatGPT si les affaires étaient vraies. Le chatbot a dit que oui.

    Le juge a qualifié cette pratique d’ « inédite » et de « trompeuse », et a ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle. Le juge a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte. L’avocat a cité six affaires fictives dans ses mémoires. Ces affaires avaient été générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. Il a présenté ses excuses et a affirmé qu’il ne recommencerait plus.

    C’est pour ces raisons que Tom Dietterich de l’université de l’Oregon propose plutôt de travailler sur des système d’intelligence artificielle modulaires qui savent faire la distinction entre les aptitudes linguistiques et la connaissance du monde réel et, entre autres, créer et mettre à jour la connaissance du monde réel.


    C’est une combinaison de ces ingrédients qui devrait permettre de déboucher sur des systèmes qui lèvent les limitations des grands modèles de langage. Le responsable de la division intelligence artificielle de Meta et ses équipes se donnent une dizaine d’années pour parvenir à une intelligence artificielle de niveau humain.

    Source : Yann LeCun

    Et vous ?

    Quelle appréciation faites-vous de la position de l’expert français Yann Lecun sur le sujet ?

    Voir aussi :

    « L'IA est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer », préviennent des chercheurs sur une possible future apocalypse

    Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies, il vient de publier une lettre de 7 pages sur l'IA et ses prédictions pour son avenir

    « Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

    « Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates qui entrevoit l'échec d'un consensus à l'échelle mondiale

    Le PDG d'OpenAI estime que l'approche actuelle de l'IA va bientôt atteindre ses limites, la mise à l'échelle des modèles LLM cessera d'apporter des améliorations à l'IA, selon lui
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  12. #252
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 264
    Points : 2 415
    Points
    2 415
    Par défaut
    Apparemment, les avertissements de la Science Fiction n'ont pas suffi.

    Citation Envoyé par Patrick Ruiz Voir le message
    Schwartz a dit qu’il ne connaissait pas ChatGPT et qu’il ignorait qu’il fabriquait des affaires. Il a même dit qu’il avait vérifié avec ChatGPT si les affaires étaient vraies.
    Suffisait d'y penser ...

    On n'a pas précisé si il a été condamné pour outrage à magistrat.

  13. #253
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 624
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 624
    Points : 201 011
    Points
    201 011
    Par défaut L'entreprise pétrolière BP affirme avoir besoin de 70% de codeurs en moins grâce à l'IA
    L'entreprise pétrolière BP affirme avoir besoin de 70% de codeurs en moins car l'IA prend en charge la majeure partie du codage,
    BP s'appuie sur Copilot de Microsoft

    BP a dévoilé ses résultats du premier trimestre 2024, tout en révélant un fait surprenant concernant son utilisation de l’intelligence artificielle générative. Selon l’entreprise, elle a besoin de 70 % de codeurs en moins grâce à cette technologie. L’IA générative est de plus en plus utilisée dans la programmation et le développement de logiciels, et BP affirme que cette technologie lui permet de rationaliser considérablement ses besoins en programmation et ses flux de travail.

    L’intelligence artificielle générative est en train de révolutionner de nombreux secteurs, et le développement logiciel ne fait pas exception. BP, l’une des plus grandes entreprises pétrolières et gazières au monde, a récemment annoncé qu’elle avait réduit de 70 % le nombre de codeurs nécessaires grâce à l’IA générative. La société BP est une compagnie britannique de recherche, d'extraction, de raffinage et de vente de pétrole fondée en 1909. Anciennement nommée Anglo-Persian Oil Company, puis Anglo-Iranian Oil Company, puis British Petroleum Company, puis BPAmoco, avant d'être renommée BP.

    « Nous avons besoin de 70 % de codeurs en moins, car l'IA prend en charge la majeure partie du codage »

    Le PDG de BP, Murray Auchincloss, a déclaré aux investisseurs :

    « Je vais m'attaquer aux exemples de coûts. Je pense que je laisserai Kate s'occuper de la deuxième question. En ce qui concerne les exemples de coûts, il y a quatre domaines sur lesquels nous nous concentrons vraiment, Lydia, pour atteindre au moins 2 milliards de dollars d'ici à la fin de 2026.

    « Le premier est la concentration du portefeuille. Vous m'avez déjà entendu en parler, je ne vais donc pas me répéter.

    « Le deuxième est votre préféré, c'est la transformation numérique. Nous avons fait énormément pour numériser de nombreux aspects de notre activité, et nous y appliquons maintenant l'IA. Les domaines dans lesquels nous obtenons des résultats remarquables sont le codage. Nous avons besoin de 70 % de codeurs en moins, car l'IA prend en charge la majeure partie du codage, et l'humain n'a plus qu'à regarder les 30 % restants pour le valider. C'est une économie importante pour l'entreprise à l'avenir. Deuxièmement, les centres d'appels, par exemple. Les modèles linguistiques sont devenus tellement sophistiqués qu'ils peuvent fonctionner dans plusieurs langues, 14 ou 15 langues facilement. Dans le passé, nous ne pouvions pas faire cela, et nous pouvons donc redéployer du personnel, étant donné que l'IA peut le faire.

    « Vous avez entendu mon exemple sur la publicité au dernier trimestre, où les temps de cycle de la publicité sont passés de quatre à cinq mois à quelques semaines. Cela permet évidemment de réduire les dépenses avec des tiers. Grâce à Microsoft Copilot, nous disposons désormais de Gen AI dans de très nombreux secteurs de l'entreprise. Nous continuerons à fournir des mises à jour avec des anecdotes au fur et à mesure, mais je pense qu'il s'agit d'un énorme changement dans le numérique pour notre entreprise.

    « Et je continue à chercher des moyens d'augmenter les marges et de réduire les coûts, à la fois sur le capital et sur les coûts. Les fournisseurs sont probablement un bon exemple de l'élimination du gaspillage. Nos bons partenaires de Subsea 7 ont formé une alliance avec nous. Dans le passé, nous aurions supervisé ce qu'ils faisaient. Aujourd'hui, nous formons des équipes communes. Elles travaillent ensemble sur un projet. Elles essaient de trouver des moyens de l'optimiser. Nous les incitons à gagner du temps et de l'efficacité et nous avons des équipes colocalisées qui travaillent ensemble sur ces questions. Cela permet d'éliminer les cycles d'appel d'offres, réduit le nombre d'ingénieurs impliqués de part et d'autre pour que tout soit fait, réduit la durée des navires, etc. Il ne s'agit donc que d'un concept d'alliances que nous avons mis en place depuis un certain temps dans le domaine des projets d'investissement ».

    Nom : BP.png
Affichages : 10330
Taille : 21,1 Ko

    Avantages et inconvénients

    Avantages de l’IA générative

    L’utilisation de l’IA générative présente plusieurs avantages pour BP et d’autres entreprises :
    • Efficacité accrue : en réduisant le besoin de codeurs tiers, BP peut accélérer ses projets de développement logiciel. Les délais de cycle sont considérablement réduits, ce qui permet à l’entreprise de rester compétitive.
    • Réduction des coûts : moins de codeurs signifie moins de dépenses liées aux salaires et aux contrats externes. BP peut réaffecter ses ressources vers d’autres domaines stratégiques.
    • Amélioration de la qualité : l’IA générative peut détecter des erreurs potentielles et optimiser le code. Cela garantit des logiciels plus fiables et robustes.

    Défis et préoccupations

    Malgré ses avantages, l’IA générative soulève également des questions :
    • Sécurité : la confiance dans le code généré est essentielle. BP doit s’assurer que l’IA ne crée pas de vulnérabilités potentielles.
    • Éthique : comment l’IA générative affecte-t-elle les emplois des codeurs ? BP doit trouver un équilibre entre automatisation et maintien de l’emploi.

    « Apprendre à programmer sera inutile à l'avenir », d'après le PDG de Nvidia

    L’intelligence artificielle menace-t-elle les postes de développeurs informatiques humains dans les années à venir ? Le chatbot ChatGPT d’OpenAI a par exemple réussi l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires US. C’est un accomplissement parmi d’autres à mettre sur le compte de cette technologie qui ravive le débat sur la possible disparition du métier de développeur du fait de sa montée en puissance. Le PDG de Nvidia va dans le même sens dans une récente sortie en signant : « Apprendre à programmer sera inutile à l’avenir. »

    La montée en puissance de l’intelligence artificielle fera de tous des programmeurs au travers du langage naturel. En d’autres termes, l’évolution technologique sera telle que chacun sera en mesure de donner des détails d’un projet informatique à un ordinateur qui se chargera de le boucler dans les moindres détails. Cette sortie s’inscrit en droite ligne avec une autre dans laquelle il déclare que, d’ici 2029, les ordinateurs réussiront tous les tests auxquels un être humain peut se soumettre.

    Mais une récente étude estime que l’IA générative ne remplacera pas les développeurs de sitôt

    Des chercheurs de l'université de Princeton ont développé un cadre d'évaluation basé sur près de 2300 problèmes courants de génie logiciel montés à partir de rapports de bogues et de feature requests soumis sur GitHub afin de tester la performance de divers modèles de grands langages (LLM). Les chercheurs ont fourni à différents modèles de langage le problème à résoudre et le code du dépôt. Ils ont ensuite demandé au modèle de produire un correctif réalisable. Ce dernier a ensuite fait l’objet de tests pour s'assurer qu'il était correct. Mais le LLM n'a généré une solution efficace que dans 4 % des cas.

    Nom : chercheurs.png
Affichages : 2967
Taille : 143,3 Ko

    Leur modèle spécialement entraîné, SWE-Llama, n'a pu résoudre que les problèmes d'ingénierie les plus simples présentés sur GitHub, alors que les LLM classiques tels que Claude 2 d'Anthropic et GPT-4 d'OpenAI n'ont pu résoudre que 4,8 % et 1,7 % des problèmes, de façon respective.

    Et l’équipe de recherche de conclure : « le génie logiciel n’est pas simple dans la pratique. La correction d'un bogue peut nécessiter de naviguer dans un grand référentiel, comprendre l'interaction entre des fonctions dans différents fichiers ou repérer une petite erreur dans du code alambiqué. Cela va bien au-delà des tâches de complétion de code. »

    C’est la raison pour laquelle Linux Torvalds a tenu à se désolidariser de tout le battage médiatique autour de l’intelligence artificielle. Il la considère comme un outil au stade actuel de son évolution. Il suggère d’ailleurs la révision de code comme domaine d’application de l’intelligence artificielle. La capacité de l’intelligence artificielle à « deviner » l’intention du développeur lui sera utile pour obtenir du code fiable en un temps réduit. Une condition demeurera toutefois nécessaire : le développeur devra à son tour examiner ce que l’intelligence artificielle lui propose.

    Conclusion

    Il est intéressant de noter qu’Auchincloss reconnaît que les programmeurs humains sont toujours nécessaires pour vérifier et valider le code généré par l’IA, car l’utilisation de l’IA peut entraîner des problèmes de sécurité. Il a également souligné que l’IA générative révolutionne les centres d’appels de l’entreprise.

    Le succès de BP dans l’utilisation de l’IA générative est également une grande victoire pour Microsoft, car Auchincloss a déclaré que l’entreprise s’appuie sur Microsoft Copilot. « Nous avons maintenant l’IA générative entre les mains grâce à Microsoft Copilot dans de nombreux domaines de l’entreprise, et nous continuerons à vous tenir informés avec des anecdotes au fur et à mesure de notre progression. »

    BP offre un bon exemple des nombreuses façons dont l’IA générative peut aider les entreprises à numériser et à révolutionner leurs opérations

    Source : BP

    Et vous ?

    L’IA générative est-elle une menace pour les emplois de codeurs ? Quels sont les avantages et les inconvénients de l’automatisation des tâches de programmation et de la réduction du besoin de codeurs humains ?
    Quels sont les risques de sécurité associés à l’utilisation de l’IA générative dans le développement logiciel ? Quelles vulnérabilités potentielles voyez-vous et quelles sont les mesures de précaution nécessaires pour garantir la qualité et la sécurité du code généré ?
    Comment l’IA générative peut-elle améliorer l’efficacité des centres d’appels ? Comparez les avantages de l’IA linguistique dans la gestion des appels clients et discutez de son impact sur les coûts et la satisfaction des clients ?
    Quelles sont les limites actuelles de l’IA générative ? Identifiez les domaines où l’IA générative peut encore être améliorée et discutez des défis techniques à relever.
    L’IA générative est-elle une révolution ou une simple évolution dans le domaine du développement logiciel ? Échangez vos opinions sur l’impact à long terme de cette technologie sur l’industrie.
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  14. #254
    Membre extrêmement actif
    Homme Profil pro
    Graphic Programmer
    Inscrit en
    Mars 2006
    Messages
    1 572
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Graphic Programmer
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2006
    Messages : 1 572
    Points : 4 028
    Points
    4 028
    Par défaut
    dans quelques années ils vont devoir reembocher massivement des dev pour combler tous les trou de securité de cette ia de merde

  15. #255
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 270
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 270
    Points : 7 792
    Points
    7 792
    Billets dans le blog
    3
    Par défaut
    IA de merde pas forcément, elle fait ce pour quoi elle a été conçue. Mais l'utilisateur, ici BP, peut en abuser. Et vu le discours tenu, il semble qu'il soit en bonne voie de le faire (l'abus). Donc oui, s'il pousse trop loin il devra réembaucher par la suite. On ne devient pas bon dans ce qu'on fait en lisant juste ce que font les autres, même les meilleurs. La pratique reste indispensable. S'il se contente de faire valider le code aux humains, même s'il garde les meilleurs, ils vont naturellement perdre en qualité (et en motivation pour d'autres raisons). Ce qu'il gagne là il le perdra par ailleurs. Et selon comment le process évolue, il peut y avoir une perte de cohérence qui rendra le code d'autant plus difficile à reprendre quand il faudra y remettre de l'humain dedans.

    Maintenant, si ce qu'il dit est vrai et se passe bien, c'est que le code de BP est vraiment du code basique et inintéressant au possible. Auquel cas merci d'épargner aux dévs ce genre d'expérience.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  16. #256
    Membre à l'essai
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Janvier 2020
    Messages
    4
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Saône et Loire (Bourgogne)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Janvier 2020
    Messages : 4
    Points : 12
    Points
    12
    Par défaut
    Pourquoi pas, mais pour avoir testé / utlisé copilot & co, le gain n'est pas si énorme, et surtout , on ne peut pas faire confiance à 100% à l'IA. le code généré peut sembler être bon, mais il est souvent "mal pensé", "pas optimisé", voir même peut générer des bugs avec le reste du code existant.
    Après, on verra d'ici quelques années si ils arrivent à se passer de nous ou si on contraire, ils auront besoin de personne ultra-qualifiées pour débugger tout ce qui aura été "codé automatiquement" pendant plusieurs années!

  17. #257
    Membre habitué
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Février 2024
    Messages
    62
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Architecte réseau

    Informations forums :
    Inscription : Février 2024
    Messages : 62
    Points : 179
    Points
    179
    Par défaut
    Tout dépend des besoins en dev chez BP. Ma tendance lourde est au code vite fait mal fait et aux projets peu durables dans le temps. C'est là le business de toutes les ESN ou presque. Alors oui, l'IA est une très bonne alternative dans ce cas, elle va remplacer beaucoup de codeurs à faible valeur ajoutée.

  18. #258
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 264
    Points : 2 415
    Points
    2 415
    Par défaut
    Citation Envoyé par Aiekick Voir le message
    dans quelques années ils vont devoir reembocher massivement des dev pour combler tous les trou de securité de cette ia de merde
    Et ... Se rabibocher avec, pendant qu'ils y seront ?

    Citation Envoyé par RenarddeFeu Voir le message
    Tout dépend des besoins en dev chez BP. Ma tendance lourde est au code vite fait mal fait et aux projets peu durables dans le temps. C'est là le business de toutes les ESN ou presque. Alors oui, l'IA est une très bonne alternative dans ce cas, elle va remplacer beaucoup de codeurs à faible valeur ajoutée.
    Ce n'est pas pire que faire bosser quelqu'un sur le langage le plus mal foutu qu'on ait dans la boîte, et lui reprocher ensuite d'être lent.

  19. #259
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 270
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 270
    Points : 7 792
    Points
    7 792
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par RenarddeFeu Voir le message
    Tout dépend des besoins en dev chez BP. Ma tendance lourde est au code vite fait mal fait et aux projets peu durables dans le temps. C'est là le business de toutes les ESN ou presque.
    Pas de la mienne (5e au Great Place to Work et c'est pas volé).

    Cela dit, ce ne sont pas les ESN qui décident du contenu du projet et des priorités, mais les clients. Si je comprends le côté viandard de la plupart des ESN, n'allons pas non plus tout leur mettre sur le dos. Si c'est du code vite fait mal fait chez BP, ce serait avant tout du fait de BP.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  20. #260
    Membre habitué
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Février 2024
    Messages
    62
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Architecte réseau

    Informations forums :
    Inscription : Février 2024
    Messages : 62
    Points : 179
    Points
    179
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Pas de la mienne (5e au Great Place to Work et c'est pas volé).
    Pour ma part, le Great Place to Work est un énorme red flag. Plus une entreprise de vante d'avoir des valeurs, plus le risque est grand de tomber dans un nid de crabes.

    J'ai bossé pour l'entreprise première dans sa catégorie à une époque, ce fut la pire expérience de ma vie. Dénigrement, harcèlement au quotidien, certainement pas un endroit sain où travailler. Les managers veillaient à ce que les consultants remplissent correctement le questionnaire.

Discussions similaires

  1. Réponses: 1
    Dernier message: 09/11/2009, 09h53
  2. Réponses: 0
    Dernier message: 23/09/2009, 12h22
  3. L'État pourrait être le seul actionnaire de l'AFP
    Par ®om dans le forum Politique
    Réponses: 7
    Dernier message: 16/09/2009, 19h20
  4. Steve Jobs pourrait être présent à la WWDC 09 !?
    Par Marcos Ickx dans le forum Apple
    Réponses: 2
    Dernier message: 07/06/2009, 13h09
  5. L'université pourrait être bien?
    Par johankonigsberg dans le forum Etudes
    Réponses: 13
    Dernier message: 07/01/2009, 15h36

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo