IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 655
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 655
    Par défaut « L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique
    « L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique
    qui affirme que ce mensonge est raconté pour des raisons financières et politiques

    Dana Blankenhorn, journaliste technologique, s'en prend vertement à ce qu'il appelle le battage médiatique autour de l'intelligence artificielle générale (AGI). Il affirme que l'AGI est le plus gros mensonge de l'année et que cette technologie n'existe tout simplement pas. Son analyse suggère que la surmédiatisation de l'AGI est liée aux visées politiques de certains acteurs importants du secteur de l'IA et à leurs tentatives visant à contrôler entièrement le développement de la technologie. Le journaliste allègue en outre que le but de ces acteurs est d'élever considérablement les barrières à l'entrée de nouveaux acteurs sur le marché. Son point de vue fait toutefois l'objet de controverses.

    Selon les prédictions, l'avènement de l'AGI est une promesse et un potentiel immenses pour l'avenir de l'humanité. Grâce à ses capacités avancées, l'AGI a le pouvoir de révolutionner les industries, de relever des défis mondiaux complexes et de remodeler notre façon de travailler et de vivre. L'on s'attend à ce que l'AGI fasse preuve de capacités cognitives égales ou supérieures à celle de l'homme, mais pour l'instant, elle reste un objectif insaisissable, avec de nombreux défis techniques à relever. Cependant, les plus enthousiastes affirment que chaque jour qui passe nous rapproche de la création d'entités artificielles rivalisant avec nos capacités cognitives.


    Certains parmi eux pensent d'ailleurs que nous sommes déjà en présence d'une forme d'AGI. À titre d'exemple, le PDG d'OpenAI, Sam Altman, a déclaré il y a peu que son chatbot d'IA ChatGPT aurait pu être considéré comme une AGI il y a 10 ans. Il a laissé entendre que ChatGPT est victime de l'effet IA. (L'effet IA est dû au fait que la communauté de l'IA (experts, chercheurs, etc.) a tendance à ajuster ses attentes en matière d'IA à mesure que la technologie progresse et que certaines tâches deviennent courantes.) De plus, Google DeepMind a récemment décidé de classer ChatGPT d'OpenAI et Bard de Google comme étant des formes d'AGI émergentes.

    Pour ces différents acteurs du secteur de l'IA, nous embarquons dans un voyage transformateur et il est crucial de donner la priorité aux considérations éthiques, d'établir des réglementations solides et de garantir la transparence et la responsabilité dans le développement de l'AGI. Après tout, nous ne voulons pas que l'AGI soit plus intelligente que nous et devienne notre maître. Toutefois, le journaliste technologique Dana Blankenhorn s'oppose catégoriquement à ces discours qu'il considère comme une duperie et un mensonge. Dans une analyse publiée récemment sur le sujet, Blankenhorn expose les points critiques de son point de vue comme suit :


    Avant que tout le monde ne commence à publier des articles sur le "meilleur de 2023", voici le mensonge de l'année.

    L'intelligence artificielle générale (AGI)

    Ce mensonge a été élaboré lorsque l'OpenAI a commencé à pousser des programmes d'"intelligence artificielle générative" comme son ChatGPT, et il continue de se répandre. L'IA générative est issue de l'informatique de base de données basée sur le cloud que nous avons depuis une décennie. Elle est issue d'entreprises telles que Salesforce.com, qui vendaient des bases de données en tant que service dans le sillage de l'explosion de l'année 2000.

    L'IA générative combine l'apprentissage automatique à partir d'une grande base de données avec une sortie flexible. Vous voulez une photo d'Elon Musk en rat ? Que diriez-vous d'une chanson sur les arbres dans le style de Steely Dan ? Voulez-vous une histoire sur l'actualité racontée par Mark Twain ? Que diriez-vous de rendre le pare-feu de votre entreprise proactif plutôt que réactif ? Il existe un programme d'IA générative qui vous aide à accomplir toutes ces tâches. C'est génial.

    L'apprentissage automatique sur le Big Data

    Mais l'IA générative n'est pas la même chose que l'intelligence générale.

    Il s'agit d'un apprentissage automatique fondé sur un grand modèle de langage. Il s'agit d'un logiciel dont les résultats imitent ce que les gens ont fait avant lui. Cela signifie qu'elle a besoin d'informations sur ce qui a déjà été fait et d'algorithmes basés sur des données humaines pour faire quoi que ce soit.

    L'IA générative ne peut pas penser. Elle ne peut que calculer.

    Le mensonge sur l'intelligence artificielle générale est, comme la plupart des autres mensonges aujourd'hui, raconté pour des raisons politiques. Sam Altman veut que les grandes entreprises technologiques contrôlent le marché. Il veut que le gouvernement "réglemente" l'IA afin que seules quelques personnes et entreprises puissent l'utiliser, et il veut bien sûr faire partie des élus. Au minimum, son objectif est d'élever considérablement les barrières à l'entrée du nouveau marché.

    En effet, l'IA générative peut rapporter beaucoup d'argent. Elle peut augmenter la productivité. Par exemple, elle peut planifier les ressources d'un hôpital, y compris son personnel, plus efficacement que la direction, parce qu'elle connaît toutes les ressources dont dispose l'hôpital, ainsi que les schémas d'utilisation.

    C'est ce que nous montrent les travaux des entreprises de bases de données existantes. Elles s'appellent toutes vendeuses d'"IA" aujourd'hui. Palantir et ServiceNow connaissent une croissance de 20 à 30 % par an, de manière rentable.

    L'utilisation des clouds pour traiter les données des programmes d'IA a également permis au fabricant de puces Nvidia de croître de 60 % par an. La capacité des clouds est absorbée par les clients, impatients de former de nouveaux modèles, aussi vite qu'elle est installée.

    Mais il ne s'agit pas d'intelligence. Il s'agit de logiciels, d'algorithmes spécifiques conçus pour des ensembles de données spécifiques, avec des cas d'utilisation spécifiques, écrits, installés et gérés par des êtres humains. Ce n'est rien sans vous.
    L'argumentaire de Blankenhorn a suscité de nombreuses réactions dans la communauté. Selon les critiques qui abondent dans son sens, il est important de contrer ce battage médiatique, car il exploite la naïveté des consommateurs afin de leur vendre tout produit estampillé "IA", qu'il soit efficace ou non. « ChatGPT, c'est comme la voyance. Le public est tellement désireux d'obtenir un miracle que même un tour de passe-passe bidon semble miraculeux. Lorsque tant de gens sont soit résignés à l'idée que l'AGI est une chose inévitable, il devient chaque jour plus facile pour une machine de passer le test de Turing sur le plan sociétal », indique un critique.

    Un autre a écrit : « nous avons inventé de nouveaux modèles d'apprentissage automatique capables de produire des images et des passages de texte convenables, si bien que les entreprises technologiques pensent que nous sommes sur le point de donner naissance à des esprits numériques qui pensent. Pour le dire simplement, il s'agit de fantasmes stupides et naïfs fondés sur une vision du monde axée sur la fiction. L'IA a changé et continuera de changer le monde en fonction de la façon dont les gens l'utilisent, mais l'idée que des formes de vie numériques conscientes d'elles-mêmes sont sur le point de naître est une fanfaronnade d'entreprise ».

    D'un autre côté, l'analyse de Blankenhorn est controversée. « Je suis d'accord pour dire que nous n'avons pas atteint l'AGI, mais son analyse est vraiment stupide. Il a oublié de fournir des preuves. L'ensemble de cet article peut être complètement rejeté. C'est en grande partie d'un argument d'homme de paille. L'argument principal était que les grands modèles de langage ne sont pas des AGI. Mais OpenAI et d'autres groupes travaillant sur les grands modèles de langages (et l'IA en général) ne prétendent pas attendre une AGI d'un grand modèle de langage », a écrit un critique. Selon lui, l'analyse de Blankenhorn n'apporte aucune information utile.

    Un autre critique a écrit : « il s'agit donc de l'argument standard : "il n'y a pas d'intelligence, ce n'est que de l'autocomplétion". La réponse à cela est "qui s'en soucie ?". Si le système est capable d'augmenter la productivité, de nous aider à résoudre des problèmes qui étaient auparavant insolubles (le repliement des protéines) et de remplacer des emplois, alors on se moque de savoir s'il est réellement intelligent ». Mais ce critique est controversé à son tour, puisqu'il semble minimiser l'influence du battage médiatique autour de l'IA et de l'AGI sur les décisions des consommateurs. À la limite, son argument encourage la surmédiatisation de la technologie.

    En somme, bien que Blankenhorn ne remette pas en cause le concept de l'AGI, il s'offusque contre le battage médiatique autour de cette technologie "hypothétique" et ses dangers potentiels pour l'humanité. Il affirme que tout ceci est fait afin de permettre à un petit groupe d'entreprises de contrôler le secteur de l'IA et d'entraver la concurrence en rendant difficile l'entrée de nouveaux acteurs sur le marché.

    Source : billet de blogue

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'analyse de Dana Blankenhorn sur l'AGI ?
    Que pensez-vous des accusations qu'il porte contre Sam Altman d'OpenAI ?
    Pensez-vous qu'il y a un battage médiatique autour de l'IA et de l'hypothétique AGI ?
    ChatGPT est-il à la hauteur de son succès ou cela est-il simplement dû à la surmédiatisation ?
    Que pensez-vous de l'AGI ? Sera-t-elle un jour une réalité ou restera-t-elle insaisissable pour toujours ?

    Voir aussi

    Comment saurons-nous que nous avons atteint une forme d'intelligence générale artificielle ? Pour certains experts en IA, ce sera lorsque la machine aura une cognition de niveau humain

    Comment vous préparez-vous à la probabilité d'un effondrement économique causé par l'AGI ? Certains suggèrent l'achat d'actions technologiques et d'autres pensent que cela n'arrivera pas

    Sam Altman, PDG d'OpenAI, affirme que ChatGPT aurait pu être considéré comme une intelligence générale artificielle il y a 10 ans, il a laissé entendre que le chatbot est victime de l'effet IA

  2. #2
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 917
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 917
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Que pensez-vous de l'analyse de Dana Blankenhorn sur l'AGI ?
    Enfin quelqu'un qui ne fat pas que répéter bêtement ce que les organismes de communication des grands groupes de tech leur servent.
    Son analyse est pertinente, et il a raison: il s'agit juste d'un battage médiatique, et pour ma part, je commence à trouver ça vraiment lassant.

  3. #3
    Membre confirmé Avatar de rsuinux
    Homme Profil pro
    Infirmier Formateur pour logiciel de Dossiers de Soins Informatisés
    Inscrit en
    Août 2007
    Messages
    161
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Haute Vienne (Limousin)

    Informations professionnelles :
    Activité : Infirmier Formateur pour logiciel de Dossiers de Soins Informatisés
    Secteur : Santé

    Informations forums :
    Inscription : Août 2007
    Messages : 161
    Par défaut
    Citation Envoyé par kain_tn Voir le message
    Enfin quelqu'un qui ne fat pas que répéter bêtement ce que les organismes de communication des grands groupes de tech leur servent.
    Son analyse est pertinente, et il a raison: il s'agit juste d'un battage médiatique, et pour ma part, je commence à trouver ça vraiment lassant.
    D'accord avec vous.
    Ce qui me gène plus pour regarder a mon niveau, c'est que même mon directeur de DSI semble se faire avoir par ce discours. C'est lamentable. Et ce doit pas être le seul.

  4. #4
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 645
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 645
    Par défaut
    Citation Envoyé par rsuinux Voir le message
    Ce qui me gène plus pour regarder a mon niveau, c'est que même mon directeur de DSI semble se faire avoir par ce discours. C'est lamentable. Et ce doit pas être le seul.
    J'ai le même sentiment mais ma réponse est aussi simple : mon DSI n'a aucune légitimité à ce poste, mon directeur de la prod est un ingénieur industriel qui y a fait sa carrière, mon directeur financier a fait carrière dans la finance, mon directeur de la comm' a fait sa carrière dans la comm', mon DRH a fait des RH, mon DSI est un expert industriel qui écoute les grands groupes de la tech pour utiliser les bons buzz words et avoir l'air pertinent...

  5. #5
    Membre éclairé Avatar de laloune
    Homme Profil pro
    Consultant en Business Intelligence
    Inscrit en
    Mai 2005
    Messages
    487
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Consultant en Business Intelligence

    Informations forums :
    Inscription : Mai 2005
    Messages : 487
    Par défaut
    Citation Envoyé par rsuinux Voir le message
    Ce qui me gène plus pour regarder a mon niveau, c'est que même mon directeur de DSI semble se faire avoir par ce discours. C'est lamentable. Et ce doit pas être le seul.
    tellement vrai!

    la personne dans ma boite qui tient ce discours me vantait les mérites des NFT il y a 18 mois, pourquoi le metavers était quelque chose d'inexorable, etc...

  6. #6
    Membre chevronné

    Profil pro
    Inscrit en
    Décembre 2010
    Messages
    105
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Décembre 2010
    Messages : 105
    Billets dans le blog
    1
    Par défaut Pascal...
    Tout à fait d'accord. Plutôt que de relayer ces news, relayons Pascal (1623-1662) à propos de sa Pascaline :
    La machine d'arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu'elle a de la volonté, comme les animaux.
    (Pensées diverses IV - 6/23)

    A relayer ad libitum...

  7. #7
    Membre extrêmement actif Avatar de Mister Nono
    Homme Profil pro
    Ingénieur Mathématiques et Informatique
    Inscrit en
    Septembre 2002
    Messages
    2 250
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Ingénieur Mathématiques et Informatique
    Secteur : Santé

    Informations forums :
    Inscription : Septembre 2002
    Messages : 2 250
    Par défaut
    Pauvre monde.

  8. #8
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 655
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 655
    Par défaut Le PDG de Nvidia, Jensen Huang, affirme qu'une percée de l'IA appelée AGI aura lieu d'ici cinq ans
    Le PDG de Nvidia, Jensen Huang, affirme qu'une percée de l'IA appelée AGI aura lieu d'ici cinq ans
    avec des machines "assez compétitives" par rapport à l'homme dans tous les domaines

    Jensen Huang, PDG de Nvidia, affirme que l'industrie atteindra une forme d'intelligence artificielle générale (AGI) d'ici cinq ans. Il a déclaré que d'ici là, l'IA deviendra "assez compétitive" par rapport à l'homme et que le monde assistera à l'émergence de "systèmes d'IA prêts à l'emploi" que les entreprises adopteront et adapteront à leurs besoins, de la conception de puces à la création de logiciels, en passant par la découverte de médicaments et la radiologie. Mais cette prédiction est controversée, des critiques affirmant qu'elle sert seulement à entretenir l'ambigüité et la bulle de l'IA afin de permettre à Nvidia de continuer à gonfler son chiffre d'affaires en vendant des puces d'IA.

    Le PDG de Nvidia a fait une apparition mercredi sur la scène de la conférence DealBook du New York Times et a répondu aux diverses questions du journaliste Andrew Ross Sorkin sur l'IA, et en particulier l'AGI. À la question de savoir s'il pense que l'AGI sera un jour une réalité, Huang a répondu par l'affirmative. Toutefois, il est parti de la définition de l'AGI et a laissé entendre que l'avènement de la technologie dépendra de la définition que le monde lui donne. « En fonction de la définition que vous en donnez, je pense que la réponse est oui », a répondu Huang. Il faut noter qu'il n'existe pas à l'heure actuelle un véritable consensus sur la définition de l'AGI.

    L'absence de consensus sur la question donne lieu à tout un tas de déclarations et de prédiction. Sam Altman, PDG d'OpenAI, n'a pas hésité à déclarer que son chatbot d'IA ChatGPT aurait pu être considéré comme une AGI il y a 10 ans. Il a laissé entendre que le chatbot est victime de l'effet IA. Google DeepMind a décidé récemment de classer ChatGPT d'OpenAI et Bard de Google comme étant des formes d'AGI émergentes. La société a publié un cadre définissant 5 niveaux d'AGI. Les réflexions du PDG de Nvidia sur l'AGI interviennent alors que certains chefs d'entreprise tirent la sonnette d'alarme sur ce qu'ils considèrent personnellement comme de l'AGI.


    Lors de la conférence, Huang a donné sa définition de l'AGI qui se lit comme suit : « un logiciel ou un ordinateur capable de passer des tests reflétant une intelligence de base assez compétitive par rapport à celle d'un être humain normal ». Selon Huang, si l'industrie adopte cette définition, alors l'avènement de l'AGI est imminent. « Je dirais que dans les cinq prochaines années, vous verrez, de toute évidence, des IA capables de réussir ces tests », a-t-il déclaré. Mais Huang ajoute que même si l'IA se développe plus rapidement qu'il ne l'avait prévu, elle n'a pas encore montré de signes qu'elle peut démontrer ou surpasser l'intelligence humaine complexe.

    Huang précise : « il ne fait aucun doute que le taux de progression est élevé. Mais il y a tout un tas de choses que nous ne pouvons pas encore faire. Le raisonnement en plusieurs étapes que les humains maîtrisent très bien, l'IA ne peut pas le faire ». Toutefois, certains critiques ont jugé son point de vue ambigu. D'autres affirment qu'il s'agit d'un nouvel argument marketing de la part du PDG d'une des entreprises les plus en vue du secteur de l'IA. Dans le même temps, certains pensent que son point de vue est plus "modéré", affirmant que Huang tente de trouver un équilibre entre la réalité et un argument marketing pouvant lui permettre de vendre davantage.

    « Je pense que Jensen Huang sait très bien que les modèles d'IA actuels ne sont rien d'autre que des algorithmes avancés d'apprentissage automatique et n'ont rien à voir avec l'intelligence humaine. Dans le même temps, il ne peut pas être plus clair sur la question, car il risque d'anéantir les espoirs de beaucoup de monde et de se tirer une balle dans le pied. Donc, il dit : "nous n'avons pas encore l'AGI. Mais elle sera là d'ici 5 ans. Alors, achetez autant de GPU que possible et formez votre propre truc, pour ne pas être laissé pour compte". Il dira n'importe quoi pour vendre plus de GPU et augmenter le prix des actions de sa société », a déclaré un critique.

    En effet, Nvidia est l'une des entreprises qui profitent le plus de la course effrénée à l'IA. Les puces d'IA de Nvidia sont si populaires que le chiffre d'affaires a triplé au cours du troisième trimestre fiscal de la société. Les activités de Nvidia sont en plein essor en raison de l'augmentation de la demande de ses GPU très puissantes, qui sont nécessaires pour entraîner les grands modèles de langage (LLM) et exécuter de lourdes charges de travail dans des secteurs tels que l'automobile, l'architecture, l'électronique, l'ingénierie et la recherche scientifique. Meta, Microsoft, OpenAI, et d'autres géants de la Tech s'affrontent pour avoir accès à aux GPU de Nvidia.

    Le chiffre d'affaires du troisième trimestre fiscal de Nvidia a triplé, tandis que le bénéfice net a grimpé à 9,24 milliards de dollars, contre 680 millions de dollars un an plus tôt. Dans l'interview, le PDG de Nvidia a rappelé avoir livré "le premier superordinateur d'IA au monde à OpenAI", après qu'Elon Musk a entendu Huang parler de l'appareil lors d'une conférence. Musk a cofondé OpenAI avec Sam Altman et d'autres investisseurs en 2015 avant de l'entreprise en 2018 sous fond de tensions sur la gestion. « Elon l'a vu, et il s'est dit "j'en veux un". Il m'a parlé d'OpenAI. J'ai livré le premier supercalculateur d'IA au monde à OpenAI ce jour-là », précise Huang.

    En ce qui concerne le récent chaos qu'a traversé OpenAI, la structure de son conseil d'administration et l'éviction puis la réintégration du PDG Sam Altman, Huang a déclaré qu'il espérait que les choses se calment. « Je suis heureux que les choses soient réglées, et j'espère qu'elles le seront. C'est une équipe vraiment formidable. Huang. Cela nous rappelle également l'importance de la gouvernance d'entreprise. Nvidia est là 30 ans après sa création, nous avons traversé beaucoup d'adversité. Si nous n'avions pas créé notre entreprise correctement, qui sait ce qu'il serait advenu ? », a-t-il déclaré. Huang a refusé par la suite de classer les succès des entreprises d'IA.

    « Je ne vais pas classer mes amis. Je l'admets, j'en ai envie, mais je ne le ferai pas », a déclaré Huang. Par ailleurs, il a déclaré que malgré les lacunes de l'IA, elle est de plus en plus indispensable dans de nombreux domaines, voire tous les domaines. « Les logiciels ne peuvent pas être écrits sans IA, les puces ne peuvent pas être conçues sans IA, rien n'est possible », a-t-il conclu à propos du potentiel de l'IA. Huang a également déclaré que les puces H-100 que Nvidia livre aujourd'hui ont été conçues avec l'aide d'un certain nombre d'IA. Mais sans définition claire, il est difficile de répondre à cette question savoir le moment où l'AGI sera une réalité.

    Enfin, notons que de nombreuses personnes critiquent vivement ce qu'ils considèrent comme un battage médiatique autour de l'AGI. Cela induirait les consommateurs en erreur. D'après le journaliste technologique Dana Blankenhorn, l'AGI est le mensonge de l'année. Il affirme que la communication intense autour de l'AGI est liée aux visées politiques de certains acteurs importants du secteur de l'IA et à leurs tentatives visant à contrôler entièrement le développement de la technologie. Le journaliste allègue en outre que le but de ces acteurs est d'élever considérablement les barrières à l'entrée de nouveaux acteurs sur le marché.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des prédictions du PDG de Nvidia Jensen Huang ?
    Que pensez-vous de la définition qu'il donne à l'intelligence artificielle générale ?
    Comme lui, avez-vous l'impression que l'IA est devenu indispensable dans tous les domaines ?
    Quelle est votre prédiction sur l'AGI ? Cette technologie est-elle hors de portée ?

    Voir aussi

    Google DeepMind vient de publier une liste de niveaux d'AGI et définir des niveaux de performance, elle suggère des principes tels que se focaliser sur les capacités plutôt que sur les mécanismes

    « L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

    Sam Altman, PDG d'OpenAI, affirme que ChatGPT aurait pu être considéré comme une intelligence générale artificielle il y a 10 ans, il a laissé entendre que le chatbot est victime de l'effet IA

  9. #9
    Membre très actif
    Profil pro
    Inscrit en
    Février 2010
    Messages
    306
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Février 2010
    Messages : 306
    Par défaut c'est super marrant
    On sait que Munsk a lancé ce battage médiatique pour lever des fonds .......

  10. #10
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 655
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 655
    Par défaut Le PDG de Nvidia, Jensen Huang, a déclaré que l'industrie pourrait atteindre une forme d'AGI d'ici à cinq ans
    Le PDG de Nvidia, Jensen Huang, a déclaré que l'industrie pourrait atteindre une forme d'AGI d'ici à cinq ans
    mais précise que ce calendrier dépend de la définition que l'on donne à la technologie

    Le PDG de Nvidia, Jensen Huang, a évoqué une nouvelle fois l'intelligence artificielle générale (AGI) en marge de l'événement GTC de l'entreprise qui a lieu cette semaine. Il a déclaré que l'industrie pourrait atteindre une forme d'AGI d'ici les cinq prochaines années. Mais il a nuancé ses propos en ajoutant que l'atteinte d'une forme d'AGI dépendra de la définition que l'industrie donne à la technologie. Cela suggère que la définition de l'AGI peut ne pas faire l'unanimité et peut changer au fur et à mesure que la technologie se développe. Jensen Huang est également convaincu que l'industrie peut venir facilement à bout des problèmes d'hallucination de l'IA.

    L'intelligence artificielle générale (AGI) est une forme hypothétique d'IA dans laquelle "une machine peut apprendre et penser comme un humain". Pour que cela soit possible, l'AGI devrait avoir une conscience de soi et de son environnement afin de pouvoir résoudre des problèmes, s'adapter à son environnement et effectuer un plus large éventail de tâche. L'on s'attend à ce que l'AGI puisse révolutionner les industries, relever des défis mondiaux complexes et remodeler notre façon de travailler et de vivre. Et la question qui revient le plus souvent est : « quand atteindrons-nous une forme d'intelligence artificielle générale ? »

    S'adressant à la presse cette semaine lors de l'événement annuel Nvidia GTC (GPU Technology Conference), le PDG Jensen Huang a été confronté une nouvelle fois à cette question. Il a semblé se lasser de discuter de ce sujet, car, selon lui, il est souvent mal cité. Huang a toutefois répondu à la question en déclarant dans un premier temps que prédire l'arrivée d'une AGI dépend de la définition que l'on donne à la technologie. L'industrie tente depuis plusieurs années de proposer une définition formelle et complète de l’intelligence, de l’IA et de l’AGI, mais à ce jour aucune des propositions n’est sans problèmes ou controverses.


    Pour illustrer son point de vue, Huang établit quelques parallèles avec des situations de la vie : « même en tenant compte des complications liées aux fuseaux horaires, vous savez le moment où arrive le Nouvel An et le moment où arrive l'année 2025. Si vous vous rendez en voiture au San Jose Convention Center (où se tient cette année la conférence GTC), vous savez généralement que vous êtes arrivé lorsque vous voyez les énormes bannières de la GTC. Donc, l'essentiel est que nous puissions nous mettre d'accord sur la manière de mesurer que vous êtes arrivé, sur le plan temporel ou géospatial là où vous espériez aller ».

    L'homme d'affaires ajouté également : « si nous spécifions que l'AGI est quelque chose de très précis, un ensemble de tests qu'un logiciel peut réussir très bien (ou peut-être 8 % de mieux que la plupart des gens), je pense que nous y arriverons d'ici cinq ans ». Il suggère que les tests pourraient être un examen du barreau, des tests de logique, des tests économiques ou peut-être la capacité à réussir un examen de médecine. À moins que l'auteur de la question ne soit en mesure de préciser la signification de l'AGI dans le contexte de la question, l'homme d'affaires affirme qu'il n'est pas en mesure de faire une prédiction.

    La réponse du PDG de Nvidia à la question relative à l'arrivée de l'AGI contraste avec celle de certains acteurs de l'industrie. Les plus enthousiastes parmi eux affirment même que nous sommes déjà en présence d'une forme d'AGI. La position de Huang se rapproche toutefois de celle d'autres acteurs. Par exemple, le PDG d'OpenAI, Sam Altman, a déclaré l'année dernière que le monde aurait considéré ChatGPT comme une AGI si l'outil d'IA lui avait été présenté dix ans auparavant. Selon lui, les gens ont du mal à considérer ChatGPT comme une AGI en raison de l'absence d'un consensus sur la définition de l'intelligence.

    Altman a laissé entendre que ChatGPT est victime de l'effet IA. L'effet IA est dû au fait que la communauté de l'IA (experts, chercheurs, etc.) a tendance à ajuster ses attentes en matière d'IA à mesure que la technologie progresse et que certaines tâches deviennent courantes. « Aujourd'hui, les gens se disent qu'il s'agit d'un gentil petit chatbot ou autre », a déclaré Altman. Il regrette le fait que les gens banalisent le potentiel de sa technologie en le réduisant à un simple agent conversationnel. En novembre, Google DeepMind a décidé de classer ChatGPT d'OpenAI et Bard de Google comme étant des formes d'AGI émergentes.

    « Nous ne pourrons jamais dire ce qu'est réellement l'AGI si nous continuons à repousser les limites. La technologie peut toujours être améliorée. Qu'est-ce que nous devrions collectivement reconnaître comme étant une AGI, un comportement ou une sensibilité de niveau humain ? Ou bien des connaissances générales sur un large éventail de sujets ? », note un critique. L'effet IA est perceptible tout au long de l'histoire de l'IA. À titre d'exemple, lorsque le programme de jeu d'échecs Deep Blue a vaincu le grand maître des échecs Garry Kasparov en 1997, cette victoire a été saluée comme une réalisation importante de l'IA.

    Mais depuis cette victoire, les programmes d'IA jouant aux échecs sont maintenant communément considérés comme des algorithmes conventionnels plutôt que comme une IA révolutionnaire. Certains experts en IA ont fini par résumé l'effet IA en ces termes : « l'IA est tout ce qui n'a pas encore été fait ». L'effet IA montre à quel point il est difficile de définir l'intelligence et comment le terme est utilisé différemment selon les contextes, comme le comportement ou la cognition. Altman ajoute toutefois : « je pense que c'est une bonne chose que les règles du jeu changent constamment. Cela nous pousse à travailler plus dur ».

    Par ailleurs, lors de l'interview mardi, Huang a également abordé la question des hallucinations des modèles d'IA actuels. Pour rappel, l'hallucination fait référence à la tendance des modèles d'IA à inventer des réponses qui semblent plausibles, mais qui ne sont pas fondées sur des faits. Huang a semblé visiblement frustré par la question, mais a suggéré que les hallucinations pouvaient être résolues facilement, en veillant à ce que les réponses soient bien documentées. « Ajoutez une règle. Pour chaque réponse, vous devez vérifier la réponse », dit-il. Il appelle cette pratique la "génération augmentée par la recherche d'information".

    Telle que décrite par Huang, la génération augmentée par la recherche d'information (retrieval augmented generation - RAG) est une approche très similaire à l'éducation aux médias de base : examiner la source et le contexte. Comparez les faits contenus dans la source à des vérités connues, et si la réponse est inexacte - même partiellement - écartez toute la source et passez à la suivante. « L'IA ne doit pas se contenter de répondre ; elle doit d'abord faire des recherches pour déterminer quelles sont les meilleures réponses », a déclaré Huang.

    Pour les réponses critiques, telles que les conseils de santé ou autres, le PDG de Nvidia suggère de vérifier plusieurs ressources et sources de vérité connues. Bien entendu, cela signifie que le logiciel d'IA qui crée une réponse à une question doit avoir la possibilité de dire "Je ne connais pas la réponse à votre question" ou "Je n'arrive pas à trouver un consensus sur la bonne réponse à cette question".

    Source : Jensen Huang, PDG de Nvidia

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des déclarations du PDG de Nvidia sur l'arrivée de l'AGI ?
    Partagez-vous son avis ? Pensez-vous que nous atteindrons une forme d'AGI d'ici à 5 ans ?
    Selon vous, pourquoi l'industrie est divisée sur la définition de l'intelligence artificielle générale ?

    Voir aussi

    Le PDG de Nvidia, Jensen Huang, affirme qu'une percée de l'IA appelée AGI aura lieu d'ici cinq ans, avec des machines "assez compétitives" par rapport à l'homme dans tous les domaines

    « L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

    Google DeepMind vient de publier une liste de niveaux d'AGI et définir des niveaux de performance, elle suggère des principes tels que se focaliser sur les capacités plutôt que sur les mécanismes

  11. #11
    Membre très actif
    Homme Profil pro
    Ergonome
    Inscrit en
    Octobre 2016
    Messages
    166
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Ergonome
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Octobre 2016
    Messages : 166
    Par défaut
    "Peut-être" 5 ans pour arriver à un objectif "probablement mal défini"... Difficile de faire plus avec moins, ou de l'art d'instiller du positif/négatif sans donner d'information.
    L'IA réseau de neurones est une technologie "à taux d'erreur". Dans certains cas, c'est plutôt utile puisque c'est dans la marge d'erreur qu'on trouve l'imagination.
    Mais ici, on parle de développement de programmes, un métier au périmètre assez flou. Le développeur fixe-t-il lui même les specs de son programme ?
    Mais si le périmètre est obscur, l'écriture du code est, quant à elle, très stricte. Je crains que ce terrain soit à jamais fermé à la technologie des neurones qui excelle par ailleurs dans les domaines ambigüs voire créatifs.
    Ce métier n'est pas exercé de la même manière dans les différentes équipes de développement. Mais à vrai dire, que ce soit dans la conception ou dans la réalisation, je vois difficilement l'IA réussir à coder une application ni à faire une synthèse utile des sources d'information métier.
    Il faudra des gens très bien formés au code pour débugger, modifier, reprendre.
    Plus que jamais , la fable du remplacement des codeurs n'est pas accessible à une technologie quelconque. S'il faut écrire 5000 lignes de prompt pour décrire un projet, il sera plus adéquat de s'en servir comme un outil de synthèse pour chaque unité de code avec écriture finale par l'humain.

    Je crois que le rêve de NVidia ne se réalisera jamais.

  12. #12
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 655
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 655
    Par défaut Sam Altman : « je me fiche de savoir si nous dépensons 50 milliards de dollars par an pour construire l'AGI »
    Sam Altman : « je me fiche de savoir si nous dépensons 50 milliards de dollars par an, nous construisons l'AGI et cela en vaudra la peine »
    ce montant dépasse largement le PIB de certains pays

    Sam Altman, PDG d'OpenAI, affirme qu'il ne se soucie pas du tout des sommes colossales dépensées par son entreprise pour développer des modèles d'IA plus avancés. Il a expliqué que le but est de construire l'intelligence artificielle générale (AGI) et que la fin justifie les moyens. Par conséquent, l'homme d'affaires affirme qu'il se fiche de savoir si la construction de l'AGI va saigner jusqu'à 50 milliards de dollars par an. Il a également déclaré que GPT-4 est la technologie la plus stupide que le monde aura à utiliser. Ce qui laisse suggérer que GPT-5 ne ressemblera en rien aux modèles d'IA précédents d'OpenAI et devrait être une évolution majeure de l'IA générative.

    « Que nous brûlions 500 millions de d dollars, 5 milliards de dollars ou 50 milliards de dollars par an, cela m'est égal. Je m'en fiche vraiment tant que nous pouvons rester sur une trajectoire où nous créons finalement beaucoup plus de valeur pour la société que cela et tant que nous pouvons trouver un moyen de payer les factures. Nous sommes en train de créer l'AGI, et cela va coûter cher, mais cela en vaut vraiment la peine », a déclaré Altman lors d'une récente apparition dans l'émission Stanford eCorner. Cela montre à quel point Altman est prêt à brûler des milliards en courant après une technologie encore hypothétique.

    L'AGI est considérée comme l'objectif final de la recherche sur l'IA, le Saint Graal pour les entreprises d'IA. Il s'agit d'une IA dite "forte" qui devrait être capable de penser au même titre que les humains et de s'attaquer n'importe quelle tâche. L'industrie s'attend à ce que l'AGI soit capable d'effectuer ou d'apprendre pratiquement n'importe quelle tâche cognitive propre aux humains ou autres animaux. Mais bien que l'IA se soit considérablement développée à ce jour, ses capacités restent extrêmement limitées et elle est encore loin d'atteindre l'AGI. Mais encore, il n'existe aucune définition concrète ni consensuelle de l'AGI.


    Ce qui en fait une technologie hypothétique à laquelle chaque personne ou chaque entreprise propose sa propre définition. Malgré cela, l'AGI est l'objet de toutes les convoitises depuis quelques années et attire des dizaines de milliards d'investissements. Microsoft a d'abord injecté un premier milliard dans OpenAI en 2019 dans le cadre d'un partenariat "ambigu" et a considérablement augmenté sa mise l'année dernière. Le montant du nouvel investissement de Microsoft n'est pas révélé, mais certaines sources ont rapporté que la firme de Redmond a plus que décuplé sa mise initiale, renforçant ainsi son partenariat avec OpenAI.

    Les propos d'Altman ont suscité des réactions mitigées, certains critiques défendant l'idée et d'autres affirmant que l'AGI va saigner des dizaines de milliards et qu'en fin de compte, cette quête n'amènera nulle part. D'autres ne comprennent tout simplement pas pourquoi les investisseurs seraient prêts à dépenser de telles sommes d'argent dans la course à l'AGI alors que l'humanité est confrontée à des défis plus urgents. « Ce n'est pas son propre argent, alors il n'a aucune raison de s'en soucier. Par contre, il doit s'inquiéter des problèmes de consommation d'énergie élevée de l'IA et de la pollution qui en découle », note un critique.

    Altman a fait savoir que lorsqu'il a commencé à travailler avec OpenAI, il n'avait pas réalisé qu'ils auraient besoin d'autant d'argent pour le calcul. « Nous ne savions pas que nous allions avoir cette belle activité », a-t-il déclaré, ajoutant que l'objectif de départ était simplement de faire avancer la recherche sur l'IA. Les critiques n'ont pas manqué de lui faire remarquer que le montant de 50 milliards de dollars surpasse largement le PIB de certains pays. Plus tôt cette année, il a été rapporté qu'Altman cherchait des investisseurs pour lever jusqu'à 7 000 milliards de dollars pour remodeler le business des puces destinées à l'IA.

    Cependant, le PDG de Nvidia, Jensen Huang, pense que "ce rêve est complètement loufoque". Il estime que cet argent permettrait d'acheter toutes les entreprises importantes de fabrication de puces, mais que le développement de l'IA ne se limite pas à accumuler de la puissance de calcul. Il pense que le développement de l'IA ne coûterait pas autant que l'argent qu'Altman cherche à réunir. Pour mettre ce chiffre en perspective, cela représente près de 14 fois le revenu total de l'ensemble du marché des semiconducteurs l'année dernière. Mais il convient de noter qu'il s'agit d'une rumeur et qu'Altman ne l'a pas encore commenté.

    Interrogé sur ChatGPT, Altman a répondu que c'était embarrassant. « GPT-4 est le modèle le plus stupide que chacun d'entre vous aura à utiliser », a-t-il ajouté, précisant qu'il est important de livrer tôt et souvent et que l'entreprise croit au déploiement itératif. Plus précisément, il pense qu'il existe des risques dans le fait de livrer une technologie en cours de développement, mais que cela est nécessaire pour convaincre le grand public de son utilité. « Si nous construisons l'AGI au sous-sol, le monde marchera avec les yeux béatement bandés », a-t-il ajouté, précisant que cela ne ferait pas d'OpenAI un bon voisin. Altman a expliqué :

    Citation Envoyé par Sam Altman

    Je pense donc qu'il est important, compte tenu de ce que nous croyons qu'il va se passer, d'exprimer notre point de vue sur ce que nous croyons qu'il va se passer. Mais plus que cela, la façon de procéder est de mettre le produit entre les mains des gens et de laisser la société "coévoluer" avec la technologie. Laissons la société nous dire ce qu'elle attend collectivement et individuellement de la technologie. Comment la produire de manière à ce qu'elle soit utile...

    Là où le modèle fonctionne très bien, où il ne fonctionne pas très bien. Donner à nos dirigeants et à nos institutions le temps de réagir. Donner aux gens le temps de comprendre comment l'intégrer dans leur vie, d'apprendre à utiliser l'outil. Je suis sûr que certains d'entre vous trichent sur leurs devoirs avec cet outil, mais certains d'entre vous font probablement des choses très étonnantes et merveilleuses avec lui aussi.

    Et au fur et à mesure des générations, je pense que cela va s'étendre et cela signifie que nous expédions des produits imparfaits, mais nous avons une boucle de rétroaction très serrée et nous apprenons et nous nous améliorons. Cela craint un peu de livrer un produit dont on est gêné, mais c'est bien mieux que l'autre solution.

    Et dans ce cas en particulier, où je pense que nous devons vraiment à la société un déploiement itératif, une chose que nous avons apprise est que l'IA et la surprise ne vont pas bien ensemble. Les gens ne veulent pas être surpris. Les gens veulent un déploiement progressif et la possibilité d'influencer ces systèmes. C'est ainsi que nous allons procéder...

    Et il pourrait tout à fait y avoir des choses à l'avenir qui changeraient et qui nous feraient penser que le déploiement itératif n'est pas une si bonne stratégie. Mais c'est la meilleure approche que nous ayons actuellement. Et je pense que nous avons beaucoup gagné en faisant cela. Et, vous savez, j'espère que le monde entier a aussi gagné quelque chose.
    Altman a également ajouté que GPT-5 sera beaucoup plus intelligent que GPT-4 et que GPT-6 sera plus intelligent que le GPT-5. « Nous sommes loin d'avoir atteint le sommet de cette courbe... et elle va toujours s'améliorer », a-t-il ajouté. Lors du Sommet mondial des gouvernements (WGS) à Dubaï en février, Altman a déclaré que "GPT-5 sera plus intelligent, plus rapide, plus polyvalent et meilleur dans toutes les tâches que GPT-4". Plus récemment, il a assuré que GPT-5 fera un bond en avant en matière de capacité de raisonnement. En attendant, le modèle d'IA Claude 3 d'Anthropic est le nouveau leader du marché.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du montant qu'Altman se dit prêt à brûler par an dans la course à l'AGI ?
    Pourquoi l'AGI suscite-t-il autant de convoitises ? Cette technologie sera-t-elle un jour une réalité ?
    Pourquoi le secteur de l'IA attire-t-elle aujourd'hui autant d'investissements ?

    Voir aussi

    L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI), un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

    Le PDG d'OpenAI, Sam Altman, affirme que l'IA de niveau humain est imminente, mais qu'elle ne changera pas le monde autant que nous le pensons et que les craintes autour de l'AGI sont exagérées

    Le PDG de Nvidia estime que le rêve de Sam Altman visant à lever 7 000 milliards de dollars pour fabriquer ses propres puces d'IA est très éloigné de la réalité, le projet suscite le scepticisme

  13. #13
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 917
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 917
    Par défaut
    Nom : violin_playing.jpg
Affichages : 43668
Taille : 479,8 Ko

  14. #14
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    516
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 516
    Par défaut Altman, il me fait penser à quelqu'un d'autre...
    C'est fou ce qui se passe en se moment. Il y a certainement quelque chose qui se trame dernière tous ça. Faire dépenser l'argent des autres, cela semble le jeu du moment. Mais qui sont les investisseurs derrière tout ceci ? Qui a les moyens d'investir de la sorte ?

    Le monde s'éloigne de plus en plus de la réalité. Tous les pays sont endettés jusqu'au cou, mais qui "doit" combien et à "qui", je ne trouve pas l'info. L'économie mondial ressemble de plus en plus à un montage style système de Ponzi. Le capitalisme semble s'emballer dangereusement. Il n'est basé que sur la confiance. Si cette dernière s'écroule, c'est tout qui s'écroule. Et j'ai bien peur que cela finisse par arriver. Perso, je pense que le problème n'est pas de savoir "Si" ça va arriver, mais "Quand" cela va arriver.

    Quand tout n'est plus basé que sur de la spéculation, et pas sur du concret, c'est inévitable.

    Mais pour rester plus "terre à terre", quelles sont les compétences de ce Monsieur Altman ? Quel crédit donner à ses propos ? Connaît il seulement de quoi il parle ? De ce que j'ai compris, c'est juste un (très bon) vendeur. Mais même le meilleur des vendeurs ne peut pas vendre éternellement ce qui n'existe pas. Il faut avoir un sacré culot (et ego), pour se permettre de dire ce qu'il raconte. ChatGPT 4, c'est moins que rien dit-il, mais ChatGPT 5 ça sera de la balle, mais ce ne sera rien par rapport à ChatGPT 6. On peut aller loin comme ça. Je suis certains que ChatGPT 9672 se meilleur que ChatGPT 9671. Mais est-ce ça sera une AGI ? J'ai bien peur que non. Il faut être fou pour croire un seul instant que cela ne se terminera pas (très) mal.

    De quoi parle-t-on ? Qui sait ne fusse que définir ce qu'est sensé être une AGI ? J'en suis incapable, mais si quelqu'un ici peut m'expliquer, je suis preneur. Mais bon, je me lance, avec mes faibles connaissance de petit humain que je suis. Si on veut accorder rien qu'un peu de crédibilité à la chose, il faut admettre qu'une AGI serait capable d'évoluer au moins au niveau d'un être humain. Quand on voit ce que l'humanité a fait, "l'AGI" ne pourra pas faire "mieux", ni "pire". Elle est juste bombardée d'informations existantes (vrai ou fausse), et tente de triturer ces "informations" pour donner réponde à une question. Je ne vois rien ressemblant à "l'intelligence humaine" (qu'on a déjà du mal a définir). L'AGI ne "pensera pas". Et Qu'est-ce que la pensée au fait ? Comment une "idée" vient-elle titiller notre "esprit" ? Pourquoi certains génies comme Einstein ont-ils "pensé" et "développé" leurs "idées/pensée" ?

    Et puis, je pense que tout le monde sera d'accord pour dire que tous les "cerveaux" humains ne se valent pas. Le mien n'atteint pas la cheville, que dis-je, le bout de l'orteil, de celui des grands chercheurs des siècles passés. S'il n'y a pas deux cerveaux les même en ce bas monde, comment croire qu'une "AGI" serait "unique", "omnisciente", et capable d'avoir réponse à toute question ? Répondre correctement à des questions dont l'humanité a déjà la réponse, je ne vois pas où est le progrès ?

    Le propre de l'homme, c'est son "esprit" de découverte, d'exploration, d'expérimentation, de conclusion. Et même dans ce cas, il faut admettre que l'homme ne progresse que par "tâtonnement", une "théorie" ne restant correcte et établie que jusqu'à preuve du contraire.

    Si vous avez lu toute ma petite prose, il n'y a pas énormément de possibilités de conclure. Soit tous ces "devins" sont des Einsteins en culotte courte, ou des arnaqueurs "en col blanc".

    Je me suis fais mon idée, chacun étant libre de choisir la sienne.

    BàV et "Peace & Love"

  15. #15
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 645
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 645
    Par défaut
    Citation Envoyé par OuftiBoy Voir le message
    Il n'est basé que sur la confiance. Si cette dernière s'écroule, c'est tout qui s'écroule.
    Je m'y connais assez mal mais n'est on pas arrivé au moment où ce n'est plus une question de confiance mais de survie, si la machine s'arrête on perd tout donc on fait tout pour qu'elle se maintienne coute que coute?
    Comment peut on brasser autant d'argent sur pas grand chose de concret? Certains me reprochent de ne pas m'intéresser à la bourse mais quand on me parle d'une petite boite qui veut monter en force de frappe je comprends quand on parle de millions voir milliards d'euros tout devient instantanément vachement abstrait pour moi et me donne l'impression d'être le petit poisson qui va se faire manger par le gros.

  16. #16
    Expert confirmé
    Avatar de Kannagi
    Homme Profil pro
    cyber-paléontologue
    Inscrit en
    Mai 2010
    Messages
    3 226
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : cyber-paléontologue

    Informations forums :
    Inscription : Mai 2010
    Messages : 3 226
    Par défaut
    Citation Envoyé par Artemus24 Voir le message
    A l'heure actuelle, je crois qu'il y a un grosse confusion entre une IA et un automate. Ce n'est pas parce qu'il y a un programme qui semble raisonner et répondre à des spécificité que cela soit de l'IA. Une vrai IA, selon moi, est ce que l'on nomme AGI (Artificial General Intelligence) et devrait a priori fonctionner comme l'intelligence d'un être humain. C'est-à-dire apprendre et être capable de raisonner, de se souvenir et de ressentir, d'avoir conscience de soi-même et d'être capable d'éprouver des émotions. Je précise, pas de les simuler ! Je ne crois pas que cela soit possible car l'homme est bien plus que sa capacité à raisonner.
    Citation Envoyé par OuftiBoy Voir le message
    De quoi parle-t-on ? Qui sait ne fusse que définir ce qu'est sensé être une AGI ? J'en suis incapable, mais si quelqu'un ici peut m'expliquer, je suis preneur.
    Je répond à vous deux vu que ça semble la même question.
    Parce que de mon coté j'ai passé pas mal de mois a lire pas mal de chose à ce sujet, et ma conclusion est que l'AGI est une fable , elle se base sur une supposition (le fonctionnalisme) qui est tout sauf scientifique.
    C'est une théorie de l'esprit philosophique que tout le monde connaît : un ordinateur peut créer une conscience , grosso modo , alors cette conclusion à du sens (que je ne détaillerai pas ici pourquoi) mais la conclusion est problématique.

    Mais c'est là tout le soucis c'est impossible , parce que les algorithmes ne produise rien, elle ne crée aucun phénomene , et supposer que le bon algo créer de la conscience relève de la magie.
    C'est comme supposer que refaire les calcul du trou noir ,vous permettrait de créer un trou noir et que vous ,votre chambre et le reste soit aspirer dedans vu sa forte gravité

    L'autre soucis affirmer qu'un algo peut créer la conscience est pseudo scientifique, pour la simple raison qu'il n y'a pas de réfutabilité possible (il existera toujours un algo possible à tester ).

  17. #17
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 645
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 645
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Sam Altman, PDG d'OpenAI, affirme qu'il ne se soucie pas du tout des sommes colossales dépensées par son entreprise pour développer des modèles d'IA plus avancés.
    Cette phrase ne devrait elle pas faire instantanément fuir tout financeur?
    Il affirme qu'il est OK pour bruler de l'argent

  18. #18
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 725
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 725
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    « Que nous brûlions 500 millions de d dollars, 5 milliards de dollars ou 50 milliards de dollars par an, cela m'est égal. Je m'en fiche vraiment tant que nous pouvons rester sur une trajectoire où nous créons finalement beaucoup plus de valeur pour la société que cela et tant que nous pouvons trouver un moyen de payer les factures. Nous sommes en train de créer l'AGI, et cela va coûter cher, mais cela en vaut vraiment la peine », a déclaré Altman lors d'une récente apparition dans l'émission Stanford eCorner. Cela montre à quel point Altman est prêt brûler des milliards en courant après une technologie encore hypothétique.
    C'est normal qu'il dise ça.
    Le gars est persuadé que son entreprise va atteindre l'intelligence artificielle générale. (ou il veut faire le croire)

    En gros il dit "Peu importe combien ça va couter, nous allons atteindre notre objectif et ça va être rentable, notre système va changer le monde".
    L'alternative ce serait de dire "Je ne sais pas si nous allons y arriver, on ne sait même pas si c'est possible, donc on va essayer d'y aller mollo sur les dépenses, au cas où nous serions en train de faire de la recherche et du développement pour rien".

    Citation Envoyé par Mathis Lucas Voir le message
    Il a également déclaré que GPT-4 est la technologie la plus stupide que le monde aura à utiliser.
    C'est pas mal de dire ça.
    Quelque part ça coupe l'herbe sous le pied des gens qui ne sont pas convaincus par les performances de GPT-4.
    Il sous entend que les prochaines versions seront beaucoup plus performantes.

    Citation Envoyé par Anthony Voir le message
    Dans une dizaine d'années, les capacités de calcul des systèmes d'IA seront un million de fois supérieures à ce qu'elles sont aujourd'hui. Les systèmes générant synthétiquement des données auront une plus grande capacité à apprendre, à déduire et à imaginer en permanence.
    Peut-être que la capacité à apprendre, à déduire, à imaginer des systèmes générant synthétiquement des données est quasi nulle.
    Du coup 1 000 000 de fois quelque chose très proche de 0, c'est peut-être possible

    Est-ce qu'on peut mesurer une capacité à imaginer ou une capacité à déduire ?

  19. #19
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 917
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 917
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    En gros il dit "Peu importe combien ça va couter, nous allons atteindre notre objectif et ça va être rentable, notre système va changer le monde".
    L'alternative ce serait de dire "Je ne sais pas si nous allons y arriver, on ne sait même pas si c'est possible, donc on va essayer d'y aller mollo sur les dépenses, au cas où nous serions en train de faire de la recherche et du développement pour rien".
    Ouais, sauf que s'il dit la seconde phrase, ses investisseurs ne lui donnent pas d'argent. Donc il doit les pipoter le plus possible pour s'enrichir.

  20. #20
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 655
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 655
    Par défaut Des travailleurs dans le domaine de l'IA se prépareraient à l'arrivée de "dieux numériques" en 2027
    « Les membres du personnel des laboratoires secrets de pointe planifient sérieusement leur vie en fonction de l'existence de "dieux numériques" en 2027 »
    selon un doctorant en sciences de l'information

    De nombreux chercheurs en IA prédisent l'arrivée imminente d'une IA avec des capacités supérieures à celles des humains. Leopold Aschenbrenner, ancien chercheur en sécurité de l'équipe Superalignment d'OpenAI, affirme qu'il est tout à fait plausible que d'ici 2027, des modèles soient capables de faire le travail d'un chercheur ou d'un ingénieur en IA. Sam Altman, PDG d'OpenAI, et Dario Amodei, PDG d'Anthropic, ont également fait allusion à ce calendrier. Cependant, les limites actuelles de l'IA jettent un sérieux doute sur ce calendrier et d'autres pionniers de l'IA, tels que Yann LeCun, affirment que l'AGI ne sera pas l'œuvre des modèles de langage actuels.

    Des spécialistes en IA se prépareraient à l'arrivée de "dieux numériques" en 2027

    Quand l'IA sera-t-elle assez intelligente pour surpasser l'homme ? D'une certaine manière, certains experts en IA expliquent que c'est déjà le cas. À d'autres égards, cela dépend de la définition que vous donnez à l'expression "être plus intelligent". L'AGI représente un grand pas en avant par rapport à l'IA actuelle. Contrairement à l'IA actuelle (dite faible), qui se limite souvent à des tâches spécifiques, l'AGI (dite forte) sera capable de comprendre, d'apprendre et d'appliquer ses connaissances à un large éventail de tâches. Et des avancées majeures ont été réalisées dans le domaine de l'IA au cours de ces dernières années.

    Tablant sur de nouvelles avancées majeures dans les années à venir, des acteurs de l'industrie tels que Sam Altman, PDG d'OpenAI, et Dario Amodei, PDG d'Anthropic, Demis Hassabis, PDG de Google DeepMind, affirment que l'AGI est possible dans "quelques années seulement". Les travaux de recherche et de développement d'OpenAI et de ses rivaux repoussent les limites de ce que l'IA peut faire. Les employés d'OpenAI sont confiants dans leur horizon temporel basé sur les avancées actuelles. Nombre de ces dirigeants de la technologie sont très optimistes et s'attendent au développement d'une forme d'AGI d'ici à 2027.

    Alors que ces dirigeants tentent de prédire tant bien que mal l'arrivée de l'AGI, James Campbell, doctorant à l'université Carnegie Mellon (CMU), a récemment évoqué l'arrivée imminente, d'ici à 2027, de modèles superintelligents comparables à "des dieux numériques". Il a déclaré que les membres du personnel des entreprises d'IA les plus avancées se préparent déjà à l'arrivée d'une superintelligence. Dans un billet sur X (ex-Twitter), Campbell a déclaré :


    Je suis tout à fait d'accord pour que chacun se fasse sa propre idée de l'AGI et de ce qu'il faut faire pour y parvenir, mais la charge de la preuve vous incombe lorsque la plupart des membres du personnel des laboratoires secrets de pointe planifient sérieusement leur vie en fonction de l'existence de dieux numériques en 2027.

    Compte tenu de ce que disent les experts, je pense qu'il est raisonnable de dire par défaut que l'AGI sera disponible dans quelques années et d'actualiser cette estimation au fur et à mesure que l'on se forge sa propre opinion.
    Cependant, cette déclaration fait l'objet de controverses, les critiques affirmant qu'il ne s'agit que d'un battage médiatique. « C'est un argument peu convaincant, du battage médiatique. Je me souviens qu'en 2018, tous les experts nous disaient que les voitures entièrement autonomes seraient un problème résolu et commenceraient à être produites en masse avant 2020. Aujourd'hui, en 2024, nous n'y sommes toujours pas et les estimations sont maintenant plus proches de 2030. Et les voitures à conduite autonome semblent un problème plus facile à résoudre qu'une superintelligence », peut-on lire dans les commentaires.

    « On pourrait penser qu'un étudiant entrant à la CMU comprendrait des notions simples comme "l'argument d'autorité" et "la charge de la preuve incombe au croyant", en particulier lorsque les personnes qui crient le plus fort à ce sujet s'apprêtent à faire fortune en faisant croire à d'autres personnes qu'elles sont dignes de confiance. », a écrit un critique. Un autre souligne : « pensez à l'effet papillon (la théorie populaire plutôt que la réalité). Vous pouvez envisager des résultats terribles bien avant qu'ils n'arrivent. Le fait d'avoir peur de ce qui va arriver ne signifie pas que c'est en train d'arriver maintenant/imminemment ».

    « C'est une mise en accusation de l'ensemble du système éducatif que d'être un étudiant en doctorat lorsque vous placez la charge de la preuve sur la mauvaise partie. Ce sont les auteurs des affirmations qui doivent fournir des preuves, et non ceux qui les critiquent. Réfléchissez de manière critique à la partie qui a une incitation financière à mentir », lit-on dans les commentaires. Selon les critiques, cette prédiction relève plus de la science-fiction que la réalité.

    Les limites actuelles de l'IA remettent en cause les prédictions sur l'arrivée de l'AGI

    Lors de son discours de clôture de l'événement "Beneficial AGI Summit" de cette année au Panama, Ben Goertzel, mathématicien et chercheur américain en IA, a déclaré que même si l'homme ne construira probablement pas d'IA de niveau humain ou surhumain avant 2029 ou 2030, il y a une chance que cela se produise dès 2027. Il a ajouté que l'AGI pourrait évoluer rapidement vers une superintelligence artificielle (ASI), qu'il définit comme une IA dotée de toutes les connaissances combinées de la civilisation humaine. Le discours de Goertzel semble toutefois alambiqué. Il a notamment été fortement critiqué par la suite.

    Goertzel a déclaré : « personne n'a encore créé d'intelligence artificielle générale de niveau humain ; personne ne sait vraiment quand nous y parviendrons. Je veux dire qu'il y a des inconnues connues et probablement des inconnues inconnues. D'un autre côté, il me semble tout à fait plausible que nous puissions parvenir à une IAG de niveau humain d'ici, disons, les 3 à 8 prochaines années ». Goertzel est loin d'être le seul à tenter de prédire quand l'AGI verra le jour. Mais ce calendrier audacieux se heurte à plusieurs défis, et des experts pensent qu'il n'est pas certain que l'industrie arrive à tous les surmonter de sitôt.

    L'un de ces défis est le mur de données : les sources de données pour la formation des modèles commencent à manquer. Cela pourrait signifier que, très bientôt, l'approche naïve consistant à préentraîner des modèles plus grands sur des données plus volumineuses pourrait commencer à se heurter à de sérieux goulets d'étranglement. En outre, Jeffrey Funk, professeur à la retraite et consultant sur les nouvelles technologies, souligne que les entreprises d'IA ont dépensé d'énormes sommes d'argent pour lutter contre les hallucinations (lorsque les systèmes d'IA inventent des faits), mais n'ont pas résolu le problème.

    Il explique : « les revenus ne sont pas encore là et ne viendront peut-être jamais. Les valorisations anticipent des marchés de plusieurs milliards de dollars, mais les revenus actuels de l'IA générative se chiffrent, selon les rumeurs, à quelques centaines de millions. Ces revenus pourraient réellement être multipliés par 1000, mais il s'agit là d'une hypothèse très spéculative. Nous ne devrions pas nous contenter de le supposer ». Funk prévient également que le rythme de l'innovation dans le domaine de l'IA générative semble ralentir. Il a cité de nombreux facteurs qui sont à l'origine du ralentissement de l'innovation.

    Il a déclaré : « pensez aux PC ou à l'iPhone. Les premières années ont été marquées par d'importantes améliorations des performances du système, qui ont diminué au fil du temps malgré des améliorations annuelles de 40 % du rapport performance/prix de la mémoire et des puces de processeur ». Dans le même temps, la loi de Moore s'étant considérablement ralentie au cours des 5 à 10 dernières années, les fabricants de puces ne peuvent en attendre beaucoup plus, et ceux qui s'inquiètent de la grande consommation d'énergie de l'IA générative ne manqueront pas de faire pression en faveur d'une réglementation stricte.

    L'AGI ne sera pas uniquement l'œuvre des grands modèles de langage actuels

    Les chercheurs de Meta pensent qu'une AGI ne sera pas possible tant que l'IA ne sera pas dotée d'un corps physique. Il s'agit de l'hypothèse de l'IA incarnée. Selon cette approche, une IA de niveau humain ne peut émerger que si elle est capable de sentir et de naviguer dans un environnement physique, comme le font les bébés. À travers ce corps, l'IA peut interagir avec le monde physique et en tirer des enseignements. Cette hypothèse suscite de nombreuses discussions et pousse plusieurs investisseurs et entreprises à investir massivement dans les entreprises qui fabriquent des robots humanoïdes à usage général.

    Yann LeCun, lauréat du prix Turing et responsable de l'IA chez Meta, affirme que l'AGI est inéluctable, mais qu'elle n'arrivera pas d'ici à un an. Il a également déclaré que l'AGI n'émanera pas des grands modèles de langage (LLM) actuels, bien qu'ils puissent en constituer une composante. Selon lui, ces modèles ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique.

    « Il s'agit de quatre caractéristiques essentielles de l'intelligence humaine - et de l'intelligence animale, d'ailleurs - que les systèmes d'IA actuels ne peuvent pas réaliser », explique-t-il. D'après LeCun, sans ces capacités, les applications de l'IA restent limitées et sujettes aux erreurs. Les véhicules autonomes ne sont toujours pas sûrs sur les routes publiques. Les robots domestiques se débattent avec les tâches ménagères de base. Nos assistants intelligents ne peuvent accomplir que des tâches élémentaires. Ces lacunes intellectuelles sont particulièrement évidentes dans les LLM qui propulsent actuellement l'IA.

    Selon LeCun, les LLM sont limités par leur dépendance à l'égard d'une forme de connaissance humaine : le texte. « Nous sommes facilement amenés à penser qu'ils sont intelligents en raison de leur maîtrise du langage, mais en réalité, leur compréhension de la réalité est très superficielle. Ils sont utiles, cela ne fait aucun doute. Mais sur le chemin qui mène à une intelligence de niveau humain, un LLM est essentiellement une rampe de sortie, une distraction, un cul-de-sac », a-t-il déclaré. En gros, LeCun estime que les LLM ne sont qu'un début et qu'une nouvelle approche est nécessaire pour atteindre l'AGI.

    Par ailleurs, le matériel nécessaire à l'AGI est encore en cours de développement. La puissance de calcul requise est immense. Toutefois, les experts estiment que les progrès dans ce domaine sont rapides. Ces progrès sont essentiels pour que l'AGI devienne une réalité.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Pensez-vous qu'une forme de superintelligence surpassant l'homme arrivera d'ici à 2027 ?
    Cette prédiction est-elle réaliste au regard de l'état actuel de la technologie ?
    Selon vous, pourquoi le domaine de l'IA est-il sujet à un battage médiatique aussi intense ?
    L'humanité doit-elle se préparer à l'arrivée d'une AGI ? Si oui, quelles sont les dispositions à prendre selon vous ?

    Voir aussi

    « L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

    Dario Amodei, PDG d'Anthropic, affirme que la formation des modèles d'IA coûtera jusqu'à 100 milliards de dollars d'ici 2027 et qu'ils seront "meilleurs que la plupart des humains pour la plupart des choses"

    Shane Legg, cofondateur de Google DeepMind, est convaincu depuis 2009 qu'il y a 50 % de chances de parvenir à l'intelligence artificielle générale d'ici à 2028 et maintient cette conviction à date

Discussions similaires

  1. Réponses: 1
    Dernier message: 27/06/2024, 04h22
  2. Réponses: 7
    Dernier message: 27/07/2007, 13h34
  3. pour que les < se comportent comme des " (include)
    Par hpavavar dans le forum Visual C++
    Réponses: 4
    Dernier message: 07/05/2007, 10h46
  4. Réponses: 6
    Dernier message: 16/01/2007, 22h34

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo