IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

James Betker d'OpenAI prévoit un agent incarné intelligent en trois ans

  1. #81
    Membre chevronné Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    1 950
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 1 950
    Points : 2 067
    Points
    2 067
    Par défaut
    Citation Envoyé par Bruno Voir le message
    Partagez-vous l'avis de agüera et Norvig qui estiment que l’intelligence artificielle générale est déjà présente ?
    Non, ChatGPT qui est cité en exemple est un moulin à parole qui dit répond coûte que coûte quelquechose en piochant dans une montagne de données, il n'a pas la moindre intelligence.
    Citation Envoyé par Bruno Voir le message
    Croyez-vous en l'existence de l'intelligence artificielle de niveau humain (AGI) ?
    aujourd'hui on en est loin mais pourquoi n'arriverait on pas à reproduire ce que la nature a su faire ? Le problème c'est pourquoi nous copier alors qu'on est déjà fort nombreux avec un sens à la vie à préserver ?
    Citation Envoyé par Bruno Voir le message
    Quels sont selon vous les avantages et les inconvénients de l'AGI ?
    L'avantage : aucun pour l'humanité, ce n'est qu'un défi grisant pour les concepteur et un marché potentiel pour d'autres
    Inconvénient : un boulet sociétal pour l'immense majorité des vrais humains. C'est un truc qui s'oppose au sens même de la vie

    Citation Envoyé par Bruno Voir le message
    Est-ce que vous pensez que le débat sur l’existence de l’AGI devrait être remplacé par une réflexion sur son intérêt et son utilisation juste et équitable ?
    Évidement pour les mêmes raisons. On ne pourra pas empêcher des bricoleurs en manque de défit de le faire, on pourra tous se réjouir de l'exploit mais on sera à ce moment là encore plus nombreux et avec encore moins de besoin à être remplacés, il est donc urgent de contrôler ce truc inutile avant qu'il n'y ait de dommages sociétaux.
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  2. #82
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    652
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 652
    Points : 11 861
    Points
    11 861
    Par défaut Ilya Sutskever, directeur scientifique d'OpenAI, parle de l'avenir de l'IA et affirme que l'AGI sera atteinte
    Ilya Sutskever, directeur scientifique d'OpenAI, sur l'avenir de l'IA : « ce sera monumental, bouleversant. Il y aura un avant et un après »
    il prédit l'arrivée d'une "superintelligence numérique"

    Ilya Sutskever, cofondateur et directeur scientifique d'OpenAI, a déclaré dans une récente interview que ChatGPT est une technologie bien plus puissante qu'un simple argent conversationnel. Il estime qu'il se peut que ChatGPT et d'autres modèles d'IA soient légèrement conscients et invite le monde à s'intéresser davantage à ChatGPT qui, selon lui, a déjà réécrit les attentes de beaucoup de gens sur ce qui va arriver. Selon lui, l'IA évoluera à tel point où certains humains choisiront un jour de fusionner avec les machines. Et alors que l'IA semble se redéfinir après chaque évolution, le directeur scientifique d'OpenAI affirme que l'on atteindra un jour l'intelligence générale artificielle (AGI).

    Ilya Sutskever estime que ChatGPT a redéfini l'agenda de l'ensemble du secteur de l'IA

    L'on peut affirmer sans se tromper qu'OpenAI mène la danse dans la course à l'IA. Le succès sans précédent du chatbot d'IA ChatGPT a propulsé OpenAI sur le devant de la scène et ses produits d'IA sont parmi les plus populaires, ce qui a permis à la startup d'IA fondée en 2015 d'approcher une valorisation de 80 milliards de dollars. Lors d'une récente interview, Ilya Sutskever, cofondateur et directeur scientifique d'OpenAI, a déclaré que ChatGPT a permis au secteur de l'IA de faire un grand bond en avant. Beaucoup moins connu du grand public que Sam Altman et Elon Musk, il a donné lors de l'interview son point de vue sur l'avenir de l'IA et de ChatGPT.


    Comme Sam Altman, PDG d'OpenAI, Sutskever est persuadé que l'industrie atteindra dans un avenir pas si lointain une forme d'AGI. « Il est important de parler de la direction que tout cela prend. À un moment donné, nous aurons vraiment l'AGI. Peut-être qu'OpenAI la construira. Peut-être qu'une autre entreprise la construira », a-t-il déclaré. Lorsqu'il a été interrogé sur les risques et opportunités qu'il entrevoit, Sutskever a répondu : « ce sera monumental, bouleversant. Il y aura un avant et un après ». Il a déclaré que lors du lancement de ChatGPT, OpenAI craignait que le chatbot n'intéresse pas le public, mais c'est le contraire qui s'est finalement produit.

    Sutskever a expliqué : « je vais l'admettre. À mon grand embarras - je ne sais pas si je devrais, mais bon sang, c'est vrai -, lorsque nous avons créé ChatGPT, je ne savais pas s'il était bon. Lorsque vous lui posiez une question factuelle, il vous donnait une mauvaise réponse. Je pensais que ce serait si peu impressionnant que les gens diraient : "pourquoi faites-vous cela ? C'est tellement ennuyeux" ». Mais ce chatbot semble avoir redéfini l'agenda de l'ensemble du secteur. « C'est la commodité qui a attiré l'attention », a-t-il ajouté. Sutskever a déclaré lors de l'interview qu'après le succès de ChatGPT, l'AGI avait cessé d'être un gros dans l'industrie.

    « Cela a été un grand changement. Historiquement, l'attitude des gens était la suivante : l'IA ne fonctionne pas, chaque étape est difficile, il faut se battre pour chaque once de progrès. Et lorsque les gens faisaient de grandes déclarations sur l'AGI, les chercheurs disaient : "de quoi parlez-vous ? Cela ne fonctionne pas. Il y a trop de problèmes". Mais avec ChatGPT, les choses ont commencé à changer. Il a permis aux chercheurs en apprentissage automatique de rêver. Nous avons maintenant des gens qui parlent de l'étendue de l'IA, des gens qui parlent d'AGI, ou de superintelligence. Tout le monde en parle. C'est complètement fou », a-t-il déclaré.

    Sutskever insiste sur le fait que toutes ces discussions sur une technologie qui n'existe pas encore (et qui n'existera peut-être jamais) sont une bonne chose, car elles permettent de sensibiliser davantage de gens à un avenir qu'il considère déjà comme acquis. « On peut faire tellement de choses incroyables avec l'AGI : automatiser les soins de santé, les rendre mille fois moins chers et mille fois meilleurs, guérir tant de maladies, résoudre le problème du réchauffement de la planète », déclare-t-il. Malgré ce qu'il dit, l'AGI reste l'une des idées les plus controversées dans ce domaine. Rares sont ceux qui considèrent son développement comme acquis.

    De nombreux chercheurs pensent que des avancées conceptuelles majeures sont nécessaires avant de voir ce que Sutskever a en tête ; et certains pensent que nous ne le verrons jamais. La communauté de l'IA est divisée sur la question et la notion même d'intelligence ne fait pas l'objet d'un consensus.

    Sutskever affirme qu'il se peut que les modèles de langage soient légèrement conscients

    Israélo-canadien, Sutskever est né en Russie soviétique, mais a grandi à Jérusalem dès l'âge de cinq ans (il parle toujours le russe et l'hébreu, ainsi que l'anglais). Il a ensuite déménagé au Canada pour étudier à l'université de Toronto avec Geoffrey Hinton, pionnier de l'IA et prix Turing 2018, qui a fait part de ses craintes concernant la technologie qu'il a contribué lui-même à créer au début des années 80. Lors de l'interview, Sutskever n'a pas commenté les déclarations de Hinton, mais le fait qu'il s'intéresse désormais aux formes d'IA malveillantes laisse penser qu'ils sont sur la même longueur d'onde. Sutskever a toutefois déclaré à propos de l'AGI :


    « Nombreux sont ceux qui s'inquiètent : "mon Dieu, les entreprises d'IA réussiront-elles à gérer cette formidable technologie ?" ». Sutskever a défini l'AGI comme suit : « l'AGI n'est pas un terme scientifique. Il s'agit d'un seuil utile, d'un point de référence. C'est le moment où l'IA est si intelligente que si une personne peut accomplir une tâche, l'IA peut aussi le faire. À ce moment-là, on peut dire qu'il y a une IAG ». En février de l'année dernière, Sutskever a laissé entendre sur son compte Twitter (aujourd'hui X) qu'il se peut que les grands réseaux neuronaux d'aujourd'hui soient légèrement conscients. Cependant, il a rapidement fait l'objet de critiques.

    Par exemple, Murray Shanahan, scientifique principal chez Google DeepMind et professeur à l'Imperial College de Londres, a répondu : « dans le même sens qu'il se peut qu'un grand champ de blé soit légèrement composé de pâtes ». Lors de l'interview, Sutskever a essayé d'expliquer son propos en se référant au concept de cerveau de Boltzmann. Il s'agit en effet d'une expérience de pensée en mécanique quantique (nommée d'après le physicien du XIXe siècle Ludwig Boltzmann) dans laquelle des fluctuations thermodynamiques aléatoires dans l'univers sont imaginées comme étant à l'origine de l'apparition et de la disparition de cerveaux.

    « J'ai l'impression qu'à l'heure actuelle, ces modèles de langage sont un peu comme un cerveau de Boltzmann. Vous commencez à lui parler, vous parlez un peu, puis vous finissez de parler, et le cerveau, il fait un mouvement de disparition avec ses mains. Pouf, adieu, cerveau », a déclaré Sutskever. Alors que d'autres s'interrogent sur l'idée de machines capables d'égaler l'intelligence humaine, Sutskever se prépare à des machines capables de nous surpasser. C'est ce que le directeur scientifique d'OpenAI appelle la superintelligence artificielle (ASI) : « elles verront les choses plus profondément. Elles verront des choses que nous ne voyons pas ».

    « Nous avons vu un exemple de superintelligence très étroite avec AlphaGo. En 2016, l'IA de DeepMind spécialisée dans les jeux de société a battu Lee Sedol, l'un des meilleurs joueurs du jeu de Go au monde ; elle a gagné 4 parties sur 5. Elle a compris comment jouer au jeu de Go d'une manière différente de celle que l'humanité a développée collectivement pendant des milliers d'années. Il a trouvé de nouvelles idées », a-t-il déclaré. Sutskever attire en effet l'attention sur le fameux mouvement 37 d'AlphaGo. Lors de sa deuxième partie contre Sedol, l'IA a fait un mouvement qui a déconcerté les commentateurs. Ils pensaient qu'AlphaGo avait fait une erreur.

    En réalité, elle avait joué un coup gagnant que personne n'avait jamais vu auparavant dans l'histoire du jeu. « Imaginez un tel niveau de perspicacité, mais dans tous les domaines », a déclaré Sutskever. Pour lui, l'AGI sera capable de reproduire de tels exploits, mais dans tous les domaines.

    Sutskever s'exprime sur les préoccupations liées à l'IA et à l'atteinte d'une forme d'AGI

    « Il est très important de ne pas se concentrer uniquement sur les possibilités offertes par les modèles de langage, mais aussi sur les risques et les inconvénients », a déclaré Jeff Dean, directeur scientifique de Google. Ancien membre de l'équipe Google Brain, Hinton a quitté son poste pour mettre en garde contre les risques de l'IA. Il pense qu'une forme d'AGI sera atteinte d'ici 5 à 20 ans et que nous vivons une époque très incertaine. « Il est possible que je me trompe totalement sur le fait que l'intelligence numérique nous dépasse. Personne ne le sait vraiment et c'est la raison pour laquelle nous devrions nous inquiéter dès maintenant », a-t-il déclaré.

    Hinton et beaucoup d'autres craignent qu'une là, l'AGI prenne le dessus sur l'humanité et décide de l'éradiquer. Un scénario dystopique rejeté catégoriquement par des chercheurs en IA comme Yann LeCun, responsable de l'IA chez Meta avec qui Hinton a partagé le prix Turing en 2018. Elon Musk, PDG de xAI, a appelé à un moratoire pour rédiger de bonnes règles pour le développement de l'IA afin qu'elle soit centrée sur l'humain. Avec Altman, Musk pense que l'IA représente un risque existentiel pour l'humanité. Récemment, OpenAI a annoncé la création d'une équipe chargée d'étudier les risques existentiels liés à l'IA, y compris les menaces nucléaires.

    Avec Jan Leike, un collègue scientifique d'OpenAI, Sutskever a mis sur pied une équipe qui se concentrera sur ce qu'ils appellent le "superalignement". L'alignement est un jargon qui signifie que les modèles d'IA font ce que l'humain veut, et rien de plus. Le superalignement est le terme utilisé par OpenAI pour désigner l'alignement appliqué à la superintelligence. L'objectif est de mettre au point un ensemble de procédures de sécurité pour construire et contrôler cette technologie future. OpenAI affirme qu'elle consacrera un cinquième de ses vastes ressources informatiques à ce problème et qu'elle le résoudra en quatre ans. Mais le projet est critiqué.

    OpenAI a annoncé le projet sur X, mais l'initiative est critiquée par des personnes comme Abeba Birhane, qui travaille sur la responsabilité en matière d'IA chez Mozilla ; Timnit Gebru, cofondateur du Distributed Artificial Intelligence Research Institute (DAIR) ; et Margaret Mitchell, responsable de l'éthique de l'IA au sein de l'entreprise d'IA Hugging Face. Mais Sutskever estime que le superalignement est la prochaine étape inévitable. « C'est un problème non résolu. Il s'agit également d'un problème sur lequel trop peu de chercheurs en apprentissage automatique travaillent. Je le fais dans mon propre intérêt », a déclaré le directeur scientifique d'OpenAI.

    « Il est évidemment important qu'aucune superintelligence construite par quiconque ne devienne malveillante. C'est évident. Le travail sur le superalignement ne fait que commencer. Ils nécessiteront de vastes changements dans les institutions de recherche », a-t-il ajouté. Sutskever a un exemple en tête pour les garanties qu'il veut concevoir : une machine qui regarde les gens comme les parents regardent leurs enfants. « À mon avis, c'est l'étalon-or. C'est une affirmation généralement vraie que les gens se soucient vraiment des enfants. (A-t-il des enfants ? "Non, mais j'aimerais en avoir", dit-il) », a déclaré Sutskever lors de son interview.

    Mais que se passera-t-il une fois que l'on aura relevé le défi de l'IA malveillante ? Y a-t-il encore de la place pour les êtres humains dans un monde où les IA sont plus intelligentes ? Sutskever a répondu : « l'une des possibilités - qui est peut-être folle selon les normes actuelles, mais qui ne le sera pas selon les normes futures - est que de nombreuses personnes choisissent de devenir une partie de l'IA ». Il affirme que cela pourrait être la façon dont les humains essaient de rester à la hauteur. « Au début, seules les personnes les plus audacieuses et les plus aventureuses essaieront de le faire. Peut-être que d'autres suivront. Ou pas », a-t-il déclaré.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des prédictions du directeur scientifique d'OpenAI sur l'avenir de l'IA ?
    Êtes-vous d'avis que l'IA entraînera des bouleversements majeurs dans le monde à l'avenir ?
    Les modèles de langage actuels sont-ils "légèrement conscients" comme il le prétend ? Pourquoi ?
    Quel est votre avis sur l'AGI ? Cette forme d'IA est-elle à portée de main pour l'industrie ?
    Les modèles d'IA comme GPT-4 sont-ils d'une manière ou d'une autre une forme d'AGI ? Pourquoi ?
    Que pensez-vous du concept de l'alignement censé empêcher l'avènement d'une AGI de type Skynet ?
    A-t-on besoin d'une organisation chargée de la gouvernance mondiale de l'IA ? Fonctionnera-t-elle ?
    Quels pourraient être les impacts d'un tel organe sur le marché de l'IA ? Cela nuira-t-il à l'innovation ?
    Que pensez-vous du débat sur l'IA et sur l'AGI ? Est-il mal orienté ? Si oui, sur quoi doit-il se concentrer ?

    Voir aussi

    Microsoft prétend que GPT-4 montre des « étincelles » d'intelligence artificielle générale : « nous pensons que l'intelligence de GPT-4 signale un véritable changement de paradigme »

    Comment saurons-nous que nous avons atteint une forme d'intelligence générale artificielle ? Pour certains experts en IA, ce sera lorsque la machine aura une cognition de niveau humain

    OpenAI crée une équipe chargée d'étudier les risques catastrophiques liés à l'IA, y compris les menaces nucléaires

  3. #83
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 189
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 189
    Points : 3 635
    Points
    3 635
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Ilya Sutskever, cofondateur et directeur scientifique d'OpenAI, a déclaré dans une récente interview que ChatGPT est une technologie bien plus puissante qu'un simple argent conversationnel.
    [...]
    Sutskever a expliqué : « je vais l'admettre. À mon grand embarras - je ne sais pas si je devrais, mais bon sang, c'est vrai -, lorsque nous avons créé ChatGPT, je ne savais pas s'il était bon. Lorsque vous lui posiez une question factuelle, il vous donnait une mauvaise réponse. Je pensais que ce serait si peu impressionnant que les gens diraient : "pourquoi faites-vous cela ? C'est tellement ennuyeux" »
    C'est marrant comme les gens sont capable de gérer des paradoxes sans sourciller. Il semble autant avoir l'oeil technique qui se rend compte que c'est une petite entourloupe et celui du chercheur qui voit ce que ça pourrait devenir.
    Je soupçonne qu'il y a aussi le fait de se faire convaincre par la médiatisation massive.
    « Cela a été un grand changement. Historiquement, l'attitude des gens était la suivante : l'IA ne fonctionne pas, chaque étape est difficile, il faut se battre pour chaque once de progrès. Et lorsque les gens faisaient de grandes déclarations sur l'AGI, les chercheurs disaient : "de quoi parlez-vous ? Cela ne fonctionne pas. Il y a trop de problèmes". Mais avec ChatGPT, les choses ont commencé à changer. Il a permis aux chercheurs en apprentissage automatique de rêver. Nous avons maintenant des gens qui parlent de l'étendue de l'IA, des gens qui parlent d'AGI, ou de superintelligence. Tout le monde en parle. C'est complètement fou », a-t-il déclaré.
    Sutskever insiste sur le fait que toutes ces discussions sur une technologie qui n'existe pas encore (et qui n'existera peut-être jamais) sont une bonne chose, car elles permettent de sensibiliser davantage de gens à un avenir qu'il considère déjà comme acquis. « On peut faire tellement de choses incroyables avec l'AGI : automatiser les soins de santé, les rendre mille fois moins chers et mille fois meilleurs, guérir tant de maladies, résoudre le problème du réchauffement de la planète », déclare-t-il. Malgré ce qu'il dit, l'AGI reste l'une des idées les plus controversées dans ce domaine. Rares sont ceux qui considèrent son développement comme acquis.
    Rendre les soins 1000 fois moins chers? Démarche de communication ou annonce anticapitaliste? Faire payer 1000 fois moins cher quelquechose de 1000 fois mieux, quel contre sens (J'ai appris ça en cours d'entreprenariat en école d'ingé, c'est vous dire si on est au niveau 0)
    Pour moi la question n'est pas tant si le développement est acquis mais s'il est une bonne chose. L'AGI ne va pas se créer d'elle même avec ses propres valeurs, elle répondra à celles de ses développeurs (ou des employeurs de ceux ci), bref je ne suis pas sûr qu'on lui demandera d'optimiser le bienêtre de tous.

  4. #84
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 903
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 903
    Points : 37 220
    Points
    37 220
    Par défaut L'un des fondateurs de DeepMind pense qu'il y a une probabilité de 50 % que l'AGI existe d'ici 2028
    L'un des fondateurs de DeepMind pense qu'il y a une probabilité de 50 % que l'AGI existe d'ici 2028
    certains estime qu'il y a des chances que, l'AGI prenne le contrôle de l'humanité et la détruise

    Alors que le PDG de Google Deepmind, une entreprise spécialisée dans l'intelligence artificielle (IA), a déclaré que l’atteinte de l’intelligence artificielle de niveau humain ne serait possible que dans une décennie, Shane Legg, l'un des fondateurs de DeepMind pense qu'il y a une probabilité de 50 % que l'AGI existe d'ici 2028. Il explique comment il définit l’AGI et comment il faudrait la mesurer à l’aide d’un grand nombre de tests différents. Il reconnaît qu’il est difficile de couvrir toutes les facettes de l’intelligence humaine et qu’il existe des lacunes dans les modèles actuels, notamment en ce qui concerne la compréhension de la vidéo, la mémoire épisodique et l’efficacité de l’échantillonnage. Legg suggère qu’il faut chercher des types spécifiques de tâches cognitives qui manquent dans les références existantes ou créer de nouvelles catégories de références pour évaluer l’AGI.

    L'IA forte ou l'IA générale sont d'autres termes utilisés pour désigner l'AGI. Ces formes théoriques d'IA s'opposent à l'IA faible, ou IA étroite, qui n'est capable d'effectuer que des tâches spécifiques ou spécialisées dans le cadre d'un ensemble prédéfini de paramètres. L'IAG serait capable de résoudre de manière autonome une variété de problèmes complexes dans différents domaines de connaissance.

    Nom : agi.jpg
Affichages : 3237
Taille : 45,6 Ko

    L'intelligence artificielle générale (AGI) est une forme théorique d'IA capable de résoudre un nombre quelconque de tâches hypothétiques en utilisant des capacités cognitives humaines généralisées. L'AGI est une branche de la recherche théorique sur l'IA qui vise à développer une IA dotée d'un niveau humain de fonctions cognitives, y compris la capacité d'auto-apprentissage. Cependant, tous les chercheurs en IA ne croient pas qu'il soit possible de développer un système d'AGI, et le domaine est divisé sur les facteurs qui constituent l' « intelligence » et qui peuvent la mesurer avec précision.

    L’IA générale et l’IA créative : des formes d’IA qui visent à reproduire et à dépasser les capacités cognitives humaines

    La technologie de l’IA créative et générative permet aux machines de créer du contenu et de réaliser des tâches qui demandaient auparavant l’ingéniosité humaine, en se basant sur les caractéristiques et les motifs des données. Elle peut générer des textes, des images, des vidéos, de la musique, etc., dans différents styles et domaines. Elle utilise des modèles d’IA comme les GAN, les RNN ou les transformateurs pour produire du contenu.

    Les premiers systèmes d’IA étaient limités à une intelligence artificielle faible, se spécialisant dans une seule tâche et l’exécutant parfois aussi bien ou mieux que l’homme. Par exemple, MYCIN ne faisait que diagnostiquer et traiter les infections bactériennes. SYSTRAN ne faisait que traduire automatiquement. Deep Blue ne jouait qu’aux échecs.

    Plus tard, des modèles de réseaux neuronaux profonds entraînés par apprentissage supervisé, comme AlexNet et AlphaGo, ont réussi à accomplir un certain nombre de tâches de perception et de décision automatiques qui étaient difficiles à réaliser avec des systèmes basés sur des heuristiques, des règles ou des connaissances. Plus récemment, nous avons vu des modèles de pointe capables d’effectuer une grande variété de tâches sans être entraînés spécifiquement pour chacune d’elles.

    Une IA de niveau humain serait une machine, ou un réseau de machines, capable d'effectuer la même gamme de tâches que celles dont nous sommes capables. Il s'agirait d'une machine « capable d'apprendre à faire tout ce qu'un humain peut faire », comme le disent Norvig et Russell dans leur manuel sur l'IA. Elle serait capable de choisir les actions qui lui permettent d'atteindre ses objectifs et de les exécuter. Elle serait capable de faire le travail d'un traducteur, d'un médecin, d'un illustrateur, d'un enseignant, d'un thérapeute, d'un chauffeur, ou le travail d'un investisseur.

    Les prédictions et les controverses des experts en IA

    Ces dernières années, plusieurs équipes de recherche ont contacté des experts en IA et les ont interrogés sur leurs attentes concernant l'avenir de l'intelligence artificielle. Ces enquêtes auprès d'experts sont l'un des éléments d'information sur lesquels nous pouvons nous appuyer pour nous faire une idée de ce que pourrait être l'avenir de l'IA. Il a été demandé aux experts s'ils pensaient qu'il y avait 50 % de chances que l'IA de niveau humain existe.

    « L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind. En attendant d’y être, le PDG de Google Deepmind recommande d’opter pour le développement responsable des systèmes d’intelligence artificielle pour une transition en douce. « Je suis pour que nous poursuivions avec les travaux sur des systèmes d’IA à déployer comme outils afin de nous permettre de mieux les comprendre avant d’aller à un autre stade », reconnaît-il en soulignant en sus que « cette approche peut permettre une meilleure exploration des mystères de la conscience. »

    L'AGI qui surpasse l'intelligence humaine dans presque tous les domaines, verrait le jour d'ici 10 ans, a déclaré Masayoshi Son, PDG de SoftBank. S'exprimant lors de la conférence d'entreprise SoftBank World. Selon une étude, la date moyenne prévue pour l’AGI est 2041, avec une fourchette probable de 2032 à 2048, et une date la plus proche possible de 2028. L’étude souligne que l’AGI représente un risque existentiel imminent pour l’humanité, qui pourrait survenir avant les effets du réchauffement climatique.

    Un ancien chercheur clé d'OpenAI estime qu'il y a des chances que l'AGI prenne le contrôle de l'humanité et la détruise. « Je le prends très au sérieux. Dans l'ensemble, nous parlons peut-être d'une probabilité de catastrophe de 50/50 peu de temps après que nous avons mis en place des systèmes qui concernent l'humain », déclare Paul Christiano.

    Son propos rejoint celui de Geoffrey Hinton : « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus. » Pour Son, l'AGI serait dix fois plus intelligente que la somme totale de l'intelligence humaine.

    Les chercheurs Blaise Agüera y Arcas et Peter Norvig tentent de démontrer que l’AGI est déjà présente. Dans un essai publié par l’Institut Berggruen, Blaise Agüera y Arcas, vice-président et membre de Google Research, qui dirige une organisation travaillant sur la recherche fondamentale, le développement de produits et l’infrastructure pour l’IA, et Peter Norvig, informaticien et chercheur en éducation à l’Institut de Stanford pour l’IA centrée sur l’homme, soutiennent que les modèles d’IA les plus avancés d’aujourd’hui présentent de nombreux défauts. Cependant, ils estiment qu’il faudra plusieurs décennies avant que ces modèles ne soient reconnus comme les premiers véritables exemples d’intelligence générale artificielle.

    En 2011, Shane Legg a publié un billet de blog dans lequel il disait :

    Citation Envoyé par Shane Legg
    J'ai décidé une fois de plus de ne pas modifier ma prédiction concernant la date d'arrivée de l'AGI au niveau humain. En d'autres termes, je lui attribue une distribution log-normale avec une moyenne de 2028 et un mode de 2025, en supposant que rien d'extraordinaire ne se produise, comme une guerre nucléaire. J'aimerais également ajouter à cette prédiction que je m'attends à voir un proto-AGI impressionnant dans les 8 prochaines années. J'entends par là un système doté d'une vision de base, d'un traitement du son de base, d'un contrôle des mouvements de base et de capacités linguistiques de base, toutes ces choses étant essentiellement apprises plutôt que préprogrammées. Il sera également capable de résoudre une série de problèmes simples, y compris des problèmes nouveaux.
    Les raisons qui ont poussé Shane Legg à estimer l’AGI en 2028

    À la question de savoir comment il a pu obtenir une estimation aussi précise avant que les tendances d’auhpurd’hui ne se presentent, Legg repond qu’il a commencé à y croire vers 2001, après avoir lu l'ouvrage de Ray Kurzweil intitulé The Age of Spiritual Machines. Il y a deux points « vraiment importants » dans son livre qu’il a fini par considérer comme vrais :

    Le premier est que la puissance de calcul allait croître de manière exponentielle pendant au moins quelques décennies. D'autre part, la quantité de données dans le monde va croître de manière exponentielle pendant quelques décennies. Et lorsque les quantités de calculs et de données augmentent de manière exponentielle, la valeur des algorithmes hautement évolutifs devient de plus en plus élevée. Il y a beaucoup d'intérêt à créer un algorithme plus évolutif pour exploiter toutes ces données informatiques.

    « J'ai donc pensé qu'il était très probable que nous commencions à découvrir des algorithmes évolutifs. Il y a ensuite une rétroaction positive entre tous ces éléments, car si votre algorithme devient meilleur pour exploiter les données informatiques, la valeur des données et du calcul augmente parce qu'ils peuvent être utilisés plus efficacement. Cela entraîne une augmentation des investissements dans ces domaines. Si vos performances informatiques augmentent, la valeur des données augmente car vous pouvez utiliser plus de données. Il y a donc des boucles de rétroaction positives entre tous ces éléments. C'était la première chose à faire », déclare Legg.

    Ensuite, la deuxième chose a été de regarder les tendances. Si les algorithmes évolutifs étaient découverts, il devrait être possible, dans les années 2020, de commencer à former des modèles sur une quantité de données bien supérieure à celle qu'un être humain aurait à traiter au cours de sa vie. « Je me suis dit que c'est à ce moment-là que de grandes choses commenceraient à se produire et qu'elles débloqueraient l'AGI. C'est ainsi que j'ai raisonné. Et je pense que nous en sommes maintenant à la première partie. Je pense que nous pouvons commencer à former des modèles maintenant avec l'échelle des données qui est au-delà de ce qu'un humain peut expérimenter dans une vie. Je pense donc qu'il s'agit de la première étape de déblocage », dit-il.

    « Et donc, oui, je pense qu'il y a une chance sur deux que nous ayons l'AGI d'ici 2028. Mais ce n'est qu'une chance sur deux. Je suis sûr que ce qui va se passer, c'est qu'en 2029, quelqu'un dira : "Shane, tu avais tort." Allez, j'ai dit 50 % de chances », précise Legg.


    La pensée de Legg est une estimation basée sur son expérience et sa vision de l’IA. Il n’existe pas de méthode scientifique pour prédire l’avenir de l’IA, ni de consensus parmi les experts sur la définition et la mesure de l’AGI. Il est donc difficile d’évaluer la fiabilité de sa prédiction.

    Néanmoins, on peut reconnaître que Legg a une position optimiste et ambitieuse sur le progrès de l’IA. Il pense que les modèles actuels d’IA sont capables d’apprendre à faire une grande variété de tâches cognitives, et qu’il suffit de les tester et de les améliorer pour atteindre le seuil de l’AGI. Il ne semble pas accorder beaucoup d’importance aux limites et aux risques potentiels de l’IA, tels que la sécurité, l’éthique, la responsabilité, la transparence, etc. Il se concentre plutôt sur les aspects techniques et scientifiques de l’IA.

    On peut être d’accord ou pas avec sa pensée, mais il faut reconnaître qu’elle est stimulante et provocatrice. Elle nous invite à réfléchir sur ce que signifie l’intelligence, humaine ou artificielle, et sur les implications sociales et morales de la création d’une machine qui pourrait nous dépasser. Elle nous pousse également à nous interroger sur notre propre rôle et notre propre responsabilité dans le développement et l’utilisation de l’IA.

    Source : YouTube video

    Et vous ?

    Trouvez-vous l'opinion de Masayoshi Son pertinente ?

    Que pensez-vous de l'AGI ?

    Voir aussi :

    L'AGI serait déjà présente, « les modèles d'IA tels que ChatGPT, Bard, LLaMA et Claude ont franchi un seuil que les générations précédentes d'IA n'ont jamais atteint», selon des chercheurs

    Prévoir l'arrivée de l'AGI : une étude souligne le risque existentiel imminent pour l'humanité, qui pourrait être confrontée à son plus grand et son plus proche péril existentiel

    « L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind, pour le développement responsable des systèmes d'IA
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #85
    Membre expérimenté

    Homme Profil pro
    Collégien
    Inscrit en
    Juillet 2010
    Messages
    553
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Afghanistan

    Informations professionnelles :
    Activité : Collégien

    Informations forums :
    Inscription : Juillet 2010
    Messages : 553
    Points : 1 427
    Points
    1 427
    Par défaut
    Ils manquent d'humour ces chercheurs.
    Au lieu de nommer son IA "Chat-GPT" "ou "HOTPOT" ou autre nom pas drôle. Moi je l'appellerais Skynet.
    Juste pour le Troll.

  6. #86
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 903
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 903
    Points : 37 220
    Points
    37 220
    Par défaut Google DeepMind vient de publier une liste de niveaux d'AGI et définir des niveaux de performance
    Google DeepMind vient de publier une liste de niveaux d'AGI et définir des niveaux de performance,
    elle suggère des principes tels que se focaliser sur les capacités plutôt que sur les mécanismes

    Un cadre de classification des modèles d’intelligence générale artificielle (AGI) et de leurs précurseurs a été proposé par des chercheurs de Google DeepMind. Ce cadre définit des niveaux de performance, de généralité et d’autonomie de l’AGI. Ils suggèrent des principes tels que se focaliser sur les capacités plutôt que sur les mécanismes, évaluer la performance et la généralité de manière indépendante, et identifier les étapes vers l’AGI, plutôt que de viser le point final. Les chercheurs de Google DeepMind ont ensuite défini des « niveaux d’AGI » basés sur la performance et la généralité des capacités, et ont examiné comment les systèmes actuels se situent dans cette ontologie.

    « Nous discutons des exigences ambitieuses pour les futurs benchmarks qui quantifient le comportement et les capacités des modèles d'AGI par rapport à ces niveaux. Enfin, nous examinons comment ces niveaux d'AGI interagissent avec les considérations de déploiement telles que l'autonomie et le risque, et nous soulignons l'importance de sélectionner avec soin les paradigmes d'interaction homme-IA pour un déploiement responsable et sûr de systèmes d'IA hautement performants », Google DeepMind.

    L'intelligence artificielle générale est un concept important et parfois controversé de la recherche informatique, utilisé pour décrire un système d'IA qui est au moins aussi capable qu'un être humain dans la plupart des tâches. Compte tenu des progrès rapides des modèles d'apprentissage machine (ML), le concept d'AGI est passé de l'objet d'un débat philosophique à un concept d'une pertinence pratique proche du terme.

    Nom : agi.jpg
Affichages : 1894
Taille : 45,6 Ko

    Certains experts estiment que des "étincelles" d'AGI sont déjà présentes dans la dernière génération de modèles de langage étendu (LLM) ; d'autres prédisent que les AGI dépasseront largement les humains d'ici une dizaine d'années ; certains affirment même que les LLM actuels sont des AGI. Toutefois, si vous demandiez à 100 experts en AGI de définir ce qu'ils entendent par "AGI", vous obtiendriez probablement 100 définitions apparentées, mais différentes.

    Une IA de niveau humain serait une machine, ou un réseau de machines, capable d'effectuer la même gamme de tâches que celles dont nous sommes capables. Il s'agirait d'une machine « capable d'apprendre à faire tout ce qu'un humain peut faire », comme le disent Norvig et Russell dans leur manuel sur l'IA. Elle serait capable de choisir les actions qui lui permettent d'atteindre ses objectifs et de les exécuter. Elle serait capable de faire le travail d'un traducteur, d'un médecin, d'un illustrateur, d'un enseignant, d'un thérapeute, d'un chauffeur, ou le travail d'un investisseur.

    Selon le PDG de Google Deepmind, « Il est possible d’atteindre une forme d’intelligence artificielle au niveau humain dans une décennie », ce qui donnerait aux machines un « sens commun. » À ce stade d’intelligence artificielle générale, elles seraient capables de raisonnement causal, c’est-à-dire de cette aptitude à réfléchir sur « la raison pour laquelle les choses se passent. »

    Il existe des hypothèses selon lesquelles les systèmes d’AGI auraient la capacité de percevoir et d’agir, de se procurer des ressources, de poursuivre des buts, de se montrer autonomes, de surpasser les humains dans divers domaines, de les écarter de positions importantes et/ou de se perfectionner continuellement. Selon Google DeepMind, les chercheurs en IA devraient se poser clairement la question de la signification de “AGI” et essayer de mesurer les caractéristiques liées à l’efficacité, à la polyvalence et à l’indépendance des systèmes d’IA.

    Classification des modèles d’AGI basé sur la performance et la généralité

    Les chercheurs de Google DeepMind ont analysé neuf cas de projets expérimentaux et exposé leurs atouts et leurs faiblesses. Voici, ci-dessous, quelques-uns de ces exemples :

    Le test de Turing est sans doute la tentative la plus connue d'opérationnalisation d'un concept similaire à celui de l'AGI. Le « jeu d'imitation » de Turing a été conçu pour répondre à la question de savoir si les machines pouvaient penser et pour demander à un humain de distinguer de manière interactive si le texte est produit par un autre humain ou par une machine. Le test, tel qu'il a été conçu à l'origine, est une expérience de pensée et fait l'objet de nombreuses ; dans la pratique, le test met souvent en évidence la façon dont les gens sont dupés plutôt que l' « intelligence » de la machine.

    Étant donné que les MLL modernes comportent certains éléments du test de Turing, il semble logique que ce critère soit suffisant pour l'opérationnalisation et l'étalonnage de l'AGI. « Nous sommes d'accord avec Turing pour dire que la question de savoir si une machine peut "penser", tout en étant une question philosophique et scientifique intéressante, semble distincte de la question de savoir ce que fait la machine ; cette dernière est beaucoup plus directe à mesurer et plus importante pour évaluer les impacts. Nous proposons donc que l'IAG soit définie en termes de capacités plutôt qu'en termes de processus. », indiquent les chercheurs.

    D’après le philosophe John Searle, « l’IA forte affirme que l’ordinateur n’est pas seulement un instrument pour analyser l’esprit ; au contraire, l’ordinateur correctement programmé est véritablement l’esprit, c’est-à-dire que les ordinateurs possèdent un système de contrôle de la conscience et un système de contrôle de l’esprit. Les ordinateurs, s’ils sont bien programmés, peuvent réellement comprendre et éprouver d’autres états cognitifs ».

    Bien que l'IA forte puisse être un moyen d'atteindre l'AGI, il n'existe pas de consensus scientifique sur les méthodes permettant de déterminer si les machines possèdent des attributs d'IA forts tels que la conscience, ce qui rend impraticable l'accent mis sur le processus dans ce cadre.

    Analogie avec le cerveau humain. L'expression « intelligence générale artificielle » a été utilisée pour la première fois en 1997 dans un article de Mark Gubrud sur les technologies militaires, qui définissait l'IAG comme « des systèmes d'IA qui rivalisent en complexité et en vitesse avec le cerveau humain, qui peuvent acquérir, manipuler et raisonner avec des connaissances générales, et qui sont utilisables dans toutes les phases des opérations industrielles ou militaires où l'intelligence humaine serait par ailleurs nécessaire ».

    Cette définition précoce met l'accent sur les processus (rivalisant avec le cerveau humain en termes de complexité) plutôt que sur les capacités ; alors que les architectures de réseaux neuronaux qui sous-tendent les systèmesML modernes sont vaguement inspirées du cerveau humain, le succès des architectures basées sur des transformateurs dont les performances ne dépendent pas d'un apprentissage semblable à celui de l'homme suggère que les processus et les points de référence basés sur le cerveau strict ne sont pas intrinsèquement nécessaires pour l'AGI.

    Analogie avec le cerveau humain

    L'expression « intelligence générale artificielle » a été utilisée pour la première fois en 1997 dans un article de Mark Gubrud sur les technologies militaires, qui définissait l'AGI comme « des systèmes d'IA qui rivalisent en complexité et en vitesse avec le cerveau humain, qui peuvent acquérir, manipuler et raisonner avec des connaissances générales, et qui sont utilisables dans toutes les phases des opérations industrielles ou militaires où l'intelligence humaine serait par ailleurs nécessaire ».

    Cette définition précoce met l'accent sur les processus (rivalisant avec le cerveau humain en termes de complexité) plutôt que sur les capacités ; alors que les architectures de réseaux neuronaux qui sous-tendent les systèmes ML modernes sont vaguement inspirées du cerveau humain. En réfléchissant aux exemples de formulation de l'AG (ou des concepts adjacents de l'IAG), les chercheurs ont identifié les propriétés et les points communs qui, selon eux, contribuent à une définition claire et opérationnelle de l'AGI :

    L'accent est mis sur les capacités et non sur les processus

    La majorité des définitions se concentrent sur ce qu'une AGI peut accomplir et non sur le mécanisme par lequel elle accomplit les tâches. Ceci est important pour identifier les caractéristiques qui ne sont pas nécessairement indispensables à la réalisation d'une AGI (mais qui peuvent néanmoins constituer des sujets de recherche intéressants). Cette focalisation sur les capacités permet d'exclure les éléments suivants des exigences en matière d'AGI :

    • la réalisation de l'AGI n'implique pas que les systèmes pensent ou comprennent de manière humaine (puisqu'elle se concentre sur les processus et non sur les capacités) ;
    • la réalisation de l'AGI ne signifie pas que les systèmes présentent des inégalités telles que la conscience (conscience subjective) ou la sensibilité (capacité à éprouver des sentiments) (car ces conséquences sont non seulement axées sur les processus, mais ne sont pas actuellement mesurables par des méthodes scientifiques convenues).

    Toutes les définitions précédentes mettent l'accent sur la généralité à des degrés divers, mais certaines excluent les critères de performance. Les chercheurs de Google DeepMind estiment que la généralité et la performance sont toutes deux des composantes essentielles de l'AGI. Voici, ci-dessous, la liste de niveaux de l'AGI publié par les chercheurs de Google DeepMind :

    Nom : Isss.jpg
Affichages : 1249
Taille : 108,1 Ko

    Les systèmes présentés dans chaque cellule sont des estimations fondées sur les descriptions existantes dans les publications ou sur les expériences d’interaction avec des systèmes en fonctionnement. Pour classer les systèmes d’IA de manière claire, il faudra un étalonnage normalisé des tâches.

    Les chercheurs de Google DeepMind ont exploré des définitions originales de l’AGI, en mettant en évidence les avantages et les inconvénients. Sur la base de cette exploration, ils ont proposé les principes qu’ils jugent essentiels à une définition nette et pratique de l’AGI : se focaliser sur les compétences, et non sur les mécanismes ; se focaliser sur la généralité et la performance ; se focaliser sur les tâches cognitives et métacognitives (plutôt que physiques) ; se focaliser sur le potentiel plutôt que sur la mise en œuvre ; se focaliser sur la validité écologique pour les tâches de référence ; et se focaliser sur le parcours vers l’AGI plutôt que sur la destination.

    Par ailleurs, les chercheurs ont discuté des conséquences des principes pour le développement d’une référence dynamique et écologiquement pertinente en matière d’AGI, et ils ont soutenu que cette approche (bien qu’elle puisse être ardue) est cruciale pour la mobilisation de la communauté.

    La conclusion des chercheurs de Google DeepMind sur l’intelligence artificielle générale (AGI) est qu’elle est possible et proche, et qu’il faut la développer de manière responsable et éthique. Cependant, il convient de relever que :

    L’AGI est un objectif ambitieux et fascinant, mais aussi très incertain et risqué. Il n’existe pas de définition claire et universelle de ce qu’est l’AGI, ni de critère objectif pour la mesurer ou la reconnaître. Il est donc difficile de prédire quand et comment elle sera atteinte, et quelles seront ses capacités et ses limites. L’AGI pose des défis techniques, mais aussi philosophiques, sociaux et éthiques. Il faut se demander quel est le but de l’AGI, quelles sont ses valeurs et ses motivations, comment elle interagit avec les humains et les autres formes de vie, comment elle apprend et se souvient, comment elle s’adapte et se corrige, comment elle est contrôlée et régulée, etc.

    En fin, l’AGI doit être développé de manière responsable et éthique, en respectant les principes de transparence, de sécurité, de fiabilité, de justice, de diversité, de respect, de coopération, de durabilité, etc. Il faut aussi impliquer les parties prenantes, les experts, les citoyens, les régulateurs, les organisations internationales, etc. dans le processus de conception, de développement, de déploiement et de gouvernance de l’AGI.

    Source : Google DeepMind

    Et vous ?

    À votre avis, la conclusion des chercheurs de Google DeepMind est-elle pertinente ?

    Quels sont selon vous, les principes et les normes éthiques qui doivent guider le développement et l’utilisation de l’AGI ?

    Quels sont les risques et les bénéfices potentiels de l’AGI pour l’humanité et l’environnement ?

    Quels sont les cadres juridiques et institutionnels qui doivent réguler et contrôler l’AGI ? Comment assurer la transparence, la responsabilité, la fiabilité et la sécurité de l’AGI ? Comment prévenir et résoudre les conflits et les abus liés à l’AGI ?

    Voir aussi :

    L'atteinte d'une forme d'IA de niveau humain est-elle plus rapide que prévu ? Il y aurait une chance sur deux pour qu'une « AGI » soit conçue, testée et annoncée publiquement d'ici 2040

    L'AGI serait déjà présente, « les modèles d'IA tels que ChatGPT, Bard, LLaMA et Claude ont franchi un seuil que les générations précédentes d'IA n'ont jamais atteint», selon des chercheurs

    L'intelligence générale artificielle (AGI), qui surpasse l'intelligence humaine dans presque tous les domaines, verrait le jour d'ici 10 ans a déclaré Masayoshi Son, PDG de SoftBank

    « L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind, pour le développement responsable des systèmes d'IA
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #87
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    652
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 652
    Points : 11 861
    Points
    11 861
    Par défaut Comment vous préparez-vous à la probabilité d'un effondrement économique causé par l'AGI ?
    Comment vous préparez-vous à la probabilité d'un effondrement économique causé par l'AGI ?
    Certains suggèrent l'achat d'actions technologiques et d'autres pensent que cela n'arrivera pas

    À quoi ressemblerait le monde de l'intelligence artificielle générale (AGI) ? Beaucoup prédisent que l'AGI pourrait causer un effondrement économique lorsqu'elle arrivera. Bien que la suppression et le déplacement des emplois aient commencé avec l'automatisation et l'IA, de nombreux experts et économistes pensent que l'AGI accentuera ce phénomène et provoquera un effondrement économique dû à un chômage de masse. La question est de savoir comment vous vous préparez à une telle éventualité ou les actions à entreprendre dès maintenant afin d'atténuer le choc. Certains pensent à la création de nouveaux types d'emplois et d'autres à la reconversion dans l'artisanat.

    La course à l'IA s'intensifie de jour en jour et chaque acteur veut être le premier à décrocher le Saint Graal : l'AGI. Mais alors que certaines personnes travaillent avec enthousiasme et frénésie pour atteindre leur but ultime, l'AGI suscite la peur et le scepticisme chez d'autres personnes. Selon ces dernières, l'AGI serait préjudiciable à l'humanité et constituerait même une menace existentielle en raison d'un certain nombre de changements inédits qui pourraient en découler. En fait, les conséquences économiques de l'AGI découlent de ses propriétés fondamentalement nouvelles par rapport aux cerveaux humains qui dirigent actuellement le monde (l'économie).

    Lorsque ces "cerveaux numériques" deviendront suffisamment intelligents pour exécuter un large éventail de fonctions économiques, ils apporteront probablement des changements radicaux, créant une grande richesse, mais évinçant également les humains d'un nombre croissant de types d'emplois. À ce propos, Bill Gates pense qu'il s'agit d'un processus inévitable qui rendra les humains plus efficaces et leur permettra d'avoir plus de temps libre. Mais que feront-ils de ce temps libre ? Quelles seront les nouvelles occupations des personnes auxquelles l'IA aura arraché leurs emplois ? Selon certains experts, l'on assistera à une baisse de leur pouvoir d'achat.


    Dans la communauté, certains s'alarment et prédisent un avenir dystopique pour l'économie mondiale, tandis que d'autres ont un avis plus modéré sur la question. Un critique, qui craint un potentiel effondrement économique causé par l'AGI, affirme : « lorsque l'AGI apparaîtra, il est fort probable qu'elle provoquera un effondrement économique dû à un chômage de masse. Si ce n'est pas le cas, tant mieux, sinon il vaut mieux s'y préparer. Face à une telle éventualité, je pense acheter une maison, faire un jardin et avoir quelques poules. Cela me semble être un bon début ». D'autres proposent en outre de se concentrer sur le travail de l'esprit, l'artisanat, etc.

    Selon ces derniers, les gens devraient commencer par se tourner vers des emplois qui font beaucoup plus appel à des compétences humaines pour être à l'abri d'un choc potentiel. Les compétences non techniques sont indispensables à tout travailleur dans l'espace de travail. Elles comprennent le travail en équipe, le souci du détail, la pensée critique et créative, la communication efficace et les compétences interpersonnelles, pour n'en citer que quelques-unes. Ces compétences non techniques sont demandées dans tous les secteurs. D'après ces critiques, l'IA ne serait pas en mesure de copier ces compétences et donc ne pourrait pas remplacer ces emplois.

    « Les compétences non techniques sont étrangères à l'IA. Elle ne peut pas développer ces compétences. Le développement de ces compétences nécessite un niveau élevé de raisonnement et d'intelligence émotionnelle », affirme un critique. D'autres personnes pensent qu'il faudrait commencer par acquérir des actions des sociétés qui développent l'IA ainsi qu'un certain nombre d'actifs pouvant vous permettre de traverser une crise financière ou un effondrement économique. « Vous devez acheter des actifs qui vous rapportent de l'argent. Achetez-en le plus possible. Ne le vendez pas, quelle que soit l'évolution du marché boursier », conseille un internaute.

    « Nous vivons dans un monde capitaliste. Il est géré au profit des capitalistes. Si vous n'avez pas de capital, vous êtes foutu. L'IA et encore moins l'AGI ne vous feront pas de cadeau. Apprenez des compétences que l'AGI ne pourra pas copier et proposer de nouveaux types de services à l'abri de l'automatisation. Si vous n'êtes pas en mesure de le faire, ce qui vous reste à faire est d'amasser des actifs. Investissez dans l'immobilier par exemple, les gens auront toujours besoin de se loger. La restauration est également une possibilité. Je pense que les robots n'ont aucune chance de réussir dans les fast-foods et l'AGI ne fera pas mieux non plus », note un critique.

    En août dernier, Gary Gensler, directeur de la Securities and Exchange Commission (SEC) des États-Unis, a déclaré qu'une crise financière causée par l'IA est "presque inévitable" au cours de la prochaine décennie si l'on ne réglemente pas davantage cette technologie qui progresse très rapidement. « C'est franchement un défi difficile à relever. C'est une question de stabilité financière difficile à traiter parce que la plupart de nos réglementations concernent des institutions individuelles, des banques individuelles, des fonds du marché monétaire individuels, des courtiers individuels ; c'est tout simplement dans la nature de ce que nous faisons », a-t-il déclaré.

    Un autre a commenté : « si vous avez les moyens, achetez des actions des entreprises technologiques. Personnellement, j'ai acheté une maison et des poules l'année dernière. Mon prêt hypothécaire représente la moitié de mes revenus et si je perdais mon emploi, je serais saisi en un mois. Je n'ai même pas assez de fonds propres pour vendre. Alors, essayez à vos risques et périls. Il y a toujours l'aide sociale. Toutefois, il n'y a aucune garantie. Est-ce qu'il sera toujours possible de subvenir aux besoins de la population ? Si l'AGI venait à causer un effondrement économique à l'avenir, le véritable problème à surmonter est la circulation de l'argent ».

    D'autres internautes se montrent encore plus sceptiques sur l'avenir : « vous pensez à la manière de survivre aux difficultés économiques qui pourrait causer de l'AGI, mais les patrons pensent à la manière de se débarrasser de vous. La question n'est pas de savoir si je dois posséder une maison et une ferme, mais comment survivre à un génocide mondial. Peu importe, il est déjà trop tard pour la plupart d'entre nous ». En revanche, d'autres critiques se montrent plus mesurées sur le sujet et certains pensent même qu'il est peu probable que l'AGI cause un effondrement économique lorsqu'elle arrivera. Selon eux, l'AGI pourrait résoudre les difficultés actuelles.

    « Si l'AGI tient réellement ses promesses, l'on devrait éviter tout effondrement économique. Mais si cela arrivait, tout effondrement économique devrait être de courte durée jusqu'à ce que la société puisse être restructurée. L'AGI devrait trouver comment le faire. Le danger serait d'atteindre une AGI suffisamment performante pour provoquer un chômage de masse, mais pas assez intelligente ou humaine pour obtenir l'adhésion de la société à la réforme de notre système politique. Dans ce cas, nous serions livrés à nous-mêmes pour nous débattre avec le désordre que nous avons créé. L'humanité pourrait traverser des crises inédites », note un critique.

    « Dans les deux cas, ma stratégie consiste à mener une vie saine et à essayer d'apprécier le monde tel qu'il est aujourd'hui. Si l'économie s'effondre et que le système de santé se détériore, je ne veux pas me retrouver à devoir consulter un médecin ou à devoir faire face à un problème médical. À part cela, il n'y a pas grand-chose à faire. Vous pourriez devenir un "préposé à la prévention" et passer tout votre temps et toutes vos ressources à préparer la fin du monde, mais ce n'est pas une façon amusante de passer votre vie, et ce n'est certainement pas bon pour votre santé mentale. Autant vivre au mieux et profiter de la vie. Vous n'en avez qu'une seule ».

    On peut lire aussi : « plusieurs scénarios sont possibles, dont la plupart ne doivent pas vous inquiéter, car soit il y a suffisamment d'abondances pour que les besoins de base soient très accessibles, sans quoi nous sommes tous morts pour des raisons sur lesquelles nous n'avons aucun contrôle. Par conséquent, il s'agit donc d'atténuer les périodes intermédiaires, lorsque le monde s'adapte et que l'IA tarde à apporter des améliorations aux besoins de base. Ou, plus vraisemblablement, lorsque la soif de pouvoir de certaines personnes limite le déploiement des aspects bénéfiques de l'IA, alors que des emplois continuent de disparaître à gauche et à droite ».

    Parmi les commentaires les plus modérés, l'on constate que la plupart convergent vers le fait qu'il n'y a pas grand-chose à faire. Selon eux, lorsque le moment arrivera, l'humanité saura s'en sortir. Ils pensent que même si l'AGI provoquait l'effondrement du système actuel, de nouvelles possibilités s'offriraient à l'humanité. « Acheter une maison, faire un jardin et posséder quelques poules est un bon conseil, indépendamment de l'IA. Je ne pense pas que l'effondrement économique soit une fatalité. Les progrès technologiques et l'automatisation ont historiquement entraîné une augmentation du nombre d'emplois, et non une diminution », a écrit un critique.

    Il a ajouté : « il y aura des déplacements généralisés, mais d'autres secteurs se développeront (conception et mise en œuvre de l'IA, par exemple). Les gens seront toujours capables de trouver quelque chose à faire qui profite aux autres. Les économies peuvent devenir plus locales, mais elles resteront globalement plus fortes ».

    Et vous ?

    Quel est votre avis sur le sujet ?
    Pensez-vous que l'industrie atteindra un jour l'AGI ?
    Quels pourraient être les impacts de l'AGI sur l'économie mondiale ?
    L'AGI est-elle en mesure de causer un effondrement économique ? Pourquoi ?
    Comment se préparer à une telle éventualité ? Que pensez-vous des avis ci-dessus ?
    Selon vous, pourquoi les gens ont-ils une peur viscérale de l'IA ? Ce sentiment est-il justifié ?

    Voir aussi

    Bill Gates pense que l'IA qui prend le travail de tout le monde est une bonne chose, c'est un processus inévitable qui rendra les humains plus efficaces et leur permettra d'avoir plus de temps libre

    Comment saurons-nous que nous avons atteint une forme d'intelligence générale artificielle ? Pour certains experts en IA, ce sera lorsque la machine aura une cognition de niveau humain

    L'intelligence générale artificielle (AGI), qui surpasse l'intelligence humaine dans presque tous les domaines, verrait le jour d'ici 10 ans, a déclaré Masayoshi Son, PDG de SoftBank

  8. #88
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 488
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 488
    Points : 5 839
    Points
    5 839
    Par défaut
    comme les dynastie de bourgeois ont toujours fait:
    1/3 immobilier, 1/3 à la bourse et 1/3 en or.

    seul façon de survivre à un effondrement économique pérennement dans le temps.


    si vous êtes trop pauvres vous iniquité pas sur ces questions, en cas de crise l'état vidra tous vos comptes en banque, comme a fait Malte pendant la crise.
    la garantie des 100000€ de la BCE c'est le plus grand mensonge de l'histoire.

    le mieux encore c'est de faire comme les survivalistes, de trouver une grotte dans les montagnes ou de construire un bunker et d'y avoir assez de vivre pour y rester plusieurs décennies, histoire de laisser le chaos et la crise passé.

    et apprenez le Krav-maga et le maniement des armes, car le kilo de pomme de terre en pleine crise vous l'aurez en buttant au moins 10 personnes, y compris des enfants et des vieillards sans défense !

  9. #89
    Membre habitué
    Homme Profil pro
    Développeur Web
    Inscrit en
    Septembre 2011
    Messages
    107
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Septembre 2011
    Messages : 107
    Points : 152
    Points
    152
    Par défaut
    Citation Envoyé par Jipété Voir le message
    Hé oui, tout ça à cause des gros cons qui prennent l'avion pour un oui pour un non.
    Donc si on arrête tous de prendre l'avion demain, le problème écologique est réglé ?

  10. #90
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 419
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 419
    Points : 9 923
    Points
    9 923
    Par défaut
    Pour ma part, je pense surtout que leur IAG n'est qu'un fantasme, ou plus surement un piège à gogos investisseurs.
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  11. #91
    Membre expérimenté

    Homme Profil pro
    Collégien
    Inscrit en
    Juillet 2010
    Messages
    553
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Afghanistan

    Informations professionnelles :
    Activité : Collégien

    Informations forums :
    Inscription : Juillet 2010
    Messages : 553
    Points : 1 427
    Points
    1 427
    Par défaut
    et apprenez le Krav-maga et le maniement des armes, car le kilo de pomme de terre en pleine crise vous l'aurez en buttant au moins 10 personnes, y compris des enfants et des vieillards sans défense !
    La violence et les armes c'est MAL.
    Seul l'état a la légitimité de la violence.
    Donc si vous êtes attaqué il faut appeler la police et ne pas se défendre (cela pourrait être violent).

  12. #92
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 488
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 488
    Points : 5 839
    Points
    5 839
    Par défaut
    Citation Envoyé par mith06 Voir le message
    La violence et les armes c'est MAL.
    Seul l'état a la légitimité de la violence.
    Donc si vous êtes attaqué il faut appeler la police et ne pas se défendre (cela pourrait être violent).
    l'état peut être corrompue et aller contre la volonté du peuple qu'il est censé servir et dans ce cas doit être purgé et ces membres exterminés jusqu'au derniers.



    pour l'iag, l'ia est incapable de monter un vrai projet informatique, il est juste capable de faire des fonctions précise si on sait quoi lui demander.
    quand l'infra plante ou se fait hacker, c'est pas chatgpt qu'on appelle mais moi...


    il y'a 40ans on me disait que dans 10ans les avions n'auront plus de pilote, il y'a 10ans musk disait que les voitures conduiraient sans pilotes aujourd'hui les villes qui les expérimentaient les ont interdites.
    L'ia puissante c'est surtout ces cto qui en parle pour trouver des financements.

    chatgpt je dis pas que c'est du bullshit, ca m'aide au quotidien, mais pour l'heure ca reste un outil, aussi puissant que quand j'ai utilisé pour la 1ere fois de ma vie un IDE à la place du bloc note windows donc c'est pas rien mais c'est pas chatgpt qui va faire baisser la demande en ingénieurs.

    tant qu'on me donne pas un démonstrateur, l'iag c'est que du bullshit pour cto en manque de levée de fond.
    une ia vraiment capable de remplacer un ingénieur en informatique ou aéronautique j'attends de voirs.


    Moi j'ai plus peur pour mon avenir de Bruno Lemaire et de ces successeurs que de chatgpt.
    car les sanctions contre la Russie, ca a surtout mis notre économie a genoux et c'est pas bon pour nos entreprises.
    et l'état qui chaque années augmente les taxes et impôts et au final ca agit comme une baisse de salaire pour moi et une dégradation de mes conditions de vie.
    Un iphone si le prix augmente osef, on est libre d'acheter un android à 100e mais la taxe d'habitation qui augmente de 100% ou le prix du kwh qui explose ou l’impôt qui augmente pour rembourser les 3000 milliards dette (bientôt 1ere dépense de l'état) c'est plus compliqué de s'en passer.

  13. #93
    Expert éminent sénior
    Avatar de Jipété
    Profil pro
    Inscrit en
    Juillet 2006
    Messages
    10 816
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations forums :
    Inscription : Juillet 2006
    Messages : 10 816
    Points : 15 230
    Points
    15 230
    Par défaut
    Citation Envoyé par GATEN Voir le message
    Donc si on arrête tous de prendre l'avion demain, le problème écologique est réglé ?
    Tout à fait !
    Tu vois, t'as tout compris.
    Maintenant, c'est sûr que les inondations dans le Pas-de-Calais il y en aura encore, il faut attendre que les choses rentrent dans l'ordre et qu'on répare tout ce qu'on a cassé, ce qui va quand même demander du temps...
    Si on a commencé à tout casser (petit à petit) il y a 200 ans (à la louche), il faudra peut-être 200 ans ou plus pour réparer : il est toujours plus facile et plus rapide de casser que de réparer.

    Et désolé, mais il n'y a pas d'autre solution. Ça va être douloureux ? Oui, alors prépare-toi...
    Il a à vivre sa vie comme ça et il est mûr sur ce mur se creusant la tête : peutêtre qu'il peut être sûr, etc.
    Oui, je milite pour l'orthographe et le respect du trait d'union à l'impératif.
    Après avoir posté, relisez-vous ! Et en cas d'erreur ou d'oubli, il existe un bouton « Modifier », à utiliser sans modération
    On a des lois pour protéger les remboursements aux faiseurs d’argent. On n’en a pas pour empêcher un être humain de mourir de misère.
    Mes 2 cts,
    --
    jp

  14. #94
    Membre expérimenté

    Homme Profil pro
    Collégien
    Inscrit en
    Juillet 2010
    Messages
    553
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Afghanistan

    Informations professionnelles :
    Activité : Collégien

    Informations forums :
    Inscription : Juillet 2010
    Messages : 553
    Points : 1 427
    Points
    1 427
    Par défaut
    l'état peut être corrompue et aller contre la volonté du peuple qu'il est censé servir et dans ce cas doit être purgé et ces membres exterminés jusqu'au derniers.
    l'Etat (Français) est un gouvernement du peuple, par le peuple et pour le peuple, voir article 2 de la constitution.
    https://www.conseil-constitutionnel....958-en-vigueur

    D'ailleurs l'article 49 alinéa 3 est une belle illustration de gouvernement du peuple, par le peuple et pour le peuple.
    Le peule peut exercer sa souveraineté nationale à ses représentants et par la voie du référendum, qui souvent utilisé (29 mai 2005, la dernière foi).

    S'imaginer que notre gouvernement agit pour des motifs autres que la volonté du peuple de France, relève du complotisme.

  15. #95
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    652
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 652
    Points : 11 861
    Points
    11 861
    Par défaut « L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique
    « L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique
    qui affirme que ce mensonge est raconté pour des raisons financières et politiques

    Dana Blankenhorn, journaliste technologique, s'en prend vertement à ce qu'il appelle le battage médiatique autour de l'intelligence artificielle générale (AGI). Il affirme que l'AGI est le plus gros mensonge de l'année et que cette technologie n'existe tout simplement pas. Son analyse suggère que la surmédiatisation de l'AGI est liée aux visées politiques de certains acteurs importants du secteur de l'IA et à leurs tentatives visant à contrôler entièrement le développement de la technologie. Le journaliste allègue en outre que le but de ces acteurs est d'élever considérablement les barrières à l'entrée de nouveaux acteurs sur le marché. Son point de vue fait toutefois l'objet de controverses.

    Selon les prédictions, l'avènement de l'AGI est une promesse et un potentiel immenses pour l'avenir de l'humanité. Grâce à ses capacités avancées, l'AGI a le pouvoir de révolutionner les industries, de relever des défis mondiaux complexes et de remodeler notre façon de travailler et de vivre. L'on s'attend à ce que l'AGI fasse preuve de capacités cognitives égales ou supérieures à celle de l'homme, mais pour l'instant, elle reste un objectif insaisissable, avec de nombreux défis techniques à relever. Cependant, les plus enthousiastes affirment que chaque jour qui passe nous rapproche de la création d'entités artificielles rivalisant avec nos capacités cognitives.


    Certains parmi eux pensent d'ailleurs que nous sommes déjà en présence d'une forme d'AGI. À titre d'exemple, le PDG d'OpenAI, Sam Altman, a déclaré il y a peu que son chatbot d'IA ChatGPT aurait pu être considéré comme une AGI il y a 10 ans. Il a laissé entendre que ChatGPT est victime de l'effet IA. (L'effet IA est dû au fait que la communauté de l'IA (experts, chercheurs, etc.) a tendance à ajuster ses attentes en matière d'IA à mesure que la technologie progresse et que certaines tâches deviennent courantes.) De plus, Google DeepMind a récemment décidé de classer ChatGPT d'OpenAI et Bard de Google comme étant des formes d'AGI émergentes.

    Pour ces différents acteurs du secteur de l'IA, nous embarquons dans un voyage transformateur et il est crucial de donner la priorité aux considérations éthiques, d'établir des réglementations solides et de garantir la transparence et la responsabilité dans le développement de l'AGI. Après tout, nous ne voulons pas que l'AGI soit plus intelligente que nous et devienne notre maître. Toutefois, le journaliste technologique Dana Blankenhorn s'oppose catégoriquement à ces discours qu'il considère comme une duperie et un mensonge. Dans une analyse publiée récemment sur le sujet, Blankenhorn expose les points critiques de son point de vue comme suit :


    Avant que tout le monde ne commence à publier des articles sur le "meilleur de 2023", voici le mensonge de l'année.

    L'intelligence artificielle générale (AGI)

    Ce mensonge a été élaboré lorsque l'OpenAI a commencé à pousser des programmes d'"intelligence artificielle générative" comme son ChatGPT, et il continue de se répandre. L'IA générative est issue de l'informatique de base de données basée sur le cloud que nous avons depuis une décennie. Elle est issue d'entreprises telles que Salesforce.com, qui vendaient des bases de données en tant que service dans le sillage de l'explosion de l'année 2000.

    L'IA générative combine l'apprentissage automatique à partir d'une grande base de données avec une sortie flexible. Vous voulez une photo d'Elon Musk en rat ? Que diriez-vous d'une chanson sur les arbres dans le style de Steely Dan ? Voulez-vous une histoire sur l'actualité racontée par Mark Twain ? Que diriez-vous de rendre le pare-feu de votre entreprise proactif plutôt que réactif ? Il existe un programme d'IA générative qui vous aide à accomplir toutes ces tâches. C'est génial.

    L'apprentissage automatique sur le Big Data

    Mais l'IA générative n'est pas la même chose que l'intelligence générale.

    Il s'agit d'un apprentissage automatique fondé sur un grand modèle de langage. Il s'agit d'un logiciel dont les résultats imitent ce que les gens ont fait avant lui. Cela signifie qu'elle a besoin d'informations sur ce qui a déjà été fait et d'algorithmes basés sur des données humaines pour faire quoi que ce soit.

    L'IA générative ne peut pas penser. Elle ne peut que calculer.

    Le mensonge sur l'intelligence artificielle générale est, comme la plupart des autres mensonges aujourd'hui, raconté pour des raisons politiques. Sam Altman veut que les grandes entreprises technologiques contrôlent le marché. Il veut que le gouvernement "réglemente" l'IA afin que seules quelques personnes et entreprises puissent l'utiliser, et il veut bien sûr faire partie des élus. Au minimum, son objectif est d'élever considérablement les barrières à l'entrée du nouveau marché.

    En effet, l'IA générative peut rapporter beaucoup d'argent. Elle peut augmenter la productivité. Par exemple, elle peut planifier les ressources d'un hôpital, y compris son personnel, plus efficacement que la direction, parce qu'elle connaît toutes les ressources dont dispose l'hôpital, ainsi que les schémas d'utilisation.

    C'est ce que nous montrent les travaux des entreprises de bases de données existantes. Elles s'appellent toutes vendeuses d'"IA" aujourd'hui. Palantir et ServiceNow connaissent une croissance de 20 à 30 % par an, de manière rentable.

    L'utilisation des clouds pour traiter les données des programmes d'IA a également permis au fabricant de puces Nvidia de croître de 60 % par an. La capacité des clouds est absorbée par les clients, impatients de former de nouveaux modèles, aussi vite qu'elle est installée.

    Mais il ne s'agit pas d'intelligence. Il s'agit de logiciels, d'algorithmes spécifiques conçus pour des ensembles de données spécifiques, avec des cas d'utilisation spécifiques, écrits, installés et gérés par des êtres humains. Ce n'est rien sans vous.
    L'argumentaire de Blankenhorn a suscité de nombreuses réactions dans la communauté. Selon les critiques qui abondent dans son sens, il est important de contrer ce battage médiatique, car il exploite la naïveté des consommateurs afin de leur vendre tout produit estampillé "IA", qu'il soit efficace ou non. « ChatGPT, c'est comme la voyance. Le public est tellement désireux d'obtenir un miracle que même un tour de passe-passe bidon semble miraculeux. Lorsque tant de gens sont soit résignés à l'idée que l'AGI est une chose inévitable, il devient chaque jour plus facile pour une machine de passer le test de Turing sur le plan sociétal », indique un critique.

    Un autre a écrit : « nous avons inventé de nouveaux modèles d'apprentissage automatique capables de produire des images et des passages de texte convenables, si bien que les entreprises technologiques pensent que nous sommes sur le point de donner naissance à des esprits numériques qui pensent. Pour le dire simplement, il s'agit de fantasmes stupides et naïfs fondés sur une vision du monde axée sur la fiction. L'IA a changé et continuera de changer le monde en fonction de la façon dont les gens l'utilisent, mais l'idée que des formes de vie numériques conscientes d'elles-mêmes sont sur le point de naître est une fanfaronnade d'entreprise ».

    D'un autre côté, l'analyse de Blankenhorn est controversée. « Je suis d'accord pour dire que nous n'avons pas atteint l'AGI, mais son analyse est vraiment stupide. Il a oublié de fournir des preuves. L'ensemble de cet article peut être complètement rejeté. C'est en grande partie d'un argument d'homme de paille. L'argument principal était que les grands modèles de langage ne sont pas des AGI. Mais OpenAI et d'autres groupes travaillant sur les grands modèles de langages (et l'IA en général) ne prétendent pas attendre une AGI d'un grand modèle de langage », a écrit un critique. Selon lui, l'analyse de Blankenhorn n'apporte aucune information utile.

    Un autre critique a écrit : « il s'agit donc de l'argument standard : "il n'y a pas d'intelligence, ce n'est que de l'autocomplétion". La réponse à cela est "qui s'en soucie ?". Si le système est capable d'augmenter la productivité, de nous aider à résoudre des problèmes qui étaient auparavant insolubles (le repliement des protéines) et de remplacer des emplois, alors on se moque de savoir s'il est réellement intelligent ». Mais ce critique est controversé à son tour, puisqu'il semble minimiser l'influence du battage médiatique autour de l'IA et de l'AGI sur les décisions des consommateurs. À la limite, son argument encourage la surmédiatisation de la technologie.

    En somme, bien que Blankenhorn ne remette pas en cause le concept de l'AGI, il s'offusque contre le battage médiatique autour de cette technologie "hypothétique" et ses dangers potentiels pour l'humanité. Il affirme que tout ceci est fait afin de permettre à un petit groupe d'entreprises de contrôler le secteur de l'IA et d'entraver la concurrence en rendant difficile l'entrée de nouveaux acteurs sur le marché.

    Source : billet de blogue

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'analyse de Dana Blankenhorn sur l'AGI ?
    Que pensez-vous des accusations qu'il porte contre Sam Altman d'OpenAI ?
    Pensez-vous qu'il y a un battage médiatique autour de l'IA et de l'hypothétique AGI ?
    ChatGPT est-il à la hauteur de son succès ou cela est-il simplement dû à la surmédiatisation ?
    Que pensez-vous de l'AGI ? Sera-t-elle un jour une réalité ou restera-t-elle insaisissable pour toujours ?

    Voir aussi

    Comment saurons-nous que nous avons atteint une forme d'intelligence générale artificielle ? Pour certains experts en IA, ce sera lorsque la machine aura une cognition de niveau humain

    Comment vous préparez-vous à la probabilité d'un effondrement économique causé par l'AGI ? Certains suggèrent l'achat d'actions technologiques et d'autres pensent que cela n'arrivera pas

    Sam Altman, PDG d'OpenAI, affirme que ChatGPT aurait pu être considéré comme une intelligence générale artificielle il y a 10 ans, il a laissé entendre que le chatbot est victime de l'effet IA

  16. #96
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 604
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 604
    Points : 7 477
    Points
    7 477
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Que pensez-vous de l'analyse de Dana Blankenhorn sur l'AGI ?
    Enfin quelqu'un qui ne fat pas que répéter bêtement ce que les organismes de communication des grands groupes de tech leur servent.
    Son analyse est pertinente, et il a raison: il s'agit juste d'un battage médiatique, et pour ma part, je commence à trouver ça vraiment lassant.
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  17. #97
    Membre habitué Avatar de rsuinux
    Homme Profil pro
    Infirmier Formateur pour logiciel de Dossiers de Soins Informatisés
    Inscrit en
    Août 2007
    Messages
    128
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Haute Vienne (Limousin)

    Informations professionnelles :
    Activité : Infirmier Formateur pour logiciel de Dossiers de Soins Informatisés
    Secteur : Santé

    Informations forums :
    Inscription : Août 2007
    Messages : 128
    Points : 170
    Points
    170
    Par défaut
    Citation Envoyé par kain_tn Voir le message
    Enfin quelqu'un qui ne fat pas que répéter bêtement ce que les organismes de communication des grands groupes de tech leur servent.
    Son analyse est pertinente, et il a raison: il s'agit juste d'un battage médiatique, et pour ma part, je commence à trouver ça vraiment lassant.
    D'accord avec vous.
    Ce qui me gène plus pour regarder a mon niveau, c'est que même mon directeur de DSI semble se faire avoir par ce discours. C'est lamentable. Et ce doit pas être le seul.
    Si tu ne sais pas: demande, si tu sais, partage.

  18. #98
    Membre éprouvé

    Profil pro
    Inscrit en
    Décembre 2010
    Messages
    105
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Décembre 2010
    Messages : 105
    Points : 1 036
    Points
    1 036
    Billets dans le blog
    1
    Par défaut Pascal...
    Tout à fait d'accord. Plutôt que de relayer ces news, relayons Pascal (1623-1662) à propos de sa Pascaline :
    La machine d'arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu'elle a de la volonté, comme les animaux.
    (Pensées diverses IV - 6/23)

    A relayer ad libitum...

  19. #99
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 189
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 189
    Points : 3 635
    Points
    3 635
    Par défaut
    Citation Envoyé par rsuinux Voir le message
    Ce qui me gène plus pour regarder a mon niveau, c'est que même mon directeur de DSI semble se faire avoir par ce discours. C'est lamentable. Et ce doit pas être le seul.
    J'ai le même sentiment mais ma réponse est aussi simple : mon DSI n'a aucune légitimité à ce poste, mon directeur de la prod est un ingénieur industriel qui y a fait sa carrière, mon directeur financier a fait carrière dans la finance, mon directeur de la comm' a fait sa carrière dans la comm', mon DRH a fait des RH, mon DSI est un expert industriel qui écoute les grands groupes de la tech pour utiliser les bons buzz words et avoir l'air pertinent...

  20. #100
    Membre chevronné Avatar de Mister Nono
    Homme Profil pro
    Ingénieur Mathématiques et Informatique
    Inscrit en
    Septembre 2002
    Messages
    2 232
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Ingénieur Mathématiques et Informatique
    Secteur : Santé

    Informations forums :
    Inscription : Septembre 2002
    Messages : 2 232
    Points : 1 898
    Points
    1 898
    Par défaut
    Pauvre monde.
    La connaissance ne sert que si elle est partagée.
    http://ms2i.net

Discussions similaires

  1. Réponses: 1
    Dernier message: 09/11/2009, 09h53
  2. Réponses: 0
    Dernier message: 23/09/2009, 12h22
  3. L'État pourrait être le seul actionnaire de l'AFP
    Par ®om dans le forum Politique
    Réponses: 7
    Dernier message: 16/09/2009, 19h20
  4. Steve Jobs pourrait être présent à la WWDC 09 !?
    Par Marcos Ickx dans le forum Apple
    Réponses: 2
    Dernier message: 07/06/2009, 13h09
  5. L'université pourrait être bien?
    Par johankonigsberg dans le forum Etudes
    Réponses: 13
    Dernier message: 07/01/2009, 15h36

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo