IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #101
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    542
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 542
    Points : 9 921
    Points
    9 921
    Par défaut Le PDG de Nvidia, Jensen Huang, affirme qu'une percée de l'IA appelée AGI aura lieu d'ici cinq ans
    Le PDG de Nvidia, Jensen Huang, affirme qu'une percée de l'IA appelée AGI aura lieu d'ici cinq ans
    avec des machines "assez compétitives" par rapport à l'homme dans tous les domaines

    Jensen Huang, PDG de Nvidia, affirme que l'industrie atteindra une forme d'intelligence artificielle générale (AGI) d'ici cinq ans. Il a déclaré que d'ici là, l'IA deviendra "assez compétitive" par rapport à l'homme et que le monde assistera à l'émergence de "systèmes d'IA prêts à l'emploi" que les entreprises adopteront et adapteront à leurs besoins, de la conception de puces à la création de logiciels, en passant par la découverte de médicaments et la radiologie. Mais cette prédiction est controversée, des critiques affirmant qu'elle sert seulement à entretenir l'ambigüité et la bulle de l'IA afin de permettre à Nvidia de continuer à gonfler son chiffre d'affaires en vendant des puces d'IA.

    Le PDG de Nvidia a fait une apparition mercredi sur la scène de la conférence DealBook du New York Times et a répondu aux diverses questions du journaliste Andrew Ross Sorkin sur l'IA, et en particulier l'AGI. À la question de savoir s'il pense que l'AGI sera un jour une réalité, Huang a répondu par l'affirmative. Toutefois, il est parti de la définition de l'AGI et a laissé entendre que l'avènement de la technologie dépendra de la définition que le monde lui donne. « En fonction de la définition que vous en donnez, je pense que la réponse est oui », a répondu Huang. Il faut noter qu'il n'existe pas à l'heure actuelle un véritable consensus sur la définition de l'AGI.

    L'absence de consensus sur la question donne lieu à tout un tas de déclarations et de prédiction. Sam Altman, PDG d'OpenAI, n'a pas hésité à déclarer que son chatbot d'IA ChatGPT aurait pu être considéré comme une AGI il y a 10 ans. Il a laissé entendre que le chatbot est victime de l'effet IA. Google DeepMind a décidé récemment de classer ChatGPT d'OpenAI et Bard de Google comme étant des formes d'AGI émergentes. La société a publié un cadre définissant 5 niveaux d'AGI. Les réflexions du PDG de Nvidia sur l'AGI interviennent alors que certains chefs d'entreprise tirent la sonnette d'alarme sur ce qu'ils considèrent personnellement comme de l'AGI.


    Lors de la conférence, Huang a donné sa définition de l'AGI qui se lit comme suit : « un logiciel ou un ordinateur capable de passer des tests reflétant une intelligence de base assez compétitive par rapport à celle d'un être humain normal ». Selon Huang, si l'industrie adopte cette définition, alors l'avènement de l'AGI est imminent. « Je dirais que dans les cinq prochaines années, vous verrez, de toute évidence, des IA capables de réussir ces tests », a-t-il déclaré. Mais Huang ajoute que même si l'IA se développe plus rapidement qu'il ne l'avait prévu, elle n'a pas encore montré de signes qu'elle peut démontrer ou surpasser l'intelligence humaine complexe.

    Huang précise : « il ne fait aucun doute que le taux de progression est élevé. Mais il y a tout un tas de choses que nous ne pouvons pas encore faire. Le raisonnement en plusieurs étapes que les humains maîtrisent très bien, l'IA ne peut pas le faire ». Toutefois, certains critiques ont jugé son point de vue ambigu. D'autres affirment qu'il s'agit d'un nouvel argument marketing de la part du PDG d'une des entreprises les plus en vue du secteur de l'IA. Dans le même temps, certains pensent que son point de vue est plus "modéré", affirmant que Huang tente de trouver un équilibre entre la réalité et un argument marketing pouvant lui permettre de vendre davantage.

    « Je pense que Jensen Huang sait très bien que les modèles d'IA actuels ne sont rien d'autre que des algorithmes avancés d'apprentissage automatique et n'ont rien à voir avec l'intelligence humaine. Dans le même temps, il ne peut pas être plus clair sur la question, car il risque d'anéantir les espoirs de beaucoup de monde et de se tirer une balle dans le pied. Donc, il dit : "nous n'avons pas encore l'AGI. Mais elle sera là d'ici 5 ans. Alors, achetez autant de GPU que possible et formez votre propre truc, pour ne pas être laissé pour compte". Il dira n'importe quoi pour vendre plus de GPU et augmenter le prix des actions de sa société », a déclaré un critique.

    En effet, Nvidia est l'une des entreprises qui profitent le plus de la course effrénée à l'IA. Les puces d'IA de Nvidia sont si populaires que le chiffre d'affaires a triplé au cours du troisième trimestre fiscal de la société. Les activités de Nvidia sont en plein essor en raison de l'augmentation de la demande de ses GPU très puissantes, qui sont nécessaires pour entraîner les grands modèles de langage (LLM) et exécuter de lourdes charges de travail dans des secteurs tels que l'automobile, l'architecture, l'électronique, l'ingénierie et la recherche scientifique. Meta, Microsoft, OpenAI, et d'autres géants de la Tech s'affrontent pour avoir accès à aux GPU de Nvidia.

    Le chiffre d'affaires du troisième trimestre fiscal de Nvidia a triplé, tandis que le bénéfice net a grimpé à 9,24 milliards de dollars, contre 680 millions de dollars un an plus tôt. Dans l'interview, le PDG de Nvidia a rappelé avoir livré "le premier superordinateur d'IA au monde à OpenAI", après qu'Elon Musk a entendu Huang parler de l'appareil lors d'une conférence. Musk a cofondé OpenAI avec Sam Altman et d'autres investisseurs en 2015 avant de l'entreprise en 2018 sous fond de tensions sur la gestion. « Elon l'a vu, et il s'est dit "j'en veux un". Il m'a parlé d'OpenAI. J'ai livré le premier supercalculateur d'IA au monde à OpenAI ce jour-là », précise Huang.

    En ce qui concerne le récent chaos qu'a traversé OpenAI, la structure de son conseil d'administration et l'éviction puis la réintégration du PDG Sam Altman, Huang a déclaré qu'il espérait que les choses se calment. « Je suis heureux que les choses soient réglées, et j'espère qu'elles le seront. C'est une équipe vraiment formidable. Huang. Cela nous rappelle également l'importance de la gouvernance d'entreprise. Nvidia est là 30 ans après sa création, nous avons traversé beaucoup d'adversité. Si nous n'avions pas créé notre entreprise correctement, qui sait ce qu'il serait advenu ? », a-t-il déclaré. Huang a refusé par la suite de classer les succès des entreprises d'IA.

    « Je ne vais pas classer mes amis. Je l'admets, j'en ai envie, mais je ne le ferai pas », a déclaré Huang. Par ailleurs, il a déclaré que malgré les lacunes de l'IA, elle est de plus en plus indispensable dans de nombreux domaines, voire tous les domaines. « Les logiciels ne peuvent pas être écrits sans IA, les puces ne peuvent pas être conçues sans IA, rien n'est possible », a-t-il conclu à propos du potentiel de l'IA. Huang a également déclaré que les puces H-100 que Nvidia livre aujourd'hui ont été conçues avec l'aide d'un certain nombre d'IA. Mais sans définition claire, il est difficile de répondre à cette question savoir le moment où l'AGI sera une réalité.

    Enfin, notons que de nombreuses personnes critiquent vivement ce qu'ils considèrent comme un battage médiatique autour de l'AGI. Cela induirait les consommateurs en erreur. D'après le journaliste technologique Dana Blankenhorn, l'AGI est le mensonge de l'année. Il affirme que la communication intense autour de l'AGI est liée aux visées politiques de certains acteurs importants du secteur de l'IA et à leurs tentatives visant à contrôler entièrement le développement de la technologie. Le journaliste allègue en outre que le but de ces acteurs est d'élever considérablement les barrières à l'entrée de nouveaux acteurs sur le marché.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des prédictions du PDG de Nvidia Jensen Huang ?
    Que pensez-vous de la définition qu'il donne à l'intelligence artificielle générale ?
    Comme lui, avez-vous l'impression que l'IA est devenu indispensable dans tous les domaines ?
    Quelle est votre prédiction sur l'AGI ? Cette technologie est-elle hors de portée ?

    Voir aussi

    Google DeepMind vient de publier une liste de niveaux d'AGI et définir des niveaux de performance, elle suggère des principes tels que se focaliser sur les capacités plutôt que sur les mécanismes

    « L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

    Sam Altman, PDG d'OpenAI, affirme que ChatGPT aurait pu être considéré comme une intelligence générale artificielle il y a 10 ans, il a laissé entendre que le chatbot est victime de l'effet IA

  2. #102
    Membre éclairé Avatar de laloune
    Homme Profil pro
    Consultant en Business Intelligence
    Inscrit en
    Mai 2005
    Messages
    484
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Consultant en Business Intelligence

    Informations forums :
    Inscription : Mai 2005
    Messages : 484
    Points : 873
    Points
    873
    Par défaut
    Citation Envoyé par rsuinux Voir le message
    Ce qui me gène plus pour regarder a mon niveau, c'est que même mon directeur de DSI semble se faire avoir par ce discours. C'est lamentable. Et ce doit pas être le seul.
    tellement vrai!

    la personne dans ma boite qui tient ce discours me vantait les mérites des NFT il y a 18 mois, pourquoi le metavers était quelque chose d'inexorable, etc...
    laloune
    Consultant B.I.
    Spécialité(s): Excel, SQL, Business Intelligence (Jedox Palo, Talend)

    "A problem worthy of attack proves its worth by fighting back." Piet Hein

  3. #103
    Membre habitué
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Mai 2006
    Messages
    75
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Consultant informatique

    Informations forums :
    Inscription : Mai 2006
    Messages : 75
    Points : 160
    Points
    160
    Par défaut
    Tout a fait d'accord.

    Le battage médiatique autour de l'IA commence vraiment à faire ch... . Ca ressemble à ce qu'on a déjà eu précédemment sur le metavers, les NFT, les blockchains, etc.
    Et Developpez.com participe à ce battage puisqu'on ne peut pas passer une journée sans avoir un article au sujet de l'IA. Un peu de recul me semble nécessaire, voir indispensable.

  4. #104
    Nouveau membre du Club
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Avril 2020
    Messages
    6
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Essonne (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Avril 2020
    Messages : 6
    Points : 26
    Points
    26
    Par défaut
    AGI

    - Artificial General Intelligence NON

    - Artificial General Imitation Peut être.

  5. #105
    Membre averti
    Profil pro
    Inscrit en
    Février 2010
    Messages
    267
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Février 2010
    Messages : 267
    Points : 367
    Points
    367
    Par défaut c'est super marrant
    On sait que Munsk a lancé ce battage médiatique pour lever des fonds .......

  6. #106
    Communiqués de presse

    Femme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2018
    Messages
    2 135
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 33
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Mai 2018
    Messages : 2 135
    Points : 158 426
    Points
    158 426
    Par défaut Le président de Microsoft estime qu'il n'y a aucune chance que l'IA superintelligente apparaisse bientôt
    Le président de Microsoft, Brad Smith, a déclaré qu'il n'y avait aucune chance que l'IA superintelligente apparaisse bientôt, et que la technologie pourrait ne pas voir le jour avant plusieurs décennies

    Le cofondateur d'OpenAI, Sam Altman, a été démis de ses fonctions de PDG par le conseil d'administration de l'entreprise au début du mois, mais il a été rapidement réintégré après un week-end de protestations de la part des employés et des actionnaires.

    La semaine dernière, il a été rapporté que l'éviction était intervenue peu après que des chercheurs eurent contacté le conseil d'administration pour l'avertir d'une découverte dangereuse dont ils craignaient qu'elle n'ait des conséquences inattendues.

    Le projet interne baptisé Q* (prononcé Q-Star) pourrait constituer une percée dans la recherche de ce que l'on appelle l'intelligence artificielle générale (AGI). L'OpenAI définit l'AGI comme des systèmes autonomes qui surpassent les humains dans la plupart des tâches à valeur économique.

    Toutefois, le président de Microsoft, Brad Smith, s'adressant à des journalistes en Grande-Bretagne jeudi, a rejeté les affirmations selon lesquelles il s'agirait d'une percée dangereuse.

    "Il est absolument improbable que l'on assiste à ce que l'on appelle l'AGI, où les ordinateurs sont plus puissants que les humains, au cours des 12 prochains mois. Cela prendra des années, voire des décennies, mais je pense que c'est maintenant qu'il faut se concentrer sur la sécurité", a-t-il déclaré.

    Interrogé sur le fait de savoir si une telle découverte a contribué à la révocation d'Altman, Smith a déclaré : "Je ne pense pas que ce soit le cas. Je pense qu'il y avait manifestement une divergence entre le conseil d'administration et d'autres, mais ce n'était pas fondamentalement une préoccupation comme celle-là."

    "Ce dont nous avons vraiment besoin, ce sont des freins de sécurité. Tout comme il y a un arrêt de sécurité dans un ascenseur, un disjoncteur pour l'électricité, un frein d'urgence pour un bus, il devrait y avoir des arrêts de sécurité dans les systèmes d'IA qui contrôlent les infrastructures critiques, afin qu'ils restent toujours sous le contrôle de l'homme", a ajouté M. Smith.


    Source : Brad Smith, président de Microsoft, s'adressant à des journalistes en Grande-Bretagne

    Et vous ?

    Que pensez-vous des déclarations de Brad Smith, président de Microsoft ? les trouvez-vous pertinentes ?
    Quel est votre avis sur la création d'une IA superintelligente ?

    Voir aussi :

    L'illusion du risque existentiel de l'IA : pourquoi il faut arrêter de craindre une IA surpuissante et malveillante, selon Google Research et des experts en IA

    « Nous pourrions ne pas être capables de contrôler une IA super intelligente ou ignorer qu'elle est déjà parmi nous », d'après de récents travaux sur la théorie de calculabilité en informatique

    OpenAI met sur pieds une division chargée de créer une IA qui va contrôler le développement de la superintelligence, supposée être plus intelligente que l'homme. Elle pourrait arriver d'ici 2030
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #107
    Expert confirmé Avatar de sergio_is_back
    Homme Profil pro
    Responsable informatique, développeur tout-terrain
    Inscrit en
    Juin 2004
    Messages
    1 086
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Responsable informatique, développeur tout-terrain
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 086
    Points : 5 606
    Points
    5 606
    Par défaut
    Le frein s'appelle "L'interrupteur" : Sans électricité plus d'IA !!!

  8. #108
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 843
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 843
    Points : 51 507
    Points
    51 507
    Par défaut Le cofondateur de Google DeepMind, est convaincu depuis 2009 qu'il y a 50 % de chances de parvenir à l'AGI
    Shane Legg, cofondateur de Google DeepMind, est convaincu depuis 2009 qu'il y a 50 % de chances de parvenir à l'intelligence artificielle générale d'ici à 2028
    Et maintient cette conviction à date

    Shane Legg, cofondateur de Google DeepMind, est convaincu depuis 2009 qu’il y a 50 % de chances de parvenir à l’intelligence artificielle générale (AGI) d’ici à 2028, soit dans 5 ans. Il l’a réitéré dans un très récent entretien et donc maintient cette conviction. Seulement, avec sa sortie, le débat contradictoire sur l’atteinte de l’AGI s’est vu relancer car à la question de savoir comment la définir il a répondu « qu’il n’avait pas de définition précise en la matière » avant de donner SA définition actuelle. Le débat n’est pas nouveau car la notion même d’intelligence dispose d’autant de définitions que de points de vue des chercheurs en la matière. Il vient donc que l’AGI est même déjà présente pour certains tandis qu’elle restera de l’ordre de l’utopie pour d’autres.

    Sa sortie s’accorde en tout cas avec celle du PDG de Google Deepmind, à mi-parcours de l’année qui tire à son terme, et selon laquelle « l’atteinte d’une forme d’intelligence artificielle de niveau humain (AGI) est possible dans une décennie. » C’est un avis similaire à celui du PDG de SoftBank selon lequel l’intelligence artificielle générale, qui surpasse l’intelligence humaine dans tous les domaines, devrait voir le jour d’ici 10 ans. En tout cas, « les personnes intelligentes qui pensent que l’IA ne pourrait pas l’être plus qu’elles sont bien plus bêtes qu’elles ne le pensent », selon Elon Musk qui est d’avis que l’atteinte du stade d’intelligence artificielle générale relève de l’inéluctable.


    L’intelligence artificielle générale (AGI) est déjà présente, selon des chercheurs et ingénieurs de Google

    « Les modèles d’IA les plus avancés d’aujourd’hui, tels que ChatGPT, Bard, LLaMA et Claude, sont considérés comme des modèles d’avant-garde qui présentent de nombreux défauts. Cependant, ils ont déjà franchi un seuil que les générations précédentes d’IA et de systèmes d’apprentissage profond supervisé n’ont jamais réussi à atteindre. Ils sont performants même dans des nouvelles tâches pour lesquelles ils n’ont pas été entrainés. Dans plusieurs décennies, ils seront reconnus comme les premiers véritables exemples d’intelligence générale artificielle (AGI), tout comme l’ENIAC de 1945 est aujourd’hui reconnu comme le premier véritable ordinateur électronique à usage général. Les ordinateurs d’aujourd’hui dépassent de loin la vitesse, la mémoire, la fiabilité et la facilité d’utilisation de l’ENIAC, et de la même manière, l’IA de demain améliorera celle d’aujourd’hui », indiquent Blaise Agüera y Arcas, vice-président et membre de Google Research, qui dirige une organisation travaillant sur la recherche fondamentale, le développement de produits et l’infrastructure pour l’IA, et Peter Norvig, informaticien et chercheur en éducation à l’Institut de Stanford pour l’IA centrée sur l’homme.

    Nom : 1.png
Affichages : 1433
Taille : 65,9 Ko

    « L'intelligence générale doit être considérée comme un tableau de bord multidimensionnel, et non comme une proposition unique de type oui/non. Néanmoins, il existe une discontinuité significative entre l'intelligence restreinte et l'intelligence générale : Les systèmes étroitement intelligents exécutent généralement un ensemble de tâches unique ou prédéterminé, pour lequel ils ont été explicitement formés. Même l'apprentissage multitâche ne produit qu'une intelligence restreinte, car les modèles fonctionnent toujours dans les limites des tâches envisagées par les ingénieurs. En effet, une grande partie du travail d'ingénierie difficile nécessaire au développement de l'intelligence artificielle restreinte consiste à conserver et à étiqueter des ensembles de données spécifiques à une tâche », ajoutent-ils.

    Blake Lemoine, ancien ingénieur de Google et éthicien de l'intelligence artificielle a été licencié l'été dernier après avoir affirmé que son LaMDA LLM était devenu sensible. Ce dernier est d’avis que les modèles d’intelligence artificielle tels que nous les présentent déjà les grandes entreprises technologiques sont des artefacts intelligents. La sortie de la publication des chercheurs de Google était d’ailleurs l’occasion pour lui de signifier son approbation avec les conclusions mises en avant en son sein.


    « L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique


    Dana Blankenhorn, journaliste technologique, s'en prend vertement à ce qu'il appelle le battage médiatique autour de l'intelligence artificielle générale (AGI). Il affirme que l'AGI est le plus gros mensonge de l'année et que cette technologie n'existe tout simplement pas. Son analyse suggère que la surmédiatisation de l'AGI est liée aux visées politiques de certains acteurs importants du secteur de l'IA et à leurs tentatives visant à contrôler entièrement le développement de la technologie. Le journaliste allègue en outre que le but de ces acteurs est d'élever considérablement les barrières à l'entrée de nouveaux acteurs sur le marché.

    Voici l’essentiel de sa position sur la question :

    « Avant que tout le monde ne commence à publier des articles sur le "meilleur de 2023", voici le mensonge de l'année.

    L'intelligence artificielle générale (AGI)

    Ce mensonge a été élaboré lorsque l'OpenAI a commencé à pousser des programmes d'"intelligence artificielle générative" comme son ChatGPT, et il continue de se répandre. L'IA générative est issue de l'informatique de base de données basée sur le cloud que nous avons depuis une décennie. Elle est issue d'entreprises telles que Salesforce.com, qui vendaient des bases de données en tant que service dans le sillage de l'explosion de l'année 2000.

    L'IA générative combine l'apprentissage automatique à partir d'une grande base de données avec une sortie flexible. Vous voulez une photo d'Elon Musk en rat ? Que diriez-vous d'une chanson sur les arbres dans le style de Steely Dan ? Voulez-vous une histoire sur l'actualité racontée par Mark Twain ? Que diriez-vous de rendre le pare-feu de votre entreprise proactif plutôt que réactif ? Il existe un programme d'IA générative qui vous aide à accomplir toutes ces tâches. C'est génial.

    L'apprentissage automatique sur le Big Data

    Mais l'IA générative n'est pas la même chose que l'intelligence générale.

    Il s'agit d'un apprentissage automatique fondé sur un grand modèle de langage. Il s'agit d'un logiciel dont les résultats imitent ce que les gens ont fait avant lui. Cela signifie qu'elle a besoin d'informations sur ce qui a déjà été fait et d'algorithmes basés sur des données humaines pour faire quoi que ce soit.

    L'IA générative ne peut pas penser. Elle ne peut que calculer.

    Le mensonge sur l'intelligence artificielle générale est, comme la plupart des autres mensonges aujourd'hui, raconté pour des raisons politiques. Sam Altman veut que les grandes entreprises technologiques contrôlent le marché. Il veut que le gouvernement "réglemente" l'IA afin que seules quelques personnes et entreprises puissent l'utiliser, et il veut bien sûr faire partie des élus. Au minimum, son objectif est d'élever considérablement les barrières à l'entrée du nouveau marché.

    En effet, l'IA générative peut rapporter beaucoup d'argent. Elle peut augmenter la productivité. Par exemple, elle peut planifier les ressources d'un hôpital, y compris son personnel, plus efficacement que la direction, parce qu'elle connaît toutes les ressources dont dispose l'hôpital, ainsi que les schémas d'utilisation.

    C'est ce que nous montrent les travaux des entreprises de bases de données existantes. Elles s'appellent toutes vendeuses d'"IA" aujourd'hui. Palantir et ServiceNow connaissent une croissance de 20 à 30 % par an, de manière rentable.

    L'utilisation des clouds pour traiter les données des programmes d'IA a également permis au fabricant de puces Nvidia de croître de 60 % par an. La capacité des clouds est absorbée par les clients, impatients de former de nouveaux modèles, aussi vite qu'elle est installée.

    Mais il ne s'agit pas d'intelligence. Il s'agit de logiciels, d'algorithmes spécifiques conçus pour des ensembles de données spécifiques, avec des cas d'utilisation spécifiques, écrits, installés et gérés par des êtres humains. Ce n'est rien sans vous. »


    En somme, bien que Blankenhorn ne remette pas en cause le concept de l'AGI, il s'offusque contre le battage médiatique autour de cette technologie "hypothétique" et ses dangers potentiels pour l'humanité. Il affirme que tout ceci est fait afin de permettre à un petit groupe d'entreprises de contrôler le secteur de l'IA et d'entraver la concurrence en rendant difficile l'entrée de nouveaux acteurs sur le marché.

    Source : Vidéo Shane Legg

    Et vous ?

    Que pensez-vous de l'analyse de Dana Blankenhorn sur l'AGI ? La trouvez-vous pertinente ?
    Comment évaluez-vous les avancées en matière d’intelligence artificielle ? Quels sont les marqueurs qui laissent penser que ce n’est qu’une question de temps avant que la recherche n’atteigne le stade d’intelligence artificielle de niveau humain ? Est-il possible que ce ne soit jamais le cas ?

    Voir aussi :

    Comment saurons-nous que nous avons atteint une forme d'intelligence générale artificielle ? Pour certains experts en IA, ce sera lorsque la machine aura une cognition de niveau humain

    Comment vous préparez-vous à la probabilité d'un effondrement économique causé par l'AGI ? Certains suggèrent l'achat d'actions technologiques et d'autres pensent que cela n'arrivera pas

    Sam Altman, PDG d'OpenAI, affirme que ChatGPT aurait pu être considéré comme une intelligence générale artificielle il y a 10 ans, il a laissé entendre que le chatbot est victime de l'effet IA
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #109
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 856
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 856
    Points : 36 470
    Points
    36 470
    Par défaut Enjeux et avantages de l'IA générale : Sam Altman, PDG d'OpenAI, appel au changement de gouvernance
    Enjeux et avantages de l'IA générale : Sam Altman, PDG d'OpenAI, appel au changement de gouvernance,
    pour éviter la concentration du contrôle

    En 2023, Sam Altman, en tant que PDG d'OpenAI, s'est imposé comme une figure centrale dans les discussions sur l'intelligence artificielle (IA). Malgré son éviction temporaire en novembre, Altman soutient que cette expérience a renforcé la cohésion au sein de l'entreprise. Il met en avant l'idée que la montée en puissance de l'intelligence artificielle générale (AGI) nécessite un ajustement dans la gouvernance afin d'éviter une concentration excessive du contrôle.

    Altman insiste sur le fait que cette expérience a renforcé OpenAI, illustrant que le succès de l'organisation découle d'un travail d'équipe. Bien que cette période ait été personnellement difficile, il est convaincu que cela a été bénéfique pour OpenAI, les unifiant de manière inédite. Soulignant l'importance de la cohésion face à l'augmentation des enjeux liés à l'approche de l'IA générale, Altman met en avant que la capacité de l'équipe à opérer dans l'incertitude et le stress devrait susciter un intérêt à l'échelle mondiale.


    Évincé d’OpenAI pour manque de transparence

    OpenAI a annoncé le licenciement de son cofondateur et PDG Sam Altman le mois dernier, l'accusant d'avoir menti au conseil d’administration sur plusieurs aspects de son activité. Altman, qui était à la tête de l’entreprise depuis 2019, avait été accusé d’avoir dissimulé des informations sur les coûts, les revenus, les partenariats et les risques liés à son produit phare, ChatGPT, un chatbot avancé capable de générer des réponses humaines à partir de n’importe quelle question.

    Nom : Sam Altman.jpg
Affichages : 1800
Taille : 33,3 Ko

    Les désaccords sur la mission d'OpenAI, centrée sur la gestion des risques liés à l'intelligence artificielle générale (A.G.I), sont soulignés comme une source majeure de tensions. Certains membres avaient estimé qu'Altman entrave cette mission.

    Exprimant son point de vue sur son licenciement, Altman reconnaît que les personnes impliquées dans le domaine de l'IA deviennent plus stressées et anxieuses à mesure que la perspective de la superintelligence se rapproche. Il tire la leçon que des changements sont nécessaires, soulignant l'erreur dans la vision antérieure selon laquelle l'AGI ne devait pas être contrôlée par un petit groupe, mais plutôt démocratisée. Il insiste sur la nécessité d'améliorer la structure de gouvernance et les interactions avec le monde pour regagner la confiance.

    L'affirmation d'Altman selon laquelle son départ soudain de l'OpenAI a été une expérience enrichissante peut être interprétée de différentes manières. D'un côté, sa capacité à percevoir une expérience difficile comme une occasion d'apprentissage et de renforcement personnel est louable. Cela témoigne d'une mentalité résiliente et d'une volonté d'appréhender les défis comme des opportunités de croissance.

    Cependant, il est également crucial d'examiner les circonstances entourant ce départ et les raisons qui ont conduit à cette expérience. Un départ inattendu du PDG peut soulever des questions sur la stabilité interne et la gestion des ressources humaines au sein de l'organisation. Bien que Altman insiste sur le renforcement résultant de cette expérience, cela soulève des interrogations sur la stabilité du leadership et son impact sur l'équipe et la mission de l'OpenAI.

    Le fait qu'Altman reconnaisse que ce genre d'événement était attendu est intéressant, mais cela soulève également des questions sur la préparation de l'organisation à de tels scénarios. Un leadership solide devrait être capable de gérer les transitions de manière transparente et d'atténuer les effets négatifs potentiels sur la cohésion de l'équipe et les activités de recherche.

    Selon Altman, le potentiel de l'IA est immense, considérant l'AGI comme la technologie la plus puissante jamais inventée. Il souligne son rôle dans la démocratisation de l'accès à l'information à l'échelle mondiale, anticipant une réduction des coûts, une égalité accrue de l'intelligence, une amélioration significative de la qualité, et la transformation du monde en conformité avec les promesses de la science-fiction. Il estime que nous pourrions enfin commencer à entrevoir ce nouveau monde.

    Altman perçoit l'AGI comme une technologie révolutionnaire aux implications vastes, envisageant un monde où l'accès à l'information est démocratisé à l'échelle mondiale. Cependant, il reconnaît les défis, notamment le risque d'influence de l'IA sur les démocraties, particulièrement lors des élections. Il souligne le danger potentiel de la désinformation personnalisée générée par l'IA, capable de modifier profondément les perspectives individuelles.

    La vision de Sam Altman sur l'Intelligence Artificielle Générale (AGI) comme une technologie révolutionnaire avec le potentiel de démocratiser l'accès à l'information à l'échelle mondiale est certainement captivante et porteuse d'espoir. Cependant, sa reconnaissance des défis liés à l'IA, en particulier en ce qui concerne l'influence sur les démocraties, est essentielle et témoigne d'une prise de conscience nécessaire des implications sociétales.

    Le fait qu'Altman souligne le risque d'influence de l'IA pendant les élections est particulièrement pertinent, compte tenu des préoccupations croissantes concernant la manipulation de l'opinion publique par le biais de la désinformation. Son avertissement sur la possibilité de désinformation personnalisée, capable de modifier profondément les perspectives individuelles, met en lumière un aspect troublant de l'évolution potentielle de cette technologie.

    Cependant, la véritable mesure de la réussite de l'approche d'Altman dépendra de la manière dont OpenAI et d'autres acteurs de l'industrie parviendront à mettre en œuvre des mécanismes de gouvernance solides pour prévenir ces risques. Il est crucial de garantir que l'AGI soit utilisée de manière responsable et éthique, avec une transparence et une surveillance adéquates pour éviter tout abus.

    L’AGI, une opportunité à saisir avec responsabilité selon Sam Altman

    Bien que la vision d'Altman offre une perspective optimiste sur les avantages potentiels de l'AGI, elle souligne également la nécessité urgente de réglementations et de normes éthiques strictes pour guider le développement et l'utilisation de cette technologie. Les défis qu'il soulève ne doivent pas être sous-estimés, et la communauté mondiale doit travailler de concert pour atténuer les risques tout en maximisant les bénéfices de l'IA.

    Malgré ces risques, Altman reste optimiste quant aux bénéfices potentiels de l'IA, affirmant que, bien gérée et placée de manière responsable, elle pourrait contribuer à rendre le monde plus abondant et meilleur chaque année. Néanmoins, il admet l'incertitude liée à l'avenir de la technologie et souligne l'importance d'une approche sécurisée et responsable dans son déploiement.

    L'optimisme de Sam Altman concernant les bénéfices potentiels de l'intelligence artificielle (IA) est compréhensible, mais il est crucial d'examiner cette perspective avec un esprit critique. D'un côté, reconnaître que l'IA bien gérée et utilisée de manière responsable peut contribuer à améliorer le monde démontre une compréhension des avantages possibles de cette technologie. Cependant, plusieurs aspects méritent une évaluation approfondie.

    Tout d'abord, l'idée que l'IA peut rendre le monde « plus abondant et meilleur chaque année » nécessite une définition claire de ce que signifie « meilleur ». Les critères de bien-être et de progrès varient considérablement d'une personne à l'autre et d'une culture à l'autre. Il est donc crucial de définir des normes objectives et universelles pour évaluer le bien-être collectif que l'IA est censée améliorer.


    De plus, Altman admet lui-même l'incertitude liée à l'avenir de la technologie. Cette prudence est louable, mais il est important de souligner que l'IA évolue rapidement, et les conséquences à long terme de son déploiement massif sont difficiles à prévoir avec précision. L'incertitude ne doit pas seulement être admise mais doit également guider des politiques et des réglementations robustes pour anticiper et atténuer les risques potentiels.

    L'insistance d'Altman sur une approche sécurisée et responsable dans le déploiement de l'IA est cruciale, mais elle soulève aussi des questions sur la capacité réelle de l'industrie et des régulateurs à mettre en œuvre ces mesures. Le développement rapide de la technologie peut parfois surpasser les efforts visant à la réglementer, ce qui souligne la nécessité d'une vigilance constante.

    En résumé, bien que l'optimisme d'Altman puisse être justifié à certains égards, il est essentiel de maintenir un regard critique sur les déclarations positives concernant l'impact de l'IA. Cela nécessite une évaluation continue des progrès technologiques, ainsi que des actions concrètes pour garantir un déploiement responsable et éthique de l'IA, en minimisant les risques potentiels et en maximisant les avantages pour la société dans son ensemble.

    Source : Vidéo

    Et vous ?

    Quels sont les risques d’une concentration du contrôle de l’IA générative par quelques acteurs ?

    Comment l'avis de Sam Altman s’inscrit-il dans le contexte actuel de l’IA, marqué par des avancées technologiques, des tensions géopolitiques et des débats éthiques ?

    Voir aussi :

    Prévoir l'arrivée de l'AGI : une étude souligne le risque existentiel imminent pour l'humanité, qui pourrait être confrontée à son plus grand et son plus proche péril existentiel

    Nous avons désormais plus de détails sur ce qui s'est passé à OpenAI et qui a conduit au licenciement de Sam Altman, ce dernier a été accusé de monter les membres du conseil les uns contre les autres

    OpenAI licencie le co-fondateur et PDG Sam Altman, l'accusant d'avoir menti au conseil d'administration de l'entreprise. Viré du conseil, le co-fondateur Greg Brockman a préféré démissionner
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #110
    Membre averti
    Profil pro
    Inscrit en
    Février 2010
    Messages
    267
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Février 2010
    Messages : 267
    Points : 367
    Points
    367
    Par défaut Une escroquerie intellectuelle
    Il faut arrêter avec ces sujets ubuesque . L'Intelligence artificielle généralisée n'existera jamais, car ce ne sont que des systèmes à mémoire sans représentation du monde

  11. #111
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 125
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 125
    Points : 3 458
    Points
    3 458
    Par défaut
    Citation Envoyé par Bruno Voir le message
    Il met en avant l'idée que la montée en puissance de l'intelligence artificielle générale (AGI) nécessite un ajustement dans la gouvernance afin d'éviter une concentration excessive du contrôle.
    C'est intéressant qu'il dise ça au moment où il représente en partie cette concentration de contrôle et au moment où il est quasi intouchable. N'est pas l'un de ceux qui appelaient à plus de réglementation sur l'IA mais qui demandait ensuite que le brouillon de réglementation soit moins strict?

    Ce n'est clairement pas lui qu'il veut déforcer mais alors à quelle gouvernance veut il s'attaquer?
    Les actionnaires qui ont essayé d'avoir sa tête?

  12. #112
    Membre régulier
    Profil pro
    Inscrit en
    Août 2010
    Messages
    32
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Août 2010
    Messages : 32
    Points : 89
    Points
    89
    Par défaut
    Il faut arrêter avec ces sujets ubuesque . L'Intelligence artificielle généralisée n'existera jamais, car ce ne sont que des systèmes à mémoire sans représentation du monde
    Je suis bien conscient de certaines limites des modèles génératifs basés sur les transformeurs.
    Par contre je suis pas certain que la limite soit là, les modèles multimodaux arrivent à grand pas, qu'ils viennent d'OpenAI ou de modèles dérivés de Llama 2 ou Mistral.

    Il est probable que d'ici un an, un certain nombre de modèles soient doués de vision comme il sont déjà doués d'audition via Whisper (la parole n'en parlons pas, ça existe déjà très bien en dehors de l'IA).

    Si on en croit Yann LeCunn, les modèles génératifs auront toujours une limite indépassable car ce sont des système auto régressifs, ce qui leur permettre de faire des *raisonnements* par analogie, mais cela a vite ses limite en dehors des autres champs de l'intelligence.

    Mais je vois pas ce qui permet de dire que cela n'existera jamais. Après tout les transformeurs ont succédés aux les réseaux récurrents, il n'est pas impossible qu'une découverte soit faite dans un avenir proche.

  13. #113
    Membre chevronné Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    1 937
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 1 937
    Points : 2 018
    Points
    2 018
    Par défaut
    La grosse faille à leur truc me semble parler à la fois de création et de génératif + apprentissage.
    Tous les systèmes que l'on fera qui apprennent de l'existant et mixent des réponses en se basant sur cet apprentissage ne font qu'uniformiser/croiser des vérités qui n'en sont pas et niveler par le bas puisque tout se base sur ces choses apprises limitées.
    Je paris qu'un jour on donnera un nom au niveau de médiocrité/unformité vers lequel ces IA vont tendre à partir du capital d'info à apprendre.

    Sans oublier le Why ? pourquoi vouloir de telles intelligences alors que sommes toujours plus nombreux sur la Terre a avoir cette intelligence avec autant de sens à donner à la vie.
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  14. #114
    Nouveau membre du Club
    Homme Profil pro
    Ingénieur Système Linux
    Inscrit en
    Juillet 2009
    Messages
    23
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Ingénieur Système Linux

    Informations forums :
    Inscription : Juillet 2009
    Messages : 23
    Points : 25
    Points
    25
    Par défaut 640K ought to be enough for anybody !
    Bill Gates et ses petits copains sont des visionnaires, ça ne fait aucun doute !
    En 1981 il a dit : "640 Ko (de RAM) devraient suffire à tout le monde"...
    PS: citation niée par Bill Gates lui-même : "Je n'ai jamais dit cette affirmation, j'ai dit le contraire"...

    En 1985 (époque de l'Amiga 1000 qui pouvait aller jusqu'à 8Mo de FAST RAM), on se foutait déjà de sa gueule avec cette affirmation complètement saugrenue...
    Mais bon, je vous parle d'un temps que les moins de 20 ans ne peuvent pas connaître... :-)

  15. #115
    Futur Membre du Club
    Homme Profil pro
    Inscrit en
    Octobre 2013
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations forums :
    Inscription : Octobre 2013
    Messages : 1
    Points : 5
    Points
    5
    Par défaut
    Bonjour,

    Malheureusement l'histoire nous le démontre, tout ce que nous fessons sert aussi à nuire.
    Il en sera de même pour l'IA.

    Je dirais que "Les chiens ne font pas des chats"
    Or ici l'IA fait les choses bien mieux que nous. Et nous sommes, nous humains, je trouve, particulièrement doués pour nuire.

    Vous voyez donc (probablement pas d'ailleurs et moi non plus) ce à quoi s'attendre.

    Par ex l'énergie atomique est très bien pour notre usage courant.
    Mais c'est aussi en une seule bombe jusqu'à 100 km de destruction totale.(https://fr.wikipedia.org/wiki/Tsar_Bomba)

    Et comme c'est aussi en développement dans des pays ne partagant pas nos valeurs.
    Cela risque d'être bien bien amusant.

  16. #116
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    938
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 938
    Points : 15 562
    Points
    15 562
    Par défaut OpenAI estime que la superintelligence artificielle AGI pourrait arriver dans les 10 prochaines années
    OpenAI estime que la superintelligence artificielle AGI pourrait arriver dans les 10 prochaines années, mais demande de l'aide pour en contrôler les risques en annonçant un programme de subventions

    OpenAI a récemment annoncé le lancement d'un important programme de subventions de 10 millions de dollars, connu sous le nom de Superalignment Fast Grants. Cette initiative ambitieuse est conçue pour soutenir et stimuler la recherche technique axée sur l'alignement et la sécurité des systèmes d'IA surhumaine. Cette initiative importante d'OpenAI souligne les préoccupations et l'intérêt croissants pour le développement et le contrôle des systèmes d'IA surhumaine, ainsi que leurs risques et avantages potentiels.

    "10 millions de dollars de subventions pour soutenir la recherche technique sur l'alignement de l'AGI. Nous aurons besoin de nouvelles percées pour diriger et contrôler des systèmes d'IA beaucoup plus intelligents que nous. Il s'agit de l'un des problèmes techniques non résolus les plus importants de notre époque. Mais nous pensons qu'il s'agit d'un problème d'apprentissage automatique qui peut être résolu. Les nouveaux chercheurs peuvent apporter d'énormes contributions !" explique OpenAI. Les candidatures doivent être enregistrées avant le 18 février 2024.

    Les systèmes d'IA surhumaine, comme leur nom l'indique, sont des IA qui surpassent l'intelligence humaine dans la plupart des tâches à valeur économique. OpenAI estime que l'avènement de la superintelligence pourrait être imminent, potentiellement au cours de la prochaine décennie. Bien que cette évolution puisse apporter d'énormes avantages, depuis les percées dans le domaine des soins de santé jusqu'à la résolution de problèmes mondiaux complexes, elle comporte également des risques importants. Le défi consiste à s'assurer que ces systèmes d'IA surhumaine, et peut-être les robots humanoïdes récemment dévoilés, sont alignés sur les valeurs et les intérêts humains et qu'ils peuvent être contrôlés par les humains et bénéficier de leur confiance, une question qui a été au centre des préoccupations de la communauté de l'IA.


    Des systèmes d'IA surhumaine

    Les techniques actuelles d'alignement de l'IA, telles que l'apprentissage par renforcement à partir du retour d'information humain (RLHF), ont joué un rôle déterminant dans la formation des systèmes d'IA. Toutefois, ces méthodes pourraient ne pas être suffisantes pour les futurs systèmes d'IA surhumaine. Ces systèmes d'IA avancés sont susceptibles de présenter des comportements complexes et créatifs que le RLHF pourrait ne pas être en mesure d'exploiter ou de contrôler pleinement. Au fur et à mesure que les systèmes d'IA deviennent plus intelligents et autonomes, la tâche consistant à les aligner sur les valeurs humaines et à garantir leur sécurité devient de plus en plus ardue.

    Reconnaissant l'inadéquation des techniques d'alignement actuelles et le besoin pressant de méthodes avancées, OpenAI lance le projet Superalignment. Ce projet vise à rassembler les meilleurs chercheurs et ingénieurs pour relever le défi de l'alignement et de la sécurité de l'IA surhumaine. L'organisation estime qu'il s'agit d'un problème qui peut être résolu et voit de nombreuses approches et opportunités prometteuses pour la communauté de recherche sur l'apprentissage automatique afin de réaliser des progrès significatifs.

    Subventions rapides pour le Superalignement

    Pour soutenir davantage les efforts du projet Superalignment, OpenAI introduit le programme Superalignment Fast Grants de 10 millions de dollars en partenariat avec Eric Schmidt, l'ancien PDG de Google. Les subventions, allant de 100 000 à 2 millions de dollars, seront disponibles pour les laboratoires universitaires, les organisations à but non lucratif et les chercheurs individuels. En outre, une bourse OpenAI Superalignment d'une durée d'un an et d'un montant de 150 000 dollars sera proposée aux étudiants de troisième cycle, avec une allocation de 75 000 dollars et 75 000 dollars en calcul et en financement de la recherche.

    Le programme de subventions rapides pour le Superalignement et la bourse sont conçus pour attirer de nouvelles personnes dans le domaine et encourager un plus large éventail de perspectives et d'idées. Il est important de noter qu'aucune expérience préalable en matière d'alignement n'est requise pour postuler à ces subventions, ce qui ouvre la voie à des approches nouvelles et innovantes. Le processus de candidature est simple, avec un délai de réponse de quatre semaines après la clôture des candidatures, ce qui garantit un retour d'information rapide pour les candidats.

    Le lancement par l'OpenAI de cet important programme de subventions représente une avancée significative dans le domaine de l'IA. Il souligne l'urgence et l'importance d'aligner les systèmes d'IA surhumaine sur les valeurs humaines et de garantir leur sécurité. Avec le projet Superalignment et le programme Fast Grants, OpenAI ne se contente pas de relever ce défi, mais encourage également une communauté de recherche inclusive et diversifiée qui peut contribuer à cette tâche complexe et cruciale. Cette initiative témoigne de l'engagement d'OpenAI à faire en sorte que l'IA profite à l'ensemble de l'humanité.

    L'annonce d'OpenAI concernant le lancement du programme de subventions "Superalignment Fast Grants" est présentée ci-après :

    Nous pensons que la superintelligence pourrait voir le jour dans les dix prochaines années. Ces systèmes d'IA auraient de vastes capacités - ils pourraient être extrêmement bénéfiques, mais aussi potentiellement présenter des risques importants.

    Aujourd'hui, nous alignons les systèmes d'IA pour nous assurer qu'ils sont sûrs en utilisant l'apprentissage par renforcement à partir du retour d'information humain (RLHF). Cependant, l'alignement des futurs systèmes d'IA surhumaine posera des défis techniques fondamentalement nouveaux et qualitativement différents.

    Les systèmes d'IA surhumaine seront capables de comportements complexes et créatifs que les humains ne peuvent pas entièrement comprendre. Par exemple, si un modèle surhumain génère un million de lignes de code extrêmement compliqué, les humains ne seront pas en mesure d'évaluer de manière fiable si l'exécution du code est sûre ou dangereuse. Les techniques d'alignement existantes, telles que la RLHF, qui reposent sur la supervision humaine, pourraient ne plus être suffisantes. Cela nous amène à un défi fondamental : comment les humains peuvent-ils diriger des systèmes d'IA beaucoup plus intelligents qu'eux et leur faire confiance ?

    Il s'agit de l'un des problèmes techniques non résolus les plus importants au monde. Mais nous pensons qu'il est possible de le résoudre grâce à un effort concerté. Il existe de nombreuses approches prometteuses et des directions intéressantes, avec beaucoup de fruits à portée de main. Nous pensons qu'il existe une énorme opportunité pour la communauté de recherche en ML et les chercheurs individuels de faire des progrès majeurs sur ce problème aujourd'hui.

    Dans le cadre de notre projet Superalignment, nous souhaitons rassembler les meilleurs chercheurs et ingénieurs du monde pour relever ce défi - et nous sommes particulièrement enthousiastes à l'idée de faire entrer de nouvelles personnes dans le domaine.

    Subventions rapides pour le projet Superalignement

    En partenariat avec Eric Schmidt, nous lançons un programme de subventions de 10 millions de dollars pour soutenir la recherche technique visant à garantir l'alignement et la sécurité des systèmes d'IA surhumaine :

    • Nous proposons des subventions de 100 000 à 2 millions de dollars pour les laboratoires universitaires, les organisations à but non lucratif et les chercheurs individuels.
    • Pour les étudiants diplômés, nous sponsorisons une bourse OpenAI Superalignment d'une durée d'un an et d'un montant de 150 000 dollars : 75 000 dollars d'allocation et 75 000 dollars de calcul et de financement de la recherche.
    • Aucune expérience préalable en matière d'alignement n'est requise ; nous cherchons activement à soutenir les chercheurs qui sont enthousiastes à l'idée de travailler sur l'alignement pour la première fois.
    • Notre processus de candidature est simple et nous vous contacterons dans les quatre semaines suivant la clôture des candidatures.

    Postulez avant le 18 février

    Avec ces subventions, nous sommes particulièrement intéressés par le financement des directions de recherche suivantes :

    • Généralisation faible à forte : Les humains seront des superviseurs faibles par rapport aux modèles surhumains. Pouvons-nous comprendre et contrôler la manière dont les modèles forts généralisent à partir d'une supervision faible ?
    • Interprétabilité : Comment pouvons-nous comprendre les éléments internes des modèles ? Et pouvons-nous l'utiliser, par exemple, pour construire un détecteur de mensonges pour l'IA ?
    • Supervision évolutive : comment pouvons-nous utiliser des systèmes d'IA pour aider les humains à évaluer les résultats d'autres systèmes d'IA dans des tâches complexes ?
      De nombreuses autres directions de recherche, y compris, mais sans s'y limiter, l'honnêteté, la fidélité de la chaîne de pensée, la robustesse des adversaires, les évaluations et les bancs d'essai, et bien plus encore.

    Pour en savoir plus sur les orientations de la recherche, les FAQ et d'autres détails, consultez notre page sur les subventions rapides pour le superalignement.

    Rejoignez-nous dans ce défi

    Nous pensons que de nouveaux chercheurs pourraient apporter d'énormes contributions ! Il s'agit d'un domaine jeune avec de nombreux problèmes de recherche réalisables ; des contributions exceptionnelles pourraient non seulement aider à façonner le domaine, mais aussi être cruciales pour l'avenir de l'IA. Il n'y a jamais eu de meilleur moment pour commencer à travailler sur l'alignement.
    Source : "Superalignment Fast Grants" (OpenAI)

    Et vous ?

    Quel est votre avis sur le sujet ?

    Que pensez-vous de cette initiative d'OpenAI ? Trouvez-vous qu'il s'agit d'une démarche pertinente et cohérente ?

    Partagez-vous les préoccupations d'OpenAI concernant la menace potentielle soulevée par les systèmes de superintelligence artificielle ?

    Voir aussi

    Shane Legg, cofondateur de Google DeepMind, est convaincu depuis 2009 qu'il y a 50 % de chances de parvenir à l'intelligence artificielle générale d'ici à 2028 et maintient cette conviction à date

    L'atteinte d'une forme d'IA de niveau humain est-elle plus rapide que prévu ? Il y aurait une chance sur deux pour qu'une « AGI » soit conçue, testée et annoncée publiquement d'ici 2040

    Le président de Microsoft a déclaré qu'il n'y avait aucune chance que l'IA superintelligente AGI apparaisse bientôt, et que la technologie pourrait ne pas voir le jour avant plusieurs décennies
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  17. #117
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    938
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 938
    Points : 15 562
    Points
    15 562
    Par défaut OpenAI dévoile son "Cadre de préparation" pour assurer la sécurisation de ses modèles d'IA d'avant garde
    OpenAI dévoile son "Cadre de préparation", une initiative pour assurer la sécurisation du développement de ses modèles d'IA d'avant-garde, et systématiser la réflexion sur la sécurité

    OpenAI présente la version initiale de son Cadre de préparation (Preparedness Framework), qui décrit les processus de l'entreprise pour suivre, évaluer, prévoir et se protéger contre les risques catastrophiques posés par les modèles d'IA de plus en plus puissants. L'entreprise estime que l'étude actuelle des risques liés à l'IA d'avant-garde est loin d'être à la hauteur de ce qui est possible et de ce qu'il faudrait faire, et envisage de combler cette lacune et de systématiser la réflexion sur la sécurité à travers son cadre de préparation.

    OpenAI dispose de plusieurs équipes chargées de la sécurité et de la politique qui travaillent ensemble pour atténuer les risques liés à l'IA. L'équipe Systèmes de Sécurité (Safety Systems) se concentre sur l'atténuation de l'utilisation abusive des modèles et des produits actuels tels que ChatGPT. L'équipe Superalignment établit les bases de la sécurité des modèles superintelligents qui verront le jour dans un avenir plus lointain. Et l'équipe de Préparation (Preparedness) cartographie les risques émergents des modèles d'avant-garde et se connecte aux équipes Systèmes de Sécurité, Superalignment ainsi qu'aux autres équipes chargées de la sécurité et de la politique au sein d'OpenAI.

    Nom : three safety teams.PNG
Affichages : 920
Taille : 18,5 Ko

    Le cadre de préparation doit être guidé par la science et fondée sur des faits

    OpenAI investit dans la conception et l'exécution d'évaluations rigoureuses des capacités et des prévisions afin de mieux détecter les risques émergents. En particulier, il s'agit de dépasser les scénarios hypothétiques et de passer à des mesures concrètes et à des prédictions basées sur des données. Il est également important de regarder au-delà de ce qui se passe aujourd'hui pour anticiper ce qui se passera à l'avenir. Ce travail est tellement essentiel pour OpenAI qu'elle fait appel à ses meilleurs talents techniques pour l'accomplir.

    OpenAI est fondée sur l'association étroite de la science et de l'ingénierie, et le cadre de préparation apporte cette même approche au travail sur la sécurité. Des enseignements sont tirés des déploiements dans le monde réel et sont mis à profit pour atténuer les risques émergents. Pour que le travail sur la sécurité suive le rythme de l'innovation à venir, il ne suffit pas d'en faire moins, il faut continuer à apprendre par le biais d'un déploiement itératif.

    Cadre de préparation (en version bêta)

    Le Cadre de préparation d'OpenAI présente l'approche suivante pour développer et déployer les modèles d'avant-garde de l'entreprise en toute sécurité :

    Des évaluations seront effectuées et des "scorecards" seront continuellement mis à jour pour les modèles développés par OpenAI. Tous les modèles frontières seront évalués, y compris à chaque multiplication par deux de la capacité de calcul effective pendant les exercices d'entraînement. Les modèles seront poussés jusqu'à leurs limites. Ces résultats contribueront à l'évaluation des risques liés aux modèles d'avant-garde et à la mesure de l'efficacité des mesures d'atténuation proposées. L'objectif étant de sonder les limites spécifiques de ce qui n'est pas sûr afin d'atténuer efficacement les risques révélés. Pour suivre les niveaux de sécurité des modèles, des tableaux de bord des risques et des rapports détaillés seront produits.

    Nom : model score.PNG
Affichages : 616
Taille : 46,5 Ko

    Des seuils de risque seront établis pour déclencher des mesures de sécurité de base. Ces seuils ont été définis en fonction des catégories initiales suivantes : cybersécurité, CBRN (menaces chimiques, biologiques, radiologiques et nucléaires), persuasion et autonomie du modèle. Quatre niveaux de risque de sécurité sont alors prévus, et seuls les modèles dont le score après atténuation est égal ou inférieur à "moyen" peuvent être déployés ; seuls les modèles dont le score après atténuation est égal ou inférieur à "élevé" peuvent être développés plus avant. Des mesures de sécurité supplémentaires seront également mises en œuvre pour les modèles présentant des niveaux de risque élevés ou critiques (avant l'adoption de mesures d'atténuation).

    Nom : post mitigation score.PNG
Affichages : 614
Taille : 22,6 Ko

    Une équipe spécialisée sera mise en place pour superviser les travaux techniques et une structure opérationnelle sera établie pour la prise de décision en matière de sécurité. L'équipe chargée de la préparation dirigera les travaux techniques afin d'examiner les limites des capacités des modèles d'avant-garde, d'effectuer des évaluations et de synthétiser les rapports. Ce travail technique est essentiel pour éclairer la prise de décision d'OpenAI en matière de développement et de déploiement de modèles sûrs. OpenAI est en train de créer un groupe consultatif interfonctionnel sur la sécurité qui examinera tous les rapports et les enverra simultanément à la direction et au conseil d'administration. Bien que la direction soit le décideur, le conseil d'administration a le droit d'annuler les décisions.

    Nom : teams & process overseeing.PNG
Affichages : 615
Taille : 18,8 Ko

    OpenAI développera des protocoles pour renforcer la sécurité et la responsabilité externe. L'équipe Preparedness organisera régulièrement des exercices de sécurité pour tester les pressions exercées par l'activité et la culture de l'entreprise. Certains problèmes de sécurité peuvent apparaître rapidement et il sera alors possible de marquer les problèmes urgents afin d'y répondre rapidement. L'entreprise estime qu'il est essentiel que ce travail reçoive un retour d'information de la part de personnes extérieures à OpenAI et s'attend à ce que des audits soient menés par des tierces parties qualifiées et indépendantes. OpenAI continuera à faire évaluer ses modèles par des tiers, et prévoit de partager les mises à jour en externe.

    OpenAI contribuera à réduire d'autres risques connus et inconnus en matière de sécurité. Une collaboration étroite avec des parties externes ainsi qu'avec des équipes internes telles que Safety Systems sera mise en place afin de suivre les utilisations abusives dans le monde réel. OpenAI travaillera également avec l'équipe Superalignment sur le suivi des risques émergents liés au désalignement. L'entreprise est par ailleurs à l'avant-garde d'une nouvelle recherche visant à mesurer l'évolution des risques à mesure que les modèles s'étendent, afin d'aider à prévoir les risques à l'avance, à l'instar de ce qui a été fait précédemment avec les lois de mise à l'échelle. Enfin, un processus continu sera mis en œuvre pour tenter de mettre en évidence les "inconnues" émergentes.

    Il s'agit d'un résumé des principaux éléments du cadre de préparation (Beta), et vous êtes encouragés à lire la version complète. Ce cadre est la première version bêta adoptée par OpenAI et se veut un document évolutif. Il est prévu de le mettre à jour régulièrement au fur et à mesure des connaissances et des réactions que reçues.

    Source : "Preparedness" (OpenAI)

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    OpenAI estime que la superintelligence artificielle AGI pourrait arriver dans les 10 prochaines années, mais demande de l'aide pour en contrôler les risques en annonçant un programme de subventions

    OpenAI publie ses intentions dans le domaine de la sécurité en Intelligence artificielle, cela sera-t'il suffisant ?

    OpenAI crée une équipe chargée d'étudier les risques catastrophiques liés à l'IA, y compris les menaces nucléaires
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  18. #118
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    542
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 542
    Points : 9 921
    Points
    9 921
    Par défaut Ray Kurzweil s'en tient à ses prédictions : l'AGI arrivera d'ici 2029 et la singularité se produira d'ici 2045
    Ray Kurzweil s'en tient à ses prédictions de longue date : l'AGI arrivera d'ici 2029 et la singularité se produira d'ici 2045
    mais certains experts sont sceptiques à l'égard de ses prédictions

    Ray Kurzweil, directeur de l'ingénierie chez Google et célèbre futurologue, a fait de nombreuses prédictions au cours des dernières décennies et la plupart d'entre elles sont centrées sur l'évolution rapide de la technologie. Il a prédit notamment que l'intelligence artificielle générale (AGI) sera une réalité d'ici 2029 et que la singularité se produira d'ici 2045. Aujourd'hui encore, Ray Kurzweil s'en tient à ses prédictions et tout comme lui, de nombreux PDG de startups et d'entreprises d'IA affirment que l'humanité atteindra une forme d'AGI d'ici 2030. Certains experts se montrent toutefois plus modérés sur la question et d'autres font preuve de scepticisme à l'égard de ses prédictions.

    Ray Kurzweil est certain que l'industrie atteindra une forme d'AGI d'ici 2029

    Ray Kurzweil est un auteur, informaticien et inventeur américain. Prophète de l'IA depuis les années 1970, Kurzweil a fondé ou cofondé plusieurs entreprises prospères, dont Kurzweil Computer Products, Kurzweil Educational Systems et Nuance Communications. Mais il est peut-être beaucoup plus connu pour ses travaux sur la loi des rendements accélérés et pour ses prédictions sur l'avenir de la technologie et de la société. Parmi ses inventions les plus célèbres, Kurzweil a été le premier à créer un logiciel de reconnaissance optique de caractères (optical character recognition - OCR) et il a cofondé une société de synthétiseurs musicaux avec Stevie Wonder.

    En 2012, Kurzweil a été engagé par le cofondateur de Google, Larry Page, comme directeur de l'ingénierie du géant de la recherche en ligne. Avec son équipe de programmeurs de logiciels de Google, il a étudié comment les ordinateurs pouvaient traiter, interpréter, comprendre et utiliser le langage humain dans les applications quotidiennes. Ray, aujourd'hui âgé de 75 ans, travaille toujours chez Google en tant que chercheur principal et visionnaire en matière d'IA. Ce qui signifie qu'il est l'un des principaux cerceaux derrière Gemini, le dernier grand modèle de langage de Google. L'entreprise affirme que Gemini surpasse le modèle GPT-4 d'OpenAI.

    Bien avant d'atterrir chez Google, Kurzweil a publié à partir des années 1990 de nombreux livres dans lesquels il a fait des prédictions sur l'évolution des technologies, et en particulier l'IA. Il a publié en 1990 "The Age of Intelligent Machines" (l'ère des machines intelligentes), puis "The Age of Spiritual Machines : when Computers Exceed Human Intelligence" (l'ère des machines spirituelles : quand les ordinateurs dépasseront l'intelligence humaine). En 2005, il a publié "The Singularity is Near: When Humans Transcend Biology" (la singularité est proche : quand les humains transcendent la biologie). Ces ouvrages prédisaient l'arrivée de l'AGI avant 2030.

    Kurzweil est convaincu que sa prédiction est réaliste et dans une interview cette année, il a réaffirmé ces propos. Il a déclaré que l'arrivée de l'AGI accélèrera la marche de l'humanité vers la singularité. La singularité est le terme utilisé par l'industrie pour désigner le moment où tous les progrès technologiques, notamment en matière d'IA, conduiront à des machines plus intelligentes que les êtres humains. Voici ce que dit Kurzweil à propos de ces deux évolutions probables :

    Citation Envoyé par Ray Kurzweil
    Il est certain que jusqu'en 2029, ces machines sauront tout ce que les êtres humains sauront. Nous allons développer cela à un rythme sans précédent en matière de progrès scientifique. Et d'ici 2045, nous aurons multiplié nos connaissances par au moins un million, ce qui est assez difficile à comprendre. C'est pourquoi on parle de singularité.
    Le calendrier de Kurzweil pour la singularité est cohérent avec d'autres prédictions, notamment celles du PDG de Softbank, Masayoshi Son, qui prévoit l'avènement de machines superintelligentes d'ici 2047. Mais pour Kurzweil, le processus menant à cette singularité a déjà commencé. « Cela nous amène à doter les ordinateurs d'une intelligence humaine, à les placer dans nos cerveaux, à les connecter au nuage, à élargir notre identité. Aujourd'hui, il ne s'agit pas d'un scénario futur. C'est déjà là, en partie, et cela va s'accélérer », a déclaré le cadre de Google lors de l'une de ses récentes sorties. Alors, l'humanité doit-elle craindre la singularité ?

    De nombreux grands noms de la science et de la technologie, comme Stephen Hawking, Elon Musk et même Bill Gates, mettent en garde contre ce type d'avenir. Mais Kurzweil n'est pas de cet avis. En fait, il ne s'inquiète pas particulièrement de la singularité. Il serait plus juste de dire qu'il l'attend avec impatience. Selon Kurzweil, ce que la science-fiction dépeint comme la singularité, à savoir le moment où une seule machine superintelligente asservira l'humanité, n'est que cela : de la fiction. « Ce n'est pas réaliste. Nous n'avons pas une ou deux IA dans le monde. Aujourd'hui, nous en avons des milliards », a déclaré Kurzweil lors d'une récente interview.

    Quelques autres prédictions de Ray Kurzweil pour l'avenir de la technologie

    Pour Kurzweil, la singularité est une opportunité pour l'humanité de s'améliorer. Il imagine que la technologie qui rendra les IA plus intelligentes donnera également un coup de pouce aux humains. « Ce qui se passe en réalité, c'est que les machines nous propulsent tous. Elles nous rendent plus intelligents. Elles ne sont peut-être pas encore dans notre corps, mais d'ici les années 2030, nous connecterons notre néocortex, la partie de notre cerveau où nous réfléchissons, au cloud », a-t-il déclaré. Le futurologue a fait environ 147 prédictions depuis les années 1990 et revendique aujourd'hui un taux d'exactitude de 86 %. Kurzweil est toutefois controversé.


    Malgré ses nombreuses réalisations, Kurzweil reste un personnage controversé. Certains critiques l'accusent d'être trop optimiste quant au potentiel de la technologie, tandis que d'autres s'interrogent sur les implications éthiques de certaines de ses idées. Néanmoins, il est indéniable qu'il a eu un impact significatif sur le domaine de la technologie et du futurisme, et ses idées continueront probablement à façonner notre compréhension du futur pendant des années. Son idée selon laquelle nous pourrons devenir des cyborgs en fusionnant avec la machine est semblable à celle d'Elon Musk, PDG de Neuralink, une société qui fabrique des puces cérébrales.

    « Nous allons avoir plus de néocortex, nous allons être plus drôles, nous allons être meilleurs en musique. Nous serons plus sexy. Nous allons vraiment illustrer toutes les choses que nous apprécions chez les humains à un degré plus élevé », a-t-il déclaré. À ceux qui considèrent que cette société cybernétique relève plus du fantasme que de l'avenir, Kurzweil fait remarquer qu'il existe aujourd'hui des personnes vivant avec une sorte d'ordinateur dans le cerveau. Kurzweil fait notamment référence aux patients atteints de la maladie de Parkinson. Selon le futurologue, c'est ainsi que la cybernétique commence à peine à s'implanter, et finira par s'imposer.

    Et comme il est dans la nature de la technologie de s'améliorer, Kurzweil prédit qu'au cours des années 2030, une technologie sera inventée pour pénétrer le cerveau et aider la mémoire. Ainsi, au lieu de la vision de la singularité où les machines s'emparent du monde, Kurzweil pense qu'il s'agira d'un avenir où la synthèse homme-machine sera inégalée. Voici ci-dessous, d'autres prédictions audacieuses faites par Kurzweil au fil des années :

    Nanotechnologie et médecine

    Kurzweil a prédit des avancées majeures dans le domaine des nanotechnologies et de la médecine. Il pense que les nanorobots, de minuscules machines qui peuvent être programmées pour exécuter des fonctions précises dans le corps humain, vont bientôt révolutionner la médecine. Ces nanorobots pourraient réparer les cellules endommagées, guérir les maladies et même améliorer les capacités humaines.

    Réalité virtuelle et expériences immersives

    Kurzweil a prédit un avenir dans lequel la réalité virtuelle et les expériences immersives joueront un rôle de plus en plus important dans nos vies. Il pense que nous serons bientôt en mesure de vivre des expériences proches de la vie dans des mondes virtuels presque impossibles à distinguer de la réalité, ce qui nous permettra d'explorer de nouveaux domaines de l'existence et d'entrer en contact avec d'autres personnes de manière nouvelle et profonde.

    Solutions énergétiques et environnementales

    Enfin, Kurzweil pense que les nouvelles technologies aideront l'humanité à résoudre certains des défis environnementaux les plus urgents, tels que le changement climatique et la pollution. Il imagine un avenir dans lequel nous utiliserons de nouvelles sources d'énergie comme l'énergie solaire et l'énergie éolienne, ainsi que des technologies de recyclage avancées et des pratiques agricoles durables, afin de créer un monde plus durable et plus vivable pour chacun d'entre nous.

    Les idées de Ray Kurzweil sont parfois très controversées dans l'industrie

    Dans l'industrie, tout le monde n'est pas convaincu par les prédictions du futurologue, et son travail a fait l'objet d'un examen approfondi et de critiques au fil des ans. Certains critiques ont déclaré que les affirmations de Kurzweil sur la loi des rendements accélérés étaient exagérées et que le progrès technologique n'était peut-être pas aussi prévisible ou irrépressible que le suggère Kurzweil. D'autres ont mis en doute la faisabilité de certaines des prédictions les plus farfelues de Kurzweil, comme l'idée d'une singularité technologique. Ils affirment que les machines conscientes pourraient être beaucoup plus difficiles à créer que ne le suggère Kurzweil.

    La loi des rendements accélérés (Law of Accelerating Returns), inventée Kurzweil, est un concept qui a suscité beaucoup d'intérêt dans l'industrie. Elle est au cœur de la plupart de ses prédictions concernant l'avenir de la technologie et son impact sur la société. La loi décrit comment la technologie progresse à un rythme exponentiel plutôt que linéaire. Chaque innovation technologique s'appuie sur la précédente dans une boucle de rétroaction d'accélération de la croissance. Ainsi, Kurzweil pense que nous sommes à l'aube d'une singularité technologique, où les machines et les humains fusionneront pour former un nouveau type de superintelligence.

    Les critiques affirment également qu'il pourrait y avoir des limites au rythme du progrès technologique. Certains critiques se sont également inquiétés des implications éthiques des travaux de Kurzweil. Ils soulignent que les nouvelles technologies, en particulier celles qui ont le potentiel de créer des machines superintelligentes ou d'interférer avec la biologie humaine, peuvent comporter des risques inhérents et nécessiter une surveillance et une réglementation attentives afin d'éviter des conséquences imprévues. Bien sûr, Kurzweil réfute ces allégations et affirme que ces nouvelles technologies ne pourront qu'être bénéfiques pour l'humanité.

    Dans le même temps, l'humanité doit relever les défis et répondre aux préoccupations qui peuvent surgir dans un monde en évolution rapide. Cela peut signifier qu'il faudra veiller à ce que les nouvelles technologies soient développées de manière responsable et éthique, et qu'elles soient accessibles à tous. Selon les experts, cela permettra de créer un avenir à la fois passionnant et durable, qui reflète le meilleur de notre potentiel humain et notre désir de faire du monde un endroit meilleur pour tous.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des prédictions de Ray Kurzweil sur l'AGI et la singularité ?
    Ces prédictions sont-elles réalistes ? Selon vous, l'AGI arrivera-t-elle d'ici à 2029 ?
    Si oui, pensez-vous que la transition de l'AGI à la singularité prendra autant de temps ? Pourquoi ?
    Que pensez-vous des critiques formulées à l'égard de Ray Kurzweil ? Ce dernier est-il trop optimiste ?

    Voir aussi

    L'ingénieur Ray Kurzweil a fait des prédictions sur le paysage technologique de 2019 il y a 20 ans. Quelles sont celles qui se sont déjà réalisées ?

    Trolldi : Le futurologue Ray Kurzweil de Google pense que nous serons tous des cyborgs d'ici 2030 grâce à des nanorobots qui connecteront nos cerveaux au cloud

    Mark Zuckerberg pense que les prédictions d'Elon Musk sur l'IA sont irresponsables, le PDG de Tesla serait-il un peu trop pessimiste ?

  19. #119
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    942
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 942
    Points : 66 356
    Points
    66 356
    Par défaut Découvrez toutes les prédictions de 2,778 chercheurs sur le futur de l'IA
    Quand arrivera l'intelligence artificielle supérieure AGI, quand les humains seront totalement remplacés par l'IA, la fin du monde par l'IA, découvrez toutes les prédictions de 2,778 chercheurs

    Une nouvelle enquête dévoile les prédictions de 2 778 chercheurs sur le futur de l'IA. Parmi les sujets abordés : quand arrivera l'intelligence artificielle supérieure AGI, quand les humains seront totalement remplacés par l'IA, la fin du monde par l'IA, et bien d'autres.

    Dans le cadre de la plus grande enquête de ce type, 2 778 chercheurs ayant publié dans des revues d'intelligence artificielle (IA) de premier plan ont été interrogé, en leur demandant leurs prévisions sur le rythme des progrès de l'IA ainsi que sur la nature et l'impact des systèmes d'IA avancés. Les prévisions globales indiquent qu'il y a au moins 50 % de chances que les systèmes d'IA atteignent plusieurs étapes importantes d'ici 2028, notamment la construction autonome d'un site de traitement des paiements à partir de zéro, la création d'une chanson indiscernable d'une nouvelle chanson d'un musicien populaire, et le téléchargement autonome et l'ajustement d'un grand modèle de langage.

    Si la science se poursuit sans interruption, la probabilité que les machines autonomes surpassent les humains dans toutes les tâches possibles a été estimée à 10 % d'ici à 2027, et à 50 % d'ici à 2047. Cette dernière estimation est en avance de 13 ans sur celle obtenue dans une enquête similaire menée seulement un an plus tôt [Grace et al., 2022]. Toutefois, la probabilité que toutes les professions humaines deviennent entièrement automatisables devrait atteindre 10 % en 2037 et 50 % en 2116 (contre 2164 dans l'enquête de 2022).

    Nom : 1.png
Affichages : 5355
Taille : 74,6 Ko

    La plupart des répondants ont exprimé une grande incertitude quant à la valeur à long terme des progrès de l'IA : Si 68,3 % d'entre eux estiment que les résultats positifs de l'IA surhumaine sont plus probables que les résultats négatifs, 48 % de ces optimistes nets donnent au moins 5 % de chances à des résultats extrêmement négatifs tels que l'extinction de l'humanité, et 59 % des pessimistes nets donnent 5 % ou plus de chances à des résultats extrêmement positifs. Entre 37,8 % et 51,4 % des personnes interrogées ont donné au moins 10 % de chances à l'IA avancée d'aboutir à des résultats aussi mauvais que l'extinction de l'humanité.

    Plus de la moitié des personnes interrogées ont estimé qu'il y avait lieu de s'inquiéter "fortement" ou "extrêmement" de six scénarios différents liés à l'IA, notamment la diffusion de fausses informations, le contrôle autoritaire de la population et l'aggravation des inégalités. Les avis divergent sur la question de savoir si une progression plus rapide ou plus lente de l'IA serait meilleure pour l'avenir de l'humanité. Toutefois, un large consensus s'est dégagé sur la nécessité d'accorder une plus grande priorité à la recherche visant à minimiser les risques potentiels liés aux systèmes d'IA.


    Résumé des résultats

    Les participants ont exprimé un large éventail d'opinions sur presque toutes les questions : certains des plus grands domaines de consensus concernent l'étendue des possibilités d'avenir. Cette incertitude est frappante, mais plusieurs modèles d'opinion sont particulièrement instructifs.

    Alors que l'éventail des opinions sur le temps nécessaire pour que les étapes soient réalisables peut être large, l'enquête de cette année a montré un changement général en faveur d'attentes plus précoces. Au cours des quatorze mois qui se sont écoulés depuis la dernière enquête [Grace et al., 2022], un groupe de participants similaire s'attendait à des performances humaines de 13 à 48 ans plus tôt en moyenne (selon la formulation de la question), et 21 des 32 étapes à court terme sont maintenant attendues plus tôt.

    Une autre tendance frappante est l'attribution généralisée de crédit à des résultats extrêmement négatifs de l'IA. Comme en 2022, une majorité de participants considère que l'IA a au moins 5 % de chances de provoquer l'extinction de l'humanité ou une déchéance permanente et grave de l'espèce humaine, et ce résultat est cohérent pour quatre questions différentes, deux étant attribuées à chaque participant. Pour ces mêmes questions, entre 38 % et 51 % des participants ont estimé qu'il y avait au moins 10 % de chances que l'IA avancée entraîne ces conséquences.

    Nom : 2.PNG
Affichages : 3100
Taille : 34,1 Ko

    En général, les opinions sur les conséquences sociales attendues de l'IA avancée sont très variées, et la plupart des participants accordent une certaine importance aux résultats extrêmement bons et extrêmement mauvais. Si les scénarios optimistes reflètent le potentiel de l'IA à révolutionner divers aspects du travail et de la vie, les prédictions pessimistes - en particulier celles qui impliquent des risques d'extinction - rappellent brutalement les enjeux importants liés au développement et au déploiement de l'IA.

    Des inquiétudes ont été exprimées sur de nombreux sujets allant au-delà de l'extinction de l'homme : plus de la moitié des onze scénarios d'IA potentiellement préoccupants ont été jugés "substantiellement" ou "extrêmement" préoccupants par plus de la moitié des répondants.

    Mises en garde et limites : Les prévisions sont difficiles, même pour les experts

    Les prévisions sont difficiles en général, et on a observé que les experts en la matière n'obtenaient pas de bons résultats [Tetlock, 2005, Savage et al., 2021]. L'expertise des participants de cette enquête porte sur l'IA et ils n'ont pas de compétences inhabituelles en matière de prévision en général.

    Cette recherche et les enquêtes précédentes montrent que ces experts ne sont pas des prévisionnistes précis pour l'ensemble des questions posées. D'une part, pour de nombreuses questions, différents répondants donnent des réponses très différentes, ce qui limite le nombre d'entre eux qui peuvent être proches de la vérité. Néanmoins, dans d'autres contextes, les moyennes d'un large ensemble de prédictions bruyantes peuvent encore être relativement précises [Surowiecki, 2004], de sorte qu'il reste à savoir dans quelle mesure ces prévisions agrégées sont informatives.

    L'observation d'importants effets de cadrage est un autre élément de preuve qui va à l'encontre de l'exactitude des prévisions. Si des changements apparemment insignifiants dans la formulation des questions entraînent des changements importants dans les réponses, cela suggère que même les réponses globales à une question donnée ne constituent pas un guide précis de la réponse. Dans un exemple extrême d'une étude étroitement liée, Karger et al [2023] ont constaté que les diplômés de l'enseignement supérieur donnaient des réponses de près de six ordres de grandeur différents lorsqu'on leur demandait d'estimer l'ampleur des risques existentiels liés à l'IA : lorsqu'on leur donnait des exemples de probabilités d'événements peu probables, les estimations étaient beaucoup plus faibles. Un effet similaire pourrait s'appliquer à une certaine échelle aux participants de cette étude, bien que leur expertise et leur formation quantitative puissent l'atténuer. Les participants qui avaient davantage réfléchi par le passé aux risques de l'IA semblent donner des chiffres plus élevés, ce qui suggère qu'il est peu probable qu'ils donnent des chiffres radicalement inférieurs avec d'autres exemples de risques.

    Nom : 3.PNG
Affichages : 3095
Taille : 52,1 Ko

    Malgré ces limites, les chercheurs en IA sont bien placés pour contribuer à la précision des hypothèses collectives sur l'avenir. Même si elles ne sont pas fiables, les suppositions éclairées sont ce à quoi on doit se fier, et elles s'appuient sur une expertise dans le domaine concerné. Ces prévisions devraient faire partie d'un ensemble plus large de preuves provenant de sources telles que les tendances du matériel informatique, les progrès des capacités de l'IA, les analyses économiques et les idées des experts en prévision. Toutefois, la familiarité des chercheurs en IA avec la technologie concernée et leur expérience de la dynamique de ses progrès font d'eux les mieux placés pour formuler des hypothèses éclairées et informatives.


    Participation

    L'enquête a été suivie par 15 % des personnes contactées. Ce chiffre semble se situer dans la fourchette habituelle pour une grande enquête auprès d'experts. D'après une analyse de Hamilton [2003], le taux de réponse médian pour 199 enquêtes était de 26 %, et les listes d'invitation plus importantes ont tendance à produire des taux de réponse plus faibles : les enquêtes envoyées à plus de 20 000 personnes, comme cette enqupete, devraient avoir un taux de réponse de l'ordre de 10 %. Dans les échantillons spécialisés, tels que les scientifiques, les taux de réponse plus faibles sont fréquents en raison des difficultés d'échantillonnage, comme le montre l'enquête Assessing Fundamental Attitudes of Life Scientists as a Basis for Biosecurity Education [2009], qui a obtenu un taux de réponse de 15,7 % dans le cadre d'une enquête menée auprès de spécialistes des sciences de la vie.

    Comme pour toute enquête, ces résultats pourraient être faussés par un biais de participation, si les participants avaient des opinions systématiquement différentes de celles des personnes qui ont choisi de ne pas participer. Les enquêteurs ont cherchés à minimiser cet effet en cherchant à maximiser le taux de réponse et en limitant les indices sur le contenu de l'enquête disponibles avant de choisir de participer à l'enquête. Ils ont cherché des preuves d'un biais de réponse significatif au niveau de l'enquête et au niveau des questions, et ils n'en ont pas trouvé.

    Source : "Thousands of AI Authors on the Future of AI"

    Et vous ?

    Pensez-vous que cette enquête est crédible ou pertinente ?
    Quelles sont vos prédictions pour le futur de l'AI ?
    Quand arrivera l'intelligence artificielle supérieure AGI ? Les humains seront-ils totalement remplacés par l'IA ? La fin du monde pourrait-elle arriver à cause de l'IA ? Croyez-vous au scénario Skynet de Terminator ?

    Voir aussi :

    « L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

    Bill Gates prévient que l'intelligence artificielle est susceptible d'attaquer les humains et ravive les craintes sur une possible future apocalypse résultant de la création de l'IA

    2023, l'année de l'IA ? L'année a été marquée par l'émergence de l'IA générative, une explosion des investissements dans le domaine et l'accélération dans les législations
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  20. #120
    Membre averti
    Profil pro
    Inscrit en
    Février 2010
    Messages
    267
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Février 2010
    Messages : 267
    Points : 367
    Points
    367
    Par défaut le deep learning n'a pas de représentation du monde
    Le deep Learning n'a pas de représentation du Monde. Donc il ne peut pas simuler, pas mettre en place de stratégie pour simuler une experience, en tirer des règles, avoir un moteur de règles internes . Donc c'est de l'hype pour des chercheurs qui ont besoin de Publish or perish .
    Il manque le sens commun pour apprécier des situations.

Discussions similaires

  1. Réponses: 1
    Dernier message: 09/11/2009, 09h53
  2. Réponses: 0
    Dernier message: 23/09/2009, 12h22
  3. L'État pourrait être le seul actionnaire de l'AFP
    Par ®om dans le forum Politique
    Réponses: 7
    Dernier message: 16/09/2009, 19h20
  4. Steve Jobs pourrait être présent à la WWDC 09 !?
    Par Marcos Ickx dans le forum Apple
    Réponses: 2
    Dernier message: 07/06/2009, 13h09
  5. L'université pourrait être bien?
    Par johankonigsberg dans le forum Etudes
    Réponses: 13
    Dernier message: 07/01/2009, 15h36

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo