IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Les spéculations sur le mystérieux modèle d'IA très avancé d'OpenAI ne seraient qu'un "déluge d’absurdités"


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    422
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 422
    Points : 7 900
    Points
    7 900
    Par défaut Les spéculations sur le mystérieux modèle d'IA très avancé d'OpenAI ne seraient qu'un "déluge d’absurdités"
    Des chercheurs d'OpenAI auraient envoyé au conseil d'administration sortant une lettre l'avertissant d'une découverte majeure en matière d'IA
    et de la menace que cela représente pour l'humanité

    Les chercheurs d'OpenAI auraient fait une découverte majeure qui pourrait avoir des conséquences mondiales dans le cadre d'un projet baptisé Q*. Ils auraient envoyé une lettre au conseil d'administration sortant dans lequel ils font part de leur découverte ainsi que de leurs préoccupations. Ils explorent la nature de la découverte et ses implications, en mettant l'accent sur les dangers potentiels qu'elle peut représenter pour l'humanité. La lettre met en garde contre la commercialisation de la technologie sans en mesurer les conséquences. En outre, la lettre aurait joué un rôle clé dans le licenciement d'Altman et révèle de profonds désaccords au sein de l'entreprise.

    OpenAI aurait développé un algorithme d'IA proche d'une "superintelligence"

    Le but ultime d'OpenAI est de parvenir à une forme d'intelligence générale artificielle (AGI). Pour y arriver, le laboratoire d'IA bénéficie d'un soutien financier important de la part du géant des logiciels Microsoft et d'autres investisseurs en capital-risque. Après avoir publié en mars GPT-4, un puissant grand modèle de langage qui a fait preuve de capacités impressionnantes sur un certain nombre de benchmarks, OpenAI a récemment confirmé qu’il avait commencé le travail sur son prochain modèle d'IA, GPT-5. L'entreprise espère que Microsoft, son principal bailleur de fonds, va injecter plus d'argent dans ses recherches et lui fournir plus de puissance de calcul.


    Sam Altman, PDG d'OpenAI, a déclaré à l'époque : « il y a un long chemin à parcourir et beaucoup de calcul à réaliser entre notre niveau actuel et l'AGI. Les dépenses de formation sont tout simplement énormes ». Les déclarations d'Altman sur OpenAI et l'AGI manquent cruellement d'éléments de précision, pour ne pas dire qu'elles sont très évasives. Mais de nouvelles fuites signalent que les chercheurs d'OpenAI, dirigés par le scientifique en chef Ilya Sutskever, ont réalisé une percée majeure au cours des derniers mois. Cette "importante" découverte serait intervenue dans le cadre d'un projet secret connu sous le nom de code interne Q* (Q-Star).

    Des membres du personnel d'OpenAI au fait du projet estiment qu'à l'heure actuelle, Q* est ce qui se rapproche le plus d'une AGI. Dans un rapport publié par Reuters aujourd'hui, les sources interrogées décrivent le nouvel algorithme d'IA comme "une découverte puissante". L'une des sources a déclaré : « avec de vastes ressources informatiques, le nouveau modèle a pu résoudre certains problèmes mathématiques. Bien qu'il ne soit capable de traiter que des problèmes mathématiques de même niveau que celui des élèves de l'école primaire, le simple fait d'avoir réussi ces tests a rendu les chercheurs très optimistes quant au succès futur du projet Q* ».

    OpenAI définit l'AGI comme un système autonome qui surpasse les humains dans la plupart des tâches à valeur économique. En outre, les chercheurs considèrent les mathématiques comme une frontière pour le développement de l'IA. Actuellement, l'IA générative est efficace pour l'écriture et la traduction des langues en prédisant statistiquement le mot suivant, et les réponses à une même question peuvent varier considérablement. Mais elle affiche de piètres performances lorsqu'elle est soumise à des tests mathématiques. Qu'il s'agisse du chatbot ChatGPT d'OpenAI ou Bard de Google, tous galèrent face aux problèmes mathématiques de base.

    La capacité à résoudre des problèmes mathématiques pour lesquels il n'existe qu'une seule réponse correcte indique que l'IA est capable de performances proches du niveau de l'intelligence humaine. Selon les chercheurs en IA, cela pourrait s'appliquer à de nouvelles recherches scientifiques. Contrairement à une calculatrice qui ne peut résoudre qu'un nombre limité d'opérations, l'IA peut généraliser, apprendre et comprendre. Toutefois, malgré ses prouesses peu impressionnantes dans les tests mathématiques, Q* semble être suffisamment puissant pour exacerber les inquiétudes des chercheurs d'OpenAI sur les dangers potentiels que représente l'IA.

    Un projet qui suscite des craintes et donne lieu à des désaccords profonds

    Préoccupés par leur découverte, certains membres de l'équipe de recherches d'OpenAI auraient envoyé au conseil d'administration une lettre pour mettre en garde contre une commercialisation rapide du nouveau modèle d'IA qui, selon eux, pourrait menacer l'humanité. D'ailleurs, les sources interrogées indiquent que la lettre a joué un rôle déterminant dans la décision du conseil d'administration de congédier Altman à la surprise générale. Le conseil d’administration a expliqué avoir perdu confiance en la capacité d'Altman à diriger le laboratoire d'IA. L'éviction d'Altman du poste de PDG d'OpenAI et son licenciement ont provoqué une onde de choc dans l'industrie.


    Personne n'a encore fourni un compte rendu définitif de ce qui s'est passé, mais l'hypothèse la plus répandue est que cela était lié au développement possible d'une superintelligence, en l'occurrence le projet Q*. Se basant sur la lettre des chercheurs, le conseil d'administration aurait conclu que : Altman a voulu atteindre cet objectif à toute allure, ne s'est pas suffisamment préoccupé des questions de sécurité et n'a pas écouté les appels l'incitant à plus de prudence. Finalement, les membres du conseil d'administration auraient estimé qu'ils n'avaient plus d'autre choix que de se débarrasser de lui. Un porte-parole d'OpenAI a rejeté cette théorie.

    Toutefois, lors d'un sommet de dirigeants mondiaux à San Francisco la semaine dernière, Altman a laissé entendre qu'il pensait que des avancées majeures étaient en vue. « Quatre fois maintenant dans l'histoire d'OpenAI, la fois la plus récente étant juste au cours des deux dernières semaines, j'ai eu l'occasion d'être dans la salle, lorsque nous repoussons en quelque sorte le voile de l'ignorance et la frontière de la découverte, et avoir l'occasion de le faire est l'honneur professionnel d'une vie », a-t-il déclaré lors du sommet de la Coopération économique Asie-Pacifique. Un jour plus tard, le conseil d'administration sortant d'OpenAI a licencié Altman.

    Si Reuters cite des sources internes à OpenAI, il reste néanmoins à vérifier l'information. D'après l'une des sources, Mira Murati, directrice de la technologie, a parlé du projet Q* aux employés. Commentant la rumeur, un porte-parole d'OpenAI a déclaré que Mira Murati avait déclaré aux employés ce que les médias rapportaient, mais qu'elle n'avait pas commenté l'exactitude de l'information selon laquelle le projet aurait un lien avec l'éviction surprise d'Altman. Cette déclaration laisse entendre que le projet Q* existe, même s'il n'a aucun lien avec le renvoi d'Altman. Le projet Q* a donné lieu à un débat très animé sur le forum des développeurs d'OpenAI.

    Il existe peu d'informations sur le projet Q* et OpenAI n'a ni communiqué sur le sujet ni commenté les articles de presse qui l'évoquent. Hier, Altman a été réintégré en tant que PDG d'OpenAI. Le conseil d’administration sera remanié, avec le départ de plusieurs membres qui s’étaient opposés à Altman, notamment le scientifique en chef Ilya Sutskever. Adam D’Angelo, PDG de Quora, est le seul membre de l'ancien conseil d'administration qui a conservé sa place après le remaniement. Et Microsoft dispose maintenant d'une place au sein du conseil d'administration. Mercredi, OpenAI avait annoncé avoir trouvé un accord de principe pour le retour d'Altman.

    Sécurité de l'IA : fracture importante entre les principaux acteurs du secteur

    Les craintes liées à l'IA sont axées sur la possibilité d'un "désalignement", c'est-à-dire l'avènement d'une superintelligence qui ne serait pas alignée sur les objectifs de l'homme. Une telle IA pourrait développer ses propres objectifs et s'atteler fébrilement à les mettre en œuvre, détruisant tout sur son passage, y compris l'humanité s'il le faut. Mais cette vision dystopique de l'avenir de l'IA est rejetée par un certain nombre d'autres chercheurs en IA, comme le responsable de l'IA chez Meta, Yann LeCun. Selon ces chercheurs, en raison du fait que l'IA est une création humaine, elle ne fera de mauvaises choses que si son créateur le lui ordonne.

    Par exemple, un critique appartenant au deuxième groupe écrit : « le plus étrange dans tout cela, c'est qu'il n'y a pas lieu d'avoir des craintes aussi exagérées. Le vrai problème d'une IA super intelligente, c'est qu'elle pourrait être parfaitement alignée sur les objectifs humains, mais ce ne serait pas le bon humain. Aimeriez-vous une arme biologique capable de détruire l'humanité ? Oui, monsieur le terroriste, voici la recette. Il existe au moins des dizaines de scénarios extrêmement dangereux qui reposent sur l'idée simple - et plausible - que le vrai problème, ce sont les méchants acteurs qui se retrouveraient un jour en possession d'une superintelligence ».

    Toutefois, tous sont d'accord pour dire qu'il est nécessaire de mettre en place des garde-fous solides dans les modèles d'IA. Cela garantira un déploiement responsable et inclusif de cette technologie. Selon les analystes, le court exile d'Altman en dehors des bureaux d'OpenAI et les événements qui ont précédé son retour en disent long sur le schisme dans le développement de l'IA. C'est le reflet d'une conversation plus large sur le rôle de l'IA dans la société. L'expérience de l'entreprise a valeur d'avertissement pour l'ensemble du secteur. Cependant, la question est vraiment de choisir entre la vitesse de commercialisation des produits d'IA et la sécurité.

    Nombreux sont ceux qui remettent en cause la décision du conseil d'administration sortant, tandis que d'autres approuvent son approche proactive. Ce bref exil a mis en lumière le poids de la situation et les délibérations du conseil d'administration sur l'orientation future de l'OpenAI. Parmi les critiques qui soutiennent l'ancien conseil d'administration, beaucoup dénoncent le fait qu'OpenAI se soit écarté de sa vision initiale et recherche frénétiquement désormais le profit. Ils dénoncent aussi l'arrivée de Microsoft dans le nouveau conseil d'administration. Selon eux, cela signifie que Microsoft va accaparer les découvertes d'OpenAI et dicter la direction à suivre.

    « Cela me fait définitivement remettre en question les motivations de Sam Altman. En outre, cela place le récent drame sous un jour différent. On s'achemine vers des questions plus existentielles, plus vite qu'on ne l'aurait imaginé, et je préférerais que ce ne soit pas Microsoft qui décide si quelque chose est l'AGI ou non », a écrit un critique. D'autres sont moins enthousiastes et affirment qu'il est probable que la percée à laquelle les chercheurs d'OpenAI font allusion soit exagérée. « En tant que personne ayant effectué un bon nombre de recherches en ML/AI, je peux vous dire qu'il est très facile de penser que l'on a fait une percée », a écrit un autre.

    « L'IA comporte de nombreux biais cognitifs et je suis profondément sceptique. Il convient également de noter que nous avons appris aujourd'hui que la vente d'actions 86B est de nouveau d'actualité. Je suis sûr que cette "percée" suscitera l'intérêt des investisseurs », a-t-il ajouté. En somme, les récents événements au sein d'OpenAI pourraient bien créer un précédent dans la manière dont la communauté de l'IA aborde les défis éthiques qui l'attendent.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du projet Q* sur lequel OpenAI travaillerait ?
    Que pensez-vous du désaccord qui serait à l'origine du licenciement de Sam Altman ?
    Que pensez-vous des divisions profondes concernant les questions de sécurité liées à l'IA ?
    Que pensez-vous de l'arrivée de Microsoft au conseil d'administration d'OpenAI ?
    S'agit-il d'une bonne chose pour l'avenir de l'entreprise ? Pourquoi ?

    Voir aussi

    OpenAI aurait réalisé une percée majeure dans le domaine de l'IA avant l'éviction surprise de Sam Altman, la découverte a suscité des inquiétudes qui auraient joué un rôle clé dans son licenciement

    Sam Altman confirme qu'OpenAI a commencé à travailler sur GPT-5. Dans sa quête d'outils technologiques « superintelligents », il voudrait que Microsoft investisse davantage pour parvenir à l'IAG

    Sam Altman est réintégré en tant que directeur général d'OpenAI avec un nouveau conseil d'administration, qui pourrait compter jusqu'à neuf membres avec un siège pour Microsoft

  2. #2
    Membre confirmé
    Inscrit en
    Octobre 2005
    Messages
    239
    Détails du profil
    Informations forums :
    Inscription : Octobre 2005
    Messages : 239
    Points : 528
    Points
    528
    Par défaut
    Le jour où une IA réellement puissante tombe entre de mauvaises mains ça va faire de gros dégâts à l'Humanité entière.

  3. #3
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    422
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 422
    Points : 7 900
    Points
    7 900
    Par défaut Les spéculations sur le mystérieux modèle d'IA très avancé d'OpenAI ne seraient qu'un "déluge d’absurdités"
    Projet Q* : les informations sur la mystérieuse percée en matière d'IA des chercheurs d'OpenAI ne seraient qu'un "déluge d’absurdités"
    selon des critiques tels que le pionnier de l'IA Yann LeCun

    Le mystérieux projet Q* d'OpenAI a fait des vagues dans la communauté de l'IA au cours des derniers jours. Si OpenAI semble avoir confirmé l'existence du projet Q*, il n'existe pratiquement aucune information crédible sur ce nouveau modèle d'IA. La rumeur indique toutefois que ce mystérieux projet serait doté d'une logique proche de celle d'un être humain et serait capable de résoudre des problèmes mathématiques de base. Le modèle d'IA aurait suscité des inquiétudes au sein de la startup, ce qui a conduit au chaos observé dernièrement. Certains experts en IA estiment qu'il pourrait constituer un grand pas en avant, mais d'autres affirment qu'il ne s'agit que d'affabulations.

    Q* : le modèle d'IA serait capable de résoudre des problèmes mathématiques de base

    Un véritable chaos a régné au sein d'OpenAI entre le vendredi 17 et le mercredi 22 novembre 2023. Le PDG Sam Altman a été limogé à la surprise générale, puis a été réintégré quelques jours plus tard, mais nous ne savons toujours pas ce qui a été à l'origine de cet événement et aucune des parties concernées ne semble être prête à fournir des explications au grand public. De nombreuses théories ont émergé à la suite de cet événement, mais l'une des plus intéressantes concerne un énigmatique projet Q* (Q-Star) qui aurait créé de profondes dissensions au sein de la direction d'OpenAI. Ce qui aurait conduit par la suite au licenciement inattendu d'Altman.

    Selon cette rumeur, une équipe dirigée par le scientifique en chef d'OpenAI, Ilya Sutskever, avait fait une découverte majeure au début de l'année, ce qui leur a permis de construire un nouveau modèle d'IA connu sous le nom de Q*. Le modèle a été décrit comme ce qui se rapproche le plus d'une superintelligence artificielle à l'heure actuelle et serait en mesure de résoudre des problèmes mathématiques de base. Cette capacité n'est peut-être pas impressionnante, mais les chercheurs estiment que cela représenterait un énorme progrès par rapport aux modèles d'IA existants, qui peinent à se généraliser en dehors des données sur lesquelles ils ont été formés.

    OpenAI définit l'AGI comme un système autonome qui surpasse les humains dans la plupart des tâches à valeur économique. En outre, les chercheurs considèrent les mathématiques comme une frontière pour le développement de l'IA. Actuellement, l'IA générative est efficace pour l'écriture et la traduction des langues en prédisant statistiquement le mot suivant, et les réponses à une même question peuvent varier considérablement. Mais elle affiche de piètres performances lorsqu'elle est soumise à des tests mathématiques. Qu'il s'agisse du chatbot ChatGPT d'OpenAI ou Bard de Google, tous galèrent face aux problèmes mathématiques de base.

    « Si une IA peut raisonner logiquement et s'appuyer sur des concepts abstraits, ce qui est actuellement sa principale difficulté, alors il s'agit d'un progrès considérable. Les mathématiques permettent de raisonner de manière symbolique, en disant, par exemple : "si X est plus grand que Y et Y plus grand que Z, alors X est plus grand que Z". Les modèles de langage ont traditionnellement beaucoup de mal à faire cela parce qu'ils ne raisonnent pas de manière logique, ils n'ont que des intuitions », a déclaré Charles Higgins, cofondateur de la startup Tromero, spécialisée dans l'entraînement à l'IA. OpenAI n'a ni confirmé ni infirmé aucune de ces informations.

    Mais commentant les rumeurs sur le mystérieux projet Q* d'OpenAI, Yann LeCun, lauréat du prix Turing 2018 et responsable de l'IA chez Meta, a déclaré que l'on était en présence d'un déluge d'absurdités. « Veuillez ignorer le déluge d'absurdités au sujet de Q*. L'un des principaux défis pour améliorer la fiabilité du LLM est de remplacer la prédiction autorégressive des jetons par la planification. À peu près tous les meilleurs laboratoires (FAIR, DeepMind, OpenAI, etc.) travaillent sur cela et certains ont déjà publié des idées et des résultats », a déclaré le chercheur français en IA. Le projet Q* serait une tentative visant à apprendre aux modèles d'IA à planifier.

    LeCun a ajouté : « il est probable que Q* soit une tentative de planification de la part d'OpenAI . Ils ont pratiquement embauché Noam Brown (de Libratus/poker et de Cicero/Diplomacy) pour travailler sur ce sujet. [Note : je plaide pour une architecture d'apprentissage profond capable de planifier depuis 2016] ».

    Le nom de code Q* pourrait faire référence à l'apprentissage Q ou à l'algorithme Q*

    Il convient de noter qu'il existe une certaine ambiguïté quant à la réception de la lettre susmentionnée par le conseil d'administration, des sources internes à la société ayant déclaré qu'elle n'a pas été envoyée. En outre, des experts en IA ont vite fait de dézinguer les rumeurs selon lesquelles le mystérieux projet Q* d'OpenAI serait un modèle d'IA surpuissante capable de faire preuve d'une logique proche de celle de l'homme. Selon les experts en IA, il n'en est rien. Sophia Kalanovska, cofondatrice de Tromero, pense que le nom Q* implique qu'il s'agit d'une combinaison de deux techniques d'IA bien connues : l'apprentissage Q et l'algorithme de recherche A*.

    Selon elle, cela suggère que le modèle modèle Q* d'OpenAI pourrait combiner les techniques d'apprentissage en profondeur qui sous-tendent ChatGPT avec des règles programmées par les humains. « Je pense que cela est symboliquement très important. D'un point de vue pratique, je ne pense pas que cela va mettre fin au monde. Je pense que la raison pour laquelle les gens croient que Q* va conduire à l'AGI est que, d'après ce que nous avons entendu jusqu'à présent, il semble qu'il combinera les deux côtés du cerveau et sera capable de connaître certaines choses par expérience, tout en étant capable de raisonner sur des faits », a déclaré Kalanovska.

    L'apprentissage Q (Q-learning)

    L'apprentissage Q est un type d'apprentissage par renforcement, une méthode par laquelle l'IA apprend à prendre des décisions par essais et erreurs. Dans l'apprentissage Q, un agent apprend à prendre des décisions en estimant la "qualité" des combinaisons action-état. La différence entre cette approche et l'approche actuelles d'OpenAI (connue sous le nom de Reinforcement Learning Through Human Feedback - RLHF) est qu'elle ne repose pas sur l'interaction humaine et fait tout par elle-même. Selon les chercheurs, l'apprentissage Q vise surtout à apprendre aux agents d'IA à raisonner, ce qui devrait leur permettre d'avoir de nouvelles idées.

    Imaginez un robot naviguant dans un labyrinthe. Avec l'apprentissage Q, il apprend à trouver le chemin le plus rapide vers la sortie en essayant différents itinéraires, en recevant des récompenses positives définies par sa propre conception lorsqu'il se rapproche de la sortie et des récompenses négatives lorsqu'il se trouve dans une impasse. Au fil du temps, par essais et erreurs, le robot développe une stratégie (une "table Q") qui lui indique la meilleure action à entreprendre à partir de chaque position dans le labyrinthe. Ce processus est autonome et repose sur les interactions du robot avec son environnement. Il s'agit d'une sorte de planification.

    Si le robot utilise la RLHF, au lieu de découvrir les choses par lui-même, un humain pourrait intervenir lorsque le robot atteint un carrefour pour indiquer si le choix du robot était judicieux ou non. Ce retour d'information pourrait prendre la forme d'ordres directs ("tourne à gauche"), de suggestions ("essaie le chemin avec plus de lumière") ou d'évaluations des choix du robot ("bon robot" ou "mauvais robot"). Dans l'apprentissage Q, Q* représente l'état souhaité dans lequel un agent connaît exactement la meilleure action à entreprendre dans chaque état pour maximiser sa récompense totale attendue au fil du temps.

    En termes mathématiques, cela correspond à l'équation de Bellman. En mai de cette année, OpenAI a publié un article indiquant qu'ils avaient formé un modèle pour atteindre un nouvel état de l'art dans la résolution de problèmes mathématiques en récompensant chaque étape correcte du raisonnement au lieu de récompenser simplement la bonne réponse finale. Selon les experts, si les chercheurs d'OpenAI ont utilisé l'apprentissage Q ou une méthode similaire pour y parvenir, cela ouvrirait la voie à un tout nouvel ensemble de problèmes et de situations que ChatGPT serait en mesure de résoudre de manière native.

    L'algorithme Q* du MRPPS

    L'algorithme Q* fait partie du Maryland Refutation Proof Procedure System (MRPPS). Il s'agit d'une méthode sophistiquée de démonstration de théorèmes en IA, en particulier dans les systèmes de réponse aux questions. « L'algorithme Q* génère des nœuds dans l'espace de recherche, en appliquant des informations sémantiques et syntaxiques pour diriger la recherche. La sémantique permet de terminer les chemins et d'explorer les chemins fructueux », indique le document de recherche. Pour vous faire une idée plus claire sur le processus, considérez le scénario suivant : le détective fictif Sherlock Holmes essaie de résoudre une affaire complexe.

    Il recueille des indices (informations sémantiques) et les relie logiquement (informations syntaxiques) pour parvenir à une conclusion. L'algorithme Q* fonctionne de la même manière dans l'IA, en combinant des informations sémantiques et syntaxiques pour naviguer dans des processus complexes de résolution de problèmes. Cela impliquerait qu'OpenAI se rapproche un peu plus d'un modèle capable de comprendre la réalité au-delà de simples invites textuelles et plus proche du J.A.R.V.I.S fictif (l'IA ultra avancée de Tony Stark dans le film Iron Man de Marvel) ou le Batcomputer (l'ordinateur utilisé par Batman et qui est doté d'une IA très avancée).

    En somme, alors que l'apprentissage Q consiste à enseigner à l'IA à apprendre en interagissant avec son environnement, l'algorithme Q vise davantage à améliorer les capacités déductives de l'IA. Il est essentiel de comprendre ces distinctions pour apprécier les implications potentielles du projet Q* d'OpenAI. Les deux algorithmes offrent un immense potentiel pour faire progresser l'IA, mais leurs applications et leurs implications varient considérablement. Bien sûr, tout ceci n'est que spéculation, car OpenAI n'a pas expliqué le concept, même si dans une déclaration à Reuters, un porte-parole de l'entreprise a semblé confirmer l'existence du projet.

    Quelques théories sur les implications potentielles du mystérieux projet Q* d'OpenAI

    Sur la toile, les avis sont partagés sur la question et l'on peut relever différentes hypothèses. Selon certains critiques, si le projet Q* fait référence à une forme avancée d'apprentissage Q, cela pourrait signifier un bond en avant dans la capacité de l'IA à apprendre et à s'adapter de façon autonome dans des environnements complexes. En outre, cela pourrait permettre de résoudre toute une série de nouveaux problèmes. Une telle avancée pourrait améliorer les applications de l'IA dans des domaines très complexes tels que les véhicules autonomes, où la prise de décision en une fraction de seconde en fonction de conditions en constante évolution est cruciale.


    Par ailleurs, si Q* fait référence à l'algorithme Q de MRPPS, il pourrait s'agir d'une avancée significative dans les capacités de raisonnement déductif et de résolution de problèmes de l'IA. Cela aurait un impact particulier dans les domaines nécessitant une réflexion analytique approfondie, comme l'analyse juridique, l'interprétation de données complexes et même le diagnostic médical. Quelle que soit sa nature exacte, Q* représente potentiellement une avancée significative dans le développement de l'IA, de sorte que le fait qu'il soit au cœur d'un débat existentiel d'OpenAI sonne juste. (OpenAI a déclaré que Q* n'est pas à l'origine du licenciement d'Altman).

    Selon une autre spéculation, Q* pourrait nous rapprocher de systèmes d'IA plus intuitifs, plus efficaces et capables de gérer des tâches qui requièrent actuellement un haut niveau d'expertise humaine. Cela dit, ces progrès s'accompagnent de questions et de préoccupations éthiques liées l'IA, la sécurité et les implications de systèmes d'IA de plus en plus puissants dans notre vie quotidienne et dans la société en général. Parmi les risques et les préoccupations liés à l'IA, l'on peut citer :

    • éthique et sécurité : à mesure que les systèmes d'IA deviennent plus avancés, il devient de plus en plus difficile de s'assurer qu'ils fonctionnent de manière éthique et sûre. Il existe un risque de conséquences involontaires, en particulier si les actions de l'IA ne sont pas parfaitement alignées sur les valeurs humaines ;
    • vie privée et sécurité : avec l'avancée de l'IA, les préoccupations en matière de protection de la vie privée et de sécurité des données s'intensifient. Les systèmes d'IA capables de comprendre et d'interagir plus profondément avec les données pourraient être utilisés à mauvais escient ;
    • impacts économiques : l'automatisation accrue et les capacités de l'IA pourraient entraîner des déplacements d'emplois dans certains secteurs, ce qui nécessiterait des ajustements sociétaux et de nouvelles approches en matière de développement de la main-d'œuvre. Si l'IA peut presque tout faire, pourquoi avoir des travailleurs humains ? ;
    • désalignement de l'IA : le risque que les systèmes d'IA développent des objectifs ou des méthodes de fonctionnement qui ne correspondent pas aux intentions ou au bien-être de l'homme, ce qui pourrait avoir des conséquences néfastes. (Imaginez un robot ménager obsédé par l'ordre et qui ne cesse de jeter vos papiers importants ; ou qui éliminerait complètement les créateurs de désordre.)


    L'IAG désigne à la capacité d'une machine à comprendre, à apprendre et à appliquer l'intelligence à diverses tâches, à l'instar des capacités cognitives humaines. Il s'agit d'une forme d'IA capable de généraliser l'apprentissage d'un domaine à un autre, faisant preuve d'une véritable adaptabilité et polyvalence. Une telle machine suscite les craintes de nombreux chercheurs qui tirent la sonnette d'alarme sur la menace qu'elle représente pour l'humanité. Mais la question divise les chercheurs : les uns pensent que l'IAG annonce la fin de l'humanité, tandis que les autres réfutent cet avenir dystopique et affirment que nous surestimons les capacités de l'IAG.

    Sources : L'algorithme Q, Q-learning (PDF), OpenAI

    Et vous ?

    Que pensez-vous du battage médiatique autour du projet Q* ? S'agit-il de rumeurs infondées ?
    Le licenciement surprise du PDG Sam Altman pourrait être lié à ce mystérieux projet Q* ?
    Que pensez-vous des déclarations du pionnier de l'IA Yann LeCun concernant le projet Q* ?
    Les capacités de l'IAG, le Saint Graal de la recherche en IA, sont-elles surestimées ? Est-elle un mythe ?
    Que pensez-vous des préoccupations exprimées à l'égard de l'IAG ? Ces inquiétudes sont-elles fondées ?

    Voir aussi

    Des chercheurs d'OpenAI auraient envoyé au conseil d'administration sortant une lettre l'avertissant d'une découverte majeure en matière d'IA et de la menace que cela représente pour l'humanité

    OpenAI aurait réalisé une percée majeure dans le domaine de l'IA avant l'éviction surprise de Sam Altman, la découverte a suscité des inquiétudes qui auraient joué un rôle clé dans son licenciement

    ChatGPT avec la capacité « de voir, entendre et parler » est désormais disponible pour tous les utilisateurs à titre gratuit : quel impact sur la vie privée et la sécurité des utilisateurs ?

Discussions similaires

  1. Réponses: 66
    Dernier message: 19/02/2024, 09h46
  2. Réponses: 0
    Dernier message: 23/02/2023, 08h22
  3. Réponses: 1
    Dernier message: 11/09/2020, 14h57
  4. Réponses: 8
    Dernier message: 28/10/2018, 10h32
  5. Réponses: 0
    Dernier message: 20/07/2009, 14h51

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo