IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 057
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 057
    Points : 209 140
    Points
    209 140
    Par défaut Un ancien employé d'OpenAI affirme que l'entreprise enfreint la loi sur le droit d'auteur et détruit internet
    GPT-5 : OpenAI pourrait dévoiler cette nouvelle version d'ici la fin de l'année et révolutionner le domaine de l'IA,
    un investisseur allant jusqu'à affirmer que GPT-5 pourrait atteindre l'Intelligence Artificielle Générale

    Alors que le monde de l'intelligence artificielle (IA) continue d'évoluer à une vitesse vertigineuse, la communauté de l'IA attend avec impatience la prochaine étape importante : la sortie du GPT-5 d'OpenAI. Selon les rumeurs, cette dernière version du modèle de langage révolutionnaire de l'entreprise devrait être dévoilée d'ici la fin de 2023. Elle a déclenché un tourbillon de spéculations et d'anticipations, de nombreux experts réfléchissant aux avancées potentielles et aux défis que le GPT-5 pourrait apporter.

    Siqi Chen, l'un des investisseurs d'OpenAI, explique que certains employés d’OpenAI s’attendent à ce que le nouveau modèle franchisse un nouveau cap : « On m'a dit que GPT5 devrait terminer sa formation en décembre et qu’OpenAI s'attend à ce qu'il atteigne l'IAG [ndlr. Intelligence Artificielle Générale] ».


    ChatGPT est le produit d'IA générative le plus en vogue, les entreprises s'efforçant de tirer parti de la nouvelle technologie d'IA à la mode. Microsoft a un accès direct au produit OpenAI grâce à un investissement majeur, et l'entreprise a inclus la technologie dans divers services qui lui sont propres. Google développe Bard, une alternative à ChatGPT qui sera disponible dans son outil de recherche. Pendant ce temps, OpenAI n'a cessé d'améliorer le chatbot ChatGPT et a récemment publié la puissante mise à jour GPT-4.

    D’après Siqi Chen, PDG de la startup Runway financée par a16z et investisseur dans l'IA, GPT-4 devrait être remplacé par une nouvelle version GPT-5 dès la fin de l’année 2023 : « Il m'a été rapporté que GPT-5 devrait terminer sa formation en décembre et qu'Openai s'attend à ce qu'il atteigne l'IAG. Ce qui signifie que nous débattrons tous vivement pour savoir s'il atteint réellement atteint l'IAG. Ce qui signifie que ce sera le cas ».

    L’intelligence artificielle générale (IAG) désigne des systèmes capables de donner de « bons » résultats dans toutes les tâches cognitives propres aux êtres humains ou aux animaux dits supérieurs.

    Parfois, on élargit le concept d’intelligence artificielle générale à des systèmes dotés d’une conscience et même de sentiments (ce qui se rapproche de l’IA forte). Cela reste toutefois à définir plus précisément et fait l’objet de débats dans la communauté scientifique. Il est important d’insister sur le fait qu’aucun système d’intelligence artificielle générale n’existe aujourd’hui. Tout comme pour l’IA forte, l’IA générale demeure un sujet spéculatif.

    Comme avec GPT-4, le nouveau modèle pourrait dans un premier temps être uniquement accessible aux abonnés à ChatGPT Plus, avant de finalement être déployé pour tous les utilisateurs.

    Attentes et spéculations autour du GPT-5

    Tout d'abord, que signifie GPT et que signifie GPT dans l'IA ? Un Transformer génératif pré-entraîné (GPT pour Generative Pre-trained Transformer) est un réseau de neurones à grand modèle de langage (LLM) qui peut générer du code, répondre à des questions et résumer du texte, entre autres tâches de traitement du langage naturel.

    Pour mémoire, les Transformers désignent des modèles de Deep Learning qui se sont principalement illustrés en 2017 dans le domaine du NLP (Natural Language Processing). Pour sa part, le décodeur d'un Transformer est constitué de couches montées l'une après l'autre, mais prenant chacune, comme entrée supplémentaire, la sortie du dernier encodeur.

    GPT analyse essentiellement des millions d'articles Web et de livres pour obtenir des résultats pertinents dans une recherche de contenu écrit et générer les résultats souhaités. GPT utilise l'IA pour générer un contenu authentique, vous pouvez donc être assuré que les articles qu'il génère ne seront pas plagiés. Des millions de personnes ont dû penser que de nombreuses meilleures versions de GPT continuent de nous époustoufler en peu de temps. Mais pour comprendre l'avenir, il faut d'abord comprendre le passé.

    Nom : fonctionnalites.png
Affichages : 21578
Taille : 29,3 Ko

    Avant de passer à GPT-5, jetons un coup d'œil à ce que les LLM précédents avaient à offrir.

    GPT-1 : OpenAI a publié GPT-1 en 2018. Ce modèle de langage génératif a été formé à l'aide de l'énorme ensemble de données BooksCorpus, ce qui lui a permis d'apprendre une vaste gamme de relations et d'acquérir des connaissances approfondies sur une grande variété de textes continus et de passages étendus. Ce modèle était une preuve de concept et n'a pas été rendu public.

    GPT2 : plus tard en 2019, OpenAI a mis sur pieds GPT-2, créant un meilleur modèle de langage en utilisant un ensemble de données plus volumineux et davantage de paramètres. GPT-2 utilise également le décodeur du modèle de Transformer, comme GPT-1. La conception et la mise en œuvre du modèle dans GPT-2 représentent certains des changements les plus notables ; GPT-2 est 10 fois plus grand que GPT-1 (117 millions de paramètres) et contient 10 fois plus de paramètres et de données. C'était à la pointe de la technologie en 2019.

    GPT3 : GPT3 était la version où de nombreuses personnes ont fait la rencontre des LLM. Il s'agit du grand modèle de prédiction et de génération de langage d'OpenAI. Cette version peut reproduire le texte original dans de grandes sections. Le logiciel de langage d'intelligence artificielle GPT-3 a changé la donne pour OpenAI. En termes simples, c'est un programme qui peut créer des paragraphes si frais et originaux qu'ils semblent presque écrits à la main. Avec l'aide de GPT3, ChatGPT a gagné 100 millions d'utilisateurs en seulement deux mois, ce qui en fait l'application en ligne à la croissance la plus rapide de l'histoire.

    GPT4 : afin de rendre les modèles plus précis et de fournir moins de résultats désagréables ou nuisibles, GPT4 a été créé pour améliorer leur « alignement ». L'alignement fait référence à la capacité d'un modèle à suivre les objectifs de l'utilisateur.

    Mais tout ce succès est-il suffisant pour stopper OpenAI ? Il semble que non. Malgré la sortie récente de GPT4, des rumeurs sur GPT5 ont déjà commencé à circuler.

    Qu'est-ce que GPT5 ? GPT5 est un système d'IA hypothétique qui devrait être la prochaine génération de la série GPT de LLM d'OpenAI. GPT-5 n'a pas encore été publié et il n'y a aucune information officielle sur son développement ou ses capacités. Cependant, sur la base de certaines prédictions et spéculations, GPT-5 pourrait avoir les caractéristiques suivantes :
    • GPT5 pourrait avoir 100 fois plus de paramètres que GPT-3, qui avait 175 milliards de paramètres. Cela signifie que GPT-5 pourrait avoir environ 17,5 billions (1 billion étant 1 000 milliards) de paramètres, ce qui en fait l'un des plus grands réseaux de neurones jamais créés ;
    • GPT5 pourrait utiliser 200 à 400 fois plus de puissance de calcul que GPT-3, qui utilisait environ 3,14 exaflops de calcul pendant la formation. Cela signifie que GPT5 pourrait utiliser jusqu'à 1,26 zettaflops de calcul, ce qui est plus que la puissance de calcul combinée de tous les supercalculateurs du monde ;
    • GPT5 pourrait être capable de travailler avec un contexte plus long et être formé avec une fonction de perte différente de GPT-3, qui utilisait la perte d'entropie croisée. Cela pourrait améliorer sa capacité à générer un texte cohérent et pertinent dans différents domaines et tâches ;
    • GPT5 pourrait être en mesure d'atteindre l'Intelligence Artificielle Générale (IAG), qui est le niveau d'intelligence où un système d'IA peut effectuer n'importe quelle tâche qu'un humain peut faire. Certains experts pensent que GPT-5 pourrait réussir le test de Turing, qui est un test pour savoir si une machine peut présenter un comportement de type humain dans une conversation.

    En clair, alors que GPT-4 a déjà démontré une gamme de capacités impressionnantes, la communauté de l'IA a les yeux rivés sur les avancées potentielles que GPT-5 pourrait apporter. Certains des domaines dans lesquels le GPT-5 devrait afficher des améliorations significatives incluent :
    • le traitement du langage naturel : une meilleure compréhension et génération du langage humain, conduisant à des sorties de texte plus cohérentes et contextuellement précises ;
    • la perception et raisonnement : une amélioration des capacités de traitement et d'interprétation des entrées visuelles, ainsi que des progrès dans le raisonnement de l'IA et les compétences de résolution de problèmes ;
    • la prise de décision : un progrès dans la capacité de l'IA à prendre des décisions éclairées, menant potentiellement à des systèmes d'IA plus autonomes.

    L'Intelligence Artificielle Générale, le Saint Graal de la recherche en IA

    GPT5 est encore un concept théorique. Si cela devient une réalité, cela pourrait avoir un impact significatif sur divers domaines et applications qui reposent sur le traitement du langage naturel, et la plus révolutionnaire de toutes ces fonctionnalités sera d'atteindre le niveau d'intelligence artificielle générale.

    L'IAG diffère de l'intelligence artificielle étroite (ANI), qui est bonne pour des tâches spécifiques, mais manque de généralisation, et de la super intelligence artificielle (ASI), qui surpasse l'intelligence humaine dans tous les aspects. L'idée de la signification d'IAG a capturé l'imagination du public et a fait l'objet de nombreuses histoires et films de science-fiction.

    Quelle est la différence entre l'IAG et l'IA ? L'IAG est souvent considérée comme le Saint Graal de la recherche sur l'IA, car elle permettrait aux systèmes d'IA d'interagir avec les humains de manière naturelle et significative, ainsi que de résoudre des problèmes complexes qui nécessitent de la créativité et du bon sens. L'une des principales caractéristiques de la signification d'IAG est la capacité de raisonner et de prendre des décisions en l'absence d'instructions ou de conseils explicites.

    Un autre aspect important de la signification de l'IAG est la capacité des machines à apprendre de l'expérience et à améliorer leurs performances au fil du temps grâce à des essais et des erreurs et aux commentaires des utilisateurs humains.

    Cependant, l'IAG est également insaisissable et controversée, car il n'y a pas de définition ou de mesure claire de ce qui constitue l'intelligence au niveau humain ou comment la tester. Alors, comment savons-nous si un système est une IAG ou non ?

    L'un des tests les plus célèbres pour l'IAG est le test de Turing, proposé par Alan Turing en 1950. Le test de Turing implique un juge humain qui interagit avec un humain et un système d'IA par le biais de messages texte et tente de déterminer lequel est humain et lequel ne l'est pas. Si le système d'IA peut tromper le juge en lui faisant croire qu'il est humain, il réussit le test de Turing.

    Cependant, le test de Turing a été critiqué pour être trop subjectif et limité, car il n'évalue que les capacités linguistiques et non d'autres aspects de l'intelligence tels que la perception, la mémoire ou l'émotion. De plus, certains systèmes d'IA peuvent réussir le test de Turing en utilisant des astuces ou des tromperies plutôt qu'une compréhension ou un raisonnement authentiques.

    Par conséquent, certains experts en IA ont proposé des tests alternatifs pour l'IAG, comme fixer un objectif pour le système d'IA et le laisser déterminer comment l'atteindre par lui-même. Par exemple, Yohei Nakajima de la société de capital-risque Untapped a donné à un système d'IA l'objectif de démarrer et de développer une entreprise et lui a indiqué que sa première tâche était de déterminer quelle devrait être sa première tâche. Le système d'IA a ensuite recherché sur Internet des informations pertinentes et a appris à créer un plan d'affaires, une stratégie de marketing, etc.

    Ce type d'apprentissage autonome et de résolution de problèmes est l'une des caractéristiques de l'IAG, car il montre que le système d'IA peut s'adapter à de nouvelles situations et utiliser sa propre initiative. Cependant, cela soulève également des questions éthiques et sociales, telles que la manière de garantir que les objectifs du système d'IA sont alignés sur les valeurs et les intérêts humains et la manière de réglementer ses actions et ses impacts. L'une des principales promesses du sens IAG est de créer des machines capables de résoudre des problèmes complexes qui dépassent les capacités des experts humains.

    La signification du terme IAG est devenue de plus en plus pertinente à mesure que les chercheurs et les ingénieurs travaillent à la création de machines capables d'effectuer des tâches cognitives plus sophistiquées et nuancées. Le sens d'IAG ne concerne pas seulement la création de machines capables d'imiter l'intelligence humaine, mais également l'exploration de nouvelles frontières de connaissances et de possibilités.


    Atteindre l'IAG est-il possible ?

    Jusqu'à présent, aucun système d'IA n'a démontré de manière convaincante les capacités d'IAG, bien que certains aient montré des exploits impressionnants d'ANI dans des domaines spécifiques. Par exemple, GPT-4 peut générer des textes cohérents et diversifiés sur divers sujets, ainsi que répondre à des questions et effectuer des calculs simples basés sur des entrées textuelles ou visuelles. Cependant, GPT-4 repose toujours sur de grandes quantités de données et des invites prédéfinies pour bien fonctionner. Il fait souvent des erreurs ou produit des résultats insensés lorsqu'il est confronté à des scénarios inconnus ou complexes. Mais cela pourrait changer avec GPT5.

    Certains experts affirment que pour atteindre l'IAG, il faudra une compréhension approfondie des interactions complexes entre la cognition, la perception et l'action, ainsi que la capacité d'intégrer de multiples sources de connaissances et d'expériences.

    Malgré les défis et les incertitudes entourant la signification de l'IAG, de nombreux chercheurs et organisations poursuivent activement cet objectif, motivés par le potentiel d'importants avantages scientifiques, économiques et sociétaux.

    Autres impacts potentiels de GPT-5

    Alors que le monde attend la sortie de GPT-5, de nombreux experts réfléchissent à l'impact potentiel que ce modèle de langage avancé pourrait avoir sur diverses industries. Certains des secteurs qui pourraient bénéficier des capacités de GPT-5 incluent :
    • les soins de santé : diagnostics d'IA améliorés, recherche médicale et plans de traitement personnalisés ;
    • l'éducation : expériences d'apprentissage personnalisées alimentées par l'IA et amélioration de l'accessibilité pour les étudiants ayant des besoins divers ;
    • la finance : analyse financière, évaluation des risques et détection des fraudes plus précises basées sur l'IA ;
    • le marketing : création de contenu avancé généré par l'IA et stratégies de marketing personnalisées plus efficaces ;
    • la recherche scientifique : découverte et résolution de problèmes accélérées grâce à la recherche et à l'analyse de données assistées par l'IA.

    Les considérations éthiques de GPT-5 et l'approche de l'IAG

    Bien que les avancées potentielles offertes par GPT-5 soient sans aucun doute passionnantes, le voyage vers l'AGI soulève également plusieurs préoccupations éthiques qui doivent être résolues. Certaines des principales considérations éthiques comprennent :
    • le déplacement d'emplois : à mesure que les systèmes d'IA deviennent plus avancés, le potentiel de déplacement d'emplois dans divers secteurs augmente, ce qui soulève des inquiétudes quant à l'avenir de la main-d'œuvre et à la nécessité d'initiatives de requalification et de perfectionnement ;
    • les biais de l'IA : s'assurer que les systèmes d'IA, y compris GPT-5, ne perpétuent pas par inadvertance des préjugés ou des stéréotypes nuisibles en raison de données ou de processus de formation biaisés ;
    • la confidentialité et sécurité : protéger les données des utilisateurs et la confidentialité tout en tirant parti des capacités avancées de l'IA, ainsi qu'en abordant le potentiel de cyberattaques et de campagnes de désinformation basées sur l'IA ;
    • l'éthique et la gouvernance de l'IA : établir des cadres éthiques et des structures de gouvernance solides pour guider le développement et le déploiement de systèmes d'IA avancés comme GPT-5, en mettant l'accent sur la transparence, la responsabilité et l'engagement du public.

    Sources : vidéo dans le texte

    Et vous ?

    Quelle lecture faites-vous de ces indications ? Vous semblent-elles crédibles ?
    GPT-5 pourrait-il, selon vous, atteindre l'IAG comme le prétend cet investisseur ou sommes-nous encore à des décennies de cette prouesse technologique ?
    Comment accueillez-vous les différents éléments qui ont fuité ? Quels sont ceux qui vous semblent les plus intéressants ? Ceux que vous redoutez ?

  2. #2
    Expert confirmé
    Homme Profil pro
    Développeur .NET
    Inscrit en
    Novembre 2009
    Messages
    2 034
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Développeur .NET

    Informations forums :
    Inscription : Novembre 2009
    Messages : 2 034
    Points : 5 476
    Points
    5 476
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Certains experts pensent que GPT-5 pourrait réussir le test de Turing, qui est un test pour savoir si une machine peut présenter un comportement de type humain dans une conversation.
    *
    Parce qu'ils considèrent que ce n'est déjà pas le cas avec la version 3.5 ?

  3. #3
    Expert éminent Avatar de sergio_is_back
    Homme Profil pro
    Consultant informatique industrielle, développeur tout-terrain
    Inscrit en
    Juin 2004
    Messages
    1 171
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 56
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Consultant informatique industrielle, développeur tout-terrain
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 171
    Points : 6 126
    Points
    6 126
    Par défaut
    Et moi, je vous annonce ici, et developpez.com en a la primeur, que GTP-6 pourra réussir haut la main le test de la connerie humaine (et ça c'est pas donné à tout le monde... quoi que... )


  4. #4
    Membre régulier
    Profil pro
    Inscrit en
    Mars 2011
    Messages
    58
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mars 2011
    Messages : 58
    Points : 76
    Points
    76
    Par défaut ChatGPT n'a pas le niveau en mathématiques !
    Le ChatGPT actuel est une véritable brèle en mathématiques un tant soit peu conceptuelles. Par exemple, il ne comprend pas grand-chose à la notion de divisibilité entre nombres entiers. Il peut présenter comme démonstration, des inepties logiques.
    ChatGPT ne va pas très loin dans la compréhension d'un texte. Demandez-lui par exemple de classer dans le temps les différentes actions que décrit et relie entre elles un texte, et vous obtiendrez du grand n'importe quoi.
    Par contre, je dois reconnaitre que ChatGPT a un grand aplomb pour énoncer de fausses choses !

  5. #5
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 565
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 565
    Points : 5 977
    Points
    5 977
    Par défaut
    C'est normal, ChatGPT a été entrainés par des gens sous payés et sous diplômés payés une misère de l'heure, ces gens la sont nuls en maths sinon ils auraient trouvé un autre job bien payé, donc ils ont entrainé ChatGPT à devenir nul.

    Pour la même raison, ChatGPT génère des fakes news parce qu'il a été entrainé par des abrutis complotistes.

    Bard de Google ne vaux pas mieux car il a carrément été entrainé par ChatGPT, c'est encore moins cher, mais pire, puisque il a été entrainé à ne faire que de la merde.

  6. #6
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 387
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 387
    Points : 4 198
    Points
    4 198
    Par défaut
    Citation Envoyé par Mingolito Voir le message
    C'est normal, ChatGPT a été entrainés par des gens sous payés et sous diplômés payés une misère [...] des abrutis complotistes.
    J'ai surtout l'impression qu'on (qui est on?) projette sur lui des objectifs qui ne sont pas celui de ses développeurs.
    On lui demande de tout savoir, de tout comprendre et de ne jamais se tromper mais n'est il pas juste développé pour nous fournir une réponse qui parait écrite par un humain peu importe l'exactitude de la réponse.
    Je penses qu'il ne génère pas de fake news parce qu'il ne génère pas de news, il ne génère que du texte le plus proche possible de l'écriture humaine.

    Les cons dans l'histoire ne sont pas les développeurs mais les utilisateurs qui en font quelque chose pour lequel il n'a pas été développé.

  7. #7
    Membre averti
    Profil pro
    Développeur
    Inscrit en
    Octobre 2008
    Messages
    122
    Détails du profil
    Informations personnelles :
    Localisation : Canada

    Informations professionnelles :
    Activité : Développeur

    Informations forums :
    Inscription : Octobre 2008
    Messages : 122
    Points : 426
    Points
    426
    Par défaut
    Citation Envoyé par Mingolito Voir le message
    C'est normal, ChatGPT a été entrainés par des gens sous payés et sous diplômés payés une misère de l'heure, ces gens la sont nuls en maths sinon ils auraient trouvé un autre job bien payé, donc ils ont entrainé ChatGPT à devenir nul.

    Pour la même raison, ChatGPT génère des fakes news parce qu'il a été entrainé par des abrutis complotistes.

    Bard de Google ne vaux pas mieux car il a carrément été entrainé par ChatGPT, c'est encore moins cher, mais pire, puisque il a été entrainé à ne faire que de la merde.
    Professeur Raoul, on sait que c'est toi tu peux sortir!

  8. #8
    Membre extrêmement actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Août 2022
    Messages
    756
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Août 2022
    Messages : 756
    Points : 0
    Points
    0
    Par défaut
    Citation Envoyé par thamn Voir le message
    Professeur Raoul, on sait que c'est toi tu peux sortir!
    Surtout que l'entrainement d'un modèle n'a aucun rapport avec les humains qui derrière sont là pour corriger des propos erronés et que les Africains derrières, sont payés certes pas grand chose pour toute la journée vérifier si la phrase émise par le bot est cohérente, un travail à la chaine et au clic, mais largement mieux payés que les autres job présent là-bas.

    Concernant ChatGPT, la différence entre le 3, le 3.5 et le 4, n'est pas une évolution du modèle mais du nombre de paramètres.

    Dit autrement, ils en font tout un pataquès pour les gens qui n'y connaissent rien, mais la seule chose que ça signifie, c'est que GPT4 est mis sur un ordinateur largement plus puissant que GPT3, point.

    Oui ça joue, car ça permet lorsque tu discutes avec, qu'il retienne plus de chose, mais ça ne le rends pas plus intelligent, et il suffit de demander à n'importe qui utilisant gpt4 depuis plus d'une semaine, pour qu'il se rende compte que GPT4 se comporte exactement pareil et ne réfléchi pas mieux que GPT3.

    Le pire, est c'est sur les communiqués officiels, c'est que pour faire croire de l'inverse, ils ont baissés les différents taux de GPT3, pour le rendre moins intelligent qu'il y a 6 mois, afin de donner l'illusion que GT4 est nettement au dessus.

    je rappel que GPT c'est Transformeur génératif pré-entraîné, dit autrement, ce ne sont pas algorithme novateurs, c'est de la pure variance/covariance et analyse statique temps réels pour mesure les mots/les phrases, ... en extraire des poids et une détermination de la meilleure réponse possible à faire des recherches comme un dinguo toute les millisecondes et réaffiner le résultat.

    C'est en gros, une sorte de super moteur de recherche, mais on est pas dans une IA et d'ailleurs l'équipe d'OpenAI le dit elle même que ChatGPT n'est pas une IA, mais un modèle de langage : traduction, un moteur de recherche ++.

    Oui c'est impressionnant, oui ça fait gagner du temps, mais non, il n'y a pas de différence significativement réelle entre les versions.

    Quelqu'un qui utilise par exemple LLaMa, l'équivalent opensource et gratuit de ChatGPT et le met sur un super ordinateur avec une base énorme et tous les paramètres au max, aura des meilleurs résultats que GPT6 ...

    Mais c'est sur pour le novice, il est à des années lumières de savoir ça.

  9. #9
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 057
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 057
    Points : 209 140
    Points
    209 140
    Par défaut Le PDG d'OpenAI confirme que l'entreprise ne travaille pas actuellement sur GPT-5
    Le PDG d'OpenAI confirme que l'entreprise ne travaille pas actuellement sur GPT-5 :
    « Nous ne le faisons pas et ne le ferons pas avant un certain temps »,

    Le mois dernier, OpenAI a officialisé l'arrivée de GPT-4, la nouvelle version du modèle de langage utilisé pour faire fonctionner ChatGPT. Siqi Chen, l'un des investisseurs d'OpenAI, a indiqué avoir des sources qui lui ont confirmé que GPT-5 devait arriver fin 2023. Mais Sam Altman, PDG et cofondateur d'OpenAI, a mis fin aux spéculations : dans une discussion sur les menaces posées par les systèmes d'IA, il a confirmé que la société ne forme pas actuellement GPT-5, le successeur présumé de son modèle de langage d'IA GPT-4, publié en mars.

    ChatGPT est le produit d'IA générative le plus en vogue, les entreprises s'efforçant de tirer parti de la nouvelle technologie d'IA à la mode. Microsoft a un accès direct au produit OpenAI grâce à un investissement majeur, et l'entreprise a inclus la technologie dans divers services qui lui sont propres. Google développe Bard, une alternative à ChatGPT qui sera disponible dans son outil de recherche. Pendant ce temps, OpenAI n'a cessé d'améliorer le chatbot ChatGPT et a récemment publié la puissante mise à jour GPT-4.

    D’après Siqi Chen, PDG de la startup Runway financée par a16z et investisseur dans l'IA, GPT-4 devrait être remplacé par une nouvelle version GPT-5 dès la fin de l’année 2023 : « Il m'a été rapporté que GPT-5 devrait terminer sa formation en décembre et qu'OpenAI s'attend à ce qu'il atteigne l'IAG. Ce qui signifie que nous débattrons tous vivement pour savoir s'il atteint réellement l'IAG. Ce qui signifie que ce sera le cas ».

    Elon Musk et des experts demandent à OpenAI d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4

    Dans une lettre ouverte publiée en mars, Elon Musk et un groupe d'experts en intelligence artificielle et de dirigeants de l'industrie ont demandé une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 récemment lancé par OpenAI, en invoquant les risques potentiels pour la société et l'humanité.

    La lettre, publiée par l'organisation à but non lucratif Future of Life Institute et signée par plus de 1 000 personnes, dont Musk, appelle à une pause dans le développement de l'IA avancée jusqu'à ce que des protocoles de sécurité partagés pour de telles conceptions soient élaborés, mis en œuvre et contrôlés par des experts indépendants. « Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », peut-on lire dans la lettre.

    La lettre détaille les risques potentiels pour la société et la civilisation que représentent les systèmes d'IA compétitifs pour les humains, sous la forme de perturbations économiques et politiques, et appelle les développeurs à travailler avec les décideurs politiques sur la gouvernance et les autorités de régulation.

    Parmi les cosignataires figurent Emad Mostaque, PDG de Stability AI, des chercheurs de DeepMind, propriété d'Alphabet (GOOGL.O), et des poids lourds de l'IA, Yoshua Bengio, souvent considéré comme l'un des "parrains de l'IA", et Stuart Russell, pionnier de la recherche dans ce domaine.

    Une doléance entendue ?

    S'exprimant lors d'un événement au MIT, Altman a été interrogé sur cette lettre ouverte diffusée dans le monde de la technologie qui demandait que des laboratoires comme OpenAI suspendent le développement de systèmes d'IA « plus puissants que GPT-4 ». La lettre a mis en évidence des préoccupations concernant la sécurité des futurs systèmes, mais a été critiquée par de nombreux acteurs de l'industrie, y compris un certain nombre de signataires. Les experts ne sont pas d'accord sur la nature de la menace posée par l'IA (est-elle existentielle ou plus banale ?) ainsi que sur la manière dont l'industrie pourrait s'y prendre pour « suspendre » le développement en premier lieu.

    Au MIT, Sam Altman a expliqué qu’il approuve certaines parties de la lettre ouverte. Il n'a pas manqué de rappeler qu’OpenAI a observé une pause de six mois après l’entraînement de GPT-4. Un délai au cours duquel l’entreprise dit avoir cherché à rendre l’outil plus sûr, pour limiter des comportements inadéquats, bien que dans la pratique ils existent encore. Rappelons à ce titre l'enquête conduite News Guard, qui étudie la fiabilité et la véracité des contenus diffusés en ligne. GPT-4 « est en fait plus susceptible de générer des informations erronées », avance News Guard, mais en plus l’outil se montre « plus convaincant dans sa capacité à le faire ».

    Sam Altman a aussi affiché son accord avec l’idée de rehausser les exigences en matière de sûreté en fonction des progrès de ces outils. « Nous faisons d'autres choses en plus du GPT-4 qui, je pense, à toutes sortes de problèmes de sécurité qu'il est important de résoudre et qui ont été totalement ignorés », a-t-il reconnu.

    Cependant, il a affirmé que la lettre « manquait la plupart des nuances techniques sur l'endroit où nous avons besoin de la pause » et a noté qu'une version antérieure affirmait qu'OpenAI entraînait actuellement GPT-5. « Nous ne le faisons pas et ne le ferons pas avant un certain temps », a déclaré Altman. « Donc, dans ce sens, c'était un peu idiot ».

    Ci-dessous, le passage vidéo sur le sujet qui nous intéresse.


    Pas un développement de GPT-5 dans l'immédiat, oui, mais ?

    Les commentaires d'Altman sont intéressants, mais pas nécessairement à cause de ce qu'ils révèlent sur les plans futurs d'OpenAI. Au lieu de cela, ils mettent en évidence un défi important dans le débat sur la sécurité de l'IA : la difficulté de mesurer et de suivre les progrès. Altman peut dire qu'OpenAI ne forme pas actuellement GPT-5, mais ce n'est pas une déclaration particulièrement significative.

    Une partie de la confusion peut être attribuée aux numéros de version. Plus précisément, l'idée selon laquelle les mises à jour techniques numérotées reflètent des améliorations définitives et linéaires des capacités. C'est une idée fausse qui a été nourrie dans le monde de la technologie grand public pendant des années, où les numéros attribués aux nouveaux téléphones ou systèmes d'exploitation aspirent à la rigueur du contrôle de version mais ne sont en réalité que des outils de marketing. Il en va de même pour le hardware. « L'iPhone 50 est meilleur que l'iPhone 49 » va dans la logique du système « le nombre est plus grand ipso facto, le téléphone est meilleur ».

    En raison du chevauchement entre les mondes de la technologie grand public et de l'intelligence artificielle, cette même logique est maintenant souvent appliquée à des systèmes comme les modèles de langage d'OpenAI.

    Il ne s'agit pas ici de rejeter les craintes concernant la sécurité de l'IA ou d'ignorer le fait que ces systèmes s'améliorent rapidement et ne sont pas entièrement sous notre contrôle. Mais il s'agit de rappeler qu'il y a de bons et de mauvais arguments, et ce n'est pas parce que quelque chose (un téléphone ou un système) a un numéro que nous en avons la pleine mesure. Au lieu de cela, l'accent dans ces discussions gagnerait à être mis sur les capacités*: sur les démonstrations de ce que ces systèmes peuvent et ne peuvent pas faire et sur les prévisions de la façon dont cela peut changer au fil du temps.

    C'est pourquoi la confirmation d'Altman qu'OpenAI ne développe pas actuellement GPT-5 ne sera d'aucune consolation pour les personnes préoccupées par la sécurité de l'IA. L'entreprise continue d'étendre le potentiel de GPT-4 (en le connectant à Internet, par exemple), et d'autres dans l'industrie construisent des outils tout aussi ambitieux, laissant les systèmes d'IA agir au nom des utilisateurs. Il y a aussi toutes sortes de travaux qui sont sans aucun doute en cours pour optimiser GPT-4, et OpenAI peut publier GPT-4.5 (comme il l'a fait en publiant GPT-3.5) en premier (une autre façon dont les numéros de version peuvent induire en erreur).

    Nom : chatgpt.png
Affichages : 7176
Taille : 309,8 Ko

    La prudence de Sam Altman

    La prudence de Sam Altman à l’égard de l’IA n’est pas nouvelle, bien qu’elle puisse surprendre compte tenu de sa place dans le secteur de l’IA. Il exprime des craintes régulières à l’égard la technologie que son entreprise met au point, mais aussi la concurrence, entre autres pour les effets de l’IA sur la désinformation et l’économie.

    « Je pense que c'est bizarre quand les gens trouvent étrange que j'avoue avoir un peu peur », a déclaré Sam Altman au podcasteur Lex Fridman . « Je pense que ce serait fou de ne pas avoir un peu peur et j'ai de l'empathie pour les gens qui ont très peur ».


    Dans une autre interview, accordée cette fois à ABC News, il a indiqué avoir des doutes sur ChatGPT. Altman a mentionné quelques domaines clés dans lesquels l'IA pourrait s'avérer problématique. Il a également fait part de ses craintes de voir des régimes autoritaires qui finissent par créer leur propre IA et s'empressent de l'utiliser pour diffuser de la désinformation et de fausses nouvelles à leurs propres fins néfastes.

    Altman s'intéresse également à l'élection présidentielle américaine de 2024, estimant que ChatGPT et d'autres formes d'IA pourraient avoir de nombreuses répercussions sur l'élection. Il reste à voir si l'IA jouera un rôle négatif ou non.


    Cette inquiétude peut expliquer pourquoi OpenAI n’a pas, à en croire Sam Altman, lancé les travaux sur GPT-5. Il reste à voir si cette position sera capable de tenir dans le temps et si les promesses de prudence formulées lors de cet échange au MIT perdureront, comme la nécessité d’évaluer l’impact de son déploiement.

    Source : vidéo dans le texte

    Et vous ?

    Quelle lecture faites-vous des déclarations de Sam Altman ?
    Les craintes du PDG d'OpenAI vous semblent-elles justifiées ? Dans quelle mesure ?

  10. #10
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 301
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 301
    Points : 21 430
    Points
    21 430
    Par défaut Bill Gates ne s'attend pas à ce que GPT-5 soit beaucoup plus performant que GPT-4
    Bill Gates ne s'attend pas à ce que GPT-5, la nouvelle version du modèle d'IA générative, soit beaucoup plus performante que GPT-4, il affirme que la technologie GPT a atteint un "plateau"

    Le buzz autour de l'IA générative est énorme, en partie parce que la technologie a évolué si rapidement en si peu de temps. Mais peut-elle maintenir le rythme ? Dans une interview accordée au journal économique allemand Handelsblatt, Bill Gates, fondateur de Microsoft, déclare qu'il y a de nombreuses raisons de penser que la technologie GPT a atteint un plateau.

    M. Gates affirme que "de nombreuses personnes compétentes" travaillant chez OpenAI sont convaincues que GPT-5 sera nettement meilleur que GPT-4, y compris le PDG d'OpenAI, Sam Altman. Mais il pense que l'IA générative actuelle a atteint un plafond, même s'il admet qu'il peut se tromper.

    Comme référence pour ce qu'il considère comme une amélioration majeure de la qualité, il a cité le grand bond en avant de la qualité entre GPT-2 et GPT-4, qu'il a qualifié d'"incroyable".

    On ne sait pas encore quand OpenAI commencera la formation de GPT-5 ni quand elle publiera le modèle. Il semblerait que l'entreprise travaille sur plusieurs prototypes dans le but principal d'accroître l'efficacité du modèle afin de réduire les coûts d'inférence.


    Deux à cinq ans pour une IA moins chère et plus fiable

    M. Gates voit néanmoins un grand potentiel dans les systèmes d'IA actuels, en particulier si les coûts de développement élevés et les taux d'erreur peuvent être réduits et si la fiabilité peut être améliorée. Il pense que cet objectif peut être atteint dans les deux à cinq prochaines années, ce qui rendrait l'IA générative viable pour des applications médicales telles que la mise au point de médicaments ou les conseils en matière de santé.

    M. Gates ne pense pas que NVIDIA dispose d'un avantage absolu en ce qui concerne la connaissance des puces. S'il est vrai que tout le monde veut des puces NVIDIA en ce moment, Gates affirme que Google, Microsoft, Amazon et cinq à dix autres entreprises développent des offres concurrentes.

    "Tous ces semi-conducteurs sont fabriqués par des entreprises spécialisées qui utilisent les mêmes outils. Croyez-moi, le problème de la disponibilité sera résolu, que ce soit avec une puce d'AMD, d'Amazon, de Google ou de Microsoft", affirme M. Gates. OpenAI envisagerait également de développer ses propres puces d'IA.

    Une autre étape importante, selon M. Gates, est le développement d'une IA compréhensible. "C'est bizarre, nous connaissons l'algorithme, mais nous ne savons pas vraiment comment il fonctionne", explique M. Gates. Il pense que cette tâche sera entièrement résolue au cours de la "prochaine décennie".

    Bien que M. Gates ne soit plus officiellement impliqué dans les activités quotidiennes de Microsoft, il continue d'agir en tant que conseiller et connaît bien l'équipe dirigeante et les idées d'OpenAI. Microsoft est le principal actionnaire d'OpenAI, avec une participation de 49 %.

    En février 2023, Gates a déclaré à Forbes qu'il ne pensait pas que l'approche d'OpenAI consistant à développer des modèles d'IA sans logique symbolique explicite serait viable. Cependant, OpenAI l'a convaincu que la mise à l'échelle pouvait conduire à des capacités émergentes significatives.

    Source : Interview de Bill Gates pour le journal Handelsblatt

    Et vous ?

    Quel est votre avis sur le sujet ?

    Êtes-vous d'accord avec le point de vue de M. Gates concernant le développement de la technologie GPT ?

    Voir aussi

    GPT-5 : OpenAI pourrait dévoiler cette nouvelle version d'ici la fin de l'année et révolutionner le domaine de l'IA, un investisseur allant jusqu'à affirmer que GPT-5 pourrait atteindre l'IAG

    Le PDG d'OpenAI confirme que l'entreprise ne travaille pas actuellement sur GPT-5 : « Nous ne le faisons pas et ne le ferons pas avant un certain temps »

    GPT-4 produirait des informations erronées, beaucoup plus que GPT-3.5, selon une étude de NewsGuard, OpenAI avait pourtant déclaré le contraire

  11. #11
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 018
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 018
    Points : 6 313
    Points
    6 313
    Par défaut
    Et quelles sont les compétences de Bill Gates en intelligence artificielle?

    Il en a autant que ma boulangère, Madame Michu...

    Ce n'est pas parce que il a eu de la chance dans les affaires que ce mec de 68 ans, retraité de Microsoft, a la science infuse et une expertise dans tous les domaines.

  12. #12
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 057
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 057
    Points : 209 140
    Points
    209 140
    Par défaut Sam Altman confirme qu'OpenAI a commencé à travailler sur GPT-5
    Sam Altman confirme qu'OpenAI a commencé à travailler sur GPT-5. Dans sa quête d'outils technologiques « superintelligents »,
    il voudrait que Microsoft investisse davantage pour parvenir à l'IAG

    OpenAI, la société derrière ChatGPT, a confirmé qu’elle avait commencé le travail sur son prochain modèle de traitement du langage naturel, GPT-5. Le PDG de l’entreprise, Sam Altman, a révélé cette information lors d’une interview accordée au magazine Financial Times. Il espère également que Microsoft va apporter plus de fonds dans OpenAI, déclarant : « Il y a un long chemin à parcourir et beaucoup de calcul à réaliser entre notre niveau actuel et l'AGI... les dépenses de formation sont tout simplement énormes ».

    OpenAI a lancé ChatGPT il y a moins d'un an et depuis lors, l'IA est la tendance technologique numéro un. Cela est particulièrement vrai chez Microsoft, qui a investi pour la première fois dans OpenAI en 2019 et a continué à investir des fonds dans l'entreprise tout en utilisant ChatGPT et d'autres services pour ses propres produits d'IA comme Bing Chat, Copilot, etc.

    Mais Sam Altman ne veut pas en rester là; il chercherait un soutien financier supplémentaire auprès du principal investisseur Microsoft dans sa quête visant à créer des outils technologiques « superintelligents » qui seraient aussi intelligents que les humains. OpenAI a déjà conclu un accord « pluriannuel » de 10 milliards de dollars avec Microsoft plus tôt cette année, développant un partenariat qui a débuté en 2019 avec seulement 1 milliard de dollars de la grande entreprise technologique.

    Cependant, le PDG d'OpenAI de 38 ans souhaite obtenir encore plus de fonds pour affiner la commercialisation par OpenAI des nouvelles avancées en matière d'IA alors que la concurrence s'intensifie avec Google, qui est en pourparlers pour investir des centaines de millions de dollars dans Character.AI, une startup de robots IA développée par deux anciens employés de Google. Le modèle de chatbot avancé permet aux utilisateurs de discuter avec des versions virtuelles de célébrités comme Billie Eilish ou des personnages d'anime, tout en créant leurs propres chatbots et assistants IA.

    « La vision est de créer une intelligence artificielle générale (AGI), de trouver comment la rendre sûre et d'en déterminer les avantages », a déclaré Altman au Financial Times, soulignant qu'il passait également du temps à rechercher « comment construire une superintelligence » et les moyens de construire augmenter la puissance de calcul pour y parvenir.


    Plusieurs niveaux dans l'intelligence artificielle

    L’intelligence artificielle est un domaine de l’informatique qui vise à créer des machines ou des programmes capables de réaliser des tâches qui nécessitent normalement de l’intelligence humaine, comme la perception, le raisonnement, l’apprentissage, la décision ou la créativité.

    Il existe différents types d’IA selon leur niveau de complexité et de généralité. Voici les principales différences entre l’IA générale, l’IA étroite et la superintelligence artificielle :
    • L’IA générale (IAG ou IA forte) est un type d’IA qui serait capable de comprendre et d’interagir avec n’importe quelle tâche ou domaine, qu’il s’agisse de langage naturel, d’image, de musique, de logique ou d’autres domaines. L’IA générale serait à la hauteur des capacités humaines dans tous les aspects cognitifs et non seulement dans une seule tâche spécifique. L’IA générale n’existe pas encore dans le monde réel, mais c’est le but ultime de beaucoup de chercheurs en IA.
    • L’IA étroite (ANI ou IA faible) est un type d’IA qui existe actuellement et qui est spécialisée dans une seule tâche ou domaine particulier. Par exemple, l’IA étroite peut reconnaître les visages, les voix ou les objets sur une image; jouer aux échecs; traduire des textes; conduire une voiture; ou rechercher des informations sur Internet. L’IA étroite est très performante pour accomplir sa tâche spécifique, mais elle ne peut pas s’étendre à d’autres domaines ou situations.
    • La superintelligence artificielle (ou ASI) est un type hypothétique d’IA qui serait capable de dépasser les capacités humaines dans tous les domaines et aspects cognitifs. La superintelligence artificielle serait plus intelligente que les meilleurs humains dans toutes les disciplines scientifiques, techniques, artistiques et sociales. La superintelligence artificielle pourrait aussi avoir une conscience et une sensibilité propres à elle-même. La superintelligence artificielle n’existe pas encore dans le monde réel, mais c’est une possibilité théorique qui suscite beaucoup d’intérêt et aussi beaucoup de craintes.

    Altman considère l'AGI comme la prochaine phase d'évolution de son entreprise en plein essor.

    « À l'heure actuelle, les gens [disent] 'vous avez ce laboratoire de recherche, vous avez cette API [logiciel], vous avez le partenariat avec Microsoft, vous avez ce truc ChatGPT, maintenant il y a une boutique GPT.' Mais ce ne sont pas vraiment nos produits », a déclaré Altman au quotidien. « Ce sont des canaux vers notre seul produit, qui est l’intelligence, l’intelligence magique dans le ciel. Je pense que c’est de cela que nous parlons ».

    Lorsqu'il lui a été demandé si Microsoft continuerait à investir davantage dans ces entreprises, Altman a répondu au FT : « Je l'espère ».

    Le récent partenariat OpenAI-Microsoft de 10 milliards de dollars valorise la société d’IA d’Altman à environ 29 milliards de dollars, ont déclaré des sources au FT, et Altman a noté que tout dans l’accord « fonctionnait très bien ». « La croissance des revenus a été bonne cette année », a déclaré Altman dans une interview au média, même s'il en veut davantage. « Il y a un long chemin à parcourir et beaucoup de calcul à réaliser entre notre niveau actuel et l'AGI... les dépenses de formation sont tout simplement énormes », a-t-il ajouté.


    Plus de financement de Microsoft ? D'accord mais combien ?

    Altman est resté timide sur le montant supplémentaire qu'il espérait que Microsoft débourserait, ou sur le montant que l'entreprise dépensait actuellement en formation.

    OpenAI serait en passe d'accumuler 1 milliard de dollars de ventes au cours des 12 prochains mois, grâce à sa vache à lait ChatGPT, qui a lancé un service d'abonnement de 20 dollars par mois plus tôt cette année.

    Les données financières d'OpenAI, cependant, sont privées, et Altman a clairement indiqué qu'il n'avait pas l'intention de les rendre publiques de si tôt – peut-être parce qu'il n'a pas besoin de lever de capitaux supplémentaires et ne veut pas céder le contrôle d'OpenAI à une puissante entreprise technologique.

    « Lorsque nous développerons la superintelligence, nous prendrons probablement des décisions que les investisseurs des marchés publics verraient de manière très étrange », a déclaré Altman lors d'un événement à Abu Dhabi plus tôt cette année, selon Bloomberg. « J'aime ne pas être en conflit, et je pense que la possibilité que nous devions prendre un jour une décision très étrange n'est pas triviale », a-t-il ajouté lorsqu'il a été interrogé sur sa décision de ne prendre aucune participation dans OpenAI.

    OpenAI travaille à des outils plus autonomes que ses GPT personnalisables

    La semaine dernière, OpenAI a lancé des GPT personnalisables, qui permettent aux utilisateurs de créer des chatbots personnalisés appelés GPT. Évoquant le lancement des GPT, Altman a déclaré au FT qu'OpenAI travaillait à la création d'outils plus autonomes capables d'effectuer des tâches et des actions de plus en plus avancées, telles que l'exécution de code, les paiements, l'envoi d'e-mails ou le dépôt de réclamations.

    « Nous rendrons ces agents de plus en plus puissants… et les actions deviendront de plus en plus complexes à partir de là », a-t-il déclaré au média. « La valeur commerciale qui découlera de la possibilité de faire cela dans chaque catégorie, je pense, est plutôt bonne ».

    Nom : personnalisable.png
Affichages : 5056
Taille : 213,0 Ko

    OpenAI travaillerait également sur GPT-5, la prochaine génération de son « grand modèle de langage » ChatGPT

    C'est ce qu'a déclaré Altman, bien qu'il n'ait pas divulgué de calendrier pour sa sortie.

    Les rumeurs sur les réseaux sociaux suggèrent que GPT-5 pourrait être déployé dès décembre 2023, même s’il est difficile de savoir à quoi s’attendre, même pour Altman. Le patron d'OpenAI a déclaré qu'il était difficile de prédire exactement quelles nouvelles capacités et compétences le modèle pourrait avoir, selon FT.

    « Jusqu'à ce que nous formions ce modèle, c'est comme un jeu de devinettes amusant pour nous », a-t-il déclaré. « Nous essayons de nous améliorer, car je pense qu’il est important, du point de vue de la sécurité, de prédire les capacités. Je ne peux pas vous dire exactement ce que GPT-5 va faire que GPT-4 ne peut pas faire ».

    Atteindre l'IAG est-il possible ?

    Jusqu'à présent, aucun système d'IA n'a démontré de manière convaincante les capacités d'IAG, bien que certains aient montré des exploits impressionnants d'ANI dans des domaines spécifiques. Par exemple, GPT-4 peut générer des textes cohérents et diversifiés sur divers sujets, ainsi que répondre à des questions et effectuer des calculs simples basés sur des entrées textuelles ou visuelles. Cependant, GPT-4 repose toujours sur de grandes quantités de données et des invites prédéfinies pour bien fonctionner. Il fait souvent des erreurs ou produit des résultats insensés lorsqu'il est confronté à des scénarios inconnus ou complexes. Mais cela pourrait changer avec GPT5.

    Certains experts affirment que pour atteindre l'IAG, il faudra une compréhension approfondie des interactions complexes entre la cognition, la perception et l'action, ainsi que la capacité d'intégrer de multiples sources de connaissances et d'expériences.

    Malgré les défis et les incertitudes entourant la signification de l'IAG, de nombreux chercheurs et organisations poursuivent activement cet objectif, motivés par le potentiel d'importants avantages scientifiques, économiques et sociétaux.

    Source : Financial Times

    Et vous ?

    Que pensez-vous des ambitions du PDG d'OpenAI ?
    Êtes-vous surpris par les chiffres avancés par Sam Altman qui affirme que l'offre d'abonnement à 20 dollars a pratiquement généré un milliard de dollars à OpenAI ?
    GPT-5, une menace potentielle ou une aide pour les travailleurs ?
    Au vu de votre connaissance du paysage de l'intelligence artificielle, l'IAG est-elle encore lointaine selon vous ? Qu'en est-il de la superintelligence artificielle ? Une chimère ou une évolution technologique possible ?

  13. #13
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 057
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 057
    Points : 209 140
    Points
    209 140
    Par défaut Le conseil d’administration d’OpenAI, composé de six membres, décidera « quand nous aurons atteint l’IAG »
    Le conseil d’administration d’OpenAI, composé de six membres, décidera « quand nous aurons atteint l’IAG ».
    Certain de ses membres sont liés au mouvement Effective Altruism, critiqué pour ses liens avec Sam Bankman-Fried et FTX

    OpenAI a annoncé la formation d’un conseil d’administration de six membres qui aura le pouvoir de décider quand l’organisation aura atteint son objectif ultime: l’intelligence artificielle générale (IAG), que l'entreprise définit comme « un système hautement autonome qui surpasse les humains dans le travail le plus économiquement rentable ». Grâce à une branche à but lucratif qui est « légalement tenue de poursuivre la mission de l'organisation à but non lucratif », une fois que le conseil d'administration aura décidé que l'IAG a été atteinte, un tel système sera « exclu des licences de propriétés intellectuelles et autres conditions commerciales avec Microsoft », qui ne s’appliquent qu’à la technologie pré-IAG.

    L'IAG est le niveau d’intelligence artificielle qui peut accomplir n’importe quelle tâche intellectuelle qu’un humain peut faire. Bien que les chercheurs peinent à trouver une définition universelle, il s’agit d’un objectif ambitieux et controversé, qui soulève de nombreuses questions tant éthiques et sociales que techniques. Certains experts estiment que l’IAG est impossible à atteindre, tandis que d’autres prédisent qu’elle pourrait se produire dans les prochaines décennies.

    OpenAI considère que l’IAG est une technologie potentiellement révolutionnaire, mais aussi très risquée, qui nécessite une gouvernance et une supervision rigoureuses. C’est pourquoi OpenAI a mis en place un conseil d’administration composé de six membres, qui a le pouvoir de décider quand l’organisation a atteint l’IAG (en se basant sur des critères objectifs et mesurables) et comment elle doit la gérer. Le conseil d’administration a la responsabilité de définir la vision, la stratégie et les principes d’OpenAI, ainsi que d’approuver les projets, les budgets et les embauches.

    Selon la structure d’OpenAI, l’IAG est exclue des licences de propriété intellectuelle et des autres termes commerciaux avec Microsoft, qui ne s’appliquent qu’à la technologie pré-IAG.


    La branche à but lucratif est soumise à la mission à but non lucratif d'OpenAI

    L'information a été incluse dans un fil de discussion sur X ce week-end par Logan Kilpatrick, Developer Relations pour le compte d'OpenAI. Kilpatrick répondait à un commentaire du président de Microsoft, Brad Smith, qui, lors d'un récent panel avec le scientifique en chef de Meta, Yann LeCun, a tenté de présenter OpenAI comme étant plus fiable en raison de son statut « à but non lucratif » (même si le Wall Street Journal a récemment rapporté qu'OpenAI recherche une nouvelle valorisation pouvant atteindre 90 milliards de dollars dans le cadre d'une vente d'actions existantes).

    Smith a déclaré : « Meta appartient aux actionnaires. OpenAI appartient à une organisation à but non lucratif. En quoi auriez-vous le plus confiance ? Obtenir votre technologie auprès d’une entreprise à but non lucratif ou à but lucratif entièrement contrôlée par un seul être humain*?*»

    Dans son fil de discussion, Kilpatrick a cité la page « Notre structure » sur le site Web d’OpenAI, qui offre des détails sur la structure complexe à but non lucratif/à profit plafonné d’OpenAI. Selon la page, la filiale à but lucratif d’OpenAI est « entièrement contrôlée » par l’organisation à but non lucratif OpenAI (qui est enregistrée dans le Delaware). Alors que la filiale à but lucratif OpenAI Global, LLC – qui semble avoir quitté la société en commandite OpenAI LP, précédemment annoncée en 2019, environ trois ans après la création de l'organisation à but non lucratif OpenAI originale – est « autorisée à réaliser et à distribuer des bénéfices, » elle est soumise à la mission de l'association.

    Il semble certainement qu'une fois qu'OpenAI aura atteint sa mission déclarée d'atteindre l'IAG, Microsoft sera hors du coup et ce même si lors de l'OpenAI Dev Day de la semaine dernière, le PDG d'OpenAI, Sam Altman, a déclaré au PDG de Microsoft, Satya Nadella, que « je pense que nous avons le meilleur partenariat dans le domaine de la technologie… Je suis ravi que nous puissions construire l'IAG ensemble ».

    Et dans une nouvelle interview avec Altman dans le Financial Times, Altman a déclaré que le partenariat OpenAI/Microsoft « fonctionnait très bien » et qu'il espérait « récolter beaucoup plus au fil du temps ». Et lorsqu'il lui a été demandé si Microsoft continuerait à investir davantage dans ces entreprises, Altman a répondu au FT : « Je l'espère ». « Il y a un long chemin à parcourir et beaucoup de calcul à réaliser entre notre niveau actuel et l'IAG... les dépenses de formation sont tout simplement énormes », a-t-il ajouté.

    Dès le début, selon les détails de la structure d’OpenAI, Microsoft « a accepté notre offre d’actions plafonnée et notre demande de laisser les technologies et la gouvernance IAG à l’organisation à but non lucratif et au reste de l’humanité ».

    Le conseil d'administration d'OpenAI

    Un porte-parole d’OpenAI a déclaré que « la mission d’OpenAI est de créer une IAG sûre et bénéfique pour tous. Notre conseil d'administration dirige l'entreprise et consulte divers points de vue d'experts externes et de parties prenantes pour l'aider à éclairer sa réflexion et ses décisions. Nous nommons et nommons les membres du conseil d’administration en fonction de leurs compétences, de leur expérience et de leur point de vue sur la technologie, la politique et la sécurité de l’IA.

    Actuellement, le conseil d'administration à but non lucratif d'OpenAI est composé du président et président Greg Brockman, du scientifique en chef Ilya Sutskever et du PDG Sam Altman, ainsi que des non-employés Adam D'Angelo, Tasha McCauley et Helen Toner.

    D'Angelo, PDG de Quora, ainsi que l'entrepreneur technologique McCauley et Honer, directeur de la stratégie du Centre pour la sécurité et les technologies émergentes de l'Université de Georgetown, ont tous été liés au mouvement de l'altruisme efficace – qui a été critiqué. plus tôt cette année pour ses liens avec Sam Bankman-Fried et FTX, ainsi que pour sa vision « dangereuse » de la sécurité de l'IA. Et OpenAI entretient depuis longtemps ses propres liens avec EA : par exemple, en mars 2017, OpenAI a reçu une subvention de 30 millions de dollars d'Open Philanthropy, financée par Effective Altruists. Et Jan Leike, qui dirige l’équipe de superalignement d’OpenAI, se serait identifié au mouvement EA.

    Le porte-parole d'OpenAI a déclaré « qu'aucun des membres de notre conseil d'administration n'est un altruiste efficace », ajoutant que « les membres non salariés du conseil d'administration ne sont pas des altruistes efficaces ; leurs interactions avec la communauté EA sont axées sur des sujets liés à la sécurité de l’IA ou pour offrir le point de vue d’une personne non étroitement impliquée dans le groupe ».

    Nom : structure.png
Affichages : 4813
Taille : 20,3 Ko

    La prise de décision du conseil d’administration en matière d’IAG est « inhabituelle »

    Suzy Fulton, qui propose des services juridiques externalisés aux startups et aux entreprises émergentes du secteur technologique, a déclaré que même si dans de nombreuses circonstances, il serait « inhabituel » qu'un conseil d'administration prenne cette décision sur l'IAG, Le conseil d’administration à but non lucratif d’OpenAI a son devoir fiduciaire de soutenir sa mission de fournir « une IAG sûre et largement bénéfique ».

    « Ils croient que le bénéficiaire du conseil d’administration à but non lucratif est l’humanité, alors que le conseil d’administration à but lucratif sert ses investisseurs », a-t-elle expliqué. « Une autre garantie qu'ils tentent d'instaurer est d'avoir un conseil d'administration majoritairement indépendant, où la majorité des membres n'ont pas de participation dans Open AI ».

    Était-ce la bonne façon de mettre en place une structure d’entité et un conseil d’administration pour prendre cette décision cruciale*? « Nous ne connaîtrons peut-être pas la réponse jusqu'à ce que leur conseil d'administration la prenne », a déclaré Fulton.

    Anthony Casey, professeur à la faculté de droit de l'Université de Chicago, convient que le fait que le conseil d'administration décide de quelque chose d'aussi spécifique sur le plan opérationnel que l'IAG est « inhabituel », mais il ne pense pas qu'il y ait d'obstacle juridique.

    « Cela devrait être une bonne chose d'identifier spécifiquement certaines questions qui doivent être soulevées au niveau du Conseil d'administration », a-t-il déclaré. « En effet, si une question est suffisamment importante, le droit des sociétés impose généralement aux administrateurs l’obligation d’exercer une surveillance sur cette question », en particulier sur les « questions critiques pour la mission ».

    C'est peut-être cette question d'indépendance qui a poussé le PDG d'OpenAI à ne pas céder le contrôle d'OpenAI à une puissante entreprise technologique.

    « Lorsque nous développerons la superintelligence, nous prendrons probablement des décisions que les investisseurs des marchés publics verraient de manière très étrange », a déclaré Sam Altman lors d'un événement à Abu Dhabi plus tôt cette année, selon Bloomberg. « J'aime ne pas être en conflit, et je pense que la possibilité que nous devions prendre un jour une décision très étrange n'est pas triviale », a-t-il ajouté lorsqu'il a été interrogé sur sa décision de ne prendre aucune participation dans OpenAI.

    D'accord, mais l'IAG arrive-t-elle bientôt ?

    Du côté des experts, la réponse n'est pas unanime : si certains en doute, d'autres se demandent si cela est même possible.

    Merve Hickok, qui est à la tête du Center for AI and Digital Policy, ne veut même pas débattre sur la taille ou la diversité du conseil d'administration d'OpenAI dans le contexte de savoir qui doit déterminer si OpenAI a « atteint » ou non l'IAG, affirmant que cela détourne l'attention des discussions sur la légitimité de leur mission et de leurs revendications sous-jacentes. « Cela modifierait l’orientation et légitimerait de facto les affirmations selon lesquelles l’IAG est possible », a-t-elle déclaré.

    Plus tôt cette année, elle indiquait que leur concentration sur l’IAG « a ignoré l’impact actuel » des modèles et des outils d’IA.

    Il faut dire qu'il n'a pas tardé à se faire ressentir. Par exemple, dans le domaine des travailleurs indépendants, l'arrivée de ChatGPT a entraîné une baisse de 2 % des offres d'emploi et de 5,2 % des revenus mensuels des freelances.

    Sources : structure OpenAI, LoganGPT, Planification pour l'IAG et au-delà (OpenAI)

    Et vous ?

    Comment définiriez-vous l'IAG ? Ce niveau d'IA vous semble-t-il proche d'être atteint ou même réalisable ? Pourquoi ?
    Que pensez-vous du fait qu'OpenAI voudrait que six personnes que la structure a désigné décide si l'IAG a été atteinte par leur boîte ou non ? Cela vous semble-t-il raisonnable ? Dans quelle mesure ?
    Qui devrait, selon vous, décider qu'une IA a atteint le niveau d'IAG ?

  14. #14
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 714
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 714
    Points : 8 023
    Points
    8 023
    Par défaut
    Je verrais plutôt cette question:

    Que pensez-vous des communications à outrance de OpenIA, ces temps?
    Je pense que toutes ces déclarations de Altman et la diarrhée d'articles qui s'en suit un peu partout dans les médias sert uniquement à demander plus d'argent aux actionnaires.

  15. #15
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 057
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 057
    Points : 209 140
    Points
    209 140
    Par défaut Sam Altman : le PDG d'OpenAi estime que d'autres percées technologiques sont nécessaires pour atteindre l'IAG
    Sam Altman : le PDG d'OpenAi estime que d'autres percées technologiques sont nécessaires pour atteindre l'IAG,
    le niveau d'IA capable de réaliser toutes les tâches intellectuelles humaines

    Sam Altman, le président de la société d’intelligence artificielle OpenAI, a déclaré qu’il faudrait encore des percées scientifiques et technologiques pour atteindre l’intelligence artificielle générale (IAG), c’est-à-dire une intelligence artificielle capable de réaliser toutes les tâches qu’un humain peut accomplir.

    L'IAG est le niveau d’intelligence artificielle qui peut accomplir n’importe quelle tâche intellectuelle qu’un humain peut faire. Bien que les chercheurs peinent à trouver une définition universelle, il s’agit d’un objectif ambitieux et controversé, qui soulève de nombreuses questions tant éthiques et sociales que techniques. Certains experts estiment que l’IAG est impossible à atteindre, tandis que d’autres prédisent qu’elle pourrait se produire dans les prochaines décennies.

    Sam Altman a accepté de participer au Hawking Fellowship Award 2023 au nom de l'équipe derrière OpenAI avec les étudiants de Cambridge. À cette occasion, des étudiants ont eu l'opportunité d'échanger avec lui pendant une séance d'une heure environ. Altman a alors affirmé que l’IAG était l’un des plus grands défis de l’humanité, mais aussi l’une des plus grandes opportunités. Il a expliqué que l’AGI pourrait résoudre des problèmes majeurs comme le changement climatique, la pauvreté, la santé ou l’éducation, mais qu’elle pourrait aussi représenter un risque existentiel si elle n’était pas contrôlée.

    Suite à l'avancée du débat, un étudiant a voulu savoir si, pour accéder à l'IAG, on pouvait simplement maximiser les modèles de langage ou alors s'il y a une autre percée technologique nécessaire pour trouver le moyen d'accéder à l'IAG (rendez-vous à 1:20 sur la vidéo). Ce à quoi Sam Altman a répondu :

    Citation Envoyé par Sam Altman
    Nous avons besoin d'une nouvelle avancée. Nous pouvons encore faire beaucoup de progrès sur les grands modèles de langage, et nous le ferons. Nous pouvons prendre la colline sur laquelle nous nous trouvons et continuer à la gravir, et le sommet est encore joli. très loin. Mais, dans la limite du raisonnable, je ne pense pas que faire cela (nous amènera à) l'AGI. Si (par exemple) la super intelligence ne peut pas découvrir une nouvelle physique, je ne pense pas que ce soit une superintelligence. Et lui apprendre à cloner le comportement des humains et le texte humain - je ne pense pas que nous y arriverons. Et il y a donc cette question qui fait débat dans le domaine depuis longtemps : que devons-nous faire en plus d'un modèle de langage pour créer un système capable de découvrir une nouvelle physique ?

    Altman a reconnu que les progrès de l’intelligence artificielle étaient rapides, mais qu’ils étaient encore loin de l’IAG. Il a cité l’exemple de GPT-3, le modèle de génération de texte développé par OpenAI, qui est capable de produire des textes cohérents et variés à partir d’un simple mot-clé ou d’une phrase. Selon Altman, GPT-3 est impressionnant, mais il n’est pas intelligent au sens humain du terme. Il a souligné que GPT-3 ne comprenait pas vraiment le sens des mots qu’il utilisait, qu’il ne pouvait pas raisonner de façon logique ou créative, et qu’il ne pouvait pas apprendre de nouvelles compétences sans être entraîné sur de nouvelles données.

    Altman a estimé qu’il faudrait encore des avancées dans les domaines de la compréhension du langage naturel, de la vision par ordinateur, du raisonnement, de la mémoire, de l’apprentissage par renforcement, de l’architecture des réseaux de neurones, de l’optimisation des algorithmes, de la puissance de calcul, de la sécurité et de l’éthique pour parvenir à l’IAG. Il a ajouté qu’il n’y avait pas de consensus sur le temps qu’il faudrait pour y arriver, mais qu’il était optimiste.

    Altman a conclu en disant qu’il était important de préparer l’avenir de l’IAG, en impliquant tous les acteurs de la société, et en veillant à ce que l’IAG soit alignée sur les valeurs et les intérêts des humains. Il a affirmé que l’objectif d’OpenAI était de créer une IAG bénéfique pour l’humanité, et de la rendre accessible à tous.

    Nom : board.png
Affichages : 8631
Taille : 20,4 Ko

    OpenAI a mis sur pieds un conseil d'administration de six membres qui vont décider quand l'IAG sera atteinte

    OpenAI considère que l’IAG est une technologie potentiellement révolutionnaire, mais aussi très risquée, qui nécessite une gouvernance et une supervision rigoureuses. C’est pourquoi OpenAI a mis en place un conseil d’administration composé de six membres, qui a le pouvoir de décider quand l’organisation a atteint l’IAG (en se basant sur des critères objectifs et mesurables) et comment elle doit la gérer. Le conseil d’administration a la responsabilité de définir la vision, la stratégie et les principes d’OpenAI, ainsi que d’approuver les projets, les budgets et les embauches.

    Selon la structure d’OpenAI, l’IAG est exclue des licences de propriété intellectuelle et des autres termes commerciaux avec Microsoft, qui ne s’appliquent qu’à la technologie pré-IAG.

    Il semble certainement qu'une fois qu'OpenAI aura atteint sa mission déclarée d'atteindre l'IAG, Microsoft sera hors du coup et ce même si lors de l'OpenAI Dev Day de la semaine dernière, le PDG d'OpenAI, Sam Altman, a déclaré au PDG de Microsoft, Satya Nadella, que « je pense que nous avons le meilleur partenariat dans le domaine de la technologie… Je suis ravi que nous puissions construire l'IAG ensemble ».

    Et dans une nouvelle interview avec Altman dans le Financial Times, Altman a déclaré que le partenariat OpenAI/Microsoft « fonctionnait très bien » et qu'il espérait « récolter beaucoup plus au fil du temps ». Et lorsqu'il lui a été demandé si Microsoft continuerait à investir davantage dans ces entreprises, Altman a répondu au FT : « Je l'espère ». « Il y a un long chemin à parcourir et beaucoup de calcul à réaliser entre notre niveau actuel et l'IAG... les dépenses de formation sont tout simplement énormes », a-t-il ajouté.

    Dès le début, selon les détails de la structure d’OpenAI, Microsoft « a accepté notre offre d’actions plafonnée et notre demande de laisser les technologies et la gouvernance IAG à l’organisation à but non lucratif et au reste de l’humanité ».

    Atteindre l'IAG est-il possible ?

    Jusqu'à présent, aucun système d'IA n'a démontré de manière convaincante les capacités d'IAG, bien que certains aient montré des exploits impressionnants d'ANI dans des domaines spécifiques. Par exemple, GPT-4 peut générer des textes cohérents et diversifiés sur divers sujets, ainsi que répondre à des questions et effectuer des calculs simples basés sur des entrées textuelles ou visuelles. Cependant, GPT-4 repose toujours sur de grandes quantités de données et des invites prédéfinies pour bien fonctionner. Il fait souvent des erreurs ou produit des résultats insensés lorsqu'il est confronté à des scénarios inconnus ou complexes. Mais cela pourrait changer avec GPT5.

    Certains experts affirment que pour atteindre l'IAG, il faudra une compréhension approfondie des interactions complexes entre la cognition, la perception et l'action, ainsi que la capacité d'intégrer de multiples sources de connaissances et d'expériences.

    Malgré les défis et les incertitudes entourant la signification de l'IAG, de nombreux chercheurs et organisations poursuivent activement cet objectif, motivés par le potentiel d'importants avantages scientifiques, économiques et sociétaux.

    Pour mémoire, il existe différents types d’IA selon leur niveau de complexité et de généralité. Voici les principales différences entre l’IA générale, l’IA étroite et la superintelligence artificielle :
    • L’IA générale (IAG ou IA forte) est un type d’IA qui serait capable de comprendre et d’interagir avec n’importe quelle tâche ou domaine, qu’il s’agisse de langage naturel, d’image, de musique, de logique ou d’autres domaines. L’IA générale serait à la hauteur des capacités humaines dans tous les aspects cognitifs et non seulement dans une seule tâche spécifique. L’IA générale n’existe pas encore dans le monde réel, mais c’est le but ultime de beaucoup de chercheurs en IA.
    • L’IA étroite (ANI ou IA faible) est un type d’IA qui existe actuellement et qui est spécialisée dans une seule tâche ou domaine particulier. Par exemple, l’IA étroite peut reconnaître les visages, les voix ou les objets sur une image; jouer aux échecs; traduire des textes; conduire une voiture; ou rechercher des informations sur Internet. L’IA étroite est très performante pour accomplir sa tâche spécifique, mais elle ne peut pas s’étendre à d’autres domaines ou situations.
    • La superintelligence artificielle (ou ASI) est un type hypothétique d’IA qui serait capable de dépasser les capacités humaines dans tous les domaines et aspects cognitifs. La superintelligence artificielle serait plus intelligente que les meilleurs humains dans toutes les disciplines scientifiques, techniques, artistiques et sociales. La superintelligence artificielle pourrait aussi avoir une conscience et une sensibilité propres à elle-même. La superintelligence artificielle n’existe pas encore dans le monde réel, mais c’est une possibilité théorique qui suscite beaucoup d’intérêt et aussi beaucoup de craintes.

    Source : vidéo (dans le texte)

    Et vous ?

    Pensez-vous que l’IAG soit possible et souhaitable? Pourquoi?
    Quels sont les principaux défis et opportunités que l’IAG pourrait apporter à l’humanité?
    Comment garantir que l’IAG soit alignée sur les valeurs et les intérêts des humains?
    Quel rôle devraient jouer les gouvernements, les entreprises, les chercheurs, les citoyens et les médias dans le développement et la régulation de l’IAGI?
    Quelles sont les sources d’information que vous consultez pour vous informer sur l’AGI? Faites-vous confiance à ces sources? Pourquoi?

  16. #16
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 057
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 057
    Points : 209 140
    Points
    209 140
    Par défaut OpenAI licencie le co-fondateur et PDG Sam Altman, l'accusant d'avoir menti au conseil d'administration
    OpenAI licencie le co-fondateur et PDG Sam Altman, l'accusant d'avoir menti au conseil d'administration de l'entreprise.
    Viré du conseil, Greg Brockman, co-fondateur OpenAI, a préféré démissionner

    OpenAI, la célèbre a annoncé le licenciement de son cofondateur et PDG Sam Altman, l'accusant d'avoir menti au conseil d’administration sur plusieurs aspects de son activité. Altman, qui était à la tête de l’entreprise depuis 2019, est accusé d’avoir dissimulé des informations sur les coûts, les revenus, les partenariats et les risques liés à son produit phare, ChatGPT, un chatbot avancé capable de générer des réponses humaines à partir de n’importe quelle question.

    Sam Altman a été licencié d'OpenAI, Inc., l'organisation à but non lucratif 501(c)(3) qui agit en tant qu'organe directeur d'OpenAI, la startup d'IA derrière ChatGPT, DALL-E 3, GPT-4 et d'autres systèmes d'IA générative hautement performants. Il quittera le conseil d’administration de l’entreprise ainsi que son poste de PDG.

    Dans un article sur le blog officiel d'OpenAI, la société écrit que le départ d'Altman fait suite à un « processus d'examen délibératif par le conseil d'administration » qui a conclu qu'Altman « n'était pas toujours franc dans ses communications » avec les autres membres du conseil d'administration, « entravant sa capacité à exercer ses responsabilités ». Et de continuer en disant « Le conseil d’administration n’a plus confiance en sa capacité à continuer à diriger OpenAI ».

    Mira Murati, directrice de la technologie, sera la PDG par intérim, avec effet immédiat. La société recherchera un successeur permanent au PDG :

    Citation Envoyé par OpenAI
    Membre de l’équipe de direction d’OpenAI depuis cinq ans, Mira a joué un rôle essentiel dans l’évolution d’OpenAI vers un leader mondial de l’IA. Elle apporte un ensemble de compétences uniques, une compréhension des valeurs, des opérations et des activités de l’entreprise, et dirige déjà les fonctions de recherche, de produits et de sécurité de l’entreprise. Compte tenu de son long mandat et de son engagement étroit dans tous les aspects de l’entreprise, y compris son expérience en matière de gouvernance et de politique en matière d’IA, le conseil d’administration estime qu’elle est particulièrement qualifiée pour ce rôle et anticipe une transition en douceur pendant qu’il recherche officiellement un PDG permanent.

    Dans une publication sur X, l'ancien Twitter, Altman a indiqué qu’il « a adoré son séjour chez OpenAI » et qu’il aura « plus à dire sur la suite [de son parcours] plus tard ».

    Sam Altman est soutenu par plusieurs dans la Silicon Valley

    Eric Schmidt, ancien Président du conseil d'administration d'Alphabet, maison-mère de Google, a déclaré :

    Sam Altman est un de mes héros. Il a bâti une entreprise de rien à une valeur de 90 milliards de dollars et a changé notre monde collectif pour toujours. J'ai hâte de voir ce qu'il fera ensuite. Moi et des milliards de personnes bénéficierons de son travail futur – ce sera tout simplement incroyable. Merci Sam Altaman pour tout ce que vous avez fait pour nous tous.
    Ce à quoi un utilisateur a répondu : « ne voulez-vous pas savoir la raison pour laquelle il a été viré en premier lieu ? »

    Jack Altman, son frère qui est accessoirement PDG de LatticeHQ, a déclaré :

    Plus important que d'être l'une des personnes les plus brillantes et les plus influentes que notre industrie ait jamais eues

    Sam est l'une des personnes les plus généreuses et attentionnées que je connaisse. Je n'ai jamais rencontré quelqu'un qui a soutenu et élevé plus de gens autour de lui que lui. Je ne pourrais pas être un frère plus fier.
    Un autre membre de l'équipe fondatrice d'OpenAI, viré du conseil d'administration, a préféré démissionner

    Greg Brockman, président et co-fondateur d'OpenAI, qui a été exclu du conseil d'administration en tant que président dans le cadre du remaniement de la direction, a quitté l'entreprise, a-t-il annoncé sur X: « Sur la base des nouvelles d'aujourd'hui, je suis parti », a-t-il écrit, donnant au public le contenu du courriel qu'il a envoyé.

    Son exclusion du conseil a été annoncé dans le même billet d'OpenAI annonçant le renvoi de Sam Altman : « Dans le cadre de cette transition, Greg Brockman quittera ses fonctions de président du conseil d'administration et restera dans ses fonctions au sein de l'entreprise, relevant du PDG ».

    Dans une autre publication, il explique que Sam et lui ont été attristés par cette décision :

    Sam et moi sommes choqués et attristés par ce que le conseil d'administration a fait aujourd'hui.

    Disons d'abord merci à toutes les personnes incroyables avec qui nous avons travaillé chez OpenAI, nos clients, nos investisseurs et tous ceux qui nous ont contactés.

    Nous aussi, nous essayons toujours de comprendre exactement ce qui s’est passé. Voici ce que nous savons:
    • Hier soir, Sam a reçu un texto d'Ilya lui demandant un rendez-vous pour le vendredi midi. Sam a rejoint un Google Meet et tout le conseil d'administration, à l'exception de Greg, était là. Ilya a dit à Sam qu'il était licencié et que la nouvelle serait publiée très bientôt.
    • À 12h19, Greg a reçu un SMS d'Ilya demandant s'il pouvait s'appeler rapidement. À 12h23, Ilya a envoyé un lien Google Meet. Greg a été informé qu'il était démis du conseil d'administration (mais qu'il était vital pour l'entreprise et qu'il conserverait son rôle) et que Sam avait été licencié. À peu près au même moment, OpenAI a publié un article de blog.
    • À notre connaissance, l'équipe de direction en a été informée peu de temps après, à l'exception de Mira qui l'a découvert la nuit précédente.

    L’élan de soutien a été vraiment agréable ; merci, mais ne perdez pas de temps à vous inquiéter. Ça ira pour nous. De plus grandes choses arrivent bientôt.
    Une annonce qui a surpris

    Le licenciement d’Altman survient pour le moins de manière inattendue. La société a organisé la semaine dernière sa première conférence de développeurs, OpenAI DevDay, animée par Altman. Altman a pris la parole jeudi lors de la conférence de coopération économique Asie-Pacifique et d'un événement à Oakland, en Californie.

    L’annonce a surpris les employés, dont beaucoup ont appris l’éviction soudaine grâce à une annonce interne et au blog public de l’entreprise. OpenAI a programmé une réunion d'urgence avec tous le vendredi après-midi pour discuter de l'actualité avec les employés.

    Altman est considéré comme la principale voix dans le domaine de l'IA depuis que son entreprise a lancé ChatGPT en novembre 2022. Le chatbot génératif d'IA a compté plus de 100 millions d'utilisateurs en moins d'un an. Après avoir publié ChatGPT l'année dernière, Altman a été mis sous les projecteurs. Il a été l’un des plus ardents partisans de l’intelligence artificielle, mais il a également lancé des appels en faveur d’une réglementation et averti que la technologie comporte des risques dans la mesure où elle remodèle la société. Il a témoigné devant le Congrès américain en mai sur la forme que devrait prendre la législation sur l’IA.

    Altman considère l'IAG comme la prochaine phase d'évolution de son entreprise en plein essor.

    « À l'heure actuelle, les gens [disent] 'vous avez ce laboratoire de recherche, vous avez cette API [logiciel], vous avez le partenariat avec Microsoft, vous avez ce truc ChatGPT, maintenant il y a une boutique GPT.' Mais ce ne sont pas vraiment nos produits », a déclaré Altman au Financial Times. « Ce sont des canaux vers notre seul produit, qui est l’intelligence, l’intelligence magique dans le ciel. Je pense que c’est de cela que nous parlons ».

    Lorsqu'il lui a été demandé si Microsoft continuerait à investir davantage dans ces entreprises, Altman a répondu au FT : « Je l'espère ».

    Altman a contribué à la création de l'entreprise en 2015, initialement en tant qu'organisation à but non lucratif dotée d'un milliard de dollars provenant de bailleurs de fonds de premier plan, dont Elon Musk, Peter Thiel et le co-fondateur de LinkedIn, Reid Hoffman. Altman et Musk ont été co-présidents avec pour objectif « de faire progresser l’intelligence numérique de la manière la plus susceptible de bénéficier à l’humanité dans son ensemble, sans contrainte par la nécessité de générer un retour financier ». En 2019, cependant, OpenAI s’est remodelé autour d’un modèle de « profit plafonné » avec Altman comme PDG.

    Le conseil d'OpenAI reconnait les contributions de Sam Altman

    Dans un communiqué, le conseil d’administration a déclaré : « OpenAI a été délibérément structuré pour faire avancer notre mission : garantir que l’intelligence artificielle générale profite à toute l’humanité. Le conseil reste pleinement engagé à servir cette mission. Nous sommes reconnaissants pour les nombreuses contributions de Sam à la création et à la croissance d’OpenAI. Dans le même temps, nous pensons qu’un nouveau leadership est nécessaire à mesure que nous progressons. En tant que responsable des fonctions de recherche, de produits et de sécurité de l’entreprise, Mira est exceptionnellement qualifiée pour assumer le rôle de PDG par intérim. Nous avons la plus grande confiance dans sa capacité à diriger OpenAI pendant cette période de transition ».

    Le conseil d'administration d'OpenAI est composé du scientifique en chef d'OpenAI, Ilya Sutskever, des administrateurs indépendants, Adam D'Angelo, PDG de Quora, de l'entrepreneur technologique Tasha McCauley et d'Helen Toner, du Georgetown Center for Security and Emerging Technology.

    La réaction du public

    L'heure était plutôt à l'humour. Un internaute déclare par exemple : « BREAKING NEWS : OpenAI annonce GPT-5 en tant que nouveau PDG »

    Nom : AI.png
Affichages : 16938
Taille : 7,7 Ko

    Un autre déclare : « le premier emploi qu'OpenAI a pris est celui de Sam »

    Nom : sam.png
Affichages : 3975
Taille : 5,7 Ko

    Un autre encore : « je peux entendre Elon Musk éclater de rire ici en Nouvelle Zélande »

    Et enfin un internaute a imaginé une scène dans laquelle le conseil d'administration d'OpenAI demande à ChatGPT s'il faut virer Sam Altman :

    Nom : chat.png
Affichages : 3990
Taille : 44,7 Ko

    Source : OpenAI

    Et vous ?

    Que pensez-vous du licenciement de Sam Altman par OpenAI ? Le manque de franchise de Sam Altman évoqué par le conseil comme cause de son renvoi, un prétexte ou une réelle justification ?
    Quelles sont les conséquences du départ de Altman pour l’avenir de OpenAI et de ChatGPT ?
    Que pensez-vous de la décision de Greg Brockman de quitter l'entreprise après avoir été viré du conseil d'administration ?
    Quels sont les avantages et les inconvénients de ChatGPT, le chatbot avancé développé par OpenAI ? Avez-vous déjà essayé de l’utiliser ?

  17. #17
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 018
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 018
    Points : 6 313
    Points
    6 313
    Par défaut
    Rien de nouveau sous le soleil de Californie... Depuis le début des startups, on peut même compter sur les doigts du main les fondateurs de startup qui ont pu garder leur poste dans l'entreprise qu'ils ont fondé

    Les journalistes et autres commentateurs oublient un peu vite le principe de fonctionnement d'une startup: 1 fondateur qui a une bonne idée mais pas d'argent et des financiers qui n'ont pas d'idées mais l'argent nécessaire pour développer celles des autres!!!!!!!!!!!!!!!!!!!!

    Le fondateur dépense l'argent qui ne lui appartient pas et au final les vrais propriétaires de l'entreprise (est-ce que certains auraient oublié le précepte "Qui commande paye!") reprennent la main, Dans le meilleur des cas, le fondateur reste dans l'entreprise sur une voie de garage (un beau bureau, une jolie secrétaire et un accès 24/24h à la machine à café) et dans le pire des cas, il se fait virer comme une merde avec en bonus une campagne mondiale pour le dénigrer.

    Cela se nomme le... capitalisme! Le monde des startups n'est pas une association caritative dont les gentils membres fortunés dépensent leur argent pour le bien de l'humanité (Et pourtant... C'est le discours d'un Bill Gates )

  18. #18
    Expert confirmé
    Homme Profil pro
    Développeur .NET
    Inscrit en
    Novembre 2009
    Messages
    2 034
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Développeur .NET

    Informations forums :
    Inscription : Novembre 2009
    Messages : 2 034
    Points : 5 476
    Points
    5 476
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    Le fondateur dépense l'argent qui ne lui appartient pas et au final les vrais propriétaires de l'entreprise (est-ce que certains auraient oublié le précepte "Qui commande paye!") reprennent la main, Dans le meilleur des cas, le fondateur reste dans l'entreprise sur une voie de garage (un beau bureau, une jolie secrétaire et un accès 24/24h à la machine à café) et dans le pire des cas, il se fait virer comme une merde avec en bonus une campagne mondiale pour le dénigrer.
    Oui enfin en l'espèce un des autres fondateurs n'est autre qu'Elon Musk (2015) qui aurait quitter l'association en 2018.
    En 2019 l'association devient entreprise lucrative pour tomber dans le modèle que tu dépeints et dans la foulée Microsoft annonce un investissement massif. Elon Musk ne voulait certainement pas ça pour cette structure, tandis que Sam Altman oui.
    Ce dernier à par ailleurs commencé sa fortune en revendant pour 45Millions sa première entreprise, il a ensuite navigué au sein du monde des incubateurs (les capitalistes) et augmenté sa fortune à quelques centaines de millions.
    Sam Altman n'est donc pas du tout le profil de ce mec à idée à qui l'on pique tout, mais d'avantage le mec qui sait nager dans ce monde.

  19. #19
    Membre du Club
    Inscrit en
    Juin 2010
    Messages
    17
    Détails du profil
    Informations forums :
    Inscription : Juin 2010
    Messages : 17
    Points : 60
    Points
    60
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    Rien de nouveau sous le soleil de Californie... Depuis le début des startups, on peut même compter sur les doigts du main les fondateurs de startup qui ont pu garder leur poste dans l'entreprise qu'ils ont fondé

    Les journalistes et autres commentateurs oublient un peu vite le principe de fonctionnement d'une startup: 1 fondateur qui a une bonne idée mais pas d'argent et des financiers qui n'ont pas d'idées mais l'argent nécessaire pour développer celles des autres!!!!!!!!!!!!!!!!!!!!

    Le fondateur dépense l'argent qui ne lui appartient pas et au final les vrais propriétaires de l'entreprise (est-ce que certains auraient oublié le précepte "Qui commande paye!") reprennent la main, Dans le meilleur des cas, le fondateur reste dans l'entreprise sur une voie de garage (un beau bureau, une jolie secrétaire et un accès 24/24h à la machine à café) et dans le pire des cas, il se fait virer comme une merde avec en bonus une campagne mondiale pour le dénigrer.

    Cela se nomme le... capitalisme! Le monde des startups n'est pas une association caritative dont les gentils membres fortunés dépensent leur argent pour le bien de l'humanité (Et pourtant... C'est le discours d'un Bill Gates )
    Faut arreter avec le délire du vilain capitalisme
    Le défenestrage de Sam Altman a été orchestré par Ilya Sutskever, un autre co-fondateur, qui lui est scientifique en chef de l'entreprise. En gros, le Technicien, celui qui comprend vraiment le produit, a viré le Commercial. Il me semble que l'année dernière des employés sous couvert d'anonymat avaient déja critiqué Altman pour n'avoir qu'une compréhension superficielle des LLMs. Ce n'est finalement pas tres different de ce qu'avait fait John Carmack a John Romero. Franchement perso je préfère ca que le contraire.

  20. #20
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 018
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 018
    Points : 6 313
    Points
    6 313
    Par défaut
    Citation Envoyé par nefelpitto Voir le message
    Faut arreter avec le délire du vilain capitalisme
    Le défenestrage de Sam Altman a été orchestré par Ilya Sutskever
    1. Je n'ai jamais parlé de *vilain capitalisme". Si vous ne comprenez pas ma pensée, je vais vous la préciser: LE VRAI propriétaire d'une entreprise n'est pas son fondateur mais bien ceux qui ont le contrôle de plus de 50% du capital de l'entreprise!

    2. Concernant les vraies origines du licenciement, personnellement, je m'en contre-fous!

    Paul a un avis, Jacques en a un autre... Comme ni Paul, ni Jacques ne sont membres du conseil d'administration de l'entreprise en question, même pas membres du personnel, leur avis relèvent simplement de la discussion de café du commerce... Je suis d'ailleurs sûr que l'on va avoir droit dans ce même fil de discussion à une autre explication de la part de Pierre qui sera diamétralement différente de celles de Paul et Jacques

    3. Donc Sam Altman a été viré... Ce qui n'empêche pas la Terre de tourner... That's it!

Discussions similaires

  1. Réponses: 25
    Dernier message: 30/09/2024, 01h59
  2. Réponses: 1
    Dernier message: 10/12/2018, 17h07
  3. Réponses: 11
    Dernier message: 02/08/2017, 00h36
  4. Réponses: 5
    Dernier message: 11/10/2011, 17h23

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo