IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Les experts techniques commencent à douter que les « hallucinations » de ChatGPT disparaîtront un jour


Sujet :

Intelligence artificielle

  1. #61
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 851
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 851
    Points : 205 395
    Points
    205 395
    Par défaut Les experts techniques commencent à douter que les « hallucinations » de ChatGPT disparaîtront un jour
    Les experts techniques commencent à douter que les « hallucinations » de ChatGPT disparaîtront un jour : « Ce n'est pas réparable ».
    Pour eux, les LLM vont continuer d'inventer des faits

    ChatGPT est un modèle de langage artificiel qui peut générer des réponses fluides et pertinentes à partir de n’importe quelle entrée textuelle. Il a impressionné le monde par la profondeur de ses connaissances et la qualité de ses dialogues, mais un problème a entravé son utilité: il a tendance à inventer des choses qui ne sont pas vraies. On appelle cela des «hallucinations». Selon certains chercheurs, cette situation n'est pas près d'être corrigée.

    Anthropic, OpenAI, fabricant de ChatGPT, et d'autres développeurs majeurs de systèmes d'IA connus sous le nom de grands modèles de langage disent qu'ils travaillent pour les rendre plus véridiques. Combien de temps cela prendra - et s'ils seront jamais assez bons pour, par exemple, donner des conseils médicaux en toute sécurité - reste à voir.


    Passez suffisamment de temps avec ChatGPT et d'autres chatbots d'intelligence artificielle et il ne leur faudra pas longtemps pour débiter des mensonges.

    Décrit comme une hallucination, une confabulation ou simplement une invention, c'est maintenant un problème pour chaque entreprise, organisation et lycéen essayant d'obtenir d'un système d'IA générative de la documentation pour un travail donné. Certains l'utilisent pour des tâches pouvant avoir des conséquences importantes, de la psychothérapie à la recherche et à la rédaction de mémoires juridiques.

    Les hallucinations sont le résultat du fonctionnement de ChatGPT, qui consiste à prédire des chaînes de mots qui correspondent le mieux à la requête de l’utilisateur, sans tenir compte de la logique ou des incohérences factuelles. En d’autres termes, l’IA peut parfois dérailler en essayant de satisfaire l’utilisateur. Par exemple, ChatGPT peut affirmer que la capitale de la France est Berlin, ou que le président des États-Unis est Donald Trump, sans vérifier la véracité de ces informations.

    Ce problème n’est pas propre à ChatGPT, mais affecte tous les modèles de langage de grande taille (LLM), qui sont entraînés sur d’énormes quantités de données textuelles provenant du web. Ces données peuvent être incomplètes, biaisées, obsolètes ou erronées, ce qui limite la fiabilité des LLM. De plus, les LLM ne comprennent pas vraiment le sens des mots qu’ils produisent, mais se basent sur des statistiques et des probabilités pour générer du texte.

    « Je ne pense pas qu'il existe aujourd'hui un modèle qui ne souffre pas d'hallucinations », a déclaré Daniela Amodei, co-fondatrice et présidente d'Anthropic, fabricant du chatbot Claude 2. « Ils sont vraiment conçus en quelque sorte pour prédire le mot suivant », a continué Amodei. « Et donc il y aura un certain rythme auquel le modèle le fera de manière inexacte ».

    Les entreprises tentent d'endiguer le problème

    Les développeurs de ChatGPT et d’autres LLM affirment qu’ils travaillent à rendre leurs systèmes plus véridiques. Ils utilisent différentes techniques pour détecter et corriger les hallucinations, comme l’introduction de sources externes de connaissances, la vérification croisée des faits ou l’utilisation de signaux de rétroaction des utilisateurs. Cependant, ces solutions ne sont pas parfaites et peuvent introduire d’autres problèmes, comme la complexité, le coût ou la manipulation.

    Certains experts en technologie sont sceptiques quant à la possibilité d’éliminer complètement les hallucinations des LLM. Ils soutiennent que c’est une conséquence inévitable du décalage entre la technologie et les cas d’utilisation proposés. « Ce n'est pas réparable », a déclaré Emily Bender, professeur de linguistique et directrice du laboratoire de linguistique informatique de l'Université de Washington. « C'est inhérent à l'inadéquation entre la technologie et les cas d'utilisation proposés ».

    Ces experts mettent en garde contre les risques potentiels des hallucinations pour la sécurité, l’éthique ou la crédibilité des applications basées sur les LLM, comme les chatbots, la rédaction d’articles, la génération de code ou le conseil médical.

    D’autres experts sont plus optimistes et considèrent les hallucinations comme une opportunité d’innovation et de créativité. Ils affirment que les LLM peuvent produire des idées nouvelles et originales qui peuvent inspirer ou divertir les utilisateurs.

    Cependant, beaucoup dépend de la fiabilité de la technologie d'IA générative. Le McKinsey Global Institute prévoit qu'il ajoutera l'équivalent de 2,6 billions (1 billion étant 1 000 milliards) de dollars à 4,4 billions de dollars à l'économie mondiale. Les chatbots ne sont qu'une partie de cette frénésie, qui comprend également une technologie capable de générer de nouvelles images, vidéos, musiques et codes informatiques. Presque tous les outils incluent une composante linguistique.

    Google propose déjà un produit d'IA pour la rédaction d'actualités aux agences de presse, pour lesquelles la précision est primordiale. L'Associated Press explore également l'utilisation de la technologie dans le cadre d'un partenariat avec OpenAI, qui paie pour utiliser une partie des archives de texte d'AP pour améliorer ses systèmes d'IA.

    Nom : chat.png
Affichages : 3743
Taille : 383,0 Ko

    Le PDG d'OpenAI fait partie des optimistes

    En partenariat avec les instituts de gestion hôtelière indiens, l'informaticien Ganesh Bagler travaille depuis des années pour obtenir des systèmes d'IA, y compris un précurseur ChatGPT, pour inventer des recettes pour les cuisines sud-asiatiques, telles que de nouvelles versions de biryani à base de riz. Un seul ingrédient « halluciné » pourrait faire la différence entre un repas savoureux et immangeable.

    Lorsque Sam Altman, PDG d'OpenAI, s'est rendu en Inde en juin, le professeur de l'Indraprastha Institute of Information Technology Delhi avait des questions pointues. « Je suppose que les hallucinations dans ChatGPT sont toujours acceptables, mais lorsque pour une recette il y a des hallucinations, cela devient un problème sérieux », a déclaré Bagler, se levant dans un auditorium bondé du campus pour s'adresser à Altman lors de l'étape de New Delhi de la tournée mondiale de l'exécutif technologique américain.

    « Quel est votre point de vue ? » a finalement demandé Bagler.

    Altman a exprimé son optimisme, sinon un engagement pur et simple : « Je pense que nous allons amener le problème des hallucinations à un bien meilleur endroit », a déclaré Altman. « Je pense que cela va nous prendre un an et demi, deux ans. Quelque chose comme ça. Mais à ce stade, nous n'en parlerons plus. Il y a un équilibre entre créativité et précision parfaite, et le modèle devra apprendre quand vous voulez l'un ou l'autre ».

    Mais pour certains experts qui ont étudié la technologie, comme le linguiste Bender de l'Université de Washington, ces améliorations ne suffiront pas. Bender décrit un modèle de langage comme un système permettant de « modéliser la probabilité de différentes chaînes de formes de mots », compte tenu de certaines données écrites sur lesquelles il a été entraîné. C'est ainsi que les correcteurs orthographiques sont capables de détecter quand vous avez tapé le mauvais mot. Cela aide également à alimenter les services de traduction et de transcription automatiques, « en lissant la sortie pour qu'elle ressemble davantage à du texte typique dans la langue cible », a déclaré Bender. De nombreuses personnes s'appuient sur une version de cette technologie chaque fois qu'elles utilisent la fonction « autocomplétion » lors de la rédaction de messages texte ou d'e-mails.

    La dernière génération de chatbots tels que ChatGPT, Claude 2 ou Bard de Google essaie de faire passer cela au niveau supérieur, en générant de nouveaux passages de texte entiers, mais Bender a déclaré qu'ils sélectionnaient toujours à plusieurs reprises le mot suivant le plus plausible dans une chaîne. Lorsqu'ils sont utilisés pour générer du texte, les modèles de langage « sont conçus pour inventer des choses. C'est tout ce qu'ils font », a déclaré Bender. Ils sont bons pour imiter les formes d'écriture, telles que les contrats légaux, les scripts télévisés ou les sonnets. Mais comme ils ne font qu'inventer des choses, lorsque le texte qu'ils ont extrudé se trouve être interprétable comme quelque chose que nous jugeons correct, c'est par hasard », a déclaré Bender. « Même s'ils peuvent être réglés pour avoir raison la plupart du temps, ils auront toujours des modes d'échec - et les échecs se produiront probablement dans les cas où il est plus difficile pour une personne lisant le texte de s'en apercevoir, car ils sont plus obscurs ».

    Ces erreurs ne sont pas un énorme problème pour les sociétés de marketing qui se sont tournées vers Jasper AI pour obtenir de l'aide pour rédiger des argumentaires, a déclaré le président de la société, Shane Orlick.

    « Les hallucinations sont en fait un bonus supplémentaire », a déclaré Orlick. « Nous avons tout le temps des clients qui nous disent comment il [Jasper] a trouvé des idées - comment Jasper a créé des histoires ou des angles auxquels ils n'auraient jamais pensé eux-mêmes ».

    Orlick a déclaré qu'il savait que les hallucinations ne seraient pas faciles à réparer. Il compte sur des entreprises comme Google, qui, selon lui, doivent avoir un « très haut niveau de contenu factuel » pour son moteur de recherche, pour mettre beaucoup d'énergie et de ressources dans les solutions. « Je pense qu'ils doivent résoudre ce problème », a déclaré Orlick. « Ils doivent résoudre ce problème. Donc je ne sais pas si ça va être parfait, mais ça va probablement continuer à s'améliorer avec le temps ».

    Source : McKinsey Global Institute

    Et vous ?

    Quelle est votre opinion sur les hallucinations des LLM? Les trouvez-vous utiles ou nuisibles?
    Avez-vous déjà utilisé ChatGPT ou un autre LLM? Si oui, quelle a été votre expérience?
    Partagez-vous le point de vue des experts qui pensent que les hallucinations ne pourront pas être évités ? Si non, comment pensez-vous que les LLM pourraient être améliorés pour éviter ou réduire les hallucinations?

  2. #62
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 001
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 001
    Points : 6 276
    Points
    6 276
    Par défaut
    Si les "experts techniques" étaient de vrais experts en IA, ils sauraient que les "hallucinations" sont présentes dans tous les systèmes IA depuis le début de l'IA et que c'est même un problème que aucun vrai expert en IA ne comprend, ni ne sait comment résoudre!!!

    En résumé, ces "hallucinations" sont des comportements illogiques de l'IA qui apparaissent de manière imprévisible. On l'illustre avec l'IA qui prend une orange pour un hélicoptère!

    1° On apprend à une IA a reconnaître sur photo les oranges

    2° On prend une photo d'orange, on y change un pixel

    3° Alors que pour l'humain, il s'agit toujours d'une photo d'orange, voilà que l'IA dit "c'est un hélicoptère"


    ChatGPT étant une IA, ChatGPT aura les mêmes limitations que toutes les IA!!!

  3. #63
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 323
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 323
    Points : 3 995
    Points
    3 995
    Par défaut
    Nous voulons que les IA ressemblent à l'homme.
    On s'étonne que l'IA a des hallucinations mais l'homme en a aussi.
    Oui mais l'IA c'est des machines et les machines ne se trompent jamais! Vraiment?
    Les profs compétents m'ont montré à quel point une calculatrice, excel, un logiciel de calcul éléments finis fournissent le mauvais résultat si on les utilise mal. Et les premiers mauvais résultats sont le résultats de mon incompétence mais il arrive un moment où ce sont les limites de l'outil qui posent problème. Et le rôle de l'expert est de reconnaitre les résultats abérrant et de savoir quand on joue avec les limites de l'outil.

    Mais la démocratisation de l'IA et son exploitation pour tout est l'éloge de la médiocrité.
    Vous avez trois choix si vous utilisez l'IA :
    _ trouver une IA qui cite ses sources
    _ vérifier ce que l'IA dit
    _ vivre dans une illusion de savoir

    Ce que je trouve le plus inquiétant est qu'en entreprise ceux qui font la promotion de l'IA générative, prennent ChatGPT comme exemple, disent du bout des lèvres qu'elle "ment" de temps en temps mais concluent en disant :
    - Il faut déployer une IA
    - Elle ne doit pas donner ses sources, ça la rendrait moins efficace
    - Grace à elle nous seront plus rapide, plus précis et plus fiables.

    Je n'ai qu'une explication rationnelle, ces personnes ont fait leur présentation grâce à l'IA et démontrent sa limite et leur médiocrité.
    Mais comme leur plan implique leur remplacement nous y gagnerons à terme

  4. #64
    Membre émérite
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    951
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 951
    Points : 2 909
    Points
    2 909
    Par défaut
    Ces IA sont programmes pour taper la discute de façon intelligente, ça marche. En revanche elles n'ont jamais été prévu pour dire "la vérité" ou sourcer ses informations de "sources fiables".

  5. #65
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 707
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 707
    Points : 1 449
    Points
    1 449
    Billets dans le blog
    7
    Par défaut
    J'avais émit des doutes sur la possibilité de concilier la rectitude politique et l'intelligence artificielle. Mes doutes sont confirmées.

    https://www.youtube.com/shorts/crraP...?feature=share

  6. #66
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 851
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 851
    Points : 205 395
    Points
    205 395
    Par défaut OpenAI explore la possibilité d'empêcher une IA de devenir malveillante... avec plus d'IA
    L'initiative interne d'OpenAI explore la possibilité d'empêcher une IA de devenir malveillante... avec plus d'IA.
    L'équipe de superalignement présente des premiers résultats mitigés

    OpenAI a annoncé les premiers résultats de son équipe de superalignement, l’initiative interne de l’entreprise dédiée à empêcher une superintelligence de devenir incontrôlable. Les premiers résultats du projet sont prometteurs, selon OpenAI, qui affirme avoir réussi à entraîner une IA simple avec une autre IA plus complexe.

    OpenAI reconnaît toutefois que le chemin vers l’alignement de la superintelligence est encore long et incertain, et qu’il faudra faire face à de nombreux défis techniques. La startup se dit néanmoins déterminée à poursuivre sa mission de créer une IA bénéfique pour l’humanité, tout en évitant les scénarios catastrophiques que certains experts et personnalités ont envisagés.


    La superintelligence artificielle (ou ASI) est un type hypothétique d’IA qui serait capable de dépasser les capacités humaines dans tous les domaines et aspects cognitifs. La superintelligence artificielle serait plus intelligente que les meilleurs humains dans toutes les disciplines scientifiques, techniques, artistiques et sociales. La superintelligence artificielle pourrait aussi avoir une conscience et une sensibilité propres à elle-même. La superintelligence artificielle n’existe pas encore dans le monde réel, mais c’est une possibilité théorique qui suscite beaucoup d’intérêt et aussi beaucoup de craintes.

    Alors que l'intelligence artificielle capable de surpasser l'esprit est encore hypothétique, OpenAI estime que cette technologie pourrait aider l’humanité « à résoudre bon nombre des problèmes les plus importants du monde ».

    La superintelligence sera la technologie la plus percutante que l'humanité ait jamais inventée et pourrait nous aider à résoudre bon nombre des problèmes les plus importants du monde. Mais le vaste pouvoir de la superintelligence pourrait également être très dangereux et pourrait conduire à la perte de pouvoir de l'humanité ou même à l'extinction humaine.
    Et OpenAI estime vouloir jouer un rôle actif en termes de risques liés aux systèmes d'IA et à leurs capacités massives qui pourraient bien prendre le dessus sur l'intelligence humaine. Aussi, en juillet, l'entreprise a annoncé la création d'une division chargée de créer une IA qui va contrôler le développement de la superintelligence.

    « Le pouvoir immense de la superintelligence pourrait … conduire au déclassement de l’humanité ou même à son extinction », ont écrit dans un billet de blog le co-fondateur d’OpenAI, Ilya Sutskever, et le responsable de l’alignement, Jan Leike. « Actuellement, nous n’avons pas de solution pour orienter ou contrôler une IA potentiellement superintelligente, et l’empêcher de devenir incontrôlable ».

    Nom : IIlya.png
Affichages : 1546
Taille : 558,1 Ko
    Ilya Sutskever

    Un premier pas dans l'atteinte de cet objectif : utiliser une IA « plus stupide » pour entraîner et contenir l’IA la plus « intelligente »

    Contrairement à de nombreuses annonces de l’entreprise, il n'est pas question ici d'une grande avancée. Dans un document de recherche relativement discret, l’équipe décrit une technique qui permet à un grand modèle de langage moins puissant de superviser un modèle plus puissant et suggère que cela pourrait être un petit pas vers la compréhension de la manière dont les humains pourraient superviser des machines surhumaines.

    La question à laquelle l’équipe souhaite répondre est de savoir comment maîtriser, ou « aligner », des modèles futurs hypothétiques bien plus intelligents que nous, connus sous le nom de modèles surhumains. L'alignement signifie s'assurer qu'un modèle fait ce que vous voulez qu'il fasse et ne fait pas ce que vous ne voulez pas qu'il fasse. Le superalignement applique cette idée aux modèles surhumains.

    L’une des techniques les plus répandues utilisées pour aligner les modèles existants est appelée apprentissage par renforcement via la rétroaction humaine. En un mot, les testeurs humains notent les réponses d’un modèle, en votant pour le comportement qu’ils souhaitent voir et en votant contre le comportement qu’ils ne souhaitent pas voir. Ces commentaires sont ensuite utilisés pour entraîner le modèle à produire uniquement le type de réponses appréciées par les testeurs humains. Cette technique est en grande partie ce qui rend ChatGPT si attrayant.

    Le problème est que cela nécessite que les humains soient capables de dire en premier lieu ce qui est un comportement souhaitable et ce qui ne l’est pas. Mais un modèle surhumain – selon l’idée – pourrait faire des choses qu’un testeur humain ne peut pas comprendre et ne serait donc pas en mesure d’évaluer. (Il pourrait même essayer de cacher son véritable comportement aux humains, estime Sutskever.)

    Le projet de superalignement, dirigé par le co-fondateur et scientifique en chef de OpenAI, Ilya Sutskever, et le chercheur principal Jan Leike, se déroulera sur quatre ans et utilisera environ un cinquième de la capacité de calcul actuelle de OpenAI. Il s’articulera autour de trois étapes :
    • Développer une compréhension de la façon dont l’IA analyse d’autres IA sans interaction humaine
    • Utiliser l’IA pour rechercher les zones problématiques ou les failles
    • Créer une IA capable de résoudre les problèmes d’alignement de manière autonome

    Les chercheurs soulignent que le problème est difficile à étudier car les machines surhumaines n’existent pas. Ils ont donc utilisé des remplaçants. Au lieu d’examiner comment les humains pourraient superviser des machines surhumaines, ils ont examiné comment GPT-2, un modèle publié par OpenAI il y a cinq ans, pourrait superviser GPT-4, le modèle le plus récent et le plus puissant d’OpenAI. « Si vous y parvenez, cela pourrait être la preuve que vous pouvez utiliser des techniques similaires pour que des humains supervisent des modèles surhumains », explique Collin Burns, un autre chercheur de l'équipe de superalignement.

    L'équipe a suivi GPT-2 et l'a entraîné à effectuer une poignée de tâches différentes, notamment un ensemble de puzzles d'échecs et 22 tests courants de traitement du langage naturel qui évaluent l'inférence, l'analyse des sentiments, etc. Ils ont utilisé les réponses de GPT-2 à ces tests et énigmes pour entraîner GPT-4 à effectuer les mêmes tâches. C’est comme si un élève de CM2 apprenait à accomplir une tâche à un élève de 3ème. L’astuce était de le faire sans que GPT-4 ne subisse un trop gros impact sur les performances.

    Nom : analogie.png
Affichages : 642
Taille : 67,8 Ko

    Les résultats ont été mitigés

    L’équipe a mesuré l’écart de performance entre GPT-4 formé sur les meilleures suppositions de GPT-2 et GPT-4 formé sur les réponses correctes. Ils ont constaté que GPT-4 entraîné par GPT-2 était 20 à 70 % plus performant que GPT-2 sur les tâches linguistiques, mais moins performant sur les énigmes d'échecs.

    Le fait que GPT-4 ait surpassé son professeur est impressionnant, déclare Pavel Izmailov, membre de l'équipe : « C'est un résultat vraiment surprenant et positif. » Mais il est loin de ce qu’il pourrait faire par lui-même, dit-il. Ils concluent que l’approche est prometteuse mais nécessite davantage de travail.

    « C'est une idée intéressante », déclare Thilo Hagendorff, chercheur en IA à l'Université de Stuttgart en Allemagne qui travaille sur l'alignement. Mais il pense que GPT-2 est peut-être trop stupide pour être un bon professeur ». GPT-2 a tendance à donner des réponses absurdes à toute tâche légèrement complexe ou nécessitant un raisonnement, dit-il. Hagendorff aimerait savoir ce qui se passerait si GPT-3 était utilisé à la place.

    Il note également que cette approche ne répond pas au scénario hypothétique de Sutskever dans lequel une superintelligence cache son véritable comportement et prétend être alignée alors qu’elle ne l’est pas. « Les futurs modèles surhumains posséderont probablement des capacités émergentes inconnues des chercheurs », explique Hagendorff. « Comment l’alignement peut-il fonctionner dans ces cas-là ? »

    Est-ce que ça marchera?

    Le problème avec le travail de superalignement est que tout cela est théorique. Sutskever et Leike ont déclaré en juillet qu'ils s'attendaient à ce que la superintelligence soit là au cours de cette décennie. C’est pourquoi cet engagement sur quatre ans est si important.

    L’équipe d’OpenAI considère la supériorité éventuelle des machines comme un acquis. « Les progrès de l'IA au cours des dernières années ont été extraordinairement rapides », a rappelé Leopold Aschenbrenner, chercheur au sein de l'équipe de superalignement. « Nous avons dépassé tous les critères et ces progrès se poursuivent sans relâche. »

    Pour Aschenbrenner et d’autres membres de l’entreprise, des modèles dotés de capacités humaines approchent à grands pas. « Mais cela ne s'arrêtera pas là », dit-il. « Nous allons avoir des modèles surhumains, des modèles bien plus intelligents que nous. Et cela présente de nouveaux défis techniques fondamentaux ».

    Toutefois, en suivant ce raisonnement, si la superintelligence venait à être développée, elle pourrait toujours détecter que quelqu’un ou quelque chose essaie de « l’aligner » et protester ou cacher ses véritables intentions. Dans ce cas, partant du principe qu'une ASI serait plus intelligente que l'homme, si l’IA venait à devenir malveillante, nous ne saurons peut-être jamais que cela s’est produit.

    Dans un article de blog publié jeudi, OpenAI invite d'autres chercheurs en IA à contribuer à ses efforts de superalignement, en mettant de côté 10 millions de dollars pour le financement et les subventions liées au superalignement. Il est intéressant de noter qu'OpenAI s'associe à Eric Schmidt, l'ancien PDG de Google, dans le cadre d'un programme de subventions de 10 millions de dollars.

    Sources : billet OpenAI, résultats de recherche OpenAI

    Et vous ?

    Quelle lecture faites-vous du sujet ?
    Que pensez-vous de la superintelligence artificielle ? Est-elle atteignable selon vous ?
    Que pensez-vous du fait qu'OpenAI a une équipe dédiée au superalignement ? À l'approche de cette équipe pour résoudre cet hypothétique problème ?
    Quels sont les avantages et les inconvénients de l’utilisation de l’IA pour contrôler l’IA ?
    Quels sont les risques potentiels d’une IA superintelligente qui ne serait pas alignée avec les intentions humaines ?
    Comment pensez-vous que l’IAG, voire la superintelligence artificielle, pourrait changer le monde et la société ?

Discussions similaires

  1. Réponses: 6
    Dernier message: 25/01/2022, 10h21
  2. Réponses: 4
    Dernier message: 10/12/2018, 13h18

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo