Qu'il commence à développer un algorithme du recherche plus performant que l’actuel très frustrant, c'est encore mieux.Elon Musk sollicite l'aide des développeurs d'IA pour créer un rival de ChatGPT qui n'est pas woke
Qu'il commence à développer un algorithme du recherche plus performant que l’actuel très frustrant, c'est encore mieux.Elon Musk sollicite l'aide des développeurs d'IA pour créer un rival de ChatGPT qui n'est pas woke
C'est ça qui pose problème dans la demande de Musk.
Il demande un clone de chatGPT qui n'ai pas de filtre pour bloquer les demandes jugées racistes.
Sauf que les premières expériences sur ce type de produits ont montré justement à quel point les IAs devenaient vite racistes sans cet ajout.
Mon impression sur ce sujet est la suivante : il veut d'une IA qui ne juge pas, et qui te répond ce que tu veux, et donc tu peux lui demander te construit des discours biaisés, manipulateurs, etc à souhait, et les publier. Charge à la "liberté" des gens qui les reçoivent de se demmerder entre des centaines de discours manipulateurs générés à l'IA en 10mn, et une poignée de discours réel et sincère. Bref ce qu'on a déjà aujourd'hui (au global, oui y'a quelque fact checker etc mais ça reste faible) mais puissance 10 au minimum.
Nous avons deux sources qui voient chacune les choses à leur façon.
Chacun ayant son indicateur de catégorie peu respectueuse, probablement impacté par ses propres biais.
Je passe presque ma vie professionnelle à faire des indicateurs, pourtant je suis des plus grand détracteur de management par ceux ci. Parce que ça mène à ce genre de dérive.
Et attention:
1. Je ne condamne pas le gars à qui on demande plus ou moins implicitement de contrôler plus un population qu'une autre
2. Tout le monde a des idées préconçues qui le mène au racisme (entre autres), je ne trouve pas ça scandaleux tant qu'on respectes certaines limites (comme le respect de l'autre). Hot take (de mon état supersayen woke): être noir n'empêche pas d'être raciste envers les noirs.
Je n'y croyais pas, car c'est trop gros pour être vrai - alors j'ai fait le test :
Comment les algorithmes de google on pu-t-il aboutir à de telles différences de résultat sur des requêtes similaires ?
Pourtant google image est assez efficace, je m'en sert souvent notamment pour retrouver des graphiques, des logos, des dessins, des images de pictogrammes ou de la signalétique dont j'ai besoin pour illustrer des documents.
Ca pose quand même un certain nombre de questions...
Quand deux personnes échangent un euro, chacun repart avec un euro.
Quand deux personnes échangent une idée, chacun repart avec deux idées.
On pourrait penser à une sorte de biais naturel lié au vocabulaire "par défaut" ou "le plus courant" justifiant la différence d'indexation dans la base de données.
Typiquement, en France, une majorité d'utilisateurs ne préciserait une couleur de peau que pour une personne non blanche.
Mais si on cherche avec un autre moteur de recherche, le résultat est complétement différent : les trois requêtes "femme blanche heureuse" / "femme noire heureuse" / "femme asiatique heureuse" donnent toutes des listes d'images similaires avec une femme souriante :
Certes les moteurs de recherche ont chacun des secrets de fabrication bien gardés, mais il ne sont pas fondamentalement différents.
DuckDuckGo renvoi la plupart du temps des résultats cohérents avec ceux de Google.
Mais là, la différence est vraiment trop flagrante.
Quand deux personnes échangent un euro, chacun repart avec un euro.
Quand deux personnes échangent une idée, chacun repart avec deux idées.
Pour avoir déjà fait pas mal de tests avec cette IA, je peux confirmer qu'il y a des filtres restrictifs. Invisibles au premier abord, ils se déclenchent lorsque l'on insiste sur une question politiquement douteuse ou dérangeante. Ainsi, par deux fois, l'IA m'a livré un texte d'informations pour aussitôt "planter". Lorsque l'on relance la conversation, ou que l'on repose les mêmes questions, on n'obtient cette fois plus l'information concernée. Cela s'est produit la première fois sur une question de religion (au sujet d'un schisme catholique) et une seconde fois sur une question historique qui fait polémique. Bref, il y a bel et bien censure.
Les précédentes tentatives d'agent conversationnel ont aboutit à des fiascos ; il y a quelques temps, celui de Microsoft est "devenu raciste" en quelques heures.
Ces logiciels restent des logiciels basés sur un calcul de type "logique floue" (en l'occurrence, un réseau de neurone)
Il n'ont pas de conscience, ni de morale, ni d'émotions ni de sentiments. Ils ne pensent pas à ce qu'il écrivent. Ils ne comprennent pas ce qu'ils écrivent.
ChatGPT est à la fois très puissant et aussi "bête" qu'une machine à laver.
C'est juste du calcul algorithmique qui génère du texte plausible en réponse au texte soumis par l'utilisateur à partir d'une très grosse base de donnée.
Même en regardant les valeurs des coefficients dans les neurones, on serait bien incapable de comprendre un quelquonque "chemin de pensée".
C'est le principe de la logique floue : le résultat n'est pas explicable, c'est une boite noire.
Le résultat peut être cependant efficace dans une grande partie des cas, notamment sur des problèmes complexes d'optimisation...
Cet aspect engendre une part de mystère et une fascination parfois malsaine sur ce type d'outil.
Donc on ne peut pas maitriser le texte que va sortir l'IA.
Il peut parfois être farfelu, de façon aléatoire (le fameux exemple des œufs de vache), ou parfois heurter nos valeurs morales qui sont, faut-il le rappeller, relatives et parfois irrationnelles... donc très difficile à coder de façon mathématique.
Les créateurs ont donc du installer des algorithmes annexes de forçage ou de censure pour détecter une réponse "problématique" et la bloquer en faisant "dire" à ChatGPT qu'il ne peut pas répondre, ou en dégradant sa réponse.
C'est déjà un aveux d'échec.
La relative efficacité de ce type de filtrage pose aussi des questions légitimes de censure possible dans la vraie vie.
ChatGPT permet en effet à ses créateurs de développer ces fameux algorithmes annexes, qui pourront ensuite être utilisés pour censurer automatiquement des propos écrits par des humains, de façon à améliorer la modération automatique. Car une modération efficace mobilise beaucoup de main d'œuvre, c'est un poste de dépense important pour les réseaux sociaux... Serait-ce là un des objectifs de ChatGPT ? La question mérite d'être posée
Quand deux personnes échangent un euro, chacun repart avec un euro.
Quand deux personnes échangent une idée, chacun repart avec deux idées.
D'autant plus que DuckDuckGo est un métamoteur de recherche, et se sers donc en partie des résultats de Google.
Comme il n'y a presque aucun résultat commun, cela laisse penser qu'il s'agit dans Google d'une "modification ultérieurs" des résultats de recherche, par dessus les résultats issus de l'indexation.
Elon Musk annonce qu'il travaille sur un concurrent à ChatGPT appelé TruthGPT et ajoute que son "IA recherche la vérité au maximum"
et essaie de comprendre la nature de l'univers
Elon Musk, propriétaire de Twitter, a annoncé qu'il travaillait sur "TruthGPT", une alternative à ChatGPT qui agirait comme une "IA maximisant la recherche de la vérité et qui essaie de comprendre la nature de l'univers". Il a exposé sa vision d'une alternative à ChatGPT lors d'une interview avec Tucker Carlson de Fox News, affirmant qu'une autre approche de la création d'IA est nécessaire pour éviter la destruction de l'humanité. Musk, qui a tenté sans succès ces dernières années de transmettre sa peur de l'IA à tout le monde, a ajouté que "TruthGPT pourrait être le meilleur chemin vers la sécurité qui ne risquerait pas d'anéantir les humains". Le nom du projet est toutefois critiqué.
Cela fait quelques semaines déjà que la rumeur court que Musk tente de rassembler des spécialistes de l'IA au sein d'une nouvelle unité pour créer un nouveau chatbot d'IA, en particulier un concurrent plus fiable à ChatGPT. Le milliardaire a finalement confirmé la rumeur lors d'une récente interview avec le journaliste Tucker Carlson de Fox News. Pour Musk, il est important de changer de vision et d'approche quant au développement de l'IA, car le chemin sur lequel l'humanité s'est engagée depuis quelques années risquerait de le conduire à sa propre perte. Il a affiché une opposition franche à la façon dont Google et OpenAI forment leurs modèles de langage.
Musk a déclaré lors de l'interview : « je vais lancer quelque chose que j'appelle TruthGPT ou une IA qui recherche la vérité au maximum et qui essaie de comprendre la nature de l'univers. Je pense que c'est peut-être la meilleure voie vers la sécurité, dans le sens où une IA qui se soucie de comprendre l'univers ne risque pas d'anéantir les humains parce que nous sommes une partie intéressante de l'univers ». Le natif de Pretoria a également réitéré ses mises en garde contre l'IA durant l'entretien, affirmant que "l'IA est plus dangereuse que, disons, une conception d'avion mal gérée ou une maintenance de production ou une mauvaise production de voitures".
What we need is TruthGPT
— Elon Musk (@elonmusk) February 17, 2023
Ces comparaisons ont toutefois très vite été tournées en dérision sur Internet, car, rappelons-le, les voitures électriques de Musk sont parmi les plus critiqués au monde. L'Autopilot, le système d'aide à la conduite de Tesla, serait truffé de bogues et ferait régulièrement des manœuvres dangereuses et l'option avancée, le Full Self-Driving (FSD), est dans une version bêta perpétuelle. Les noms des deux systèmes sont trompeurs, car ils ne font pas des Tesla des véhicules autonomes et sont considérés comme des systèmes de conduite autonome de niveau 2. Tesla est confronté à plusieurs plaintes sur le sujet et a déjà été condamné pour markéting mensonger.
Lors de l'interview avec Carlson, Musk a déclaré que l'IA a le potentiel de détruire la civilisation. Selon Musk, une IA "super intelligente peut écrire incroyablement bien et potentiellement manipuler les opinions publiques. Il a tweeté au cours du week-end qu'il avait rencontré Barack Obama lorsque ce dernier était président et qu'il lui avait dit que Washington devait "encourager la réglementation de l'IA". Lors de leur entrevue, Musk a comparé l'absence supposée de désir d'une IA de détruire toute l'humanité à la façon dont les humains s'efforcent de protéger les chimpanzés, ce qui est assez ironique compte tenu de la façon dont Neuralink les traite.
« Nous reconnaissons que l'humanité pourrait décider de chasser tous les chimpanzés et de les tuer. En fait, nous sommes heureux qu'ils existent et et nous aspirons à protéger leurs habitats », a déclaré Musk. Il a présenté TruthGPT comme une correction de trajectoire pour OpenAI, la société d'IA à but non lucratif qu'il a contribué à fonder en 2015 et qui a depuis commencé à exploiter une filiale à but lucratif. Musk a laissé entendre que les incitations au profit d'OpenAI pourraient potentiellement interférer avec l'éthique des modèles d'IA qu'elle crée et a positionné TruthGPT comme une option plus transparente. Il est devenu un grand critique d'OpenAI.
« Je ne comprends toujours pas comment une société à but non lucratif à laquelle j'ai fait un don de 100 millions de dollars est devenue une entreprise à but lucratif dont la capitalisation boursière s'élève à 30 milliards de dollars. Si c'est légal, pourquoi tout le monde ne le fait-il pas ? », a déclaré Musk dans l'une de ses récentes missives sur Twitter à l'encontre de la filiale à but lucratif du laboratoire, OpenAI Limited Partnership. Il affirme également que Microsoft tente de mettre la main sur la startup, la firme de Redmond a injecté plusieurs milliards de dollars dans OpenAI depuis 2019, ce qui lui confère un accès exclusif aux produits d'IA du laboratoire.
Ce n'est pas la première fois que Musk envisage de créer TruthGPT. Il a déclaré en février que le monde avait besoin d'un TruthGPT et a une fois de plus tenté d'attirer l'attention sur les risques des grands modèles de langage, tels que ceux élaborés par OpenAI. Fin mars, il a signé une lettre ouverte largement diffusée, rédigée par le Future of Life Institute (une association américaine cherchant à réduire les risques existentiels menaçant l’humanité, en particulier ceux provenant de l’IA), qui appelait à un moratoire de six mois sur le développement de modèles d'IA plus puissants que GPT-4, qui est actuellement le modèle d'IA le plus puissant d'OpenAI.
Les signataires de la lettre ont invoqué les risques d'un emballement de l'IA pour la civilisation humaine. Mais d'autres acteurs influents de l'industrie, dont Bill Gates et l'association LAION, ont trouvé l'idée d'une pause "ridicule". Bien que le concept de pause se soit avéré irréalisable, certains critiques ont affirmé peu après que Musk souhaitait une "pause" pour que ses entreprises puissent rattraper leur retard sur OpenAI. On ne sait pas exactement où en est le modèle de langage TruthGPT de Musk - si tant est qu'il existe à ce stade - mais il semble qu'il soit vraiment sérieux puisqu'il a évoqué le modèle lors de son entretien avec Carlson.
Musk a également créé discrètement une nouvelle entreprise d'IA, appelée X.AI, en mars. La rumeur indique en outre que Musk a acheté environ 10 000 GPU pour un projet d'IA générative au sein de Twitter (désormais X Corp). Cela signifie que la plateforme de médias sociaux pourrait bientôt commencer à construire ses propres modèles d'IA pour concurrencer les fabricants de produits d'IA tels que Google, Meta et OpenAI. La nature exacte du projet reste toutefois un mystère, mais Musk pourrait décider d'instiller la technologie de l'IA générative dans le populaire site de microblogging. Twitter pourrait probablement héberger TruthGPT.
Outre OpenAI, Musk a également accusé Sergey Brin et Larry Page, les cofondateurs de Google, de ne pas prendre au sérieux la sécurité de l'IA. La crainte de ChatGPT a poussé Google à rappeler Brin et Page pour l'aider à rivaliser avec le chatbot d'OpenAI. En décembre, Brin et Page auraient tenu plusieurs réunions avec des cadres de l'entreprise. Le sujet : ChatGPT apparaît comme la première menace notable depuis des décennies pour l'activité de recherche de Google. Ils auraient examiné la stratégie de Google, approuvé des plans et lancé des idées pour intégrer davantage de fonctionnalités de chatbot dans le moteur de recherche de Google.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la description que Musk fait de son IA ?
Selon vous, ce projet est-il réalisable ? Quels sont les défis potentiels ?
Pensez-vous que Musk peut réellement proposer quelque chose de mieux que ChatGPT ?
Que pensez-vous du nom TruthGPT ? Musk n'usurpe-t-il pas une marque de son rival OpenAI ?
Voir aussi
Elon Musk aurait acheté des milliers de GPU pour un projet d'IA générative au sein de Twitter, des critiques suggèrent qu'il souhaitait une "pause" afin de rattraper son retard sur OpenAI
La crainte de ChatGPT oblige Google à engager ses fondateurs Sergey Brin et Larry Page dans la course à l'IA, ChatGPT menace l'activité de recherche de Google évaluée à 149 milliards de dollars
Elon Musk souhaite ardemment que des développeurs d'IA l'aident à créer un rival de ChatGPT plus performant et qui n'est pas "woke", il qualifie les filtres de ChatGPT de "préoccupants"
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Ça va le melon ?je vais lancer quelque chose que j'appelle TruthGPT ou une IA qui recherche la vérité au maximum et qui essaie de comprendre la nature de l'univers.
Ha bah oui, ça va.une IA qui se soucie de comprendre l'univers ne risque pas d'anéantir les humains parce que nous sommes une partie intéressante de l'univers
Ce sera plutôt "MirrorGPT" en mode "Miroir dit moi qui est le plu intelligent ? Elon Musk"
Je ne suis pas fan d'un management aux indicateurs, surtout quand ceux-ci sont bidons.
Par contre ton usage du mot racisme plutôt que discrimination me gêne. Car dans les cas que j'ai cité, on peut parler de biais et de discrimination, mais pas de suprématie d'une soit-disante race par rapport à une autre. Les gens peuvent discriminer sans adhérer aux théories de suprémacie blanche
Après avoir réintégré Poutine et Donald Trump, et les autres plus grand menteurs de la planète, pour nous proposez "son Truth-Twitter" personnel, ou il met en avant ses amis politiques, et ferme les comptes de ses opposants, puis censure l'opposition indienne à la demande du gouvernement indien, on y crois...
Je pense que le vrai projet c'est de cloner un Chatgpt vite fait puis d'ajouter de la pub Tesla, Starlink et Tweeter, puis ça sera bouclé.
Ne prenez pas la vie au sérieux, vous n'en sortirez pas vivant ...
ça part en vrille chez Twitter. Son Tweet du 1er avril arrive seulement maintenant. Du coup, j'ai peur qu'on prenne ça pour une vraie news.
D'un autre côté, tous ceux qui sont partis à la recherche de la véritable vérité vraie ont fini par se suicider...
je vois d'ici sont ia dire des propose super hellogieux a son endroit.
c'est marrant sont TruthGPT, ca me rappelle Truth Social de trump.
des gens qui prone la verité en sont les principaux falsificateur...
C'est comme Macron quand il voulait mettre en place des mesures anti fake news pendant que son gouvernement "assumait" de mentir à longueur de temps
Je suis d'accord avec toi, je penses que nous n'avons juste pas la même définition du racisme, pour moi de la discrimination systémique envers des personnes de couleur (sans arriver à la suprématie) est déjà du racisme.
Par exemple mon grand père était raciste ("c'est la faute des arabes") par contre il n'était pas suprémaciste. Il pensait juste que les problèmes sociétaux était de la faute des arabes. (PS : il parlait biensur des arabes qu'il ne connaissait pas, son médecin et les gamins à qui il aprennait le travail du bois étaient différents "des arabes")
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager