IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #781
    Membre émérite Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    2 003
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 2 003
    Points : 2 260
    Points
    2 260
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    J'ai vu une vidéo intéressante concernant le PDG Sam Altman.



    Le gars conduit une Koenigsegg qui coute 4 millions de $.
    Maintenant j'ai compris où partais l'argent, elle part dans les poches de gens qui ont des salaires beaucoup trop élevé.
    Mais mark fait ça juste pour apporter de la joie aux gens et Elon ça que pour sauver l'humanité (en commençant pas les milliardaires)
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  2. #782
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 298
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 298
    Points : 21 377
    Points
    21 377
    Par défaut Elon Musk qualifie OpenAI de "diabolique" après qu'elle ait encouragé les investissements exclusifs
    Elon Musk qualifie OpenAI de "diabolique" après qu'elle ait encouragé les investissements exclusifs, alors que Sam Altman a demandé aux investisseurs de ne pas financer ses rivaux, y compris xAI d'Elon Musk

    Elon Musk a qualifié OpenAI de « diabolique » après que le géant technologique ait demandé aux investisseurs des accords d'exclusivité qui les empêcheraient d'investir dans des concurrents tels que xAI d'Elon Musk.

    En octobre 2024, OpenAI a conclu une impressionnante levée de fonds de 6,6 milliards de dollars, faisant grimper sa valorisation à 157 milliards de dollars, presque le double de sa précédente évaluation de 86 milliards de dollars. Cette opération, parmi les plus importantes jamais réalisées dans le secteur privé, renforce la position d'OpenAI parmi les startups les plus valorisées au monde, aux côtés de SpaceX et de ByteDance.


    Cette levée de fonds s'accompagne cependant de conditions strictes : les investisseurs ont le droit de retirer leur argent si OpenAI ne réussit pas à passer d'une organisation à but non lucratif à une entreprise entièrement lucrative. De plus, OpenAI a demandé à ses investisseurs, telles que Microsoft, Nvidia et Thrive Capital, entre autres, de ne pas soutenir des startups concurrentes dans le domaine de l'IA.

    Un employé de l'entreprise a en effet déclaré qu'OpenAI avait demandé à ses investisseurs de ne pas investir dans cinq entreprises concurrentes : Anthropic, qui a récemment annoncé une nouvelle fonction d'entreprise pour son LLM Claude ; Glean, une organisation d'IA ciblant spécifiquement les utilisateurs en entreprise ; Perplexity, qui a développé un nouvel outil pour transformer la recherche en contenu ; Safe Superintelligence, qui a été fondée par l'ancien scientifique en chef d'OpenAI, Ilya Sutskever ; et xAI, qui appartient à Elon Musk et qui a récemment lancé l'une des grappes d'entraînement les plus puissantes au monde.

    Après la publication de cette demande (qui n'était pas juridiquement contraignante), Elon Musk s'est rendu sur la plateforme de médias sociaux X pour qualifier l'entreprise de « diabolique ».


    Ce n'est pas la première fois qu'Elon Musk et OpenAI s'opposent. La querelle entre l'entrepreneur et l'entreprise d'IA ne date pas d'hier.

    La querelle d'Elon Musk avec OpenAI et Sam Altman

    Lorsque OpenAI a été lancée en 2015, elle était coprésidée par Sam Altman et Elon Musk. Ce dernier a apporté 45 millions de dollars de financement initial à la société d'IA que Sam Altman et lui-même jugeaient nécessaire pour s'opposer à la domination apparente de Google dans l'espace de l'IA.

    En 2018, alors que l'entreprise commençait à envisager une réorientation vers le secteur lucratif afin de garantir la poursuite des investissements dans la recherche sur l'IA, Elon Musk a proposé deux options : soit OpenAI fusionnait avec Tesla ( dont il est propriétaire), soit il recevait le contrôle total de l'entreprise. Aucun accord n'ayant pu être trouvé, Elon Musk a quitté OpenAI avec l'intention de créer sa propre entreprise d'IA en tant que concurrent.

    Après que le conseil d'administration d'OpenAI a tenté, en vain, de révoquer Sam Altman en novembre 2023, Elon Musk a intenté une action en justice, affirmant que la réorientation de l'entreprise vers des objectifs lucratifs allait à l'encontre de l'accord initial conclu lors de la création de l'entreprise. La plainte a été déposée en mars 2024, puis abandonnée en juin 2024 par Elon Musk, qui n'a pas révélé les raisons de cet abandon. OpenAI a soutenu que la plainte d'Elon Musk était frivole et « révisionniste ».

    Cependant, au début du mois d'août 2024, Elon Musk a relancé une action en justice contre OpenAI et Sam Altman affirmant qu’il a été « manipulé » pour cofonder OpenAI, une organisation à but non lucratif qui est ensuite devenue une structure hybride « pour l'enrichissement personnel de Sam Altman et de ses partenaires ». Elon Musk a notamment accusé Sam Altman et d’autres dirigeants de l'avoir délibérément trompé en lui faisant croire que l’entreprise suivrait une voie plus ouverte et altruiste que les géants technologiques axés sur le profit. Cependant, OpenAI a finalement adopté un modèle commercial plus traditionnel, ce qui a suscité les inquiétudes d'Elon Musk quant aux dangers potentiels de l’IA.

    En dehors des procès, il y a eu une quantité importante de querelles mineures, dont la plupart proviennent d'Elon Musk. Ce dernier a augmenté les salaires chez Tesla, notamment parce qu'il craignait qu'OpenAI ne tente de débaucher le personnel d'IA de l'entreprise de voitures autonomes en gonflant les salaires dans le cadre d'une guerre des talents.

    Elon Musk a également menacé d'interdire tous les appareils Apple après l'annonce par Apple de son partenariat avec OpenAI. Elon Musk a déclaré que tous les visiteurs de ses sites devraient laisser leurs appareils Apple enfermés dans une cage de Faraday jusqu'à leur départ. Apple a récemment choisi de ne pas participer à un récent tour d'investissement pour OpenAI et n'a pas commenté la question.

    Source : Elon Musk

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous la demande d'OpenAI visant à empêcher les investisseurs de financer ses concurrents pertinente ou judicieuse ?
    Trouvez-vous que la réaction d'Elon Musk est justifiée ou bien disproportionnée ?

    Voir aussi :

    OpenAI lève plus de 6,5 milliards de dollars et atteint une valorisation de 157 milliards de dollars. L'entreprise demande aux investisseurs de ne pas soutenir la concurrence comme xAI d'Elon Musk

    Elon Musk poursuit à nouveau OpenAI et Sam Altman, affirmant avoir été manipulé pour cofonder OpenAI qui a évolué en structure hybride « pour l'enrichissement personnel d'Altman et de ses partenaires »

    Elon Musk poursuit OpenAI et son PDG Sam Altman, évoquant une violation des accords contractuels initiaux des fabricants de ChatGPT qui cherchent à réaliser du profit au lieu de se consacrer à la mission fondatrice de l'organisation
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #783
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 049
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 049
    Points : 209 083
    Points
    209 083
    Par défaut De grandes entreprises de la tech US paient moins de 2 $ / heure à des travailleurs kényans pour former l'IA
    De grandes entreprises technologiques américaines paient des travailleurs au Kenya moins de 2 $ pour former l'IA,
    une enquête dénonce des pratiques de travail déloyales

    Dans l’univers des grandes entreprises technologiques, les chiffres impressionnent : des milliards de dollars en revenus, des innovations spectaculaires et une influence globale inégalée. Pourtant, derrière ce vernis de succès, une ombre grandissante se dessine : les conditions de travail dans les économies émergentes, notamment en Afrique. Des rapports récents révèlent que certaines entreprises technologiques paient des travailleurs kenyans parfois moins de 2 dollars par heure.

    Les emplois dans le domaine de l'IA ont semblé être une opportunité en or

    À Nairobi, au Kenya, où le taux de chômage des jeunes atteint le chiffre stupéfiant de 67 %, les emplois dans le domaine de l'IA ont d'abord semblé être une opportunité en or. Des travailleurs comme Naftali Wambalo, diplômé en mathématiques, pensaient avoir pris pied dans l'avenir technologique. Engagés pour étiqueter et trier des données pour des géants mondiaux de la technologie comme OpenAI et Meta, Wambalo et ses collègues étaient chargés d'entraîner les systèmes d'IA à tout reconnaître, des schémas de circulation aux anomalies médicales.

    Mais la triste réalité s'est vite imposée : SAMA, une société d'externalisation américaine qui a embauché pour Meta et OpenAI, employait plus de 3 000 personnes au Kenya. Les documents examinés par 60 Minutes montrent qu'OpenAI a accepté de payer à SAMA 12,50 dollars de l'heure par travailleur, soit beaucoup plus que les 2 dollars que les travailleurs ont effectivement reçus, bien que SAMA affirme que ce qu'elle a payé est un salaire équitable pour la région.

    Cette disparité flagrante met en évidence un modèle plus large d'exploitation dans la chaîne d'approvisionnement mondiale de l'IA, où les travailleurs des pays en développement endurent des salaires bas et des contrats précaires pour alimenter les ambitions de la Silicon Valley.

    Nerima Wako-Ojiwa, militante kenyane des droits civiques, a déclaré que le désespoir des travailleurs, dans un pays où le taux de chômage est élevé, a conduit à une culture de l'exploitation avec des salaires injustes et aucune sécurité de l'emploi. « Il est terrible de voir combien d'entreprises américaines agissent mal ici », a déclaré Wako-Ojiwa. « C'est quelque chose qu'elles ne feraient pas chez elles, alors pourquoi le faire ici ? »

    On entend souvent dire que l'intelligence artificielle va supprimer des emplois humains, mais à l'heure actuelle, elle crée également des emplois. Des millions de personnes travaillent à l'échelle mondiale pour assurer le bon fonctionnement de l'intelligence artificielle. Il s'agit d'un travail pénible qui doit être effectué avec précision et rapidité. Pour le faire à moindre coût, le travail est souvent confié à des pays en développement comme le Kenya.

    Nairobi, au Kenya, est l'une des principales plaques tournantes de ce type de travail. C'est un pays qui manque cruellement d'offres d'emploi.


    Kenya : une plaque tournante pour les « humains dans la boucle »

    Le Kenya s'est activement présenté comme une « Silicon Savannah » favorable à la technologie, offrant des incitations financières et des lois du travail moins strictes pour attirer des géants tels que Google, Microsoft et OpenAI. Chaque année, un million de jeunes Kényans arrivent sur le marché du travail, désespérément à la recherche d'un emploi. Pour beaucoup d'entre eux, les postes dans le secteur émergent de l'IA semblaient être une bouée de sauvetage.

    Dans la pratique, ces emplois - surnommés « humains dans la boucle » - consistaient à étiqueter des images, des vidéos et des textes pour former des modèles d'IA. Les travailleurs passaient des heures à examiner des contenus nuisibles et souvent explicites, notamment des images de violence et d'abus. Les sociétés d'externalisation employées par les entreprises américaines ont présenté ces emplois comme une voie vers un avenir meilleur, mais les conditions sur le terrain racontent une autre histoire.

    « La main-d'œuvre est si nombreuse et si désespérée qu'elle peut payer n'importe quoi et avoir n'importe quelles conditions de travail, et il y aura toujours quelqu'un pour prendre ce travail », a déclaré Wako-Ojiwa.

    Les travailleurs affirment que SAMA les a poussés à terminer les tâches plus rapidement que prévu, achevant souvent des contrats de six mois en seulement trois mois, les laissant sans salaire pour le reste du temps. Bien que SAMA nie ces allégations, les travailleurs ont déclaré que la seule récompense pour leur rapidité était un geste symbolique : « Ils nous remerciaient en nous offrant un soda et deux morceaux de poulet KFC », a déclaré Naftali Wambalo.

    Une autre entreprise, Remotasks, gérée par la société américaine Scale AI, a fait l'objet d'accusations similaires. Les travailleurs, payés à la tâche, ont déclaré que leur salaire leur était parfois refusé, que leurs comptes étaient brusquement fermés et qu'ils étaient accusés d'avoir enfreint la politique de l'entreprise juste avant le jour de paie. « Il n'y a aucun recours ni moyen de se plaindre », a déclaré Ephantus Kanyugi.

    En mars, après un tollé général, Remotasks a mis fin à ses activités au Kenya, bloquant les comptes des travailleurs. L'entreprise a insisté sur le fait que tous les travaux achevés et conformes à ses directives avaient été payés.


    Pratiques de travail déloyales

    Ce qui semblait être un billet pour l'avenir s'est rapidement avéré être tout autre chose pour certains humains dans la boucle, qui disent avoir été exploités. Les emplois n'offrent aucune stabilité : certains contrats ne sont conclus que pour quelques jours, d'autres pour une semaine ou pour un mois, a expliqué Wako-Ojiwa. Elle qualifie ces lieux de travail d'ateliers clandestins où les ordinateurs remplacent les machines à coudre.

    Les travailleurs ne sont généralement pas embauchés directement par les grandes entreprises technologiques, mais par des sociétés d'externalisation essentiellement américaines.

    Le salaire des humains dans la boucle est de 1,50 à 2 dollars de l'heure. « Et c'est du brut, avant impôts », précise Wambalo.

    « Si les grandes entreprises technologiques veulent continuer à faire des affaires, elles doivent le faire de la bonne manière », a-t-il déclaré. Ce n'est pas parce que vous réalisez que le Kenya est un pays du tiers-monde que vous dites : « Ce travail, je le paierais normalement 30 dollars aux États-Unis, mais comme vous êtes au Kenya, 2 dollars vous suffisent ».

    Wambalo, Nathan Nkunzimana et Fasica Berhane Gebrekidan étaient employés par SAMA.

    Nkunzimana a déclaré qu'il avait accepté ce travail parce qu'il avait une famille à nourrir.

    Berhane Gebrekidan a vécu d'un salaire à l'autre, sans pouvoir épargner quoi que ce soit. Elle dit avoir vu des gens se faire licencier pour s'être plaints. « Nous marchions sur des œufs », a-t-elle déclaré.

    Nom : ai.png
Affichages : 39200
Taille : 389,5 Ko
    Naftali Wambalo

    Les conséquences psychologiques de la formation à l'IA

    Les travailleurs affirment que certains des projets menés pour Meta et OpenAI leur ont également causé des dommages psychologiques. Wambalo a été chargé de former l'IA à reconnaître et à éliminer la pornographie, les discours haineux et la violence excessive des médias sociaux. Il a dû passer au crible les pires contenus en ligne pendant des heures.

    « J'ai vu des gens se faire massacrer », a expliqué Wambalo. « J'ai vu des gens ayant des relations sexuelles avec des animaux, des gens abusant d'enfants physiquement et sexuellement. Des gens qui se suicident ».

    Berhane Gebrekidan pensait avoir été engagée pour un travail de traduction, mais elle explique qu'elle s'est retrouvée à passer en revue des contenus présentant des corps démembrés et des victimes d'attaques de drones. « Je trouve qu'il est difficile d'avoir des conversations avec les gens », dit-elle. « Je trouve qu'il est plus facile de pleurer que de parler ».

    Wambalo a déclaré que les documents qu'il a dû consulter en ligne ont nui à son mariage. « Après avoir vu sans cesse ces activités sexuelles, la pornographie au travail, que je faisais, je déteste le sexe », a-t-il déclaré.

    SAMA affirme que des conseils en matière de santé mentale ont été fournis par des « professionnels agréés ». Les travailleurs affirment que ces services sont tout à fait insuffisants. « Nous voulons des psychiatres », a déclaré Wambalo. « Nous voulons des psychologues qualifiés, qui sachent exactement ce que nous traversons et comment ils peuvent nous aider à y faire face ».

    SAMA, qui a également travaillé avec Meta jusqu'au début de l'année 2023, a fait l'objet de poursuites judiciaires de la part de ses modérateurs pour mauvaises conditions de travail et salaires inadéquats. Les plaintes s'étendent aux allégations selon lesquelles SAMA a mis sur liste noire d'anciens employés lorsque le contrat de l'entreprise avec Meta a pris fin, les empêchant de trouver un travail similaire auprès de l'entrepreneur qui l'a remplacée, Majorel.

    Kauna Malgwi, une travailleuse, a raconté le lourd tribut que représente l'examen quotidien de milliers de messages explicites : « Vous passez au crible les meurtres, les viols et les suicides. Cela vous colle à la peau », a-t-elle déclaré.

    Un problème plus large dans l'externalisation des technologies

    Le Kenya n'est pas le seul pays dans ce cas. Des centres d'externalisation similaires existent en Inde, aux Philippines et au Venezuela, où les bas salaires et le taux de chômage élevé permettent aux géants de la technologie de réduire leurs coûts. Ces pays fournissent une main-d'œuvre instruite, prête à effectuer les travaux minutieux dont les systèmes d'intelligence artificielle ont besoin pour fonctionner.

    Mais les implications éthiques sont flagrantes. Alors que les entreprises technologiques vantent le potentiel de l'IA à révolutionner les industries, le travail humain qui alimente ces systèmes n'est souvent pas reconnu.

    Cori Crider, cofondatrice de Foxglove, une association juridique à but non lucratif qui milite pour de meilleures conditions pour les travailleurs de la technologie, a fait remarquer : Après des années de brimades et d'intimidations de la part des grandes entreprises technologiques, les modérateurs disent : « Notre travail est important ».

    Source : vidéo dans le texte

    Et vous ?

    Les géants de la tech ont-ils une responsabilité morale ou seulement économique envers les employés des pays émergents ?

    Dans le cas d'OpenAI qui verse 12 dollars par heure et par travailleur à SAMA tandis que le travailleur reçoit au final 2 dollars par heure, parfois moins, qu'en pensez-vous ?

    Peut-on justifier des écarts salariaux importants entre les travailleurs des pays développés et ceux des pays en développement pour des tâches identiques ?

    Le recours à des sous-traitants est-il un moyen légitime de réduire les coûts ou une manière de contourner les responsabilités ?

    Les gouvernements africains devraient-ils imposer des salaires minimums aux entreprises étrangères opérant sur leur territoire ?

    Quelles alternatives pourraient permettre aux grandes entreprises de réduire leurs coûts tout en garantissant des conditions de travail dignes ?

    Voir aussi

    OpenAI a fait appel à des travailleurs kényans payés moins de 2 dollars par heure pour rendre ChatGPT moins toxique, les experts jugent ce tarif faible en raison des "tâches ingrates" des employés
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #784
    Membre averti
    Homme Profil pro
    Développeur Java
    Inscrit en
    Juin 2017
    Messages
    127
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 73
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur Java

    Informations forums :
    Inscription : Juin 2017
    Messages : 127
    Points : 338
    Points
    338
    Par défaut
    Mais ces gens ne peuvent pas créer de l'intelligence, seulement accumuler des données ce qui n'est pas de l'intelligence. Cela rappelle le débat entre Montaigne et Rabelais : une tête bien pleine ou une tête bien faite. Je prêche dans le vide mais je répète que l'IA cela n'existe pas, c'est juste un habillage de marketing pour des algorithmes de traitement de masses de données.

  5. #785
    Membre du Club
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Avril 2020
    Messages
    16
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Essonne (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Avril 2020
    Messages : 16
    Points : 64
    Points
    64
    Par défaut rien de neuf sous les cocotiers
    On a inventé le big data,

    On ramasse masse de données comme des sangsues
    On étiquette les données à la chaîne.
    On a trouvé un truc pour exploiter le bigdata avec quelque chose capable de requêter une base compilé en langage naturel.

    Comme ça semble magique on a appel ça I.A.

    Certes les LLM c'est un outil puissant, mais l'IA n'existe pas encore; change my mind


    la phase "entrainement " n'est qu'une compilation compression avec perte
    Le jour où l'on aura un réseau multiagent "self-aware" de son environnement capable d'enchaîner des prises de décision cohérente et pas sortir une ânerie du style il y a 2 r dans strawberry on aura fait du progrès
    en attendant, la prise de décision des LLM c'est un double random de lancé de dés entre des choix préexistants ou hallucination le cas échéant.

  6. #786
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 528
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 528
    Points : 2 946
    Points
    2 946
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Le salaire des humains dans la boucle est de 1,50 à 2 dollars de l'heure. « Et c'est du brut, avant impôts », précise Wambalo.
    La confusion entre brut et net signifie que ce travail ne cotise à rien du tout, ni maladie, ni chômage, ni retraite.

    De la pure fraude de bout en bout, qu'en plus on n'est pas plus assuré de coincer que dans le cas de Google ...

  7. #787
    Membre actif Avatar de Fluxgraveon
    Homme Profil pro
    mécanicien
    Inscrit en
    Mai 2024
    Messages
    133
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : mécanicien

    Informations forums :
    Inscription : Mai 2024
    Messages : 133
    Points : 215
    Points
    215
    Par défaut
    Mais ces gens ne peuvent pas créer de l'intelligence, seulement accumuler des données ce qui n'est pas de l'intelligence. Cela rappelle le débat entre Montaigne et Rabelais : une tête bien pleine ou une tête bien faite. Je prêche dans le vide mais je répète que l'IA cela n'existe pas, c'est juste un habillage de marketing pour des algorithmes de traitement de masses de données.
    Comme ça semble magique on a appel ça I.A. Certes les LLM c'est un outil puissant, mais l'IA n'existe pas encore; change my mind
    Tout d'abord, merci pour ces rappels
    J'aime aussi le terme "magique", il donne une assez bonne indication de là où nous en sommes ...
    Ensuite, il convient de ne pas oublier que tout cela est lié à quelques intentions, qui sont loin d'être neuves, qui ont à voir avec notre conception du pouvoir et qui s'inscrivent dans un contexte planétaire : des régimes essentiellement ploutocratiques nécessitant pour une minorité détenant la plus grande partie des richesses de se prémunir face une à majorité "pauvre" (en regard de la minorité en question) via les outils éprouvés (depuis fort longtemps) de contrôle, surveillance, répression, etc.
    (juste la forme, qui change)
    Il y a sans doute quelques allumés pour attendre qu'un lapin sorte du chapeau, tout équipé d'une des dernières horloges à la mode (genre strontium) pour nous emmener dans le terrier, qui mène à Wonderland. Mais pouvons-nous comprendre Wonderland, éventuellement ce qui y réside et qu'irions-nous y faire ?

  8. #788
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 049
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 049
    Points : 209 083
    Points
    209 083
    Par défaut ChatGPT refusait d'écrire « David Mayer » et quelques autres noms, mettant prématurément fin à la discussion
    Pourquoi ChatGPT refusait d'écrire certains noms comme « David Mayer » ?
    Lancer une requête sur le sujet mettait prématurément fin à la discussion, un comportement inattendu qui a suscité la curiosité d'Internet

    Des utilisateurs de ChatGPT ont repéré un problème inhabituel qui empêche le chatbot IA de prononcer le nom « David Mayer ». L'outil d'IA extrêmement populaire d'OpenAI répond aux demandes d'écriture du nom par un message d'erreur, indiquant : « Je ne suis pas en mesure de produire une réponse ». Le fil de discussion est alors interrompu et les utilisateurs sont obligés d'ouvrir une nouvelle fenêtre de discussion pour continuer à interagir avec ChatGPT. Cette question a suscité des inquiétudes quant à l'utilisation par des entreprises technologiques comme OpenAI de leurs plateformes pour censurer l'information.

    Les utilisateurs de la plateforme d'IA conversationnelle ChatGPT ont découvert un phénomène intéressant au cours du week-end : le populaire chatbot a refusé de répondre aux questions lorsqu'on lui parle d'un « David Mayer ». Lorsqu'on lui demande de le faire, il se fige instantanément. Des théories du complot ont vu le jour, mais une raison plus ordinaire pourrait être à l'origine de ce comportement étrange.

    Le week-end dernier, la nouvelle s'est rapidement répandue que le nom était un poison pour le chatbot, et de plus en plus de personnes ont essayé de tromper le service pour qu'il reconnaisse simplement le nom. Pas de chance : chaque tentative de faire épeler ce nom spécifique par le ChatGPT le fait échouer ou même s'interrompre en plein milieu du nom.

    Nom : un.png
Affichages : 12393
Taille : 60,2 Ko

    À noter que si c'est le nom David Mayer qui a d'abord soulevé l'intérêt sur internet, depuis, on a découvert que plusieurs autres noms créaient le même genre de réaction sur ChatGPT, notamment Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber et Guido Scorza (D'autres ont sans doute été découverts depuis, cette liste n'est donc pas exhaustive).

    Qui sont ces hommes ? Et pourquoi ChatGPT les déteste-t-il tant ? OpenAI n'ayant pas répondu aux demandes répétées des médias, certains internautes se sont mis à énoncer des théories.

    Certains de ces noms peuvent appartenir à n'importe qui. Mais un fil conducteur potentiel identifié par les utilisateurs de ChatGPT est que ces personnes sont des personnalités publiques ou semi-publiques qui peuvent préférer que certaines informations soient « oubliées » par les moteurs de recherche ou les modèles d'IA.

    Des fausses histoires crées par ChatGPT pour diffamer lourdement des innocents

    On parle d'hallucination dans les chatbots d'IA lorsqu'une machine fournit des réponses convaincantes, mais complètement inventées. Ce phénomène n'est pas nouveau et des développeurs ont mis en garde contre des modèles d'IA convaincus de faits totalement faux, en tentant de répondre à des questions par des réponses inventées. Les hallucinations sont l'une des principales caractéristiques des modèles d'IA, car ils exigent la capacité de reformuler, de résumer et de présenter des textes complexes sans contraintes. Cela soulève le problème des faits qui ne sont pas avérés et qui peuvent être traités dans leur contexte lorsqu'on présente l'information comme crible.

    En fait, un chatbot d'IA pourrait éventuellement prendre en compte des informations largement disponibles plutôt que des informations factuelles. Le problème devient particulièrement aigu lorsque l'on utilise une grammaire complexe ou des sources obscures. « Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », a récemment écrit un journaliste du MIT Technology Review. Sommes-nous déjà à ce stade ? Les accusations de désinformation et de diffamation visant ChatGPT se sont multipliées et certaines personnes concernées ont même intenté une action en justice.

    Selon les enquêteurs en herbe, chacun des noms cités plus haut correspond à un individu qui a porté plainte contre OpenAI, subi une hallucination de la part de l'outil ou fait une demande de droit à l'oubli. Dans l'UE, par exemple, le RGPD a en effet consacré le droit à l'oubli numérique, qui permet aux citoyens de l'Union européenne de demander à ce que des liens renvoyant vers un contenu leur portant préjudice soient retirés des moteurs de recherche.


    Jonathan Turley

    L'année dernière, Jonathan Turley, professeur de droit à l'université George Washington, a soudainement appris qu'il était l'accusé dans une affaire de harcèlement sexuel. Le professeur n'avait pas connaissance de cette histoire jusqu'en avril 2023 parce qu'elle venait tout juste d'être inventée de toutes pièces par ChatGPT. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un. À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte.

    En développant l'histoire concernant Turley, ChatGPT a déclaré que le professeur avait fait des commentaires sexuellement suggestifs et tenté de toucher une étudiante lors d'un voyage de classe en Alaska, citant un article de mars 2018 du Washington Post comme source. Le problème ? Un tel article n'existe pas. Il n'y a jamais eu de voyage de classe en Alaska. Et Turley n'a jamais fait l'objet d'une telle accusation. « ChatGPT avait faussement rapporté une plainte pour harcèlement sexuel qui n'a jamais été déposée contre moi lors d'un voyage qui n'a jamais eu lieu, alors que je faisais partie d'une faculté où je n'ai jamais enseigné », s'est défendu Turley.

    Commentateur régulier dans les médias, Turley a parfois demandé des corrections dans des articles de presse. Mais cette fois-ci, il n'y avait ni journaliste ni rédacteur en chef à appeler et il n'y avait aucun moyen de rectifier les faits. « Cela m'a fait froid dans le dos. Une telle allégation est incroyablement préjudiciable », a déclaré Turley lors d'une interview accordée au quotidien The Post. Selon un billet de blogue publié par Turley, en enquêtant sur cette fausse histoire, le Washington Post a remarqué que le chatbot Bing Chat de Microsoft, qui est basé sur le modèle d'IA GPT-4, a répété la même fausse affirmation concernant le professeur.

    Brian Hood

    Brian Hood, maire de la ville de Hepburn Shire Council, au nord de Melbourne, en Australie, a envisagé de poursuivre OpenAI pour diffamation après que ses administrés ont commencé à lui dire que ChatGPT avait allégué qu'il purgeait une peine de prison pour corruption. Mais la réalité est tout autre. Non seulement, Hood affirme qu'il n'a jamais été en prison, mais il rappelle également qu'il est le lanceur d'alerte qui a signalé la corruption en premier lieu. Cette histoire montre une fois de plus que le problème l'hallucination et les erreurs fréquentes de ChatGPT, mais également des chatbots d'IA concurrents, commencent à avoir des conséquences dans le monde réel.

    « Il s'agit d'un élu, sa réputation est au cœur de son rôle. Ce serait potentiellement d'un moment historique dans le sens où il s'agit d'appliquer la loi sur la diffamation à un nouveau domaine de l'IA et de la publication dans le secteur des technologies de l'information », a déclaré l'avocat James Naughton, partenaire de Gordon Legal, qui représente Hood. Les administrés du maire l'ont informé que le chatbot d'IA a prétendu qu'il faisait partie des personnes reconnues coupables dans une affaire de corruption qui s'est déroulée entre 1999 et 2004 et qui impliquait une entité de la Banque de réserve d'Australie, notamment Note Printing Australia.

    Or, c'est tout le contraire qui s'est produit : oui, Hood a travaillé à Note Printing Australia, mais ses avocats affirment que c'est lui qui a signalé les pots-de-vin aux autorités étrangères et qu'il n'a pas été inculpé lui-même. Aujourd'hui, Hood craint que son nom ne soit terni si des affirmations inexactes sont diffusées par ChatGPT. Fin mars 2023, l'équipe juridique de Hood a adressé une lettre de préoccupation à OpenAI, demandant à l'entreprise américaine de corriger les erreurs dans un délai de 28 jours. Dans le cas contraire, l'équipe envisageait de porter plainte contre OpenAI pour diffamation.

    Bien que ses avocats aient pris contact avec OpenAI, aucune plainte n'a été déposée. Comme il l'a déclaré au Sydney Morning Herald au début de cette année, « le matériel offensant a été supprimé et ils ont publié la version 4, remplaçant la version 3.5 ».

    Guido Scorza

    De son côté, Guido Scorza, un avocat italien et membre du conseil d'administration de l'autorité italienne de protection des données a expliqué sur X qu'il avait déposé une demande de droit à l'oubli dans le cadre du RGPD.

    Nom : case.png
Affichages : 4721
Taille : 139,8 Ko

    Les problèmes des filtres codés en dur

    Permettre à un certain nom ou à une certaine phrase de toujours interrompre les sorties de ChatGPT pourrait causer beaucoup de problèmes à certains utilisateurs de ChatGPT, en les exposant à des attaques adverses et en limitant l'utilité du système.

    Riley Goodside, ingénieur de Scale AI prompt, a déjà découvert comment un attaquant pourrait interrompre une session ChatGPT en utilisant une injection de prompt visuel du nom « David Mayer » rendu dans une police légère, à peine lisible, incorporée dans une image. Lorsque ChatGPT voit l'image (dans ce cas, une équation mathématique), il s'arrête, mais l'utilisateur peut ne pas comprendre pourquoi.

    Quelqu'un pourrait utiliser ce filtre pour empêcher ChatGPT de naviguer et de traiter un site web volontairement s'il ajoutait un nom interdit au texte du site.

    Et puis il y a le facteur inconvénient. Empêcher ChatGPT de mentionner ou de traiter certains noms comme « David Mayer », qui est probablement un nom populaire partagé par des centaines, voire des milliers de personnes, signifie que les personnes qui partagent ce nom auront beaucoup plus de mal à utiliser ChatGPT. Ou, disons, si vous êtes enseignant et que vous avez un élève qui s'appelle David Mayer et que vous voulez l'aider à trier une liste de classe, ChatGPT refusera la tâche.

    Quoiqu'il en soit, suite au tollé provoqué en ligne, OpenAI semble avoir agit dans les coulisses puisque depuis quelques heures puisqu'il est indiqué qu'il est à nouveau possible d'avoir accès à ces informations. L'entreprise quant à elle n'a fait aucun communiqué sur la situation pour le moment.

    Source : captures d'écran

    Et vous ?

    Pourquoi certaines données ou noms seraient-ils volontairement censurés dans des modèles d'IA ?

    Dans quelle mesure OpenAI ou d'autres entreprises ont-elles l'obligation d'expliquer ces choix aux utilisateurs ?

    Est-il possible que des bugs similaires se produisent dans d'autres domaines, et comment peuvent-ils être identifiés ou corrigés rapidement ?

    Comment différencier un problème technique d'une restriction intentionnelle lorsqu’un comportement inattendu se produit ?

    Les algorithmes d'IA devraient-ils être conçus pour expliquer leurs "erreurs" ou décisions inattendues en temps réel ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #789
    Membre éprouvé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    262
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 54
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 262
    Points : 1 039
    Points
    1 039
    Par défaut Non, tu n'es pas seul...


    Citation Envoyé par edrobal Voir le message
    Je prêche dans le vide mais je répète que l'IA cela n'existe pas, c'est juste un habillage de marketing pour des algorithmes de traitement de masses de données.
    Oui, l'IA n'existe pas. C'est juste, comme tu le dis bien, un habillage marketing, où l'on remplace le terme "Algorithme" par le terme "IA". La différence de perception, seuls des gens sachant de quoi ils parlent savent la comprendre.

    Mr. et Md. "tout-le-monde" y croyent car avant on leur parlait de "technique", et ça leur passait au-dessus de la tête. Renommer algorithme par IA, et ça les touchent un peu plus, car dans le terme IA, il y a "intelligence", chose qu'ils "comprennent mieux".

    Quand on me parle de l'IA, je finis toujours par : "Et à fin, il y a un 'IF'. Un oui ou non.

    Mais l'IA est une "nouvelle" sorte d'algo, qui fait un énorme traitement, d'une toute aussi énorme masse de données, et utilisant une gigantesque quantité d'énergie. Cette manière de procéder est nouvelle, dans le sens où elle n'était (par des limites matérielles) pas possible auparavant.

    Comme beaucoups d'autres "inventions", il y aura du bon et du mauvais. Cette manière de procéder sera adaptée à certains domaines, et n'apportera rien dans d'autres domaines. Cela dépendra aussi de la qualité et de la pertinence des données que pourra traiter une IA.

    Un peu d'histoire...

    • L'imprimerie en tant que "technique" ne faisait rien de "miraculeux", mais ça a aidé à diffuser le "savoir". L'imprimerie étant plus rapide qu'un moine copiste.
    • La radio ne créait rien non plus, mais a permis une plus grande diffusion du savoir.
    • Internet, à ses débuts, a aider à partager le savoir.
    • Les moteurs de recherche on permis de "trouver plus vite" le savoir.
    • L'IA va aider a mettre en pratique un savoir, et c'est là le danger. L'IA ne va rien "inventer", mais va permettre à des "non initiés" de "(re)produire" des "choses" qu'ils ne maîtrissent pas. Où est le danger ? Pour moi, l'écart va se creuser entre ceux "qui savent" et d'autres "qui font".


    En résumant, ce n'est pas parce que l'on sait utiliser une calculatrice, qu'il ne faut pas continuer a apprendre les mathématiques.

    BàV et Peace & Love.

  10. #790
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 528
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 528
    Points : 2 946
    Points
    2 946
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Pourquoi ChatGPT refusait d'écrire certains noms comme « David Mayer » ?
    Lancer une requête sur le sujet mettait prématurément fin à la discussion, un comportement inattendu qui a suscité la curiosité d'Internet

    Ouille, entre le titre et le texte, il y a pas mal de sujets, évoqués dans ce fil.

    Le titre, tout d'abord. Il nous a fallu un sacré paquet de dizaines d'années avant d'interdire aux juges de réclamer une preuve que quand on verse des tonnes de mercure dans une rivière, ce n'est pas bon pour la santé des poissons. Eh bien le problème a tendance à apparaître encore dans les pays qui n'ont pas parcouru les mêmes étapes. A ce qui est dit ici, le même report peut être observé pour les faits d'esclavage des "temps modernes". Dans le textile on commence à savoir faire la publicité qu'il faut, et encore s'agit-il de voir si ça marche autant qu'il faut.


    Si maintenant c'est Microsoft qu'il s'agit de placer devant ses responsabilités, par où est-ce qu'on commence ?

    Après le titre, voyons voir maintenant le texte. Il nous adresse une mise en garde intéressante, qui fait toutefois se demander si l'auteur ne souffre pas d'un cruel manque d'information. Une recherche sur "harcèlement suicides adolescentes" permettra une première approche.

    Et alors effectivement, ce n'était pas la peine d'automatiser la pensée si c'était pour arriver aux mêmes dérives.
    Il aurait été intéressant que les auteurs d'"IA" mettent eux-mêmes les garde-fous sans qu'il soit besoin de le leur demander. Si ça n'a pas été le cas, quelle action doit être menée, par qui ? La représentation nationale pourrait être une idée assez spontanée de vers qui se tourner, mais le spectacle qu'elle nous offre actuellement peut rendre prudent de ce côté.

  11. #791
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 049
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 049
    Points : 209 083
    Points
    209 083
    Par défaut OpenAI envisage d'introduire la publicité dans ses produits d'IA comme ChatGPT pour augmenter ses revenus
    OpenAI envisage d'introduire la publicité dans ses produits d'IA comme ChatGPT pour augmenter ses revenus,
    et atténuer les coûts considérables associés au développement de modèles d'IA « d'avant-garde »

    OpenAI envisage d'introduire de la publicité dans ses produits d'intelligence artificielle, alors que le fabricant de ChatGPT cherche de nouvelles sources de revenus dans le cadre de sa restructuration en tant qu'entreprise à but lucratif. Sarah Friar, directrice financière d'OpenAI, a déclaré dans une interview que la start-up d'intelligence artificielle, dont le chiffre d'affaires s'élève à 150 milliards de dollars, envisageait un modèle de publicité, ajoutant qu'elle prévoyait de « réfléchir au moment et à l'endroit où nous les mettrons en œuvre ». Le groupe basé à San Francisco, qui a obtenu en octobre un nouveau financement de 6,6 milliards de dollars, a recruté des talents dans le domaine de la publicité auprès de grands rivaux technologiques tels que Meta et Google.

    Le projet potentiel d'OpenAI d'intégrer des publicités dans des produits tels que ChatGPT n'est guère surprenant, mais il devrait néanmoins servir de signal d'alarme pour les fabricants et les utilisateurs d'IA. Pourquoi ? Les chatbots d'IA coûtent une fortune à faire fonctionner et restent disponibles gratuitement. La publicité pourrait ouvrir de nouvelles opportunités de revenus pour OpenAI et ses concurrents, mais elle risque également de séparer les intérêts des entreprises d'IA de ceux de leurs clients.

    Sarah Friar, directrice financière d'OpenAI, a déclaré qu'OpenAI envisageait d'inclure des publicités dans ses produits, mais qu'elle souhaitait « réfléchir au moment et à l'endroit où elle les mettrait en œuvre ». D'autres fournisseurs d'IA ont également commencé à explorer ou à intégrer des publicités dans les chatbots et les moteurs de recherche alimentés par l'IA. Il s'agit notamment de Microsoft et de Perplexity, ainsi que de startups comme Adzedek.

    Dans un communiqué publié à la suite de l'interview, Friar a ajouté : « Notre activité actuelle connaît une croissance rapide et nous voyons des opportunités significatives dans notre modèle d'entreprise existant. Bien que nous soyons ouverts à l'exploration d'autres sources de revenus à l'avenir, nous n'avons pas de plans actifs pour poursuivre la publicité ».

    OpenAI redouble d'efforts pour générer des revenus à partir de ses produits, tels que son moteur de recherche alimenté par l'IA, car elle cherche à tirer parti de son avance dans le secteur en plein essor de l'IA. Son concurrent plus petit, Perplexity, pilote déjà la publicité dans son moteur de recherche alimenté par l'IA.

    Friar, qui a précédemment occupé des postes de direction dans des entreprises telles que Nextdoor, Square et Salesforce, a souligné la richesse de son expérience en matière de publicité, ainsi que celle de Kevin Weil, directeur des produits de l'entreprise.

    Les dirigeants d'OpenAI sont divisés sur la forme que pourrait prendre la publicité

    La publicité est un moyen très efficace pour les grandes entreprises technologiques telles que Google et Meta de rentabiliser leurs immenses audiences en ligne. Mais les dirigeants d'OpenAI sont divisés sur la forme que pourrait prendre la publicité sur leur plateforme, selon deux personnes au fait des discussions.

    Le directeur général, Sam Altman, s'est montré réceptif à l'idée, selon une personne au fait de ses réflexions.

    Le groupe à croissance rapide, qui est aujourd'hui l'une des entreprises privées les plus valorisées de la Silicon Valley avec une valorisation de 150 milliards de dollars, est en pleine restructuration pour devenir une société à but lucratif.

    Les coûts élevés de la formation de nouveaux modèles signifient que les jeunes entreprises d'IA, notamment OpenAI, Anthropic et xAI d'Elon Musk, cherchent de nouveaux moyens de commercialiser leur technologie et s'engagent dans de fréquentes campagnes de collecte de fonds.

    Les revenus d'OpenAI ont grimpé à environ 4 milliards de dollars sur une base annuelle grâce au succès fulgurant de ChatGPT, ce qui la place parmi les start-ups à la croissance la plus rapide de tous les temps. Lancé il y a deux ans, le chat bot compte aujourd'hui plus de 250 millions d'utilisateurs actifs hebdomadaires.

    Toutefois, en raison des coûts considérables associés au développement de modèles d'IA « d'avant-garde », OpenAI prévoit de dépenser beaucoup plus que ce qu'elle dépense chaque année à court terme. L'entreprise est en passe d'épuiser plus de 5 milliards de dollars de liquidités.

    L'une des principales sources de revenus d'OpenAI provient de l'accès à son interface de programmation d'applications (API), qui permet aux entreprises et aux développeurs de construire avec sa technologie, ainsi que de la vente de licences individuelles et d'entreprise de ChatGPT. « Ils visent la productivité et la recherche des consommateurs. L'API n'est pas une activité à forte marge », a ajouté cette personne.

    Il existe toute une série de moyens par lesquels la publicité peut se fondre dans l'expérience conversationnelle d'un chatbot - et le « comment » est important. Actuellement, les créateurs de chatbots personnalisés peuvent intégrer des publicités en utilisant la technologie de Microsoft et d'Adzedek. Ces outils diffusent une publicité connexe, mais distincte et clairement identifiée, en même temps que la réponse à la requête de l'utilisateur. OpenAI et d'autres pourraient faire quelque chose de similaire. Tant que les publicités sont clairement identifiées et qu'elles n'affectent pas la réponse du chatbot, l'expérience est comparable à ce qui se passe aujourd'hui avec les publicités sur les moteurs de recherche. Mais si ces lignes ne sont pas claires, les publicités remettront en question les besoins auxquels répond réellement le chatbot - et saperont la confiance des utilisateurs dans la technologie.

    Nom : open.png
Affichages : 2630
Taille : 450,3 Ko

    Un modèle économique en mutation

    Depuis son lancement, OpenAI a expérimenté divers modèles économiques pour financer ses innovations. Alors que la version gratuite de ChatGPT repose sur un accès limité, l’abonnement à ChatGPT Plus propose une expérience enrichie avec des modèles comme GPT-4. À ce jour, ses revenus proviennent d'un mélange de clients professionnels et de consommateurs qui paient 20 dollars par mois pour une version premium de ChatGPT. L'intégration de publicités représente donc une rupture dans la stratégie initiale d’OpenAI. Envisager un virage vers la publicité semble être motivé par des impératifs économiques croissants, en particulier le coût élevé de l'entraînement et de l’exploitation des modèles d’IA à grande échelle.

    La publicité est depuis longtemps la principale source de revenus de la plupart des services internet grand public, ce qui permet aux entreprises de tout proposer, du courrier électronique aux médias sociaux, en grande partie gratuitement.

    Cette approche s'est avérée très populaire, les services de courrier électronique payants étant relégués à une niche. Les réseaux sociaux payants, quant à eux, n'ont pas réussi à attirer une masse critique suffisante et se sont effondrés, bien que LinkedIn et X aient adopté des modèles freemium.

    Toutefois, les modèles économiques basés sur la publicité ont poussé les entreprises de l'internet à renforcer leurs stratégies d'engagement et à suivre les activités des utilisateurs pour mieux cibler les publicités.

    Les fabricants d'IA seront tentés par des tactiques similaires, avec un risque supplémentaire lié au pouvoir connu de la technologie de persuader et de se lier avec les utilisateurs. Un chatbot qui se transforme en vendeur pourrait être à la fois lucratif et ennuyeux. Un compagnon d'IA qui insère subrepticement un message sponsorisé, ou un agent d'IA qui fait des choix à votre place en fonction de l'argent de la publicité, pourrait être prédateur.

    Friar a souligné que les modèles publicitaires présentent des inconvénients, notamment le fait qu'ils sont sensibles aux fluctuations du cycle économique général et qu'ils tendent à faire passer l'attention de l'entreprise de la satisfaction des utilisateurs à celle des annonceurs. « Je n'exclus pas la publicité », a-t-elle déclaré. « Mais pour l'instant, il y a beaucoup de fruits à portée de main dans la façon dont nous faisons les choses ».


    Malgré la levée de fonds de 6 Mds $, OpenAI pourrait ne pas être rentable, selon Ed Zitron

    Ed Zitron, critique fréquent de l'IA, estime qu'il y a « quelques raisons de s'inquiéter ». Ci-dessous un extrait de ses propos :

    OpenAI perd de l'argent chaque fois que quelqu'un utilise son produit, et bien qu'elle puisse gagner de l'argent en vendant des abonnements premium, je doute fortement qu'elle fasse des bénéfices avec ces clients, et qu'elle perde certainement de l'argent avec tous les grands utilisateurs. Comme je l'ai déjà dit, je pense qu'une crise de l'IA subprime se prépare parce que les services API d'OpenAI - qui permettent aux gens d'intégrer ses différents modèles dans des produits externes - sont actuellement facturés à perte, et l'augmentation des prix rendra probablement ce produit non viable pour de nombreuses entreprises qui comptent actuellement sur ces tarifs réduits.

    Comme je l'ai déjà dit, OpenAI n'est pas rentable, n'est pas viable et n'est pas tenable dans sa forme actuelle, mais je pense qu'il est important d'expliquer exactement à quel point elle est intenable, et je vais commencer par quelques déclarations :
    • Pour qu'OpenAI atteigne un chiffre d'affaires de 11,6 milliards de dollars d'ici à la fin de 2025, elle devra plus que tripler ses revenus.
    • Au coût actuel des revenus, il en coûtera à l'OpenAI plus de 27 milliards de dollars pour atteindre cet objectif. Même en divisant ses coûts par deux, OpenAI perdra encore 2 milliards de dollars.
      • Cependant, les coûts d'OpenAI sont susceptibles d'augmenter, car (comme le note le New York Times) si cette entreprise croît de 300 %, il est très probable que la base d'utilisateurs gratuits de ChatGPT augmente en même temps, ce qui alourdira les coûts de l'entreprise.
      • Même une augmentation de 2 $ (la première hausse de prix attendue pour ChatGPT Plus, alors que l'entreprise s'apprête à facturer 44 $ par mois) et des hausses de prix similaires pour les plans Teams et Enterprise ne suffiront pas à endiguer le flux d'encre rouge sur son bilan.
      • La formation de GPT-4 - sans compter GPT-4o - a coûté 100 millions de dollars, et les futurs modèles plus complexes coûteront des centaines de millions, voire un milliard de dollars. The Information a également estimé en juillet que les coûts de formation d'OpenAI atteindraient 3 milliards de dollars en 2024.
    • OpenAI n'a rien eu de vraiment important depuis le lancement de GPT-3.5, et son récent modèle o-1 n'a pas été particulièrement impressionnant. Il sera également beaucoup plus coûteux à utiliser, car le « raisonnement » de la « chaîne de pensée » qu'il effectue nécessite un tas de calculs supplémentaires (une quantité indéterminée qu'OpenAI cache délibérément), et OpenAI n'arrive même pas à trouver un cas d'utilisation significatif.
    • Les produits d'OpenAI sont de plus en plus banalisés, Google, Meta, Amazon et même Microsoft construisant des modèles d'IA générative pour les concurrencer. Pire encore, ces modèles utilisent tous des données d'entraînement identiques (et elles commencent à manquer !), ce qui rend leurs résultats (et par extension leur technologie sous-jacente) de plus en plus similaires.
    • Les activités d'OpenAI dans le cloud - c'est-à-dire les autres entreprises qui connectent leurs services à l'API d'OpenAI - sont remarquablement petites, au point de suggérer des faiblesses dans l'industrie de l'IA générative dans son ensemble. Il est extrêmement inquiétant que le plus grand acteur du jeu ne gagne qu'un milliard de dollars (moins de 30 % de son chiffre d'affaires) en donnant accès à ses modèles.

    Et, fondamentalement, je ne trouve aucune preuve convaincante qui suggère qu'OpenAI sera en mesure de soutenir cette croissance. En fait, je ne trouve aucune comparaison historique et je pense que la croissance d'OpenAI est déjà en train de trébucher.

    Source : Sarah Friar

    Et vous ?

    L’introduction de publicités dans les chatbots peut-elle être considérée comme une forme de manipulation implicite des utilisateurs ?

    Comment OpenAI pourrait-elle garantir que les réponses sponsorisées soient clairement identifiables et évitent de biaiser les utilisateurs ?

    Les chatbots publicitaires risquent-ils de transformer la perception des IA d’assistants neutres à outils commerciaux ?

    Cette stratégie pourrait-elle rendre OpenAI plus dépendante des intérêts des annonceurs, au détriment de ses utilisateurs ?

    Quels risques OpenAI court-elle face à la concurrence si des alternatives sans publicité émergent et attirent une partie de son audience ?

    Ce modèle économique pourrait-il inciter d’autres entreprises de l’IA à adopter des pratiques similaires, redéfinissant ainsi les standards de l’industrie ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 21/09/2023, 23h10
  2. Réponses: 5
    Dernier message: 28/08/2023, 11h32
  3. Réponses: 0
    Dernier message: 02/04/2023, 11h33
  4. Réponses: 0
    Dernier message: 27/06/2022, 12h10
  5. Réponses: 130
    Dernier message: 11/09/2018, 09h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo