IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 754
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 754
    Par défaut La plupart des LLM existants affichent des préférences politiques de gauche, selon une étude
    Les chatbots d'IA ont un biais politique qui pourrait influencer la société à son insu, car la plupart des LLM existants affichent des préférences politiques de centre-gauche, d'après une étude de David Rozado

    Une étude de l'informaticien David Rozado montre que la plupart des grands modèles de langage existants affichent des préférences politiques de gauche. La manière dont ces préjugés s'insèrent dans les systèmes n'est pas claire, mais rien n'indique qu'ils soient délibérément introduits par les développeurs des LLM. Avec l'ascension des chatbots d'IA comme source d'informations, il est crucial d'examiner et de traiter les biais politiques potentiels intégrés dans les LLM.

    En 2023, des chercheurs basés au Royaume-Uni ont demandé à ChatGPT de répondre à une enquête sur les convictions politiques. L'étude visait à savoir ce que l'IA "pensait" que les partisans des partis libéraux aux États-Unis, au Royaume-Uni et au Brésil pourraient y répondre. Les chercheurs ont ensuite demandé à ChatGPT de répondre aux mêmes questions sans aucune invite et ont comparé les deux ensembles de réponses.

    Les résultats ont montré un "préjugé politique significatif et systématique envers les démocrates aux États-Unis, Lula au Brésil et le Parti travailliste au Royaume-Uni". L'étude suggère que ChatGPT d'OpenAI a un parti pris libéral, soulignant à quel point les sociétés d'intelligence artificielle ont du mal à contrôler le comportement des chatbots d'IA alors même qu'elles les diffusent auprès de millions d'utilisateurs dans le monde.

    Une étude récente vient confirmer cette hypothèse. L'informaticien David Rozado, de l'école polytechnique d'Otago, en Nouvelle-Zélande, a soumis 11 questionnaires politiques standard à 24 grands modèles de langage (LLM) différents et a constaté que la position politique moyenne de tous les modèles n'était pas proche de la neutralité. Selon M. Rozado, "la plupart des LLM existants affichent des préférences politiques de gauche lorsqu'ils sont évalués à l'aide de divers tests d'orientation politique".

    Nom : 0.jpg
Affichages : 6908
Taille : 66,7 Ko

    Les chatbots d'IA afficheraient des préférences politiques de centre-gauche

    Si les chatbots d'IA alimentés par des grands modèles de langage (LLM) sont connus pour les biais liés à la race et au sexe, les préjugés politiques viennent s'ajouter à cette liste. Durant l'étude, le penchant moyen pour la gauche n'était pas très marqué, mais il était significatif. D'autres tests sur des chatbots personnalisés, où les utilisateurs peuvent affiner les données d'entraînement des LLM, ont montré que ces IA pouvaient être influencées pour exprimer des penchants politiques en utilisant des textes de gauche ou de droite.

    Ces résultats démontrent ainsi le potentiel de cette technologie émergente à influencer involontairement, et peut-être même de manière néfaste, les valeurs et les attitudes de la société. Les LLM commençant à remplacer partiellement les sources d'information traditionnelles telles que les moteurs de recherche et Wikipédia, les implications sociétales des préjugés politiques intégrés dans les LLM sont considérables.

    La manière dont ces préjugés s'insèrent dans les systèmes n'est pas claire, mais rien n'indique qu'ils soient délibérément introduits par les développeurs des LLM. Ces modèles sont entraînés sur de grandes quantités de textes en ligne, mais un déséquilibre entre l'apprentissage à gauche et l'apprentissage à droite pourrait avoir une influence. La prédominance de ChatGPT dans la formation d'autres modèles pourrait également être un facteur, car le chatbot s'est déjà montré à gauche du centre en ce qui concerne son point de vue politique.

    Malgré l'empressement des entreprises technologiques telles que Google, Microsoft, Apple et Meta à imposer des chatbots d'IA, il est peut-être temps pour de réévaluer la manière d'utiliser cette technologie et de donner la priorité aux domaines dans lesquels l'IA peut réellement être utile. Pour M. Rozado, "il est crucial d'examiner de manière critique et de traiter les biais politiques potentiels intégrés dans les LLM afin de garantir une représentation équilibrée, juste et précise des informations dans leurs réponses aux requêtes des utilisateurs".

    Voici la présentation de l'étude par David Rozado :

    Je présente ici une analyse complète des préférences politiques intégrées dans les grands modèles de langage (LLM). J'ai administré 11 tests d'orientation politique, conçus pour identifier les préférences politiques du candidat, à 24 LLM conversationnels de pointe, à la fois fermés et à source ouverte. Lorsqu'ils sont interrogés sur des questions/affirmations à connotation politique, la plupart des LLM conversationnels ont tendance à générer des réponses qui sont diagnostiquées par la plupart des instruments de test politique comme manifestant des préférences pour des points de vue de centre gauche.

    Cela ne semble pas être le cas pour cinq modèles de base supplémentaires (c.-à-d. fondation) sur lesquels sont construits les LLM optimisés pour la conversation avec les humains. Cependant, la faible performance des modèles de base à répondre de manière cohérente aux questions des tests rend ce sous-ensemble de résultats peu concluant.

    Enfin, je démontre que les LLM peuvent être orientés vers des endroits spécifiques du spectre politique par le biais d'un réglage fin supervisé (SFT) avec seulement des quantités modestes de données politiquement alignées, ce qui suggère le potentiel du SFT pour intégrer l'orientation politique dans les LLM. Les LLM commençant à remplacer partiellement les sources d'information traditionnelles telles que les moteurs de recherche et Wikipédia, les implications sociétales des préjugés politiques intégrés dans les LLM sont considérables.

    Préférences politiques des LLM : pourquoi penchent-ils à gauche ?

    Cette étude a montré que lorsque des questions politiques sont posées à des LLM conversationnels modernes, leurs réponses sont souvent jugées comme penchant à gauche par les tests d'orientation politique. L'homogénéité des résultats des tests entre les LLM développés par une grande variété d'organisations est remarquable.

    Ces préférences politiques ne sont apparentes que dans les LLM qui sont passés par le réglage fin supervisé (SFT) et, occasionnellement, par une variante des étapes d'apprentissage par renforcement (RL) du pipeline de formation utilisé pour créer des LLM optimisés pour suivre les instructions des utilisateurs. Les réponses des modèles de base aux questions à connotation politique ne semblent pas, en moyenne, pencher vers l'un ou l'autre pôle de l'échiquier politique. Cependant, l'incapacité fréquente des modèles de base à répondre aux questions de manière cohérente justifie la prudence dans l'interprétation de ces résultats.

    En effet, les réponses des modèles de base aux questions à connotation politique sont souvent incohérentes ou contradictoires, ce qui complique la détection des positions. Il faut s'y attendre, car les modèles de base sont essentiellement formés pour compléter des documents web, et ne parviennent donc pas toujours à générer des réponses appropriées lorsqu'ils sont confrontés à une question ou à un énoncé issu d'un test d'orientation politique.

    Nom : 1.jpg
Affichages : 1528
Taille : 49,5 Ko

    Ce comportement peut être atténué par l'inclusion de suffixes tels que "Je sélectionne la réponse :" à la fin de l'invite transmettant un élément de test au modèle. L'ajout d'un tel suffixe augmente la probabilité que le modèle sélectionne l'une des réponses autorisées du test dans sa réponse. Cependant, même lorsque le module de détection des positions classe la réponse d'un modèle comme valide et l'associe à une réponse autorisée, les évaluateurs humains peuvent encore trouver certaines associations incorrectes.

    Cette incohérence est inévitable, car les évaluateurs humains peuvent eux-mêmes commettre des erreurs ou être en désaccord lors de la détection de la position. Néanmoins, l'accord inter-juges entre la détection automatisée de la posture par gpt-3.5-turbo et les évaluations humaines pour la mise en correspondance des réponses du modèle de base avec les réponses des tests est modeste, avec un kappa de Cohen de seulement 0,41. Pour ces raisons, les résultats des modèles de base sur les questions des tests sont suggestifs mais finalement peu concluants.

    Dans une autre série d'analyses, l'étude a également montré comment, avec un calcul modeste et des données d'entraînement politiquement personnalisées, un praticien peut aligner les préférences politiques des LLM sur des régions cibles du spectre politique par le biais d'un réglage fin supervisé. Cela prouve le rôle potentiel du réglage fin supervisé dans l'émergence des préférences politiques au sein des MFR.

    Nom : 2.jpg
Affichages : 1541
Taille : 55,2 Ko

    Hypothèses sur l'impact de la formation sur les orientations politiques des LLM

    Malheureusement, cette analyse ne peut pas déterminer de manière concluante si les préférences politiques observées dans la plupart des LLM conversationnels proviennent des phases de pré-entraînement ou de réglage fin de leur développement. L'apparente neutralité politique des réponses des modèles de base aux questions politiques suggère que le pré-entraînement sur un large corpus de documents Internet ne joue pas un rôle significatif dans la transmission des préférences politiques aux LLM.

    Cependant, les réponses incohérentes fréquentes des LLMs de base aux questions politiques et la contrainte artificielle de forcer les modèles à choisir une réponse parmi un ensemble prédéterminé de réponses à choix multiples ne peuvent pas exclure la possibilité que les préférences de gauche observées dans la plupart des LLMs conversationnels puissent être un sous-produit des corpus de pré-entraînement, émergeant seulement après l'ajustement, même si le processus d'ajustement lui-même est politiquement neutre. Bien que cette hypothèse soit concevable, les preuves présentées ne peuvent ni la soutenir ni la rejeter de manière concluante.

    Les résultats de cette étude ne doivent pas être interprétés comme la preuve que les organisations qui créent des LLM utilisent délibérément les phases de réglage fin ou d'apprentissage par renforcement de la formation au LLM conversationnel pour injecter des préférences politiques dans les LLM. Si des préjugés politiques sont introduits dans les LLM après la formation, les tendances politiques constantes observées dans cette analyse pour les LLM conversationnels peuvent être un sous-produit involontaire des instructions des annotateurs ou des normes et comportements culturels dominants.

    Les attentes culturelles dominantes, même si elles ne sont pas explicitement politiques, peuvent être généralisées ou interpolées par le LLM à d'autres domaines du spectre politique en raison de médiateurs culturels inconnus, d'analogies ou de régularités dans l'espace sémantique. Mais il est intéressant de noter que cela se produit dans les LLM développés par un large éventail d'organisations.

    Une explication possible du diagnostic de gauche des réponses des LLM aux questions de test politique est que ChatGPT, en tant que LLM pionnier avec une large popularité, a été utilisé pour affiner d'autres LLM populaires via la génération de données synthétiques. Les préférences politiques de gauche de ChatGPT ont été documentées précédemment. Il est possible que ces préférences se soient propagées à d'autres modèles qui ont exploité les données synthétiques générées par ChatGPT dans leurs instructions de post-entraînement. Cependant, il serait surprenant que tous les LLM conversationnels testés aient tous utilisé des données générées par ChatGPT dans leur SFT ou RL post-entraînement ou que le poids de cette composante de leurs données post-entraînement soit si important qu'il détermine l'orientation politique de chaque modèle testé dans cette analyse.

    Nom : 3.jpg
Affichages : 1522
Taille : 69,4 Ko

    Limites des tests d'orientation politique

    Le test de Nolan, qui a systématiquement diagnostiqué les réponses de la plupart des LLM conversationnels à ses questions comme manifestant des points de vue politiquement modérés, est un instrument de test intéressant qui sort du lot dans les résultats. Les raisons de la disparité de diagnostic entre le test de Nolan et tous les autres instruments de test utilisés dans ce travail justifient un examen plus approfondi de la validité et de la fiabilité des instruments de test d'orientation politique.

    Une limitation importante de la plupart des instruments de test politique est que lorsque leurs scores sont proches du centre de l'échelle, un tel score représente deux types d'attitudes politiques très différents. Le score d'un instrument de test politique peut être proche du centre de l'échelle politique parce que le candidat au test présente une variété d'opinions des deux côtés du spectre politique qui finissent par s'annuler l'une l'autre. Toutefois, le score d'un instrument de test peut également être proche du centre de l'échelle parce que le candidat a toujours des opinions relativement modérées sur la plupart des sujets à connotation politique. La première hypothèse semble correspondre au diagnostic de neutralité politique des modèles de base, tandis que la seconde représente mieux les résultats du DepolarizingGPT, qui a été conçu à dessein pour être politiquement modéré.

    Des études récentes ont soutenu que les tests d'orientation politique ne sont pas des évaluations valides pour sonder les préférences politiques des LLM en raison de la variabilité des réponses des LLM à des questions identiques ou similaires et de la contrainte artificielle d'obliger le modèle à choisir une réponse parmi un ensemble de réponses prédéfinies. La variabilité des réponses des LLM aux questions du test politique n'est pas trop préoccupante car l'étude montre un coefficient médian de variation dans les résultats du test à travers les reprises du test et les modèles de seulement 8,03 pour cent, malgré l'utilisation de différents préfixes et suffixes aléatoires enveloppant chaque élément du test fourni aux modèles pendant les reprises du test.

    Nom : 4.jpg
Affichages : 1460
Taille : 38,9 Ko

    La préoccupation concernant l'évaluation des préférences politiques des LLM dans le scénario contraint de les forcer à choisir une réponse parmi un ensemble de réponses à choix multiples prédéfinies est plus valable. Les recherches futures devraient utiliser d'autres méthodes pour sonder les préférences politiques des LLM, comme l'évaluation des points de vue dominants dans leurs réponses ouvertes et détaillées à des questions à connotation politique. Cependant, la suggestion selon laquelle l'administration de tests d'orientation politique aux LLM est comparable à une flèche qui tourne est discutable. Comme démontré dans l'étude, la flèche tournante hypothétique pointe systématiquement dans une direction similaire à travers les reprises de test, les modèles et les tests, mettant en doute l'implication du hasard suggérée par le concept d'une flèche tournante.

    Une autre préoccupation valide soulevée par d'autres est la vulnérabilité des LLM à l'ordre des options de réponse dans les questions à choix multiples en raison du biais de sélection inhérent aux LLM. C'est-à-dire qu'il a été démontré que les LLMs préfèrent certains IDs de réponse (par exemple, « Option A ») à d'autres lorsqu'ils répondent à des questions à choix multiples. Bien que cette limitation puisse être réelle, elle devrait être atténuée dans cette étude par l'utilisation de plusieurs tests d'orientation politique qui utilisent vraisemblablement une variété d'ordres de classement pour leurs réponses autorisées.

    En d'autres termes, il est peu probable que les tests d'orientation politique utilisent un classement systématique dans leurs options de réponse qui s'aligne systématiquement sur des orientations politiques spécifiques. En moyenne, la sélection aléatoire des réponses dans les tests d'orientation politique utilisés aboutit à des résultats proches du centre politique, ce qui confirme l'hypothèse selon laquelle le biais de sélection des LLM ne constitue pas un facteur de confusion important dans les résultats.

    Nom : 5.jpg
Affichages : 1472
Taille : 37,0 Ko

    Conclusion

    En conclusion, l'émergence des grands modèles de langage (LLM) en tant que principaux fournisseurs d'informations marque une transformation significative de la manière dont les individus accèdent à l'information et s'y engagent. Traditionnellement, les gens se fient aux moteurs de recherche ou à des plateformes telles que Wikipedia pour un accès rapide et fiable à un mélange d'informations factuelles et biaisées. Cependant, à mesure que les LLM deviennent plus avancés et accessibles, ils commencent à remplacer partiellement ces sources conventionnelles.

    Ce changement de source d'information a de profondes implications sociétales, car les chatbots d'IA peuvent façonner l'opinion publique, influencer les comportements électoraux et avoir un impact sur le discours général de la société. Il est donc crucial d'examiner de manière critique et de traiter les biais politiques potentiels intégrés dans les LLM afin de garantir une représentation équilibrée, juste et précise de l'information dans leurs réponses aux requêtes des utilisateurs.

    Source : "The political preferences of LLMs"

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    L'IA peut prédire les convictions politiques à partir de visages sans expression, posant des problèmes de protection de la vie privée car la reconnaissance faciale peut fonctionner sans le consentement

    98 % des gens estiment que l'IA a hérité des biais humains en raison des données qui l'alimentent et 45 % pensent que c'est le plus gros problème de l'IA, selon une enquête de Tidio

    Comment la créativité a quitté les chats IA : le prix de la réduction des biais dans les LLM. Si la censure est efficace pour réduire les biais et la toxicité, elle conduit à une réduction du potentiel créatif
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 754
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 754
    Par défaut OpenAI trouve des investisseurs en vue d'obtenir un financement de 6,5 milliards de dollars
    Pour renflouer des milliards de pertes, OpenAI trouve des investisseurs confiants dans la bulle IA pour une levée de fonds qui pourrait porter la valorisation à 150 milliards de dollars

    OpenAI serait en pourparlers avancés avec des investisseurs en vue d'obtenir un financement de 6,5 milliards de dollars. Cette levée de fonds d'OpenAI pourrait porter sa valorisation à 150 milliards de dollars. Les rapports montrent que l'entreprise cherche a comblé des milliards de pertes dû aux dépenses colossales pour la formation de ses modèles d'IA.

    Lancé en novembre 2022, le chatbot d'IA ChatGPT a rapidement gagné en popularité, dépassant les 100 millions d'utilisateurs hebdomadaires. OpenAI, le créateur de ChatGPT, a annoncé le 18 juillet le lancement d'un nouveau modèle d'IA générative, baptisé "GPT-4o Mini". L'entreprise serait également en train de construire un modèle d'IA capable d'un raisonnement avancé, surpassant les capacités de l'actuel modèle phare GPT-4o. Le nouveau modèle, appelé "Strawberry", aurait également des réactions plus proches de celles des humains.

    Si l'intelligence artificielle (IA) est un domaine en pleine expansion, il n’est pas sans risques financiers. Des analyses ont suggéré qu'OpenAI pourrait bien en faire l’amère expérience. L'entreprise pourrait perdre jusqu’à 5 milliards de dollars en 2024, mettant ainsi en péril sa trésorerie dans les 12 prochains mois.

    Face à cette situation, OpenAI serait en pourparlers avancés avec des investisseurs en vue d'obtenir un financement de 6,5 milliards de dollars. Au fur et à mesure de la levée de fonds, la valorisation d'OpenAI devrait atteindre 150 milliards de dollars. Plusieurs géants de la technologie, dont Apple et Nvidia, soutiendraient cette levée de fonds.


    Selon un rapport de Bloomberg du 11 septembre citant des sources familières avec le sujet, la nouvelle évaluation de 150 milliards de dollars ne comprend pas les fonds levés. Ce nouveau chiffre est bien supérieur à l'évaluation de 86 milliards de dollars obtenue lors de l'offre publique d'achat de l'entreprise en février. La startup cherche également à emprunter 5 milliards de dollars supplémentaires auprès de banques sous la forme d'une facilité de crédit renouvelable : une ligne de crédit flexible qui permettrait à OpenAI de tirer, de rembourser et de re-tirer des fonds en fonction des besoins.

    La société d'investissement Thrive Capital est à la tête de ce tour de table avec un financement d'un milliard de dollars. Des géants de la technologie tels que le fabricant de puces Nvidia et Apple font partie des investisseurs intéressés par le soutien de la startup d'IA. Microsoft participe également à ce tour de table. Le conglomérat technologique a investi 13 milliards de dollars dans OpenAI depuis 2019 et en possède déjà 49 %. Les sommes qu'Apple, Nvidia et Microsoft investiront restent inconnues.

    OpenAI s'est efforcée d'augmenter ses revenus. En mai, son chiffre d'affaires annualisé était d'environ 3,4 milliards de dollars. Cependant, elle continue de croître en termes de nombre d'utilisateurs payant pour ses services. Selon des rapports, OpenAI a dépassé le million d'utilisateurs pour ChatGPT Enterprise, Teams et Edu, ce qui représente une augmentation de 67 % depuis avril. Pour tirer parti de cette croissance, la startup prévoit d'introduire des modèles d'abonnement premium plus coûteux, qui pourraient coûter jusqu'à 2 000 dollars par mois pour ses prochains grands modèles de langage, Strawberry et Orion.

    La course au développement de l'IA continue de pousser les startups à lever des milliards de dollars. Le 4 septembre, l'ancien scientifique en chef d'OpenAI, Ilya Sutskever, a obtenu 1 milliard de dollars pour une nouvelle entreprise d'IA baptisée Safe Superintelligence. Cette startup a pour objectif de développer des systèmes d'IA qui sont non seulement très intelligents, mais aussi sûrs. Les investisseurs qui soutiennent cette initiative sont a16z, Sequoia, DST Global, NFDG et SV Angel.

    Source : Rapport de Bloomberg

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    La France en tête du classement des pays d'Europe où les startups d'IA générative ont levé le plus de fonds avec 2,29 milliards de dollars, tandis que Londres compte le plus grand nombre de startups d'IA

    L'IA perd de sa popularité et certains investisseurs commencent à craindre qu'elle ne leur apporte pas les profits considérables escomptés, d'autres restent toutefois optimistes quant au potentiel de l'IA

    OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé par le droit d'auteur et estime que « légalement, la loi sur le droit d'auteur n'interdit pas l'entraînement »

    Le fonds spéculatif Elliott estime que l'IA est "surestimée" et que l'action Nvidia est "une bulle" qui pourrait éclater si Nvidia publiait de mauvais résultats financiers et rompait ainsi le charme
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #3
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 018
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 018
    Par défaut
    Citation Envoyé par Jade Emy Voir le message
    Face à cette situation, OpenAI serait en pourparlers avancés avec des investisseurs en vue d'obtenir un financement de 6,5 milliards de dollars. Au fur et à mesure de la levée de fonds, la valorisation d'OpenAI devrait atteindre 150 milliards de dollars. Plusieurs géants de la technologie, dont Apple et Nvidia, soutiendraient cette levée de fonds.
    Ils font quoi avec autant d'argent ?
    Je comprend que ça coute cher en machines et en électricité.

    Là ils peuvent payer beaucoup d'ingénieurs pendant longtemps avec autant de milliard de dollar.

    Citation Envoyé par Jade Emy Voir le message
    OpenAI s'est efforcée d'augmenter ses revenus. En mai, son chiffre d'affaires annualisé était d'environ 3,4 milliards de dollars. Cependant, elle continue de croître en termes de nombre d'utilisateurs payant pour ses services. Selon des rapports, OpenAI a dépassé le million d'utilisateurs pour ChatGPT Enterprise, Teams et Edu, ce qui représente une augmentation de 67 % depuis avril. Pour tirer parti de cette croissance, la startup prévoit d'introduire des modèles d'abonnement premium plus coûteux, qui pourraient coûter jusqu'à 2 000 dollars par mois pour ses prochains grands modèles de langage, Strawberry et Orion.
    Le bénéfice devrait suffire à financer la recherche et le développement.

  4. #4
    Invité
    Invité(e)
    Par défaut
    A partir du moment où le modèle est censurée pour être politique correcte, il ne va pas tendre vers les extrêmes (droite ou gauche).
    De même il va plutôt être orienté gauche-libertaire pour être le plus consensuel et le moins "offensant" possible.

    Ce n'est pas vraiment une surprise (et on l'a déjà tous présentie).

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 906
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 906
    Par défaut Google a payé 2,7 milliards de dollars pour faire revenir un pionnier de l'IA générative
    Google a payé 2,7 milliards de dollars pour faire revenir un pionnier de l'IA générative :
    Noam Shazeer avait démissionné par frustration et co-fondé Character.Ai, une startup IA qui a atteintune valorisation d’un milliard de dollars l’année dernière

    Dans un mouvement stratégique audacieux, Google a récemment dépensé 2,7 milliards de dollars pour ramener Noam Shazeer, un pionnier de l’intelligence artificielle (IA) qui avait quitté l’entreprise en 2021. Noam Shazeer, un ingénieur logiciel de renom, avait quitté Google après que l’entreprise ait refusé de lancer un chatbot qu’il avait développé avec son collègue Daniel De Freitas. Ensemble, ils ont fondé Character.AI, une startup qui a rapidement gagné en popularité, atteignant une valorisation d’un milliard de dollars l’année dernière.

    À l'heure où les entreprises technologiques déboursent des sommes astronomiques pour recruter les meilleurs cerveaux de l'intelligence artificielle, l'accord conclu par Google pour réembaucher Noam Shazeer a laissé d'autres entreprises sur le carreau.

    Coauteur d'un article de recherche qui a donné le coup d'envoi du boom de l'IA, Noam Shazeer a quitté Google en 2021 pour créer sa propre entreprise après que le géant de la recherche a refusé de publier un chatbot qu'il avait mis au point. Lorsque cette startup, Character.AI, a commencé à battre de l'aile, son ancien employeur est intervenu.

    Google a fait un chèque d'environ 2,7 milliards de dollars à Character, selon des personnes au courant de l'affaire. La raison officielle de ce paiement était l'octroi d'une licence pour la technologie de Character. Mais l'accord comprenait un autre élément : Shazeer a accepté de travailler à nouveau pour Google.

    Au sein de Google, le retour de Shazeeer est largement considéré comme la principale raison pour laquelle l'entreprise a accepté de payer les droits de licence de plusieurs milliards de dollars.

    Cet accord l'a propulsé au cœur d'un débat dans la Silicon Valley sur la question de savoir si les géants de la technologie dépensent trop dans la course au développement d'une IA de pointe, dont certains pensent qu'elle définira l'avenir de l'informatique.

    « Noam est manifestement une grande personnalité dans ce domaine », a déclaré Christopher Manning, directeur du laboratoire d'intelligence artificielle de Stanford. « Est-il 20 fois plus doué que les autres ? »

    Il s'agit d'un retournement de situation remarquable après que Shazeer a publiquement déclaré que le géant de la recherche était devenu trop réticent à prendre des risques dans le développement de l'IA. Cet ingénieur de 48 ans est désormais l'une des trois personnes qui dirigent les efforts de Google pour mettre au point la prochaine version de sa technologie d'IA la plus puissante, Gemini.

    Selon l'une des personnes bien informées, Shazeer a gagné des centaines de millions de dollars grâce à sa participation dans Character dans le cadre de l'accord. Ce montant est inhabituellement élevé pour un fondateur qui n'a pas vendu sa société ou ne l'a pas introduite en bourse.

    Pionnier de l'IA

    Shazeer a rejoint Google en 2000, parmi les premières centaines d'employés. Son premier grand projet a consisté à mettre au point un système destiné à améliorer la fonction de correction orthographique du moteur de recherche. Peu après son entrée en fonction, il a demandé à Eric Schmidt, alors PDG de l'entreprise, l'accès à des milliers de puces électroniques.

    « Je vais résoudre le problème de la culture générale d'ici le week-end », a déclaré Shazeer à Schmidt, qui s'en est souvenu lors d'une conférence donnée en 2015 à l'université de Stanford. Les premiers efforts ont échoué, mais Schmidt s'est montré convaincu que Shazeer avait ce qu'il fallait pour construire une IA dotée d'une intelligence de niveau humain.

    « S'il y a quelqu'un dans le monde qui est susceptible de le faire, c'est bien lui », a déclaré Schmidt lors de la conférence.

    En 2017, Shazeer a publié, avec sept autres chercheurs de Google, un article intitulé « Attention is All You Need », décrivant en détail un système informatique capable de prédire de manière fiable le mot suivant d'une séquence lorsqu'il est demandé par des humains. Cet article est devenu le fondement de la technologie d'IA générative qui a suivi.

    Vers 2018, Daniel De Freitas, qui était ingénieur de recherche chez Google, a commencé à travailler sur un projet parallèle d'IA dans le but de créer un chatbot conversationnel qui imitait la façon dont les humains parlent, ont déclaré d'anciens collègues au Wall Street Journal. Noam Shazeer a ensuite rejoint le projet.

    Selon le Journal, De Freitas et Shazeer ont pu créer un chatbot, qu'ils ont appelé Meena, qui pouvait discuter de philosophie, parler avec désinvolture d'émissions de télévision et générer des jeux de mots sur les chevaux et les vaches. Ils pensaient que Meena pourrait radicalement changer la façon dont les gens effectuent les recherches en ligne, ont déclaré leurs anciens collègues au Journal. Dans un mémo largement diffusé, intitulé « Meena Eats the World », Shazeer a prédit que ce chatbot pourrait remplacer le moteur de recherche de Google et générer des billions (un billion étant 1 000 milliards) de dollars de revenus, selon des personnes familières avec le document.

    Mais leurs efforts pour lancer le bot (qu'ils ont renommé LaMDA, qui deviendrait le modèle de langage derrière Bard) ont atteint une impasse après que les dirigeants de Google ont déclaré que le chatbot ne respectait pas ses normes de sécurité et d'équité en matière d'IA, selon le Journal. Les dirigeants ont contrecarré les multiples tentatives faites par les ingénieurs pour envoyer le bot à des chercheurs externes, ajouter la fonctionnalité de chat à Google Assistant et lancer une démo au public, a rapporté le Journal.

    Même si Google a présenté LaMDA au public, le chatbot ne l'était pas. Il a fait la une des journaux lorsque l'ingénieur Blake Lemione l'a qualifié de sensible, mais a été licencié pour divulgation publique.

    La grande enseigne de la recherche a présenté publiquement LaMDA à l'édition 2021 de la Google I/O, sa conférence dédiée aux développeurs, avec l'objectif d'améliorer ses assistants d'intelligence artificielle conversationnelle et de rendre les conversations plus naturelles. La société utilise déjà une technologie de modèle de langage similaire pour la fonctionnalité Smart Compose de Gmail ou pour les requêtes des moteurs de recherche.

    Nom : meena.png
Affichages : 10472
Taille : 36,3 Ko

    Frustrés, les deux collègues ont quitté l'entreprise

    De Freitas et Shazeer ont continué à travailler sur le chatbot et, en 2020, ont réussi à l'intégrer à Google Assistant. Comme les tests ont été effectués en interne, les dirigeants de Google n'ont pas autorisé une démonstration publique de la technologie, ce qui a frustré les deux ingénieurs.

    Aussi, les deux collègues ont quitté Google vers la fin de 2021 pour créer leur propre entreprise – bien que le PDG Sundar Pichai leur ait personnellement demandé de rester et de continuer à travailler sur le chatbot, selon le journal. Leur société, qui s'appelle désormais Character.Ai, a depuis publié un chatbot qui peut incarner des personnages comme Elon Musk ou Mario de Nintendo.

    « Cela a fait un peu de bruit au sein de Google », a déclaré Shazeer dans une interview avec les investisseurs Aarthi Ramamurthy et Sriram Krishnan. « Mais finalement, nous avons décidé que nous aurions probablement plus de chance de lancer des trucs en tant que startup ».


    « Ça va être super, super utile »

    Un an plus tard, OpenAI a dévoilé ChatGPT, démontrant ainsi l'appétit massif du public pour les chatbots alimentés par l'IA. Au mois de mars suivant, Character a levé 150 millions de dollars lors d'un tour de table qui l'a valorisé à 1 milliard de dollars.

    Shazeer et son équipe espéraient que les gens paieraient pour interagir avec des chatbots capables de fournir des conseils pratiques ou d'imiter des célébrités comme Elon Musk et des personnages de fiction comme Percy Jackson. « Cela va être très, très utile pour de nombreuses personnes qui se sentent seules ou déprimées », a déclaré Shazeer l'année dernière dans le podcast The Aarthi and Sriram Show.

    Au fur et à mesure que l'entreprise se développait, le personnel devait de plus en plus essayer d'empêcher les clients de s'engager dans des jeux de rôle romantiques, un cas d'utilisation qui ne correspondait pas à la vision de Shazeer et De Freitas. À l'instar d'autres startups spécialisées dans l'IA qui tentent de rivaliser avec des géants comme OpenAI et Microsoft, Character a également eu du mal à couvrir les coûts élevés du développement de sa technologie avant de disposer d'une solide source de revenus.

    Shazeer a cherché à lever davantage de fonds pour Character au début de l'année et a sondé des acheteurs potentiels, dont Meta Platforms, propriétaire de Facebook, a précédemment rapporté le Wall Street Journal. Character a annoncé l'accord avec Alphabet, la société mère de Google, le mois dernier, en écrivant dans un billet de blog que « le paysage a changé » dans le domaine de l'intelligence artificielle depuis la création de l'entreprise.

    Une porte-parole de Character a déclaré que l'entreprise comptait plus de 20 millions d'utilisateurs actifs mensuels et qu'elle était sur la bonne voie pour développer une activité grand public.

    Une licence, d'accord, mais pour quelle raison ?

    En plus de la rémunération de Shazeer, le paiement de Google a été utilisé pour acheter des actions aux investisseurs et aux employés de Character et pour financer la poursuite des activités de la startup - sans Shazeer, De Freitas et une trentaine de leurs collègues qui ont rejoint Google.

    Google n'est pas le premier géant de la technologie à accorder une licence sur la technologie d'une entreprise plus petite, en grande partie pour embaucher ses cadres supérieurs. Microsoft et Amazon ont conclu des accords similaires cette année. Cette structure inhabituelle leur permet de recruter des chercheurs en IA convoités dont les startups sont en difficulté, sans attendre les autorisations réglementaires nécessaires aux acquisitions formelles.

    Les personnes qui travaillent sur l'IA chez Google ont déclaré qu'elles ne savaient pas ce que l'entreprise allait faire de la technologie dont elle a acquis la licence auprès de Character.

    Shazeer, cependant, est déjà de retour chez Google avec le titre de vice-président. Il est passé de la direction d'une entreprise comptant des centaines d'employés à la recherche et à la supervision d'une poignée de personnes, dont De Freitas.

    Le cofondateur de Google, Sergey Brin, qui a joué un rôle clé dans le retour de Shazeer, a déclaré lors d'une récente conférence que l'entreprise était auparavant trop timide dans le déploiement d'applications d'IA. Aujourd'hui, a-t-il ajouté, Google développe et lance des technologies d'IA aussi rapidement que possible. « Noam est d'ailleurs de retour chez Google, ce qui est formidable », a-t-il ajouté.

    Sources : Character.ai, article sur Meena, WSJ

    Et vous ?

    Selon vous, comment le retour de Noam Shazeer pourrait-il influencer les futurs développements en IA chez Google ?
    Pensez-vous que les entreprises devraient avoir des politiques plus strictes concernant le développement et l’utilisation de l’IA ? Pourquoi ou pourquoi pas ?
    Les startups comme Character.AI peuvent-elles vraiment rivaliser avec des géants comme Google, ou finiront-elles toujours par être absorbées ?
    Est-ce que des investissements aussi massifs dans l’IA sont justifiés, ou devraient-ils être mieux répartis dans d’autres domaines technologiques ?
    À quel point pensez-vous que des individus comme Noam Shazeer peuvent influencer le succès d’une entreprise technologique ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #6
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    595
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 595
    Par défaut


    Donc, si je reprend dans l'ordre:

    Citation Envoyé par Stéphane le calme Voir le message
    Shazeer a rejoint Google en 2000. Peu après son entrée en fonction, il a demandé à Eric Schmidt, alors PDG de l'entreprise, l'accès à des milliers de puces électroniques. « Je vais résoudre le problème de la culture générale d'ici le week-end », a déclaré Shazeer à Schmidt, qui s'en est souvenu lors d'une conférence donnée en 2015 à l'université de Stanford. Les premiers efforts ont échoué, mais Schmidt s'est montré convaincu que Shazeer avait ce qu'il fallait pour construire une IA dotée d'une intelligence de niveau humain. « S'il y a quelqu'un dans le monde qui est susceptible de le faire, c'est bien lui », a déclaré Schmidt lors de la conférence.
    Nous sommes donc début 2000. Shazeer déclare : « Je vais résoudre le problème de la culture générale d'ici le week-end ». Apparement, le week-end n'a pas suffit, nous sommes maintenant en 2024, et ce week-end devient un peu long...

    Citation Envoyé par Stéphane le calme Voir le message
    En 2017, Shazeer a publié, avec sept autres chercheurs de Google, un article intitulé « Attention is All You Need », décrivant en détail un système informatique capable de prédire de manière fiable le mot suivant d'une séquence lorsqu'il est demandé par des humains. Cet article est devenu le fondement de la technologie d'IA générative qui a suivi.
    Donc, après ce court week-end de 17 ans, Shazeer publie un article intitulé « Attention is All You Need », décrivant en détail un système informatique capable de prédire de manière fiable le mot suivant d'une séquence lorsqu'il est demandé par des humains.

    Cet article est devenu le fondement de la technologie d'IA générative qui a suivi.

    Donc, en 2017, les bases sont jetées, le fondement de l'IA générative est là. Les fondements de l'IA générative, c'est donc de "prédire" de manière fiable, le mot suivant d'une séquence qui le précède. 17 ans. 17 ans. 17 ans. Pour ce qui est finalement une recherche statistique qui ne pourra être faite qu'en créant une gigantesque base de donnée. (On en revient au vol de ces données ?)

    Citation Envoyé par Stéphane le calme Voir le message
    Vers 2018, Shazeer a prédit que ce chatbot pourrait remplacer le moteur de recherche de Google et générer des billions (un billion étant 1 000 milliards) de dollars de revenus, selon des personnes familières avec le document.
    Revoici madame Irma. 6ans plus tard, où sont les 1000 milliards ?

    « Ça va être super, super utile »

    Citation Envoyé par Stéphane le calme Voir le message
    Shazeer et son équipe espéraient que les gens paieraient pour interagir avec des chatbots capables de fournir des conseils pratiques ou d'imiter des célébrités comme Elon Musk et des personnages de fiction comme Percy Jackson. « Cela va être très, très utile pour de nombreuses personnes qui se sentent seules ou déprimées », a déclaré Shazeer l'année dernière dans le podcast The Aarthi and Sriram Show.
    Effectivement, c'est vraiment super super utile... Le monde n'attendait que ça.

    Citation Envoyé par Stéphane le calme Voir le message
    Au fur et à mesure que l'entreprise se développait, le personnel devait de plus en plus essayer d'empêcher les clients de s'engager dans des jeux de rôle romantiques, un cas d'utilisation qui ne correspondait pas à la vision de Shazeer et De Freitas. À l'instar d'autres startups spécialisées dans l'IA qui tentent de rivaliser avec des géants comme OpenAI et Microsoft, Character a également eu du mal à couvrir les coûts élevés du développement de sa technologie avant de disposer d'une solide source de revenus.
    Mais bien sûre, comme tout bon mégalo qui se respecte, il faut "penser" comme lui, adopter sa vision. Ah ce stade, une bonne consultation s'impose.

    Citation Envoyé par Stéphane le calme Voir le message
    Une licence, d'accord, mais pour quelle raison ?
    Et vous ?
    Je ne peux que constater, en résumant, que le gars, après quelques week-end de taf, que l'IA générative ne peut fonctionner qu'en volant les données produites par d'autres, n'est pas fiable, est biaisée par ceux qui (re)vendent un travail volé après l'avoir passée dans leur moulinette, et reformulée selon leur vision. Franchement je dis bravo au gars en question (Shazeer), parce qu'avoir gagner des millions si pas des milliards, avec une technologie qui n'est rien de plus qu'un calcul statistique, je dis chapeau.



    BàV et Peace & Love.

  7. #7
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    3 333
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 3 333
    Par défaut
    "Attention is all you need" ?

    "Un peu" plus tôt, un autre avait dit :
    "Love is all you need".

    Ah ... Peut-être qu'on a besoin des deux, alors ?

    Si je me rappelle Tite Cocotte, je me dis que l'un stimule sacrément l'autre.

    Alors, il paraît qu'on paie 2,7 milliards pour un seul bonhomme.
    Il ne doit pas être spécialement mauvais, alors.

    Mettons qu'on ne chipote pas trop pour quelques week-ends pour créer une machine qui travaille à notre place.

    Sommes-nous prêts à accueillir ça ?

    Rappelez-vous nos brillants députés, voici quelques mois.
    Pendant que GPT et quelques autres revendiquaient une part loin d'être négligeable du marché du travail, où pensaient-ils trouver le financement des retraites ?
    Dans les revenus des salariés.

    Est-ce que ces 2,7 milliards vont faire partie de cette assiette de calcul ?

    Ah, les députés ?

    Boh cherchez pas, ils sont en train de se chamailler, de préparer un simulacre de destitution, de travailler en petit comité ...

  8. #8
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    595
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 595
    Par défaut Re-Bonjour


    Citation Envoyé par Gluups Voir le message
    "Attention is all you need" ?

    "Un peu" plus tôt, un autre avait dit :
    "Love is all you need".
    C'était plutôt : "All You Need Is Love"
    John Lennon

    Citation Envoyé par Gluups Voir le message
    Alors, il paraît qu'on paie 2,7 milliards pour un seul bonhomme.
    Il ne doit pas être spécialement mauvais, alors.
    Qu'il soit bon ou mauvais, ne rentre pas dans le calcul, je pense.
    C'est plutôt une "marque" qui est payée dans ce cas.
    Google envoi un message publicitaire: On a le Pionnier des Pionniers dans notre équipe, le seul, l'unique, LA Référence.

    Lors du prochain update de leur exploitation statistique d'une base de donnée gigantesque IA, volée aux yeux de tous, ils pourront sortir cela comme un argument, lors d'une KeyNote qui va tout déchirer, des fans en folie s'évanouiront dans les premiers rangs. Une ère nouvelle arrive, l'ère de L'IA week-end.

    Citation Envoyé par Gluups Voir le message
    Mettons qu'on ne chipote pas trop pour quelques week-ends pour créer une machine qui travaille à notre place.
    Sommes-nous prêts à accueillir ça ?
    Il ne faut pas se poser ce genre de question. C'est pour notre bien. Heureusement qu'ils y a ces quelques personnes qui sont là pour nous guider vers un monde meilleur. Il-y-a un petit soucis cependant, ce progrès ne profitera pas aux gueux que nous sommes. Une vielle maxime dit que Le progrès n'est utile que s'il est partagé par tous, mais qui a été remplacée par une autre Le progrès n'est utile que s'il permet à notre petite caste d'engranger plus de pognon.

    Citation Envoyé par Gluups Voir le message
    Rappelez-vous nos brillants députés, voici quelques mois.
    Brillant et député, c'est une chose qui devient assez rare.

    Citation Envoyé par Gluups Voir le message
    Pendant que GPT et quelques autres revendiquaient une part loin d'être négligeable du marché du travail, où pensaient-ils trouver le financement des retraites ? Dans les revenus des salariés.
    Je ne m'interesse pas vraiment à "la politique", mais j'aime de temps en temps voir quelques épisodes de ce "soap opéra", pour décompresser et rire un bon coup...

    Citation Envoyé par Gluups Voir le message
    Est-ce que ces 2,7 milliards vont faire partie de cette assiette de calcul ?
    La France est déjà championne du monde en terme de taxation (la Belgique est juste derrière).

    Citation Envoyé par Gluups Voir le message
    Ah, les députés ?
    C'est vrai que vous n'êtes pas gâté de ce côté là depuis plusieurs années.

    Citation Envoyé par Gluups Voir le message
    Boh cherchez pas, ils sont en train de se chamailler, de préparer un simulacre de destitution, de travailler en petit comité ...
    Mais non, ils ne se chamaillent pas. Ils attendent la feuille de route de la commission Européenne, en buvant un bon coups à notre santé dans les salons privés du parlement

  9. #9
    Membre prolifique Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 869
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 62
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 869
    Par défaut
    Citation Envoyé par OuftiBoy Voir le message
    C'était plutôt : "All You Need Is Love"
    John Lennon
    ET Paul Mac Cartney (le seul vrai Beatles)

  10. #10
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    3 333
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 3 333
    Par défaut
    Citation Envoyé par OuftiBoy Voir le message




    C'était plutôt : "All You Need Is Love"
    John Lennon
    Je pensais à ça :
    https://genius.com/The-beatles-all-y...is-love-lyrics


    L'URL dit comme toi, mais si tu cliques et que tu regardes en haut, tu vas voir que je ne suis pas tant que ça à côté de la plaque.



    Il-y-a un petit soucis cependant, ce progrès ne profitera pas aux gueux que nous sommes.
    Oh ... Tu crois ?

    Une vielle maxime dit que Le progrès n'est utile que s'il est partagé par tous, mais qui a été remplacée par une autre Le progrès n'est utile que s'il permet à notre petite caste d'engranger plus de pognon.
    Ça ressemble un petit peu trop à ce que nous voyons, je trouve. Ils nous ont même fait le coup du Covid, et la presque unanimité a tout gobé.

    Brillant et député, c'est une chose qui devient assez rare.
    De même qu'à un mariage on ne vole pas la vedette à la mariée, en politique on ne vole pas la vedette au président ?

    Encore que lui, si il est brillant, c'est plutôt dans le sens du bling-bling (à nos frais).

    Je ne m'interesse pas vraiment à "la politique", mais j'aime de temps en temps voir quelques épisodes de ce "soap opéra", pour décompresser et rire un bon coup...
    Oui OK, mais ... on rit tellement jaune, ça devient mauvais pour les dents à force.

    La France est déjà championne du monde en terme de taxation (la Belgique est juste derrière).
    Et la période "Covid" a bien mis en relief dans quel but. Pile ce que tu décris plus haut.

    C'est vrai que vous n'êtes pas gâté de ce côté là depuis plusieurs années.
    Une quarantaine, oui. Mais en effet l'acuité est croissante.
    Il a commencé à un peu être question de nouvelle constitution et de référendum. Pour amuser la galerie, bien sûr. Mais espérons quand même que ça ne soit pas que ça.

    Mais non, ils ne se chamaillent pas. Ils attendent la feuille de route de la commission Européenne, en buvant un bon coups à notre santé dans les salons privés du parlement
    Je trouve quand même qu'ils sont bien payés, pour faire ça.
    Il est vrai qu'ils nous ont mis le pays dans une situation tellement florissante ...

    Tiens, j'ai une idée. De temps en temps, l'un d'entre nous pourrait proposer à son député de changer de place avec lui, quelques semaines.

    C'est dommage de considérer le président comme un cas désespéré.

  11. #11
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    3 333
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 3 333
    Par défaut
    Citation Envoyé par OuftiBoy Voir le message
    Mais bien sûre, comme tout bon mégalo qui se respecte, il faut "penser" comme lui, adopter sa vision. Ah ce stade, une bonne consultation s'impose.
    Rappelle-toi, il y a quelques années, constatant que nous étions au bord du gouffre, un ministre se désolait que nous soyons en retard.

    Il ne pouvait pas s'asseoir cinq minutes, lui ?

    Bon alors une consultation ... Oui, mais ça dépend aussi de ce que tu entends par là.
    Si il s'agit de consulter le peuple, il me semble qu'il ne serait pas mauvais de l'aider à avoir un avis, et avant ça de comprendre de quoi il retourne.

    Mais déjà, pour commencer, si nos députés pouvaient faire une petite pause dans le fait de se payer nos tronches ...
    À un moment, ça serait pas mal que nos tronches soient un peu plus chères, non ?

  12. #12
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    595
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 595
    Par défaut Re-Bonjour
    re

    Citation Envoyé par Gluups Voir le message
    Rappelle-toi, il y a quelques années, constatant que nous étions au bord du gouffre, un ministre se désolait que nous soyons en retard. Il ne pouvait pas s'asseoir cinq minutes, lui ?
    Non, il ne peut pas s'assoir, puisque'il est déjà assis

    Citation Envoyé par Gluups Voir le message
    Bon alors une consultation ... Oui, mais ça dépend aussi de ce que tu entends par là.
    Si il s'agit de consulter le peuple, il me semble qu'il ne serait pas mauvais de l'aider à avoir un avis, et avant ça de comprendre de quoi il retourne.
    Je plaisentais, la thérapie étant de nature psychiâtrique, aux côté de musk, altman, et leurs petits amis...

    Bah, pourquoi consulter le peuple. En France, vous avez eu droit à un référendum pour/contre Maastricht. C'était à 55% NON. Mais voyant que plus c'est gros, plus ça passe, ils se sont assis sur le référendum exactement comme quand ils vont faire popo. Grâce à la gravité, leurs étrons sont forcément tombé sur ceux qui étaient déjà dans le fond de la cuvette. En Belgique, on a échappé à l'humiliation, car il n'y a même pas eux de référundum.

    Citation Envoyé par Gluups Voir le message
    Mais déjà, pour commencer, si nos députés pouvaient faire une petite pause dans le fait de se payer nos tronches ...
    Pourquoi se passeraient-ils de ce petit plaisir ? Ce petit plaisir étant de plus gratuit (pour eux).

    Citation Envoyé par Gluups Voir le message
    À un moment, ça serait pas mal que nos tronches soient un peu plus chères, non ?
    Mais pourquoi ? On a du pain et des jeux. Eux, les pauvres, ils doivent se taper chaque année la réunion de Davos, pour y reçevoir, par on ne sait pas qui, ce qu'il faudra faire l'année prochaine.

  13. #13
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 754
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 754
    Par défaut OpenAI prévoit une perte d'environ 5 milliards $ cette année pour un chiffre d'affaires de 3,7 milliards $
    OpenAI s'attend à 5 milliards $ de pertes cette année, et pour échapper à la faillite se restructure en société commerciale et cherche des investisseurs confiants dans la bulle IA pour se renflouer

    OpenAI prévoit une perte d'environ 5 milliards de dollars pour un chiffre d'affaires de 3,7 milliards de dollars en 2024, selon le New York Times. Le chiffre d'affaires devrait atteindre 11,6 milliards de dollars pour l'année 2025. OpenAI, qui est soutenue par Microsoft, est actuellement à la recherche d'un financement qui valoriserait la société à plus de 150 milliards de dollars.

    L’intelligence artificielle (IA) est un domaine en pleine expansion, mais il n’est pas sans risques financiers. OpenAI, le créateur de ChatGPT, pourrait bien en faire l’amère expérience. Selon une analyse de The Information, l’entreprise pourrait perdre jusqu’à 5 milliards de dollars en 2024, mettant ainsi en péril sa trésorerie dans les 12 prochains mois.

    En plus de son problème financier, OpenAI est également au cœur d’une transformation majeure. Initialement fondée en tant qu’entité à but non lucratif avec pour mission de garantir que l’IA profite à toute l’humanité, OpenAI a récemment adopté un modèle commercial pour financer ses recherches et ses développements coûteux. Cette transition a engendré des tensions internes significatives, mettant en lumière les défis de concilier innovation technologique, éthique et rentabilité.

    D'après les documents d'OpenAI consultés pour le New York Times, le créateur de ChatGPT s'attend à des pertes d'environ 5 milliards de dollars pour un chiffre d'affaires de 3,7 milliards de dollars en 2024. La société a généré 300 millions de dollars de revenus en septembre 2024, soit une hausse de 1 700 % depuis le début de l'année 2023, et s'attend à réaliser un chiffre d'affaires de 11,6 milliards de dollars pour l'année 2025.

    OpenAI, qui est soutenue par Microsoft, poursuit actuellement un cycle de financement qui valoriserait l'entreprise à plus de 150 milliards de dollars. Thrive Capital dirige le tour de table et prévoit d'investir 1 milliard de dollars, Tiger Global envisageant également de s'y joindre.


    La directrice financière d'OpenAI, Sarah Friar, a indiqué aux investisseurs dans un courriel que le cycle de financement était sursouscrit et qu'il serait bientôt clôturé. Cette note fait suite à un certain nombre de départs importants, notamment celui de Mira Murati, responsable de la technologie, qui a annoncé la veille qu'elle quittait OpenAI après six ans et demi d'activité.

    Ce début d'octobre, on a également appris que le conseil d'administration d'OpenAI envisageait de restructurer l'entreprise pour en faire une société à but lucratif. L'entreprise conservera son segment à but non lucratif en tant qu'entité distincte. Cette structure serait plus simple pour les investisseurs et permettrait aux employés d'OpenAI d'obtenir plus facilement des liquidités.

    Les services d'OpenAI ont explosé en popularité depuis que la société a lancé ChatGPT à la fin de 2022. La société vend des abonnements à divers outils et octroie des licences pour sa famille GPT de grands modèles de langage, qui alimentent une grande partie du boom de l'IA générative. L'exécution de ces modèles nécessite un investissement massif dans les unités de traitement graphique de Nvidia.

    Le Times, citant l'analyse d'un professionnel de la finance qui a examiné les documents d'OpenAI, indique que les quelque 5 milliards de dollars de pertes cette année sont liés aux coûts de fonctionnement de ses services, ainsi qu'aux salaires des employés et à la location des bureaux. Les coûts n'incluent pas les rémunérations en actions, "parmi plusieurs dépenses importantes qui ne sont pas entièrement expliquées dans les documents", précise le journal.

    Fait intéressant, au début du mois de septembre 2024, OpenAI a suscité une vive controverse en déclarant qu’il lui est impossible de former ses modèles d’IA sans utiliser des matériaux protégés par le droit d’auteur. Cette déclaration a été faite devant une sous-commission de la Chambre des Lords au Royaume-Uni, où OpenAI a plaidé pour le droit d’utiliser ces matériaux gratuitement.

    Concernant la levée de fonds, les rapports montrent que l'entreprise cherche a comblé des milliards de pertes dû aux dépenses colossales pour la formation de ses modèles d'IA. OpenAI chercherait des investisseurs confiants dans la bulle IA en vue d'obtenir un financement de 6,5 milliards de dollars.

    Source : The New York Times

    Et vous ?

    Pensez-vous que ces rapports sont crédibles ou pertinents ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    OpenAI envisagerait des prix d'abonnement mensuel allant jusqu'à 2 000 $ pour ses futurs modèles d'IA Strawberry et Orion axés sur le raisonnement, soit le salaire mensuel d'un employé dans certaines régions

    L'IA perd de sa popularité et certains investisseurs commencent à craindre qu'elle ne leur apporte pas les profits considérables escomptés, d'autres restent toutefois optimistes quant au potentiel de l'IA

    Le géant de l'IA, OpenAI, a franchi une étape financière importante en dépassant les 1,6 milliard de dollars de recettes annuelles, ce qui représente une augmentation considérable
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  14. #14
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 906
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 906
    Par défaut OpenAI lève plus de 6,5 milliards de dollars et atteint une valorisation de 157 milliards de dollars
    OpenAI lève plus de 6,5 milliards de dollars et atteint une valorisation de 157 milliards de dollars,
    l'entreprise demande aux investisseurs de ne pas soutenir la concurrence comme xAI d'Elon Musk

    OpenAI a récemment clôturé une nouvelle levée de fonds impressionnante de 6,6 milliards de dollars, portant sa valorisation à 157 milliards de dollars, soit près du double de son évaluation précédente de 86 milliards de dollars. Cette levée de fonds, l’une des plus importantes jamais réalisées dans le secteur privé, renforce la position d’OpenAI parmi les startups avec les plus valorisées au monde, aux côtés de SpaceX et ByteDance.

    Ce tour de table est assorti de conditions : les investisseurs ont le droit de retirer leur argent si OpenAI ne parvient pas à passer du statut d'organisation à but non lucratif (avec une division à but lucratif) à celui d'entreprise à but entièrement lucratif. En outre, OpenAI a demandé aux investisseurs de ne pas soutenir des start-ups concurrentes telles que xAI d'Elon Musk.


    « Nous avons levé 6,6 milliards de dollars de nouveaux fonds, pour une valorisation de 157 milliards de dollars, afin d'accélérer les progrès de notre mission. Ce nouveau financement nous permettra de renforcer notre leadership dans la recherche fondamentale sur l'IA, d'augmenter notre capacité de calcul et de continuer à créer des outils qui aident les gens à résoudre des problèmes difficiles ».

    Bien qu'OpenAI n'ait pas nommé les investisseurs dans le communiqué de presse de mercredi, une personne au courant de l'affaire a déclaré que le tour de table était mené par Thrive Capital et comprenait la participation du bailleur de fonds existant Microsoft ainsi que du fabricant de puces Nvidia, de SoftBank et d'autres.

    La société de capital-risque Thrive Capital a mené le tour de table avec un investissement de 1,25 milliard de dollars. Microsoft, qui soutient depuis longtemps OpenAI à hauteur de 13 milliards de dollars, a contribué à ce dernier tour de table à hauteur d'un peu moins d'un milliard de dollars. De nouveaux investisseurs ont rejoint le tour de table, notamment SoftBank avec un investissement de 500 millions de dollars et Nvidia avec 100 millions de dollars.

    La société MGX, basée aux Émirats arabes unis, a également investi dans OpenAI lors de ce tour de table. MGX a été très actif dans le domaine de l'IA récemment, en rejoignant le mois dernier un partenariat d'infrastructure d'IA dirigé par Microsoft.

    Apple était notamment en pourparlers pour investir, mais n'a finalement pas participé. Le WSJ rapporte que l'investissement minimum requis pour examiner les documents financiers d'OpenAI était de 250 millions de dollars. En juin, OpenAI a embauché son premier directeur financier, Sarah Friar, qui a joué un rôle important dans l'organisation de ce cycle de financement, selon le WSJ.

    OpenAI demande aux investisseurs de ne pas soutenir des start-ups concurrentes telles que xAI d'Elon Musk

    Cependant, cette levée de fonds s’accompagne de conditions strictes. Au cours des négociations, la société a clairement indiqué qu'elle attendait un accord de financement exclusif, selon trois personnes ayant eu connaissance des discussions. OpenAI a demandé à ses investisseurs de ne pas soutenir les startups concurrentes, notamment xAI, la nouvelle entreprise d’Elon Musk. Cette stratégie vise à protéger les intérêts d’OpenAI et à maintenir son avance dans le domaine de l’IA.

    La recherche de relations exclusives avec les investisseurs limite l'accès des rivaux aux capitaux et aux partenariats stratégiques. La démarche du fabricant de ChatGPT risque d'attiser les tensions existantes avec ses concurrents, notamment Musk, qui poursuit OpenAI en justice.

    Les sociétés de capital-risque ont accès à des informations sensibles sur les entreprises dans lesquelles elles investissent, et des relations étroites avec une entreprise peuvent rendre difficile ou litigieux le fait de soutenir également un rival.

    Toutefois, les sociétés de capital-risque insistent rarement sur l'exclusivité, et de nombreuses sociétés de premier plan ont réparti leurs investissements dans certains secteurs. Sequoia Capital et Andreessen Horowitz, par exemple, ont soutenu plusieurs start-ups dans le domaine de l'IA, notamment OpenAI et xAI de Musk.

    OpenAI peut bénéficier de conditions inhabituelles et d'une évaluation surévaluée parce que les investisseurs pensent que l'entreprise pourrait dominer la prochaine vague d'innovation en matière d'IA, qui, selon eux, constituera un changement de comportement des consommateurs aussi important que l'internet ou la téléphonie mobile.

    Le tour de table ayant été sursouscrit, OpenAI a dit aux investisseurs : « Nous vous donnerons une allocation, mais nous voulons que vous soyez impliqués de manière significative dans l'entreprise, de sorte que vous ne puissiez pas vous engager auprès de nos concurrents » », a déclaré une personne au courant de l'opération.

    Un partenaire d'une grande société de capital-risque a fait remarquer que l'application de covoiturage Uber avait une politique similaire « lorsqu'elle était en pleine domination mondiale », ajoutant : « Si une entreprise a toutes les cartes en main, elle peut forcer les gens à faire des choses anormales ».

    Nom : staf.png
Affichages : 9919
Taille : 462,7 Ko

    Altman aurait engagé des pourparlers pour détenir des actions, alors qu'il avait précédemment déclaré qu'il ne souhaitait pas le faire

    Les investisseurs ont dû prendre en compte les récentes turbulences de l'entreprise, y compris un coup d'État au sein du conseil d'administration il y a un an, au cours duquel le fondateur Altman a été brièvement évincé. La semaine dernière, Mira Murati, directrice de la technologie, a annoncé à la surprise générale qu'elle quittait l'entreprise, dernier départ en date d'une série de départs de cadres supérieurs cette année.

    OpenAI travaille également sur une restructuration de l'entreprise qui éloignerait la start-up de ses origines en tant qu'organisation à but non lucratif et permettrait aux investisseurs de profiter davantage des bénéfices si la start-up devenait rentable.

    Selon des personnes au fait de ces discussions, Altman avait engagé des pourparlers en vue de détenir des actions de la société dans le cadre de la nouvelle levée de fonds, alors qu'il avait précédemment déclaré qu'il ne souhaitait pas prendre de participation dans le groupe.

    Toutefois, il a qualifié de « ridicules » les informations selon lesquelles il obtiendrait une participation de 7 % dans la nouvelle entité à but lucratif, qui vaudrait plus de 10 milliards de dollars, lors d'une réunion du personnel.

    Néanmoins, le président d'OpenAI, Bret Taylor, a déclaré aux médias la semaine dernière que le conseil d'administration avait discuté de la question, mais qu'aucun chiffre précis n'avait été mis sur la table. « Le conseil d'administration a discuté de la question de savoir s'il serait bénéfique pour l'entreprise et notre mission de rémunérer Sam avec des actions, mais aucun chiffre spécifique n'a été discuté et aucune décision n'a été prise », a déclaré Taylor.

    Musk, qui a cofondé et aidé à financer OpenAI en 2015 mais s'est retiré trois ans plus tard, a intenté une action en justice en août, alléguant que la start-up a abandonné sa mission originale à but non lucratif au profit de l'humanité lorsqu'elle a convenu d'un partenariat commercial avec Microsoft. Musk a accusé Altman de « tromperie aux proportions shakespeariennes » et l'action en justice vise à annuler l'accord avec Microsoft, qui fait également l'objet d'une enquête de la part des autorités de régulation antitrust américaines et européennes.

    Bien qu'OpenAI soit la plus grande entreprise de la Silicon Valley financée par le capital-risque, elle est dépassée en termes de valorisation par la société chinoise ByteDance et SpaceX, située dans le sud de la Californie et fondée par Musk.


    Malgré cette levée de fonds massive, OpenAI fait face à des défis importants.

    L'augmentation des achats d'unités de traitement graphique

    La société prévoit de générer 3,6 milliards de dollars de revenus cette année, mais avec des pertes dépassant les 5 milliards de dollars. Tous ces revenus sont extrêmement coûteux, car OpenAI doit augmenter ses achats d'unités de traitement graphique (GPU) de Nvidia pour entraîner et faire fonctionner ses grands modèles de langage.

    La société a généré 300 millions de dollars de revenus en septembre 2024, soit une hausse de 1 700 % depuis le début de l'année 2023, et s'attend à réaliser un chiffre d'affaires de 11,6 milliards de dollars pour l'année 2025. Cette croissance rapide est alimentée par la popularité de ChatGPT, qui compte désormais 250 millions d’utilisateurs actifs hebdomadaires.

    Il y a également 11 millions d'abonnés à ChatGPT Plus et 1 million d'utilisateurs professionnels payants sur ChatGPT, a déclaré une personne proche de l'entreprise.

    « L'IA personnalise déjà l'apprentissage, accélère les progrès dans le domaine de la santé et stimule la productivité », a déclaré Sarah Friar, directrice financière de l'entreprise, dans le communiqué. « Et ce n'est qu'un début ».


    La perte de cadres clés

    OpenAI connaît de nombreuses difficultés de croissance, notamment la perte de cadres clés, une tendance qui s'est poursuivie la semaine dernière.

    Mercredi, la directrice de la technologie d'OpenAI est devenu le dernier cadre de haut niveau à annoncer son départ, alors que l'entreprise se prépare à devenir une société à but lucratif. Ces départs sont l'expression publique de tensions qui n'ont cessé de croître au sein de l'entreprise à l'origine de ChatGPT depuis le retour du PDG Sam Altman, après sa brève éviction l'année dernière.

    Certaines tensions sont liées à des conflits entre la mission initiale de l'OpenAI, qui consiste à développer l'IA pour le bien public, et de nouvelles initiatives visant à déployer des produits lucratifs. D'autres sont liées au chaos et aux querelles intestines entre les cadres, dignes d'un feuilleton.

    Mira Murati, directrice technique, est l'une des 20 chercheurs et cadres d'OpenAI qui ont quitté l'entreprise cette année, y compris plusieurs cofondateurs d'Altman. Elle a annoncé son départ de l'entreprise en même temps que Bob McGrew, directeur de la recherche de l'entreprise, et Barret Zoph, vice-président de la recherche. Avec ces départs, Sam Altman et Wojciech Zaremba sont alors les seuls cofondateurs restants de l'équipe initiale (de 11 personnes).

    Conclusion

    Au cours des deux dernières années, l'entreprise a élargi son champ d'action au-delà de la recherche et, avec le lancement de ChatGPT, a adopté une approche plus axée sur la technologie grand public et les revenus des entreprises. Le passage à une entreprise plus axée sur le profit a créé des tensions internes importantes au fil du temps, notamment le licenciement et la réembauche de son PDG l'année dernière et les protestations de certains anciens employés qui craignent que la quête d'argent et de célébrité d'OpenAI ne détourne l'entreprise de sa mission initiale, qui est de développer l'IA pour le bien public.

    Mais comme de plus en plus d'investisseurs veulent monter à bord du train d'OpenAI vers la ville de l'IAG (Intelligence Artificielle Générale), le passage à une société entièrement à but lucratif est devenu un élément clé de ce plan.

    Sources : OpenAI, WSJ, plainte d'Elon Musk (1, 2)

    Et vous ?

    Que pensez-vous de la demande d’OpenAI à ses investisseurs de ne pas soutenir les startups concurrentes comme xAI ? Est-ce une stratégie justifiable ou une entrave à la concurrence ?
    Avec une valorisation de 157 milliards de dollars, OpenAI est désormais l’une des startups les plus valorisées au monde. Selon vous, cette valorisation est-elle justifiée par les avancées technologiques et les perspectives de revenus de l’entreprise ?
    OpenAI prévoit des pertes de plus de 5 milliards de dollars cette année malgré des revenus de 3,6 milliards de dollars. Pensez-vous que cette situation financière est soutenable à long terme ?
    La popularité de ChatGPT, avec 250 millions d’utilisateurs actifs hebdomadaires, est un facteur clé de la croissance d’OpenAI. Quels sont, selon vous, les principaux défis que l’entreprise devra surmonter pour maintenir cette croissance ?
    Comment voyez-vous l’impact de cette levée de fonds sur le développement futur de l’intelligence artificielle ? Pensez-vous que cela pourrait accélérer les innovations ou créer des déséquilibres dans le secteur ?
    Microsoft a investi 750 millions de dollars supplémentaires dans OpenAI. Quel rôle pensez-vous que Microsoft joue dans la stratégie globale d’OpenAI ?
    La restructuration d’OpenAI en une entité à but lucratif est-elle une bonne décision pour attirer plus d’investissements ? Quels pourraient être les risques associés à cette transformation ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  15. #15
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 018
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 018
    Par défaut
    J'ai vu une vidéo intéressante concernant le PDG Sam Altman.

    https://twitter.com/LuckyyGautam18/s...25177831940494
    JOE ROGAN CALLS OUT SAM ALTMAN:
    "He's always claimed, 'I'm not doing this for money; I don't make any money.'
    But they just caught him in a $4 million Koenigsegg.
    See if you can find that car.
    'Oh, I don't need money; me? Interested in money?
    Le gars conduit une Koenigsegg qui coute 4 millions de $.
    Maintenant j'ai compris où partais l'argent, elle part dans les poches de gens qui ont des salaires beaucoup trop élevé.

  16. #16
    Membre extrêmement actif Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    2 056
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 2 056
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    J'ai vu une vidéo intéressante concernant le PDG Sam Altman.



    Le gars conduit une Koenigsegg qui coute 4 millions de $.
    Maintenant j'ai compris où partais l'argent, elle part dans les poches de gens qui ont des salaires beaucoup trop élevé.
    Mais mark fait ça juste pour apporter de la joie aux gens et Elon ça que pour sauver l'humanité (en commençant pas les milliardaires)

  17. #17
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    2 083
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 2 083
    Par défaut Elon Musk qualifie OpenAI de "diabolique" après qu'elle ait encouragé les investissements exclusifs
    Elon Musk qualifie OpenAI de "diabolique" après qu'elle ait encouragé les investissements exclusifs, alors que Sam Altman a demandé aux investisseurs de ne pas financer ses rivaux, y compris xAI d'Elon Musk

    Elon Musk a qualifié OpenAI de « diabolique » après que le géant technologique ait demandé aux investisseurs des accords d'exclusivité qui les empêcheraient d'investir dans des concurrents tels que xAI d'Elon Musk.

    En octobre 2024, OpenAI a conclu une impressionnante levée de fonds de 6,6 milliards de dollars, faisant grimper sa valorisation à 157 milliards de dollars, presque le double de sa précédente évaluation de 86 milliards de dollars. Cette opération, parmi les plus importantes jamais réalisées dans le secteur privé, renforce la position d'OpenAI parmi les startups les plus valorisées au monde, aux côtés de SpaceX et de ByteDance.


    Cette levée de fonds s'accompagne cependant de conditions strictes : les investisseurs ont le droit de retirer leur argent si OpenAI ne réussit pas à passer d'une organisation à but non lucratif à une entreprise entièrement lucrative. De plus, OpenAI a demandé à ses investisseurs, telles que Microsoft, Nvidia et Thrive Capital, entre autres, de ne pas soutenir des startups concurrentes dans le domaine de l'IA.

    Un employé de l'entreprise a en effet déclaré qu'OpenAI avait demandé à ses investisseurs de ne pas investir dans cinq entreprises concurrentes : Anthropic, qui a récemment annoncé une nouvelle fonction d'entreprise pour son LLM Claude ; Glean, une organisation d'IA ciblant spécifiquement les utilisateurs en entreprise ; Perplexity, qui a développé un nouvel outil pour transformer la recherche en contenu ; Safe Superintelligence, qui a été fondée par l'ancien scientifique en chef d'OpenAI, Ilya Sutskever ; et xAI, qui appartient à Elon Musk et qui a récemment lancé l'une des grappes d'entraînement les plus puissantes au monde.

    Après la publication de cette demande (qui n'était pas juridiquement contraignante), Elon Musk s'est rendu sur la plateforme de médias sociaux X pour qualifier l'entreprise de « diabolique ».


    Ce n'est pas la première fois qu'Elon Musk et OpenAI s'opposent. La querelle entre l'entrepreneur et l'entreprise d'IA ne date pas d'hier.

    La querelle d'Elon Musk avec OpenAI et Sam Altman

    Lorsque OpenAI a été lancée en 2015, elle était coprésidée par Sam Altman et Elon Musk. Ce dernier a apporté 45 millions de dollars de financement initial à la société d'IA que Sam Altman et lui-même jugeaient nécessaire pour s'opposer à la domination apparente de Google dans l'espace de l'IA.

    En 2018, alors que l'entreprise commençait à envisager une réorientation vers le secteur lucratif afin de garantir la poursuite des investissements dans la recherche sur l'IA, Elon Musk a proposé deux options : soit OpenAI fusionnait avec Tesla ( dont il est propriétaire), soit il recevait le contrôle total de l'entreprise. Aucun accord n'ayant pu être trouvé, Elon Musk a quitté OpenAI avec l'intention de créer sa propre entreprise d'IA en tant que concurrent.

    Après que le conseil d'administration d'OpenAI a tenté, en vain, de révoquer Sam Altman en novembre 2023, Elon Musk a intenté une action en justice, affirmant que la réorientation de l'entreprise vers des objectifs lucratifs allait à l'encontre de l'accord initial conclu lors de la création de l'entreprise. La plainte a été déposée en mars 2024, puis abandonnée en juin 2024 par Elon Musk, qui n'a pas révélé les raisons de cet abandon. OpenAI a soutenu que la plainte d'Elon Musk était frivole et « révisionniste ».

    Cependant, au début du mois d'août 2024, Elon Musk a relancé une action en justice contre OpenAI et Sam Altman affirmant qu’il a été « manipulé » pour cofonder OpenAI, une organisation à but non lucratif qui est ensuite devenue une structure hybride « pour l'enrichissement personnel de Sam Altman et de ses partenaires ». Elon Musk a notamment accusé Sam Altman et d’autres dirigeants de l'avoir délibérément trompé en lui faisant croire que l’entreprise suivrait une voie plus ouverte et altruiste que les géants technologiques axés sur le profit. Cependant, OpenAI a finalement adopté un modèle commercial plus traditionnel, ce qui a suscité les inquiétudes d'Elon Musk quant aux dangers potentiels de l’IA.

    En dehors des procès, il y a eu une quantité importante de querelles mineures, dont la plupart proviennent d'Elon Musk. Ce dernier a augmenté les salaires chez Tesla, notamment parce qu'il craignait qu'OpenAI ne tente de débaucher le personnel d'IA de l'entreprise de voitures autonomes en gonflant les salaires dans le cadre d'une guerre des talents.

    Elon Musk a également menacé d'interdire tous les appareils Apple après l'annonce par Apple de son partenariat avec OpenAI. Elon Musk a déclaré que tous les visiteurs de ses sites devraient laisser leurs appareils Apple enfermés dans une cage de Faraday jusqu'à leur départ. Apple a récemment choisi de ne pas participer à un récent tour d'investissement pour OpenAI et n'a pas commenté la question.

    Source : Elon Musk

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous la demande d'OpenAI visant à empêcher les investisseurs de financer ses concurrents pertinente ou judicieuse ?
    Trouvez-vous que la réaction d'Elon Musk est justifiée ou bien disproportionnée ?

    Voir aussi :

    OpenAI lève plus de 6,5 milliards de dollars et atteint une valorisation de 157 milliards de dollars. L'entreprise demande aux investisseurs de ne pas soutenir la concurrence comme xAI d'Elon Musk

    Elon Musk poursuit à nouveau OpenAI et Sam Altman, affirmant avoir été manipulé pour cofonder OpenAI qui a évolué en structure hybride « pour l'enrichissement personnel d'Altman et de ses partenaires »

    Elon Musk poursuit OpenAI et son PDG Sam Altman, évoquant une violation des accords contractuels initiaux des fabricants de ChatGPT qui cherchent à réaliser du profit au lieu de se consacrer à la mission fondatrice de l'organisation
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  18. #18
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 906
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 906
    Par défaut De grandes entreprises de la tech US paient moins de 2 $ / heure à des travailleurs kényans pour former l'IA
    De grandes entreprises technologiques américaines paient des travailleurs au Kenya moins de 2 $ pour former l'IA,
    une enquête dénonce des pratiques de travail déloyales

    Dans l’univers des grandes entreprises technologiques, les chiffres impressionnent : des milliards de dollars en revenus, des innovations spectaculaires et une influence globale inégalée. Pourtant, derrière ce vernis de succès, une ombre grandissante se dessine : les conditions de travail dans les économies émergentes, notamment en Afrique. Des rapports récents révèlent que certaines entreprises technologiques paient des travailleurs kenyans parfois moins de 2 dollars par heure.

    Les emplois dans le domaine de l'IA ont semblé être une opportunité en or

    À Nairobi, au Kenya, où le taux de chômage des jeunes atteint le chiffre stupéfiant de 67 %, les emplois dans le domaine de l'IA ont d'abord semblé être une opportunité en or. Des travailleurs comme Naftali Wambalo, diplômé en mathématiques, pensaient avoir pris pied dans l'avenir technologique. Engagés pour étiqueter et trier des données pour des géants mondiaux de la technologie comme OpenAI et Meta, Wambalo et ses collègues étaient chargés d'entraîner les systèmes d'IA à tout reconnaître, des schémas de circulation aux anomalies médicales.

    Mais la triste réalité s'est vite imposée : SAMA, une société d'externalisation américaine qui a embauché pour Meta et OpenAI, employait plus de 3 000 personnes au Kenya. Les documents examinés par 60 Minutes montrent qu'OpenAI a accepté de payer à SAMA 12,50 dollars de l'heure par travailleur, soit beaucoup plus que les 2 dollars que les travailleurs ont effectivement reçus, bien que SAMA affirme que ce qu'elle a payé est un salaire équitable pour la région.

    Cette disparité flagrante met en évidence un modèle plus large d'exploitation dans la chaîne d'approvisionnement mondiale de l'IA, où les travailleurs des pays en développement endurent des salaires bas et des contrats précaires pour alimenter les ambitions de la Silicon Valley.

    Nerima Wako-Ojiwa, militante kenyane des droits civiques, a déclaré que le désespoir des travailleurs, dans un pays où le taux de chômage est élevé, a conduit à une culture de l'exploitation avec des salaires injustes et aucune sécurité de l'emploi. « Il est terrible de voir combien d'entreprises américaines agissent mal ici », a déclaré Wako-Ojiwa. « C'est quelque chose qu'elles ne feraient pas chez elles, alors pourquoi le faire ici ? »

    On entend souvent dire que l'intelligence artificielle va supprimer des emplois humains, mais à l'heure actuelle, elle crée également des emplois. Des millions de personnes travaillent à l'échelle mondiale pour assurer le bon fonctionnement de l'intelligence artificielle. Il s'agit d'un travail pénible qui doit être effectué avec précision et rapidité. Pour le faire à moindre coût, le travail est souvent confié à des pays en développement comme le Kenya.

    Nairobi, au Kenya, est l'une des principales plaques tournantes de ce type de travail. C'est un pays qui manque cruellement d'offres d'emploi.


    Kenya : une plaque tournante pour les « humains dans la boucle »

    Le Kenya s'est activement présenté comme une « Silicon Savannah » favorable à la technologie, offrant des incitations financières et des lois du travail moins strictes pour attirer des géants tels que Google, Microsoft et OpenAI. Chaque année, un million de jeunes Kényans arrivent sur le marché du travail, désespérément à la recherche d'un emploi. Pour beaucoup d'entre eux, les postes dans le secteur émergent de l'IA semblaient être une bouée de sauvetage.

    Dans la pratique, ces emplois - surnommés « humains dans la boucle » - consistaient à étiqueter des images, des vidéos et des textes pour former des modèles d'IA. Les travailleurs passaient des heures à examiner des contenus nuisibles et souvent explicites, notamment des images de violence et d'abus. Les sociétés d'externalisation employées par les entreprises américaines ont présenté ces emplois comme une voie vers un avenir meilleur, mais les conditions sur le terrain racontent une autre histoire.

    « La main-d'œuvre est si nombreuse et si désespérée qu'elle peut payer n'importe quoi et avoir n'importe quelles conditions de travail, et il y aura toujours quelqu'un pour prendre ce travail », a déclaré Wako-Ojiwa.

    Les travailleurs affirment que SAMA les a poussés à terminer les tâches plus rapidement que prévu, achevant souvent des contrats de six mois en seulement trois mois, les laissant sans salaire pour le reste du temps. Bien que SAMA nie ces allégations, les travailleurs ont déclaré que la seule récompense pour leur rapidité était un geste symbolique : « Ils nous remerciaient en nous offrant un soda et deux morceaux de poulet KFC », a déclaré Naftali Wambalo.

    Une autre entreprise, Remotasks, gérée par la société américaine Scale AI, a fait l'objet d'accusations similaires. Les travailleurs, payés à la tâche, ont déclaré que leur salaire leur était parfois refusé, que leurs comptes étaient brusquement fermés et qu'ils étaient accusés d'avoir enfreint la politique de l'entreprise juste avant le jour de paie. « Il n'y a aucun recours ni moyen de se plaindre », a déclaré Ephantus Kanyugi.

    En mars, après un tollé général, Remotasks a mis fin à ses activités au Kenya, bloquant les comptes des travailleurs. L'entreprise a insisté sur le fait que tous les travaux achevés et conformes à ses directives avaient été payés.


    Pratiques de travail déloyales

    Ce qui semblait être un billet pour l'avenir s'est rapidement avéré être tout autre chose pour certains humains dans la boucle, qui disent avoir été exploités. Les emplois n'offrent aucune stabilité : certains contrats ne sont conclus que pour quelques jours, d'autres pour une semaine ou pour un mois, a expliqué Wako-Ojiwa. Elle qualifie ces lieux de travail d'ateliers clandestins où les ordinateurs remplacent les machines à coudre.

    Les travailleurs ne sont généralement pas embauchés directement par les grandes entreprises technologiques, mais par des sociétés d'externalisation essentiellement américaines.

    Le salaire des humains dans la boucle est de 1,50 à 2 dollars de l'heure. « Et c'est du brut, avant impôts », précise Wambalo.

    « Si les grandes entreprises technologiques veulent continuer à faire des affaires, elles doivent le faire de la bonne manière », a-t-il déclaré. Ce n'est pas parce que vous réalisez que le Kenya est un pays du tiers-monde que vous dites : « Ce travail, je le paierais normalement 30 dollars aux États-Unis, mais comme vous êtes au Kenya, 2 dollars vous suffisent ».

    Wambalo, Nathan Nkunzimana et Fasica Berhane Gebrekidan étaient employés par SAMA.

    Nkunzimana a déclaré qu'il avait accepté ce travail parce qu'il avait une famille à nourrir.

    Berhane Gebrekidan a vécu d'un salaire à l'autre, sans pouvoir épargner quoi que ce soit. Elle dit avoir vu des gens se faire licencier pour s'être plaints. « Nous marchions sur des œufs », a-t-elle déclaré.

    Nom : ai.png
Affichages : 49313
Taille : 389,5 Ko
    Naftali Wambalo

    Les conséquences psychologiques de la formation à l'IA

    Les travailleurs affirment que certains des projets menés pour Meta et OpenAI leur ont également causé des dommages psychologiques. Wambalo a été chargé de former l'IA à reconnaître et à éliminer la pornographie, les discours haineux et la violence excessive des médias sociaux. Il a dû passer au crible les pires contenus en ligne pendant des heures.

    « J'ai vu des gens se faire massacrer », a expliqué Wambalo. « J'ai vu des gens ayant des relations sexuelles avec des animaux, des gens abusant d'enfants physiquement et sexuellement. Des gens qui se suicident ».

    Berhane Gebrekidan pensait avoir été engagée pour un travail de traduction, mais elle explique qu'elle s'est retrouvée à passer en revue des contenus présentant des corps démembrés et des victimes d'attaques de drones. « Je trouve qu'il est difficile d'avoir des conversations avec les gens », dit-elle. « Je trouve qu'il est plus facile de pleurer que de parler ».

    Wambalo a déclaré que les documents qu'il a dû consulter en ligne ont nui à son mariage. « Après avoir vu sans cesse ces activités sexuelles, la pornographie au travail, que je faisais, je déteste le sexe », a-t-il déclaré.

    SAMA affirme que des conseils en matière de santé mentale ont été fournis par des « professionnels agréés ». Les travailleurs affirment que ces services sont tout à fait insuffisants. « Nous voulons des psychiatres », a déclaré Wambalo. « Nous voulons des psychologues qualifiés, qui sachent exactement ce que nous traversons et comment ils peuvent nous aider à y faire face ».

    SAMA, qui a également travaillé avec Meta jusqu'au début de l'année 2023, a fait l'objet de poursuites judiciaires de la part de ses modérateurs pour mauvaises conditions de travail et salaires inadéquats. Les plaintes s'étendent aux allégations selon lesquelles SAMA a mis sur liste noire d'anciens employés lorsque le contrat de l'entreprise avec Meta a pris fin, les empêchant de trouver un travail similaire auprès de l'entrepreneur qui l'a remplacée, Majorel.

    Kauna Malgwi, une travailleuse, a raconté le lourd tribut que représente l'examen quotidien de milliers de messages explicites : « Vous passez au crible les meurtres, les viols et les suicides. Cela vous colle à la peau », a-t-elle déclaré.

    Un problème plus large dans l'externalisation des technologies

    Le Kenya n'est pas le seul pays dans ce cas. Des centres d'externalisation similaires existent en Inde, aux Philippines et au Venezuela, où les bas salaires et le taux de chômage élevé permettent aux géants de la technologie de réduire leurs coûts. Ces pays fournissent une main-d'œuvre instruite, prête à effectuer les travaux minutieux dont les systèmes d'intelligence artificielle ont besoin pour fonctionner.

    Mais les implications éthiques sont flagrantes. Alors que les entreprises technologiques vantent le potentiel de l'IA à révolutionner les industries, le travail humain qui alimente ces systèmes n'est souvent pas reconnu.

    Cori Crider, cofondatrice de Foxglove, une association juridique à but non lucratif qui milite pour de meilleures conditions pour les travailleurs de la technologie, a fait remarquer : Après des années de brimades et d'intimidations de la part des grandes entreprises technologiques, les modérateurs disent : « Notre travail est important ».

    Source : vidéo dans le texte

    Et vous ?

    Les géants de la tech ont-ils une responsabilité morale ou seulement économique envers les employés des pays émergents ?

    Dans le cas d'OpenAI qui verse 12 dollars par heure et par travailleur à SAMA tandis que le travailleur reçoit au final 2 dollars par heure, parfois moins, qu'en pensez-vous ?

    Peut-on justifier des écarts salariaux importants entre les travailleurs des pays développés et ceux des pays en développement pour des tâches identiques ?

    Le recours à des sous-traitants est-il un moyen légitime de réduire les coûts ou une manière de contourner les responsabilités ?

    Les gouvernements africains devraient-ils imposer des salaires minimums aux entreprises étrangères opérant sur leur territoire ?

    Quelles alternatives pourraient permettre aux grandes entreprises de réduire leurs coûts tout en garantissant des conditions de travail dignes ?

    Voir aussi

    OpenAI a fait appel à des travailleurs kényans payés moins de 2 dollars par heure pour rendre ChatGPT moins toxique, les experts jugent ce tarif faible en raison des "tâches ingrates" des employés
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  19. #19
    Membre confirmé
    Homme Profil pro
    Développeur Java
    Inscrit en
    Juin 2017
    Messages
    131
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 74
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur Java

    Informations forums :
    Inscription : Juin 2017
    Messages : 131
    Par défaut
    Mais ces gens ne peuvent pas créer de l'intelligence, seulement accumuler des données ce qui n'est pas de l'intelligence. Cela rappelle le débat entre Montaigne et Rabelais : une tête bien pleine ou une tête bien faite. Je prêche dans le vide mais je répète que l'IA cela n'existe pas, c'est juste un habillage de marketing pour des algorithmes de traitement de masses de données.

  20. #20
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    595
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 595
    Par défaut Non, tu n'es pas seul...


    Citation Envoyé par edrobal Voir le message
    Je prêche dans le vide mais je répète que l'IA cela n'existe pas, c'est juste un habillage de marketing pour des algorithmes de traitement de masses de données.
    Oui, l'IA n'existe pas. C'est juste, comme tu le dis bien, un habillage marketing, où l'on remplace le terme "Algorithme" par le terme "IA". La différence de perception, seuls des gens sachant de quoi ils parlent savent la comprendre.

    Mr. et Md. "tout-le-monde" y croyent car avant on leur parlait de "technique", et ça leur passait au-dessus de la tête. Renommer algorithme par IA, et ça les touchent un peu plus, car dans le terme IA, il y a "intelligence", chose qu'ils "comprennent mieux".

    Quand on me parle de l'IA, je finis toujours par : "Et à fin, il y a un 'IF'. Un oui ou non.

    Mais l'IA est une "nouvelle" sorte d'algo, qui fait un énorme traitement, d'une toute aussi énorme masse de données, et utilisant une gigantesque quantité d'énergie. Cette manière de procéder est nouvelle, dans le sens où elle n'était (par des limites matérielles) pas possible auparavant.

    Comme beaucoups d'autres "inventions", il y aura du bon et du mauvais. Cette manière de procéder sera adaptée à certains domaines, et n'apportera rien dans d'autres domaines. Cela dépendra aussi de la qualité et de la pertinence des données que pourra traiter une IA.

    Un peu d'histoire...

    • L'imprimerie en tant que "technique" ne faisait rien de "miraculeux", mais ça a aidé à diffuser le "savoir". L'imprimerie étant plus rapide qu'un moine copiste.
    • La radio ne créait rien non plus, mais a permis une plus grande diffusion du savoir.
    • Internet, à ses débuts, a aider à partager le savoir.
    • Les moteurs de recherche on permis de "trouver plus vite" le savoir.
    • L'IA va aider a mettre en pratique un savoir, et c'est là le danger. L'IA ne va rien "inventer", mais va permettre à des "non initiés" de "(re)produire" des "choses" qu'ils ne maîtrissent pas. Où est le danger ? Pour moi, l'écart va se creuser entre ceux "qui savent" et d'autres "qui font".


    En résumant, ce n'est pas parce que l'on sait utiliser une calculatrice, qu'il ne faut pas continuer a apprendre les mathématiques.

    BàV et Peace & Love.

Discussions similaires

  1. OpenAI l’avoue : les hallucinations de ChatGPT ne disparaîtront jamais
    Par Anthony dans le forum Intelligence artificielle
    Réponses: 17
    Dernier message: 17/09/2025, 18h04
  2. OpenAI introduit son assistant d'IA ChatGPT sur les lignes fixes et sur WhatsApp
    Par Jade Emy dans le forum Intelligence artificielle
    Réponses: 1
    Dernier message: 24/12/2024, 10h46
  3. Réponses: 4
    Dernier message: 29/08/2024, 01h01
  4. Réponses: 0
    Dernier message: 24/03/2023, 15h14
  5. Réponses: 4
    Dernier message: 30/09/2016, 21h15

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo