2 pièce(s) jointe(s)
L'IA ne remplacera pas tous les emplois de sitôt.
L'IA ne remplacera pas tous les emplois de sitôt. Des chercheurs notent que les modèles d'IA sont encore coûteux à exécuter
et produisent souvent des erreurs
Si des études prédisent une catastrophe au niveau de l'emploi, à l'instar de celle de Goldman Sachs qui estime que l'IA pourrait remplacer l'équivalent de 25 % de l'ensemble du marché de travail (soit 300 millions d'emplois), cet avis ne fait pas l'unanimité. Certains donnent des raisons pour lesquelles, selon eux, cela n'arrivera pas de sitôt.
Les systèmes d'intelligence artificielle générative pourraient entraîner des « perturbations importantes » sur le marché du travail et affecter environ 300 millions d'emplois à temps plein dans le monde, selon une étude de Goldman Sachs.
L'IA générative, un type d'intelligence artificielle capable de générer du texte ou d'autres contenus en réponse aux invites de l'utilisateur, a explosé en popularité ces derniers mois après le lancement public de ChatGPT d'OpenAI. Le chatbot est rapidement devenu viral auprès des utilisateurs et a semblé inciter plusieurs autres entreprises technologiques à lancer leurs propres systèmes d'IA.
Goldman Sachs n'est pas la seule entité à s'inquiéter de l'avenir de l'emploi. En effet, Elon Musk, le fondateur de Tesla et de Space X, s’est également inquiété des menaces sur le marché du travail en affirmant en juillet 2017 « Que faire au sujet du chômage de masse ? Ce sera un défi social massif. Il y aura de moins en moins d’emplois que les humains sauront mieux faire qu’un robot ».
D'ailleurs, dans une lettre ouverte, Elon Musk et un groupe d'experts en intelligence artificielle et de dirigeants de l'industrie ont demandé une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 récemment lancé par OpenAI, en invoquant les risques potentiels pour la société et l'humanité. « Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », peut-on lire dans la lettre.
Eliezer Yudkowsky, théoricien de la décision et chercheur à la Machine Intelligence Research Institute, va plus loin en disant « qu'il ne suffit pas de suspendre le développement de l'IA. Nous devons tout arrêter ». « Ce moratoire de six mois serait préférable à l'absence de moratoire », a-t-il reconnu dans une tribune publiée dans Time Magazine. « Je me suis abstenu de signer parce que je pense que la lettre sous-estime la gravité de la situation et demande trop peu pour la résoudre ».
Comme vous, l'IA ne « travaillera » pas gratuitement
La formation d'un LLM puissant à partir de zéro peut présenter des opportunités uniques, mais elle n'est viable que pour les grandes organisations bien financées. La mise en œuvre d'un service qui exploite un modèle existant est beaucoup plus abordable (ChatGPT-3.5 Turbo d'Open AI, par exemple, tarife l'accès à l'API à environ 0,002 USD pour 750 mots anglais). Mais les coûts s'additionnent quand un service basé sur l'IA devient populaire. Dans les deux cas, le déploiement de l'IA pour une utilisation illimitée n'est pas pratique, obligeant les développeurs à faire des choix difficiles.
« En général, les startups qui construisent [un produit] avec l'IA doivent être très prudentes avec les dépendances sur des API de fournisseur spécifiques. Il est également possible de construire des architectures telles que vous n'allumez pas les GPU, mais cela demande une certaine expérience », déclare Hilary Mason, PDG et cofondatrice de Hidden Door, une startup qui construit une plateforme d'IA pour la narration et les jeux narratifs.
La plupart des services basés sur l'IA générative incluent un plafond ferme sur le volume de contenu qu'ils généreront par mois. Ces frais peuvent s'accumuler pour les entreprises et ralentir les personnes qui cherchent à automatiser les tâches. Même OpenAI, malgré ses ressources, limite les utilisateurs payants de ChatGPT, en fonction de la charge actuelle : au moment d'écrire ces lignes, le plafond est actuellement de 25 requêtes GPT-4 toutes les trois heures. C'est un gros problème pour quiconque cherche à s'appuyer sur ChatGPT pour le travail.
Les développeurs d'outils alimentés par l'IA sont également confrontés à un défi aussi vieux que les ordinateurs eux-mêmes : concevoir une bonne interface utilisateur. Un LLM puissant capable de nombreuses tâches devrait être un outil sans précédent, mais la capacité d'un outil à accomplir une tâche n'est pas pertinente si la personne qui l'utilise ne sait pas par où commencer. Matthew Kirk, responsable de l'IA chez Augment.co, souligne que bien que ChatGPT soit accessible, l'ouverture de l'interaction avec une IA via le chat peut s'avérer écrasante lorsque les utilisateurs doivent se concentrer sur une tâche spécifique.
« J'ai appris par expérience que laisser des outils complètement ouverts a tendance à dérouter les utilisateurs plus qu'à les aider », déclare Kirk. « Pensez-y comme un hall de portes qui est infini. La plupart des humains resteraient là perplexes quant à ce qu'il faut faire. Nous avons beaucoup de travail à faire pour déterminer les portes optimales à présenter aux utilisateurs.
Se former à l'IA pourrait devenir un métier en soi
Un problème particulier a déjà suscité la controverse et menace les efforts visant à créer des outils d'IA pour un travail sensible et important : les hallucinations. Les LLM ont une incroyable capacité à générer un texte unique, à faire des blagues et à tisser des récits sur des personnages imaginaires. Cependant, cet avantage est un obstacle lorsque la précision et l'exactitude sont essentielles à la mission, car les LLM présentent souvent des sources inexistantes ou des déclarations incorrectes comme des faits.
« Des fonctions spécifiques dans les entreprises de certains secteurs fortement réglementés (banque, assurance, santé) auront du mal à concilier la confidentialité très stricte des données et d'autres exigences réglementaires qui empêchent la discrimination », déclare Douglas Kim, membre du MIT Connection Science Institute. « Dans ces secteurs réglementés, vous ne pouvez pas laisser l'IA faire le genre d'erreurs passables lors de la rédaction d'un document scolaire ».
Les entreprises peuvent répondre à ce défi en courtisant les employés qui ont une expertise dans l'utilisation des outils d'IA.
Le battage médiatique actuel autour de l'IA a déjà donné naissance à de nouveaux rôles, y compris les ingénieurs de requêtes (prompt engineers). Le Prompt Engineer est un professionnel de l’écriture de prompt pour les IA génératives comme ChatGPT ou MidJourney.
L'ingénierie de requête est donc le processus de conception et de création de requêtes pour les modèles IA. Le but peut être de créer des données d’entraînement de haute qualité, ou tout simplement d’obtenir le résultat souhaité auprès d’une IA générative. Un ingénieur de requête est un expert spécialisé dans la communication avec les systèmes d’intelligence artificielle et plus particulièrement les chatbots IA basés sur les larges modèles de langage, comme ChatGPT et Google Bard. Contrairement aux ingénieurs informatiques traditionnels utilisant le code, ces ingénieurs écrivent en langage naturel. À l’origine, leur rôle est notamment de tester les IA pour développer et améliorer les modèles d’interaction humain-machine.
Ces ingénieurs aident à s’assurer que les chatbots sont rigoureusement testés, que leurs réponses soient reproductibles, et que les protocoles de sécurité sont respectés. Avec l’essor de ChatGPT et des autres IA génératives, ce métier connaît un véritable essor : ces professionnels luttent contre les biais, les dérapages et les erreurs commises par ces outils.
Anthropic, une société de sécurité et de recherche sur l'IA créée par d'anciens membres d'OpenAI, a récemment fait la une des journaux avec une offre d'emploi à la recherche d'un ingénieur responsable de la construction « d'une bibliothèque d'invites ou de chaînes d'invites de haute qualité pour accomplir diverses tâches », entre autres. Le salaire ? 175 000 $ à 335 000 $.
Cependant, Lucas A. Wilson, responsable de l'infrastructure de recherche mondiale chez Optiver, voit une friction entre l'expertise requise pour utiliser efficacement les outils d'IA et l'efficacité que l'IA promet d'offrir. « Comment l'embauche de personnes pour le tout nouveau travail consistant à nourrir les LLM libère-t-elle quelqu'un d'autre qui travaillait déjà pour se concentrer sur des tâches plus complexes ou abstraites ? » se demande Wilson. « Je ne vois pas facilement de réponse claire ».
Les modèles sont encore chers à faire fonctionner
Transformer un chatbot en une activité viable va être un défi : Google dispose depuis sept ans d'une interface de recherche de chat, Google Assistant, et la plus grande société de publicité au monde n'a pas encore été en mesure de la monétiser. Un rapport a souligné un autre problème financier lié à la génération d'une session de chat pour chaque recherche : cela coûtera beaucoup plus cher à exécuter par rapport à un moteur de recherche traditionnel.
Après avoir parlé au président d'Alphabet, John Hennessy (Alphabet est la société mère de Google) et à plusieurs analystes, Reuters écrit « qu'un échange avec l'IA connue comme un grand modèle de langage coûte probablement 10 fois plus qu'une recherche par mot-clef standard » et qu'il pourrait représenter « plusieurs milliards de dollars de surcoûts ».
Ce qui rend cette forme d'IA plus coûteuse que la recherche conventionnelle, c'est la puissance de calcul impliquée. Une telle IA dépend de milliards de dollars de puces, un coût qui doit être étalé sur leur durée de vie utile de plusieurs années, ont déclaré les analystes. L'électricité ajoute également des coûts et de la pression aux entreprises ayant des objectifs d'empreinte carbone. Le processus de traitement des requêtes de recherche alimentées par l'IA est connu sous le nom « d'inférence », dans lequel un « réseau de neurones » vaguement modélisé sur la biologie du cerveau humain déduit la réponse à une question d'une formation antérieure.
Hennessy a déclaré à Reuters : « Ce sont les coûts d'inférence que vous devez réduire », appelant cela « un problème de quelques années au pire ».
Le nombre exact de milliards sur les 60 milliards de dollars de revenu net annuel de Google qui seront aspirés par un chatbot fait l'objet d'un débat. Une estimation du rapport de Reuters provient de Morgan Stanley, qui table sur une augmentation annuelle des coûts de 6 milliards de dollars pour Google si une « IA de type ChatGPT devait traiter la moitié des requêtes qu'elle reçoit avec des réponses de 50 mots ».
Sources : Reuters
Et vous ?
:fleche: Qu'en pensez-vous ? Partagez-vous le point de vue des entités comme Goldman Sachs qui pensent que le marché de l'emploi connaîtra un bouleversement sans précédent en termes de pertes d'emploi ?
:fleche: Partagez-vous le point de vue des entités qui parlent d'une transformation de l'emploi ?
:fleche: Que pensez-vous de l'initiative d'Elon Musk et autres pour limiter le développement de GPT en attendant qu'une étude sur l'impact sociétal soit menée ?
:fleche: Que pensez-vous des entités qui estiment qu'à cause d'un certain nombre de paramètres (coûts, réponses parfois erronées, etc.), l'IA ne va pas créer le bouleversement cataclysmique prédit en termes de pertes d'emploi ?
:fleche: Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?
Voir aussi :
:fleche: L'IA va-t-elle éliminer des emplois, en particulier pour les développeurs ? Non, selon une enquête qui estime que l'intelligence artificielle pourrait créer plus d'emplois qu'elle n'en supprime
:fleche: « L'IA ne va pas prendre votre emploi, ce sont plutôt les personnes capables de s'en servir pour être plus productives qui le feront », d'après Roberto Saracco, membre senior de l'IEEE
suffit de leur donner du corps
Bonjour,
Il suffit d'appliquer le behaviourism avec une méthode basée sur l'image de mémoire réflexe, et ensuite le faire jouer à CIVILIZATION pour la stratégie de long terme
1 pièce(s) jointe(s)
L’intelligence artificielle générative augmenterait la productivité des travailleurs de 14 %
L’intelligence artificielle générative augmenterait la productivité des travailleurs de 14 %,
selon une étude menée par l’Université de Stanford
Une nouvelle étude menée par l’Université de Stanford a révélé que l’utilisation de l’intelligence artificielle générative (AI) peut augmenter la productivité des travailleurs de 14 %. L’étude a examiné l’impact de divers outils basés sur l’AI, tels que ChatGPT, CodeGPT et WriteGPT, sur la performance des employés dans différents domaines.
Les chercheurs ont constaté que ces outils peuvent aider les travailleurs à accomplir des tâches plus rapidement, à améliorer la qualité de leur travail et à stimuler leur créativité. L’étude a également identifié les défis et les risques liés à l’utilisation de l’AI générative, tels que les questions éthiques, juridiques et de sécurité. Les auteurs de l’étude recommandent aux entreprises d’adopter une approche prudente et responsable lors de l’intégration de ces outils dans leurs processus de travail.
L’étude a été menée par des chercheurs de Stanford et du MIT sur l’impact des outils d’intelligence artificielle générative sur la productivité des travailleurs dans une entreprise de logiciels. Il s’agit de la première étude du genre à mesurer l’effet de ces outils dans un contexte réel de travail.
L’intelligence artificielle générative désigne la capacité des machines à créer du contenu original à partir de données existantes, comme des textes, des images ou des sons. Par exemple, ChatGPT est un outil qui utilise un modèle de langage pour générer des réponses cohérentes et personnalisées à des questions ou des demandes.
Goldman Sachs a publié une étude selon laquelle l'IA, notamment les outils d'IA générative comme Bard et ChatGPT, pourrait automatiser 25 % de l'ensemble du marché du travail. Plus en détail, les économistes de la banque américaine d'investissement prévoient que l'IA devrait remplacer les humains dans 46 % des tâches administratives, 44 % des emplois juridiques et 37 % des professions de l'architecture et de l'ingénierie. Ainsi, environ 300 millions d'emplois pourraient être supprimés par l'IA dans les années à venir, ce qui, selon la banque, signifie que l'IA générative est en bonne voie pour bouleverser fondamentalement le travail tel que nous le connaissons.
L'IA a fait couler beaucoup d'encre au cours de ces deux dernières années, et plus encore depuis l'arrivée des chatbots d'IA tels que ChatGPT. Ils peuvent résumer des articles scientifiques pour vous, déboguer votre code défectueux et écrire des formules Microsoft Excel à votre demande. Et alors que ces nouveaux outils d'IA visent à faire partie de notre vie quotidienne et que nous en apprenons davantage sur leur puissance, il y a une chose qui préoccupe tout le monde : l'impact que l'IA pourrait avoir sur l'emploi.
Contrairement à ce que pensent les chercheurs de Stanfort, qui estiment que, l’IA générative est un outil puissant pour augmenter la productivité et le bien-être des travailleurs, le nouveau rapport de Goldman Sachs, révèle que jusqu'à 300 millions d'emplois dans le monde pourraient être touchés dans les années à venir.
L’étude a été menée par des chercheurs de Stanford et du MIT a porté sur plus de 5 000 agents de service à la clientèle, basés principalement aux Philippines, qui travaillent pour une entreprise spécialisée dans les logiciels pour les petites et moyennes entreprises américaines. Certains agents ont eu accès aux outils d’IA générative, qui leur fournissaient des scripts de conversation basés sur des exemples de dialogues réussis, tandis que d’autres n’en ont pas eu.
Les chercheurs ont suivi la performance des agents sur des indicateurs clés, comme le temps et le taux de résolution des problèmes des clients. Ils ont constaté que les agents qui utilisaient les outils d’IA générative étaient en moyenne 14 % plus productifs que ceux qui ne les utilisaient pas.
« Le fait que les gens l'utilisent pendant plus d'un an dans cette entreprise donne une bien meilleure idée de la façon dont cela se traduit en productivité dans le monde réel », a déclaré Brynjolfsson, l'un des coauteurs de l'étude, lors d'une interview. « Pour autant que je sache, c'est la première fois que cela a été fait dans un environnement réel. »
L’étude a également révélé que les travailleurs les moins qualifiés et les plus novices bénéficiaient le plus de la technologie, car elle leur permettait d’apprendre plus vite et de gagner en confiance. Les agents avec deux mois d’expérience qui utilisaient l’IA étaient aussi performants ou meilleurs que ceux avec plus de six mois d’expérience sans IA.
En revanche, l’impact des outils d’IA générative sur les travailleurs expérimentés ou très qualifiés était minime, voire négatif dans certains cas. Les chercheurs expliquent que ces travailleurs n’avaient pas besoin de l’aide de l’IA pour résoudre les problèmes complexes, et que celle-ci pouvait même les distraire ou les ralentir.
Les travailleurs les plus qualifiés n'ont vu que peu ou pas d'avantages à l'introduction de l'IA dans leur travail. Il est probable que ces travailleurs les plus performants donnaient déjà des réponses du même niveau que celles recommandées par l'IA, de sorte qu'il y avait moins de place pour l'amélioration - au contraire, les messages-guides ont pu constituer une distraction, selon les chercheurs.
Si l'IA finit par réduire l'écart entre les travailleurs peu et très qualifiés, les entreprises devront peut-être repenser fondamentalement la logique qui sous-tend les choix de rémunération.
Les meilleurs agents du service clientèle disposaient de feuilles de calcul Excel où ils rassemblaient les phrases qu'ils utilisaient souvent et qui fonctionnaient bien, a déclaré Raymond du MIT. Si l'outil d'IA prend effectivement ce savoir tacite et le distribue à d'autres, a-t-elle ajouté, « alors ces travailleurs hautement qualifiés rendent un service supplémentaire à l'entreprise en fournissant ces exemples à l'IA, mais ils ne sont pas rémunérés pour cela ».
En fait, leur situation est peut-être pire parce que leurs incitations étaient basées sur la performance par rapport à leurs pairs, ce qui soulève une série de questions politiques importantes sur la manière dont les travailleurs devraient être rémunérés pour la valeur de leurs données.
Les entreprises tournées vers l'avenir seraient bien avisées de reconnaître l'expertise de leurs employés vedettes, car leurs connaissances et compétences tacites formeront probablement la base des outils d'IA qui alimenteront le reste de l'organisation, a déclaré Brynjolfsson.
« Les entreprises qui réussissent auront des systèmes d'incitation et de récompense qui reconnaissent que ces employés les plus performants - que leur performance avec un client donné soit ou non manifestement meilleure que celle des travailleurs moins qualifiés - créent des connaissances dont l'ensemble de l'organisation dépend », a-t-il déclaré.
« Il ne serait pas exagéré qu'ils accordent encore plus d'importance à ces personnes, car ce type de compétences est désormais amplifié et multiplié dans l'ensemble de l'organisation. Dorénavant, ce travailleur de haut niveau peut changer l'ensemble de l'organisation ».
L’étude a aussi montré que l’utilisation de l’IA générative améliorait la satisfaction des clients, réduisait les demandes d’intervention managériale et augmentait la rétention des employés. Les chercheurs attribuent ces effets à la meilleure qualité et rapidité du service, ainsi qu’à la réduction du stress et de la charge mentale des agents.
Les chercheurs concluent que l’intelligence artificielle générative est un outil puissant pour augmenter la productivité et le bien-être des travailleurs, mais qu’il faut aussi tenir compte des différences individuelles et des besoins de formation. Ils soulignent également que ces outils ne visent pas à remplacer les travailleurs, mais à les assister et à les compléter.
Selon les chercheurs, l’IA générative ne vise pas à remplacer les travailleurs, mais à les assister et à les compléter, en leur permettant de se concentrer sur les tâches à plus forte valeur ajoutée. Brynjolfsson souligne que l'étude de l'IA générative n'en est qu'à ses débuts et que cette recherche n'est pas le dernier mot - il reste encore beaucoup à apprendre.
Source : université de Stanford
Et vous ?
:fleche: Les résultats de l'étude menée par les chercheurs de l'université sont-ils pertinents ?
:fleche: À votre avis, quelles sont les limites de l’étude ?
:fleche: Voyez-vous des implications éthiques ou sociales de l’utilisation de l’IA générative dans votre milieu professionnel ?
Voir aussi :
:fleche: Une étude de Goldman Sachs affirme que l'IA pourrait automatiser 25 % des emplois actuels dans le monde, les économistes, les employés administratifs et les avocats devraient être les plus touchés
:fleche: 90 % du contenu en ligne pourrait être « généré par l'IA d'ici 2025 », selon une conférencière en IA. « Les choses qui nous émerveillent début 2023 vont sembler pittoresques d'ici la fin de l'année »
:fleche: Des expériences menées sur l'IA générative révèlent qu'elle augmente la productivité de 40 % et la qualité de 20 %, les chercheurs mettent en garde contre l'impact de l'IA sur l'avenir du travail
2 pièce(s) jointe(s)
Suleyman: les gouvernements doivent trouver des solutions pour des personnes remplacées par l'IA en entreprise
Les gouvernements doivent sérieusement réfléchir pour trouver des solutions aux personnes qui perdent leur emploi à cause de l'IA,
prévient le cofondateur de DeepMind qui plaide pour le revenu universel
L’intelligence artificielle va bouleverser le marché du travail des cols blancs et créer « un nombre important de perdants » qui seront contraints de quitter leur emploi, selon l’un des cofondateurs du laboratoire d’IA DeepMind, racheté par Google. Mustafa Suleyman, un pionnier de l’IA qui a quitté Google l’année dernière, a rejoint une liste croissante d’experts (dont son ancien patron, le PDG d’Alphabet Sundar Pichai) qui ont mis en garde contre les conséquences potentiellement néfastes des progrès rapides de la technologie.
« Sans aucun doute, beaucoup des tâches dans le domaine des cols blancs seront très différentes dans les cinq à dix prochaines années », a déclaré Suleyman lors d’un événement au Bridge Forum de GIC à San Francisco mardi, selon le Financial Times. « Il y aura un nombre important de perdants [et ils] seront très malheureux, très agités », a-t-il ajouté.
Les experts estiment que les avancées de l’IA pourraient être une arme à double tranchant pour l’économie mondiale - stimulant la productivité tout en provoquant des changements radicaux dans les entreprises et les industries. Le mois dernier, Goldman Sachs a publié une analyse affirmant que les outils d’IA « pourraient entraîner une augmentation de 7 % (ou près de 7 000 milliards de dollars) du PIB mondial et une hausse de la croissance de la productivité de 1,5 point de pourcentage sur une période de 10 ans ».
Cependant, cela pourrait également entraîner « une perturbation significative » de la main-d’œuvre, avec jusqu’à 300 millions d’emplois potentiellement exposés à l’automatisation.
Suleyman a déclaré que les gouvernements devraient réfléchir à la manière de soutenir ceux qui perdraient leur emploi à cause de la technologie, le revenu universel de base étant une solution potentielle : « Cela nécessite une compensation matérielle… C’est une mesure politique et économique dont nous devons commencer à parler sérieusement ».
Les start-up de l'IA ont fait de grands progrès technologiques au cours des six derniers mois, et les entreprises ont investi des milliards de dollars dans les start-up du secteur. Microsoft a investi massivement dans le créateur de ChatGPT OpenAI plus tôt cette année, valorisant la société à environ 30 milliards de dollars.
Le lancement d'une série d'outils tels que ChatGPT, qui permettent aux utilisateurs de générer une gamme de sorties texte, image ou vidéo à partir d'entrées en langage naturel, a mis « l'IA générative » sous les projecteurs et a envoyé une vague de battage médiatique dans la communauté des investisseurs technologiques.
À ce propos, selon un rapport du cabinet CB Insights, plus de 200 startups utilisant ChatGPT ont levé plus de 10 milliards de dollars au cours des six derniers mois, sans même avoir de plan d’affaires clair ou de modèle économique viable. Ces startups se basent sur la promesse que ChatGPT peut résoudre n’importe quel problème ou fournir n’importe quel service en utilisant le langage naturel comme interface. Par exemple, certaines startups proposent d’utiliser ChatGPT pour créer des assistants virtuels personnalisés, des rédacteurs automatiques de contenu, des traducteurs multilingues, des tuteurs en ligne, des conseillers financiers ou juridiques, des générateurs de slogans publicitaires ou de noms de marque, etc.
Les analystes de la société de recherche PitchBook prédisent que les investissements en capital-risque dans les entreprises d'IA générative seront facilement plusieurs fois supérieurs au niveau de 4,5 milliards de dollars de l'année dernière. Cela est dû en partie à l'investissement de 10 milliards de dollars de Microsoft en janvier dans OpenAI, la startup derrière le très populaire bot ChatGPT. En comparaison, ces investissements ont totalisé 408 millions de dollars en 2018, l'année où OpenAI a publié la version initiale du modèle de langage qui alimente ChatGPT.
Google, qui a acquis DeepMind en 2014, a développé ses propres modèles de langage tels que LaMDA et PaLM. Mais l'entreprise a été prise de court par le lancement de ChatGPT en novembre de l'année dernière.
Avec LaMDA, « nous avions ChatGPT un an et demi avant ChatGPT. C'était frustrant, plus que frustrant de voir ChatGPT exploser », a déclaré Suleyman. Google, a-t-il ajouté, était fermement engagé dans la lutte pour dominer la nouvelle vague d'outils d'IA, mais ChatGPT les avait fait « un peu danser ».
La course aux armements entre Microsoft, Google et une série d'autres créateurs de chatbots, dont Inflection et Cohere, qui a levé 250 millions de dollars pour une valorisation de 2 milliards de dollars la semaine dernière, repousse les frontières de l'IA. « La dernière décennie a été définie par la classification et la prédiction, maintenant nous examinons l'interaction... la rigidité du format va tomber et tout va se sentir plus dynamique et personnalisé », a déclaré Suleyman, dont la société a lancé son propre chatbot Pi, abréviation d'intelligence personnalisée, la semaine dernière.
Une plaidoirie qui va dans le même sens que celle de Sam Altman
Le président d'OpenAI, la structure derrière ChatGPT, a lui aussi plaidé pour un revenu de base universel (RBU), un revenu versé régulièrement par le gouvernement à un niveau uniforme à chaque adulte, quel que soit son statut d’emploi, son revenu ou sa richesse, pour fournir un filet de sécurité. « [...] une société qui n'offre pas suffisamment d'égalité des chances pour que chacun progresse n'est pas une société qui durera », a écrit Altman dans un billet de blog en 2021. La politique fiscale telle que nous l'avons connue sera encore moins capable de lutter contre les inégalités à l'avenir, a-t-il poursuivi. « Bien que les gens aient toujours des emplois, bon nombre de ces emplois ne créeront pas beaucoup de valeur économique dans la façon dont nous pensons à la valeur aujourd'hui ». Il a proposé qu'à l'avenir - une fois que l'IA « produira la plupart des biens et services de base dans le monde » - un fonds puisset être créé en taxant la terre et le capital plutôt que le travail. Les dividendes de ce fonds pourraient être distribués à chaque individu pour qu'il les utilise à sa guise - « pour une meilleure éducation, des soins de santé, un logement, la création d'une entreprise, peu importe », a écrit Altman.
Le RBU assurerait donc la sécurité du revenu tout en créant des incitations à quitter les emplois mal rémunérés pour des options plus risquées, mais potentiellement plus lucratives, comme le travail indépendant, l’entrepreneuriat ou la formation continue. Le climat d’innovation qui en résulte réduit la dépendance aux bas salaires et le besoin de concurrencer la technologie. Avec un revenu garanti qui ne dépend pas de la recherche d’emploi, les travailleurs ne prendront un emploi que s’ils le trouvent attrayant, ce qui diminue le déclassement et améliore leur pouvoir de négociation.
Pourtant, Sam Altman ne semble pas disposer à partager les bénéfices éventuels qui reviendraient à OpenAI.
Bien que le RBU ait été mentionné dans des interviews récentes, il n'a pas figuré de manière significative dans les plans d'OpenAI. En l'occurrence, la structure de « bénéfices plafonnés » d'OpenAI stipule que les bénéfices supérieurs à un certain montant appartiennent à son entité à but non lucratif. Lorsqu'on lui a demandé en janvier si OpenAI prévoyait de « prendre les recettes que vous présumez que vous allez gagner un jour et... l'offrir à la société », Altman a hésité. Oui, l'entreprise pourrait distribuer « de l'argent à tout le monde », a-t-il déclaré. Ou alors « nous [allons] investir tout cela dans une organisation à but non lucratif qui fait beaucoup de science ».
Pièce jointe 638510
Mustafa Suleyman a quitté DeepMind l'année dernière pour créer Inflection AI
Conclusion
Le RBU présente des avantages potentiels, tels que la réduction de la pauvreté et de l’insécurité économique, le soutien à l’innovation et à l’entrepreneuriat, la promotion de l’autonomie et de la liberté individuelles, et la simplification du système de protection sociale. Il présente également des inconvénients potentiels, tels que le coût fiscal élevé, le découragement du travail (comme le note Yahiko « Avec un tel système, plus personne ne voudra bosser, en tout cas pour les boulots ingrats, mais indispensables comme éboueurs, femme de ménage, manutention, bâtiment, etc. ») et de la productivité, la diminution de la solidarité sociale et de la responsabilité collective, et le risque d’inflation ou de stagnation.
Le RBU n’est pas une solution miracle qui peut résoudre tous les problèmes liés à l’automatisation. Il doit être évalué en fonction de ses objectifs spécifiques, de ses modalités pratiques et de son contexte institutionnel. Il doit également être comparé à d’autres politiques qui peuvent répondre aux mêmes défis, tels que la garantie d’emploi, la réforme fiscale, la formation professionnelle, l’éducation ou la réglementation du marché du travail.
Source : Financial Times
Et vous ?
:fleche: Que pensez-vous du revenu de base universel ? Réelle solution aux licenciements éventuels de masse ou utopie ?
:fleche: Que pensez-vous du fait qu'il prodigue de tels conseils aux gouvernements tandis que sa société à lancé un chatbot IA baptisé Pi ?