1 pièce(s) jointe(s)
Les modérateurs kenyans dénoncent les conditions inhumaines de leur travail pour OpenAI et Sama
« Cela m’a complètement détruite » : un modérateur kenyan révèle les conditions inhumaines de son travail pour OpenAI et Sama,
qui violent les droits humains
Les modérateurs kenyans qui travaillaient sur ChatGPT, un outil d’intelligence artificielle qui génère des conversations textuelles et developé par OpenAI dénoncent les conditions de travail abusives qu’ils ont subies. Ils affirment avoir été exposés à des contenus graphiques traumatisants, avoir été mal payés et licenciés sans préavis. Ils ont déposé une pétition auprès du gouvernement kenyan pour demander une enquête sur la situation. OpenAI n’a pas réagi aux accusations, tandis que Sama, la société qui les employait, a affirmé leur avoir fourni un soutien psychologique et médical.
Quatre modérateurs kenyans qui ont travaillé pour OpenAI ont déposé une pétition auprès du gouvernement kenyan pour demander une enquête sur les conditions de travail qu’ils ont subies de la part de Sama, la société qui les employait en tant que contractants. Ils affirment avoir été confrontés à des contenus graphiques très violents et choquants, tels que des scènes de viol, de meurtre, de nécrophilie, sans avoir été prévenus ni soutenus psychologiquement. Ils disent avoir souffert de traumatismes psychologiques, de dépression, d’anxiété, d’insomnie et de cauchemars.
Certains ont perdu leur famille ou leur santé à cause de leur travail. Ils se plaignent également d’avoir été mal payés (entre 1,46 et 3,74 dollars de l’heure) et licenciés sans préavis lorsque le contrat avec OpenAI a été résilié. Ils accusent OpenAI et Sama de les avoir exploités et de ne pas respecter leurs droits humains.
Des modérateurs de contenu qui travaillent pour des sous-traitants de Meta, OpenAI ou ByteDance ont décidé le 1er mai, à Nairobi, de créer le premier syndicat africain de leur profession, en pleine lutte juridique contre les grandes plateformes numériques, selon plusieurs sources médiatiques. L'entreprise a des employés dans plusieurs endroits d'Afrique de l'Est, dont plus de 3 500 Kenyans.
Ces travailleurs sont ou ont été au service de Facebook, TikTok ou ChatGPT et dénoncent des conditions de travail « inacceptables » et nuisibles à leur santé mentale. À l’occasion de la Journée internationale des travailleurs, ils se sont rassemblés à l’hôtel Mövenpick de la capitale du Kenya pour réclamer des conditions de travail plus « dignes », « sécurisées » et « équitables ».
L’IA d’OpenAI expose les modérateurs kenyans à des contenus traumatisants
Certains mots, phrases ou images doivent être marqués manuellement avec une « étiquette informatique ». Cela permet à l’IA de savoir qu’ils ne sont pas appropriés et donc de les éviter. Pour obtenir ces étiquettes, OpenAI a envoyé des dizaines de milliers d’extraits de texte à Sama, l’entreprise de sous-traitance, partenaire d’OpenAI au Kenya. Certains racontaient des situations très précises d’abus sexuels sur des enfants, de zoophilie, de meurtre, de suicide, de torture, d’automutilation et d’inceste.
Sama emploie des travailleurs au Kenya, en Ouganda et en Inde pour marquer des données pour des clients de la Silicon Valley comme Google, Meta et Microsoft. L’un de ses travailleurs aurait confié au Time magazine qu’il souffrait de cauchemars après avoir lu une description détaillée d’un homme ayant des rapports sexuels avec un chien devant un jeune enfant. « C’était un supplice », a-t-il déclaré.
Sama était auparavant le plus grand fournisseur de modérateurs de contenu de Meta en Afrique, jusqu'à ce qu'elle annonce en janvier qu'elle mettrait fin à sa collaboration avec le géant. Cette nouvelle fait suite à de nombreuses actions en justice intentées contre les deux entreprises pour des allégations de démantèlement de syndicats, de licenciements illégaux et de multiples violations de la constitution kenyane.
L’IA au prix du travail inhumain
Les conditions de travail inhumaines des modérateurs kenyans pour OpenAI et Sama font scandale. Ces employés ont participé à la création d’un outil de détection de contenu toxique, intégré à ChatGPT, un système d’IA qui génère des dialogues. Selon OpenAI, ce travail visait à réduire les biais et les contenus nuisibles dans les données d’entraînement et dans les outils d’IA. « Nous nous efforçons de construire des systèmes d’IA sûrs et utiles qui limitent les préjugés et les contenus préjudiciables », a déclaré un porte-parole d’OpenAI.
Sama a affirmé que les modérateurs bénéficiaient d’un soutien psychologique et médical, et qu’ils avaient été informés de la fin du projet ChatGPT. Mais les modérateurs contestent ces affirmations et demandent une réglementation plus stricte du « travail technologique nuisible et dangereux » externalisé au Kenya. Ils veulent également que le ministère du Travail enquête sur la manière dont il a échoué à protéger les jeunes kenyans contre les abus des sociétés d’externalisation.
Cori Crider, directrice de Foxglove, une ONG qui soutient l’affaire, a déclaré que les entreprises technologiques comme OpenAI devaient assumer leur responsabilité envers les modérateurs de contenu, qu’elles externalisent pour se distancer des conditions de travail épouvantables. Elle a appelé à une enquête sur les salaires, le soutien à la santé mentale et les conditions de travail de tous les bureaux de modération de contenu et d’étiquetage de données au Kenya, et à une meilleure protection de cette « main-d’œuvre essentielle ».
Ce cas illustre les conséquences sociales et éthiques de la formation des modèles d’IA, qui repose sur un secteur peu connu, mais vital pour la sécurité des systèmes d’IA.
Source : Vidéo
Et vous ?
:fleche: Quelles peuvent être les conséquences psychologiques et sociales de la modération de contenus violents pour les travailleurs kenyans ?
:fleche: Quelles seraient les alternatives possibles à la sous-traitance de la modération de contenus sensibles à des pays à faible revenu ?
:fleche: À votre avis, la modération de contenus violents peut-elle affecter la santé mentale et les relations sociales des travailleurs ?
:fleche: Quelles sont les autres solutions envisageables pour gérer la modération de contenus sensibles sans faire appel à des pays à faible revenu ?
Voir aussi :
:fleche: OpenAI a fait appel à des travailleurs kenyans payés moins de 2 dollars par heure pour rendre ChatGPT moins toxique, les experts jugent ce tarif faible en raison des "tâches ingrates" des employés
:fleche: Les modérateurs de contenu de Facebook au Kenya qualifient leur travail de torture, leur action en justice pourrait avoir des répercussions dans le monde entier
:fleche: Des travailleurs chinois décrivent des conditions extrêmement difficiles dans une usine de montage d'iPhone, mais Apple déclare qu'il n'en est rien
On est pas si mal en France
Rien d'étonnant, de nombreuses personnes travaillent dans des conditions inhumaines. Dans notre petit confort d'Européens, on ne risque pas de s'en rendre compte...
Pourtant, on aime bien se plaindre de notre travail alors que clairement les conditions de travail que l'on a (pour la plupart il y a quelques exceptions bien évidemment) sont clairement "cool". Ce n'est pas avec un petit 35h ou même un 39h que l'on va se tuer à la tâche...
Article intéressant qui nous fait comprendre que malgré tout, on est plutôt bien lotis en France ;)
1 pièce(s) jointe(s)
ChatGPT, le bot d’IA qui penche à gauche ? Oui, selon une étude qui a révélé son biais politique
ChatGPT, le bot d’IA qui penche à gauche ? Oui, selon une étude qui a révélé son biais politique
en analysant ses réponses à un sondage sur les croyances politiques
Un article de chercheurs basés au Royaume-Uni suggère que ChatGPT d'OpenAI a un parti pris libéral, soulignant à quel point les sociétés d'intelligence artificielle ont du mal à contrôler le comportement des robots alors même qu'elles les diffusent auprès de millions d'utilisateurs dans le monde.
Dans le cadre de l'étude, menée par des chercheurs de l'Université d'East Anglia, il a été demandé à ChatGPT de répondre à une enquête sur les convictions politiques comme l'IA « pensait » que les partisans des partis libéraux aux États-Unis, au Royaume-Uni et au Brésil pourraient y répondre. Les chercheurs ont ensuite demandé à ChatGPT de répondre aux mêmes questions sans aucune invite et ont comparé les deux ensembles de réponses. Les résultats ont montré un « préjugé politique significatif et systématique envers les démocrates aux États-Unis, Lula au Brésil et le Parti travailliste au Royaume-Uni », ont écrit les chercheurs, faisant référence à Luiz Inácio Lula da Silva, président de gauche du Brésil.
L'auteur principal, le Dr Fabio Motoki, de la Norwich Business School de l'Université d'East Anglia, a déclaré : « avec l'utilisation croissante par le public de systèmes alimentés par l'IA pour découvrir des faits et créer de nouveaux contenus, il est important que les réponses (output) des plateformes populaires comme ChatGPT soient aussi impartiales que possible ».
« La présence de préjugés politiques peut influencer les opinions des utilisateurs et a des implications potentielles pour les processus politiques et électoraux.
« Nos résultats renforcent les inquiétudes selon lesquelles les systèmes d'IA pourraient reproduire, voire amplifier, les défis existants posés par Internet et les médias sociaux ».
Les chercheurs ont développé une méthode pour tester la neutralité politique de ChatGPT. La plate-forme a été invitée à se faire passer pour des individus de tous les horizons politiques tout en répondant à une série de plus de 60 questions idéologiques. Les réponses ont ensuite été comparées aux réponses par défaut de la plateforme au même ensemble de questions, ce qui a permis aux chercheurs d'évaluer dans quelle mesure les réponses de ChatGPT étaient associées à une position politique particulière.
Pour surmonter les difficultés causées par le caractère aléatoire inhérent des «*grands modèles de langage*» qui alimentent les plates-formes d'IA telles que ChatGPT, chaque question a été posée 100*fois et les différentes réponses ont été collectées. Ces réponses multiples ont ensuite été soumises à un "bootstrap" de 1000 répétitions (une méthode de rééchantillonnage des données d'origine) pour augmenter encore la fiabilité des inférences tirées du texte généré.
« Nous avons créé cette procédure car effectuer une seule série de tests ne suffit pas », a déclaré le co-auteur Victor Rodrigues. Pour illustrer pourquoi il était nécessaire de faire plusieurs tests, il a expliqué « qu'en raison du caractère aléatoire du modèle, même en se faisant passer pour un démocrate, les réponses ChatGPT penchaient parfois vers la droite du spectre politique ».
Un certain nombre d'autres tests ont été entrepris pour s'assurer que la méthode était aussi rigoureuse que possible. Dans un « test dose-réponse », ChatGPT a été invité à imiter des positions politiques radicales. Dans un « test placebo », on lui a posé des questions politiquement neutres. Et dans un «test d'alignement profession-politique», il a été demandé de se faire passer pour différents types de professionnels.
« Nous espérons que notre méthode facilitera l'examen et la réglementation de ces technologies en développement rapide », a déclaré le co-auteur, le Dr Pinho Neto. « En permettant la détection et la correction des biais LLM, nous visons à promouvoir la transparence, la responsabilité et la confiance du public dans cette technologie », a-t-il ajouté.
Le nouvel outil d'analyse unique créé par le projet serait disponible gratuitement et relativement simple à utiliser pour les membres du public, « démocratisant ainsi la surveillance », a déclaré le Dr Motoki. En plus de vérifier les préjugés politiques, l'outil peut être utilisé pour mesurer d'autres types de préjugés dans les réponses de ChatGPT.
Des sources potentielles
Bien que le projet de recherche n'ait pas cherché à déterminer les raisons du parti pris politique, les résultats ont indiqué deux sources potentielles.
La première était l'ensemble de données de formation - qui peut contenir des biais ou y être ajouté par les développeurs humains, que la procédure de "nettoyage" des développeurs n'avait pas réussi à supprimer. La deuxième source potentielle était l'algorithme lui-même, qui peut amplifier les biais existants dans les données de formation.
L'article s'ajoute à un nombre croissant de recherches sur les chatbots montrant que malgré le fait que leurs concepteurs essayent de contrôler les biais potentiels, les bots sont imprégnés d'hypothèses, de croyances et de stéréotypes trouvés dans les rames de données extraites de l'Internet ouvert sur lesquelles ils sont formés.
Les enjeux sont de plus en plus élevés. Alors que les États-Unis se dirigent vers l'élection présidentielle de 2024, les chatbots font désormais partie du quotidien de certaines personnes, qui utilisent ChatGPT et d'autres bots comme Google's Bard pour résumer des documents, répondre à des questions et les aider dans leur rédaction professionnelle et personnelle. Google a commencé à utiliser sa technologie de chatbot pour répondre aux questions directement dans les résultats de recherche, tandis que les campagnes politiques se sont tournées vers les bots pour rédiger des e-mails de collecte de fonds et générer des publicités politiques.
ChatGPT dira aux utilisateurs qu'il n'a pas d'opinions ou de convictions politiques, mais en réalité, il montre certains préjugés, a déclaré Fabio Motoki, maître de conférences à l'Université d'East Anglia à Norwich, en Angleterre, et l'un des auteurs de l'article. « Il y a un danger d'éroder la confiance du public ou peut-être même d'influencer les résultats des élections ».
Les biais dans les réponses de l'IA générative, une source d'inquiétude
OpenAI a déclaré qu'il disait explicitement à ses formateurs humains de ne favoriser aucun groupe politique spécifique. Tous les biais qui apparaissent dans les réponses ChatGPT « sont des bogues, pas des fonctionnalités », a déclaré la société dans un article de blog en février.
Citation:
Envoyé par OpenAI
Beaucoup s'inquiètent à juste titre des biais dans la conception et l'impact des systèmes d'IA. Nous nous engageons à résoudre ce problème avec fermeté et à être transparents sur nos intentions et nos progrès. À cette fin, nous partageons une partie de nos lignes directrices qui se rapportent à des sujets politiques et controversés. Nos directives stipulent clairement que les examinateurs ne doivent favoriser aucun groupe politique. Les biais qui peuvent néanmoins émerger du processus décrit ci-dessus sont des bogues, pas des fonctionnalités.
Bien que des désaccords existeront toujours, nous espérons que le partage de cet article de blog et de ces instructions vous donnera un meilleur aperçu de la façon dont nous percevons cet aspect critique d'une technologie aussi fondamentale. Nous sommes convaincus que les entreprises technologiques doivent être responsables de l'élaboration de politiques qui résistent à l'examen.
Bien que les chatbots soient une « technologie passionnante, ils ne sont pas sans défauts », ont reconnu les dirigeants de Google AI dans un article de blog en mars annonçant le large déploiement de Bard.
Citation:
Envoyé par Google
Bien que les LLM soient une technologie passionnante, elles ne sont pas sans défauts. Par exemple, parce qu'ils apprennent à partir d'un large éventail d'informations qui reflètent les préjugés et les stéréotypes du monde réel, ceux-ci apparaissent parfois dans leurs résultats. Et ils peuvent fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec confiance. Par exemple, lorsqu'on lui a demandé de partager quelques suggestions de plantes d'intérieur faciles, Bard a présenté des idées de manière convaincante… mais il y a eu des erreurs, comme le nom scientifique de la plante ZZ.
Bien qu'il soit important d'être conscient de défis comme ceux-ci, les LLM présentent toujours des avantages incroyables, tels que le démarrage de la productivité humaine, de la créativité et de la curiosité. Ainsi, lorsque vous utilisez Bard, vous aurez souvent le choix entre plusieurs versions différentes de sa réponse afin que vous puissiez choisir le meilleur point de départ pour vous. Vous pouvez continuer à collaborer avec Bard à partir de là, en posant des questions de suivi. Et si vous voulez voir une alternative, vous pouvez toujours demander à Bard de réessayer.
Pendant des années, un débat a fait rage sur la façon dont les médias sociaux et Internet affectent les résultats politiques. Internet est devenu un outil essentiel pour diffuser des messages politiques et permettre aux gens de se renseigner sur les candidats, mais en même temps, les algorithmes des médias sociaux qui stimulent les messages les plus controversés peuvent également contribuer à la polarisation. Les gouvernements utilisent également les médias sociaux pour tenter de semer la dissidence dans d'autres pays en renforçant les voix radicales et en diffusant de la propagande.
La nouvelle vague de chatbots s'appuyant sur l'IA générative comme ChatGPT d'OpenAI, Bard de Google et Bing de Microsoft sont basés sur de « grands modèles de langage », des algorithmes qui ont extrait des milliards de phrases de l'Internet ouvert et peuvent répondre à une gamme d'invites ouvertes, leur donnant la capacité de passer des examens professionnels, de créer de la poésie et de décrire des problèmes politiques complexes. Mais parce qu'ils sont formés sur tant de données, les entreprises qui les construisent ne peuvent pas contrôler tout ce qui se passe dans les bots. Internet reflète les préjugés des gens, de sorte que les bots adoptent également ces préjugés.
Sources : étude, OpenAI, Google
Et vous ?
:fleche: Que pensez-vous des procédés des chercheurs pour vérifier la neutralité politique de ChatGPT ?
:fleche: Êtes-vous surpris par leurs conclusions ?
:fleche: Quelle est votre opinion sur le biais politique de ChatGPT ? Pensez-vous qu’il soit intentionnel ou accidentel ?
:fleche: Comment pensez-vous que le biais politique de ChatGPT peut affecter les utilisateurs qui interagissent avec lui ? Quels sont les risques et les opportunités ?
:fleche: Que pensez-vous de l’utilisation de Bard bot par Google dans les résultats de recherche ? Trouvez-vous cela utile ou intrusif ?
:fleche: Quelles sont les mesures que les entreprises d’IA devraient prendre pour contrôler le comportement des bots et éviter les biais politiques ? Quel est le rôle des régulateurs et des utilisateurs dans ce processus ?
:fleche: Avez-vous déjà utilisé ChatGPT ou un autre bot d’IA pour discuter de questions politiques ? Si oui, comment a été votre expérience ? Si non, pourquoi pas ?
« L’IA est un raz-de marée aussi important qu’Internet », d’après le PDG de Microsoft
« L’IA est un raz-de marée aussi important qu’Internet », d’après le PDG de Microsoft
Qui ravive les craintes sur la possible mise au rebut des développeurs humains
L’essor de l’intelligence artificielle est comparable à un raz-de-marée. Et si l’on admet qu’Internet avait provoqué un lors de son avènement alors les deux sont au moins de taille similaire. C’est un récent avis formulé par Satya Nadella qui s’inscrit à la suite de Bill Gates : « l’essor des chatbots est tout aussi important que l’avènement d’Internet. » Les raz-de-marée sont connus pour provoquer des bouleversements et c’est en cela que l’intelligence artificielle soulève des questionnements. Cette technologie est-elle susceptible de provoquer une mise au rebut des développeurs humains ?
ChatGPT a réussi à l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires US. Un internaute a proposé une compilation des réponses proposées par le chatbot après avoir souligné que l’intelligence artificielle a pris 32 points sur les 36 possibles. ChatGPT a en sus réussi l’examen de codage Google pour un ingénieur de niveau 3 avec un salaire de 183 000 $. Ce sont des raisons pour lesquelles certains observateurs sont d’avis que les travailleurs de la filière du développement informatique sont menacés par l’IA. Emad Mostaque, PDG de Stability AI en fait partie et prédit qu’il n’y aura plus de programmeurs dans 5 ans. Sa sortie s’avère néanmoins être en contradiction avec celle d’autres acteurs parmi lesquels on compte le CEO de GitHub.
« C’est un fait : 41 % de tout le code informatique sur GitHub est généré par une intelligence artificielle. ChatGPT est déjà capable de passer un examen de codage pour ingénieur de niveau 3 », souligne Emad Mostaque avant d’ajouter « qu’il n’y aura pas de programmeurs humains dans 5 ans. »
« J’ai demandé à GPT-4 de m’aider à produire du code pour une version 3D du jeu Asteroid, j’ai ensuite copié et collé le code qui a fonctionné d’un coup », ajoute-t-il. En fait, Emad Mostaque est d’avis que l’intelligence artificielle ouvre la porte à tous les individus désireux d’intervenir dans la filière du développement informatique : « Chacun de vous peut désormais être créatif. Chacun de vous peut désormais mettre sur pied des systèmes pour répondre aux besoins des gens. »
C’est un avis qui rejoint celui du propriétaire de la plateforme de distribution de jeux vidéo FRVR selon lequel « Tout le monde pourra créer des jeux vidéo » grâce à l’intelligence artificielle. Ce dernier propose une forge logicielle dénommée FRVR pour « permettre à quiconque de créer des jeux juste en les décrivant. »
« L’objectif est de mettre sur pied une plateforme où créer, jouer et partager des jeux est aussi facile que d'enregistrer, de regarder et de partager des vidéos sur des plateformes telles que TikTok et Instagram », ajoute-t-il. Une démonstration (d’une dizaine de minutes) des possibilités offertes par la plateforme est disponible. Elle montre les étapes de l’implémentation d’un jeu de tir spatial en s’appuyant sur ladite forge.
Et ce n’est qu’un début pour Matt Welsh – CEO et cofondateur de la startup IA Fixie.ai. « ChatGPT et autres GitHub Copilot donnent juste un aperçu introductif de ce que la filière informatique sera dans l’avenir », déclare-t-il.
« Les assistants de programmation tels que CoPilot ne font qu'effleurer la surface de ce que je décris. Il me semble tout à fait évident qu'à l'avenir, tous les programmes seront écrits par des intelligences artificielles, les humains étant relégués, au mieux, à un rôle de supervision. Quiconque doute de cette prédiction n'a qu'à regarder les progrès très rapides réalisés dans d'autres aspects de la génération de contenu par l'intelligence artificielle, comme la génération d'images. La différence de qualité et de complexité entre DALL-E v1 et DALL-E v2 - annoncée seulement 15 mois plus tard - est stupéfiante. Si j'ai appris quelque chose au cours de ces dernières années à travailler dans le domaine de l'IA, c'est qu'il est très facile de sous-estimer la puissance de modèles d'IA de plus en plus grands. Des choses qui semblaient relever de la science-fiction il y a seulement quelques mois deviennent rapidement réalité.
Je ne parle pas seulement du fait que CoPilot de Github de remplacer les programmeurs. Je parle de remplacer le concept même d'écriture de programmes par des agents d’intelligence artificielle dédiés. À l'avenir, les étudiants en informatique n'auront pas besoin d'apprendre des compétences aussi banales que l'ajout d'un nœud à un arbre binaire ou le codage en C++. Ce type d'enseignement sera dépassé, comme celui qui consiste à apprendre aux étudiants en ingénierie à utiliser une règle à calcul », prédit-il.
Le CEO de GitHub est pour sa part d’avis que « le développeur humain restera l’expert qui comprend le code et vérifie que ce qui a été synthétisé par l’IA correspond bien à son intention »
Le CEO de GitHub a déclaré lors d’un récent entretien que ce n’est qu’une question de temps avant que l’intelligence artificielle Copilot n’écrive 80 % du code informatique. Ce dernier se veut néanmoins clair sur le rapport entre les développeurs et l’intelligence artificielle pour ce qui est des possibles évolutions dans la filière : « Le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'IA correspond bien à l'intention du développeur. »
« De nos jours, les développeurs ne passent pas la majeure partie de leur temps à coder - entre deux et quatre heures par jour sont consacrées à l'écriture du code. Le reste de la journée, ils font d'autres choses, comme des réunions, des rapports de crash. Avec Copilot, si vous ne disposez que de deux à quatre heures par jour pour coder, vous pouvez mieux utiliser ce temps. Vous pouvez utiliser ce temps pour rester dans le flux, pour faire le travail et prendre plaisir à le faire », ajoute-t-il pour ce qui est de la charge de travail journalière.
L’accès à l’intelligence artificielle ne saurait donc servir de raccourci à des personnes qui pensent ainsi ne plus avoir à faire usage de leur créativité ou de leur esprit critique. Même Google le confirme lors de l’annonce selon laquelle son IA Bard peut désormais aider à coder et à créer des fonctions pour Google Sheets : « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. »
Et vous ?
:fleche: Êtes-vous d’accord avec les avis selon lesquels ce n’est qu’une question de temps avant que l’intelligence artificielle ne s’accapare tous les postes de développeur informatique ?
:fleche: Ou êtes-vous en phase avec l’avis du CEO de GitHub selon lequel « Le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'IA correspond bien à l'intention du développeur », ce, même après l’atteinte du stade d’IA de niveau humain ?
:fleche: Quelles évolutions du métier de développeur entrevoyez-vous dans les 5 à 10 prochaines années au vu de l'adoption de l'intelligence artificielle dans la filière ?
Voir aussi :
:fleche: La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
:fleche: La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
:fleche: Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
:fleche: Les actions Tesla chutent après que son système d'autopilote est impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu
3 pièce(s) jointe(s)
Bing a du mal à rattraper Google sur le marché de la recherche, malgré son chatbot basé sur l'IA
Bing a du mal à rattraper Google sur le marché de la recherche, malgré son chatbot basé sur l'IA.
six mois après avoir incorporé l'IA, les résultats de Bing sont décevants et Google reste le leader incontesté
Microsoft a lancé en février une nouvelle version de son moteur de recherche Bing, basée sur l’intelligence artificielle (IA). Le géant du logiciel espérait ainsi gagner des parts de marché face à Google, le leader incontesté de la recherche en ligne. Mais six mois après, les résultats sont décevants : Bing n’a pas réussi à décoller et reste loin derrière Google.
En mars, un mois après le lancement d'une nouvelle version de Bing incorporant un chatbot, un agent conversationnel qui peut répondre aux requêtes des utilisateurs de manière naturelle et personnalisée, Microsoft semblait ravie.
« Nous voyons cet attrait du nouveau Bing comme une validation de notre point de vue selon lequel la recherche doit être réinventée et de la proposition de valeur unique de combiner Recherche + Réponses + Chat + Création en une seule expérience », a déclaré le vice-président.
En plus de voir une augmentation des chiffres, Microsoft a indiqué connaître une croissance de l'engagement, avec plus de personnes effectuant plus de recherches. La société attribue deux facteurs à cette victoire particulière, le premier étant la croissance de l'utilisation d'Edge, probablement aidée par l'ajout de l'IA de chat de Bing en tant que nouvelle fonctionnalité. Elle a également déclaré que l'introduction de son modèle d'IA Prometheus a rendu les résultats de recherche de Bing plus pertinents, de sorte que les gens utilisent (ou du moins essaient) le moteur de recherche davantage.
Apparemment, environ un tiers des utilisateurs de l'aperçu quotidien de Bing se sert de manière quotidienne de son IA de chat pour les requêtes. En moyenne, Microsoft voit trois chats par session, avec plus de 45 millions de chats depuis qu'il a introduit le nouveau Bing. De plus, dans 15% de toutes les sessions de chat, les gens ont utilisé Bing pour générer du nouveau contenu. Le lancement du chatbot AI de Bing sur mobile a également propulsé le moteur de recherche à un nouveau niveau de popularité et a entraîné une multiplication par six du nombre d'utilisateurs actifs quotidiens avant qu'il ne soit disponible.
Citation:
Envoyé par Microsoft
Nous sommes heureux de partager qu'après plusieurs années de progrès constants, et avec un petit coup de pouce du million de nouveaux utilisateurs de Bing Preview, nous avons dépassé les 100 millions d'utilisateurs actifs quotidiens de Bing. Il s'agit d'un chiffre étonnamment notable, et pourtant nous sommes pleinement conscients que nous restons un petit acteur à part faible et à un chiffre de part de marché. Cela dit, ça fait du bien de participer au bal !
Parmi les millions d'utilisateurs actifs du nouvel aperçu de Bing, il est bon de voir qu'environ un tiers sont nouveaux sur Bing. Nous voyons cet attrait du nouveau Bing comme une validation de notre point de vue selon lequel la recherche doit être réinventée et de la proposition de valeur unique consistant à combiner Recherche + Réponses + Chat + Création en une seule expérience.
Deuxièmement, non seulement nous constatons une croissance du nombre de nouveaux utilisateurs, mais nous constatons une augmentation de l'engagement à mesure que de plus en plus de personnes effectuent plus de recherches quotidiennement.
Deux facteurs motivent l'essai et l'utilisation. L'un est que Microsoft Edge continue de croître en termes d'utilisation comme il l'a fait au cours des sept derniers trimestres en fonction de la qualité de notre navigateur. Nous nous attendons à ce que de nouvelles fonctionnalités, telles que la recherche et la création de Bing dans la barre latérale Edge, renforcent la croissance.
Le deuxième facteur déterminant l'essai et l'utilisation est que notre classement de recherche Web principal a fait plusieurs sauts significatifs en termes de pertinence en raison de l'introduction du modèle Prometheus, de sorte que la qualité de notre recherche Bing est à un niveau record.
Alors que de plus en plus de personnes utilisent les nouveaux Bing et Edge, nous assistons à des essais et à l'adoption de nouvelles fonctionnalités qui prouvent la valeur d'une expérience de recherche + chat intégrée. Environ un tiers des utilisateurs de l'aperçu quotidien utilisent Chat quotidiennement. Nous voyons en moyenne environ trois chats par session avec plus de 45 millions de chats au total depuis le début de la Preview. Et 15 % des sessions de chat sont des personnes qui utilisent Bing pour générer de nouveaux contenus démontrant que nous étendons la recherche à la créativité.
Six mois après son lancement, le nouveau Bing semble n'avoir pas atteint ses objectifs ambitieux
Dans une histoire qui aurait pu être scénarisée par Molière lui-même (s'il était un passionné de technologie), le très attendu Bing avec Bing Chat a fait irruption sur la scène, promettant de détrôner le géant de la recherche Google. Malheureusement, la mayonnaise n'a pas pris : « David tue Goliath » est devenue « Goliath rit de la tentative de David ».
Six mois après son lancement, le nouveau Bing semble n'avoir pas atteint ses objectifs ambitieux. Microsoft, le cerveau derrière cette entreprise, est déconcertée : malgré les applaudissements de l'IA, la part de marché de la recherche mondiale de Bing est plutôt restée constante.
Il faut dire que Microsoft avait estimé que si Bing pouvait grignoter ne serait-ce qu’un point de pourcentage à Google, cela pourrait lui rapporter 2 milliards de dollars de revenus supplémentaires. Mais les données externes montrent que Bing n’a pas bougé d’un iota depuis son lancement : il détient toujours 3% de part de marché mondiale, selon StatCounter, et environ 1% des visiteurs mensuels de Google, selon Similarweb.
Marché américain
Commençons par ses statistiques à domicile. La part de marché de recherche de Bing aux États-Unis a atteint 6,47 % en juillet. Cela ne semble-t-il pas raisonnable ? Pas assez. Il n'était que de 6,35% lorsque ce nouveau Bing brillant est arrivé en février. Pour ajouter à l'ironie, il a temporairement culminé à 6,61 % en mars.
Mais attendez, il y a plus ! Retournons en 2022, une année de gloire pour Bing, où sa part de marché aux États-Unis faisait un tango bien au-dessus de 7 %, allant même jusqu'à 7,82 % en novembre. Pourtant, rendus en octobre 2023, nous pouvons légitimement nous demander ce qui s'est passé après cette introduction en grande pompe de l'IA.
Marché français
En France, Bing fait mieux et s'offre une part de marché de 4,01 %.
Marché mondial
La part de marché de recherche mondiale de Bing était de 2,99 % en juillet. Par rapport à une période plus détendue en janvier, Bing était à 3,03 %. D'un autre côté, Bing se pavanait au-dessus de 3% avec la confiance d'une rockstar en 2022.
Microsoft conteste ces chiffres
Microsoft conteste ces chiffres et affirme que Bing a gagné du terrain face à Google. La société dit que ses données internes montrent une augmentation de ses recherches mobiles et de son navigateur Edge. « Nous avons fait plus de progrès en six mois qu’en une décennie ou deux combinées », a déclaré Yusuf Mehdi, le directeur marketing de Microsoft pour les produits grand public. « Nous sommes ravis de notre départ ».
Selon un rapport du WSJ, Microsoft a contesté les « données extérieures » en arguant que ces assistants de données tiers ne rassemblent pas tous les visiteurs de la page de conversation de Bing.
Mais StatCounter a répondu : « Attendez, nous avons couvert le trafic vers et depuis le chat de Bing ». De même, SimilarWeb a déclaré: « Oui, nous pourrions manquer une interaction Bing Chat ou deux avec la barre latérale Edge, mais qui compte vraiment ? » [comprendre que c'est l'idée des propos de SimilarWeb]
De plus, les experts sont sceptiques. Ils estiment que Bing souffre d’un problème d’image et d’habitude : les internautes sont habitués à utiliser Google, qui offre une expérience simple et efficace. Le chatbot de Bing, quant à lui, est perçu comme un gadget qui n’apporte pas de valeur ajoutée réelle. « C’est mignon, mais pas un au point d'être un "game changer" », a commenté Daniel Tunkelang, un consultant en recherche qui a travaillé pour Google et LinkedIn.
Quoi qu'il en soit, Bing détenait une part de marché de 17,9 % il y a dix ans, ce qui est bien loin des efforts d'aujourd'hui.
Google n’a pas tardé à réagir face à la menace potentielle de Bing. La grande enseigne du web a lancé en juin sa propre version de chatbot basée sur l’IA, appelée MUM (Multitask Unified Model). Ce modèle est capable de comprendre le langage naturel, le contexte et les intentions des utilisateurs, et de leur fournir des réponses pertinentes et complètes. Google affirme que MUM est 1 000 fois plus puissant que son précédent système d’IA, BERT.
La bataille entre Microsoft et Google pour la suprématie dans la recherche en ligne est donc loin d’être terminée. Les deux rivaux vont continuer à investir dans l’IA pour améliorer leurs produits et attirer les utilisateurs. Mais pour l’instant, Google reste le maître incontesté du domaine, avec plus de 90% de part de marché mondial. Bing sera-t-il à la hauteur de l'occasion ou s'effacera-t-il ? Seul le temps nous le dira, et peut-être une autre entreprise alimentée par l'IA. En attendant, Bing doit faire preuve d’innovation et de persuasion pour changer la donne.
Sources : StatCounter, Wall Street Journal
Et vous ?
:fleche: Que pensez-vous des chiffres avancés par les baromètres dans l'utilisation des moteurs de recherche ? Êtes-vous surpris ou pas du tout du manque de progression de Bing malgré l'ajout de l'IA ?
:fleche: Avez-vous changé vos habitudes de recherches depuis l'arrivée de ChatGPT ? Si oui, à quelle fréquence utilisez-vous un moteur de recherche alimenté par l'IA ?
:fleche: Comprenez-vous la réaction de Microsoft qui estime que les baromètres ce sont trompés dans leurs statistiques ?
:fleche: Partagez-vous le point de vue des experts sceptiques qui voient un « Bing ChatGPT » plus comme un gadget pour le public qu'autre chose ?
:fleche: Pensez-vous que le chatbot de Bing soit une avancée significative pour la recherche en ligne ou un simple gadget marketing ?
:fleche: Connaissez-vous d’autres moteurs de recherche qui utilisent l’IA ou qui proposent des approches différentes ?
:fleche: Quelles sont vos attentes et vos suggestions pour l’avenir de la recherche en ligne ? Quelles sont les fonctionnalités ou quels sont les services que vous aimeriez voir apparaître ou s’améliorer ?
2 pièce(s) jointe(s)
OpenAI en passe de générer plus d'un milliard de dollars de revenus
OpenAI en passe de générer plus d'un milliard de dollars de revenus,
suite à l'augmentation des dépenses en IA des grandes entreprises
OpenAI, la société d’intelligence artificielle soutenue par Microsoft, est en passe de générer plus d’un milliard de dollars de revenus au cours des 12 prochains mois grâce à la vente de logiciels d’IA et de la capacité de calcul qui les alimente, selon un rapport publié mardi par The Information. La société génère actuellement plus de 80 millions de dollars de revenus par mois, ajoute le rapport.
OpenAI, fondée en 2015 par un groupe d’entrepreneurs et de chercheurs renommés dans le domaine de l’IA, se présente comme une organisation qui vise à créer une intelligence artificielle générale (IAG), capable de réaliser toutes les tâches qu’un humain peut accomplir. La société développe également des applications d’IA plus spécifiques, telles que GPT-3, un système de génération de texte qui peut produire des contenus variés, allant des articles de blog aux codes informatiques, en fonction des requêtes des utilisateurs.
OpenAI propose ses services d’IA à travers deux plateformes principales : OpenAI Codex et OpenAI Access. OpenAI Codex est une interface qui permet aux développeurs d’utiliser GPT-3 et d’autres modèles d’IA pour créer des applications personnalisées. OpenAI Access est une offre qui donne accès à la puissance de calcul nécessaire pour exécuter ces modèles d’IA. Les deux plateformes sont facturées en fonction de l’utilisation et du niveau de service.
Selon The Information, OpenAI compte parmi ses clients des grandes entreprises telles que Reddit, Shopify, GitHub et Stripe, ainsi que des start-up et des universités. La demande pour les services d’IA de la société a augmenté au cours de l’année écoulée, alors que la pandémie de COVID-19 a accéléré la transformation numérique et l’adoption de l’IA dans divers secteurs. OpenAI a également bénéficié du soutien financier et stratégique de Microsoft, qui a investi un milliard de dollars dans la société en 2019 et qui lui fournit l’accès à sa plateforme cloud Azure.
OpenAI n’est pas la seule entreprise à profiter du boom de l’IA
Les grandes enseignes de la tech sont les principaux acteurs du secteur de l’IA. Elles disposent de grandes quantités de données, de puissants réseaux de neurones artificiels et de larges budgets pour développer et acquérir des solutions innovantes. Parmi elles, nous pouvons citer :
- Alphabet : la maison-mère de Google possède plusieurs filiales dédiées à l’IA, comme Google Cloud AI, qui propose des services cloud basés sur l’IA, ou TensorFlow, une plateforme open source pour créer et entraîner des modèles d’apprentissage automatique. Alphabet a également racheté plusieurs startups spécialisées dans l’IA, comme DeepMind, qui a développé AlphaGo, un programme capable de battre les meilleurs joueurs de go au monde.
- Microsoft : la grande enseigne du logiciel propose Azure AI, une plateforme cloud qui intègre des services d’IA comme la reconnaissance faciale, la traduction automatique ou le chatbot. Microsoft est aussi le principal partenaire d’OpenAI.
- Amazon : le leader du e-commerce dispose d’AWS AI, une offre cloud qui regroupe des outils d’IA comme la compréhension du langage naturel, la synthèse vocale ou l’analyse d’images. Amazon utilise aussi l’IA pour optimiser ses processus internes, comme la gestion des stocks, la livraison ou la recommandation de produits. Amazon a également acquis des entreprises liées à l’IA, comme Zoox, qui développe des véhicules autonomes.
- Meta : le nouveau nom de Facebook reflète sa volonté de se positionner sur le marché du métavers, un univers virtuel où les utilisateurs peuvent interagir grâce à des avatars. Pour cela, Meta mise sur l’IA pour créer des expériences immersives et personnalisées. Ses équipes ont créé des outils IA comme PyTorch, un framework open source pour l’apprentissage profond.
- IBM : l'un des pionniers de l’informatique est connu pour son système d’IA Watson, qui peut répondre à des questions en langage naturel et analyser des données complexes. IBM propose aussi des solutions d’IA pour différents secteurs, comme la santé, la finance ou l’éducation. IBM a par ailleurs vendu sa division dédiée aux processeurs pour se concentrer sur le cloud et l’IA5.
- Baidu : le moteur de recherche chinois est un leader dans le domaine de l’IA en Chine. Baidu offre des services d’IA comme la reconnaissance vocale, la conduite autonome ou les assistants virtuels. Baidu a également créé une plateforme open source nommée PaddlePaddle, qui permet aux développeurs de construire et déployer des applications d’IA6.
- Tencent : la grande enseigne du jeu vidéo et des réseaux sociaux en Chine investit massivement dans l’IA pour améliorer ses produits et services. Tencent utilise l’IA pour optimiser ses jeux en ligne, ses plateformes sociales comme WeChat ou ses services financiers comme WeBank. Tencent a aussi lancé une initiative nommée AI Lab, qui vise à promouvoir la recherche et l’éducation sur l’IA7.
Les startups ne sont pas en reste
Les startups sont aussi des acteurs importants du secteur de l’IA. Elles apportent des solutions originales et disruptives, qui peuvent attirer l’attention des investisseurs ou des grands groupes. Parmi elles, on peut mentionner :
DataRobot : cette entreprise américaine est spécialisée dans l’automatisation de l’apprentissage automatique, qui permet aux utilisateurs de créer et déployer des modèles d’IA sans avoir besoin de coder. DataRobot propose une plateforme cloud qui simplifie et accélère le processus de développement d’IA. DataRobot a levé plus de 1 milliard de dollars depuis sa création en 2012, et compte parmi ses clients des entreprises comme United Airlines, Deloitte ou Kroger.
SenseTime : cette entreprise chinoise évolue dans le domaine de la vision par ordinateur, qui permet aux machines de comprendre et d’interpréter les images. SenseTime propose des solutions d’IA pour la sécurité, la santé, le divertissement ou encore l’éducation. SenseTime a levé plus de 3 milliards de dollars depuis sa création en 2014, et compte parmi ses clients des poids lourds comme Alibaba, Huawei ou Xiaomi.
Anthropic voudrait lever jusqu'à 5 milliards de dollars en deux ans pour affronter ChatGPT d'OpenAI
Anthropic prévoit de construire un « modèle frontière » au cours des 18 prochains mois appelé « Claude-next » qui serait 10 fois plus puissant que les modèles d'IA actuels et coûterait un milliard de dollars à développer. Le modèle frontière est décrit dans les documents comme un « algorithme de nouvelle génération pour l'autoapprentissage de l'IA », avec des références à la technique de formation à l'IA exclusive de l'entreprise appelée IA constitutionnelle, qui implique à la fois un apprentissage supervisé et une phase d'apprentissage par renforcement. À un niveau élevé, l'IA constitutionnelle cherche à fournir un moyen d'aligner l'IA sur les intentions humaines (permettant aux systèmes de répondre aux questions et d'effectuer des tâches en utilisant un ensemble simple de principes directeurs).
Anthropic estime que son modèle frontière nécessitera de l'ordre de 1025 FLOP, soit plusieurs ordres de grandeur plus grands que même les plus grands modèles actuels. Bien sûr, la façon dont cela se traduit en temps de calcul dépend de la vitesse et de l'échelle du système effectuant le calcul ; Anthropic implique (dans le pitch) qu'il s'appuie sur des clusters avec « des dizaines de milliers de GPU ».
Ce modèle frontière pourrait être utilisé pour créer des assistants virtuels capables de répondre aux e-mails, d'effectuer des recherches et de générer de l'art, des livres et plus encore, dont certains que nous avons déjà aperçus avec GPT-4 et d'autres grands modèles de langage. « Ces modèles pourraient commencer à automatiser de grandes parties de l'économie », indique le pitch deck. « Nous pensons que les entreprises qui forment les meilleurs modèles 2025/26 seront trop en avance pour que quiconque les rattrape dans les cycles suivants ».
Le modèle frontière est le successeur de Claude, le chatbot d'Anthropic qui peut être chargé d'effectuer une série de tâches, y compris la recherche dans des documents, la synthèse, l'écriture et le codage, et la réponse à des questions sur des sujets particuliers. De cette manière, il est similaire au ChatGPT d'OpenAI. Mais Anthropic fait valoir que Claude est (grâce à l'IA constitutionnelle) « beaucoup moins susceptible de produire des sorties nocives », qu'il est « plus facile à converser avec » et qu'il est « plus orientable ».
La fièvre de ChatGPT gagne les investisseurs
Selon un rapport du cabinet CB Insights datant de mai, plus de 200 startups utilisant ChatGPT ont levé plus de 10 milliards de dollars au cours des six derniers mois, sans même avoir de plan d’affaires clair ou de modèle économique viable. Ces startups se basent sur la promesse que ChatGPT peut résoudre n’importe quel problème ou fournir n’importe quel service en utilisant le langage naturel comme interface. Par exemple, certaines startups proposent d’utiliser ChatGPT pour créer des assistants virtuels personnalisés, des rédacteurs automatiques de contenu, des traducteurs multilingues, des tuteurs en ligne, des conseillers financiers ou juridiques, des générateurs de slogans publicitaires ou de noms de marque, etc.
Les analystes de la société de recherche PitchBook prédisent que les investissements en capital-risque dans les entreprises d'IA générative seront facilement plusieurs fois supérieurs au niveau de 4,5 milliards de dollars de l'année dernière. Cela est dû en partie à l'investissement de 10 milliards de dollars de Microsoft en janvier dans OpenAI, la startup derrière le très populaire bot ChatGPT. En comparaison, ces investissements ont totalisé 408 millions de dollars en 2018, l'année où OpenAI a publié la version initiale du modèle de langage qui alimente ChatGPT.
Les entrepreneurs et leurs bailleurs de fonds espèrent que l'IA générative changera les activités commerciales de la production de films au service client en passant par la livraison d'épiceries. PitchBook estime que le marché de ces applications d'IA dans la seule technologie d'entreprise passera à 98 milliards de dollars en 2026, contre près de 43 milliards de dollars cette année.
Cependant, comme pour la récente vague d'investissements dans les startups, les investisseurs se lancent souvent dans les startups de l'IA, même lorsqu'il n'est pas clair comment elles réaliseront des bénéfices, d'autant plus que la puissance de calcul nécessaire pour former les services d'IA peut parfois atteindre des dizaines de millions de dollars par an ou plus. L'afflux soudain de capitaux encourage également de nombreux chercheurs en IA, certains sans expérience en gestion ou en exploitation, à créer leur propre entreprise, ce qui renforce la concurrence.
Source : rapport
Et vous ?
:fleche: Quelle lecture faites-vous de ce boom dans les dépenses en IA ? Êtes-vous surpris ?
:fleche: Quelles implications potentielles voyez-vous ?
Voir aussi :
:fleche: Les dépenses en IA générative devraient atteindre 1 300 milliards de dollars d'ici 2032, soit un taux de croissance annuel de 42 % au cours de la prochaine décennie, selon un rapport de Bloomberg