3 pièce(s) jointe(s)
Jon Stewart accuse les PDG de l'industrie de l'IA de faire de « fausses promesses »
L'IA : une menace pour les postes des développeurs informatique humains dans les années à venir ?
C’est ce que suggère la page deathbyai.com qui liste en sus d’autres métiers comme la médecine
Le site deathbyai.com, à la manière de gcemetery.co – connu comme le cimetière des projets de Google, dresse une liste de métiers menacés par la montée en puissance de l’intelligence artificielle et le métier de programmeur informatique en fait partie. Pure spéculation ? Le fait est que les grandes enseignes technologiques semblent s’être lancées dans une révolution de la filière du génie logiciel. Microsoft a fait le premier pas avec GitHub et Copilot, son intelligence artificielle de suggestion de blocs de code. Google veut semble-t-il aller encore plus loin avec un projet secret qui cherche à créer un code capable de s'écrire, de se corriger et de se mettre à jour tout seul. L'initiative s'appuie sur les avancées en matière d'intelligence artificielle. Elle ravive le débat sur la possible disparition d'informaticiens humains à l'avenir.
L'initiative de Google baptisée AI Developer Assistance fait partie des paris de Google dans le domaine de l'intelligence artificielle générative. Les détails du fonctionnement de cet outil à but révolutionnaire restent un mystère. Cependant, certains qui ont été mis en lumière dressent un tableau très intéressant de ce que l'on peut attendre de ce projet. Pitchfork, ou AI Developer Assistance, est en soi un outil qui utilise l'apprentissage automatique pour apprendre au code à s'écrire et se réécrire lui-même.
Comment ? En apprenant des styles correspondant à des langages de programmation, et en appliquant ces connaissances pour écrire de nouvelles lignes de code. L’intention initiale derrière ce projet était de de créer une plateforme capable de mettre automatiquement à jour la base de code Python chaque fois qu'une nouvelle version était publiée, sans nécessiter l'intervention ou l'embauche d'un grand nombre d'ingénieurs.
Cependant, le potentiel du programme s'est avéré beaucoup plus important que prévu. Désormais, l'intention est de donner vie à un système polyvalent capable de maintenir un standard de qualité dans le code, mais sans dépendre de l'intervention humaine dans les tâches de développement et de mise à jour.
Les responsables de Google doivent résoudre plusieurs problèmes avant de le montrer au public. Au-delà des aspects techniques qu’il reste encore à couvrir, le plan juridique et le plan éthique ne seront pas en reste. En effet, la firme californienne a été au centre de la scène à mi-parcours de l’année dans l'affaire de l'ingénieur licencié pour avoir déclaré que LaMDA, son modèle d'intelligence artificielle pour les conversations en langage naturel, avait montré des signes de sensibilité similaires à ceux d’un humain.
L’initiative Pitchfork ravive le débat sur la future disparition des développeurs. En effet, lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, ce, sans plus et celui des intervenants et observateurs qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine. Les retours sur le débat s’accumulent et certains laissent filtrer que l’intelligence artificielle générale pourrait nous tomber dessus dans 5 à 10 ans.
Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » Des intiatives comme Pitchfork se trouveraient alors en pôle position pour provoquer une mise au garage des informaticiens humains.
En attendant d’y être, l’intelligence artificielle actuelle fait montre de limites importantes. Bien qu’on s’appuie déjà sur celle-ci pour diagnostiquer des maladies, effectuer des traductions ou encore transcrire des paroles, le fait est qu’elle continue à faire montre de tares qui indiquent que la mise au rebut des programmeurs humains n’est pas pour demain. GitHub Copilot par exemple est critiqué par la communauté du logiciel open source pour sa reproduction aveugle des blocs de code. De facon plus précise, cette intelligence artificielle produit du code en s’appuyant sur du contenu protégé par le droit d’auteur.
Des informaticiens de l'Université de Stanford ont découvert que les développeurs qui acceptent l'aide d'outils d'IA comme Github Copilot produisent un code moins sécurisé que ceux qui ne les utilisent pas. Dans un article intitulé « Les utilisateurs écrivent-ils plus de code non sécurisé avec des assistants IA ? », les experts de Stanford Neil Perry, Megha Srivastava, Deepak Kumar et Dan Boneh répondent à cette question par l'affirmative. Pire encore, ils ont constaté que l'aide de l'IA avait tendance à tromper les développeurs sur la qualité de leur production.
Source : deathbyai.com
Et vous ?
:fleche: Les développements en cours dans la filière du génie logiciel donnent-ils lieu à des inquiétudes légitimes quant à l’avenir des informaticiens humains dans la filière ?
:fleche: Que vous suggère la possibilité que la recherche aboutisse à l’intelligence artificielle générale dans 5 à 10 ans ?
:fleche: Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?
Voir aussi :
:fleche: La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
:fleche: La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
:fleche: Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
:fleche: Les actions Tesla chutent après que son système d'autopilote soit impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu
« Ecrire des programmes à la main sera dépassé à l’avenir », selon le CEO de la startup IA Fixie.ai
« Ecrire des programmes à la main sera dépassé à l’avenir », selon le CEO de la startup IA Fixie.ai
Qui voit les programmeurs humains céder la place à des intelligences artificielles adaptatives
L’intelligence artificielle menace-t-elle les postes de développeurs informatiques humains dans les années à venir ? Le chatbot ChatGPT d’OpenAI a par exemple réussi l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires US. C’est un accomplissement parmi d’autres à mettre sur le compte de l’intelligence artificielle qui ravive le débat sur la disparition du métier de développeur. Et ce n’est qu’un début pour Matt Welsh – CEO et cofondateur de la startup IA Fixie.ai. « ChatGPT et autres GitHub Copilot donnent juste un aperçu introductif de ce que la filière informatique sera dans l’avenir », déclare-t-il.
« Les assistants de programmation tels que CoPilot ne font qu'effleurer la surface de ce que je décris. Il me semble tout à fait évident qu'à l'avenir, tous les programmes seront écrits par des intelligences artificielles, les humains étant relégués, au mieux, à un rôle de supervision. Quiconque doute de cette prédiction n'a qu'à regarder les progrès très rapides réalisés dans d'autres aspects de la génération de contenu par l'intelligence artificielle, comme la génération d'images. La différence de qualité et de complexité entre DALL-E v1 et DALL-E v2 - annoncée seulement 15 mois plus tard - est stupéfiante. Si j'ai appris quelque chose au cours de ces dernières années à travailler dans le domaine de l'IA, c'est qu'il est très facile de sous-estimer la puissance de modèles d'IA de plus en plus grands. Des choses qui semblaient relever de la science-fiction il y a seulement quelques mois deviennent rapidement réalité.
Je ne parle pas seulement du fait que CoPilot de Github de remplacer les programmeurs. Je parle de remplacer le concept même d'écriture de programmes par des agents d’intelligence artificielle dédiés. À l'avenir, les étudiants en informatique n'auront pas besoin d'apprendre des compétences aussi banales que l'ajout d'un nœud à un arbre binaire ou le codage en C++. Ce type d'enseignement sera dépassé, comme celui qui consiste à apprendre aux étudiants en ingénierie à utiliser une règle à calcul », prédit-il en prélude à la tenue de la prochaine réunion de l’Association for Computing Machinery en janvier.
Lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, ce, sans plus et celui des intervenants et observateurs qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine. Matt Welsh fait partie du deuxième groupe auquel les critiques du second fixent une limite : l’atteinte par les équipes de recherches d’une intelligence artificielle de niveau humain. En effet, le plus grand débat tourne autour de la possibilité de voir les machines rendues à ce stade où elles sont dotées de « bon sens », capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »
Google par exemple est lancé en secret sur le développement de Pitchfork, ou AI Developer Assistance. C’est un outil qui utilise l'apprentissage automatique pour apprendre au code à s'écrire et se réécrire lui-même. Comment ? En apprenant des styles correspondant à des langages de programmation, et en appliquant ces connaissances pour écrire de nouvelles lignes de code.
L’intention initiale derrière ce projet était de créer une plateforme capable de mettre automatiquement à jour la base de code Python chaque fois qu'une nouvelle version était publiée, sans nécessiter l'intervention ou l'embauche d'un grand nombre d'ingénieurs. Cependant, le potentiel du programme s'est avéré beaucoup plus important que prévu. Désormais, l'intention est de donner vie à un système polyvalent capable de maintenir un standard de qualité dans le code, mais sans dépendre de l'intervention humaine dans les tâches de développement et de mise à jour. Un tel objectif pourrait ne plus relever de la science fiction lorsqu’on sait que des équipes de recherche en intelligence artificielle promettent déjà l’atteinte du stade d’intelligence artificielle générale dans 5 à 10 ans.
Source : cacm
Et vous ?
:fleche: Les développements en cours dans la filière du génie logiciel donnent-ils lieu à des inquiétudes légitimes quant à l’avenir des informaticiens humains dans la filière ?
:fleche: Que vous suggère la possibilité que la recherche aboutisse à l’intelligence artificielle générale dans 5 à 10 ans ?
:fleche: Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?
Voir aussi :
:fleche: La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
:fleche: La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
:fleche: Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
:fleche: Les actions Tesla chutent après que son système d'autopilote soit impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu
Remarques sur l'évolution du poste de développeur
De Bonjour à tous,
L'intelligence artificielle ne peut pas tout même, si elle peut beaucoup nous simplifier beaucoup de choses, dans les propos tenus aux États-Unis et qui sont repris dans votre post, il y a beaucoup de désinformation.
Le cerveau humain a les capacités auxquels les intelligences artificielles n'ont pas accès. Elles n'ont pas la capacité de définir une décision stratégique, de faire des choix pour l'ensemble de la population, définir une politique générale comme d'entreprise. Il sera donc toujours nécessaire, sans que cela sera vrai, de développer des cahiers des charges, des spécifications ceci par des ingénieurs suffisamment qualifiés, même s'il est possible à travers l'intelligence artificielle de faciliter tout ce travail en accélérant.
S'il est possible d'avoir des intelligences artificielles pour le développeur, et qu'il n'y aura plus besoin d'écrire une ligne de code, c'est tout à fait possible et nous en sommes assez proches. Des outils d'aide au développement basé sur GPT3 le permettent, avec des gain sans forcément être exhaustifs :
- Pour les jeunes développeurs dans la courbe d'apprentissage.
- En qualité de code lié au commentaire et au travail nécessaire à faire dessus pour avoir les bonnes réponses de la part de GPT3.
- En rapidité développement surtout pour les juniors.
- La capacité de synthétiser et de résumer un document pour en faire une synthèse.
De façon résumé (par GPT-3)
Citation:
En conclusion, l'intelligence artificielle ne peut pas tout, et il sera toujours nécessaire d'avoir un développeur pour les spécifications techniques et pour régler les problèmes liés à ces spécifications.
Ainsi, l'intelligence artificielle est une technologie très intéressante qui peut nous aider à accélérer le travail des développeurs, mais elle ne remplacera jamais complètement le travail des développeurs. Elle ne peut pas tout faire et leur expertise restera toujours nécessaire.
Merci de m'avoir lu !
et la maintenance, kicéki ki la fait ?
hé hé, générer du code automatiquement c'est très bien. mais quand ça ne fonctionne pas comme on veut, qu'il faut déboger, modifier, etc... c'est l'AI qui le fait aussi :aie: ? parce que déboger du code généré par une machine c'est généralement un réel plaisir hein :mouarf: ?
et comme j'ai lu dans un commentaire précédent très pertinent, qui va indiquer à l'AI les règles métier qu'elle doit produire ??? car bien souvent le problème de l'utilisateur est qu'il est incapable d'exprimer son besoin correctement et de façon généraliste. c'est pour ça que les métiers du développement informatique ne se limitent pas à cracher du code mais peut être aussi à aider l'utilisateur à formaliser son besoin ?
Et je ne parle même pas des problèmes purement techniques, du style interfaces inter systèmes... imaginez: gentille AI est-ce que tu peux dialoguer avec l'API REST de untel qui me calcule un devis à partir de tel et tel critère que je vais t'énumérer et avec lesquels tu dois fabriquer un joli HTTP/POST qui va te renvoyer une superbe réponse pour laquelle, s'il n'y a pas un HTTP error que tu dois traiter le cas échéant, tu vas fabriquer un devis tout neuf dans mon système. hé hé ! Rendez-vous dans n années quand tous les systèmes seront AI powered et que le AIs dialogueront entre elles, en toute intimité, pendant que nous, on sirotera un bon café en attendant que le travaille se fasse :mouarf: ah j'adore les romans d'anticipation !
1 pièce(s) jointe(s)
Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé »
Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé »
il estime que ces outils pourraient aggraver la tricherie dans l'enseignement supérieur
Un professeur de l'université de Caroline du Sud tire la sonnette d'alarme après avoir découvert que l'un de ses étudiants a utilisé ChatGPT, le nouveau chatbot d'IA du laboratoire OpenAI, pour rédiger sa dissertation. Le professeur estime que cette IA, vielle de quelques semaines à peine et facilement accessible au public, porte un nouveau coup à l'enseignement supérieur, déjà en proie à une tricherie endémique. Dans un message partagé sur sa page Facebook, il a souligné qu'il n'était pas le seul professeur dont les étudiants ont commencé par utiliser ce type de logiciel d'IA pour rédiger leurs dissertations.
En lançant ChatGPT au début du mois, OpenAI n'a sans doute pas pensé à la façon dont son modèle d'IA pourrait être détourné ou à la façon dont il pourrait impacter le monde. ChatGPT a tout de suite attiré l'attention de tous et serait même parvenu à s'introduire dans des endroits auxquels beaucoup ne s'y attendaient pas. À en croire des témoignages de professeurs d'université, les étudiants confient à ChatGPT la résolution de leurs devoirs de maison, notamment en dissertation. « Le monde universitaire n'a rien vu venir. Nous sommes donc pris au dépourvu », explique Darren Hudson Hick, professeur adjoint de philosophie à l'université Furman.
« Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté. Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé.
« C'est un style propre. Mais il est reconnaissable. Je dirais qu'il écrit comme un élève de terminale très intelligent », a expliqué Hick à propos des réponses apportées par ChatGPT aux questions. « Il y avait une formulation particulière qui n'était pas fausse, mais juste étrange. Si vous deviez enseigner à quelqu'un comment écrire des essais, c'est ce que vous lui diriez avant qu'il crée son style », a-t-il ajouté. Malgré sa connaissance de l'éthique du droit d'auteur, Hick a déclaré qu'il était presque impossible de prouver que le document avait été concocté par ChatGPT. Le professeur affirme avoir fait appel à un logiciel de vérification de plagiat.
Tout d'abord, il a introduit le texte suspect dans un logiciel conçu par les producteurs de ChatGPT pour déterminer si la réponse écrite avait été formulée par l'IA. Il a obtenu une correspondance probable à 99,9 %. Mais contrairement à un logiciel standard de détection du plagiat - ou à un devoir universitaire bien rédigé - le logiciel ne proposait aucune citation. Hick a ensuite essayé de produire le même essai en posant à ChatGPT une série de questions qu'il imaginait avoir été posées par son étudiant. Le professeur affirme avoir obtenu des réponses similaires, mais aucune correspondance directe, car l'outil formule des réponses uniques.
Finalement, Hick a confronté l'étudiant, qui a avoué avoir utilisé ChatGPT et a échoué au cours en conséquence. L'étudiant a également été remis au doyen de l'école. Mais Hick craint que d'autres cas soient presque impossibles à prouver et que lui et ses collègues soient bientôt inondés de travaux frauduleux. Des universités comme Furman chercheraient à établir des protocoles académiques formels pour cette technologie en développement. Pour l'instant, Hick dit que le mieux qu'il peut faire est de surprendre les étudiants suspects avec des examens oraux impromptus, en espérant les prendre au dépourvu sans leur armure technologique.
« Si quelqu'un tape une invite dans ChatGPT et la soumet directement pour un devoir, ce ne sera probablement pas trop difficile à attraper. Du moins pour l'instant. La partie la plus délicate sera d'attraper les étudiants suffisamment avisés pour obtenir la rédaction de l'IA, puis la réécrire dans leur propre style et corriger les erreurs. Cela conduira probablement à devoir écrire des dissertations en personne en classe, ou à avoir des exigences clés qu'ils savent que l'IA ne peut pas faire », analyse un critique. Selon lui, les années à venir risquent d'être critiques pour le monde de l'enseignement si les autorités ne font pas face à cette menace de l'IA.
ChatGPT est l’un des phénomènes Internet de l’heure tant les internautes s’émerveillent de ses "aptitudes". Certains le qualifient même de remplaçant de Google étant donné qu’il est capable de donner de façon directe des solutions à des problèmes complexes. Par exemple, ChatGPT a réussi l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires aux États-Unis. Le chatbot ravive ainsi les débats sur la possible disparition du métier de développeur en raison de la montée en puissance de l’IA. Se sentant en danger, Google a lancé une alerte rouge à ses équipes pour développer un concurrent à ChatGPT.
Par ailleurs, ce n'est pas la première fois qu'un modèle d'IA d'OpenAI est utilisé pour tenter de tromper la vigilance des gens, parfois même des personnes les plus avisées. En août 2020, un faux billet de blogue généré par GPT-3, une autre IA de traitement du langage naturel (NLP) d'OpenAI, a trompé des dizaines de milliers de personnes, car il était étonnamment bien écrit pour automate. Le billet de blogue, publié par Liam Porr, étudiant à l’université de Californie à Berkeley, s'est même hissé parmi les sujets les mieux classés sur le site communautaire Hacker News. Porr a déclaré qu'il voulait prouver que GPT-3 pouvait tromper les gens.
Le premier billet de Porr (celui qui a été publié sur Hacker News), et tous les billets suivants, ont été copiés-collés à partir de l'une des versions, avec peu ou pas de modifications. Selon lui, c’est facile de travailler avec GPT-3 et cela nécessite peu de temps. « C'était super facile en fait. « Depuis le moment où j'ai eu l'idée et où j'ai pris contact avec le doctorant jusqu'à la création du blog et le premier blog devenu viral, il m'a fallu quelques heures », », a-t-il déclaré. Notons qu’en février 2019, OpenAI a fait la une des journaux avec GPT-2, une version antérieure de l'algorithme, qu'il a annoncé qu'il retiendrait par crainte d'abus.
Le laboratoire a toutefois fini par publier le modèle en novembre 2019. Cela dit, compte tenu des potentialités de GPT-3, OpenAI a décidé de procéder autrement. Il a décidé de donner accès à l'API de GPT-3 aux chercheurs dans une version bêta privée, plutôt que de le rendre disponible à tout le monde. Porr, qui est étudiant en informatique à l'université de Californie à Berkeley, a pu trouver un doctorant qui avait déjà accès à l'API et qui a accepté de travailler avec lui sur l'expérience. Poor pense que « l'écriture » de GPT-3 pourrait remplacer les producteurs de contenu, mais il espère que cela n’arrivera pas.
Les récentes prouesses dans le domaine de l'intelligence artificielle - qu'il s'agisse des modèles d'IA d'OpenAI (GPT-3, Dall-E 2, ChatGPT, Point-E, etc.) ou des modèles d'IA concurrents, tels que Stable Diffusion et Midjourney AI - ont accentué les débats sur la suppression de certains emplois au profit de l'IA, ainsi que sur les risques et les préoccupations inhérents à cette technologie. Récemment, Matt Welsh, PDG de la startup d'IA Fixie.ai, a déclaré qu'"écrire des programmes à la main devrait être dépassé dans les années à venir". Selon lui, les programmeurs humains finiront par céder la place à des intelligences artificielles adaptatives.
Avant cela, plusieurs artistes se sont révoltés contre les œuvres d'art générées par l'IA sur le site de portfolios ArtStation, appartenant au développeur de jeux vidéo Epic Games. Ils ont manifesté leur mécontentement en inondant la plateforme d'images portant le message : "non aux images générées par l'IA". En quelques jours, les images ont été téléchargées des milliers de fois et dominaient la page des tendances du site. Les utilisateurs d'ArtStation ne veulent pas qu'une plateforme qu'ils utilisent pour partager les œuvres de l'esprit soutienne des images que l'IA a générées par "le vol du travail artistique et de la créativité".
La question est donc de savoir comment tirer profit des avancées de l'IA sans supprimer des emplois ou reléguer à un rang inférieur les œuvres de l'esprit ou la créativité humaine. En attendant des approches de solution, l'IA continue de se développer à une vitesse impressionnante et les uns et les autres sont souvent surpris par les nouvelles. En outre, l'utilisation de plus en plus croissante des robots fait l'objet de débat. Beaucoup suggèrent désormais de taxer les robots pour inciter les entreprises à conserver les travailleurs, tout en compensant une partie des charges sociales perdues par une réduction des effectifs.
Source : Darren Hudson Hick
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous de l'utilisation de ChatGPT par les étudiants en milieu scolaire ?
:fleche: Selon vous, quels impacts ce type de logiciel pourrait avoir sur le niveau des étudiants ?
:fleche: Pensez-vous aussi que ces outils pourraient aggraver la tricherie dans le milieu universitaire ?
:fleche: Selon vous, comment peut-on décourager les étudiants d'avoir recours à ces logiciels lors des devoirs ?
Voir aussi
:fleche: « Ecrire des programmes à la main sera dépassé à l'avenir », selon le CEO de la startup IA Fixie.ai, qui voit les programmeurs humains céder la place à des intelligences artificielles adaptatives
:fleche: OpenAI lance Point-E, une IA qui génère des modèles 3D à partir d'invites textuelles, mais elle soulève des préoccupations en ce qui concerne ses données d'apprentissage
:fleche: Les artistes se révoltent contre les œuvres d'art générées par l'IA sur le site de portfolios ArtStation et inondent la plateforme d'images portant le message : "non aux images générées par l'IA"
:fleche: Un faux blog d'un lycéen généré par GPT-3, l'IA de traitement du langage naturel d'OpenAI, a trompé des dizaines de milliers de personnes
:fleche: Faut-il taxer les robots ? Une taxe "modeste" sur les robots pourrait aider à combattre les effets de l'automatisation sur l'inégalité des revenus aux États-Unis, selon une étude du MIT