1 pièce(s) jointe(s)
Les analystes prédisent que l'IA générative, « surestimée », sera confrontée à un ralentissement en 2024
90% du contenu en ligne pourrait être « généré par l'IA d'ici 2025 », selon une conférencière en IA
Nina Schick estime que le rythme d'accélération est si rapide que les « choses qui nous émerveillent début de 2023 vont sembler assez pittoresques d'ici la fin de l'année »
L'IA générative, comme le ChatGPT d'OpenAI, pourrait complètement réorganiser la façon dont le contenu numérique est développé, a déclaré Nina Schick, conseillère et conférencière en IA : « Je pense que nous pourrions atteindre 90 % du contenu en ligne généré par l'IA d'ici 2025, donc cette technologie est exponentielle ». « Je crois que la majorité du contenu numérique va commencer à être produite par l'IA. Vous voyez ChatGPT... mais il y a toute une pléthore d'autres plateformes et applications qui arrivent. »
Les technologies génératives basées sur l’apprentissage machine semblent rencontrent un véritable succès. Par exemple, ChatGPT a dépassé le cap du million d’utilisateurs en seulement cinq jours.
Dans le milieu des chercheurs
Il faut dire que ChatGPT a beaucoup fait parler de lui et pour plusieurs raisons. Par exemple, un groupe de chercheurs dirigés par Catherine Gao de la Northwestern University de Chicago, dans l'Illinois, a utilisé ChatGPT pour générer des résumés d'articles de recherche artificiels afin de tester si les scientifiques peuvent les repérer.
Les chercheurs ont demandé au chatbot de rédiger 50 résumés de recherche médicale basés sur une sélection publiée dans JAMA, The New England Journal of Medicine, The BMJ, The Lancet et Nature Medicine. Ils les ont ensuite comparés aux résumés originaux en les faisant passer à travers un détecteur de plagiat et un détecteur de sortie AI, et ils ont demandé à un groupe de chercheurs médicaux de repérer les résumés générés par IA.
Les résumés générés par ChatGPT sont passés par le vérificateur de plagiat : le score d'originalité médian était de 100 %, ce qui indique qu'aucun plagiat n'a été détecté. Le détecteur de sortie AI a repéré 66 % des résumés générés. Mais les relecteurs humains n'ont pas fait beaucoup mieux : ils n'ont identifié correctement que 68 % des résumés générés et 86 % des résumés authentiques. Ils ont incorrectement identifié 32 % des résumés générés comme étant réels et 14 % des résumés authentiques comme étant générés par l'IA.
« ChatGPT rédige des résumés scientifiques crédibles », déclarent Gao et ses collègues dans la prépublication. « Les limites de l'utilisation éthique et acceptable des grands modèles de langage pour aider l'écriture scientifique restent à déterminer »
Le milieu scolaire
ChatGPT s'est aussi invité dans les écoles. À Lyon, un professeur a remarqué de curieuses similitudes dans les copies rendues par la moitié de ses étudiants; il leur avait donné une semaine pour rédiger leurs devoirs. Si les mots différaient, leurs structures démonstratives et leurs exemples sont restés constamment les mêmes. C’est en se renseignant auprès de ses élèves que l’un d’eux a fini par avouer l’utilisation de ChatGPT dans la rédaction. « Il ne s’agissait pas de copier-coller. Mais les copies étaient construites exactement de la même manière », a raconté Stéphane Bonvallet. « On y retrouvait les mêmes constructions grammaticales. Le raisonnement était mené dans le même ordre, avec les mêmes qualités et les mêmes défauts ».
Stéphane Bonvallet raconte au Progrès en avoir discuté directement avec une étudiante. Elle reconnaît alors que la moitié de la promotion de 14 élèves a eu recours à ChatGPT.
Les étudiants n’ont pas reçu de blâme pour cet usage, puisque l’utilisation d'outil de la même trempe que ChatGPT n'est pas proscrit par le milieu scolaire : « n’ayant pas de cadre interdisant actuellement cette pratique, j’ai été contraint de les noter », explique-t-il au quotidien. Puisque les autres notes étaient comprises entre 10 et 12,5, le professeur a choisi d'attribuer la même note de 11,75 à tous ces travaux qui se sont appuyés sur ChatGPT.
En se renseignant auprès de ses collègues, il a fait le constat que ce cas était loin d’être isolé.
« Cette pratique m’inquiète. Elle pose un véritable problème d’intégration des savoirs, car les élèves n’ont plus besoin d’effectuer la moindre recherche pour composer », a regretté le professeur.
Les médias
CNET, un média d'information technologique populaire, a discrètement utilisé l'aide d'une technologie d'automatisation sur une nouvelle vague d'articles explicatifs financiers, apparemment à partir de novembre de l'année dernière. En l'absence de toute annonce ou couverture officielles, il semble que cela ait été repéré pour la première fois par le spécialiste du marketing en ligne Gael Breton dans un tweet mercredi.
Les articles sont publiés sous l'appellation sans prétention de « CNET Money Staff » et englobent des sujets tels que « Que sont les frais NSF et pourquoi les banques les facturent-elles ? », « Quelle est la différence entre une banque et une coopérative de crédit ? » ou « Qu'est-ce que Zelle et comment ça marche ? »
Ce trait commun (des questions en guise de titre) ne donne évidemment pas une image complète, et donc le lecteur visitant le site n'aura probablement aucune indication que ce qu'il lit est généré par l'IA. Ce n'est que lorsque vous cliquez sur « CNET Money Staff » que la véritable « paternité » est révélée. « Cet article a été généré à l'aide de la technologie d'automatisation », peut-on lire sur une description déroulante, « et soigneusement édité et vérifié par un éditeur de notre équipe éditoriale ».
Et même la cybercriminalité
Du rapport de CheckPoint, il ressort que ChatGPT peut générer le code d’un logiciel malveillant capable de voler des fichiers précis sur un PC, de les compresser et de les envoyer sur un ordinateur distant. Cette intelligence artificielle peut aussi produire du code pour un outil logiciel qui installe une porte dérobée sur un ordinateur et ensuite télécharge d’autres logiciels malveillants à partir de cette dernière. La firme rapporte en sus que les cybercriminels peuvent s’en servir pour la mise sur pied de logiciels capables de chiffrer les fichiers du PC d’une cible. CheckPoint rapporte que ChatGPT ouvre ces possibilités à des individus avec de très faibles connaissances techniques.
La publication de CheckPoint est en phase avec celle de Matt Welsh de la startup Fixie.ai qui prédit que l’utilisation de l’intelligence artificielle est de nature à ouvrir la filière à tous : « L’on n’aura plus besoin d’être un expert en programmation informatique pour obtenir quelque chose d’utile d’une intelligence artificielle. »
Matt Welsh dépeint un futur dans lequel la filière informatique va passer de l’approche d’écriture des programmes informatiques par des humains à celle de la mise à contribution d’agents d’intelligence artificielle au préalable entraînés pour remplacer les humains dans des activités comme le développement d’applications informatique. Le tableau ravive ainsi des craintes sur la perspective de voir l’intelligence artificielle surpasser les humains.
Autant de choses qui suscitent l'intérêt des investisseurs
Face à la montée en popularité de ChatGPT, Microsoft a amorcé les discussions avec OpenAI, propriétaire de ChatGPT, pour investir pratiquement 10 milliards de dollars. L’opération en ferait l'une des startups d'IA les plus précieuses sur le papier, bien qu'elle génère peu de revenus. Les sociétés de capital-risque Thrive Capital et Founders Fund seraient aptes à investir dans l'opération, qui totaliserait au moins 300 millions de dollars en ventes d'actions. Semafor a rapporté que Microsoft devrait également participer à l'opération.
OpenAI n'est pas la seule entité à être lorgnée par les investisseurs. Jasper, une entreprise spécialisée dans l’intelligence artificielle générative, a levé 150 millions de dollars en octobre 2022, lui permettant d’atteindre une valorisation de 1,5 milliard de dollars. Stability AI, active dans la génération d’images, a pour sa part réuni 101 millions de dollars le même mois, permettant à l'entreprise d'être valorisée à un milliard de dollars.
Au total, les investisseurs auraient injecté quelque 1,37 milliard de dollars en 2022 dans des projets de technologies génératives basées sur de l’apprentissage machine. C’est plus que les investissements réalisés sur les cinq dernières années.
D'ailleurs, voici ce que Sequoia Capital a récemment écrit sur ce secteur :
Citation:
Envoyé par Sequoia Capital
Les humains sont bons pour analyser les choses. Les machines sont encore meilleures. Les machines peuvent analyser un ensemble de données et y trouver des modèles pour une multitude de cas d'utilisation, qu'il s'agisse de détection de fraude ou de spam, de prévision de l'ETA de votre livraison ou de la prédiction de la prochaine vidéo TikTok à vous montrer. Ils deviennent plus intelligents dans ces tâches. C'est ce qu'on appelle « l'IA analytique » ou l'IA traditionnelle.
Mais les humains ne sont pas seulement doués pour analyser les choses, nous sommes aussi doués pour créer. Nous écrivons de la poésie, concevons des produits, créons des jeux et développons du code. Jusqu'à récemment, les machines n'avaient aucune chance de rivaliser avec les humains dans le travail créatif - elles étaient reléguées à l'analyse et au travail cognitif par cœur. Mais les machines commencent tout juste à devenir douées pour créer des choses sensées et belles. Cette nouvelle catégorie s'appelle « l'IA générative », ce qui signifie que la machine génère quelque chose de nouveau plutôt que d'analyser quelque chose qui existe déjà.
L'IA générative est en passe de devenir non seulement plus rapide et moins chère, mais aussi meilleure dans certains cas que ce que les humains créent à la main. Chaque industrie qui nécessite des humains pour créer un travail original - des médias sociaux aux jeux, de la publicité à l'architecture, du codage à la conception graphique, de la conception de produits au droit, du marketing aux ventes - est prête à être réinventée. Certaines fonctions peuvent être complètement remplacées par l'IA générative, tandis que d'autres sont plus susceptibles de prospérer à partir d'un cycle créatif itératif serré entre l'homme et la machine, mais l'IA générative devrait débloquer une création meilleure, plus rapide et moins chère sur un large éventail de marchés finaux. Le rêve est que l'IA générative ramène le coût marginal de la création et du travail du savoir vers zéro, générant une productivité du travail et une valeur économique considérables, ainsi qu'une capitalisation boursière proportionnelle.
Les domaines abordés par l'IA générative (travail du savoir et travail créatif) concernent des milliards de travailleurs. L'IA générative peut rendre ces travailleurs au moins 10*% plus efficaces et/ou créatifs*: ils deviennent non seulement plus rapides et plus efficaces, mais aussi plus capables qu'auparavant. Par conséquent, l'IA générative a le potentiel de générer des milliers de milliards de dollars de valeur économique.
Une conférencière en IA estime que l'IA générative va connaître un changement rapide
Le regain d'intérêt pour DALL-E et ChatGPT d'OpenAI a facilité un large débat public sur l'IA et son rôle croissant dans notre monde, en particulier l'IA générative.
« ChatGPT a vraiment captivé l'imagination du public d'une manière extrêmement convaincante, mais je pense que dans quelques mois, ChatGPT sera simplement considéré comme un autre outil alimenté par cette nouvelle forme d'IA, connue sous le nom d'IA générative », a déclaré Nina Schick, conférencière en IA, dans une interview avec Yahoo Finance.
Il est important de comprendre ce qu'est exactement l'IA générative - et ce qu'elle n'est pas.
« Ce que l'IA générative peut faire, essentiellement, c'est créer de nouvelles choses qui auraient jusqu'à présent été considérées comme uniques à l'intelligence ou à la créativité humaine », a-t-elle déclaré. « L'IA générative peut créer sur tous les médias, donc du texte, de la vidéo, de l'audio, des images - chaque support numérique peut être alimenté par l'IA générative. Donc, je pense que ces valorisations que vous voyez pour OpenAI vont en fait augmenter et nous allons commencer à voir encore plus d'entreprises d'IA génératives qui ont des applications universelles dans de nombreux secteurs en 2023 ».
Tout cela est encore vraiment nouveau, car les applications pour l'IA générative « ne sont vraiment apparues au premier plan qu'au cours des 24 à 6 derniers mois », a ajouté Schick.
L'espace de l'IA générative devrait devenir beaucoup plus compétitif l'année prochaine, a déclaré Schick, qui s'attend à voir des entreprises comme Google, Microsoft et Apple faire « beaucoup plus » dans cet espace.
Bien que beaucoup ait été dit sur la mesure dans laquelle ChatGPT peut ou non présenter une menace existentielle pour la domination de Google en matière de recherche, Schick a déclaré qu'elle s'attend à voir Google rivaliser plutôt que dépérir : « Il y a eu beaucoup de débats sur la question de savoir si OpenAI est une menace existentielle pour Google - le fait que Microsoft est un investisseur dans OpenAI, le fait que ChatGPT va être intégré à Bing, si cela va remettre en cause la domination de Google », indique Schick. « Bien que ce soit une histoire fantastique, il ne fait aucun doute que Google développe ses propres outils d'IA générative avec la quantité de données dont ils disposent ».
Bien que ce soit compliqué, dans la mesure où ChatGPT sous sa forme actuelle est un concurrent viable de Google, il y a peu de doute sur les possibilités. Pendant ce temps, Microsoft a déjà investi 1 milliard de dollars dans OpenAI, et il est question d'investissements supplémentaires de la part du géant de la technologie d'entreprise, qui possède le moteur de recherche Bing. La société chercherait à investir 10 milliards de dollars supplémentaires dans OpenAI.
En fin de compte, elle estime que l'espace de l'IA générative va connaître un changement rapide.
« Le rythme d'accélération est si incroyable que ces outils - qui nous choquent et nous émerveillent au début de 2023 - vont sembler assez pittoresques d'ici la fin de l'année parce que les capacités vont juste augmenter si puissamment », a déclaré Schick.
Sources : interview Yahoo Finance (vidéo dans le texte), Sequoia Capital
Et vous ?
:fleche: Partagez-vous les propos de Nina Schick lorsqu'elle estime que 90% du contenu en ligne pourrait être « généré par l'IA d'ici 2025 » ? Dans quelle mesure ?
:fleche: Partagez-vous son point de vue lorsqu'elle estime que les « choses qui nous émerveillent début de 2023 vont sembler assez pittoresques d'ici la fin de l'année » ?
2 pièce(s) jointe(s)
Les analystes prédisent que l'IA générative, « surestimée », sera confrontée à un ralentissement en 2024
Les analystes prédisent que l'IA générative, « surestimée », sera confrontée à un ralentissement imminent en 2024,
l’exploitation des modèles tels que ChatGPT, Google Bard, Claude est très coûteuse
Le cabinet d’analystes CCS Insight a prédit que l’IA générative, une technologie qui a fait l’objet de nombreux gros titres sur ses promesses et ses pièges, devrait être remise en question l’année prochaine. Les coûts élevés, les risques et la complexité impliqués dans cette technologie remplacent le battage médiatique autour de celle-ci. Les modèles d’IA générative tels que ChatGPT d’OpenAI, Google Bard, Claude d’Anthropic et Synthesia s’appuient sur d’énormes quantités de puissance de calcul pour exécuter les modèles mathématiques complexes qui leur permettent de déterminer les réponses à apporter aux demandes des utilisateurs. Les entreprises doivent acquérir des puces de grande puissance pour faire fonctionner les applications.
Précédant la publication du rapport sur les prévisions, Ben Wood, analyste en chef chez CCS Insight, a déclaré : « Nous sommes de fervents défenseurs de l'IA, nous pensons qu'elle aura un impact considérable sur l'économie, sur la société en général et sur la productivité ».« Mais le battage médiatique autour de l'IA générative en 2023 a été tellement important que nous pensons qu'il est exagéré et qu'il y a beaucoup d'obstacles à son deploiement. »
Cependant, Nina Schick, conseillère et conférencière en IA L'IA générative, pense que les outils d'IA comme le ChatGPT d'OpenAI, pourrait complètement réorganiser la façon dont le contenu numérique est développé. « Je pense que nous pourrions atteindre 90 % du contenu en ligne généré par l'IA d'ici 2025, donc cette technologie est exponentielle ». « Je crois que la majorité du contenu numérique va commencer à être produite par l'IA. Vous voyez ChatGPT... mais il y a toute une pléthore d'autres plateformes et applications qui arrivent. »
Les modèles d'IA générative tels que ChatGPT d'OpenAI, Google Bard, Claude d'Anthropic et Synthesia s'appuient sur d'énormes quantités de puissance de calcul pour exécuter les modèles mathématiques complexes qui leur permettent de déterminer les réponses à apporter aux demandes des utilisateurs. Les entreprises doivent acquérir des puces de grande puissance pour faire fonctionner les applications d'IA. Dans le cas de l'IA générative, ce sont souvent des processeurs graphiques avancés, ou GPU, conçus par le géant américain des semi-conducteurs Nvidia que les grandes entreprises et les petits développeurs utilisent pour exécuter leurs charges de travail d'IA.
L’exploitation de ChatGPT est très coûteuse pour OpenAI
Aujourd'hui, de plus en plus d'entreprises, dont Amazon, Google, Alibaba, Meta et, semble-t-il, OpenAI, conçoivent leurs propres puces d'IA pour exécuter leurs programmes d'IA. Le PDG Sam Altman a fait de l'acquisition d'un plus grand nombre de puces d'IA une priorité absolue pour l'entreprise. Il s'est publiquement plaint de la pénurie d'unités de traitement graphique, un marché dominé par Nvidia, qui contrôle plus de 80 % du marché mondial des puces les mieux adaptées à l'exécution d'applications d'IA.
Les efforts déployés pour obtenir davantage de puces sont liés à deux problèmes majeurs identifiés par Altman : la pénurie de processeurs avancés qui alimentent les logiciels de l'OpenAI et les coûts « exorbitants » associés à l'exploitation du matériel nécessaire pour faire fonctionner ses efforts et ses produits. Depuis 2020, OpenAI a développé ses technologies d'intelligence artificielle générative sur un superordinateur massif construit par Microsoft, l'un de ses principaux bailleurs de fonds, qui utilise 10 000 unités de traitement graphique (GPU) de Nvidia.
L'exploitation de ChatGPT est très coûteuse pour l'entreprise. Chaque requête coûte environ 4 cents, selon une analyse de Stacy Rasgon, analyste chez Bernstein. Si les requêtes de ChatGPT atteignent un dixième de l'échelle de recherche de Google, il faudra environ 48,1 milliards de dollars de GPU au départ et environ 16 milliards de dollars de puces par an pour qu'il reste opérationnel.
Il n'est pas certain que l'OpenAI aille de l'avant avec son projet de construction d'une puce personnalisée. Il s'agirait d'une initiative stratégique majeure et d'un investissement lourd qui pourrait s'élever à des centaines de millions de dollars par an, selon des vétérans du secteur. Même si l'OpenAI consacrait des ressources à cette tâche, le succès ne serait pas garanti.
La réglementation européenne sur l'IA se heurte à des obstacles
L’approche de l’UE en matière d’intelligence artificielle est axée sur l’excellence et la confiance, visant à renforcer la recherche et les capacités industrielles tout en garantissant la sécurité et les droits fondamentaux.
La stratégie européenne en matière d’IA vise à faire de l’UE une plaque tournante de classe mondiale pour l’IA et à faire en sorte que l’IA soit centrée sur l’humain et digne de confiance. Un tel objectif se traduit par l’ approche européenne de l’excellence et de la confiance par des règles et des actions concrètes. En avril 2021, la Commission a présenté son train de mesures sur l’IA, notamment :
- sa communication sur la promotion d’une approche européenne de l’IA ;
- un réexamen du plan coordonné en matière d’intelligence artificielle ( avec les États membres de l’UE) ;
- sa proposition de cadre réglementaire sur l’intelligence artificielle et l’ analyse d’impact pertinente.
La Commission vise à faire face aux risques générés par des utilisations spécifiques de l’IA au moyen d’un ensemble de règles complémentaires, proportionnées et flexibles. Ces règles donneront également à l’Europe un rôle de premier plan dans la définition de l’étalon-or mondial.
Ce cadre donne aux développeurs et aux utilisateurs de l’IA la clarté dont ils ont besoin en intervenant uniquement dans les cas que les législations nationales et européennes existantes ne couvrent pas. Le cadre juridique de l’IA propose une approche claire et facile à comprendre, fondée sur quatre niveaux de risque différents: risque inacceptable, risque élevé, risque limité et risque minimal.
Les analystes de CCS Insight prévoient aussi que la réglementation de l'IA dans l'Union européenne, souvent pionnière en matière de législation sur les technologies, se heurtera à des obstacles. L'UE sera toujours la première à introduire une réglementation spécifique pour l'IA - mais celle-ci sera probablement révisée et redessinée « plusieurs fois » en raison de la vitesse des progrès de l'IA, ont-ils déclaré. « La législation n'est pas finalisée avant fin 2024, laissant l'industrie prendre les premières mesures d'autorégulation », a prédit Wood.
L'IA générative a suscité un énorme engouement cette année de la part des passionnés de technologie, des investisseurs en capital-risque et des conseils d'administration, car les gens ont été captivés par sa capacité à produire du nouveau contenu à la manière d'un être humain en réponse à des invites textuelles. Bien qu'elle soit très prometteuse, elle a également suscité des inquiétudes croissantes de la part des pouvoirs publics et du public, qui craignent qu'elle ne soit devenue trop avancée et qu'elle ne risque de priver des gens de leur emploi.
La criminalité liée à l'IA tend à correspondre à des topologies particulières d’organisations criminelles
La recherche et la réglementation en matière d'intelligence artificielle (IA) s'efforcent de trouver un équilibre entre les avantages de l'innovation et les inconvénients et perturbations potentiels. Toutefois, l'une des conséquences involontaires de l'essor récent de la recherche sur l'IA est la réorientation potentielle des technologies de l'IA pour faciliter les actes criminels, ce que les chercheurs Thomas C. King, Nikita Aggarwal, Mariarosaria Taddeo, Luciano Floridi appelent dans un rapport de recherche la criminalité liée à l'IA (AIC).
La criminalité liée à l'IA est théoriquement possible grâce aux expériences publiées d'automatisation de la fraude ciblant les utilisateurs de médias sociaux, ainsi qu'aux démonstrations de manipulation de marchés simulés par l'IA. Cependant, comme la criminalité liée à l'IA est encore un domaine relativement jeune et intrinsèquement interdisciplinaire - allant des études socio-juridiques à la science formelle - il y a peu de certitude quant à ce que l'avenir de la criminalité liée à l'IA pourrait ressembler.
Les menaces plausibles et uniques entourant les AIC peuvent être comprises de manière spécifique ou générale. Les menaces les plus générales représentent ce qui rend la criminalité liée à l'IA possible par rapport aux crimes du passé (c'est-à-dire les possibilités particulières de l'IA) et ce qui pose un problème unique (c'est-à-dire ce qui justifie la conceptualisation de l'AIC comme un phénomène criminel distinct). Comme le montre le tableau ci-dessous, les domaines de la criminalité liée à l'IA peuvent recouper de nombreuses menaces générales.
Carte des menaces spécifiques à un domaine et des menaces transversales
L'année prochaine, CCS Insight prévoit que les personnes qui commettent des fraudes d'identification basées sur l'IA commenceront à être arrêtées. La société affirme que la police procédera à la première arrestation d'une personne qui utilise l'IA pour usurper l'identité de quelqu'un - soit par le biais de la technologie de synthèse vocale, soit par d'autres types de deepfakes - dès 2024.
« Les modèles de génération d'images et de synthèse vocale peuvent être personnalisés pour usurper l'identité d'une cible à l'aide de données publiées sur les médias sociaux, ce qui permet de créer des imitations profondes rentables et réalistes », indique CCS Insight dans sa liste de prédictions.
Un rapport d'Europol sur la menace que représente la grande criminalité et la criminalité organisée met en évidence la manière dont le type de criminalité technologique tend à correspondre à des topologies particulières d'organisations criminelles. La littérature de la criminalité liée à l'IA indique que l'IA peut jouer un rôle dans des organisations criminelles telles que les cartels de la drogue, qui disposent de ressources importantes et sont très organisées.
À l'inverse, l'organisation criminelle ad hoc sur le dark web existe déjà dans le cadre de ce qu'Europol appelle le crime-asa-service. Ces services criminels sont vendus directement entre l'acheteur et le vendeur, potentiellement comme un élément plus petit d'un crime global, que l'IA pourrait alimenter (par exemple, en permettant le piratage de profils) à l'avenir.
Sources : Commission européenne, Springer, CCS Insight
Et vous ?
:fleche: L'analyse de CCS Insight, qui prédit que l’IA générative devrait être remise en question l’année prochaine est-elle pertinente ?
:fleche: Partagez-vous l'avis de Nina Schick qui contrairement à CCS Insight annone une croissance de l'IA générative d'ici à 2025 ?
:fleche: Quels sont selon vous, les avantages et les inconvénients de cette technologie ? Quels sont les risques associés à l’IA générative ?
:fleche: Comment cette technologie peut-elle être améliorée ?
Voir aussi :
:fleche: 90% du contenu en ligne pourrait être « généré par l'IA d'ici 2025 », selon une conférencière en IA. « Les choses qui nous émerveillent début 2023 vont sembler pittoresques d'ici la fin de l'année »
:fleche: « L'IA générative n'est qu'une phase. La prochaine phase sera l'IA interactive dans laquelle des machines interactives effectueront des tâches à votre place », affirme un cofondateur de DeepMind