1 pièce(s) jointe(s)
Le PDG d'OpenAI estime que l'approche actuelle de l'IA va bientôt atteindre ses limites
Le PDG d'OpenAI estime que l'approche actuelle de l'IA va bientôt atteindre ses limites,
la mise à l'échelle des modèles LLM cessera d'apporter des améliorations à l'IA, selon lui
OpenAI a réalisé une série d'avancées impressionnantes dans l'IA qui fonctionne avec le langage ces dernières années en prenant des algorithmes d'apprentissage automatique existants et en les faisant évoluer jusqu'à une taille inimaginable auparavant. GPT-4, le dernier de ces projets, a probablement été formé à l'aide de milliards de mots de texte et de plusieurs milliers de puces informatiques puissantes. Le processus a coûté plus de 100 millions de dollars.
Mais le PDG de la société, Sam Altman, affirme que de nouveaux progrès ne proviendront pas de l'agrandissement des modèles : « Je pense que nous sommes à la fin de l'ère où règneront ces modèles géants », a-t-il déclaré à un public lors d'un événement organisé au MIT à la fin de la semaine dernière. « Nous allons les rendre meilleurs par d'autres moyens ».
La déclaration d'Altman suggère une tournure inattendue dans la course au développement et au déploiement de nouveaux algorithmes d'IA. Depuis qu'OpenAI a lancé ChatGPT en novembre, Microsoft a utilisé la technologie sous-jacente pour ajouter un chatbot à son moteur de recherche Bing, et Google a lancé un chatbot rival appelé Bard. De nombreuses personnes se sont précipitées pour expérimenter l'utilisation de la nouvelle race de chatbot pour aider au travail ou à des tâches personnelles.
Pendant ce temps, de nombreuses startups bien financées, dont Anthropic, AI21, Cohere et Character.AI, consacrent d'énormes ressources à la construction d'algorithmes toujours plus grands dans le but de rattraper la technologie d'OpenAI. La version initiale de ChatGPT était basée sur une version légèrement améliorée de GPT-3, mais les utilisateurs peuvent désormais également accéder à une version alimentée par le GPT-4 plus performant.
La déclaration d'Altman suggère que GPT-4 pourrait être la dernière avancée majeure à émerger de la stratégie d'OpenAI consistant à agrandir les modèles et à leur fournir plus de données. Il n'a pas dit quel genre de stratégies ou de techniques de recherche pourraient prendre sa place. Dans l'article décrivant GPT-4, OpenAI indique que ses estimations suggèrent des rendements décroissants lors de l'augmentation de la taille du modèle. Altman a déclaré qu'il existe également des limites physiques au nombre de centres de données que l'entreprise peut construire et à la rapidité avec laquelle elle peut les construire.
Un argument qui « sonne vrai » pour le cofondateur de Cohere
Nick Frosst, cofondateur de Cohere qui travaillait auparavant sur l'IA chez Google, affirme que le sentiment d'Altman selon lequel « agrandir ne fonctionnera pas indéfiniment » sonne vrai. Lui aussi pense que les progrès sur les transformateurs, le type de modèle d'apprentissage automatique au cœur de GPT-4 et de ses rivaux, vont au-delà de l'évolutivité. « Il existe de nombreuses façons de rendre les transformateurs bien meilleurs et plus utiles, et beaucoup d'entre eux n'impliquent pas l'ajout de paramètres au modèle », dit-il. Frosst dit que de nouvelles conceptions ou architectures de modèles d'IA et un réglage supplémentaire basé sur la rétroaction humaine sont des directions prometteuses que de nombreux chercheurs explorent déjà.
Chaque version de la famille influente d'algorithmes de langage d'OpenAI consiste en un réseau de neurones artificiels, un logiciel vaguement inspiré de la façon dont les neurones fonctionnent ensemble, qui est formé pour prédire les mots qui doivent suivre une chaîne de texte donnée.
Voici l'historique des version GPT :
- GPT-1 : OpenAI a publié GPT-1 en 2018. Ce modèle de langage génératif a été formé à l'aide de l'énorme ensemble de données BooksCorpus, ce qui lui a permis d'apprendre une vaste gamme de relations et d'acquérir des connaissances approfondies sur une grande variété de textes continus et de passages étendus. Ce modèle était une preuve de concept et n'a pas été rendu public.
- GPT2 : plus tard en 2019, OpenAI a mis sur pieds GPT-2, créant un meilleur modèle de langage en utilisant un ensemble de données plus volumineux et davantage de paramètres. GPT-2 utilise également le décodeur du modèle de Transformer, comme GPT-1. La conception et la mise en œuvre du modèle dans GPT-2 représentent certains des changements les plus notables ; GPT-2 est 10 fois plus grand que GPT-1 (117 millions de paramètres) et contient 10 fois plus de paramètres et de données. C'était à la pointe de la technologie en 2019.
- GPT3 : GPT3 était la version où de nombreuses personnes ont fait la rencontre des LLM. Il s'agit du grand modèle de prédiction et de génération de langage d'OpenAI. Cette version peut reproduire le texte original dans de grandes sections. Le logiciel de langage d'intelligence artificielle GPT-3 a changé la donne pour OpenAI. En termes simples, c'est un programme qui peut créer des paragraphes si frais et originaux qu'ils semblent presque écrits à la main. Avec l'aide de GPT3, ChatGPT a gagné 100 millions d'utilisateurs en seulement deux mois, ce qui en fait l'application en ligne à la croissance la plus rapide de l'histoire.
- GPT4 : afin de rendre les modèles plus précis et de fournir moins de résultats désagréables ou nuisibles, GPT4 a été créé pour améliorer leur « alignement ». L'alignement fait référence à la capacité d'un modèle à suivre les objectifs de l'utilisateur.
Les capacités remarquables de GPT-4 ont stupéfié certains experts et suscité un débat sur le potentiel de l'IA pour transformer l'économie, mais aussi propager la désinformation et supprimer des emplois.
Aussi, dans une lettre ouverte publiée en mars, Elon Musk et un groupe d'experts en intelligence artificielle et de dirigeants de l'industrie ont demandé une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 récemment lancé par OpenAI, en invoquant les risques potentiels pour la société et l'humanité.
La lettre, publiée par l'organisation à but non lucratif Future of Life Institute et signée par plus de 1 000 personnes, dont Musk, appelle à une pause dans le développement de l'IA avancée jusqu'à ce que des protocoles de sécurité partagés pour de telles conceptions soient élaborés, mis en œuvre et contrôlés par des experts indépendants. « Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », peut-on lire dans la lettre.
La lettre détaille les risques potentiels pour la société et la civilisation que représentent les systèmes d'IA compétitifs pour les humains, sous la forme de perturbations économiques et politiques, et appelle les développeurs à travailler avec les décideurs politiques sur la gouvernance et les autorités de régulation.
Parmi les cosignataires figurent Emad Mostaque, PDG de Stability AI, des chercheurs de DeepMind, propriété d'Alphabet (GOOGL.O), et des poids lourds de l'IA, Yoshua Bengio, souvent considéré comme l'un des "parrains de l'IA", et Stuart Russell, pionnier de la recherche dans ce domaine.
Ce qui pourrait expliquer pourquoi OpenAI ne « travaille pas actuellement sur GPT-5 » ?
S'exprimant lors du même événement au MIT, Altman a été interrogé sur cette lettre ouverte diffusée dans le monde de la technologie qui demandait que des laboratoires comme OpenAI suspendent le développement de systèmes d'IA « plus puissants que GPT-4 ». La lettre a mis en évidence des préoccupations concernant la sécurité des futurs systèmes, mais a été critiquée par de nombreux acteurs de l'industrie, y compris un certain nombre de signataires. Les experts ne sont pas d'accord sur la nature de la menace posée par l'IA (est-elle existentielle ou plus banale ?) ainsi que sur la manière dont l'industrie pourrait s'y prendre pour « suspendre » le développement en premier lieu.
Au MIT, Sam Altman a expliqué qu’il approuve certaines parties de la lettre ouverte. Il n'a pas manqué de rappeler qu’OpenAI a observé une pause de six mois après l’entraînement de GPT-4. Un délai au cours duquel l’entreprise dit avoir cherché à rendre l’outil plus sûr, pour limiter des comportements inadéquats, bien que dans la pratique ils existent encore. Rappelons à ce titre l'enquête conduite News Guard, qui étudie la fiabilité et la véracité des contenus diffusés en ligne. GPT-4 « est en fait plus susceptible de générer des informations erronées », avance News Guard, mais en plus l’outil se montre « plus convaincant dans sa capacité à le faire ».
Sam Altman a aussi affiché son accord avec l’idée de rehausser les exigences en matière de sûreté en fonction des progrès de ces outils. « Nous faisons d'autres choses en plus du GPT-4 qui, je pense, à toutes sortes de problèmes de sécurité qu'il est important de résoudre et qui ont été totalement ignorés », a-t-il reconnu.
Cependant, il a affirmé que la lettre « manquait la plupart des nuances techniques sur l'endroit où nous avons besoin de la pause » et a noté qu'une version antérieure affirmait qu'OpenAI entraînait actuellement GPT-5. « Nous ne le faisons pas et ne le ferons pas avant un certain temps », a déclaré Altman. « Donc, dans ce sens, c'était un peu idiot ».
Source : vidéo dans le texte
Et vous ?
:fleche: Que pensez-vous des propos de Sam Altman ? Partagez-vous son point de vue ? Dans quelle mesure ?
1 pièce(s) jointe(s)
Le chatbot d'IA ChatGPT d'OpenAI confronté à des problèmes de conformité au RGPD de l'Union européenne
Le chatbot d'IA ChatGPT d'OpenAI confronté à des problèmes de conformité au règlement européen sur la protection des données
les experts affirment qu'OpenAI aura du mal à se conformer au RGPD
OpenAI a été sommé en Italie de mettre ChatGPT en conformité avec le règlement général sur la protection des données (RGPD), mais les experts juridiques estiment que la perspective d'adhérer aux réglementations de l'UE est "proche de l'impossible" pour le laboratoire d'IA de San Francisco. La position italienne n'est que le début des ennuis de ChatGPT, qui fait l'objet de plusieurs plaintes en matière de violation de la vie privée dans tout le bloc et exploite une technologie de pointe qui irrite les gouvernements en raison de risques allant de la violation des données à la désinformation, en passant par la cybercriminalité, la fraude et la tricherie aux tests scolaires.
OpenAI se prépare à affronter les puissants chiens de garde européens en matière de protection de la vie privée. En effet, lorsqu’OpenAI a dévoilé son modèle de langage GPT-3 en juillet 2020, il a offert un aperçu des données utilisées pour entraîner le grand modèle de langage. Selon un document technique, des millions de pages extraites du Web, de posts Reddit, de livres et autres sont utilisés pour créer le système de texte génératif. Ces données contiennent certaines des informations personnelles que vous partagez en ligne. Elles posent aujourd'hui des problèmes à OpenAI, les régulateurs estimant que l'entreprise n'a pas le doit de les utiliser.
Le 31 mars, l'autorité italienne de protection des données (Garante per la Protezione dei Dati Personali) a pris une décision d'urgence temporaire demandant à OpenAI de cesser d'utiliser les informations personnelles de millions d'Italiens incluses dans ses données de formation. Selon le régulateur italien, OpenAI n'a pas le droit légal d'utiliser les informations personnelles des personnes dans ChatGPT. En réponse, OpenAI a temporairement empêché les Italiens d'accéder à son chatbot d'IA pendant qu'il fournit des réponses aux autorités italiennes. Il s'agit de la première mesure prise à l'encontre de ChatGPT par un organisme de réglementation occidental.
Le modèle GPT-2 d'OpenAI a utilisé 40 Go de texte, tandis que GPT-3 en a utilisé 570 Go. OpenAI a refusé de divulguer les données utilisées pour le modèle GPT-4, ce qui a frustré les chercheurs. L'autorité italienne de régulation des données a interdit le ChatGPT au motif qu'il enfreignait les règles du RGPD. La décision de l'Italie a déclenché des enquêtes similaires en France, en Allemagne, en Irlande et au Canada, incitant le Conseil de protection des données de l'UE à mettre en place un groupe de travail pour la coordination et l'application concernant ChatGPT. Des parties civiles européennes ont également intenté des actions en justice contre OpenAI.
Après son interdiction temporaire par l'Italie, OpenAI dispose maintenant de moins de deux semaines pour mettre en œuvre des mesures correctives. Cependant, les experts juridiques européens prévoient qu'il pourrait être presque impossible pour OpenAI de se conformer aux réglementations italiennes et aux exigences plus larges du RGPD. Le non-respect de ces règles peut entraîner de graves conséquences, allant de pénalités financières à une interdiction pure et simple de ChatGPT à l'échelle du pays. Mais la tâche s'annonce compliquée pour l'entreprise. L'Italie a demandé à OpenAI de mettre en œuvre plusieurs mesures correctives, notamment :
- l'obtention du consentement des personnes pour la collecte de leurs données ou la preuve d'un "intérêt légitime" dans la collecte des données ;
- expliquer aux utilisateurs comment ChatGPT utilise leurs données ;
- permettre aux utilisateurs de corriger les inexactitudes les concernant produites par le chatbot ;
- permettre aux utilisateurs de demander l'effacement de leurs données ;
- offrir aux utilisateurs la possibilité de révoquer leur consentement à l'utilisation de leurs données par ChatGPT.
Les experts juridiques européens estiment que la collecte de données par OpenAI est la question de conformité la plus litigieuse. Il est peu probable qu'OpenAI puisse prouver qu'il a obtenu le consentement des utilisateurs pour les données utilisées pour entraîner ses modèles d'IA. Mais le test de l'"intérêt légitime" pose également un problème, car les entreprises doivent présenter des raisons rigoureuses pour justifier l'utilisation ou la conservation de données sans consentement. Le régulateur européen des données cite des scénarios tels que la prévention de la fraude, la sécurité des réseaux et la prévention du crime comme des raisons valables.
Margaret Mitchell, chercheuse en IA, a expliqué : « OpenAI va trouver presque impossible d'identifier les données des individus et de les retirer de ses modèles ». Elle était auparavant coresponsable de l'éthique de l'IA chez Google. Aujourd'hui, Mitchell est responsable de l'éthique chez Hugging Face, une entreprise américaine qui développe des outils pour créer des applications utilisant l'apprentissage automatique. Cependant, il est important de noter qu'OpenAI n'est pas la seule entreprise concernée. La collecte désordonnée des données est un problème qui touche l'ensemble de l'industrie de l'IA, y compris les acteurs comme Meta et Google.
Historiquement, les entreprises d'IA ont considéré la collecte de données comme un moyen d'arriver à leurs fins, négligeant souvent l'exactitude et l'étiquetage. Pour recueillir les quantités massives de données nécessaires à l'entraînement de leurs modèles, les sociétés d'IA achètent des données en vrac à des fournisseurs, utilisent des racleurs sans discernement et dépendent de sous-traitants pour le filtrage de base et la vérification des erreurs. Une enquête publiée récemment a rapporté que de nombreuses entreprises d'IA, y compris les acteurs tels que Google et Meta, ignorent le contenu de leurs ensembles de données d'entraînement.
Même l'ensemble de données "Colossal Clean Crawled Corpus" (C4) de Google, fortement filtré et utilisé pour l'entraînement de divers modèles d'IA, s'est avéré contenir du contenu provenant du forum Stormfront, fortement peuplé de suprémacistes blancs, et du forum 4chan, réputé pour sa modération laxiste. Nithya Sambasivan, chercheur chez Google, a conclu dans une étude que les pratiques en matière de données sont "désordonnées, longues et opaques". En fin de compte, Sambasivan a noté que ces défis sont dus au fait que "tout le monde veut faire le travail de modélisation, pas le travail de données". Mais l'UE pourrait bientôt exiger un changement.
En outre, selon d'autres sources, OpenAI marche avec une cible dans le dos : l'entreprise n'a pas établi de siège local dans l'un des 27 pays de l'UE, ce qui signifie que l'autorité de protection des données de n'importe quel pays membre peut lancer de nouvelles enquêtes et appliquer des interdictions. Précédemment, Google a dû s'acquitter d'une amende de 50 millions d'euros en France au titre du RGPD, imposée avant que le géant américain de la technologie ne centralise officiellement son dispositif juridique européen en Irlande, dont l'autorité de la protection des données (DPC) fait office de régulateur principal des entreprises dans l'UE.
TikTok a également fait l'objet de plusieurs enquêtes sur la protection de la vie privée et d'amendes de la part des autorités néerlandaises, italiennes et françaises avant de s'installer légalement en Irlande en 2021. Les autorités de l'UE de régulation des données réfléchissent aux prochaines mesures à prendre pour examiner les abus présumés, comme leurs homologues italiens. La DPC a déclaré qu'elle se coordonnera avec tous les régulateurs de l'UE en ce qui concerne cette question. L'autorité belge de protection des données a également déclaré que les infractions potentielles de ChatGPT "devraient être discutées au niveau européen".
En France, la Commission nationale de l'informatique et des libertés (CNIL) a enregistré au moins deux plaintes contre ChatGPT, pour des raisons de violation de la vie privée, y compris du RGPD. En Norvège, les autorités ont indiqué qu'ils n'ont lancé aucune enquête sur ChatGPT à ce jour. Toutefois, Tobias Judin, responsable du travail international pour l'organisme de réglementation de la protection des données du pays, Datatilsynet, a déclaré que la Norvège n'excluait rien pour l'avenir. OpenAI a réfuté les accusations de violation du RGPD, mais le PDG Sam Altman a déclaré sur Twitter que l'entreprise était prête à collaborer avec les autorités de l'UE.
Source : l'autorité italienne de protection des données (GPDP)
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous des accusations de violation du RGPD qui visent OpenAI ?
:fleche: Que pensez-vous des exigences de l'autorité italienne de la protection des données ? Sont-elles réalistes ?
:fleche: Selon vous, OpenAI est-il en mesure de se conformer à ces exigences dans le délai imparti ?
:fleche: Selon vous, OpenAI parviendra-t-il à se conformer aux exigences du RGPD ? Pourquoi ?
:fleche: Quid des concurrents d'OpenAI qui sont confrontés aux mêmes problèmes de conformité au RGPD ?
Voir aussi
:fleche: OpenAI, le développeur de ChatGPT, va proposer des mesures correctives concernant l'interdiction en Italie, et s'engage à plus de transparence sur le traitement des données des utilisateurs
:fleche: L'Allemagne envisage d'emboîter le pas à l'Italie en interdisant l'utilisation de ChatGPT, évoquant une violation présumée des règles de confidentialité par le chatbot d'IA d'OpenAI
:fleche: Les régulateurs européens de la vie privée surveillent de près la suspension de ChatGPT en Italie. Plusieurs envisageraient de lui emboîter le pas, évoquant des problèmes de confidentialité
:fleche: ChatGPT bientôt interdit en France comme en Italie ? La CNIL enregistre les premières plaintes contre le logiciel d'IA d'OpenAI, la société est accusée d'avoir violé plusieurs dispositions du RGPD
1 pièce(s) jointe(s)
Comment les chatbots IA vont révolutionner l’apprentissage de la lecture et de l’écriture selon Bill Gates
Comment les chatbots IA vont révolutionner l’apprentissage de la lecture et de l’écriture dans 18 mois selon Bill Gates,
le pari ambitieux du milliardaire pour les enfants
Le co-fondateur de Microsoft, Bill Gates, a prédit que les chatbots IA pourraient apprendre aux enfants à lire d'ici 18 mois : « Je pense que l'IA a le potentiel de faire une grande différence dans l'éducation », a estimé Gates. « L'un des domaines dans lesquels je suis le plus enthousiasmé par l'IA est l'éducation de la petite enfance. Je pense que les chatbots IA pourraient être vraiment utiles pour apprendre aux enfants à lire ». Gates a souligné que de nombreux enfants ont du mal à apprendre à lire et que cela peut avoir un impact durable sur leurs performances scolaires. Il a déclaré que les chatbots IA pourraient être utilisés pour fournir des instructions personnalisées aux enfants en difficulté, et que cela pourrait les aider à rattraper leurs pairs.
Bientôt, l'intelligence artificielle pourrait aider à enseigner à vos enfants et à améliorer leurs notes. C'est en tout cas ce qu'affirme Bill Gates. Le co-fondateur de Microsoft pense que les chatbots d'IA sont sur la bonne voie pour aider les enfants à apprendre à lire et à perfectionner leurs compétences en écriture dans 18 mois. À l'occasion du somment ASU + GSV à San Diego, il a déclaré : « les IA arriveront à cette capacité, d'être le meilleur tuteur possible ».
L'évolution de l'IA a suscité à la fois de l'enthousiasme pour le potentiel de la technologie et un débat sur les éventuelles conséquences négatives. Gates fait parti des deux camps. Toutefois, revêtant sa casquette d'impressionné, il reconnaît que les chatbots d'aujourd'hui ont « une incroyable maîtrise de la lecture et de l'écriture », des capacités qui, selon lui, les aidera bientôt à apprendre aux élèves à améliorer leur propre lecture et écriture d'une manière que la technologie n'a jamais pu auparavant.
« Au début, nous serons très étonnés de voir à quel point cela aide à la lecture - être un assistant de recherche en lecture - et vous donner des commentaires sur l'écriture », a déclaré Gates.
Historiquement, l'enseignement des compétences en écriture s'est avéré être une tâche incroyablement difficile pour un ordinateur, a noté Gates. Lorsque les enseignants donnent leur avis sur les essais, ils recherchent des caractéristiques telles que la structure narrative et la clarté de la prose. Il s'agit là d'un « exercice hautement cognitif » qui est « difficile » à reproduire dans le code pour les développeurs, selon Gates.
Cependant, la capacité des chatbots IA à reconnaître et à recréer des changements de langage de type humain changent cette dynamique, selon les partisans.
L'IA et la génération de mots
Kevin Roose, chroniqueur technique du New York Times, a écrit le mois dernier qu'il avait déjà utilisé ChatGPT pour améliorer ses articles.
ChatGPT l'a déjà aidé par exemple à comprendre de nouveaux concepts :
Citation:
Depuis quelques mois, j'utilise ChatGPT comme tuteur personnel chaque fois que je suis curieux d'un nouveau sujet. S'il s'agit, par exemple, de la banque de réserve fractionnaire, je commencerai par demander à ChatGPT « explique-moi ce que c'est la banque de réserve fractionnaire comme si j'étais au lycée » (ou, si je suis encore confus, « au collège ».)
ChatGPT et autres A.I. les chatbots fonctionnent bien avec ces types d'invites, en utilisant leurs compétences en traitement du langage naturel, tant que vous ne posez pas de questions sur des événements très récents ou des sujets extrêmement obscurs. Faire appel à un tuteur infiniment patient et sans frais pour me guider à travers de nouveaux sujets ressemble à une superpuissance. Utilisés correctement, ils peuvent être des outils pédagogiques incroyables.
Il l'a aussi utilisé pour débloquer sa créativité :
Citation:
L'IA peut également être un bon outil pour faire couler votre créativité. Récemment, j'essayais de trouver des questions à poser à un invité du podcast. J'ai collé la biographie de l'invité dans ChatGPT et lui ai demandé de me donner « 10 questions d'entretien réfléchies et incisives » pour cette personne. Parmi les questions qu'il a générées, la plupart étaient plutôt bonnes, et j'ai fini par en utiliser quelques-unes dans l'émission.
Ethan Mollick, professeur à la Wharton School de l'Université de Pennsylvanie, recommande d'utiliser l'IA. pour surmonter le blocage de l'écrivain ou démarrer sur des projets difficiles. Une personne qui souhaitait démarrer une boulangerie, par exemple, pourrait demander à ChatGPT une liste de tous les équipements et permis nécessaires.
Certains universitaires se disent impressionnés par la capacité des chatbots à résumer et à offrir des commentaires sur des morceaux de texte, ou même à rédiger eux-mêmes des essais complets.
Cependant, ces mêmes universitaires avertissent que la technologie n'est pas encore complètement formée et peut introduire par inadvertance des erreurs importantes ou de la désinformation. Et la technologie de l'IA doit améliorer la lecture et la recréation du langage humain pour mieux motiver les étudiants avant de pouvoir devenir un tuteur viable, a estimé Gates.
« Si vous prenez les 18 prochains mois, les IA viendront en tant qu'aides-enseignants et donneront leur avis sur l'écriture », a déclaré Gates. « Et ensuite, ils amélioreront ce que nous sommes capables de faire en mathématiques ».
Des limites dans le raisonnement
Bill Gates semble placer la charrue avant les bœufs, surtout en parlant d'enseignement de l'écriture et de la lecture par l'IA à la petite enfance. Rappelons tout d'abord qu'apprendre un concept à un adulte (voire le cas du chroniqueur du New York Times cité en sus) est complètement différent d'apprendre à un enfant les bases de la communication.
Pour pouvoir enseigner la lecture et l’écriture à des enfants, il faut avoir plusieurs capacités, comme :
- Connaître les principes et les méthodes issus de la recherche sur l’apprentissage de la lecture et de l’écriture.
- Savoir évaluer les acquis et les besoins des élèves en compréhension, en écriture, en vocabulaire, etc.
- Choisir des supports et des activités adaptés au niveau et aux intérêts des élèves.
- Enseigner de manière explicite et systématique les correspondances graphèmes-phonèmes, la grammaire, l’orthographe et le vocabulaire.
- Donner des feedbacks réguliers et constructifs aux élèves sur leurs productions écrites.
Alors l’IA peut-elle enseigner la lecture et l’écriture aux enfants ? C’est une question qui fait débat dans le monde de l’éducation et de la recherche. Certains pensent que l’IA peut être un outil précieux pour aider les enfants à apprendre à lire et à écrire, en leur proposant des activités adaptées, des feedbacks personnalisés et des chatbots interactifs. D’autres craignent que l’IA ne remplace pas le rôle essentiel des enseignants, qui connaissent les principes et les méthodes fondés sur la recherche pour enseigner la lecture et l’écriture, et qui peuvent accompagner les élèves dans leur parcours d’apprentissage.
Dans ce contexte, il est important de faire la distinction entre l’IA comme outil complémentaire et l’IA comme substitut à l’enseignement humain. L’IA peut être utile pour soutenir les enseignants et les élèves, mais elle ne peut pas se substituer à la relation pédagogique, à la motivation et à l’évaluation des progrès. L’IA doit être utilisée avec discernement, en respectant les programmes et les recommandations du ministère de l’éducation nationale, et en tenant compte des besoins spécifiques de chaque élève.
De plus, l'idée que les chatbots excellent en lecture et en écriture avant les mathématiques peut être quelque peu surprenante : l'algèbre et le calcul sont souvent utilisés pour développer la technologie de l'IA.
Mais les chatbots, qui sont formés sur de grands ensembles de données, ont souvent du mal avec les calculs mathématiques, notent les experts. Si une équation mathématique résolue existe déjà dans les ensembles de données sur lesquels le chatbot est formé, il peut vous fournir la réponse. Mais trouver sa propre solution est une autre histoire.
Gates a déclaré qu'il demandait régulièrement aux développeurs de Microsoft AI pourquoi les chatbots ne pouvaient pas effectuer des calculs relativement simples, ni même multiplier certains nombres. La réponse*: l'IA a besoin de capacités de raisonnement améliorées pour gérer la complexité d'un calcul mathématique.
Cela peut prendre un certain temps, mais Gates est convaincu que la technologie s'améliorera, probablement d'ici deux ans, a-t-il déclaré. Ensuite, cela pourrait aider à rendre les cours particuliers accessibles à un large éventail d'étudiants qui, autrement, ne pourraient pas se le permettre.
Cela ne veut pas dire que ce sera gratuit, cependant. ChatGPT et Bing ont maintenant des versions gratuites limitées, mais le premier a lancé un plan d'abonnement de 20 $ par mois appelé ChatGPT Plus en février. Pourtant, Gates a déclaré que ce serait au moins plus abordable et accessible que le tutorat individuel avec un instructeur humain.
« Cela devrait être un niveleur », a-t-il déclaré. « Parce que l'accès à un tuteur coûte trop cher pour la plupart des étudiants - en particulier le fait que ce tuteur s'adapte et se souvienne de tout ce que vous avez fait et examine l'ensemble de votre travail ».
Source : ASU+GSV Summit
Et vous ?
:fleche: Sur quels arguments ou preuves Bill Gates se base-t-il pour affirmer que les chatbots IA seront capables d’enseigner la lecture et l’écriture aux enfants en 18 mois ?
:fleche: Quels sont les avantages et les inconvénients de l’utilisation des chatbots IA dans l’éducation ?
:fleche: Quels sont les risques ou les limites des chatbots IA pour apprendre à lire et à écrire ?
:fleche: Des risques de biais des chatbots IA dans l’éducation ?