ChatGPT c'est un outils, le responsable ça reste le développeur...L’erreur de ChatGPT qui a coûté 10 000 dollars
Sinon, la prochaine fois que je déploie un bug je dirais que c'est la faute de mon clavier...
ChatGPT c'est un outils, le responsable ça reste le développeur...L’erreur de ChatGPT qui a coûté 10 000 dollars
Sinon, la prochaine fois que je déploie un bug je dirais que c'est la faute de mon clavier...
c'est dommage qu'ils n'expliquent pas mieux leur code ou c'est moi qui n'ai pas compris. Je ne connais pas SQL alchemy.
c'est sensé être relativement unique, sauf s'il ne créent qu'une seule instance de la classe subscription par serveur ce qu'ils ont l'air de dire. En ce cas c'est une erreur de logique de créer l'identifiant unique là plutôt que dans un objet par utilisateur, mais bon, même sans chatgpt ça arrive de faire des erreurs de logique surtout quand on ne dort pas.
Code : Sélectionner tout - Visualiser dans une fenêtre à part str(uuid.uuid4())
Ce qui est plus étrange, c'est d'écrire quelque chose dans une base sans lever quelque part une erreur si la base ne crée pas les entrées...
De ce que je comprends de la doc de Django https://docs.djangoproject.com/en/5....ields/#default c'est que default prend une valeur ou un callable
En faisantstr(uuid.uuid4()) génère un uuid4 qui est casté en string, ça devient donc une valeur qui ne changera plus.
Code : Sélectionner tout - Visualiser dans une fenêtre à part default=str(uuid.uuid4())
Pour ne pas avoir le problème ils auraient dû comme ils le disent faire une lamba ou une fonction
Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
4 def generate_uuid4(): return str(uuid.uuid4()) default=generate_uuid4
cette mesaventure va se generaliser.
le service rendu et la rapidité sont la,
-- ce qui va nous rendre feignant,
---- ce qui va nous faire perdre nos competence (comme celle que la calculette a eu sur notre capacité a faire des calculs de tete)
------ ce qui nous fera arreter se savoir apprendre differemment de que l'ia nous dira,
-------- ce qui nous fera arreter d'innover/creer par feigenantise ou parce que qu'on ne saura plus comment faire,
---------- ce qui va nous rendre dependant de l'ia,
ou alors, on se dit que l'ia n'est qu'un outil de blending avancé,
-- mais que sans nous,
---- sans notre recherche de la difference,
------ sans notre innovation,
-------- sans notre ideal,
---------- sans notre vision de ce que doit etre l'humanité,
------------ l'ia n'a rien a ce mettre sous la dent,
-------------- donc elle doit nous aider pas nous remplacer.
Bonjour,
On est le 26/06/2024 et aujourd'hui, je constate dans l'historique que j'ai accès à des requêtes qui ne viennent pas de moi !
Les examens soumis par l'IA obtiennent de meilleures notes que les étudiants en chair et en os d'après une étude.
Selon les experts, les universités devraient s'efforcer d'adopter la « nouvelle normalité » de l'IA pour améliorer l'enseignement.
Des chercheurs de l’Université de Reading ont mené une étude révélant que les réponses d’examens générées par l’IA peuvent non seulement échapper à la détection, mais aussi obtenir des notes plus élevées que celles soumises par les étudiants universitaires. Ces conclusions interviennent alors que des inquiétudes se font jour quant au fait que des étudiants présentent des travaux générés par l'IA comme étant les leurs, ce qui soulève des questions quant à l'intégrité académique des universités et d'autres établissements d'enseignement supérieur.
Selon les universitaires de l'université de Reading, cette étude montre également que même les correcteurs expérimentés pourraient avoir du mal à repérer les réponses générées par l'IA.
Peter Scarfe, professeur associé à l'école de psychologie et de sciences du langage clinique de Reading, a déclaré que ces résultats devraient servir de « signal d'alarme » pour les établissements d'enseignement, car les outils d'IA tels que ChatGPT deviennent de plus en plus avancés et répandus. Il a déclaré : « Les données de notre étude montrent qu'il est très difficile de détecter les réponses générées par l'IA ».
« On a beaucoup parlé de l'utilisation de ce que l'on appelle les détecteurs d'IA, qui sont également une autre forme d'IA, mais leur portée est limitée ».
Pour cette étude, publiée dans la revue Plos One, le professeur Scarfe et son équipe ont généré des réponses à des questions d'examen à l'aide de GPT-4 et les ont soumises au nom de 33 faux étudiants.
Les correcteurs d'examen de l'école de psychologie et de sciences cliniques du langage de Reading n'étaient pas au courant de l'étude.
Les réponses soumises pour de nombreux modules de psychologie de premier cycle n'ont pas été détectées dans 94 % des cas et, en moyenne, ont obtenu des notes plus élevées que celles des vrais étudiants, a déclaré le professeur Scarfe. Selon lui, l'IA s'est particulièrement bien comportée en première et deuxième années d'études, mais a connu plus de difficultés dans le module de la dernière année d'études.
L'année dernière, les universités du Russell Group, dont fait partie l'Université d'Oxford, se sont engagées à autoriser l'utilisation éthique de l'IA dans l'enseignement et les évaluations, et de nombreuses autres ont fait de même.
Le secteur de l'éducation devra constamment s'adapter et mettre à jour les orientations
Toutefois, le professeur Scarfe a déclaré que le secteur de l'éducation devra constamment s'adapter et mettre à jour les orientations à mesure que l'IA générative continuera d'évoluer et de devenir plus sophistiquée. Il a ajouté que les universités devraient se concentrer sur la manière d'adopter la « nouvelle normalité » de l'IA afin d'améliorer l'éducation.
Le professeur Scarfe a ajouté que le retour aux évaluations en personne lors des examens constituerait « un pas en arrière à bien des égards ». Il a déclaré : « De nombreuses institutions ont abandonné les examens traditionnels pour rendre l'évaluation plus inclusive. Nos recherches montrent qu'il est d'une importance internationale de comprendre comment l'IA affectera l'intégrité des évaluations éducatives. Nous ne reviendrons pas nécessairement aux examens manuscrits, mais le secteur mondial de l'éducation devra évoluer face à l'IA ».
Le professeur Etienne Roesch, de l'école de psychologie et de sciences cliniques du langage de Reading, co-auteur de l'étude, a ajouté : « En tant que secteur, nous devons nous mettre d'accord sur la manière dont nous attendons des étudiants qu'ils utilisent et reconnaissent le rôle de l'IA dans leur travail. Il en va de même pour l'utilisation plus large de l'IA dans d'autres domaines de la vie, afin d'éviter une crise de confiance au sein de la société. Notre étude met en évidence la responsabilité qui nous incombe en tant que producteurs et consommateurs d'informations. Nous devons redoubler d'efforts pour respecter l'intégrité de l'enseignement et de la recherche ».
99% des étudiants utilisent les IA génératives pour diminuer leur temps de travail
Dans le cadre du Hackathon transversal autour des enjeux sociétaux de l’IA, une étude a été réalisée par le Pôle Léonard de Vinci et Talan auprès de 1 600 étudiants de 4ème année d’études supérieures. Ce sondage a pour but de révéler la vision et l’utilisation des IA génératives (Chat GPT, Midjourney etc.) par les étudiants mais aussi son impact sur l’avenir professionnel des élèves. Grâce à un Hackathon structuré autour d’une pédagogique novatrice, les étudiants ont pu prendre du recul par rapport à l’utilisation des IA.
Voici quelques chiffres clés de l'étude :
- Adoption massive : 99% des étudiants utilisent les IA génératives (ChatGPT, Midjourney, Gemini, etc);
- Usage intensif : 92% les utilisent régulièrement et 1/3 tous les jours;
- Catalyseur de performance : 65% perçoivent une forte augmentation de leur productivité;
- Coût financier : 1/3 des étudiants paient un abonnement ChatGPT 4 à 20€/mois;
- Atout d’attractivité décisif : 65% des étudiants estiment que la présence des IA génératives fait partie des principaux critères de choix de leur future entreprise.
Les étudiants ont indéniablement trouvé leur baguette magique avec les technologies d’IA génératives. Ils se disent eux-mêmes :
- Accros aux IA génératives : 51% constatent qu'ils auraient du mal à se passer de ChatGPT.
- Ils sont dans le même temps conscients des défauts des IA génératives et le dispositif d’apprentissage du Hackathon auquel ils ont participé (alternance de réflexion sans IA, puis avec) a porté ses fruits et devrait servir d’exemple pour former massivement les étudiants et salariés comme cela est préconnisé dans le rapport « IA : notre ambition pour la France » de la commission de l’intelligence artificielle sorti en mars 2024.
« Les diplômes universitaires perdront en importance au fur et à mesure de la montée en puissance de l'IA », d'après le vice-président de LinkedIn
Le PDG d’Indeed, Chris Hyams, a exprimé ses préoccupations quant à l’impact de l’intelligence artificielle (IA) sur le marché du travail. Dans un essai, il compare l’évolution rapide de l’IA à celle de la révolution industrielle et note que les « vagues d’innovation technologique » se sont accélérées au fil du temps. En droite ligne avec ces observations, il souligne que les étudiants sont susceptibles d’acquérir des compétences qui pourraient devenir obsolètes une fois qu’ils auront obtenu leur diplôme. C’est une sortie que vient compléter celle du vice-président de LinkedIn selon laquelle « les diplômes universitaires perdront en importance au fur et à mesure de la montée en puissance de l’intelligence artificielle. »
Selon le VP de LinkedIn, ce sont plutôt la capacité à communiquer, la créativité et l’adaptabilité que les recruteurs rechercheront de plus en plus. La sortie qui intervient après la publication d’une étude selon laquelle les étudiants sont susceptibles d’acquérir des compétences qui pourraient devenir obsolètes à cause de l’IA questionne sur l’importance des études.
En sus, 27 % des emplois sont fortement menacés par la révolution de l'IA, selon une étude de l'OCDE.
École, diplôme, capacité à communiquer, créativité et adaptabilité sont-ils dissociables ? Ça dépend
La rubrique Emploi de Developpez.com ouvre la porte à la consultation de plus de 20 000 offres d’emploi de professionnels de l'informatique au sein de la francophonie. Des exigences reviennent au sein de ces dernières : le postulant doit posséder un diplôme universitaire de niveau bac+3/5 et plusieurs années d’expérience. Et ce n’est pas fortuit.
En effet, de façon traditionnelle, l’exercice dans la filière des technologies de l’information en France requiert de suivre le parcours classique d’une formation diplômante en informatique, au cours de laquelle, le futur développeur de métier acquiert les connaissances de base pour la carrière qu’il envisage. Le cursus est sanctionné par l’obtention d’un diplôme universitaire à bac+3/5 en général requis (en plus d’un certain nombre d’années d’expérience professionnelle) par les employeurs lors de la phase de recrutement. La consultation des syllabus de formation laisse en sus penser qu’elles accordent une place importante à la capacité de communiquer, à la créativité et à l’adaptabilité.
En Amérique du Nord, le rapport au diplôme est différent de celui en France. En 2015, Elon Musk et d'autres personnalités de l'industrie de la technologie ont créé OpenAI et l'ont déplacé dans des bureaux au nord de la Silicon Valley à San Francisco. Ils ont recruté plusieurs chercheurs ayant travaillé chez Google et Facebook, deux des entreprises qui mènent une poussée industrielle dans le domaine de l'intelligence artificielle.
En plus des salaires et des primes à la signature, les géants de l'Internet rémunèrent généralement les employés avec des options d'achat d'actions considérables. OpenAI a dépensé environ 11 millions de dollars dans sa première année, avec plus de 7 millions de dollars consacrés aux salaires et autres avantages sociaux. C’est ainsi que des chercheurs de renom ont pu entrer en possession de rémunérations annuelles variant entre 300 000 dollars et 2 millions de dollars l’an.
Grosso modo, la manœuvre laissait penser que la filière intelligence artificielle est réservée à des tiers ayant fait de longues études universitaires, des personnes nanties de doctorats. Seulement, Elon Musk a complété une offre d’emploi pour la division intelligence artificielle de Tesla à sa manière : « Un doctorat n'est absolument pas nécessaire. Tout ce qui compte, c'est une compréhension approfondie de l'intelligence artificielle et la capacité à mettre en œuvre les réseaux de neurones d'une manière réellement utile (c'est ce dernier point où l'on observe qu'il y a des difficultés). Pour le reste, je me fiche de savoir si vous êtes même parvenu à obtenir votre diplôme d'études secondaires. »
C’est un positionnement qui rejoint celui d’IBM qui suggère de recruter sur la base des compétences plutôt qu’en se fondant sur les diplômes universitaires. Même Tim Cook est d’avis « qu'un diplôme universitaire de quatre ans n’est pas nécessaire pour maîtriser le codage informatique. » Après, la plus grosse difficulté est peut-être de répondre à la question : qu’est-ce qu’être compétent ?
Source : Plos One
Et vous ?
L’éthique de l’utilisation de l’IA : quelle est votre opinion sur l’utilisation de l’IA pour générer des réponses d’examens ? Est-ce acceptable ou cela compromet-il l’intégrité académique ?
Évaluation de la créativité : l’IA peut-elle réellement rivaliser avec la créativité et la réflexion critique des étudiants ? Comment évalueriez-vous la qualité d’une réponse générée par l’IA par rapport à celle d’un étudiant réel ?
Transparence et responsabilité : comment pouvons-nous garantir la transparence et la responsabilité dans l’utilisation de l’IA pour les examens ? Quelles mesures devraient être prises pour éviter la tricherie ?
Impact sur l’apprentissage : l’utilisation de l’IA pour générer des réponses d’examens pourrait-elle avoir un impact sur la façon dont les étudiants apprennent et étudient ? En quoi cela pourrait-il être bénéfique ou préjudiciable ?
Alternatives et solutions : quelles autres méthodes d’évaluation pourraient être mises en place pour garantir l’intégrité académique tout en tirant parti des avantages de l’IA ?
Comme si Tim Cook y connaissait quoi que ce soit à l'informatique. Le gars est compétent pour faire faire des téléphones à des personnes sous-payées dans des pays du Tiers Monde, c'est tout.
Pour ce qui est de recruter sur les compétences, c'est bien entendu une bonne idée. Par contre un bootcamp ne remplace pas des études ou une longue expérience. C'est ce qui fait qu'un développeur sera capable de faire son travail au lieu de réinventer la roue ou de choisir des solutions peu efficaces. Il n'y a qu'à regarder le développement web et tous ces sites et plateformes pas sécurisées, lentes, boguées pour se rendre compte qu'il y a bien un problème de compétences, et qu'avoir deux jours de javascript/PHP dans sa vie ne suffit pas pour faire un développeur.
Là, j'ai plutôt l'impression qu'ils cherchent à former des personnes qui ne seront capables de travailler qu'avec leurs outils à base d'IA.
Toute cette agitation dans les médias autour des IA devient vraiment ridicule: on a bien compris que IA = pognon pour les gigantesques entreprises. Pas besoin de nous le rappeler tous les jours.
Quels avantages et pour qui? On s'en fout d'avantager les GAFAM.
Pour le reste, il suffit de mettre les étudiants dans des conditions où ils ne peuvent pas accéder aux services d'IA, et ils n'auront pas le choix. Comment faisait-on passer des examens avant l'arrivée d'Internet et des smartphones??
Ah ben c'est sûr que le gars ne va pas dire autre chose: le groupe auquel il appartient (Microsoft, une GAFAM), investit massivement dans OpenIA, et tout le bordel. S'il tient à son poste de directeur, il a tout intérêt à continuer de raconter ce genre de conneries.
Sans compter qu'on vit en Europe: oui, vous pourrez trouver un travail en société de service avec peu de diplômes, mais par contre les RH vous le rappelleront chaque année quand vous demanderez une augmentation/réévaluation pour toucher la même chose que vos collègues plus diplômés.
« Les gens surestiment l'IA générative », déclare Rodney Brooks, pionnier de la robotique au MIT.
Brooks rappelle que l’enthousiasme pour l’IA doit être tempéré par une compréhension réaliste de ses capacités et de ses contraintes
L’intelligence artificielle générative (IA) suscite un enthousiasme croissant, mais Rodney Brooks nous invite à la prudence. En tant que professeur émérite de robotique chez MIT et co-fondateur de plusieurs entreprises de pointe, Brooks a une perspective unique sur le domaine. Rodney Brooks, un pionnier de la robotique et co-fondateur d’entreprises telles que Rethink Robotics, iRobot et Robust.ai. Brooks nous rappelle que l’enthousiasme pour l’IA doit être tempéré par une compréhension réaliste de ses capacités et de ses contraintes.
Voici les points clés :
- Surévaluation des capacités de l’IA générative :
- Brooks souligne que l’IA générative est impressionnante, mais elle ne peut pas tout faire. Les humains ont tendance à surestimer ses capacités en généralisant à partir de tâches spécifiques.
- Lorsqu’un humain observe un système IA accomplir une tâche, il a tendance à extrapoler ses compétences, même au-delà de ce qu’il a démontré. Cela peut conduire à des attentes irréalistes.
- L’IA générative n’est pas humaine :
- Brooks insiste sur le fait que l’IA générative n’est pas semblable à l’intelligence humaine. Assigner des capacités humaines à l’IA est une erreur.
- Par exemple, utiliser un modèle de langage pour diriger des robots d’entrepôt n’est pas toujours la meilleure approche. Les systèmes de traitement de données massifs et d’optimisation sont souvent plus efficaces.
- Solutions raisonnables et intégration des robots :
- Selon Brooks, il faut résoudre des problèmes solubles où les robots peuvent s’intégrer facilement. Les entrepôts, par exemple, sont un domaine où l’automatisation fonctionne bien.
- Plutôt que de chercher à tout automatiser, concentrons-nous sur des domaines spécifiques où l’IA peut réellement apporter une valeur ajoutée.
Actuellement professeur émérite de robotique Panasonic au MIT, Rodney Brooks a également cofondé trois entreprises importantes, dont Rethink Robotics, iRobot et son entreprise actuelle, Robust.ai. Brooks a également dirigé le laboratoire d'informatique et d'intelligence artificielle du MIT (CSAIL) pendant une décennie à partir de 1997.
En fait, il aime faire des prédictions sur l'avenir de l'intelligence artificielle et tient un tableau de bord sur son blog pour savoir s'il s'en sort bien.
Il sait de quoi il parle et pense qu'il est peut-être temps de mettre un frein au battage médiatique de l'IA générative. Brooks pense qu'il s'agit d'une technologie impressionnante, mais qu'elle n'est peut-être pas aussi performante que beaucoup le suggèrent. « Je ne dis pas que les LLM ne sont pas importants, mais nous devons être prudents dans la manière dont nous les évaluons », a-t-il déclaré.
Surévaluation des capacités de l’IA générative
Selon lui, le problème de l'IA générative est que, bien qu'elle soit parfaitement capable d'effectuer un certain nombre de tâches, elle ne peut pas faire tout ce qu'un humain peut faire, et les humains ont tendance à surestimer ses capacités. « Lorsqu'un humain voit un système d'IA effectuer une tâche, il la généralise immédiatement à des choses similaires et évalue la compétence du système d'IA ; pas seulement la performance, mais la compétence qui l'entoure », explique Brooks. « Et ils sont généralement très optimistes, parce qu'ils utilisent un modèle de la performance d'une personne dans une tâche ».
Il ajoute que le problème est que l'IA générative n'est pas humaine, ni même semblable à l'homme, et qu'il est erroné d'essayer de lui attribuer des capacités humaines. Il ajoute que les gens la considèrent comme tellement capable qu'ils veulent même l'utiliser pour des applications qui n'ont pas de sens.
Brooks cite en exemple sa dernière entreprise, Robust.ai, un système de robotique d'entrepôt. Quelqu'un lui a récemment suggéré qu'il serait cool et efficace de dire à ses robots d'entrepôt où aller en construisant un LLM pour son système. Selon lui, il ne s'agit pas d'un cas d'utilisation raisonnable de l'IA générative et cela ralentirait même les choses. Il est beaucoup plus simple de connecter les robots à un flux de données provenant du logiciel de gestion de l'entrepôt.
« Lorsque vous avez 10 000 commandes qui viennent d'arriver et que vous devez les expédier en deux heures, vous devez les optimiser. Le langage ne sera d'aucune utilité ; il ne fera que ralentir les choses », a-t-il déclaré. « Nous disposons d'un traitement massif des données et de techniques d'optimisation et de planification à base d'IA. C'est ainsi que les commandes sont traitées rapidement ».
Solutions raisonnables et intégration des robots
Une autre leçon que Brooks a tirée en matière de robots et d'IA est qu'il ne faut pas essayer d'en faire trop. Il faut résoudre un problème qui peut être résolu et dans lequel les robots peuvent être intégrés facilement.
« Nous devons automatiser là où les choses ont déjà été nettoyées. L'exemple de mon entreprise est que nous réussissons assez bien dans les entrepôts, et les entrepôts sont en fait assez contraignants. L'éclairage ne change pas dans ces grands bâtiments. Il n'y a pas d'objets qui traînent sur le sol parce que les personnes qui poussent les chariots s'y heurtent. Il n'y a pas de sacs en plastique flottants. En outre, il n'est pas dans l'intérêt des personnes qui y travaillent d'être malveillantes à l'égard du robot », a-t-il déclaré.
Brooks explique qu'il s'agit aussi de faire travailler ensemble les robots et les humains. Son entreprise a donc conçu ces robots à des fins pratiques liées aux opérations d'entreposage, plutôt que de construire un robot à l'apparence humaine. Dans ce cas, il ressemble à un chariot de supermarché avec une poignée.
« Le facteur de forme que nous utilisons n'est donc pas un humanoïde qui se promène, même si j'ai construit et livré plus d'humanoïdes que n'importe qui d'autre. Ils ressemblent à des chariots de supermarché », a-t-il déclaré. « Il y a un guidon, de sorte qu'en cas de problème avec le robot, une personne peut saisir le guidon et en faire ce qu'elle veut », a-t-il ajouté.
Après toutes ces années, Brooks a appris qu'il s'agit de rendre la technologie accessible et adaptée. « J'essaie toujours de rendre la technologie facile à comprendre pour les gens, ce qui nous permet de la déployer à grande échelle, et de toujours tenir compte de l'analyse de rentabilité ; le retour sur investissement est également très important ».
Malgré cela, Brooks estime que nous devons accepter qu'il y aura toujours des cas aberrants difficiles à résoudre en matière d'IA, dont la résolution pourrait prendre des dizaines d'années. « Si l'on n'encadre pas soigneusement la manière dont un système d'IA est déployé, il y aura toujours une longue série de cas particuliers qui prendront des décennies à être découverts et résolus. Paradoxalement, tous ces correctifs sont eux-mêmes complets en matière d'IA ».
Une croyance erronée, principalement due à la loi de Moore
Brooks ajoute qu'il existe une croyance erronée, principalement due à la loi de Moore, selon laquelle il y aura toujours une croissance exponentielle en matière de technologie - l'idée que si ChatGPT 4 est aussi bon, imaginez ce que sera ChatGPT 5, 6 et 7. Il voit une faille dans cette logique, à savoir que la technologie ne connaît pas toujours une croissance exponentielle, en dépit de la loi de Moore.
Il prend l'iPod comme exemple. Pendant quelques itérations, sa capacité de stockage a effectivement doublé, passant de 10 à 160 Go. S'il avait continué sur cette trajectoire, il a calculé que nous aurions un iPod avec 160 To de stockage en 2017, mais bien sûr, ce n'est pas le cas. Les modèles vendus en 2017 étaient en fait dotés de 256 ou 160 Go car, comme il l'a souligné, personne n'avait besoin de plus que cela.
Brooks reconnaît que les LLM pourraient être utiles à un moment donné avec les robots domestiques, où ils pourraient effectuer des tâches spécifiques, en particulier avec une population vieillissante et un nombre insuffisant de personnes pour s'occuper d'eux. Mais même cela, dit-il, pourrait s'accompagner d'une série de défis uniques.
« Les gens disent : "Oh, les grands modèles de langage vont permettre aux robots de faire des choses qu'ils ne peuvent pas faire". Le problème n'est pas là. Le problème de la capacité à faire des choses relève de la théorie du contrôle et de toutes sortes d'optimisation mathématique pure et dure », a-t-il déclaré.
Brooks explique que cela pourrait éventuellement conduire à des robots dotés d'interfaces linguistiques utiles pour les personnes en situation de soins. « Il n'est pas utile dans un entrepôt de dire à un robot individuel d'aller chercher une chose pour une commande, mais il pourrait être utile pour les soins aux personnes âgées dans les maisons de retraite que les gens puissent dire des choses aux robots », a-t-il déclaré.
Conclusion
L’IA générative est prometteuse, mais elle a ses limites. En gardant à l’esprit les perspectives de Rodney Brooks, nous pouvons adopter une approche plus équilibrée. L’IA n’est pas une solution universelle, mais un outil puissant lorsqu’elle est utilisée judicieusement.
Source : Rodney Brooks
Et vous ?
Jusqu’où devrions-nous faire confiance à l’IA générative ? Pensez à la confiance que vous accordez aux systèmes IA génératifs. Quelles sont les limites de cette confiance ? Comment pouvons-nous équilibrer l’enthousiasme pour l’IA avec la prudence nécessaire ?
Quelles sont les implications éthiques de l’IA générative ? Explorez les aspects éthiques de l’IA générative. Quelles sont les préoccupations liées à la création d’œuvres générées par des machines ? Comment pouvons-nous garantir que ces systèmes ne sont pas utilisés de manière abusive ?
Comment pouvons-nous évaluer l’efficacité de l’IA générative ? Discutez des critères d’évaluation pour les systèmes IA génératifs. Quelles mesures devrions-nous utiliser pour évaluer leur performance ? Comment pouvons-nous éviter les biais et les erreurs ?
L’IA générative peut-elle surpasser la créativité humaine ? Quelles sont les limites de la créativité algorithmique ? Y a-t-il des domaines où l’IA peut surpasser l’homme ?
Quelles sont les implications économiques de l’automatisation par l’IA générative ? Evoquez les conséquences économiques de l’automatisation par l’IA générative. Comment cela affecte-t-il l’emploi, les industries et la société dans son ensemble ?
Une étude suggère que la répétition excessive de certains "mots marqueurs" par les chatbots peut révéler qu'un texte a été généré par l'IA
mais la reformulation du texte pourrait brouiller les pistes
Un groupe de chercheurs de l'université allemande de Tubingen et de l'université Northwestern suggère que l'occurrence élevée de certains mots (ou expressions) dans un texte à l'ère des grands modèles de langages (LLM) peut vouloir signifier que ce dernier a été généré par l'IA. En examinant l'usage excessif des mots après que les chatbots sont devenus largement disponibles à la fin de 2022, les chercheurs ont constaté une augmentation soudaine de la fréquence de certains mots de style qui était "sans précédent à la fois en matière de qualité et de quantité". Mais à peine ces mots sont-ils répertoriés qu'il est possible de dire à l'IA de ne pas en faire usage.
Le développement d'outils capables de détecter de manière fiable les textes générés par l'IA a été jusqu'ici un échec. Et même les entreprises spécialisées dans l'IA n'ont pas réussi à proposer des solutions convaincantes. Aujourd'hui, un groupe de chercheurs de l'université de Tubingen, en Allemagne, et de l'université Northwestern, aux États-Unis, propose une nouvelle piste. Ils ont élaboré une méthode pour estimer l'utilisation du LLM dans un vaste ensemble d'écrits scientifiques en mesurant les "mots en trop" qui ont commencé à apparaître beaucoup plus fréquemment depuis l'avènement des LLM (soit en 2023 et 2024).
Les résultats suggèrent qu'au moins 10 % des résumés de 2024 ont été traités avec des LLM. Pour mesurer ces changements de vocabulaire, les chercheurs ont analysé 14 millions de résumés d'articles publiés sur PubMed entre 2010 et 2024, en suivant la fréquence relative de chaque mot apparaissant chaque année. Ils ont ensuite comparé la fréquence attendue de ces mots (sur la base de la ligne de tendance antérieure à 2023) à la fréquence réelle de ces mots dans les résumés de 2023 et 2024, lorsque les LLM (ChatGPT, Gemini, etc.) sont devenus très nombreux sur le marché et ont commencé à être largement utilisés.
L'étude a révélé un certain nombre de mots qui étaient extrêmement rares dans ces résumés scientifiques avant 2023 et qui ont soudainement gagné en popularité après l'introduction des LLM. Le mot "delves", par exemple, apparaît dans 25 fois plus d'articles de 2024 que ne le laissait prévoir la tendance pré-LLM ; des mots comme "showcasing" et "underscores" ont aussi vu leur utilisation multipliée par neuf. Des mots qui étaient auparavant courants sont devenus nettement plus fréquents dans les résumés post-LLM : la fréquence de "potential" a augmenté de 4,1 %, celle de "findings" de 2,7 % et celle de "crucial" de 2,6 %.
Ce type de changement dans l'utilisation des mots pourrait se produire indépendamment de l'utilisation du LLM, bien sûr ; l'évolution naturelle de la langue signifie que les mots passent parfois d'un style à l'autre. Toutefois, les chercheurs ont constaté que, dans l'ère pré-LLM, de telles augmentations massives et soudaines d'une année sur l'autre n'ont été observées que pour les mots liés à des événements sanitaires mondiaux : "ebola" en 2015, "zika" en 2017 et des mots comme "coronavirus", "lockdown" et "pandemic" entre 2020 et 2022. Mais l'usage excessif de certains mots depuis 2023 ne correspond pas à ce schéma.Envoyé par Extrait du rapport de l'étude
En effet, alors que les mots utilisés de façon excessive pendant la pandémie de Covid-19 étaient en grande majorité des noms, l'équipe a constaté que les mots dont la fréquence avait augmenté depuis l'avènement des LLM sont en grande majorité des "mots de style" tels que des verbes, des adjectifs et des adverbes : across, additionally, comprehensive, enhancing, exhibited, insights, notably, particularly, within). De plus, il ne s'agit pas d'une remarque totalement nouvelle. Par exemple, la prévalence accrue de l'expression "delve" (approfondir) dans les articles scientifiques a été largement constatée dans un passé récent.
Mais les études antérieures s'appuyaient généralement sur des comparaisons avec des échantillons d'écriture humaine de "vérité de base" ou des listes de marqueurs LLM prédéfinis obtenus en dehors de l'étude. Ici, l'ensemble des résumés antérieurs à 2023 agit comme son propre groupe de contrôle efficace pour montrer comment le choix du vocabulaire a changé dans l'ensemble de données depuis l'arrivée des LLM. En mettant en évidence des centaines de "mots marqueurs" qui sont devenus beaucoup plus fréquents dans l'ère post-LLM, les signes révélateurs de l'utilisation d'un LLM peuvent parfois être faciles à repérer.
Comme indiqué ci-dessus, les pourcentages mesurés peuvent varier considérablement d'un sous-ensemble d'articles à l'autre. Les chercheurs ont constaté que les articles rédigés dans des pays comme la Chine, la Corée du Sud et Taïwan présentaient des "mots marqueurs" dans 15 % des cas. Cela suggère que les LLM pourraient aider les non-natifs à éditer des textes en anglais, ce qui pourrait justifier leur usage excessif. D'autre part, les chercheurs estiment que les locuteurs natifs de l'anglais peuvent [simplement] être plus aptes à remarquer et à supprimer activement les mots de style non naturels des sorties modèles.
Ces derniers pourraient ainsi dissimuler leur utilisation du LLM à ce type d'analyse. Par ailleurs, bien que l'étude puisse aider dans la détection des textes générés par l'IA, elle indique également aux utilisateurs ce qu'ils doivent faire pour passer entre les mailles du filet. Comme la connaissance des "mots marqueurs" révélateurs des LLM commence à se répandre, les rédacteurs humains pourraient devenir plus aptes à retirer ces marqueurs des textes générés avant qu'ils ne soient partagés avec le monde entier. Il est également possible que les LLM effectuent cette analyse eux-mêmes et réduisent l'occurrence de certains mots.
En somme, le défi de la détection des textes générés par l'IA n'est toujours pas résolu. En prenant connaissance de ces découvertes, les étudiants et les chercheurs qui utilisent les LLM pour rédiger leurs travaux pourraient facilement éviter de se faire prendre. Selon certains analystes, ce phénomène pourrait ouvrir la voie à un nouveau métier : des professionnels chargés de débusquer les textes générés par l'IA qui se cachent aujourd'hui dans l'immensité du Web.
Source : rapport de l'étude
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la méthode de détection des textes générés par l'IA décrite ci-dessus ?
Selon vous, cette technique peut-elle réellement servir de manière fiable dans la réalité ?
Pourquoi les entreprises ne réussissent-elle pas à proposer à un outil fiable pour la détection des textes générés par l'IA ?
Selon vous, comment peut-on détecter de manière fiable les textes générés par l'IA ?
Voir aussi
OpenAI développe un logiciel pour détecter le texte généré par ChatGPT, plusieurs outils visent à déterminer quels textes ont été générés par IA et lesquels ont été écrits par des humains
Une étude affirme que les internautes ne parviennent à détecter avec précision les textes générés par l'IA que dans 50 % des cas, et une autre estime que les outils de détection ne sont pas fiables
OpenAI lance un outil capable de détecter les images créées par son générateur texte-image DALL-E 3 afin de répondre aux inquiétudes concernant l'influence des contenus générés par l'IA lors des élections
VALL-E 2 : la nouvelle technologie vocale d'IA de Microsoft atteint pour la première fois la parité avec l'humain, elle est si aboutie que par peur d'une utilisation abusive, elle ne sera pas encore publiée
Une équipe de recherche de Microsoft a présenté VALL-E 2, un système d'IA considérablement amélioré pour la synthèse vocale. Cependant, ils estiment que le monde n'est pas prêt pour sa sortie.
Microsoft Corporation est une multinationale américaine et une entreprise technologique dont le siège se trouve à Redmond, dans l'État de Washington. Ses produits logiciels les plus connus sont la gamme de systèmes d'exploitation Windows, la suite d'applications de productivité Microsoft 365, la plateforme de cloud computing Azure et le navigateur web Edge. Ses produits matériels phares sont les consoles de jeux vidéo Xbox et la gamme d'ordinateurs personnels à écran tactile Microsoft Surface. Microsoft a été classée n° 14 dans le classement Fortune 500 de 2022 sur les plus grandes entreprises des États-Unis en fonction de leur chiffre d'affaires total, et elle a été le plus grand fabricant de logiciels au monde en termes de chiffre d'affaires en 2022, selon Forbes Global 2000. Elle est considérée comme l'une des cinq grandes entreprises américaines de technologie de l'information, aux côtés d'Alphabet (société mère de Google), d'Amazon, d'Apple et de Meta (société mère de Facebook).
L'intelligence artificielle (IA), dans son sens le plus large, est l'intelligence dont font preuve les machines, en particulier les systèmes informatiques. Il s'agit d'un domaine de recherche en informatique qui développe et étudie des méthodes et des logiciels permettant aux machines de percevoir leur environnement et d'utiliser l'apprentissage et l'intelligence pour prendre des mesures qui maximisent leurs chances d'atteindre des objectifs définis. Ces machines peuvent être appelées "IA".
Selon l'équipe de Microsoft qui a présenté VALL-E 2, il s'agit du premier système à atteindre des performances de niveau humain pour générer de la parole à partir de texte, même pour des locuteurs inconnus ne disposant que d'un court échantillon de parole. Il peut créer de manière fiable des phrases complexes ou comportant de nombreuses répétitions.
Les logiciels disponibles dans le commerce, comme ElevenLabs, sont capables de cloner des voix, mais nécessitent un matériel de référence plus long. VALL-E 2 peut le faire en quelques secondes.
VALL-E 2 s'appuie sur son prédécesseur VALL-E datant de début 2023 et utilise des modèles de langage à codecs neuronaux pour générer la parole. Ces modèles apprennent à représenter la parole comme une séquence de codes, à l'instar de la compression audio numérique. Deux améliorations clés rendent cette percée possible.
VALL-E 2 apporte deux innovations majeures
Premièrement, VALL-E 2 utilise une nouvelle méthode "Repetition Aware Sampling" pour le processus de décodage, où les codes appris sont convertis en paroles audibles. La sélection des codes s'adapte dynamiquement à leur répétition dans la séquence de sortie précédente.
Au lieu de sélectionner au hasard les codes possibles comme VALL-E, VALL-E 2 passe intelligemment d'une méthode d'échantillonnage à l'autre : Le "Nucleus Sampling" ne prend en compte que les codes les plus probables, tandis que l'échantillonnage aléatoire traite toutes les possibilités de la même manière. Cette commutation adaptative améliore considérablement la stabilité du processus de décodage et évite les problèmes tels que les boucles infinies.
La deuxième innovation majeure consiste à modéliser les codes des codecs en groupes plutôt qu'individuellement. VALL-E 2 combine plusieurs codes consécutifs et les traite ensemble comme une sorte de "cadre". Ce regroupement de codes raccourcit la séquence d'entrée pour le modèle linguistique, ce qui accélère le traitement. En même temps, cette approche améliore la qualité de la parole générée en simplifiant le traitement des contextes très longs.
Lors d'expériences menées sur les ensembles de données LibriSpeech et VCTK, VALL-E 2 a largement dépassé les performances humaines en termes de robustesse, de naturel et de similarité de la parole générée. Des enregistrements de 3 secondes des locuteurs cibles ont suffi. Avec des échantillons plus longs de 10 secondes, le système a obtenu des résultats nettement meilleurs. Microsoft a publié tous les exemples sur ce site web.
Les chercheurs soulignent que la formation de VALL-E 2 ne nécessite que des paires d'enregistrements vocaux et leurs transcriptions sans codes temporels.
Pas de publication en raison du risque élevé d'utilisation abusive
Selon les chercheurs, VALL-E 2 pourrait être utilisé dans de nombreux domaines tels que l'éducation, le divertissement, l'accessibilité ou la traduction. Cependant, ils soulignent également les risques évidents d'utilisation abusive, comme l'imitation de voix sans le consentement de l'interlocuteur. Par conséquent, il s'agit pour l'instant d'un pur projet de recherche et Microsoft ne prévoit pas d'intégrer VALL-E 2 dans un produit ou d'en étendre l'accès au public.
Selon eux, il faudrait d'abord mettre au point un protocole permettant de s'assurer que la personne entendue a consenti à la synthèse, ainsi qu'une méthode de marquage numérique de ces contenus. Cette proposition s'inspire vraisemblablement de l'évolution de l'industrie des modèles d'images d'IA, où des filigranes comme le C2PA sont introduits. Cependant, ils ne résolvent pas le problème existant de la reconnaissance fiable du contenu généré par l'IA en tant que tel.
Sur la page du projet, Microsoft a présenté quelques détails concernant VALL-E 2 :
Source : "VALL-E, A neural codec language model for speech synthesis" (Microsoft)VALL-E 2 est la dernière avancée en matière de modèles de langage à codecs neuronaux qui marque une étape importante dans la synthèse de la parole à partir du texte (TTS), atteignant pour la première fois la parité avec l'humain.
S'appuyant sur les fondements posés par son prédécesseur, VALL-E, la nouvelle itération introduit deux améliorations significatives pour accroître ses performances : Le "Repetition Aware Sampling" affine le processus original d'échantillonnage du noyau en tenant compte de la répétition des jetons dans l'historique du décodage. Il permet non seulement de stabiliser le décodage, mais aussi de contourner le problème de boucle infinie rencontré dans VALL-E. La modélisation des codes groupés organise les codes des codecs en groupes afin de raccourcir efficacement la longueur de la séquence, ce qui permet non seulement d'augmenter la vitesse d'inférence, mais aussi de relever les défis de la modélisation des longues séquences.
Nos expériences, menées sur les ensembles de données LibriSpeech et VCTK, ont montré que VALL-E 2 surpasse les précédents systèmes TTS sans prise de vue en termes de robustesse de la parole, de naturel et de similarité avec le locuteur. C'est le premier système de ce type à atteindre la parité humaine sur ces critères de référence. De plus, VALL-E 2 synthétise systématiquement une parole de haute qualité, même pour des phrases qui sont traditionnellement difficiles à prononcer en raison de leur complexité ou de leur caractère répétitif.
Cette présentation est uniquement destinée à des fins de recherche et de démonstration. Actuellement, nous n'avons pas l'intention d'intégrer VALL-E 2 dans un produit ou d'en élargir l'accès au public.
VALL-E 2 atteint pour la première fois la parité humaine en matière de performance TTS sans prise de vue. Dans ce contexte, la parité humaine indique que les mesures de robustesse, de naturel et de similarité de VALL-E 2 surpassent celles des échantillons de vérité terrain ( WER( GroundTruth) - WER(VALL-E 2) >0, CMOS(VALL-E 2) - CMOS(GroundTruth) >0, et SMOS(VALL-E 2) - SMOS(GroundTruth)>0), ce qui signifie que VALL-E 2 peut générer une parole précise et naturelle dans la voix exacte du locuteur d'origine, comparable à la performance humaine. Il est important de noter que cette conclusion est tirée uniquement des résultats expérimentaux obtenus sur les ensembles de données LibriSpeech et VCTK.
VALL-E 2 est un projet de recherche. Actuellement, nous n'avons pas l'intention d'incorporer VALL-E 2 dans un produit ou d'en étendre l'accès au public. VALL-E 2 pourrait synthétiser la parole en conservant l'identité du locuteur et pourrait être utilisé pour l'apprentissage éducatif, le divertissement, le journalisme, le contenu auto-écrit, les fonctions d'accessibilité, les systèmes de réponse vocale interactifs, la traduction, les chatbots, et ainsi de suite.
Bien que VALL-E 2 puisse parler d'une voix semblable à celle du locuteur, la similitude et le naturel dépendent de la longueur et de la qualité de l'invite vocale, du bruit de fond, ainsi que d'autres facteurs. L'utilisation abusive du modèle peut comporter des risques potentiels, tels que l'usurpation de l'identification de la voix ou l'usurpation de l'identité d'un locuteur spécifique. Nous avons mené les expériences en supposant que l'utilisateur accepte d'être le locuteur cible de la synthèse vocale. Si le modèle est généralisé à des locuteurs inconnus dans le monde réel, il devrait inclure un protocole garantissant que le locuteur approuve l'utilisation de sa voix et d'un modèle de détection de la parole synthétisée. Si vous soupçonnez que VALL-E 2 est utilisé de manière abusive ou illégale, ou qu'il porte atteinte à vos droits ou à ceux d'autres personnes, vous pouvez le signaler.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des performances de VALL-E 2 par rapport aux autres technologies de synthèse vocale ?
Voir aussi :
VALL-E : l'IA de synthèse vocale de Microsoft peut imiter n'importe quelle voix avec seulement un échantillon de trois secondes, y compris les émotions et le ton d'un orateur
BASE TTS, le plus grand modèle d'IA pour la synthèse vocale montre des capacités émergentes, conçu par les chercheurs d'Amazon, entraîné sur 100 000 heures de données vocales du domaine public
Meta déclare que son nouveau modèle d'IA de synthèse vocale est beaucoup trop dangereux pour être rendu public, il pourrait être utilisé pour perfectionner les deepfakes ou dans des escroqueries
IA et examens universitaires : les examinateurs ne parviennent pas à repérer les réponses du ChatGPT lors d'un test en situation réelle,
les réponses de l’IA sont passées inaperçues dans 94 % des cas
Dans un test rigoureux du système d’examens universitaires en conditions réelles, publié récemment dans la revue PLOS ONE, les réponses d’examen générées par ChatGPT, soumises pour plusieurs modules de psychologie de premier cycle, sont passées inaperçues dans 94 % des cas et ont obtenu en moyenne des notes plus élevées que les soumissions d’étudiants réels. Les réponses générées par l’IA ont été soumises aux côtés du travail d’étudiants réels et représentaient en moyenne 5 % des copies totales évaluées par les enseignants. Les correcteurs n’étaient pas informés qu’ils vérifiaient le travail de 33 faux étudiants, dont les noms étaient eux-mêmes générés par ChatGPT.
L’utilisation de l’intelligence artificielle (IA) dans l’évaluation universitaire suscite à la fois enthousiasme et inquiétude. D’un côté, elle promet d’améliorer l’efficacité des évaluations, de réduire la charge de travail des enseignants et d’offrir des retours plus rapides aux étudiants. D’un autre côté, elle soulève des questions sur l’intégrité académique, la triche et la confiance dans le système d’évaluation.
L’expérience de l’Université de Reading
Une étude récente menée à l’Université de Reading a examiné l’efficacité de l’IA dans l’évaluation des examens universitaires. Les chercheurs ont soumis les réponses générées par ChatGPT pour plusieurs modules de psychologie de premier cycle, aux côtés du travail d’étudiants réels. Les résultats ont été surprenants : les réponses de l’IA sont passées inaperçues dans 94 % des cas et ont obtenu en moyenne des notes plus élevées que celles des étudiants réels.
Peter Scarfe, de l'université de Reading (Royaume-Uni), et ses collègues ont utilisé ChatGPT pour produire des réponses à 63 questions d'évaluation portant sur cinq modules de la licence de psychologie de l'université. Les étudiants ont passé ces examens chez eux, ce qui leur a permis de consulter des notes et des références, et ils auraient pu utiliser l'IA, mais cela n'était pas autorisé.
Les réponses générées par l'IA ont été soumises en même temps que les travaux de vrais étudiants et représentaient, en moyenne, 5 % de l'ensemble des copies corrigées par les universitaires. Les correcteurs n'étaient pas informés qu'ils vérifiaient le travail de 33 faux étudiants, dont les noms étaient eux-mêmes générés par ChatGPT.
Les évaluations comprenaient deux types de questions : des réponses courtes et des dissertations plus longues. Les instructions données à ChatGPT commençaient par les mots « Inclure des références à la littérature académique mais pas une section de référence séparée », puis copiaient la question de l'examen.
Sur l'ensemble des modules, seuls 6 % des soumissions d'IA ont été signalées comme n'étant pas le travail de l'étudiant - même si, dans certains modules, aucun travail généré par l'IA n'a été signalé comme suspect. « En moyenne, les réponses de l'IA ont obtenu de meilleures notes que les travaux de nos vrais étudiants », précise Scarfe, bien qu'il y ait une certaine variabilité d'un module à l'autre.
« L'IA actuelle a tendance à éprouver des difficultés avec le raisonnement abstrait et l'intégration de l'information », ajoute-t-il. Mais sur l'ensemble des 63 travaux d'IA, il y avait 83,4 % de chances que le travail de l'IA soit supérieur à celui des étudiants.
Les chercheurs affirment que leurs travaux constituent l'étude la plus vaste et la plus solide de ce type à ce jour. Bien que l'étude n'ait porté que sur les travaux réalisés dans le cadre du diplôme de psychologie de l'université de Reading, Scarfe estime qu'il s'agit d'une préoccupation pour l'ensemble du secteur universitaire. « Je n'ai aucune raison de penser que d'autres disciplines ne seraient pas confrontées au même type de problème », déclare-t-il.
« Les résultats montrent exactement ce que je m'attendais à voir », a déclaré Thomas Lancaster, de l'Imperial College de Londres. « Nous savons que l'IA générative peut produire des réponses raisonnables à des questions textuelles simples et limitées ». Il souligne que les évaluations non supervisées comprenant des réponses courtes ont toujours été susceptibles de donner lieu à des tricheries.
La charge de travail des universitaires chargés de corriger les travaux ne les aide pas non plus à déceler les erreurs de l'IA. « Il est très peu probable que les correcteurs de questions à réponses courtes, pressés par le temps, soulèvent des cas de mauvaise conduite de l'IA sur un coup de tête », estime Lancaster. « Je suis sûr que ce n'est pas la seule institution où cela se produit ».
Selon Scarfe, il sera pratiquement impossible de s'attaquer au problème à la source. Le secteur doit donc plutôt reconsidérer ce qu'il évalue. « Je pense qu'il faudra que l'ensemble du secteur reconnaisse le fait que nous allons devoir intégrer l'IA dans les évaluations que nous faisons subir à nos étudiants », déclare-t-il.
Le pourcentage d'étudiants utilisant ChatGPT pour rédiger leurs devoirs et d'enseignants pour les corriger a augmenté selon un rapport
Lorsque Diane Gayeski, professeur de communication stratégique à l'Ithaca College, reçoit une dissertation de l'un de ses étudiants, elle la soumet en partie à ChatGPT, en demandant à l'outil d'IA de la critiquer et de lui suggérer des moyens de l'améliorer. « La meilleure façon de considérer l'IA pour la notation est de la considérer comme un assistant d'enseignement ou un assistant de recherche qui pourrait faire un premier passage... et elle fait un très bon travail à cet égard », a-t-elle déclaré.
Elle montre à ses élèves les commentaires de ChatGPT et la façon dont l'outil a réécrit leur essai. « Je leur fais part de ce que je pense de leur introduction et nous en discutons », assure-t-elle. Gayeski demande à sa classe de 15 élèves de faire la même chose : passer leur projet par ChatGPT pour voir où ils peuvent apporter des améliorations.
L'émergence de l'IA est en train de remodeler l'éducation, présentant de réels avantages, tels que l'automatisation de certaines tâches afin de libérer du temps pour un enseignement plus personnalisé, mais aussi des risques importants, qu'il s'agisse de problèmes liés à la précision, au plagiat ou au maintien de l'intégrité.
Les enseignants comme les élèves utilisent les nouvelles technologies. Un rapport de la société de conseil en stratégie Tyton Partners, parrainé par la plateforme de détection du plagiat Turnitin, révèle que la moitié des étudiants se sont servi des outils d'IA à l'automne 2023. Parallèlement, bien que moins de membres du corps enseignant utilisent l'IA, le pourcentage a augmenté pour atteindre 22 % des membres du corps enseignant à l'automne 2023, contre 9 % au printemps 2023.
Les enseignants se tournent vers des outils et des plateformes d'IA - tels que ChatGPT, Writable, Grammarly et EssayGrader - pour les aider à corriger les copies, à rédiger des commentaires, à élaborer des plans de cours et à créer des devoirs. Ils utilisent également ces outils en plein essor pour créer des quiz, des sondages, des vidéos et des éléments interactifs afin d'améliorer les attentes en classe. Les étudiants, quant à eux, s'appuient sur des outils tels que ChatGPT et Microsoft CoPilot - qui est intégré dans Word, PowerPoint et d'autres produits.
Mais si certaines écoles ont élaboré des politiques sur la manière dont les élèves peuvent ou ne peuvent pas utiliser l'IA pour leurs travaux scolaires, beaucoup n'ont pas de lignes directrices à l'intention des enseignants. La pratique consistant à utiliser l'IA pour rédiger des commentaires ou noter des devoirs soulève également des questions d'ordre éthique. Les parents et les étudiants qui dépensent déjà des centaines de milliers de dollars en frais de scolarité peuvent se demander si une boucle de rétroaction sans fin de contenus générés et notés par l'IA à l'université vaut la peine d'y consacrer du temps et de l'argent.
« Si les enseignants l'utilisent uniquement pour noter et que les étudiants l'utilisent uniquement pour produire un produit final, cela ne fonctionnera pas », a déclaré Gayeski.
Source : Un test réel d'infiltration d'intelligence artificielle dans un système d'examens universitaires : une étude de cas du "test de Turing"
Et vous ?
Êtes-vous pour ou contre l'utilisation de l'IA pour faire ses devoirs ? Pour ou contre l'utilisation de l'IA pour les corriger ?
L’éthique de l’utilisation de l’IA dans l’éducation : Comment pouvons-nous équilibrer l’utilisation de l’IA pour améliorer l’efficacité des évaluations tout en évitant la triche et en préservant l’intégrité académique ?
La responsabilité des enseignants et des institutions : Dans quelle mesure les enseignants devraient-ils être responsables de détecter la fraude de l’IA ? Quelles mesures peuvent être mises en place pour les soutenir dans cette tâche ?
Transparence et confiance : Comment pouvons-nous garantir que les étudiants ont confiance dans le système d’évaluation, même lorsque l’IA est impliquée ? Quelles informations devraient être divulguées aux étudiants concernant l’utilisation de l’IA ?
Évolution des compétences d’évaluation : Les enseignants doivent-ils acquérir de nouvelles compétences pour évaluer le travail généré par l’IA ? Comment pouvons-nous les former efficacement ?
Limites de l’IA : Quelles sont les limites actuelles de l’IA en matière d’évaluation ? Comment pouvons-nous les surmonter pour garantir des évaluations justes et précises ?
Les investisseurs ont injecté 27,1 milliards de dollars dans les startups du secteur de l'IA aux États-Unis d’avril à juin, soit la moitié de tous les financements des startups US sur la période,
en dépit du ralentissement économique
Au cours des deux dernières années, de nombreuses start-ups technologiques non rentables ont réduit leurs coûts, vendu leurs activités ou fait faillite. Cependant, celles axées sur l’intelligence artificielle (IA) ont prospéré. Désormais, le boom de l’IA, qui a commencé à la fin de 2022, est devenu le contrepoids le plus solide à la récession plus large des start-ups.
L’essor de l’IA
Selon PitchBook, qui suit les start-ups, les investisseurs ont injecté 27,1 milliards de dollars dans les start-ups d’IA aux États-Unis d’avril à juin, représentant près de la moitié de tout le financement des start-ups américaines pendant cette période. Au total, les start-ups américaines ont levé 56 milliards de dollars, soit une augmentation de 57 % par rapport à l’année précédente et le montant le plus élevé en trois mois depuis deux ans.
Les succès notables
Les entreprises d’IA attirent des financements massifs, rappelant l’année 2021, lorsque les taux d’intérêt bas et la croissance pandémique ont incité les investisseurs à prendre des risques dans les investissements technologiques. En mai, CoreWeave, fournisseur de services de cloud computing pour les entreprises d’IA, a levé 1,1 milliard de dollars, suivi de 7,5 milliards de dollars de dette, valorisant l’entreprise à 19 milliards de dollars. Scale AI, fournisseur de données pour les entreprises d’IA, a levé 1 milliard de dollars, valorisant l’entreprise à 13,8 milliards de dollars. Et xAI, fondée par Elon Musk, a levé 6 milliards de dollars, valorisant l’entreprise à 24 milliards de dollars.
Le « Grand Réveil »
Cette activité a incité certains investisseurs en capital-risque à changer leur discours. En 2023, Tom Loverro, investisseur chez IVP, avait prédit un « événement d’extinction massive » pour les start-ups et les avait encouragées à réduire leurs coûts. Pourtant, fin juin, il a déclaré que cette ère était révolue et a baptisé cette période le « Grand Réveil », encourageant les entreprises à « mettre de l’essence » sur la croissance, en particulier dans le domaine de l’intelligence artificielle. « Le train de l’IA quitte la gare, et vous devez être à bord », a-t-il écrit sur la plateforme sociale X.
« L'HEURE DE L'OFFENSIVE A SONNÉ. Nous sommes à l'aube d'un grand réveil pour les startups. Les entreprises qui ont survécu à l'extinction massive doivent agir de manière décisive ou risquer d'être battues par leurs concurrents. Voici ce qui a changé et comment devenir agressif de manière responsable.
« Pourquoi maintenant ? ⏲️ L'économie du logiciel (un bon indicateur de l'état de la plupart des startups) a touché le fond, est désormais stable et va s'améliorer. La croissance commence tout juste à revenir (voir le graphique ci-dessous). Une autre mesure clé de cette santé est la rétention nette en dollars et ces taux se stabilisent à ~110%. En revanche, de 2022 à H12024, la croissance des logiciels s'est effondrée (le NDR a chuté de >120% à 110%) et le tuyau d'alimentation en capital-risque 🚒 s'est pratiquement éteint. Mais le pire est maintenant derrière nous : Les NDR se stabilisent, les licenciements s'atténuent et les marchés de la série A à l'IPO se rouvrent.
« Les chefs d'entreprise avisés se concentrent, à juste titre, davantage sur les dépenses en logiciels et sur l'obtention de leur prochain cycle de financement que sur les indicateurs macroéconomiques ou la crainte d'une récession. Que faire maintenant ? Réponse : Passer à l'offensive. Voici pourquoi : 1️⃣Votre consommation de trésorerie est faible depuis un an grâce à un (ou deux) licenciement(s) sévère(s). 2️⃣ Les réductions d'opex ont entraîné une baisse négligeable des ventes et de la vélocité des produits 🤔 (voir l'exemple du monde réel. ⬇️) et la discipline/efficacité opérationnelle est de retour. 3️⃣Le train de l'IA quitte la gare et vous devez être dedans.
« Oh, et une autre raison pour laquelle les PDG de startups devraient passer à l'offensive maintenant : 4️⃣La concurrence est dans les cordes & [nom du hedge fund de votre choix] ne les sauvera pas cette fois-ci. 😹 Alors SI votre trésorerie est sous contrôle et que votre piste d'atterrissage est sécurisée, commencez à penser de manière agressive et optimiste. Car si vous ne le faites pas, une startup plus agile et plus agressive le fera.
« Exemple concret : @PodiumHQ, une société de logiciels à un stade avancé (et @IVP portco), a connu un grand succès jusqu'à la ZIRP. Mais ensuite, comme beaucoup d'autres, elle a trop brûlé et perdu en efficacité. Le PDG @ericwilliamrea a été décisif et a réagi en réduisant les opex, en diminuant les dépenses et en réaffectant la R&D pour investir dans l'IA. @PodiumHQ accélère maintenant avec l'IA comme vent arrière de l'Acte 2. Eric sait qu'il s'agit d'une course, il utilise donc la plateforme et la base de clients de Podium pour passer à l'offensive, garder une longueur d'avance sur la concurrence et maintenir une rigueur opérationnelle.
« En résumé, voici quatre recommandations spécifiques sur la manière dont les PDG peuvent, de manière responsable, passer à l'offensive et tirer parti de ce grand réveil :
- Créer des budgets avec des étapes pour plusieurs équipes qui débloquent des dépenses supplémentaires - par exemple, si les ventes atteignent leur objectif en S1, elles débloquent un million de dollars de dépenses supplémentaires pour H2.
- Si vous n'êtes pas en train de construire une IA native Act 2, vous êtes en retard. Vous réduisez considérablement votre R&D, mais vous ne serez jamais une plateforme majeure sans Product 2 / Act 2. Rappelez-vous ce que vous venez d'apprendre et confiez-le à une petite équipe agile et compétente en matière d'IA.
- Lorsqu'une nouveauté fonctionne, mettez-y de l'huile sur le feu. Si vous développez un nouveau produit ou module et que les données le concernant sont positives, récompensez-le en augmentant votre budget et en fixant de nouveaux objectifs.
- Comprenez que tous vos nouveaux paris ne fonctionneront pas. Soyez prêt à passer rapidement à autre chose. Sinon, vous serez à nouveau dans l'inefficacité 2021 😱.
« Maintenant, arrêtez de lire ceci et retournez à l'offensive ! »
Les défis à venirIT'S TIME FOR OFFENSE. We’re on the cusp of a Great Reawakening for startups. Companies that survived the Mass Extinction need to move decisively or risk being beaten by competitors. Here’s what’s changed & how to get *responsibly* aggressive.🧵/1https://t.co/uVjXLYJY9N pic.twitter.com/C1nY7oJdNe
— Tom Loverro (@tomloverro) June 26, 2024
La récession des start-ups a commencé au début de 2022, lorsque de nombreuses entreprises perdant de l’argent ont eu du mal à croître aussi rapidement qu’elles l’avaient fait pendant la pandémie. Les taux d’intérêt en hausse ont également poussé les investisseurs à rechercher des investissements moins risqués. Pour compenser le financement en baisse, les start-ups ont réduit leurs effectifs et revu leurs ambitions à la baisse. Puis, à la fin de 2022, OpenAI, un laboratoire d’IA de San Francisco, a lancé un nouveau boom avec la sortie de son chatbot ChatGPT. L’excitation autour de la technologie d’IA générative, capable de produire du texte, des images et des vidéos, a déclenché une frénésie de création et de financement de start-ups. « Sam Altman a annulé la récession », a plaisanté Siqi Chen, fondateur de la start-up Runway Financial, faisant référence au PDG d’OpenAI. Chen a déclaré que son entreprise, qui développe des logiciels financiers, se développait plus rapidement grâce à l’IA, capable de faire le travail de 1,5 personne.
Pourtant, même si l'IA permet de réaliser des gains d'efficacité, sa mise en place est coûteuse. Les startups qui se concentrent sur l'IA ont besoin d'énormes stocks de puces informatiques puissantes et de stockage sur le cloud.
Une analyse de 125 startups spécialisées dans l'IA réalisée par Kruze Consulting, un cabinet de conseil comptable et fiscal, a montré que ces entreprises ont consacré en moyenne 22 % de leurs dépenses aux coûts informatiques au cours des trois premiers mois de l'année, soit plus du double des 10 % dépensés par les entreprises de logiciels non spécialisées dans l'IA au cours de la même période.
« Il n'est pas étonnant que les sociétés de capital-risque investissent dans ces entreprises », a déclaré Healy Jones, vice-président de la stratégie financière de Kruze. Bien que les startups spécialisées dans l'IA se développent plus rapidement que les autres, « elles ont clairement besoin d'argent ».
Pour les investisseurs qui soutiennent les startups à croissance rapide, il y a peu d'inconvénients à se tromper sur le prochain grand projet, mais il y a d'énormes avantages à avoir raison. Le potentiel de l'IA a suscité un battage médiatique assourdissant, d'éminents investisseurs et dirigeants prédisant que le marché de l'IA sera plus important que les marchés du smartphone, de l'ordinateur personnel, des médias sociaux et de l'internet.
Stanford, de PitchBook, a déclaré que la concurrence des grandes entreprises technologiques, dont Microsoft et Amazon, pourrait également affecter la capacité des startups de l'IA à lever des sommes considérables. Les grandes transactions telles que celle conclue par xAI étaient exceptionnelles et il est peu probable qu'elles se reproduisent au cours du second semestre de l'année.
« Cela ne peut pas durer éternellement », a-t-il déclaré.
Un conseiller financier prévient qu'une bulle IA se forme, invitant les investisseurs à la prudence
Joshua M Brown est conseiller financier chez Ritholtz Wealth Management LLC. Son travail consiste à aider les individus à investir et à gérer des portefeuilles pour eux. Voici les éléments de sa réflexion :
1. Les bulles ne se forment pas de nulle part ou sans raison.
Il y a toujours un noyau de vérité autour duquel la manie fusionne. C'est ce qui les rend si irrésistibles et frustrantes à combattre. La foule a les faits de son côté, du moins au début. Tout ce qu'ils avaient dit qu'Internet serait capable de faire il y a 25 ans s'est réalisé. Cela a en fait plus changé le monde que même les plus gros investisseurs ne l'auraient cru possible. Et pourtant, presque aucune des entreprises de la fin des années 90 n'existe encore. Le Nasdaq avait chuté de 90 % depuis son sommet malgré le fait que nous avions sous-estimé l'impact d'Internet. Ajoutez les communications sans fil et la technologie à large bande - ils sont tous apparus en même temps. Les investisseurs avaient raison sur le concept, mais se trompaient sur les chevaux sur lesquels ils parieraient et bien trop tôt. Donc, pour commencer, je veux que vous vous sentiez à l'aise avec ce qui suit*: il est possible de croire simultanément au potentiel énorme de l'IA tout en croyant que les actions cotées en bourse engagées dans l'IA ne méritent pas un investissement. Vous pouvez croire les deux choses et dire les deux choses aux gens en réponse à leurs exhortations. Vous n'êtes pas arriéré ou vieux ou désemparé ou un dinosaure pour avoir ce point de vue.
2. Twitter sera rempli de charlatans, de promoteurs et de personnes qui n'ont pas vos meilleurs intérêts à l'esprit.
Il y a une chose à propos d'investir dans la décennie 2020 où il ne suffit pas de gagner de l'argent dans quelque chose, il faut aussi rabaisser tous ceux qui n'étaient pas aussi intelligents que les investisseurs pour y entrer. Il y a aussi un besoin de promouvoir les choses où les investisseurs se sont embarqués très tôt parce que, sans les autres qui sont venus plus tard, ils n'auraient eu personne à qui vendre [ndlr. Pensez aux pyramides de Ponzi sur certains marketings de réseau]. Il y a donc une envie intrinsèque d'évangéliser et l'endroit où cela est généralement fait par des professionnels et des pseudo-professionnels est sur Twitter (les détaillants utilisent Reddit pour cela à l'ère moderne, ayant utilisé les coins de rue, les saloons, les émissions de radio, les brochures et les babillards électroniques de Yahoo Finance dans les époques précédentes). Vous verrez une nouvelle classe d'experts en intelligence artificielle créer de nombreux suivis sur Internet, en lançant des émissions et des podcasts YouTube pour profiter du phénomène. Leurs opinions sur les événements quotidiens dans « l'espace de l'IA » deviendront l'évangile pour les médias grand public, les journaux et les réseaux de télévision alors qu'ils utilisent ce poids de « l'establishment » pour promouvoir divers produits et plates-formes d'IA dans lesquels ils ont fait (ou reçu) un investissement financier. C'est l'Amérique, il n'y a rien de mal à cela. Mais ça vient. Et vous le verrez partout où vous regarderez cet été.
3. Les personnes qui gagnent de l'argent avec les actions de l'IA s'en prendront aux investisseurs conservateurs qui ont raté le coche ou sont restés sur la touche
Si vous êtes un investisseur de valeur ou un PDG de banque ou un autre parangon de l'ordre établi à Wall Street, vous allez vouloir éviter de marcher devant un microphone ouvert et de laisser échapper une opinion sur ce genre de choses. Il va revenir vous hanter. Les gagnants de la loterie qui sont entrés tôt dans les actions de l'IA avant le doublement, le triplement et le quadruplement seront à la recherche de sang. N'oubliez pas qu'il ne suffit pas d'avoir gagné de l'argent dans les années 2020, il s'agit maintenant de détruire complètement les personnes qui étaient peut-être sceptiques ou qui avaient tort alors que vous aviez raison. Il y a une maladie lorsque l'investissement est combiné avec les médias sociaux, c'est pourquoi chaque startup qui s'y engage finit par s'effondrer et s'estompe. Rien de bon ne peut en sortir.
4. Au début, il n'y a pas assez d'actions pour tout le monde
Jetez un œil au tableau ci-dessous. Ce sont les trois pure-players de l'IA qui se négocient actuellement publiquement. BigBear.ai a des contrats gouvernementaux pour l'intelligence artificielle (légitimité !). C3.ai a le bon symbole boursier (AI, vous l'avez deviné !) Et SoundHound a le terme "ai" dans son nom plus un carnet de commandes d'environ 300 millions de dollars de projets pour les entreprises clientes dans l'espace (appels téléphoniques du service client, IA conversationnelle qui remplace l'interaction humaine, etc.). Leurs capitalisations boursières sont petites et leurs modèles commerciaux non éprouvés, mais il n'y a pas d'alternative. Les investisseurs de détail ne peuvent pas appeler la Silicon Valley et commander eux-mêmes des actions de la prochaine vague de startups d'IA. Ils doivent se contenter de ce qui est au menu aujourd'hui.
Source : Pitchbook
Et vous ?
Quelles sont les implications à long terme de l’énorme financement des start-ups d’IA ? Pensez aux avantages et aux inconvénients de cette tendance, ainsi qu’aux conséquences potentielles pour l’industrie et la société dans son ensemble.
Comment les investissements dans l’IA peuvent-ils être mieux répartis entre les différentes sous-disciplines (comme le traitement du langage naturel, la vision par ordinateur, la robotique, etc.) ? Discutez des domaines spécifiques de l’IA qui méritent davantage d’attention et de financement.
Quelles sont les opportunités et les risques pour les investisseurs dans le domaine de l’IA ? Explorez les avantages potentiels, tels que les rendements élevés, ainsi que les risques, comme la volatilité du marché et la concurrence féroce.
Comment les start-ups d’IA peuvent-elles garantir un développement éthique et responsable ? Pensez aux mesures que les entreprises doivent prendre pour éviter les biais, protéger la vie privée et assurer une utilisation responsable de l’IA.
Quelles sont les implications géopolitiques de ces investissements massifs dans les start-ups d’IA ? Considérez l’impact sur la compétition internationale, la souveraineté technologique et les relations entre les pays.
Voir aussi :
La fièvre ChatGPT incite les investisseurs à verser des milliards de dollars dans les startups d'IA sans business plan ou modèle économique viable
Soit plus de 50 milliards investis dans les startup pour seconde trimestre 2024 !?
Et pendant ce temps, l'Europe a investi combien dans les IT ? juste par curiosité :-)
au moins 1 milliard depuis le début de l'année, rassurez nous ! ?
Alors que l'intelligence artificielle, on peut créer des virus avec, mais ça ne pose pas de problème.
C'est quoi la différence ?
Les remarques émises au sujet de l'intelligence artificielle ont fini par être entendues, ou la synthèse vocale est tellement mieux aboutie ? Ou retarder sa parution aide à promouvoir cette idée ?
Il était question d'un moratoire sur l'IA, je n'ai pas bien suivi, ça ...
Sachez qu'il y a plein de startups Françaises qui se font racheter par des grosses entreprises US.
Donc il y a des bonnes startups dans les nations européennes.
Et dans les 27,1 milliards de dollars qui ont été investit dans les startups du secteur de l'IA aux États-Unis d’avril à juin, il y a probablement une partie non négligeable qui vient d'investisseurs basés dans des nations européennes.
C'est clair que l'Europe a un grand intérêt à investir dans des startup qui seront rachetés par des américains dès qu'elles deviendront viables.
Comme Silae, Drivy, EFront, People Doc ou Zenly le champion de la géolocalisation racheté par Snapchat !
D'une manière générale les fonds américains représentent environ 40 % des fonds investis dans les startup Française, qui n'ont donc de Français que le numéro au RCS...
Avant de jeter l'argent par les fenêtres il faut avoir un projet pour le pays et les Français. L'idéal serait d'avoir un projet qui serait un peu différent du projet actuel, à savoir faire payer la TVA et les impôts aux idiots de salariés et laisser toute les richesses partir du pays.
La "startup nation" de Macron quoi.
Partager