Le lecteur moyen a du mal à distinguer le contenu généré par l'IA de celui rédigé par un être humain, 63.5 % d'entre eux pensent que le contenu généré par GPT-4 est d'origine humaine, selon ToolTester
Alors que la technologie de l'IA franchit les barrières à une vitesse qui fascine encore la plupart d'entre nous, une nouvelle enquête souligne à quel point cette technologie est brillante pour confondre les gens.
Le nouveau rapport de ToolTester indique que les rédacteurs doivent être vigilants car des outils comme ChatGPT et d'autres dans le domaine de l'IA produisent du contenu aussi bien que des humains normaux. Et ce, à un niveau tel que l'adulte américain moyen a du mal à distinguer le contenu de l'IA des autres.
Nous sommes convaincus que ce n'est pas le genre de commentaires qu'un rédacteur professionnel aimerait entendre, compte tenu des efforts considérables qu'il déploie pour perfectionner son art.
ToolTester a récemment mené deux enquêtes différentes qui ont pris en compte les textes générés par des humains et ceux produits par des outils d'IA et édités par des humains. À la surprise générale, c'est la version 3.5 de la technologie ChatGPT qui a été utilisée pour mener à bien cette tâche.
Ensuite, une autre enquête a été réalisée en prenant en compte la dernière génération de ChatGPT. Une fois de plus, une comparaison similaire a été faite, en utilisant des invites similaires. C'est alors que nous avons constaté que plus de 50 % des personnes interrogées pensaient que le contenu produit par la version 3.5 de ChatGPT avait été générée par un être humain. Ce chiffre est passé à 63,5 % avec la technologie GPT-4. Ces résultats prouvent que la technologie GPT-4 est beaucoup plus susceptible de convaincre ou de tromper les gens que la technologie 3.5.
L'étude a également montré que les copies générées par une technologie d'IA sont beaucoup plus difficiles à détecter, en fonction du format d'écriture utilisé. Un grand nombre de contenus liés à la santé sont ceux qui ont le mieux réussi à tromper les internautes et qui donnent l'impression d'avoir été rédigés par des humains.
Cela montre bien que de nombreuses personnes ont cru que le texte rédigé par l'IA était en fait écrit par des humains, alors que ce n'était pas le cas. En revanche, les personnes qui sont plus familiarisées avec l'utilisation des outils d'IA sont nettement moins susceptibles de se laisser abuser. Elles finissent par être induites en erreur dans la plupart des cas. Et ceux qui n'utilisent jamais de tels outils d'IA générative ont encore plus de mal à voir la différence entre le contenu de l'IA et celui produit par les humains.
Avec l'âge, on acquiert de la sagesse et cela vaut également la peine d'être remarqué. Les personnes âgées de plus de 65 ans sont celles qui ont le plus de chances de distinguer un contenu d'IA d'un texte écrit par un humain. En revanche, les personnes âgées de 18 à 24 ans ont tendance à penser que les écrits de l'IA sont produits par des humains.
Il s'agit également de faire confiance à un plus grand nombre d'éditeurs de contenu qu'à d'autres. Aujourd'hui, beaucoup de gens ont confiance dans le fait que les principaux médias produiront des articles rédigés par des humains, et beaucoup ne veulent pas abuser de cette confiance. La confiance joue donc un rôle important dans ce domaine également.
Source : ToolTester
Et vous ?
Quelle lecture faites-vous de cette situation ?
Les conclusions de cette enquête sont-elles pertinentes, selon vous ?
Pensez-vous que des mesures plus strictes devraient être mises en place pour contrôler l'IA ?
Outre les répercussions potentielles sur l'emploi, quels pourraient-être les autres risques liés au développement de l'IA ?
Voir aussi
GPT-4 surpasse les humains dans les tâches d'étiquetage de données et permet aux chercheurs d'économiser 500 000 dollars et 20 000 heures de travail, selon une étude
Microsoft prétend que GPT-4 montre des « étincelles » d'intelligence artificielle générale, « nous pensons que l'intelligence de GPT-4 signale un véritable changement de paradigme »
GPT-4 est capable d'améliorer ses performances de 30 % en utilisant un processus d'auto-réflexion, consistant à demander au modèle d'apprendre de ses erreurs pour pouvoir ensuite s'auto-corriger
Cas d'utilisations GPT-4 : créer un jeu vidéo complexe sans formation en programmation, un chatbot qui analyse des données financières volumineuses, coder sur son Apple Watch rien qu'avec sa voix
Partager