L'étude marche quand on travaille avec une population faible mais dès qu'on l'étend à un cas pratique les gens se plaignent de se faire arrêter pour rien et les flics se défendent en disant que c'est FaceGPT qui l'a dit. Ces cas pleuvait dans les news il y a quelques années.
Le problème est simple : plusieurs visages correspondent à un croquis.
Elles ont l'air de l'être en tout cas. Par contre l'IA évolue vite et c'est une courses infinie entre l'IA qui échappera de plus en plus aux détecteurs et les détecteurs qui doivent apprendre le plus vite possible comment la nouvelle IA écrit.Les conclusions de ses travaux de recherche sont-elles pertinentes ?
Je pense que la question du rédacteur est mauvaise.Quel est votre avis sur le sujet ?
Une partie de la relecture d'étude consiste à vérifier que le rédacteur limite ses biais, mais on met en place un outil qui biaise les lecteurs.
Une étude pertinente d'une IA est elle si problématique ? Plus qu'une étude rédigée par un chercheur qui veut absolument avoir raison ?
Partager