Tu peux avoir des gros risques de ré-identifications, et si c'est le cas, tes données ne sont plus réellement anonymes.
Un exemple classique sont les données de géolocalisation. Tu peux rien qu'avec ~5 données de géolocalisation ré-identifier des personnes.
Un autre exemple tout bête, si tu as un patient traité pour le COVID dans un hôpital à une date t, il sera ~ k-anonyme, i.e. anonyme parmi k personnes. Derrière tu peux discriminer, e.g. avec l'âge. Si l'hôpital a reçu peu de patients COVID, tu seras capable de ré-identifier certains patients, et donc d'obtenir des informations médicales supplémentaires sur ces dernier.
La reproduction d'études est aussi là pour ça.
Quoiqu'il arrive, il te faudra bien faire confiance aux auteurs à un moment où un autre. C'est pour cela qu'une étude isolée n'est pas une preuve définitive, et qu'il faut reproduire les expériences.
Imagine qu'on devait faire une enquête poussée pour chaque article accepté… on s'en sortirait plus.
Elle n'a pas été "démontée". Elle a reçu, si je me fis à la lettre ouverte, quelques critiques assez classiques, mais rien qui ne soit réellement de nature à remettre en cause les conclusions de l'étude (l'hôpital mal attribué n'a rien changé aux conclusions).
Il y a certes eu quelques accusations… mais comme l'a dit un autre membre, faut étayer un peu plus cela (e.g. les données ont mal été corrigée statistiquement… suffit pas de le dire, faut argumenter un peu plus que ça). D'autres critiques étaient juste à côté de la plaque vis à vis des prétentions de l'article. Et d'autres encore a priori fausses (e.g. une cohorte qui auraient été incluse dans les 96 000 cas, mais qui n'est en réalité que citée).
Il faut aussi pas se tromper, quand l'étude est sortie, tu as dû avoir des milliers de personnes qui se sont penchées dessus. Des personnes avec chacune leurs spécialités. Ça serait équivalant, pour les auteurs, à vérifier les données pendant 1 ans (et encore…)… soyons réalistes.
Soyons aussi honnête, j'ai vu des articles publiés sans aucun problèmes, même dans Nature, écrire des grosses conneries, ou avoir une faille/erreur dans leur protocole. C'est un peu facile d'exiger la perfection… beaucoup plus difficile à faire.
L'hyper-critique sur cet article nuit aussi à la "vraie" science. À s'indigner sur l'article du Lancet alors qu'en réalité c'est un article qui est tout à fait dans la norme de ce qu'on peut trouver dans la recherche (après une lecture rapide). Jusqu'à le critiquer sur des choses qu'il ne dit pas / n'a pas la prétention de dire.
Les données ne peuvent pas être vérifiée… d'accord. Est-ce une raison suffisante pour dire que l'article est nul ? Non.
Je vais prendre un parallèle, tu testes des médicaments sur des souris. À la fin de l'étude, tu fais comment pour prouver que chaque souris a reçu ce que tu affirmes ? Comment tu fais pour faire une autopsie sur les cadavres des souris si elles ne sont pas conservées à la fin de l'étude ?
Il faut accepter à un moment qu'il est impossible d'avoir une garantie et une traçabilité parfaite. C'est pour cela qu'on a derrière des méta-études, qui analysent tout cela.
Tu peux reproduire si tu as des données d'apprentissages similaires. C'est à dire qu'il te faudra faire ta propre acquisition.
Après les détails d'implémentations sont-ils toujours nécessaires ?
Partager