Microsoft teste une nouvelle politique controversée sur OneDrive : les utilisateurs ne pourront désactiver le scan automatique de leurs photos par l’intelligence artificielle que trois fois par an
Le droit à la vie privée peut-il être limité par un quota ?
Microsoft teste une nouvelle politique controversée sur OneDrive : les utilisateurs ne pourront désactiver le scan automatique de leurs photos par l’intelligence artificielle que trois fois par an. Officiellement, l’objectif est d’assurer la stabilité du service et la conformité avec les lois sur les contenus illicites. Mais cette restriction interroge sur la place réelle du consentement et sur la compatibilité de cette pratique avec le RGPD européen, qui garantit le droit de retrait à tout moment.
Les services cloud de Microsoft, tels que OneDrive, intègrent désormais une analyse automatique des photos par intelligence artificielle. Concrètement, cela signifie que chaque image stockée peut être examinée par des algorithmes pour en extraire des informations utiles. Par exemple, Microsoft a introduit un système de reconnaissance faciale qui détecte les visages dans les photos et les regroupe par personne. L’objectif affiché est d’aider l’utilisateur à classer et retrouver plus facilement ses photos – il devient possible de rechercher toutes les images où apparaît un ami ou un membre de la famille simplement en tapant son nom.
En parallèle, OneDrive commence aussi à appliquer des étiquettes automatiques (AI tags) pour identifier les objets ou scènes dans les images (animaux, paysages, texte, etc.), ce qui améliore la recherche de contenus visuels.
Au-delà de ces fonctionnalités pratiques, le scan IA a également une dimension de sûreté et conformité légale. Microsoft, comme d’autres géants du cloud, utilise des technologies automatisées pour détecter la présence de contenus illicites dans les fichiers de ses utilisateurs. En particulier, les images sont comparées à des bases de données de photos connues d’abus d’enfants via des empreintes numériques (la technologie PhotoDNA développée par Microsoft). Si du matériel pédopornographique est identifié, Microsoft le signale aux autorités compétentes, conformément à ses conditions d’utilisation qui interdisent tout contenu exploitant ou mettant en danger des enfants.
De même, des systèmes de filtrage peuvent repérer d’autres contenus prohibés (violences extrêmes, terrorisme), ceci sans intervention humaine directe. En somme, vos photos stockées sur OneDrive ne sont pas inertes : elles sont passées au crible par des algorithmes, que ce soit pour vous proposer des classements intelligents ou pour s’assurer du respect de la loi.
Cette automatisation soulève naturellement des préoccupations pour les utilisateurs. D’un côté, elle offre des services utiles (classement par personne, recherche par mot-clé visuel) sans effort manuel. De l’autre, elle implique qu’une IA « regarde » chaque photo personnelle, y compris des images privées ou sensibles, afin d’en extraire des informations (visages, objets, nudité potentielle, etc.).
Même si Microsoft assure que ce processus est automatisé et qu’aucun humain ne regarde vos photos, certains utilisateurs peuvent percevoir cela comme une forme de surveillance de leur vie privée. La détection de contenu illicite, en particulier, a fait l’objet de cas médiatisés*: par exemple, un père de famille s’est vu suspendre son compte chez un autre fournisseur (Google en l'occurrence) après que des photos médicales de son enfant ont été mal interprétées par un algorithme comme de la nudité infantile. Ces situations illustrent les risques de faux positifs et les conséquences graves que peut avoir un scan automatisé erroné. La fonctionnalité de scan IA de OneDrive doit donc trouver un équilibre délicat entre l’amélioration de l’expérience utilisateur, la protection de tous (en identifiant les contenus criminels) et le respect de la vie privée des personnes.
Une désactivation limitée à trois fois par an
Si un utilisateur ne souhaite pas que ses photos soient analysées par l’IA, Microsoft offre une option pour désactiver la reconnaissance faciale et les tags automatiques dans OneDrive. Cependant, la décision controversée de l’éditeur est de restreindre cette désactivation à « trois fois par an ». En effet, dans l’interface de l’application OneDrive (section « Confidentialité et autorisations »), un message explicite indique : « OneDrive utilise l’IA pour reconnaître les visages sur vos photos… Vous ne pouvez modifier ce réglage que 3 fois par an. »
Autrement dit, Microsoft ne permettrait de couper puis de réactiver cette fonction qu’un nombre limité de fois sur une année glissante, une limite sur laquelle Microsoft n'a pas souhaité ajouter de précisions.
Dans la pratique, cette restriction a déjà été ressentie par les premiers usagers concernés. Un utilisateur ayant découvert la présence de cette option « Personnes » activée par défaut a tenté de la mettre sur « No » (désactivée) : l’interface a alors refusé le changement avec un message d’erreur (« Something went wrong while updating this setting »), vraisemblablement parce qu’il n’était pas « dans une des trois fois autorisées de l’année ».
Pour l’instant, la fonctionnalité n’est déployée qu’en version d’essai (preview) auprès d’un nombre limité d’utilisateurs ; Microsoft a confirmé que cette phase de test vise à « apprendre et améliorer » le service avant un déploiement plus large. Notons que la désactivation entraîne la suppression de toutes les données biométriques collectées (groupements de visages, étiquettes) sous 30 jours. Si l’utilisateur réactive ensuite l’option, l’IA devra recommencer l’analyse depuis zéro sur l’ensemble des photos.
Capture d’écran de l’application OneDrive (aperçu de la section “Personnes”) montrant le message qui limite la désactivation de la reconnaissance faciale à trois fois par an. OneDrive y précise utiliser l’IA pour regrouper les photos contenant des visages familiers.
Microsoft n’a pas fourni d’explication claire sur le choix arbitraire de « trois fois par an »
Interrogée à ce sujet, la société s’est abstenue de répondre, se contentant de rappeler que « OneDrive hérite des fonctionnalités et paramètres de confidentialité de Microsoft 365 et SharePoint, lorsque applicable ». Face à ce silence, les spéculations vont bon train. Certains avancent une possible raison technique : chaque désactivation oblige à effacer des données et chaque réactivation impose de re-scanner potentiellement des milliers de photos, ce qui mobilise beaucoup de ressources de calcul.
Limiter le nombre de changements empêcherait des allers-retours trop fréquents qui satureraient les serveurs. D’autres y voient surtout une manœuvre pour décourager l’opt‑out : en restreignant strictement les occasions de couper l’IA, Microsoft s’assure que la grande majorité des utilisateurs laisseront la fonction activée en permanence. Quoi qu’il en soit, la mesure est perçue comme inhabituelle et contraignante. « Pourquoi pas quatre fois ? Ou aussi souvent que l’utilisateur le souhaite ? » s’interroge avec ironie un journaliste du Register, soulignant l’aspect pour le moins arbitraire de cette limite annuelle
Il reste également à éclaircir comment ce compteur est appliqué : s’agit-il de l’année calendaire ? D’un cycle de 12 mois glissants à partir de la première modification ? Le flou demeure complet sur ces détails pratiques.
En l’état actuel (phase de test), la reconnaissance de personnes dans OneDrive est activée par défaut pour les utilisateurs qui y ont accès. Cela signifie qu’elle est en opt-out : c’est à l’usager de se rendre dans les paramètres s’il souhaite la désactiver. Ce choix par défaut, combiné à l’imposition d’une fréquence maximale de modification, a rapidement fait bondir les défenseurs de la vie privée.
Enjeux de confidentialité et protection des données personnelles
Cette décision de Microsoft soulève d’importants enjeux de confidentialité.
D’une part, l’analyse IA des photos implique la collecte de données personnelles sensibles. Identifier les visages sur vos clichés revient à traiter des données biométriques (les caractéristiques faciales permettant de distinguer une personne). Ces données, bien que stockées côté utilisateur, sont calculées et conservées par Microsoft pour fournir la fonctionnalité. L’entreprise se veut rassurante en affirmant que les regroupements de visages restent strictement privés (uniquement visibles par le propriétaire du compte) et ne sont pas utilisés pour entraîner les modèles d’IA globaux de Microsoft. En outre, Microsoft promet de ne pas exploiter ces données à des fins commerciales, publicitaires ou de marketing, ni de les partager à des tiers sans consentement. Ces engagements figurent dans la documentation de OneDrive et la déclaration de confidentialité de Microsoft.
D’autre part, de nombreux utilisateurs et experts estiment que la décision doit revenir à l’individu de consentir (ou non) à ce type d’analyse sur ses contenus personnels. Or, Microsoft a choisi un modèle où l’option est activée sans action de l’usager (opt-out plutôt qu’opt-in), ce qui est critiqué comme un manquement au principe de consentement explicite en matière de vie privée.
« Toute fonctionnalité ayant trait à la vie privée devrait idéalement être opt-in, avec une documentation claire pour que les utilisateurs comprennent ses bénéfices et risques et puissent choisir en connaissance de cause » rappelle ainsi Thorin Klosowski, un activiste sécurité/vie privée à l’Electronic Frontier Foundation
Dans le cas présent, non seulement OneDrive active la reconnaissance faciale par défaut, mais il complique l’exercice du choix en restreignant la liberté de changer d’avis. Une fois la fonction coupée, un utilisateur prudent pourrait hésiter à la réactiver s’il sait qu’il n’aura plus que deux (puis une, puis zéro) possibilités de la désactiver de nouveau dans l’année. Cette limitation est perçue comme contraire aux bonnes pratiques de contrôle utilisateur, voire paternaliste. « Les gens devraient pouvoir modifier leurs réglages quand ils le veulent, car on traverse tous des situations où l’on doit réévaluer nos paramètres de confidentialité » insiste Klosowski, qui juge le plafond de trois fois par an particulièrement restrictif.
Enfin, cette initiative s’inscrit dans une tendance plus large où Microsoft injecte de l’IA dans tous ses produits (Windows, Office 365 Copilot, etc.), parfois de manière forcée. Certains observateurs y voient un glissement des standards de confidentialité : ce qui était autrefois opt-in ou manuel devient automatique, et il devient de plus en plus difficile d’y échapper sans effort. « Il est difficile de ne pas voir cela comme une nouvelle façon discrète pour l’IA d’éroder les normes de vie privée et de s’immiscer là où elle n’est pas toujours la bienvenue » commente un chroniqueur, qui note qu’isolément la fonctionnalité OneDrive peut sembler anodine, mais qu’elle s’ajoute à une série d’initiatives imposant l’IA un peu partout.
Avis des experts et réactions de la communauté
La limitation de la désactivation à trois fois par an a suscité de vives réactions parmi les experts en cybersécurité et en droit du numérique. Du côté des défenseurs de la vie privée, le verdict est sans appel : c’est une idée malavisée. Thorin Klosowski (EFF), déjà cité plus haut, exprime son incompréhension face à ce choix qu’il juge anti-utilisateur. Pour lui, non seulement la fonctionnalité aurait dû être facultative à l’activation, mais en plus brider la possibilité de la couper va à l’encontre du droit des usagers à contrôler leurs données.
Aucun bénéfice clair n’est apporté aux utilisateurs par une telle restriction, si ce n’est celui – cynique – d’éviter que trop de personnes ne désactivent l’IA. Cette opinion est largement partagée dans la communauté infosec et privacy, où l’on n’hésite pas à tourner l’initiative en dérision. Sur les forums spécialisés, on compare la politique de Microsoft à une voiture qui ne laisserait ajuster ses rétroviseurs que trois fois par an : absurde et frustrant. Le forum Privacy Guides résume le sentiment général par un emoji facepalm et la remarque « Quelle situation déplorable… » en parlant de l’état des technologies grand public du point de vue respect de la vie privée.
Pour sa part, Guillaume Belfiore, rédacteur en chef adjoint chez Clubic, note que pour l’Union européenne, un tel mécanisme devra obligatoirement être accompagné « d'une information claire et d’un contrôle simple pour l’utilisateur » afin de respecter le RGPD. Si Microsoft persistait avec un opt-out par défaut et un opt-out limité, la compatibilité avec la loi serait douteuse.
Des juristes soulignent que même si l’utilisateur a consenti initialement, il doit pouvoir revenir sur sa décision sans obstacle ; Microsoft se trouverait en difficulté si un utilisateur portait plainte qu’il ne peut plus exercer ses droits pleinement à cause de cette barrière logicielle.
Enfin, il est intéressant de noter que d’autres entreprises ont récemment fait marche arrière sur des fonctionnalités similaires suite à la pression populaire. Apple, par exemple, avait annoncé en 2021 un système de scan local des photos iCloud pour détecter les images pédopornographiques ; face au tollé des associations de défense des libertés, la firme a suspendu puis abandonné ce projet en 2022, préférant explorer d’autres voies pour protéger les enfants tout en préservant le chiffrement des données.
Conclusion
Microsoft semble pour l’instant tâtonner, via cette preview, afin de calibrer sa fonctionnalité et la réaction du public. Il ne serait pas surprenant que des ajustements surviennent dans les prochains mois – par exemple, un passage à un opt-in réel dans les zones régulées, ou un assouplissement du fameux quota de trois modifications par an.
Le dialogue avec les régulateurs européens sera déterminant pour la suite, tout comme les retours des grandes entreprises clientes de Microsoft 365 (qui n’apprécieraient guère une polémique supplémentaire sur la confidentialité de leurs données). En attendant, cette controverse a au moins le mérite de rappeler l’importance d’une gouvernance transparente des fonctionnalités IA. Pour les CISO, DPO et autres décideurs IT, le message est clair : il faut examiner de près les paramètres des services cloud utilisés et ne pas hésiter à désactiver – tant que c’est possible – les analyses automatisées jugées trop invasives pour les données sensibles.
En fin de compte, l’initiative de Microsoft vise à concilier les avantages de l’intelligence artificielle avec les exigences de la protection des données. L’idée n’est pas condamnable en soi, mais sa mise en œuvre maladroite soulève des critiques légitimes. Factuelle et critique, la discussion autour de OneDrive préfigure sans doute celles qui entoureront d’autres produits à l’ère du « tout-AI ». Trouver le bon point d’équilibre entre innovation et vie privée restera un défi majeur pour l’industrie technologique dans les années à venir.
Microsoft, en limitant arbitrairement la liberté de ses utilisateurs, a franchi une ligne rouge aux yeux de beaucoup ; à elle de démontrer désormais qu’il est possible de reculer prudemment, d’écouter les préoccupations exprimées, et d’ajuster le tir pour que l’IA reste une alliée et non une menace pour la confiance numérique.
Sources : support Microsoft, PhotoDNA, entretien avec un porte-parole de Microsoft
Et vous ?
Une entreprise comme Microsoft a-t-elle le droit d’imposer une limite au nombre de fois où un utilisateur peut désactiver une fonctionnalité d’IA touchant à ses données personnelles ?
Comment une telle politique pourrait-elle être compatible avec le droit de retrait à tout moment prévu par le RGPD ?
La reconnaissance faciale de OneDrive, même limitée à l’usage privé, entre-t-elle juridiquement dans la catégorie des données biométriques sensibles ?
Peut-on réellement faire confiance à un cloud qui analyse nos photos « pour notre bien » ? Le risque de faux positifs (détection erronée de contenu illicite) ne rend-il pas cette IA plus dangereuse que protectrice ?
Microsoft n’est-il pas en train de normaliser un modèle où l’IA devient obligatoire dans les services cloud ?








Une entreprise comme Microsoft a-t-elle le droit d’imposer une limite au nombre de fois où un utilisateur peut désactiver une fonctionnalité d’IA touchant à ses données personnelles ?
Répondre avec citation













Partager