IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 690
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 690
    Par défaut Microsoft OneDrive : les utilisateurs ne pourront désactiver le scan de leurs photos par IA que 3 X par an
    Microsoft teste une nouvelle politique controversée sur OneDrive : les utilisateurs ne pourront désactiver le scan automatique de leurs photos par l’intelligence artificielle que trois fois par an
    Le droit à la vie privée peut-il être limité par un quota ?

    Microsoft teste une nouvelle politique controversée sur OneDrive : les utilisateurs ne pourront désactiver le scan automatique de leurs photos par l’intelligence artificielle que trois fois par an. Officiellement, l’objectif est d’assurer la stabilité du service et la conformité avec les lois sur les contenus illicites. Mais cette restriction interroge sur la place réelle du consentement et sur la compatibilité de cette pratique avec le RGPD européen, qui garantit le droit de retrait à tout moment.

    Les services cloud de Microsoft, tels que OneDrive, intègrent désormais une analyse automatique des photos par intelligence artificielle. Concrètement, cela signifie que chaque image stockée peut être examinée par des algorithmes pour en extraire des informations utiles. Par exemple, Microsoft a introduit un système de reconnaissance faciale qui détecte les visages dans les photos et les regroupe par personne. L’objectif affiché est d’aider l’utilisateur à classer et retrouver plus facilement ses photos – il devient possible de rechercher toutes les images où apparaît un ami ou un membre de la famille simplement en tapant son nom.

    En parallèle, OneDrive commence aussi à appliquer des étiquettes automatiques (AI tags) pour identifier les objets ou scènes dans les images (animaux, paysages, texte, etc.), ce qui améliore la recherche de contenus visuels.

    Au-delà de ces fonctionnalités pratiques, le scan IA a également une dimension de sûreté et conformité légale. Microsoft, comme d’autres géants du cloud, utilise des technologies automatisées pour détecter la présence de contenus illicites dans les fichiers de ses utilisateurs. En particulier, les images sont comparées à des bases de données de photos connues d’abus d’enfants via des empreintes numériques (la technologie PhotoDNA développée par Microsoft). Si du matériel pédopornographique est identifié, Microsoft le signale aux autorités compétentes, conformément à ses conditions d’utilisation qui interdisent tout contenu exploitant ou mettant en danger des enfants.

    De même, des systèmes de filtrage peuvent repérer d’autres contenus prohibés (violences extrêmes, terrorisme), ceci sans intervention humaine directe. En somme, vos photos stockées sur OneDrive ne sont pas inertes : elles sont passées au crible par des algorithmes, que ce soit pour vous proposer des classements intelligents ou pour s’assurer du respect de la loi.

    Nom : photodna.png
Affichages : 138663
Taille : 557,5 Ko

    Cette automatisation soulève naturellement des préoccupations pour les utilisateurs. D’un côté, elle offre des services utiles (classement par personne, recherche par mot-clé visuel) sans effort manuel. De l’autre, elle implique qu’une IA « regarde » chaque photo personnelle, y compris des images privées ou sensibles, afin d’en extraire des informations (visages, objets, nudité potentielle, etc.).

    Même si Microsoft assure que ce processus est automatisé et qu’aucun humain ne regarde vos photos, certains utilisateurs peuvent percevoir cela comme une forme de surveillance de leur vie privée. La détection de contenu illicite, en particulier, a fait l’objet de cas médiatisés*: par exemple, un père de famille s’est vu suspendre son compte chez un autre fournisseur (Google en l'occurrence) après que des photos médicales de son enfant ont été mal interprétées par un algorithme comme de la nudité infantile. Ces situations illustrent les risques de faux positifs et les conséquences graves que peut avoir un scan automatisé erroné. La fonctionnalité de scan IA de OneDrive doit donc trouver un équilibre délicat entre l’amélioration de l’expérience utilisateur, la protection de tous (en identifiant les contenus criminels) et le respect de la vie privée des personnes.

    Une désactivation limitée à trois fois par an

    Si un utilisateur ne souhaite pas que ses photos soient analysées par l’IA, Microsoft offre une option pour désactiver la reconnaissance faciale et les tags automatiques dans OneDrive. Cependant, la décision controversée de l’éditeur est de restreindre cette désactivation à « trois fois par an ». En effet, dans l’interface de l’application OneDrive (section « Confidentialité et autorisations »), un message explicite indique : « OneDrive utilise l’IA pour reconnaître les visages sur vos photos… Vous ne pouvez modifier ce réglage que 3 fois par an. »

    Autrement dit, Microsoft ne permettrait de couper puis de réactiver cette fonction qu’un nombre limité de fois sur une année glissante, une limite sur laquelle Microsoft n'a pas souhaité ajouter de précisions.

    Dans la pratique, cette restriction a déjà été ressentie par les premiers usagers concernés. Un utilisateur ayant découvert la présence de cette option « Personnes » activée par défaut a tenté de la mettre sur « No » (désactivée) : l’interface a alors refusé le changement avec un message d’erreur (« Something went wrong while updating this setting »), vraisemblablement parce qu’il n’était pas « dans une des trois fois autorisées de l’année ».

    Pour l’instant, la fonctionnalité n’est déployée qu’en version d’essai (preview) auprès d’un nombre limité d’utilisateurs ; Microsoft a confirmé que cette phase de test vise à « apprendre et améliorer » le service avant un déploiement plus large. Notons que la désactivation entraîne la suppression de toutes les données biométriques collectées (groupements de visages, étiquettes) sous 30 jours. Si l’utilisateur réactive ensuite l’option, l’IA devra recommencer l’analyse depuis zéro sur l’ensemble des photos.

    Nom : trois.png
Affichages : 47073
Taille : 65,7 Ko
    Capture d’écran de l’application OneDrive (aperçu de la section “Personnes”) montrant le message qui limite la désactivation de la reconnaissance faciale à trois fois par an. OneDrive y précise utiliser l’IA pour regrouper les photos contenant des visages familiers.

    Microsoft n’a pas fourni d’explication claire sur le choix arbitraire de « trois fois par an »

    Interrogée à ce sujet, la société s’est abstenue de répondre, se contentant de rappeler que « OneDrive hérite des fonctionnalités et paramètres de confidentialité de Microsoft 365 et SharePoint, lorsque applicable ». Face à ce silence, les spéculations vont bon train. Certains avancent une possible raison technique : chaque désactivation oblige à effacer des données et chaque réactivation impose de re-scanner potentiellement des milliers de photos, ce qui mobilise beaucoup de ressources de calcul.

    Limiter le nombre de changements empêcherait des allers-retours trop fréquents qui satureraient les serveurs. D’autres y voient surtout une manœuvre pour décourager l’opt‑out : en restreignant strictement les occasions de couper l’IA, Microsoft s’assure que la grande majorité des utilisateurs laisseront la fonction activée en permanence. Quoi qu’il en soit, la mesure est perçue comme inhabituelle et contraignante. « Pourquoi pas quatre fois ? Ou aussi souvent que l’utilisateur le souhaite ? » s’interroge avec ironie un journaliste du Register, soulignant l’aspect pour le moins arbitraire de cette limite annuelle

    Il reste également à éclaircir comment ce compteur est appliqué : s’agit-il de l’année calendaire ? D’un cycle de 12 mois glissants à partir de la première modification ? Le flou demeure complet sur ces détails pratiques.

    En l’état actuel (phase de test), la reconnaissance de personnes dans OneDrive est activée par défaut pour les utilisateurs qui y ont accès. Cela signifie qu’elle est en opt-out : c’est à l’usager de se rendre dans les paramètres s’il souhaite la désactiver. Ce choix par défaut, combiné à l’imposition d’une fréquence maximale de modification, a rapidement fait bondir les défenseurs de la vie privée.

    Enjeux de confidentialité et protection des données personnelles

    Cette décision de Microsoft soulève d’importants enjeux de confidentialité.

    D’une part, l’analyse IA des photos implique la collecte de données personnelles sensibles. Identifier les visages sur vos clichés revient à traiter des données biométriques (les caractéristiques faciales permettant de distinguer une personne). Ces données, bien que stockées côté utilisateur, sont calculées et conservées par Microsoft pour fournir la fonctionnalité. L’entreprise se veut rassurante en affirmant que les regroupements de visages restent strictement privés (uniquement visibles par le propriétaire du compte) et ne sont pas utilisés pour entraîner les modèles d’IA globaux de Microsoft. En outre, Microsoft promet de ne pas exploiter ces données à des fins commerciales, publicitaires ou de marketing, ni de les partager à des tiers sans consentement. Ces engagements figurent dans la documentation de OneDrive et la déclaration de confidentialité de Microsoft.

    D’autre part, de nombreux utilisateurs et experts estiment que la décision doit revenir à l’individu de consentir (ou non) à ce type d’analyse sur ses contenus personnels. Or, Microsoft a choisi un modèle où l’option est activée sans action de l’usager (opt-out plutôt qu’opt-in), ce qui est critiqué comme un manquement au principe de consentement explicite en matière de vie privée.

    « Toute fonctionnalité ayant trait à la vie privée devrait idéalement être opt-in, avec une documentation claire pour que les utilisateurs comprennent ses bénéfices et risques et puissent choisir en connaissance de cause » rappelle ainsi Thorin Klosowski, un activiste sécurité/vie privée à l’Electronic Frontier Foundation

    Dans le cas présent, non seulement OneDrive active la reconnaissance faciale par défaut, mais il complique l’exercice du choix en restreignant la liberté de changer d’avis. Une fois la fonction coupée, un utilisateur prudent pourrait hésiter à la réactiver s’il sait qu’il n’aura plus que deux (puis une, puis zéro) possibilités de la désactiver de nouveau dans l’année. Cette limitation est perçue comme contraire aux bonnes pratiques de contrôle utilisateur, voire paternaliste. « Les gens devraient pouvoir modifier leurs réglages quand ils le veulent, car on traverse tous des situations où l’on doit réévaluer nos paramètres de confidentialité » insiste Klosowski, qui juge le plafond de trois fois par an particulièrement restrictif.

    Enfin, cette initiative s’inscrit dans une tendance plus large où Microsoft injecte de l’IA dans tous ses produits (Windows, Office 365 Copilot, etc.), parfois de manière forcée. Certains observateurs y voient un glissement des standards de confidentialité : ce qui était autrefois opt-in ou manuel devient automatique, et il devient de plus en plus difficile d’y échapper sans effort. « Il est difficile de ne pas voir cela comme une nouvelle façon discrète pour l’IA d’éroder les normes de vie privée et de s’immiscer là où elle n’est pas toujours la bienvenue » commente un chroniqueur, qui note qu’isolément la fonctionnalité OneDrive peut sembler anodine, mais qu’elle s’ajoute à une série d’initiatives imposant l’IA un peu partout.

    Avis des experts et réactions de la communauté

    La limitation de la désactivation à trois fois par an a suscité de vives réactions parmi les experts en cybersécurité et en droit du numérique. Du côté des défenseurs de la vie privée, le verdict est sans appel : c’est une idée malavisée. Thorin Klosowski (EFF), déjà cité plus haut, exprime son incompréhension face à ce choix qu’il juge anti-utilisateur. Pour lui, non seulement la fonctionnalité aurait dû être facultative à l’activation, mais en plus brider la possibilité de la couper va à l’encontre du droit des usagers à contrôler leurs données.

    Aucun bénéfice clair n’est apporté aux utilisateurs par une telle restriction, si ce n’est celui – cynique – d’éviter que trop de personnes ne désactivent l’IA. Cette opinion est largement partagée dans la communauté infosec et privacy, où l’on n’hésite pas à tourner l’initiative en dérision. Sur les forums spécialisés, on compare la politique de Microsoft à une voiture qui ne laisserait ajuster ses rétroviseurs que trois fois par an : absurde et frustrant. Le forum Privacy Guides résume le sentiment général par un emoji facepalm et la remarque « Quelle situation déplorable… » en parlant de l’état des technologies grand public du point de vue respect de la vie privée.

    Pour sa part, Guillaume Belfiore, rédacteur en chef adjoint chez Clubic, note que pour l’Union européenne, un tel mécanisme devra obligatoirement être accompagné « d'une information claire et d’un contrôle simple pour l’utilisateur » afin de respecter le RGPD. Si Microsoft persistait avec un opt-out par défaut et un opt-out limité, la compatibilité avec la loi serait douteuse.

    Des juristes soulignent que même si l’utilisateur a consenti initialement, il doit pouvoir revenir sur sa décision sans obstacle ; Microsoft se trouverait en difficulté si un utilisateur portait plainte qu’il ne peut plus exercer ses droits pleinement à cause de cette barrière logicielle.

    Enfin, il est intéressant de noter que d’autres entreprises ont récemment fait marche arrière sur des fonctionnalités similaires suite à la pression populaire. Apple, par exemple, avait annoncé en 2021 un système de scan local des photos iCloud pour détecter les images pédopornographiques ; face au tollé des associations de défense des libertés, la firme a suspendu puis abandonné ce projet en 2022, préférant explorer d’autres voies pour protéger les enfants tout en préservant le chiffrement des données.

    Conclusion

    Microsoft semble pour l’instant tâtonner, via cette preview, afin de calibrer sa fonctionnalité et la réaction du public. Il ne serait pas surprenant que des ajustements surviennent dans les prochains mois – par exemple, un passage à un opt-in réel dans les zones régulées, ou un assouplissement du fameux quota de trois modifications par an.

    Le dialogue avec les régulateurs européens sera déterminant pour la suite, tout comme les retours des grandes entreprises clientes de Microsoft 365 (qui n’apprécieraient guère une polémique supplémentaire sur la confidentialité de leurs données). En attendant, cette controverse a au moins le mérite de rappeler l’importance d’une gouvernance transparente des fonctionnalités IA. Pour les CISO, DPO et autres décideurs IT, le message est clair : il faut examiner de près les paramètres des services cloud utilisés et ne pas hésiter à désactiver – tant que c’est possible – les analyses automatisées jugées trop invasives pour les données sensibles.

    En fin de compte, l’initiative de Microsoft vise à concilier les avantages de l’intelligence artificielle avec les exigences de la protection des données. L’idée n’est pas condamnable en soi, mais sa mise en œuvre maladroite soulève des critiques légitimes. Factuelle et critique, la discussion autour de OneDrive préfigure sans doute celles qui entoureront d’autres produits à l’ère du « tout-AI ». Trouver le bon point d’équilibre entre innovation et vie privée restera un défi majeur pour l’industrie technologique dans les années à venir.

    Microsoft, en limitant arbitrairement la liberté de ses utilisateurs, a franchi une ligne rouge aux yeux de beaucoup ; à elle de démontrer désormais qu’il est possible de reculer prudemment, d’écouter les préoccupations exprimées, et d’ajuster le tir pour que l’IA reste une alliée et non une menace pour la confiance numérique.

    Sources : support Microsoft, PhotoDNA, entretien avec un porte-parole de Microsoft

    Et vous ?

    Une entreprise comme Microsoft a-t-elle le droit d’imposer une limite au nombre de fois où un utilisateur peut désactiver une fonctionnalité d’IA touchant à ses données personnelles ?

    Comment une telle politique pourrait-elle être compatible avec le droit de retrait à tout moment prévu par le RGPD ?

    La reconnaissance faciale de OneDrive, même limitée à l’usage privé, entre-t-elle juridiquement dans la catégorie des données biométriques sensibles ?

    Peut-on réellement faire confiance à un cloud qui analyse nos photos « pour notre bien » ? Le risque de faux positifs (détection erronée de contenu illicite) ne rend-il pas cette IA plus dangereuse que protectrice ?

    Microsoft n’est-il pas en train de normaliser un modèle où l’IA devient obligatoire dans les services cloud ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre expérimenté

    Homme Profil pro
    Expert en conception/création de progiciel complexe pour l'industrie du diamants et autres.
    Inscrit en
    Juillet 2016
    Messages
    95
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : Belgique

    Informations professionnelles :
    Activité : Expert en conception/création de progiciel complexe pour l'industrie du diamants et autres.
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juillet 2016
    Messages : 95
    Par défaut
    Pas de probleme: plus de photos sur OneDrive...
    Commence serieusement à nous emmerder... pillage generalisé de toute nos donnees...

  3. #3
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 405
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 405
    Par défaut
    A quand une nouvelle exigence de Microsoft: "Disposer d'un gros plan des parties intimes des utilisateurs"?

  4. #4
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 896
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 896
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    A quand une nouvelle exigence de Microsoft: "Disposer d'un gros plan des parties intimes des utilisateurs"?
    Bah c'est déjà le cas avec les photos perso sur OneDrive, non?

  5. #5
    Membre éprouvé
    Avatar de berceker united
    Profil pro
    SQL
    Inscrit en
    Février 2005
    Messages
    3 516
    Détails du profil
    Informations personnelles :
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : SQL
    Secteur : Finance

    Informations forums :
    Inscription : Février 2005
    Messages : 3 516
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    A quand une nouvelle exigence de Microsoft: "Disposer d'un gros plan des parties intimes des utilisateurs"?
    Cela permet d'identifier à 99.99% une personne vu que les plis (si vous vous voyez ce que je veux dire) de la partie intime de l'utilisateur est unique.
    Mon avatar ? Ce n'est rien, c'est juste la tête que je fais lorsque je vois un code complètement frappa dingue !...

  6. #6
    Membre éprouvé

    Profil pro
    MOA
    Inscrit en
    Décembre 2002
    Messages
    1 264
    Détails du profil
    Informations personnelles :
    Localisation : France, Eure et Loir (Centre)

    Informations professionnelles :
    Activité : MOA

    Informations forums :
    Inscription : Décembre 2002
    Messages : 1 264
    Par défaut
    Je dirais qu'ils sont honnête de le dire.

    Il y a de très forte chance que Google le fasse. J'avais pu lire à plusieurs reprises que les boites gmail était scanné, je ne serais pas surpris pour le cloud de Google.

    Au moins les gens sont prévenus, si cela leur plait pas, ils vont voir un cloud concurrent (Infomaniak, ...) mais certain que cela dérange tant que cela bcp de monde, il y a beaucoup de "je n'ai rien à cacher".

  7. #7
    Membre Expert
    Avatar de shenron666
    Homme Profil pro
    avancé
    Inscrit en
    Avril 2005
    Messages
    2 594
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 49
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : avancé

    Informations forums :
    Inscription : Avril 2005
    Messages : 2 594
    Par défaut
    La CNIL et le RGPD devraient se pencher sur ces pratiques où nos données personnelles sont traitées sans notre consentement
    Tutoriels OpenGL
    Je ne répondrai à aucune question en MP
    - Si c'est simple tu dis que c'est compliqué et tu le fait
    - Si c'est compliqué tu dis que c'est simple et tu le sous-traite ou le fait faire par un stagiaire.

  8. #8
    Membre extrêmement actif Avatar de OrthodoxWindows
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 351
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 351
    Par défaut
    La fonctionnalité de scan IA de OneDrive doit donc trouver un équilibre délicat entre l’amélioration de l’expérience utilisateur, la protection de tous (en identifiant les contenus criminels) et le respect de la vie privée des personnes.
    Il n'y a absolument aucun "équilibre" de ce genre à trouver, de quelque manière que se soit. Tout système qui scanne des photos privés est un malware, que se soit du scan pour du classement de photo, pour améliorer une IA, ou pour détecter quelque chose d’illicite.

    A un moment, il va falloir appeler un chat un chat à dire que des services comme OneDrive, GoogleDrive, GMail, Outlook, Google Chrome... Ne valent pas mieux qu'un fichier Torrent piégé ou qu'une fausse application mobile d’émoticône.

    L'équilibre, c'est qu'une photo privé ne soit scannée, sans exception. Et que pour les photos publics se trouvant sur le web, tout système de scan ayant pour but d'identifier les personnes (reconnaissance faciale, ou digitale, par exemple) soit soumis au consentement explicite.

  9. #9
    Membre averti Avatar de _PaTaTe_
    Homme Profil pro
    Développeur Web
    Inscrit en
    Janvier 2004
    Messages
    24
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Janvier 2004
    Messages : 24
    Par défaut On va bien rire !
    Ah oui ? Ben c'est ce qu'on va voir, je ne me sers que peux de mon OneDrive. Je vais le remplir à jusqu'à saturation d'image de catégorie inexploitable, ça leur fera perdre du temps ^^

Discussions similaires

  1. Réponses: 16
    Dernier message: 21/01/2020, 17h08
  2. Réponses: 0
    Dernier message: 03/07/2017, 16h46
  3. Réponses: 0
    Dernier message: 19/03/2015, 07h18
  4. Microsoft courtise les utilisateurs de Gmail
    Par Hinault Romaric dans le forum Actualités
    Réponses: 14
    Dernier message: 24/12/2013, 16h14
  5. Microsoft invite les utilisateurs d’Android à passer sur Windows Phone
    Par Hinault Romaric dans le forum Windows Phone
    Réponses: 13
    Dernier message: 05/05/2013, 22h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo