IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Microsoft est accusée d'utiliser le contenu de Word et d'Excel en ligne pour former son IA Copilot


Sujet :

Intelligence artificielle

  1. #81
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 057
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 057
    Points : 209 181
    Points
    209 181
    Par défaut Microsoft Copilot peut désormais lire ce qui est affiché sur votre écran pour vous donner des réponses
    Microsoft Copilot peut désormais lire ce qui est affiché sur votre écran pour vous donner des réponses contextuelles,
    vous parler à voix haute et résoudre des problèmes complexes

    Une semaine après avoir annoncé une vague de mises à jour pour sa suite de produits d'entreprise Copilot alimentés par l'IA, Microsoft lance de nouvelles fonctionnalités Copilot sur Windows pour tous les utilisateurs, y compris un outil qui peut comprendre et répondre à des questions sur ce qui est affiché à l'écran.

    Les nouvelles applications Copilot pour iOS, Android, Windows et le web sont désormais disponibles et présentent toutes un Copilot au style plus « chaleureux » et « distinct », comme le décrit Microsoft. Microsoft intègre également le chatbot à WhatsApp, permettant aux utilisateurs de discuter avec Copilot par messagerie privée, comme ils le font déjà avec d'autres bots sur la plateforme de messagerie de Meta.


    « Notre nouveau Copilot se veut plus intuitif et propose des réponses plus digestes, plus rapides et plus fluides. Il s'adapte désormais à vous avec un ton chaleureux et un style distinct, vous fournissant non seulement des informations mais aussi des encouragements, des commentaires et des conseils pour vous aider à relever les défis quotidiens de la vie, qu'ils soient petits ou grands. Par exemple, en plus de vous aider à planifier ce grand voyage, il peut également vous donner des conseils sur la manière de garder votre sang-froid lorsque, par exemple, le dossier de votre siège reçoit des coups de pied d'un enfant en bas âge.

    « Nous ajoutons des fonctionnalités avancées, telles que la voix et la vision, qui le rendent à la fois plus utile et plus naturel. Ces modalités changent la façon dont nous nous connectons à la technologie, permettant aux gens de réfléchir, d'apprendre et de travailler en toute transparence avec leurs compagnons Copilot ».


    Lecture de l’écran et analyse contextuelle avec Copilot Vision

    Copilot Vision a une vision de ce que vous regardez sur votre PC (plus précisément, une vision des sites que vous visitez avec Microsoft Edge). Relié à Copilot Labs, un nouveau programme d'opt-in exclusif à Copilot Pro pour les fonctionnalités expérimentales de Copilot, Copilot Vision peut analyser le texte et les images des pages web et répondre à des questions (par exemple, « Quelle est la recette du plat sur cette image ? ») à leur sujet.

    Vision, que l'on peut obtenir en tapant « @copilot » dans la barre d'adresse d'Edge, n'est pas exactement une merveille technique. Google propose une technologie de recherche similaire sur Android et a récemment intégré des éléments de cette technologie dans Chrome.

    Mais Microsoft laisse entendre que Copilot Vision est plus puissant et plus respectueux de la vie privée que les précédentes fonctions d'analyse d'écran.

    Copilot peut « comprend la page web que vous consultez, qu'il s'agisse de texte ou d'images, et peut répondre à des questions sur son contenu, suggérer les prochaines étapes et vous aider sans perturber votre flux de travail. Imaginez que vous essayez de meubler un nouvel appartement, Copilot Vision peut vous aider à rechercher des meubles, à trouver la bonne palette de couleurs, à réfléchir aux options qui s'offrent à vous, des tapis aux jetés, et même à vous suggérer des façons d'agencer ce que vous regardez ».

    Autre exemple : si vous regardez une recette en ligne, Copilot peut vous fournir des informations supplémentaires sur les ingrédients ou même suggérer des variantes de la recette.

    Sans doute désireux d'éviter une nouvelle vague de mauvaise presse liée aux erreurs de confidentialité de l'IA, Microsoft insiste sur le fait que Copilot Vision a été conçu pour supprimer les données immédiatement après les conversations. Les données audio, les images ou le texte traités ne sont pas stockés ou utilisés pour former des modèles, affirme l'entreprise - du moins pas dans cette version de prévisualisation.


    Copilot Vision est également limité dans les types de sites web qu'il peut interpréter. Pour l'instant, Microsoft empêche la fonctionnalité de fonctionner sur les contenus payants et « sensibles », limitant Vision à une liste préapprouvée de propriétés web « populaires ».

    Qu'entend-on exactement par contenu « sensible » ? Du porno ? De la violence ? À ce stade, Microsoft n'a pas voulu le dire.

    Les accusations de contournement des paywalls à l'aide d'outils d'intelligence artificielle ont récemment valu à Microsoft de se retrouver dans une situation juridique délicate. Dans une action en justice en cours, le New York Times allègue que Microsoft a permis aux utilisateurs de contourner son paywall en diffusant des articles du quotidien par l'intermédiaire du chatbot Copilot sur Bing. Lorsqu'il était sollicité d'une certaine manière, Copilot (qui s'appuie sur les modèles d'OpenAI, un proche collaborateur de Microsoft) donnait des extraits textuels (ou presque) d'articles payants, selon le Times.

    Microsoft a déclaré que Copilot Vision, qui n'est pour l'instant disponible qu'aux États-Unis, respectera les « contrôles de l'IA lisibles par les machines » des sites, comme les règles interdisant aux robots de récupérer des données pour l'entraînement à l'IA. Mais l'entreprise n'a pas précisé quels contrôles Vision respectera, car il en existe plusieurs.

    De plus, de nombreux grands éditeurs ont choisi d'empêcher les outils d'IA de parcourir leurs sites web, non seulement par crainte que leurs données ne soient utilisées sans autorisation, mais aussi pour éviter que ces outils ne fassent grimper en flèche les coûts de leurs serveurs. Si la tendance actuelle se confirme, Copilot Vision pourrait ne pas fonctionner sur certains des principaux sites d'information du web.

    Microsoft a déclaré qu'elle s'engageait à « prendre en compte les réactions » pour apaiser les inquiétudes.

    Citation Envoyé par Microsoft
    La sécurité est notre priorité absolue :
    • Les sessions de Copilot Vision sont entièrement facultatives et éphémères. Aucun des contenus auxquels Copilot Vision participe n'est stocké ou utilisé pour la formation - dès que vous mettez fin à votre session, les données sont définitivement supprimées.
    • L'expérience ne fonctionnera pas sur tous les sites web, car nous avons pris des mesures importantes pour limiter les types de sites web avec lesquels Copilot Vision peut communiquer. Nous commençons par une liste limitée de sites web populaires pour nous assurer que l'expérience est sûre pour tout le monde.
    • Copilot Vision ne travaillera pas sur des contenus sensibles ou protégés par un paywall pour cette préversion. Nous l'avons créé en gardant à l'esprit les intérêts des utilisateurs et des créateurs.
    • Il n'y a pas de traitement spécifique du contenu d'un site web sur lequel vous naviguez, ni d'entraînement à l'IA. Copilot Vision se contente de lire et d'interpréter les images et le texte qu'il voit sur la page pour la première fois, en même temps que vous.
    • Avant de procéder à un lancement à grande échelle, nous continuerons à recueillir les commentaires des premiers utilisateurs de Copilot Labs, à affiner nos mesures de sécurité et à placer la protection de la vie privée et la responsabilité au centre de toutes nos activités. N'hésitez pas à nous faire part de vos commentaires !
    Nom : copilot.png
Affichages : 5972
Taille : 43,1 Ko

    La fonctionnalité Think Deeper et le raisonnement avancé

    Comme pour Vision, la nouvelle fonction Think Deeper de Copilot vise à rendre l'assistant de Microsoft plus polyvalent.

    Think Deeper permet à Copilot de résoudre des problèmes plus complexes, selon Microsoft, grâce à des « modèles de raisonnement » qui prennent plus de temps avant de fournir des réponses étape par étape. Quels modèles de raisonnement ? Microsoft est resté un peu flou, se contentant de dire que Think Deeper utilise « les derniers modèles d'OpenAI, peaufinés par Microsoft ». En lisant entre les lignes, il y a fort à parier qu'il s'agit d'une version personnalisée du modèle o1 d'OpenAI.

    Cette fonctionnalité permet à l’assistant de fournir des réponses plus nuancées et réfléchies, allant au-delà des simples recherches d’informations. Par exemple, vous voulez planifier un projet complexe : Copilot peut vous aider à penser à travers les différentes étapes, suggérer des ressources et même anticiper des obstacles potentiels.

    « Copilot peut désormais raisonner sur des questions plus complexes. Think Deeper prend plus de temps avant de répondre, ce qui permet à Copilot de fournir des réponses détaillées et étape par étape à des questions difficiles. Nous l'avons conçu pour répondre à toutes sortes de défis pratiques et quotidiens, comme comparer deux options complexes côte à côte. Dois-je déménager dans telle ou telle ville ? Quel type de voiture correspond le mieux à mes besoins ? Et ainsi de suite. Il s'agit d'une compétence Copilot précoce qui est encore en cours de développement. Nous l'avons donc placée dans notre laboratoire expérimental Copilot Labs afin de la tester et d'obtenir des commentaires ».

    Microsoft a beaucoup parlé du potentiel de Think Deeper dans ses documents de presse. Mais en supposant que le modèle sous-jacent soit o1, il ne sera certainement pas à la hauteur dans certains domaines. Il sera intéressant de voir quels types d'améliorations Microsoft a apportés au modèle de base et dans quelle mesure Think Deeper peut communiquer à propos de ses limites.

    Think Deeper est disponible pour un nombre limité d'utilisateurs de Copilot Labs en Australie, au Canada, en Nouvelle-Zélande, aux États-Unis et au Royaume-Uni.

    Interaction vocale et synthèse de la parole

    Copilot Voice (à ne pas confondre avec Copilot Voice de GitHub) est une nouvelle fonctionnalité de Copilot qui est généralement disponible. Lancée en anglais en Nouvelle-Zélande, au Canada, en Australie, au Royaume-Uni et aux États-Unis pour commencer, Voice ajoute quatre voix synthétiques qui vous permettent de parler à Copilot et d'entendre ses réponses à voix haute.

    À l'instar du mode vocal avancé d'OpenAI pour ChatGPT, Copilot Voice peut interpréter le ton que vous employez au cours de la conversation et répondre en conséquence. Un porte-parole de Microsoft a expliqué que le mode utilise « la dernière technologie vocale avec de nouveaux modèles qui ont été affinés pour l'application Copilot ». Quelle technologie ? Quels modèles ? On ne peut pas dire que Microsoft est généreux pour ce qui concerne les détails.

    Une chose à savoir : Copilot Voice a une limite d'utilisation basée sur la durée. Les abonnés à Copilot Pro bénéficient de plus de minutes, mais ce nombre est « variable » en fonction de la demande, explique Microsoft.

    « Nous rendons plus facile que jamais la connexion avec votre compagnon grâce à Copilot Voice. C'est le moyen le plus intuitif et le plus naturel de faire du brainstorming en déplacement, de poser une question rapide ou même de se défouler à la fin d'une journée difficile. Votre compagnon vous sera personnel, avec quatre options vocales au choix ».


    Analyse critique des nouvelles fonctionnalités de Microsoft Copilot

    Bien que les nouvelles capacités de Microsoft Copilot soient impressionnantes, elles soulèvent également plusieurs questions et préoccupations.

    Problèmes de confidentialité et de sécurité

    L’une des principales préoccupations concerne la confidentialité des données. La capacité de Copilot à lire et analyser le contenu de votre écran pourrait potentiellement exposer des informations sensibles. Bien que Microsoft affirme que les données sont immédiatement supprimées après utilisation et ne sont pas utilisées pour entraîner les modèles, il reste une certaine méfiance quant à la manière dont ces données sont réellement gérées. Les utilisateurs doivent pouvoir faire confiance à l’outil pour protéger leurs informations personnelles et professionnelles.

    Dépendance technologique

    La fonction de réflexion profonde de Copilot, bien qu’utile, pourrait encourager une dépendance excessive à la technologie pour la prise de décision. Si les utilisateurs commencent à s’appuyer trop fortement sur Copilot pour résoudre des problèmes complexes, cela pourrait diminuer leur capacité à penser de manière critique et indépendante. Il est essentiel de trouver un équilibre entre l’utilisation de l’IA comme outil d’assistance et le maintien de nos propres compétences analytiques.

    Accessibilité et équité

    L’intégration de la synthèse vocale et de l’entrée vocale est une avancée significative, mais elle n’est actuellement disponible que dans certains pays anglophones. Cette limitation géographique soulève des questions d’équité et d’accessibilité. Pour que Copilot soit véritablement inclusif, Microsoft devra étendre ces fonctionnalités à d’autres langues et régions, garantissant ainsi que tous les utilisateurs puissent bénéficier de ces innovations.

    Risques de surinformation

    Avec la capacité de Copilot à fournir des informations en temps réel, il existe un risque de surinformation. Les utilisateurs pourraient être submergés par une quantité excessive de données, rendant difficile la distinction entre les informations pertinentes et les distractions. Il est crucial que Copilot soit capable de filtrer et de prioriser les informations de manière efficace pour éviter ce problème.

    Source : Microsoft

    Et vous ?

    Comment pensez-vous que Microsoft pourrait améliorer la gestion de la confidentialité des données avec Copilot ?
    Voyez-vous des domaines spécifiques où la réflexion profonde de Copilot pourrait être particulièrement bénéfique ou problématique ?
    Quels sont les défis potentiels que vous anticipez avec l’utilisation de la synthèse vocale dans des environnements professionnels ?
    Comment évalueriez-vous l’équilibre entre l’assistance technologique et la préservation des compétences humaines dans la prise de décision ?
    Quels types de filtres ou de priorités aimeriez-vous voir intégrés dans Copilot pour éviter la surinformation ?
    Pensez-vous que l’extension des fonctionnalités de Copilot à d’autres langues et régions est une priorité ? Pourquoi ou pourquoi pas ?
    Quels autres aspects de l’interaction homme-machine aimeriez-vous voir explorés par Microsoft dans les futures mises à jour de Copilot ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #82
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    183
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 183
    Points : 631
    Points
    631
    Par défaut
    Hé bien, des démos techniques de plus en plus... Nazes ? Inutiles ? Débiles ? Je sais même plus quel mot choisir.
    Depuis un bon moment j'ai l'impression que tous mes commentaires vont dans le même sens. Et encore, vous avez de la chance, 9 fois sur 10 je me retiens d'écrire vu que mon message est aussi inutile que la technologie présentée.


    Sérieusement, à part une personne handicapée, qui peut bien avoir besoin d'un logiciel qui commente/lise ce qui se trouve sur l'écran de l'ordinateur qu'il est en train d'utiliser ?

  3. #83
    Membre éclairé
    Profil pro
    maçon
    Inscrit en
    Novembre 2004
    Messages
    276
    Détails du profil
    Informations personnelles :
    Localisation : France, Haute Loire (Auvergne)

    Informations professionnelles :
    Activité : maçon

    Informations forums :
    Inscription : Novembre 2004
    Messages : 276
    Points : 720
    Points
    720
    Par défaut
    Dépendance technologique

    La fonction de réflexion profonde de Copilot, bien qu’utile, pourrait encourager une dépendance excessive à la technologie pour la prise de décision. Si les utilisateurs commencent à s’appuyer trop fortement sur Copilot pour résoudre des problèmes complexes, cela pourrait diminuer leur capacité à penser de manière critique et indépendante. Il est essentiel de trouver un équilibre entre l’utilisation de l’IA comme outil d’assistance et le maintien de nos propres compétences analytiques.
    C'est le but premier , et rechercher, des GAFAM d'abêtir les masses pour mieux les manipuler et les rendre totalement dépendant de leurs services .

  4. #84
    Membre habitué
    Homme Profil pro
    Conseil - Consultant en systèmes d'information
    Inscrit en
    Juin 2023
    Messages
    40
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Grèce

    Informations professionnelles :
    Activité : Conseil - Consultant en systèmes d'information
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Juin 2023
    Messages : 40
    Points : 156
    Points
    156
    Par défaut
    Citation Envoyé par _toma_ Voir le message
    Sérieusement, à part une personne handicapée, qui peut bien avoir besoin d'un logiciel qui commente/lise ce qui se trouve sur l'écran de l'ordinateur qu'il est en train d'utiliser ?
    Une personne qui n'a pas d'amis, par exemple ? ça me rappelle que j'ai lu qu'un gars avait fait un réseau social de bots où tu peux choisir le ton que les bots vont employer pour répondre à tes messages... quand je pense que certains applaudissent cette énorme connerie. Déjà qu'il y a les Woke, on nous rajoute leurs cousins les bots

  5. #85
    Membre chevronné
    Profil pro
    MOA
    Inscrit en
    Décembre 2002
    Messages
    1 132
    Détails du profil
    Informations personnelles :
    Localisation : France, Eure et Loir (Centre)

    Informations professionnelles :
    Activité : MOA

    Informations forums :
    Inscription : Décembre 2002
    Messages : 1 132
    Points : 2 120
    Points
    2 120
    Par défaut
    Sur le plan technique, c'est absolument impressionnant ce qu'il arrive à faire. Après il ne faut pas oublier que Microsoft 3 plus grandes capitalisation boursière, elle a énormément de ressource financière. Il est donc assez facile de recruter et de mettre des poles d'excellence. Et malheureusement la concurrence peut difficilement suivre.

    Cette prouesse technique est assez incroyable, elle créé un véritable assistant pour nous aider sur plein de chose, dont on l'habitude de faire nous même. Par exemple, il s'occuperait de faire les comparatifs, ... Microsoft essaie de créer un nouveau besoin pour ensuite le rendre indispensable auprès des utilisateurs, au point de créer une certaine indépendance à son produit. Est ce que les gens vont aller jusque là ?

    En terme de vie privée, peut importe ce qu'ils font. Je suis contre de mettre tous mes oeufs dans le même panier, de faire appel à un unique prestataire pour tout. Si on veut de la vie privée, il faut se pencher sur les IA locaux. Microsoft a tout intéret plein d'information sur nous pour entrainer son IA, sous le prextexe pour améliorer son expérience utilisateur.


    Je n'adhère pas du tout mais je trouve qu'il est intéressant de comprendre la stratégie des GAFAM. Et celle de Microsoft, je la comprends. Microsoft dépensent des millions de $$ dans l'IA et donc essaie de trouver des nouveaux usages

  6. #86
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 301
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 301
    Points : 21 443
    Points
    21 443
    Par défaut Microsoft envisage de permettre aux entreprises de créer leurs propres employés virtuels alimentés par l'IA
    Microsoft prévoit de permettre aux entreprises de créer leurs propres employés virtuels alimentés par l'IA, alors que la prochaine version de Copilot intégrera des agents autonomes

    Microsoft travaille sur une fonction Copilot à l'échelle de l'entreprise qui permettrait aux sociétés de créer leurs propres employés virtuels IA. En pratique, cela signifie que les entreprises pourraient créer leurs propres chatbots IA pour interagir avec les clients ou des employés internes pour gérer les tâches internes, en veillant à ce que le ton et le comportement de l'agent soient conformes aux directives et aux préférences de l'entreprise.

    Ce projet intervient après que Microsoft ait lancé au début du mois d'octobre 2024 de nouvelles fonctionnalités Copilot sur Windows, y compris un outil qui permet à Microsoft Copilot de lire ce qui est affiché sur l'écran d'un utilisateur pour lui fournir des réponses contextuelles, de parler à haute voix et de résoudre des problèmes complexes.

    Le projet, intitulé Microsoft Copilot Studio, est la prochaine étape de l'IA au travail. Une version bêta fermée a été lancée au début de l'année et une phase de test publique est prévue pour le mois de novembre 2024.


    Les types de tâches que les employés IA, appelés agents par Microsoft, peuvent effectuer sont généralement des tâches administratives, telles que répondre aux demandes des clients via un chatbot, générer ou résoudre des tickets d'assistance informatique, et répondre à des courriels en utilisant des templates prédéfinis.

    Le fait que Microsoft parle d'agents et d'« employés virtuels » joue sur les craintes existantes des gens à l'égard de l'IA, à savoir que l'IA pourrait voler des emplois humains. Le géant de la technologie s'est donc empressé de souligner que les agents Copilot ne peuvent qu'automatiser des tâches répétitives et souvent fastidieuses. L'idée est que cela libère du temps humain pour des rôles plus créatifs et à plus haute responsabilité.

    Comment fonctionne Copilot Studio ?

    Les entreprises n'ont pas besoin d'avoir des connaissances techniques approfondies pour travailler avec Copilot Studio, l'application utilisant un format low-code. L'interface, essentiellement graphique, requiert des connaissances limitées en matière de programmation et Microsoft fournit des agents prédéfinis que les clients peuvent utiliser pour créer leurs propres agents ou pour commencer à travailler immédiatement.


    Parmi les agents prédéfinis, on retrouve un agent de qualification des ventes (axé sur la prospection des clients), un agent de communication avec les fournisseurs (destiné à optimiser les chaînes d'approvisionnement) et un agent d'intention des clients (qui aide les employés du service clientèle à rédiger des articles générés automatiquement). Cela donne une idée des utilisations prévues pour les entreprises qui mettent en œuvre Copilot Studio.

    Microsoft n'a pas donné de calendrier précis pour la mise à disposition de Copilot Studio au grand public, mais les phases de test progressant, cela pourrait se faire dès l'année 2025.

    Alors que Microsoft s’attelle à travers ce nouveau projet au développement de la prochaine itération de l'IA au travail, son assistant Copilot n'est pas épargné par la critique. En effet, le PDG de Salesforce, Marc Benioff, a récemment déclaré dans un billet publié sur X que l'assistant IA Copilot de Microsoft ne fonctionnait pas, qu'il n'offrait "aucun niveau de précision" et que les clients étaient "obligés de nettoyer le désordre" causé par la mise en œuvre de l'outil.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous que cette initiative de Microsoft est crédible ou pertinente ?

    Voir aussi :

    Le PDG de Salesforce, Marc Benioff, déclare que l'assistant IA Copilot de Microsoft ne fonctionne pas, qu'il n'offre « aucun niveau de précision » et que les clients sont « obligés de nettoyer le désordre »

    Les outils de développement GenAI n'améliorent pas l'efficacité du codage et augmentent le nombre de bogues : avec Microsoft Copilot les développeurs ont constaté une augmentation de 41 % des bogues

    « Si vous confiez les rênes à Copilot, ne vous étonnez pas qu'il dévoile vos secrets », d'après une récente étude selon laquelle cette IA peut être transformée en outil d'exfiltration de données
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #87
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 057
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 057
    Points : 209 181
    Points
    209 181
    Par défaut Microsoft Copilot au cœur d’une controverse sur la gestion des données sensibles en entreprise
    Microsoft Copilot au cœur d’une controverse sur la gestion des données sensibles en entreprise :
    les utilisateurs ont découvert qu'ils pouvaient accéder sans autorisation aux documents des RH et aux courriels du PDG

    Depuis son lancement, Microsoft Copilot, un assistant intelligent intégré à des outils tels que Microsoft 365, a suscité un grand intérêt pour sa capacité à automatiser et à simplifier les tâches quotidiennes. Cependant, une récente controverse a émergé : des utilisateurs ont découvert que Copilot permettait d'accéder à des informations sensibles, notamment des documents de ressources humaines (RH) ou des emails de dirigeants. Cette révélation met en lumière à la fois les possibilités offertes par cette technologie et les défis en matière de sécurité des données.

    Qu'est-ce que Microsoft Copilot ?

    Microsoft Copilot est un assistant basé sur l'intelligence artificielle, conçu pour intégrer les capacités de modèles de langage avancés, tels que ceux de GPT, dans des environnements professionnels. Il vise à améliorer la productivité en générant des résumés, en automatisant la rédaction de documents, ou encore en aidant à organiser des données complexes. Intégré dans des applications comme Word, Excel ou Teams, il offre un support précieux pour les utilisateurs, des employés aux cadres.

    Cependant, comme pour toute innovation technologique, son implémentation n'est pas sans risques. L’objectif ambitieux de Copilot est de fournir des réponses pertinentes en s'appuyant sur les données accessibles à un utilisateur, mais cet aspect a suscité des inquiétudes lorsque des failles potentielles dans le contrôle des accès ont été découvertes.

    Un accès non maîtrisé aux données sensibles

    Les utilisateurs de Copilot ont récemment signalé que l'outil pouvait accéder à des informations qu'ils n'étaient pas censés consulter. Cela inclut des documents RH, tels que des contrats de travail ou des rapports de performance, ainsi que des emails d'une importance stratégique envoyés par des PDG. Cette situation a fait surgir plusieurs questions :
    • Pourquoi ces données sont-elles accessibles via Copilot ?Microsoft Copilot fonctionne en exploitant l'intégralité des données auxquelles un utilisateur a accès dans son environnement professionnel. Si les permissions des fichiers ou des bases de données ne sont pas configurées correctement, l'assistant peut, par inadvertance, fournir des réponses ou des informations tirées de sources sensibles.
    • Un problème de configuration ou de conception ? Dans la plupart des cas rapportés, le problème semble résider dans une mauvaise gestion des droits d'accès au niveau des fichiers ou des applications associées. Cependant, cela soulève également des interrogations sur la conception même de l'outil. Un assistant doté d'une telle puissance devrait inclure des mécanismes plus robustes pour empêcher l'accès accidentel à des données sensibles.

    Implications pour les entreprises

    La révélation de cette faille a de profondes implications pour les organisations.
    1. Risques pour la sécurité des données : Les entreprises collectent et stockent des données sensibles, des informations financières aux dossiers personnels des employés. Si ces données deviennent accessibles de manière non autorisée via un outil tel que Copilot, cela pourrait entraîner des violations des réglementations sur la protection des données, comme le RGPD en Europe.
    2. Atteinte à la confidentialité : La confidentialité des communications internes, notamment celles des cadres dirigeants, est essentielle pour protéger la stratégie et les intérêts d’une organisation. La divulgation accidentelle d’emails de PDG pourrait nuire à la réputation ou à la compétitivité d’une entreprise.
    3. Perte de confiance : Les employés pourraient perdre confiance dans les systèmes technologiques s’ils craignent que leurs informations personnelles puissent être accessibles à des collègues ou à des tiers.

    Comment Microsoft répond à la controverse

    Aujourd'hui, le géant du logiciel tente de résoudre le problème. Mardi, Microsoft a publié de nouveaux outils et un guide pour aider les clients à atténuer le problème de sécurité de Copilot, qui a permis aux employés d'accéder par inadvertance à des informations sensibles, telles que les courriels du PDG et les documents des ressources humaines.

    Ces mises à jour sont conçues pour « identifier et atténuer les problèmes de partage excessif et de gouvernance », a expliqué l'entreprise dans un nouveau plan pour la suite logicielle de productivité 365 de Microsoft.

    Nom : adress.png
Affichages : 36390
Taille : 116,6 Ko

    « De nombreux défis en matière de gouvernance des données dans le contexte de l'IA n'ont pas été causés par l'arrivée de l'IA », a déclaré un porte-parole de Microsoft. L'IA est simplement le dernier appel à l'action lancé aux entreprises pour qu'elles gèrent de manière proactive leurs documents internes et autres informations, a ajouté le porte-parole.

    Ces décisions dépendent de la situation unique de chaque entreprise. Selon le porte-parole de Microsoft, des facteurs tels que les réglementations sectorielles spécifiques et la tolérance au risque doivent guider ces décisions. Par exemple, différents employés devraient avoir accès à différents types de fichiers, d'espaces de travail et d'autres ressources.

    « Microsoft aide ses clients à améliorer leur gouvernance centrale des identités et des autorisations, afin d'aider les organisations à mettre à jour et à gérer en permanence ces contrôles fondamentaux », a déclaré le porte-parole.

    La magie de Copilot (sa capacité à créer une présentation de 10 diapositives ou à convoquer une liste des produits les plus rentables de votre entreprise) fonctionne en parcourant et en indexant toutes les informations internes de votre entreprise, à l'instar des robots d'indexation utilisés par les moteurs de recherche.

    Historiquement, les services informatiques de certaines entreprises ont mis en place des autorisations laxistes pour déterminer qui pouvait accéder aux documents internes (en sélectionnant « autoriser tous », par exemple, pour le logiciel RH de l'entreprise, plutôt que de se donner la peine de sélectionner des utilisateurs spécifiques).

    Cela n'a jamais posé de problème, car il n'existait pas d'outil permettant à un employé moyen d'identifier et de récupérer les documents sensibles de l'entreprise (jusqu'à ce que Copilot soit mis en place). Par conséquent, certains clients ont déployé Copilot pour découvrir qu'il pouvait permettre aux employés de lire la boîte de réception d'un dirigeant ou d'accéder à des documents RH sensibles.

    « Désormais, lorsque Joe Blow se connecte à un compte et désactive Copilot, il peut tout voir », a déclaré un employé de Microsoft au courant des plaintes des clients. « Tout à coup, Joe Blow peut voir les courriels du PDG ».

    Les limites actuelles de l’IA générative

    Cet incident illustre un problème plus large dans l'adoption des outils d'intelligence artificielle générative en entreprise. Ces outils, bien qu'extrêmement performants, manquent souvent de contextes humains pour éviter des erreurs graves.

    Recommandations pour les entreprises

    Pour tirer parti de Copilot tout en minimisant les risques, les entreprises devraient :
    • Auditer régulièrement les permissions d'accès : S’assurer que les documents sensibles ne sont accessibles qu’à ceux qui en ont besoin.
    • Former les employés : Les sensibiliser à l'utilisation de ces outils et aux bonnes pratiques en matière de gestion des données.
    • Collaborer avec les éditeurs : Travailler étroitement avec Microsoft pour adapter les paramètres de l’outil aux besoins spécifiques de l’entreprise.

    La fonction controversée Windows Recall a signé son retour

    Microsoft a annoncé la fonction Recall lors de l'événement Build en mai. Recall est une fonction basée sur l'IA pour les PC Copilot+. Elle suit toutes les activités d'un PC Windows afin de faciliter les recherches ultérieures en utilisant le langage nature. Pour ce faire, Recall est censée capturer les données de toutes les applications, sauf si vous en excluez une, en prenant une série de captures d'écran et en stockant ces interactions dans une base de données. La fonction Recall s'exécute localement. Elle peut fonctionner sans connexion Internet et même lorsque vous n'êtes pas connecté à votre compte Microsoft.

    Mais Recall est décriée par les experts en sécurité. Si quelqu'un d'autre que vous accède aux données collectées par Recall, les conséquences pourraient être désastreuses. Cela peut vous sembler familier, Recall est remarquablement similaire à la fonctionnalité Timeline de Windows 10, qui a échoué et a été mise de côté. Mais contrairement à Timeline, Recall ne se contente pas de restaurer une version de vos fichiers de bureau, il utilise l'IA pour vous ramener à ce moment, en ouvrant même les applications pertinentes. Un pirate qui parvient à trouver et exploiter une faille dans Recall pourrait causer des dégâts énormes.

    Quels sont les risques potentiels auxquels Microsoft Recall expose les utilisateurs de Windows 11 ?
    • Vous utilisez un ordinateur public : disons que vous faites des achats ou des opérations bancaires en ligne sur un ordinateur de la bibliothèque. Vous n'avez pas réalisé que Recall était actif. Cela permettrait à la personne qui utilise l'ordinateur après vous vient d'aller dans les archives de Recall pour récupérer toutes vos coordonnées bancaires, votre adresse et vos mots de passe. C'est comme remettre les clés de votre maison à un cambrioleur avant de lui dire que vous partez en vacances pour la semaine.
    • Vous utilisez un ordinateur portable professionnel : Votre patron, votre équipe informatique et toute personne ayant accès à votre appareil pourront voir quel usage vous faites de l’appareil. Ils peuvent s'en servir pour suivre votre rendement au travail et même lire les messages privés que vous envoyez à d'autres personnes.
    • Vous utilisez un PC familial : si vous utilisez l'ordinateur familial et que vous n'avez pas de profil protégé par un mot de passe, n'importe qui peut entrer et ouvrir votre historique de rappel. Si vous avez fait quelque chose de peu recommandable, cela va se voir, même si vous avez supprimé l'historique de vos recherches
    • Vous êtes victime d'un piratage ou votre ordinateur portable est volé : si quelqu'un vole votre ordinateur portable et que vous ne disposez pas d'un mot de passe fort pour le verrouiller, un cybercriminel peut utiliser Microsoft Recall pour entrer en possession de vos données et informations personnelles.

    Pourquoi ces risques sont-ils de l’ordre du plausible ? Parce que Microsoft souligne dans la Foire Aux Questions relative à cette fonctionnalité que « Recall n'effectue pas de modération de contenu. Il ne cache pas les informations telles que les mots de passe ou les numéros de comptes financiers. Ces données peuvent se trouver dans des instantanés stockés sur votre appareil, en particulier lorsque les sites ne respectent pas les protocoles Internet standard tels que la dissimulation de la saisie du mot de passe. »

    En d’autres termes, Microsoft Recall est un outil qui stocke vos mots de passe, vos informations, les détails de votre compte, etc. et qui est visible par tous les utilisateurs de votre profil. Si vous n'avez qu'un seul profil pour votre appareil, cela signifie que toutes les personnes ayant accès à ce PC pourront voir vos données Recall.

    Nom : recall.png
Affichages : 7440
Taille : 160,7 Ko

    Face au tollé provoqué par la situation, Microsoft a tenté de répondre aux préoccupations avec une seconde version de son outil : la fonction serait désactivée par défaut au lieu d'être activée, les utilisateurs devraient s'authentifier à nouveau avec Windows Hello avant d'accéder aux données Recall, et les données Recall stockées localement seraient protégées par un chiffrement supplémentaire. Recall peut désormais être entièrement supprimé d'un système à l'aide des paramètres des « fonctionnalités optionnelles » de Windows.

    Conclusion : une innovation à double tranchant

    Microsoft Copilot représente un pas en avant significatif dans l’utilisation de l’IA pour booster la productivité, mais cet incident met en lumière les défis liés à son implémentation. À mesure que les entreprises adoptent ces outils, elles doivent être vigilantes pour équilibrer innovation et sécurité. Si des mesures proactives sont prises pour renforcer le contrôle des accès, Copilot pourrait bien devenir un atout incontournable du monde professionnel.

    Source : Microsoft

    Et vous ?

    La technologie IA peut-elle réellement différencier des données sensibles de celles qui ne le sont pas ?

    Qui est responsable en cas de fuite de données causée par un outil comme Copilot : Microsoft, l'entreprise utilisatrice ou les équipes IT ?

    Les entreprises ont-elles aujourd’hui une maîtrise suffisante de la configuration des permissions sur leurs systèmes internes ?

    Quels mécanismes supplémentaires Microsoft pourrait-il implémenter pour renforcer la sécurité des données sensibles ?

    À quel point est-il réaliste d’espérer qu’un outil aussi puissant reste totalement sécurisé et fiable dans des environnements complexes ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  8. #88
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 714
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 714
    Points : 8 023
    Points
    8 023
    Par défaut
    C'est marrant de voir des entreprises qui paniquent parce que des employés ont accès à des données confidentielles, mais qui ne se posent absolument pas la question quand elles partagent/upload leurs données sur pleins de clouds qui ne leur appartiennent pas!

    Je suppose que c'est le principe de "ce qui ne se voit pas n'existe pas".

    Citation Envoyé par Stéphane le calme Voir le message
    La technologie IA peut-elle réellement différencier des données sensibles de celles qui ne le sont pas ?
    Bien sûr que non.

    Citation Envoyé par Stéphane le calme Voir le message
    Qui est responsable en cas de fuite de données causée par un outil comme Copilot : Microsoft, l'entreprise utilisatrice ou les équipes IT ?
    Une GAFAM ne sera jamais responsable. Et puis vu son argent, bonne chance pour essayer de faire valoir vos "droits".
    Ce sera l'entreprise qui va payer plein pot, et c'est normal, puisque c'est l'entreprise qui a fait ces (mauvais) choix.
    Au mieux, une entreprise fera un procès qui lui coûtera affreusement cher pendant une dizaine d'années.

    Citation Envoyé par Stéphane le calme Voir le message
    Les entreprises ont-elles aujourd’hui une maîtrise suffisante de la configuration des permissions sur leurs systèmes internes ?
    Ni aujourd'hui ni demain.
    Comment maîtriser ce qui est externe? (ces systèmes n'ont d'interne que le nom, vu que tout fuit vers des services Cloud).
    Si vous me confiez vos données, est-ce que vous en avez encore la maîtrise?

    Citation Envoyé par Stéphane le calme Voir le message
    Quels mécanismes supplémentaires Microsoft pourrait-il implémenter pour renforcer la sécurité des données sensibles ?
    Hmmm... La sécurité des données sensibles est-elle la priorité de Microsoft?
    On peut sérieusement se poser la question quand on voit qu'ils poussent pour Recall, malgré les alertes de leurs propres ingénieurs sécurité...

    Citation Envoyé par Stéphane le calme Voir le message
    À quel point est-il réaliste d’espérer qu’un outil aussi puissant reste totalement sécurisé et fiable dans des environnements complexes ?
    Le problème ne vient pas de la "puissance" d'un outil mais de son intégration à tout un tas de systèmes et à la complexité engendrée.
    Aucune chance que ça soit réaliste, donc.

    EDIT:
    Pour ce qui est du schéma "recall security architecture", je ne vois pas comment les points 1, 2, 3 et 4 peuvent protéger d'un attaquant.

    Lorsqu'un utilisateur installe un keylogger, ou lance un cryptolocker, ce n'est pas un attaquant physique qui effectue le travail.

    C'est l'utilisateur lui-même qui va le faire, en cliquant sur ce qu'il considère être quelque chose de légitime. Le prompter pour du windows hello, de la biométrie, ou même ses informations hypothécaires s'il le faut n'y changera absolument rien: le programme exécuté aura les droits sur cette "secure enclave" et n'aura plus qu'à exfiltrer les données...

    Bref, c'est juste pour donner un sentiment de sécurité sur une fonctionnalité qui n'est qu'un spyware déguisé.

    Vive les GAFAM...
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  9. #89
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 057
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 057
    Points : 209 181
    Points
    209 181
    Par défaut Microsoft est accusée d'utiliser le contenu de Word et d'Excel en ligne pour former son IA Copilot
    Microsoft est accusée d'utiliser le contenu de Word et d'Excel en ligne pour former ses différents modèles d'IA, à moins que vous n'y renonciez.
    l'entreprise nie s'en être servi

    La fonctionnalité « Expériences connectées » de Microsoft Office, activée par défaut, a été critiquée pour avoir potentiellement utilisé le contenu utilisateur pour entraîner l'IA sans l'expliquer clairement. Microsoft nie utiliser les données des clients pour entraîner l'IA, affirmant qu'elle est destinée aux fonctions requises par Internet, comme la co-création de documents. Les critiques mettent en avant le contrat de services de Microsoft, qui accorde à l'entreprise des droits sur le contenu utilisateur. Pour se désinscrire, il faut accéder à des paramètres spécifiques.

    Aux utilisateurs d'Office, Microsoft propose des expériences connectées qui analysent votre contenu : « Les expériences qui analysent votre contenu sont des expériences qui utilisent le contenu de votre bureau pour vous fournir des recommandations de conception, des suggestions de révision, des aperçus de données et d'autres fonctions similaires. Par exemple, le Traducteur ou le Concepteur PowerPoint ». Cette fonctionnalité, activée par défaut, a été accusée de récupérer le contenu créé par les utilisateurs pour former ses systèmes d'IA internes.

    L'expert Linux @nixcraft sur X a qualifié les « Expériences connectées » de « contraires à l'éthique » car le nom de la fonctionnalité ne dit pas qu'il s'agit uniquement de formation à l'IA. La base de connaissances de Microsoft indique que les expériences connectées sont « conçues pour vous permettre de créer, de communiquer et de collaborer plus efficacement » en analysant votre contenu. Il n'est fait aucune mention de l'utilisation de l'IA ou des données pour les fonctionnalités Copilot ou pour former les modèles d'IA de Microsoft.

    Attention : Microsoft Office, comme de nombreuses entreprises ces derniers mois, a sournoisement activé une fonction « opt-out » qui récupère vos documents Word et Excel pour entraîner ses systèmes d'intelligence artificielle internes. Cette fonction est activée par défaut et vous devez décocher manuellement une case pour la désactiver. Si vous êtes un écrivain qui utilise MS Word pour rédiger des contenus propriétaires (articles de blog, romans ou tout autre travail que vous avez l'intention de protéger par des droits d'auteur et/ou de vendre), vous voudrez désactiver cette fonction immédiatement.
    Nom : nix.png
Affichages : 4664
Taille : 21,4 Ko

    Plusieurs médias dans la presse spécialisée ont repris ces allégations, notant que dans le cadre de son fonctionnement normal, l'utilitaire comporte une fonction sournoise dans laquelle elle « recueille automatiquement des données à partir de fichiers Word et Excel pour entraîner les modèles d'IA de l'entreprise ». La collecte de données est apparemment activée par défaut, ce qui signifie que le contenu des utilisateurs peut être utilisé pour entraîner les algorithmes d'IA, à moins qu'il ne soit spécifiquement désactivé. La désactivation elle-même serait « un processus très alambiqué ».

    Selon l'un des rapports, ce paramètre par défaut permet à Microsoft d'utiliser toutes sortes de documents, qu'il s'agisse « d'articles, de romans ou d'autres œuvres destinées à être protégées par le droit d'auteur ou à des fins commerciales, sans consentement explicite ».

    Microsoft Connected Experiences collecte vos fichiers Word et Excel à des fins d'entraînement à l'IA. Pourquoi ne pas parler de formation à l'IA ? Pourquoi utiliser de tels mots ? Il s'agit d'une pratique contraire à l'éthique suivie par une entreprise pesant des milliards de dollars. Comment cela peut-il être légal ? Je suis bien content de ne pas avoir Windows OS ou MS Office.
    Les conséquences sont énormes pour tous ceux qui utilisent ces outils bien connus pour générer du contenu propriétaire, qu'il s'agisse de documents écrits ou, peut-être, de données financières sensibles. Le problème est que lorsqu'un élément de contenu est utilisé pour former l'une des IA actuelles, comme le Copilot de Microsoft, une sorte d'empreinte est laissée dans l'algorithme. Lorsqu'un utilisateur différent demande des informations à un moment donné dans le futur, il est possible que votre contenu, aussi sensible soit-il, ou les informations propriétaires qu'il contient, fassent « surface » sous une forme ou une autre dans la réponse de l'IA générative.

    Microsoft a répondu à ces accusations via le compte officiel @Microsoft365 sur les réseaux sociaux, en niant ces allégations. « Nous n'utilisons pas les données des clients pour former les LLM », a déclaré Microsoft. Selon l'entreprise, « Microsoft Connected Experiences » ne concerne pas les outils d'IA générative ni la formation. « Ce paramètre active uniquement les fonctionnalités nécessitant un accès à Internet, comme la co-création d'un document. »

    Cependant, comme le souligne Tom's Hardware, Microsoft 365 et Microsoft Connected Experiences sont couverts par le contrat de services de Microsoft, qui confère à l'entreprise tous les droits de propriété intellectuelle sur l'ensemble de votre contenu.

    « Dans la mesure nécessaire pour vous fournir les Services et à d'autres, pour vous protéger et protéger les Services, et pour améliorer les produits et services Microsoft, vous accordez à Microsoft une licence de propriété intellectuelle mondiale et libre de droits pour utiliser votre Contenu, par exemple, pour faire des copies, conserver, transmettre, reformater, afficher et distribuer via des outils de communication votre Contenu sur les Services », peut-on lire dans le contrat.

    La réaction de Microsoft

    Microsoft a démenti les affirmations selon lesquelles il alimente en informations privées de grands modèles de langage. Les données de Microsoft 365 peuvent désormais être automatiquement téléchargées et traitées pour offrir des « expériences connectées » qui, selon Microsoft, « vous permettront de créer, de communiquer et de collaborer plus efficacement ».

    Le 21 octobre, Microsoft a publié sur son blog des informations détaillées sur l'expérience connectée, qui semblent avoir évoqué le souvenir de Recall, un outil qui prend des clichés de l'écran des utilisateurs toutes les quelques secondes et qui a été décrit comme un « cauchemar en matière de protection de la vie privée ».

    Enfouie au plus profond de la section confidentialité des paramètres d'Office 365 se trouve une option d'expérience connectée qui est activée par défaut pour les clients américains (il faut vérifier pour les autres pays). Dans ce menu, on peut également lire en gras : « Votre vie privée est importante ». Si les utilisateurs ne choisissent pas expressément de désactiver cette fonctionnalité, les données des documents sont récoltées et traitées - ce qui a déclenché la panique à l'idée qu'elles pourraient être utilisées pour entraîner Copilot et d'autres modèles d'IA.

    Des allégations concernant le scrapping de données par Microsoft ont circulé sur les médias sociaux au cours du week-end

    « Cela ne peut pas être vrai », a écrit Florian Roth, responsable de la recherche chez Nextron Systems. « Alors que les entreprises sont occupées à appliquer des politiques d'IA pour protéger les données confidentielles, Microsoft active discrètement cette fonctionnalité par défaut et l'intitule « Votre vie privée est importante ».

    « Il est incroyable que Microsoft ait discrètement activé cette fonction alors que tout le monde se concentrait sur sa fonction d'IA 'Recall' », poursuit-il.

    Microsoft reste vague sur ce qu'elle fait des données qu'elle recueille, même s'il ne fait aucun doute qu'elle les recueille.

    « Les expériences connectées qui analysent votre contenu sont des expériences qui utilisent votre contenu Office pour vous fournir des recommandations de conception, des suggestions d'édition, des informations sur les données et des fonctionnalités similaires », explique Microsoft.

    Avec les applications et services Web, les réseaux sociaux, les moteurs de recherche et bien d'autres choses encore, plusieurs acteurs majeurs du secteur de la technologie et de l'IA ont été accusés à juste titre d'avoir récupéré des données utilisateur pour entraîner l'IA. Le PDG de Microsoft AI, Mustafa Suleyman, a récemment déclaré que tout contenu sur le Web « est un usage équitable » pour la formation, la reproduction et plus encore de l'IA. Tout le reste, y compris les données que les gens choisissent activement de ne pas partager ou de cocher une case « ne pas récupérer », est une « zone grise ». De plus, il appartient aux tribunaux de décider quelles données sont interdites.

    Revenons à Microsoft Connected Experiences. L'entreprise a déclaré qu'elle n'utilisait pas vos documents Word pour entraîner des modèles d'IA. Néanmoins, si vous souhaitez vous désinscrire, vous devez accéder à Fichier > Options > Centre de gestion de la confidentialité > Paramètres du Centre de gestion de la confidentialité > Options de confidentialité > Paramètres de confidentialité > Expériences connectées facultatives > Décochez la case : « Activer les expériences connectées facultatives ».

    Que sont les expériences connectées ?

    En parcourant les « expériences » de Microsoft, nous n'avons pas trouvé une qui mentionne explicitement l'entraînement de données d'IA (mais n'hésitez pas à le préciser si vous avez trouvé le contraire). D'ailleurs, certains semblent ne pas avoir trouvé la formulation qui expliquerait cet enchainement.

    Les cas d'utilisation mentionnés qui « analysent votre contenu » comprennent l'application automatique d'étiquettes de sensibilité ou une fonction qui scanne les cartes de visite pour en extraire des informations.

    Néanmoins, un utilisateur inquiet a posé une question sur la politique de Microsoft en matière de formation à l'IA sur son forum d'assistance, où un agent a admis que sa position n'était pas tout à fait claire. Il a écrit :

    « À ma connaissance, Microsoft n'a pas fourni de détails détaillés accessibles au public sur les types spécifiques d'informations personnelles utilisées pour former ses modèles d'IA. Les informations relatives à l'utilisation des données pour l'entraînement de l'IA sont souvent vagues en raison de la nature des politiques de confidentialité et des conditions de service.

    « Cependant, nous ne pouvons trouver que des indications générales sur la manière dont Microsoft traite les données personnelles. Mais pour des raisons de confidentialité, il se peut qu'elle ne fournisse pas de détails précis sur les données spécifiquement utilisées pour l'apprentissage de l'IA. »

    Dans sa déclaration de confidentialité, Microsoft indique : « Dans le cadre de nos efforts pour améliorer et développer nos produits, nous pouvons utiliser vos données pour développer et entraîner nos modèles d'IA. »

    Sur une page expliquant sa politique en matière d'entraînement à l'IA, la société promet qu'elle n'entraîne pas les modèles d'IA Copilot à partir de « nos clients commerciaux, ou de toute donnée provenant d'utilisateurs connectés à un compte organisationnel M365/EntraID » ou « d'utilisateurs connectés avec des abonnements personnels ou familiaux M365 ».

    Un porte-parole de Microsoft a explicitement démenti les allégations selon lesquelles l'entreprise utilisait les données M365 pour entraîner des modèles d'IA et a déclaré : « Dans les applications grand public et commerciales de Microsoft 365, les modèles d'IA ne sont pas utilisés : « Dans les applications grand public et commerciales de Microsoft 365, Microsoft n'utilise pas les données des clients pour entraîner des modèles de langage de grande taille sans leur autorisation. »

    Sources : expériences connectées dans Office, Microsoft Privacy Statement, Microsoft Community, politique de Microsoft sur la formation de l'IA

    Et vous ?

    Quelle lecture faites-vous de la situation ?

    Comment ce genre de pratiques affecte-t-il la réputation de Microsoft auprès de ses utilisateurs et du grand public ?

    Pensez-vous que ce scandale potentiel incitera Microsoft à changer de politique, ou l’entreprise continuera-t-elle sur cette voie si les critiques restent limitées ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  10. #90
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 018
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 018
    Points : 6 313
    Points
    6 313
    Par défaut
    Pas besoin de faire de grand discours... Cette news confirme simplement que Microsoft se croit tout permis et considère que les données privées de ses clients sont des données publiques pour elle!

    Si vous êtes actuellement derrière votre PC Windows bien au chaud dans votre bureau croyant être dans l'intimité de votre chez soi... Ben oubliez! Microsoft est installé sur votre épaule en train d'espionner tout ce que vous faites...

Discussions similaires

  1. Réponses: 1
    Dernier message: 12/10/2023, 20h35
  2. Réponses: 3
    Dernier message: 28/02/2020, 10h35
  3. Réponses: 4
    Dernier message: 17/03/2017, 07h53
  4. Comment ouvrir son Programme sans utiliser Dev-C++?
    Par Neferious dans le forum Dev-C++
    Réponses: 8
    Dernier message: 21/07/2008, 15h22
  5. Réponses: 1
    Dernier message: 23/05/2007, 17h39

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo