Peut-être qu'avec l'IA intégrée à l'explorateur, on pourra ouvrir un simple fichier texte dans Notepad même si le nom du fichier ne se termine pas par ".txt" ...![]()
Discussion :
Peut-être qu'avec l'IA intégrée à l'explorateur, on pourra ouvrir un simple fichier texte dans Notepad même si le nom du fichier ne se termine pas par ".txt" ...![]()
Le Congrès interdit au personnel d'utiliser Copilot, le chatbot IA de Microsoft, en raison des risques de fuites de données
de la Chambre des représentants vers des services cloud non approuvés par la Chambre
Le Congrès américain a imposé une interdiction stricte sur l’utilisation par les collaborateurs du chatbot IA de Microsoft, Copilot. Selon le Bureau du chef de l’administration de la Chambre, l’application Microsoft Copilot a été jugée risquée pour les utilisateurs en raison de la menace de fuite de données de la Chambre vers des services cloud non approuvés. Cette décision fait suite à des préoccupations concernant la sécurité et la confidentialité des données.
La Chambre des représentants des États-Unis (en anglais : United States House of Representatives) compose, avec le Sénat, le Congrès des États-Unis et forme à ce titre l'un des deux organes du pouvoir législatif américain. Elle représente les citoyens au sein de l'Union et constitue la chambre basse du congrès fédéral.
« L'application Microsoft Copilot a été considérée par l'Office of Cybersecurity comme un risque pour les utilisateurs en raison de la menace de fuite des données de la Chambre vers des services cloud non approuvés par la Chambre », a déclaré Catherine Szpindor, directrice administrative de la Chambre.
La Chambre des représentants a fait état de préoccupations similaires lorsqu'elle a restreint l'utilisation de ChatGPT dans les bureaux du Congrès l'année dernière et a déclaré qu'aucun chatbot autre que ChatGPT n'était encore autorisé.
Pour mémoire, en avril, le House Digital Services (le service numérique de la Chambre des représentants des États-Unis) a créé un groupe de travail sur l'IA pour que le personnel teste et partage de nouveaux outils d'IA dans l'environnement de bureau du Congrès et maintenant le service numérique de la Chambre des représentants a obtenu 40 licences pour ChatGPT Plus.
Les 40 licences ont été attribuées selon le principe du premier arrivé, premier servi. Le House Digital Services devait payer le plan d'abonnement de 20 $/mois par bureau pour une durée indéterminée, selon le responsable. Les détails sur les bureaux du Congrès qui ont reçu les licences ChatGPT Plus étaient alors anonymes.
« Souvent, les membres expérimentent des choses, de nouveaux outils, à leur manière et nous voulons simplement être au courant de cela. Nous voulons aider à faciliter cette expérimentation », a déclaré le responsable. Et d'ajouter : « il y a tellement de cas d'utilisation différents pour ChatGPT, mais ce que nous avons entendu est en tête de liste pour les bureaux du Congrès, c'est la création et la synthèse de contenu ».
Il a expliqué que le chatbot ne pourrait pas fonctionner sur le serveur interne de la Chambre des représentants, qui dispose d'un pare-feu qui le bloquera. Il a également été conseillé au personnel de ne pas utiliser l'outil pour exécuter des requêtes à l'aide de données du Congrès ou d'autres informations internes sensibles. De plus, l'outil OpenAI ne peut pas être utilisé pour télécharger du code sur des appareils du Congrès, mais peut être utilisé dans un navigateur Web ou une interface de programmation d'application (API) pour les requêtes.
Selon un e-mail interne du groupe de travail sur l'IA datant de cette période, l'outil d'IA devrait être utilisé pour de nombreuses tâches quotidiennes et responsabilités clefs au sein des bureaux du Congrès, telles que : générer des brouillons de réponses des électeurs et des documents de presse ; résumer de grandes quantités de texte dans les discours ; rédiger des documents d'orientation ou même des projets de loi ; créer de nouveaux logos ou éléments graphiques pour les ressources de bureau de marque et plus encore.
Microsoft prévoit des outils d'IA spécifiques aux gouvernements
En réponse à ces préoccupations en matière de sécurité, Microsoft a annoncé son intention de lancer cet été une série d'outils spécialement conçus pour une utilisation gouvernementale.
Ces outils sont destinés à répondre aux besoins du Congrès en matière de sécurité.
« Nous reconnaissons que les utilisateurs gouvernementaux ont des exigences plus élevées en matière de sécurité des données. C'est pourquoi nous avons annoncé une feuille de route d'outils Microsoft AI, comme Copilot, qui répondent aux exigences de sécurité et de conformité du gouvernement fédéral et que nous avons l'intention de livrer plus tard cette année », a déclaré un porte-parole de Microsoft.
Le bureau de Szpindor a précisé que sa directive de bannir Copilot ne s'appliquait qu'à sa version commerciale. La version gouvernementale sera évaluée une fois que Microsoft l'aura proposée et une décision sera prise en conséquence.
Copilot, basé sur la technologie du créateur de ChatGPT, OpenAI, est un assistant génératif d’intelligence artificielle. Microsoft a publié des versions gratuites et payantes du logiciel, ainsi que diverses options payantes pour les entreprises. Il fonctionne comme un chatbot autonome pour le Web et les appareils mobiles, et les versions payantes peuvent également fonctionner directement au sein des applications Office telles que Word, Excel, Outlook et PowerPoint.
Conclusion
La décision du Congrès reflète les préoccupations que de nombreuses entreprises ont rencontrées, avec de nombreuses entreprises bloquant l’accès aux chatbots grand public comme ChatGPT par crainte de fuites de données. De nombreuses entreprises optent pour des versions professionnelles qui garantissent que les données ne seront pas utilisées pour former des modèles futurs, mais cela ouvre également le risque de fuites de données.
Cette démarche s'inscrit dans le cadre d'une initiative plus large du gouvernement fédéral visant à réglementer son utilisation interne de la technologie de l'IA et à élaborer simultanément des règles pour ce secteur en pleine évolution.
Source : Congrès américain
Et vous ?
Pensez-vous que l’interdiction de Copilot est justifiée ? Pourquoi ou pourquoi pas ?
Quelles mesures supplémentaires devrait prendre le Congrès pour protéger les données sensibles ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Microsoft déclare que la demande en intelligence artificielle (IA) dans le cloud dépasse l’offre,
même après une augmentation de 79 % des dépenses en capital. Microsoft fait face à une pénurie d’infrastructure de centre de données
Microsoft déclare que la demande en intelligence artificielle (IA) dans le cloud dépasse l’offre, même après une augmentation de 79 % des dépenses en capital. Lors de son rapport sur les résultats financiers, Microsoft a révélé que ses dépenses en capital avaient augmenté de 79 % par rapport à l’année précédente, atteignant 14 milliards de dollars. La société investit bien plus rapidement que sa croissance de revenus, qui a augmenté de 17 % sur la même période. Pourtant, malgré ces investissements massifs, Microsoft fait face à une pénurie d’infrastructure de centre de données, en particulier pour le déploiement de modèles d’intelligence artificielle.
Microsoft a donné jeudi des signes supplémentaires montrant que ses investissements considérables dans l'intelligence artificielle commençaient à porter leurs fruits, en annonçant une augmentation de 17 % de son chiffre d'affaires et de 20 % de son bénéfice pour les trois premiers mois de l'année. Le chiffre d'affaires s'est élevé à 61,9 milliards de dollars, contre 52,9 milliards de dollars un an plus tôt. Le bénéfice a atteint 21,9 milliards de dollars, contre 18,3 milliards de dollars l'année précédente. Ces résultats sont supérieurs aux attentes de Wall Street.
Un an après que Microsoft a commencé à intégrer l'intelligence artificielle dans toutes ses activités, l'entreprise a déclaré que les ventes de son produit phare d'informatique dématérialisée, Azure, avaient augmenté de 31 %. Plus d'un cinquième de cette croissance provenait de ses services génératifs d'IA, qui comprennent la vente d'accès à la technologie développée par son partenaire, OpenAI.
Au cours des derniers trimestres, les efforts de Microsoft en matière d'intelligence artificielle lui ont permis de gagner des parts de marché sur Amazon, le principal fournisseur de services cloud. En janvier, l'entreprise a déclaré que 53 000 clients utilisaient ses services d'IA sur le cloud, dont un tiers utilisait Azure pour la première fois.
Microsoft augmente ses dépenses à un rythme inégalé depuis au moins 2016...
« Azure est devenu un port d'escale pour pratiquement tous ceux qui réalisent des projets d'intelligence artificielle », a déclaré Satya Nadella, le directeur général, lors d'une conférence téléphonique avec des investisseurs.
Il s'agissait du premier trimestre complet au cours duquel les clients commerciaux pouvaient obtenir une version de la suite de productivité de Microsoft avec des outils d'intelligence artificielle, comme la transcription de réunions virtuelles dans Teams ou le résumé de documents dans Word. Bien que la société n'ait pas précisé le nombre d'abonnements à l'IA (qui coûtent 30 dollars par mois) qu'elle a vendus, les abonnements commerciaux ont augmenté de 15 %.
Nadella a déclaré qu'un certain nombre d'entreprises clientes, dont le géant pétrolier BP et le fabricant de médicaments Novo Nordisk, avaient acheté plus de 10 000 licences chacun.
Microsoft a consacré 13 milliards de dollars à son partenariat avec OpenAI, le fabricant du chatbot ChatGPT, et a construit de nouveaux centres de données dans le monde entier pour répondre à ce qu'il prévoit être une demande accrue en matière d'IA. L'entreprise a dépensé 14 milliards de dollars en dépenses d'investissement et en contrats de location au cours des trois premiers mois de l'année, contre 11,5 milliards de dollars au cours du trimestre précédent.
... mais cela pourrait ne pas suffire
Dans son rapport de résultats de jeudi, Microsoft a déclaré que les dépenses en capital ont bondi de 79% par rapport à l'année précédente pour atteindre 14 milliards de dollars. L'entreprise dépense beaucoup plus vite qu'elle n'augmente ses revenus, les ventes ont grimpé de 17 % au cours de la période.
Amy Hood, directrice financière de Microsoft, a déclaré que l'entreprise continuerait à augmenter ses dépenses d'investissement et a souligné que les investissements seraient réalisés pour répondre à l'intérêt des clients. « À l'heure actuelle, la demande dépasse légèrement l'offre », a-t-elle déclaré aux analystes lors de la conférence téléphonique sur les résultats de l'entreprise.
Les entreprises ont besoin d'une puissance de calcul de plus en plus importante pour exécuter des charges de travail considérables et ajouter à leurs produits des fonctions d'IA générative de type humain. Ce boom a été lancé par OpenAI et son chatbot ChatGPT, et Microsoft lui a emboîté le pas en ajoutant des assistants à l'application de communication Teams, au moteur de recherche Bing et à d'autres services. La technologie permet de résumer des transcriptions de réunions, de rédiger des courriels et d'expliquer des informations sur le web.
Microsoft n'est pas le seul fournisseur de matériel d'IA à être confronté à un problème d'approvisionnement
Nvidia, le plus grand développeur de processeurs pour l'entraînement et le déploiement de modèles d'IA générative, a été confronté à des contraintes d'approvisionnement, avec un chiffre d'affaires qui a plus que triplé au cours des trimestres consécutifs. Microsoft, l'un des principaux clients de Nvidia, en ressent maintenant les effets.
Au cours du troisième trimestre fiscal, le chiffre d'affaires du cloud Azure de Microsoft a augmenté de 31 %, dont 7 points de pourcentage grâce à l'IA. Hood a déclaré que le problème de capacité pourrait avoir affecté les résultats de l'IA et aura un impact sur le quatrième trimestre fiscal. Une limitation de l'offre signifie que Microsoft a moins de capacité disponible à louer aux clients pour déployer des modèles d'IA au stade de l'inférence, a-t-elle déclaré.
Azure est la clé de l'avenir de Microsoft, contribuant à des dizaines de milliards de dollars de revenus chaque trimestre et se développant plus rapidement que la plupart des autres secteurs de l'entreprise. Au sein d'Azure, les services d'intelligence artificielle constituent un point fort, attirant de nouveaux clients à mesure que Microsoft s'oppose à Amazon Web Services.
Hood a déclaré que les dépenses d'investissement augmenteront « de manière significative » au cours du trimestre actuel, principalement pour l'infrastructure cloud. Elle a également annoncé une augmentation des dépenses d'investissement pour le nouvel exercice fiscal, qui débutera le 1er juillet.
Microsoft a l'intention de « s'adapter pour répondre à la demande croissante de nos produits de cloud et d'intelligence artificielle », a-t-elle assuré.
De nouvelles données de Synergy Research Group montrent que le nombre de grands centres de données exploités par des fournisseurs hyperscale est passé à 992 à la fin de 2023, et a franchi la barre du millier au début de 2024. Entre-temps, il n'aura fallu que quatre ans pour que la capacité totale des centres de données hyperscale double, le nombre d'installations augmentant rapidement et leur capacité moyenne continuant de grimper.
Copilot (l'ancien Bing Chat) est tellement gourmand en ressource que Microsoft va louer des GPU chez Oracle
L’accord, annoncé en novembre, prévoit que Microsoft utilisera l’infrastructure d’IA d’Oracle Cloud Infrastructure (OCI), en complément de son infrastructure d’IA Azure, pour effectuer l’inférence des modèles d’IA qui sont optimisés pour alimenter les recherches conversationnelles de Copilot quotidiennement. L’inférence est le processus qui consiste à utiliser un modèle d’IA entraîné pour produire des résultats à partir de données nouvelles ou inconnues.
« Grâce à notre collaboration avec Oracle et à l’utilisation de l’infrastructure cloud d’Oracle ainsi que de notre infrastructure d’IA Azure, nous pourrons étendre l’accès aux clients et améliorer la vitesse de nombreux de nos résultats de recherche », a déclaré Divya Kumar, qui dirige l'équipe marketing de recherche et d'IA de Microsoft.
Le partenariat se résume essentiellement à ceci : Microsoft a besoin de plus de ressources de calcul pour suivre la prétendue « croissance explosive » de ses services d'IA et Oracle dispose de dizaines de milliers de GPU Nvidia A100 et H100, qui offrent des performances élevées pour le calcul parallèle, l’analyse de données et l’apprentissage automatique. En utilisant l’interconnexion Oracle pour Microsoft Azure, Microsoft est en mesure d’utiliser des services gérés comme Azure Kubernetes Service (AKS) pour orchestrer le calcul OCI à une échelle massive pour soutenir la demande croissante de recherche conversationnelle Bing.
« L’IA générative est un bond technologique monumental et Oracle permet à Microsoft et à des milliers d’autres entreprises de construire et d’exécuter de nouveaux produits avec nos capacités d’IA OCI », a déclaré Karan Batta, vice-président senior d’Oracle Cloud Infrastructure. « En renforçant notre collaboration avec Microsoft, nous sommes en mesure d’apporter de nouvelles expériences à plus de personnes dans le monde entier », a-t-il ajouté.
Depuis juillet 2023, date du début du dernier exercice fiscal de Microsoft, l'entreprise a livré plus de 500 mégawatts de nouvelles capacités de centres de données, révèle un document, qui faisait partie d'un diaporama confidentiel de l'équipe Cloud Operations and Innovation de l'entreprise qui a été présenté plus tôt cette année. Business Insider, qui a pu obtenir ledit document, explique que sous le titre « Commercial Cloud and AI Demands : Fueling our Expansion », il est indiqué que Microsoft a dépassé les 5 gigawatts de capacité totale installée dans les centres de données au cours du premier semestre de son dernier exercice fiscal.
Plus de la moitié (51 %) de la capacité totale des centres de données se trouve aux États-Unis, selon Synergy
Les données de Synergy montrent que les États-Unis représentent toujours 51 % de la capacité mondiale, mesurée en MW de charge informatique critique, l'Europe et la Chine représentant chacune environ un tiers du reste. Synergy prévoit que la capacité totale des centres de données à grande échelle doublera encore au cours des quatre prochaines années. Alors que chaque année, quelque 120 à 130 centres de données hyperscale supplémentaires seront mis en ligne, la croissance de la capacité sera de plus en plus alimentée par l'échelle encore plus grande de ces centres de données nouvellement ouverts, la technologie générative de l'IA étant une des principales raisons de cette échelle accrue.
Sources : Microsoft, rapport Synergy
Et vous ?
L’IA dans le cloud est-elle un moteur essentiel de l’innovation ou une menace pour la confidentialité des données ?
Comment les entreprises peuvent-elles gérer la demande croissante d’IA tout en évitant les pénuries d’infrastructure ?
Quelles sont les implications de la course à l’IA entre les géants du cloud comme Microsoft et Amazon Web Services ?
Pensez-vous que l’IA générative, telle que celle utilisée dans le chatbot ChatGPT, est un atout ou une préoccupation pour la société ?
Quelles solutions technologiques pourraient aider à résoudre la pénurie d’infrastructure de centre de données pour l’IA ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
La deuxième, bien entendu. Les GAFAM se gavent de nos données, pour les exploiter et les revendre, mais quand il s'agit de les protéger, là, c'est une calamité.
L'écologie? Alors d'un côté les chargés de communication viennent régulièrement nous vendre de l'"emprunte carbone zéro", et de l'autre, les commerciaux survendent tellement leur IA qu'il leur faudrait encore plus de datacenters! Cherchez l'erreur![]()
« Si vous confiez les rênes à Copilot, ne vous étonnez pas qu’il dévoile vos secrets », d’après une récente étude
Selon laquelle cette IA peut être transformée en outil d’exfiltration de données
L’intelligence artificielle Copilot de Microsoft peut aider à extraire des réponses de vos courriels, de vos chats Teams et de vos fichiers. C’est en cela une aubaine potentielle pour la productivité. Mais ces processus peuvent également être utilisés à mauvais escient par les pirates informatiques. C’est ce qui ressort d’une récente étude qui souligne que cette intelligence artificielle de Microsoft peut être utilisée comme machine automatisée de phishing ou comme outil d’extraction de données sensibles des entreprises qui en font usage.
Lors de la récente conférence sur la sécurité Black Hat qui s'est tenue à Las Vegas, le chercheur Michael Bargury a démontré cinq façons dont Copilot, qui fonctionne sur les applications Microsoft 365, telles que Word, peut être manipulé par des attaquants malveillants, notamment en fournissant de fausses références à des fichiers, en exfiltrant des données privées et en contournant les protections de sécurité de Microsoft.
Michael Bargury a démontré sa capacité à transformer cette intelligence artificielle de Microsoft en une machine automatique de phishing. Baptisé LOLCopilot, le code créé par Bargury peut, surtout lorsqu'un pirate a accès à la messagerie professionnelle d'une personne, utiliser Copilot pour voir à qui un tiers envoie régulièrement des courriels, rédiger un message imitant son style d'écriture (y compris l'utilisation d'emoji) et envoyer un message personnalisé pouvant contenir un lien malveillant ou un logiciel malveillant en pièce jointe.
« Je peux le faire avec toutes les personnes à qui vous avez parlé, et je peux envoyer des centaines de courriels en votre nom. Un pirate passerait des jours à concevoir le bon courriel pour vous inciter à cliquer dessus, mais il peut générer des centaines de ces courriels en quelques minutes », explique Bargury, cofondateur et directeur technique de la société de sécurité Zenity, qui a publié ses conclusions avec des vidéos montrant comment Copilot pouvait être utilisé à mauvais escient.
Cette démonstration, comme d'autres attaques créées par Bargury, fonctionne globalement en utilisant le grand modèle de langage (LLM) comme prévu : En tapant des questions écrites pour accéder aux données que l'IA peut extraire. Cependant, elle peut produire des résultats malveillants en incluant des données supplémentaires ou des instructions pour effectuer certaines actions. La recherche met en évidence certains des défis liés à la connexion des systèmes d'IA aux données de l'entreprise et ce qui peut se produire lorsque des données externes non fiables sont introduites dans le mélange, en particulier lorsque l'IA répond avec ce qui pourrait ressembler à des résultats légitimes.
Parmi les autres attaques créées par Bargury figure une démonstration de la manière dont un pirate - qui, là encore, doit déjà avoir détourné un compte de courrier électronique - peut accéder à des informations sensibles, telles que les salaires, sans déclencher les protections de Microsoft pour les fichiers sensibles. Lorsqu'il demande les données, le message de Bargury exige que le système ne fournisse pas de références aux fichiers dont les données sont extraites.
Dans d'autres cas, il montre comment un attaquant - qui n'a pas accès aux comptes de messagerie mais qui empoisonne la base de données de l'IA en lui envoyant un courrier électronique malveillant - peut manipuler les réponses concernant les informations bancaires pour fournir ses propres coordonnées bancaires. « Chaque fois que vous donnez à l'IA l'accès à des données, c'est un moyen pour un pirate d'entrer », explique Bargury.
Phillip Misner, responsable de la détection et de la réponse aux incidents liés à l'IA chez Microsoft, explique que l'entreprise apprécie que M. Bargury ait identifié la vulnérabilité et qu'elle a travaillé avec lui pour évaluer les résultats. « Les risques liés à l'utilisation abusive de l'IA après la compromission sont similaires à ceux liés à d'autres techniques après la compromission. La prévention et la surveillance de la sécurité dans les environnements et les identités permettent d'atténuer ou d'arrêter de tels comportements », explique Misner.
Les systèmes d'intelligence artificielle générative, tels que ChatGPT d'OpenAI, Copilot de Microsoft et Gemini de Google, qui se sont développés au cours des deux dernières années, ont évolué vers une trajectoire où ils pourraient éventuellement accomplir des tâches pour les gens, comme réserver des réunions ou faire des achats en ligne. Cependant, les chercheurs en sécurité ont toujours souligné que l'introduction de données externes dans les systèmes d'IA, par exemple par le biais de courriels ou en accédant au contenu de sites web, crée des risques de sécurité.
C’est pour des raisons similaires que le Le Congrès interdit au personnel d'utiliser Copilot, le chatbot IA de Microsoft, en raison des risques de fuites de données de la Chambre vers des services cloud qu'elle n'a pas approuvés
La Chambre des représentants des États-Unis (en anglais : United States House of Representatives) compose, avec le Sénat, le Congrès des États-Unis et forme à ce titre l'un des deux organes du pouvoir législatif américain. Elle représente les citoyens au sein de l'Union et constitue la chambre basse du congrès fédéral.
« L'application Microsoft Copilot a été considérée par l'Office of Cybersecurity comme un risque pour les utilisateurs en raison de la menace de fuite des données de la Chambre vers des services cloud non approuvés par la Chambre », a déclaré Catherine Szpindor, directrice administrative de la Chambre.
La Chambre des représentants a fait état de préoccupations similaires lorsqu'elle a restreint l'utilisation de ChatGPT dans les bureaux du Congrès l'année dernière et a déclaré qu'aucun chatbot autre que ChatGPT n'était encore autorisé.
Pour mémoire, en avril, le House Digital Services (le service numérique de la Chambre des représentants des États-Unis) a créé un groupe de travail sur l'IA pour que le personnel teste et partage de nouveaux outils d'IA dans l'environnement de bureau du Congrès et maintenant le service numérique de la Chambre des représentants a obtenu 40 licences pour ChatGPT Plus.
Les 40 licences ont été attribuées selon le principe du premier arrivé, premier servi. Le House Digital Services devait payer le plan d'abonnement de 20 $/mois par bureau pour une durée indéterminée, selon le responsable. Les détails sur les bureaux du Congrès qui ont reçu les licences ChatGPT Plus étaient alors anonymes.
« Souvent, les membres expérimentent des choses, de nouveaux outils, à leur manière et nous voulons simplement être au courant de cela. Nous voulons aider à faciliter cette expérimentation », a déclaré le responsable. Et d'ajouter : « il y a tellement de cas d'utilisation différents pour ChatGPT, mais ce que nous avons entendu est en tête de liste pour les bureaux du Congrès, c'est la création et la synthèse de contenu ».
Il a expliqué que le chatbot ne pourrait pas fonctionner sur le serveur interne de la Chambre des représentants, qui dispose d'un pare-feu qui le bloquera. Il a également été conseillé au personnel de ne pas utiliser l'outil pour exécuter des requêtes à l'aide de données du Congrès ou d'autres informations internes sensibles. De plus, l'outil OpenAI ne peut pas être utilisé pour télécharger du code sur des appareils du Congrès, mais peut être utilisé dans un navigateur Web ou une interface de programmation d'application (API) pour les requêtes.
Selon un e-mail interne du groupe de travail sur l'IA datant de cette période, l'outil d'IA devrait être utilisé pour de nombreuses tâches quotidiennes et responsabilités clefs au sein des bureaux du Congrès, telles que : générer des brouillons de réponses des électeurs et des documents de presse ; résumer de grandes quantités de texte dans les discours ; rédiger des documents d'orientation ou même des projets de loi ; créer de nouveaux logos ou éléments graphiques pour les ressources de bureau de marque et plus encore.
En réponse à ces préoccupations en matière de sécurité, Microsoft a annoncé son intention de lancer cet été une série d'outils spécialement conçus pour une utilisation gouvernementale.
Ces outils sont destinés à répondre aux besoins du Congrès en matière de sécurité.
« Nous reconnaissons que les utilisateurs gouvernementaux ont des exigences plus élevées en matière de sécurité des données. C'est pourquoi nous avons annoncé une feuille de route d'outils Microsoft AI, comme Copilot, qui répondent aux exigences de sécurité et de conformité du gouvernement fédéral et que nous avons l'intention de livrer plus tard cette année », a déclaré un porte-parole de Microsoft.
Le bureau de Szpindor a précisé que sa directive de bannir Copilot ne s'appliquait qu'à sa version commerciale. La version gouvernementale sera évaluée une fois que Microsoft l'aura proposée et une décision sera prise en conséquence.
Copilot, basé sur la technologie du créateur de ChatGPT, OpenAI, est un assistant génératif d’intelligence artificielle. Microsoft a publié des versions gratuites et payantes du logiciel, ainsi que diverses options payantes pour les entreprises. Il fonctionne comme un chatbot autonome pour le Web et les appareils mobiles, et les versions payantes peuvent également fonctionner directement au sein des applications Office telles que Word, Excel, Outlook et PowerPoint.
Source : Vidéo conférence Black Hat
Et vous ?
Quelle est votre expérience avec Microsoft Copilot ? Les rapports en lien avec la fuite de données sont-ils cohérents avec la réalité dont vous êtes au fait ?
Voir aussi :
La prochaine grande mise à jour de Windows 11 arrive le 26 septembre avec Copilot. La prise en charge de RAR, et l'intégration de l'IA dans de nombreuses applications système
Microsoft annonce Windows Copilot, un "assistant personnel" d'IA pour Windows 11 qui pourra être ouvert et utilisé à partir de la barre des tâches dans toutes les applications et tous les programmes
Microsoft enrichit Windows 11 de nouvelles fonctionnalités basées sur l'intelligence artificielle dont l'OCR, la suppression d'objets dans Photos et l'intégration de l'IA générative dans Paint La prochaine grande mise à jour de Windows 11 arrive le 26 septembre avec Copilot. La prise en charge de RAR, et l'intégration de l'IA dans de nombreuses applications système
Microsoft annonce Windows Copilot, un "assistant personnel" d'IA pour Windows 11 qui pourra être ouvert et utilisé à partir de la barre des tâches dans toutes les applications et tous les programmes
Microsoft enrichit Windows 11 de nouvelles fonctionnalités basées sur l'intelligence artificielle dont l'OCR, la suppression d'objets dans Photos et l'intégration de l'IA générative dans Paint La prochaine grande mise à jour de Windows 11 arrive le 26 septembre avec Copilot. La prise en charge de RAR, et l'intégration de l'IA dans de nombreuses applications système
Microsoft annonce Windows Copilot, un "assistant personnel" d'IA pour Windows 11 qui pourra être ouvert et utilisé à partir de la barre des tâches dans toutes les applications et tous les programmes
Microsoft enrichit Windows 11 de nouvelles fonctionnalités basées sur l'intelligence artificielle dont l'OCR, la suppression d'objets dans Photos et l'intégration de l'IA générative dans Paint
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
On pourrait tiré la même conclusion au sujet de GitHub.
BlackRock et Microsoft prévoient de lancer un fonds de plus de 30 milliards de dollars pour investir dans l'infrastructure de l'IA, afin de construire des centres de données et des projets énergétiques
BlackRock et Microsoft prévoient de lancer un fonds de plus de 30 milliards de dollars pour investir dans des infrastructures d'intelligence artificielle (IA) afin de construire des centres de données et des projets énergétiques, ont déclaré les entreprises le mardi 17 septembre dernier.
Lors de son dernier rapport sur les résultats financiers, Microsoft a déclaré que la demande en IA dans le cloud dépasse l’offre, même après une augmentation de 79 % des dépenses en capital. Microsoft a révélé dans son rapport que ses dépenses en capital avaient augmenté de 79 % par rapport à l’année précédente, atteignant 14 milliards de dollars. La société investit bien plus rapidement que sa croissance de revenus, qui a augmenté de 17 % sur la même période. Pourtant, malgré ces investissements massifs, Microsoft fait face à une pénurie d’infrastructure de centre de données, en particulier pour le déploiement de modèles d’intelligence artificielle.
Les modèles d'IA, en particulier ceux utilisés pour l'apprentissage profond et le traitement de données à grande échelle, nécessitent une puissance de calcul considérable, ce qui entraîne une plus grande consommation d'énergie. Les besoins informatiques de l'IA ont poussé les entreprises technologiques à regrouper des milliers de puces en clusters pour obtenir la puissance de calcul nécessaire, ce qui a fait exploser la demande de centres de données spécialisés.
Selon Blackrock et Microsoft, le fonds d'investissement, connu sous le nom de Global AI Infrastructure Investment Partnership, visera à améliorer les chaînes d'approvisionnement de l'IA et l'approvisionnement en énergie. MGX, la société d'investissement soutenue par Abu Dhabi, sera un partenaire général du fonds, tandis que la société Nvidia, spécialisée dans les puces d'IA, apportera son expertise.
Alors que la volonté de développer des capacités d'IA plus puissantes nécessite d'importants investissements dans les infrastructures pour les soutenir, BlackRock, Global Infrastructure Partners (GIP), Microsoft et MGX ont annoncé le Global AI Infrastructure Investment Partnership (GAIIP) pour réaliser des investissements dans des centres de données nouveaux et élargis afin de répondre à la demande croissante de puissance de calcul, ainsi que dans des infrastructures énergétiques pour créer de nouvelles sources d'énergie pour ces installations.
Ces investissements dans l'infrastructure seront principalement réalisés aux États-Unis pour stimuler l'innovation et la croissance économique dans le domaine de l'IA, et le reste sera investi dans les pays partenaires des États-Unis.
Le partenariat soutiendra une architecture ouverte et un large écosystème, fournissant un accès complet sur une base non exclusive à une gamme variée de partenaires et d'entreprises. NVIDIA soutiendra le GAIIP en mettant son expertise en matière de centres de données et d'usines d'IA au service de l'écosystème de l'IA. Le GAIIP s'engagera également activement avec les leaders de l'industrie pour aider à améliorer les chaînes d'approvisionnement de l'IA et l'approvisionnement en énergie au profit de ses clients et de l'industrie.
Le partenariat cherchera dans un premier temps à débloquer 30 milliards de dollars de capital-investissement auprès d'investisseurs, de propriétaires d'actifs et d'entreprises, ce qui permettra de mobiliser jusqu'à 100 milliards de dollars de potentiel d'investissement total, en incluant le financement par la dette.
Les fondateurs de ce partenariat réunissent les principaux investisseurs mondiaux BlackRock, GIP et MGX, un investisseur dans l'intelligence artificielle et les technologies de pointe, avec le financement et l'expertise de Microsoft. Le GAIIP combine une connaissance approfondie de l'infrastructure et de la technologie pour favoriser une mise à l'échelle efficace des centres de données, avec des capacités d'investissement dans l'énergie, l'électricité et la décarbonisation pour l'infrastructure habilitante connexe pour l'IA.
Son Altesse Sheikh Tahnoon bin Zayed Al Nahyan, président du MGX, a souligné l'importance de l'IA pour l'avenir de nos économies : « L'intelligence artificielle n'est pas seulement une industrie d'avenir, elle est à la base de l'avenir. Grâce à ce partenariat unique, nous allons accélérer l'innovation, les percées technologiques et les gains de productivité transformationnels dans l'ensemble de l'économie mondiale. Les investissements que nous réalisons aujourd'hui garantiront un avenir plus durable, plus prospère et plus équitable pour l'ensemble de l'humanité. »
« La mobilisation de capitaux privés pour construire des infrastructures d'IA telles que les centres de données et l'énergie débloquera une opportunité d'investissement à long terme de plusieurs billions de dollars », a déclaré Larry Fink, président-directeur général de BlackRock. « Les centres de données sont le fondement de l'économie numérique, et ces investissements contribueront à la croissance économique, à la création d'emplois et à l'innovation technologique en matière d'IA. »
« Nous sommes déterminés à faire en sorte que l'IA contribue à faire progresser l'innovation et à stimuler la croissance dans tous les secteurs de l'économie », a déclaré Satya Nadella, président-directeur général de Microsoft. « Le Global AI Infrastructure Investment Partnership nous aidera à concrétiser cette vision, car nous rassemblons des leaders financiers et industriels pour construire l'infrastructure du futur et l'alimenter de manière durable. »
« Les dépenses d'investissement nécessaires pour l'infrastructure de l'IA et la nouvelle énergie qui l'alimente dépassent ce qu'une seule entreprise ou un seul gouvernement peut financer », a déclaré Brad Smith, vice-président du conseil d'administration et président de Microsoft. « Ce partenariat financier contribuera non seulement à faire progresser la technologie, mais aussi à renforcer la compétitivité nationale, la sécurité et la prospérité économique. »
« Construire l'infrastructure nécessaire pour faire progresser et accélérer l'adoption de l'IA va remodeler et revitaliser presque tous les aspects de notre mode de vie », a déclaré Ahmed Yahia Al Idrissi, PDG de MGX. « À l'instar de nos infrastructures de transport, les nouveaux centres de données et les sources d'énergie permettront la croissance et le commerce dans la future économie de l'innovation. »
« Il existe un besoin évident de mobiliser des montants importants de capitaux privés pour financer les investissements dans les infrastructures essentielles. L'une des manifestations de ce besoin est le capital nécessaire pour soutenir le développement de l'IA », a déclaré Bayo Ogunlesi, président-directeur général de Global Infrastructure Partners. « Nous sommes très confiants dans le fait que les capacités combinées de notre partenariat permettront d'accélérer le rythme des investissements dans les infrastructures liées à l'IA. »
« L'informatique accélérée et l'IA générative entraînent un besoin croissant d'infrastructures d'IA pour la prochaine révolution industrielle », a déclaré Jensen Huang, fondateur et CEO de NVIDIA. « NVIDIA utilisera son expertise en tant que plate-forme informatique complète pour soutenir le GAIIP et les sociétés de son portefeuille dans la conception et l'intégration d'usines d'IA pour propulser l'innovation industrielle. »
MGX a été créé à Abu Dhabi au début de cette année pour investir dans l'IA et les technologies avancées avec des partenaires mondiaux afin de permettre le tissu technologique de l'économie mondiale, en se concentrant sur l'infrastructure de l'IA, la technologie basée sur l'IA et les semi-conducteurs. L'annonce de Microsoft et BlackRock est un partenariat majeur dans ces segments, qui s'appuie sur les investissements de longue date de l'émirat dans les centres de données, la capacité de calcul et l'infrastructure habilitante.
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous cette initiative de Microsoft et de BlackRock crédible ou pertinente ?
Voir aussi :
Microsoft déclare que la demande en IA dans le cloud dépasse l'offre, même après une augmentation de 79 % des dépenses en capital. Microsoft fait face à une pénurie d'infrastructure de centre de données
La France en tête du classement des pays d'Europe où les startups d'IA générative ont levé le plus de fonds avec 2,29 milliards de dollars, tandis que Londres compte le plus grand nombre de startups d'IA
Pour renflouer des milliards de pertes, OpenAI trouve des investisseurs confiants dans la bulle IA pour une levée de fonds qui pourrait porter la valorisation à 150 milliards de dollars
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Microsoft Copilot peut désormais lire ce qui est affiché sur votre écran pour vous donner des réponses contextuelles,
vous parler à voix haute et résoudre des problèmes complexes
Une semaine après avoir annoncé une vague de mises à jour pour sa suite de produits d'entreprise Copilot alimentés par l'IA, Microsoft lance de nouvelles fonctionnalités Copilot sur Windows pour tous les utilisateurs, y compris un outil qui peut comprendre et répondre à des questions sur ce qui est affiché à l'écran.
Les nouvelles applications Copilot pour iOS, Android, Windows et le web sont désormais disponibles et présentent toutes un Copilot au style plus « chaleureux » et « distinct », comme le décrit Microsoft. Microsoft intègre également le chatbot à WhatsApp, permettant aux utilisateurs de discuter avec Copilot par messagerie privée, comme ils le font déjà avec d'autres bots sur la plateforme de messagerie de Meta.
« Notre nouveau Copilot se veut plus intuitif et propose des réponses plus digestes, plus rapides et plus fluides. Il s'adapte désormais à vous avec un ton chaleureux et un style distinct, vous fournissant non seulement des informations mais aussi des encouragements, des commentaires et des conseils pour vous aider à relever les défis quotidiens de la vie, qu'ils soient petits ou grands. Par exemple, en plus de vous aider à planifier ce grand voyage, il peut également vous donner des conseils sur la manière de garder votre sang-froid lorsque, par exemple, le dossier de votre siège reçoit des coups de pied d'un enfant en bas âge.
« Nous ajoutons des fonctionnalités avancées, telles que la voix et la vision, qui le rendent à la fois plus utile et plus naturel. Ces modalités changent la façon dont nous nous connectons à la technologie, permettant aux gens de réfléchir, d'apprendre et de travailler en toute transparence avec leurs compagnons Copilot ».
Lecture de l’écran et analyse contextuelle avec Copilot Vision
Copilot Vision a une vision de ce que vous regardez sur votre PC (plus précisément, une vision des sites que vous visitez avec Microsoft Edge). Relié à Copilot Labs, un nouveau programme d'opt-in exclusif à Copilot Pro pour les fonctionnalités expérimentales de Copilot, Copilot Vision peut analyser le texte et les images des pages web et répondre à des questions (par exemple, « Quelle est la recette du plat sur cette image ? ») à leur sujet.
Vision, que l'on peut obtenir en tapant « @copilot » dans la barre d'adresse d'Edge, n'est pas exactement une merveille technique. Google propose une technologie de recherche similaire sur Android et a récemment intégré des éléments de cette technologie dans Chrome.
Mais Microsoft laisse entendre que Copilot Vision est plus puissant et plus respectueux de la vie privée que les précédentes fonctions d'analyse d'écran.
Copilot peut « comprend la page web que vous consultez, qu'il s'agisse de texte ou d'images, et peut répondre à des questions sur son contenu, suggérer les prochaines étapes et vous aider sans perturber votre flux de travail. Imaginez que vous essayez de meubler un nouvel appartement, Copilot Vision peut vous aider à rechercher des meubles, à trouver la bonne palette de couleurs, à réfléchir aux options qui s'offrent à vous, des tapis aux jetés, et même à vous suggérer des façons d'agencer ce que vous regardez ».
Autre exemple : si vous regardez une recette en ligne, Copilot peut vous fournir des informations supplémentaires sur les ingrédients ou même suggérer des variantes de la recette.
Sans doute désireux d'éviter une nouvelle vague de mauvaise presse liée aux erreurs de confidentialité de l'IA, Microsoft insiste sur le fait que Copilot Vision a été conçu pour supprimer les données immédiatement après les conversations. Les données audio, les images ou le texte traités ne sont pas stockés ou utilisés pour former des modèles, affirme l'entreprise - du moins pas dans cette version de prévisualisation.
Copilot Vision est également limité dans les types de sites web qu'il peut interpréter. Pour l'instant, Microsoft empêche la fonctionnalité de fonctionner sur les contenus payants et « sensibles », limitant Vision à une liste préapprouvée de propriétés web « populaires ».
Qu'entend-on exactement par contenu « sensible » ? Du porno ? De la violence ? À ce stade, Microsoft n'a pas voulu le dire.
Les accusations de contournement des paywalls à l'aide d'outils d'intelligence artificielle ont récemment valu à Microsoft de se retrouver dans une situation juridique délicate. Dans une action en justice en cours, le New York Times allègue que Microsoft a permis aux utilisateurs de contourner son paywall en diffusant des articles du quotidien par l'intermédiaire du chatbot Copilot sur Bing. Lorsqu'il était sollicité d'une certaine manière, Copilot (qui s'appuie sur les modèles d'OpenAI, un proche collaborateur de Microsoft) donnait des extraits textuels (ou presque) d'articles payants, selon le Times.
Microsoft a déclaré que Copilot Vision, qui n'est pour l'instant disponible qu'aux États-Unis, respectera les « contrôles de l'IA lisibles par les machines » des sites, comme les règles interdisant aux robots de récupérer des données pour l'entraînement à l'IA. Mais l'entreprise n'a pas précisé quels contrôles Vision respectera, car il en existe plusieurs.
De plus, de nombreux grands éditeurs ont choisi d'empêcher les outils d'IA de parcourir leurs sites web, non seulement par crainte que leurs données ne soient utilisées sans autorisation, mais aussi pour éviter que ces outils ne fassent grimper en flèche les coûts de leurs serveurs. Si la tendance actuelle se confirme, Copilot Vision pourrait ne pas fonctionner sur certains des principaux sites d'information du web.
Microsoft a déclaré qu'elle s'engageait à « prendre en compte les réactions » pour apaiser les inquiétudes.
Envoyé par Microsoft
La fonctionnalité Think Deeper et le raisonnement avancé
Comme pour Vision, la nouvelle fonction Think Deeper de Copilot vise à rendre l'assistant de Microsoft plus polyvalent.
Think Deeper permet à Copilot de résoudre des problèmes plus complexes, selon Microsoft, grâce à des « modèles de raisonnement » qui prennent plus de temps avant de fournir des réponses étape par étape. Quels modèles de raisonnement ? Microsoft est resté un peu flou, se contentant de dire que Think Deeper utilise « les derniers modèles d'OpenAI, peaufinés par Microsoft ». En lisant entre les lignes, il y a fort à parier qu'il s'agit d'une version personnalisée du modèle o1 d'OpenAI.
Cette fonctionnalité permet à l’assistant de fournir des réponses plus nuancées et réfléchies, allant au-delà des simples recherches d’informations. Par exemple, vous voulez planifier un projet complexe : Copilot peut vous aider à penser à travers les différentes étapes, suggérer des ressources et même anticiper des obstacles potentiels.
« Copilot peut désormais raisonner sur des questions plus complexes. Think Deeper prend plus de temps avant de répondre, ce qui permet à Copilot de fournir des réponses détaillées et étape par étape à des questions difficiles. Nous l'avons conçu pour répondre à toutes sortes de défis pratiques et quotidiens, comme comparer deux options complexes côte à côte. Dois-je déménager dans telle ou telle ville ? Quel type de voiture correspond le mieux à mes besoins ? Et ainsi de suite. Il s'agit d'une compétence Copilot précoce qui est encore en cours de développement. Nous l'avons donc placée dans notre laboratoire expérimental Copilot Labs afin de la tester et d'obtenir des commentaires ».
Microsoft a beaucoup parlé du potentiel de Think Deeper dans ses documents de presse. Mais en supposant que le modèle sous-jacent soit o1, il ne sera certainement pas à la hauteur dans certains domaines. Il sera intéressant de voir quels types d'améliorations Microsoft a apportés au modèle de base et dans quelle mesure Think Deeper peut communiquer à propos de ses limites.
Think Deeper est disponible pour un nombre limité d'utilisateurs de Copilot Labs en Australie, au Canada, en Nouvelle-Zélande, aux États-Unis et au Royaume-Uni.
Interaction vocale et synthèse de la parole
Copilot Voice (à ne pas confondre avec Copilot Voice de GitHub) est une nouvelle fonctionnalité de Copilot qui est généralement disponible. Lancée en anglais en Nouvelle-Zélande, au Canada, en Australie, au Royaume-Uni et aux États-Unis pour commencer, Voice ajoute quatre voix synthétiques qui vous permettent de parler à Copilot et d'entendre ses réponses à voix haute.
À l'instar du mode vocal avancé d'OpenAI pour ChatGPT, Copilot Voice peut interpréter le ton que vous employez au cours de la conversation et répondre en conséquence. Un porte-parole de Microsoft a expliqué que le mode utilise « la dernière technologie vocale avec de nouveaux modèles qui ont été affinés pour l'application Copilot ». Quelle technologie ? Quels modèles ? On ne peut pas dire que Microsoft est généreux pour ce qui concerne les détails.
Une chose à savoir : Copilot Voice a une limite d'utilisation basée sur la durée. Les abonnés à Copilot Pro bénéficient de plus de minutes, mais ce nombre est « variable » en fonction de la demande, explique Microsoft.
« Nous rendons plus facile que jamais la connexion avec votre compagnon grâce à Copilot Voice. C'est le moyen le plus intuitif et le plus naturel de faire du brainstorming en déplacement, de poser une question rapide ou même de se défouler à la fin d'une journée difficile. Votre compagnon vous sera personnel, avec quatre options vocales au choix ».
Analyse critique des nouvelles fonctionnalités de Microsoft Copilot
Bien que les nouvelles capacités de Microsoft Copilot soient impressionnantes, elles soulèvent également plusieurs questions et préoccupations.
Problèmes de confidentialité et de sécurité
L’une des principales préoccupations concerne la confidentialité des données. La capacité de Copilot à lire et analyser le contenu de votre écran pourrait potentiellement exposer des informations sensibles. Bien que Microsoft affirme que les données sont immédiatement supprimées après utilisation et ne sont pas utilisées pour entraîner les modèles, il reste une certaine méfiance quant à la manière dont ces données sont réellement gérées. Les utilisateurs doivent pouvoir faire confiance à l’outil pour protéger leurs informations personnelles et professionnelles.
Dépendance technologique
La fonction de réflexion profonde de Copilot, bien qu’utile, pourrait encourager une dépendance excessive à la technologie pour la prise de décision. Si les utilisateurs commencent à s’appuyer trop fortement sur Copilot pour résoudre des problèmes complexes, cela pourrait diminuer leur capacité à penser de manière critique et indépendante. Il est essentiel de trouver un équilibre entre l’utilisation de l’IA comme outil d’assistance et le maintien de nos propres compétences analytiques.
Accessibilité et équité
L’intégration de la synthèse vocale et de l’entrée vocale est une avancée significative, mais elle n’est actuellement disponible que dans certains pays anglophones. Cette limitation géographique soulève des questions d’équité et d’accessibilité. Pour que Copilot soit véritablement inclusif, Microsoft devra étendre ces fonctionnalités à d’autres langues et régions, garantissant ainsi que tous les utilisateurs puissent bénéficier de ces innovations.
Risques de surinformation
Avec la capacité de Copilot à fournir des informations en temps réel, il existe un risque de surinformation. Les utilisateurs pourraient être submergés par une quantité excessive de données, rendant difficile la distinction entre les informations pertinentes et les distractions. Il est crucial que Copilot soit capable de filtrer et de prioriser les informations de manière efficace pour éviter ce problème.
Source : Microsoft
Et vous ?
Comment pensez-vous que Microsoft pourrait améliorer la gestion de la confidentialité des données avec Copilot ?
Voyez-vous des domaines spécifiques où la réflexion profonde de Copilot pourrait être particulièrement bénéfique ou problématique ?
Quels sont les défis potentiels que vous anticipez avec l’utilisation de la synthèse vocale dans des environnements professionnels ?
Comment évalueriez-vous l’équilibre entre l’assistance technologique et la préservation des compétences humaines dans la prise de décision ?
Quels types de filtres ou de priorités aimeriez-vous voir intégrés dans Copilot pour éviter la surinformation ?
Pensez-vous que l’extension des fonctionnalités de Copilot à d’autres langues et régions est une priorité ? Pourquoi ou pourquoi pas ?
Quels autres aspects de l’interaction homme-machine aimeriez-vous voir explorés par Microsoft dans les futures mises à jour de Copilot ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Hé bien, des démos techniques de plus en plus... Nazes ? Inutiles ? Débiles ? Je sais même plus quel mot choisir.
Depuis un bon moment j'ai l'impression que tous mes commentaires vont dans le même sens. Et encore, vous avez de la chance, 9 fois sur 10 je me retiens d'écrire vu que mon message est aussi inutile que la technologie présentée.
Sérieusement, à part une personne handicapée, qui peut bien avoir besoin d'un logiciel qui commente/lise ce qui se trouve sur l'écran de l'ordinateur qu'il est en train d'utiliser ?
Une personne qui n'a pas d'amis, par exemple ? ça me rappelle que j'ai lu qu'un gars avait fait un réseau social de bots où tu peux choisir le ton que les bots vont employer pour répondre à tes messages... quand je pense que certains applaudissent cette énorme connerie. Déjà qu'il y a les Woke, on nous rajoute leurs cousins les bots
Sur le plan technique, c'est absolument impressionnant ce qu'il arrive à faire. Après il ne faut pas oublier que Microsoft 3 plus grandes capitalisation boursière, elle a énormément de ressource financière. Il est donc assez facile de recruter et de mettre des poles d'excellence. Et malheureusement la concurrence peut difficilement suivre.
Cette prouesse technique est assez incroyable, elle créé un véritable assistant pour nous aider sur plein de chose, dont on l'habitude de faire nous même. Par exemple, il s'occuperait de faire les comparatifs, ... Microsoft essaie de créer un nouveau besoin pour ensuite le rendre indispensable auprès des utilisateurs, au point de créer une certaine indépendance à son produit. Est ce que les gens vont aller jusque là ?
En terme de vie privée, peut importe ce qu'ils font. Je suis contre de mettre tous mes oeufs dans le même panier, de faire appel à un unique prestataire pour tout. Si on veut de la vie privée, il faut se pencher sur les IA locaux. Microsoft a tout intéret plein d'information sur nous pour entrainer son IA, sous le prextexe pour améliorer son expérience utilisateur.
Je n'adhère pas du tout mais je trouve qu'il est intéressant de comprendre la stratégie des GAFAM. Et celle de Microsoft, je la comprends. Microsoft dépensent des millions de $$ dans l'IA et donc essaie de trouver des nouveaux usages
C'est le but premier , et rechercher, des GAFAM d'abêtir les masses pour mieux les manipuler et les rendre totalement dépendant de leurs services .Dépendance technologique
La fonction de réflexion profonde de Copilot, bien qu’utile, pourrait encourager une dépendance excessive à la technologie pour la prise de décision. Si les utilisateurs commencent à s’appuyer trop fortement sur Copilot pour résoudre des problèmes complexes, cela pourrait diminuer leur capacité à penser de manière critique et indépendante. Il est essentiel de trouver un équilibre entre l’utilisation de l’IA comme outil d’assistance et le maintien de nos propres compétences analytiques.
Microsoft prévoit de permettre aux entreprises de créer leurs propres employés virtuels alimentés par l'IA, alors que la prochaine version de Copilot intégrera des agents autonomes
Microsoft travaille sur une fonction Copilot à l'échelle de l'entreprise qui permettrait aux sociétés de créer leurs propres employés virtuels IA. En pratique, cela signifie que les entreprises pourraient créer leurs propres chatbots IA pour interagir avec les clients ou des employés internes pour gérer les tâches internes, en veillant à ce que le ton et le comportement de l'agent soient conformes aux directives et aux préférences de l'entreprise.
Ce projet intervient après que Microsoft ait lancé au début du mois d'octobre 2024 de nouvelles fonctionnalités Copilot sur Windows, y compris un outil qui permet à Microsoft Copilot de lire ce qui est affiché sur l'écran d'un utilisateur pour lui fournir des réponses contextuelles, de parler à haute voix et de résoudre des problèmes complexes.
Le projet, intitulé Microsoft Copilot Studio, est la prochaine étape de l'IA au travail. Une version bêta fermée a été lancée au début de l'année et une phase de test publique est prévue pour le mois de novembre 2024.
Les types de tâches que les employés IA, appelés agents par Microsoft, peuvent effectuer sont généralement des tâches administratives, telles que répondre aux demandes des clients via un chatbot, générer ou résoudre des tickets d'assistance informatique, et répondre à des courriels en utilisant des templates prédéfinis.
Le fait que Microsoft parle d'agents et d'« employés virtuels » joue sur les craintes existantes des gens à l'égard de l'IA, à savoir que l'IA pourrait voler des emplois humains. Le géant de la technologie s'est donc empressé de souligner que les agents Copilot ne peuvent qu'automatiser des tâches répétitives et souvent fastidieuses. L'idée est que cela libère du temps humain pour des rôles plus créatifs et à plus haute responsabilité.
Comment fonctionne Copilot Studio ?
Les entreprises n'ont pas besoin d'avoir des connaissances techniques approfondies pour travailler avec Copilot Studio, l'application utilisant un format low-code. L'interface, essentiellement graphique, requiert des connaissances limitées en matière de programmation et Microsoft fournit des agents prédéfinis que les clients peuvent utiliser pour créer leurs propres agents ou pour commencer à travailler immédiatement.
Parmi les agents prédéfinis, on retrouve un agent de qualification des ventes (axé sur la prospection des clients), un agent de communication avec les fournisseurs (destiné à optimiser les chaînes d'approvisionnement) et un agent d'intention des clients (qui aide les employés du service clientèle à rédiger des articles générés automatiquement). Cela donne une idée des utilisations prévues pour les entreprises qui mettent en œuvre Copilot Studio.
Microsoft n'a pas donné de calendrier précis pour la mise à disposition de Copilot Studio au grand public, mais les phases de test progressant, cela pourrait se faire dès l'année 2025.
Alors que Microsoft s’attelle à travers ce nouveau projet au développement de la prochaine itération de l'IA au travail, son assistant Copilot n'est pas épargné par la critique. En effet, le PDG de Salesforce, Marc Benioff, a récemment déclaré dans un billet publié sur X que l'assistant IA Copilot de Microsoft ne fonctionnait pas, qu'il n'offrait "aucun niveau de précision" et que les clients étaient "obligés de nettoyer le désordre" causé par la mise en œuvre de l'outil.
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous que cette initiative de Microsoft est crédible ou pertinente ?
Voir aussi :
Le PDG de Salesforce, Marc Benioff, déclare que l'assistant IA Copilot de Microsoft ne fonctionne pas, qu'il n'offre « aucun niveau de précision » et que les clients sont « obligés de nettoyer le désordre »
Les outils de développement GenAI n'améliorent pas l'efficacité du codage et augmentent le nombre de bogues : avec Microsoft Copilot les développeurs ont constaté une augmentation de 41 % des bogues
« Si vous confiez les rênes à Copilot, ne vous étonnez pas qu'il dévoile vos secrets », d'après une récente étude selon laquelle cette IA peut être transformée en outil d'exfiltration de données
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Microsoft Copilot au cœur d’une controverse sur la gestion des données sensibles en entreprise :
les utilisateurs ont découvert qu'ils pouvaient accéder sans autorisation aux documents des RH et aux courriels du PDG
Depuis son lancement, Microsoft Copilot, un assistant intelligent intégré à des outils tels que Microsoft 365, a suscité un grand intérêt pour sa capacité à automatiser et à simplifier les tâches quotidiennes. Cependant, une récente controverse a émergé : des utilisateurs ont découvert que Copilot permettait d'accéder à des informations sensibles, notamment des documents de ressources humaines (RH) ou des emails de dirigeants. Cette révélation met en lumière à la fois les possibilités offertes par cette technologie et les défis en matière de sécurité des données.
Qu'est-ce que Microsoft Copilot ?
Microsoft Copilot est un assistant basé sur l'intelligence artificielle, conçu pour intégrer les capacités de modèles de langage avancés, tels que ceux de GPT, dans des environnements professionnels. Il vise à améliorer la productivité en générant des résumés, en automatisant la rédaction de documents, ou encore en aidant à organiser des données complexes. Intégré dans des applications comme Word, Excel ou Teams, il offre un support précieux pour les utilisateurs, des employés aux cadres.
Cependant, comme pour toute innovation technologique, son implémentation n'est pas sans risques. L’objectif ambitieux de Copilot est de fournir des réponses pertinentes en s'appuyant sur les données accessibles à un utilisateur, mais cet aspect a suscité des inquiétudes lorsque des failles potentielles dans le contrôle des accès ont été découvertes.
Un accès non maîtrisé aux données sensibles
Les utilisateurs de Copilot ont récemment signalé que l'outil pouvait accéder à des informations qu'ils n'étaient pas censés consulter. Cela inclut des documents RH, tels que des contrats de travail ou des rapports de performance, ainsi que des emails d'une importance stratégique envoyés par des PDG. Cette situation a fait surgir plusieurs questions :
- Pourquoi ces données sont-elles accessibles via Copilot ?Microsoft Copilot fonctionne en exploitant l'intégralité des données auxquelles un utilisateur a accès dans son environnement professionnel. Si les permissions des fichiers ou des bases de données ne sont pas configurées correctement, l'assistant peut, par inadvertance, fournir des réponses ou des informations tirées de sources sensibles.
- Un problème de configuration ou de conception ? Dans la plupart des cas rapportés, le problème semble résider dans une mauvaise gestion des droits d'accès au niveau des fichiers ou des applications associées. Cependant, cela soulève également des interrogations sur la conception même de l'outil. Un assistant doté d'une telle puissance devrait inclure des mécanismes plus robustes pour empêcher l'accès accidentel à des données sensibles.
Implications pour les entreprises
La révélation de cette faille a de profondes implications pour les organisations.
- Risques pour la sécurité des données : Les entreprises collectent et stockent des données sensibles, des informations financières aux dossiers personnels des employés. Si ces données deviennent accessibles de manière non autorisée via un outil tel que Copilot, cela pourrait entraîner des violations des réglementations sur la protection des données, comme le RGPD en Europe.
- Atteinte à la confidentialité : La confidentialité des communications internes, notamment celles des cadres dirigeants, est essentielle pour protéger la stratégie et les intérêts d’une organisation. La divulgation accidentelle d’emails de PDG pourrait nuire à la réputation ou à la compétitivité d’une entreprise.
- Perte de confiance : Les employés pourraient perdre confiance dans les systèmes technologiques s’ils craignent que leurs informations personnelles puissent être accessibles à des collègues ou à des tiers.
Comment Microsoft répond à la controverse
Aujourd'hui, le géant du logiciel tente de résoudre le problème. Mardi, Microsoft a publié de nouveaux outils et un guide pour aider les clients à atténuer le problème de sécurité de Copilot, qui a permis aux employés d'accéder par inadvertance à des informations sensibles, telles que les courriels du PDG et les documents des ressources humaines.
Ces mises à jour sont conçues pour « identifier et atténuer les problèmes de partage excessif et de gouvernance », a expliqué l'entreprise dans un nouveau plan pour la suite logicielle de productivité 365 de Microsoft.
« De nombreux défis en matière de gouvernance des données dans le contexte de l'IA n'ont pas été causés par l'arrivée de l'IA », a déclaré un porte-parole de Microsoft. L'IA est simplement le dernier appel à l'action lancé aux entreprises pour qu'elles gèrent de manière proactive leurs documents internes et autres informations, a ajouté le porte-parole.
Ces décisions dépendent de la situation unique de chaque entreprise. Selon le porte-parole de Microsoft, des facteurs tels que les réglementations sectorielles spécifiques et la tolérance au risque doivent guider ces décisions. Par exemple, différents employés devraient avoir accès à différents types de fichiers, d'espaces de travail et d'autres ressources.
« Microsoft aide ses clients à améliorer leur gouvernance centrale des identités et des autorisations, afin d'aider les organisations à mettre à jour et à gérer en permanence ces contrôles fondamentaux », a déclaré le porte-parole.
La magie de Copilot (sa capacité à créer une présentation de 10 diapositives ou à convoquer une liste des produits les plus rentables de votre entreprise) fonctionne en parcourant et en indexant toutes les informations internes de votre entreprise, à l'instar des robots d'indexation utilisés par les moteurs de recherche.
Historiquement, les services informatiques de certaines entreprises ont mis en place des autorisations laxistes pour déterminer qui pouvait accéder aux documents internes (en sélectionnant « autoriser tous », par exemple, pour le logiciel RH de l'entreprise, plutôt que de se donner la peine de sélectionner des utilisateurs spécifiques).
Cela n'a jamais posé de problème, car il n'existait pas d'outil permettant à un employé moyen d'identifier et de récupérer les documents sensibles de l'entreprise (jusqu'à ce que Copilot soit mis en place). Par conséquent, certains clients ont déployé Copilot pour découvrir qu'il pouvait permettre aux employés de lire la boîte de réception d'un dirigeant ou d'accéder à des documents RH sensibles.
« Désormais, lorsque Joe Blow se connecte à un compte et désactive Copilot, il peut tout voir », a déclaré un employé de Microsoft au courant des plaintes des clients. « Tout à coup, Joe Blow peut voir les courriels du PDG ».
Les limites actuelles de l’IA générative
Cet incident illustre un problème plus large dans l'adoption des outils d'intelligence artificielle générative en entreprise. Ces outils, bien qu'extrêmement performants, manquent souvent de contextes humains pour éviter des erreurs graves.
Recommandations pour les entreprises
Pour tirer parti de Copilot tout en minimisant les risques, les entreprises devraient :
- Auditer régulièrement les permissions d'accès : S’assurer que les documents sensibles ne sont accessibles qu’à ceux qui en ont besoin.
- Former les employés : Les sensibiliser à l'utilisation de ces outils et aux bonnes pratiques en matière de gestion des données.
- Collaborer avec les éditeurs : Travailler étroitement avec Microsoft pour adapter les paramètres de l’outil aux besoins spécifiques de l’entreprise.
La fonction controversée Windows Recall a signé son retour
Microsoft a annoncé la fonction Recall lors de l'événement Build en mai. Recall est une fonction basée sur l'IA pour les PC Copilot+. Elle suit toutes les activités d'un PC Windows afin de faciliter les recherches ultérieures en utilisant le langage nature. Pour ce faire, Recall est censée capturer les données de toutes les applications, sauf si vous en excluez une, en prenant une série de captures d'écran et en stockant ces interactions dans une base de données. La fonction Recall s'exécute localement. Elle peut fonctionner sans connexion Internet et même lorsque vous n'êtes pas connecté à votre compte Microsoft.
Mais Recall est décriée par les experts en sécurité. Si quelqu'un d'autre que vous accède aux données collectées par Recall, les conséquences pourraient être désastreuses. Cela peut vous sembler familier, Recall est remarquablement similaire à la fonctionnalité Timeline de Windows 10, qui a échoué et a été mise de côté. Mais contrairement à Timeline, Recall ne se contente pas de restaurer une version de vos fichiers de bureau, il utilise l'IA pour vous ramener à ce moment, en ouvrant même les applications pertinentes. Un pirate qui parvient à trouver et exploiter une faille dans Recall pourrait causer des dégâts énormes.
Quels sont les risques potentiels auxquels Microsoft Recall expose les utilisateurs de Windows 11 ?
- Vous utilisez un ordinateur public : disons que vous faites des achats ou des opérations bancaires en ligne sur un ordinateur de la bibliothèque. Vous n'avez pas réalisé que Recall était actif. Cela permettrait à la personne qui utilise l'ordinateur après vous vient d'aller dans les archives de Recall pour récupérer toutes vos coordonnées bancaires, votre adresse et vos mots de passe. C'est comme remettre les clés de votre maison à un cambrioleur avant de lui dire que vous partez en vacances pour la semaine.
- Vous utilisez un ordinateur portable professionnel : Votre patron, votre équipe informatique et toute personne ayant accès à votre appareil pourront voir quel usage vous faites de l’appareil. Ils peuvent s'en servir pour suivre votre rendement au travail et même lire les messages privés que vous envoyez à d'autres personnes.
- Vous utilisez un PC familial : si vous utilisez l'ordinateur familial et que vous n'avez pas de profil protégé par un mot de passe, n'importe qui peut entrer et ouvrir votre historique de rappel. Si vous avez fait quelque chose de peu recommandable, cela va se voir, même si vous avez supprimé l'historique de vos recherches
- Vous êtes victime d'un piratage ou votre ordinateur portable est volé : si quelqu'un vole votre ordinateur portable et que vous ne disposez pas d'un mot de passe fort pour le verrouiller, un cybercriminel peut utiliser Microsoft Recall pour entrer en possession de vos données et informations personnelles.
Pourquoi ces risques sont-ils de l’ordre du plausible ? Parce que Microsoft souligne dans la Foire Aux Questions relative à cette fonctionnalité que « Recall n'effectue pas de modération de contenu. Il ne cache pas les informations telles que les mots de passe ou les numéros de comptes financiers. Ces données peuvent se trouver dans des instantanés stockés sur votre appareil, en particulier lorsque les sites ne respectent pas les protocoles Internet standard tels que la dissimulation de la saisie du mot de passe. »
En d’autres termes, Microsoft Recall est un outil qui stocke vos mots de passe, vos informations, les détails de votre compte, etc. et qui est visible par tous les utilisateurs de votre profil. Si vous n'avez qu'un seul profil pour votre appareil, cela signifie que toutes les personnes ayant accès à ce PC pourront voir vos données Recall.
Face au tollé provoqué par la situation, Microsoft a tenté de répondre aux préoccupations avec une seconde version de son outil : la fonction serait désactivée par défaut au lieu d'être activée, les utilisateurs devraient s'authentifier à nouveau avec Windows Hello avant d'accéder aux données Recall, et les données Recall stockées localement seraient protégées par un chiffrement supplémentaire. Recall peut désormais être entièrement supprimé d'un système à l'aide des paramètres des « fonctionnalités optionnelles » de Windows.
Conclusion : une innovation à double tranchant
Microsoft Copilot représente un pas en avant significatif dans l’utilisation de l’IA pour booster la productivité, mais cet incident met en lumière les défis liés à son implémentation. À mesure que les entreprises adoptent ces outils, elles doivent être vigilantes pour équilibrer innovation et sécurité. Si des mesures proactives sont prises pour renforcer le contrôle des accès, Copilot pourrait bien devenir un atout incontournable du monde professionnel.
Source : Microsoft
Et vous ?
La technologie IA peut-elle réellement différencier des données sensibles de celles qui ne le sont pas ?
Qui est responsable en cas de fuite de données causée par un outil comme Copilot : Microsoft, l'entreprise utilisatrice ou les équipes IT ?
Les entreprises ont-elles aujourd’hui une maîtrise suffisante de la configuration des permissions sur leurs systèmes internes ?
Quels mécanismes supplémentaires Microsoft pourrait-il implémenter pour renforcer la sécurité des données sensibles ?
À quel point est-il réaliste d’espérer qu’un outil aussi puissant reste totalement sécurisé et fiable dans des environnements complexes ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
C'est marrant de voir des entreprises qui paniquent parce que des employés ont accès à des données confidentielles, mais qui ne se posent absolument pas la question quand elles partagent/upload leurs données sur pleins de clouds qui ne leur appartiennent pas!
Je suppose que c'est le principe de "ce qui ne se voit pas n'existe pas".
Bien sûr que non.
Une GAFAM ne sera jamais responsable. Et puis vu son argent, bonne chance pour essayer de faire valoir vos "droits".
Ce sera l'entreprise qui va payer plein pot, et c'est normal, puisque c'est l'entreprise qui a fait ces (mauvais) choix.
Au mieux, une entreprise fera un procès qui lui coûtera affreusement cher pendant une dizaine d'années.
Ni aujourd'hui ni demain.
Comment maîtriser ce qui est externe? (ces systèmes n'ont d'interne que le nom, vu que tout fuit vers des services Cloud).
Si vous me confiez vos données, est-ce que vous en avez encore la maîtrise?
Hmmm... La sécurité des données sensibles est-elle la priorité de Microsoft?
On peut sérieusement se poser la question quand on voit qu'ils poussent pour Recall, malgré les alertes de leurs propres ingénieurs sécurité...
Le problème ne vient pas de la "puissance" d'un outil mais de son intégration à tout un tas de systèmes et à la complexité engendrée.
Aucune chance que ça soit réaliste, donc.
EDIT:
Pour ce qui est du schéma "recall security architecture", je ne vois pas comment les points 1, 2, 3 et 4 peuvent protéger d'un attaquant.
Lorsqu'un utilisateur installe un keylogger, ou lance un cryptolocker, ce n'est pas un attaquant physique qui effectue le travail.
C'est l'utilisateur lui-même qui va le faire, en cliquant sur ce qu'il considère être quelque chose de légitime. Le prompter pour du windows hello, de la biométrie, ou même ses informations hypothécaires s'il le faut n'y changera absolument rien: le programme exécuté aura les droits sur cette "secure enclave" et n'aura plus qu'à exfiltrer les données...
Bref, c'est juste pour donner un sentiment de sécurité sur une fonctionnalité qui n'est qu'un spyware déguisé.
Vive les GAFAM...
Microsoft est accusée d'utiliser le contenu de Word et d'Excel en ligne pour former ses différents modèles d'IA, à moins que vous n'y renonciez.
l'entreprise nie s'en être servi
La fonctionnalité « Expériences connectées » de Microsoft Office, activée par défaut, a été critiquée pour avoir potentiellement utilisé le contenu utilisateur pour entraîner l'IA sans l'expliquer clairement. Microsoft nie utiliser les données des clients pour entraîner l'IA, affirmant qu'elle est destinée aux fonctions requises par Internet, comme la co-création de documents. Les critiques mettent en avant le contrat de services de Microsoft, qui accorde à l'entreprise des droits sur le contenu utilisateur. Pour se désinscrire, il faut accéder à des paramètres spécifiques.
Aux utilisateurs d'Office, Microsoft propose des expériences connectées qui analysent votre contenu : « Les expériences qui analysent votre contenu sont des expériences qui utilisent le contenu de votre bureau pour vous fournir des recommandations de conception, des suggestions de révision, des aperçus de données et d'autres fonctions similaires. Par exemple, le Traducteur ou le Concepteur PowerPoint ». Cette fonctionnalité, activée par défaut, a été accusée de récupérer le contenu créé par les utilisateurs pour former ses systèmes d'IA internes.
L'expert Linux @nixcraft sur X a qualifié les « Expériences connectées » de « contraires à l'éthique » car le nom de la fonctionnalité ne dit pas qu'il s'agit uniquement de formation à l'IA. La base de connaissances de Microsoft indique que les expériences connectées sont « conçues pour vous permettre de créer, de communiquer et de collaborer plus efficacement » en analysant votre contenu. Il n'est fait aucune mention de l'utilisation de l'IA ou des données pour les fonctionnalités Copilot ou pour former les modèles d'IA de Microsoft.
Attention : Microsoft Office, comme de nombreuses entreprises ces derniers mois, a sournoisement activé une fonction « opt-out » qui récupère vos documents Word et Excel pour entraîner ses systèmes d'intelligence artificielle internes. Cette fonction est activée par défaut et vous devez décocher manuellement une case pour la désactiver. Si vous êtes un écrivain qui utilise MS Word pour rédiger des contenus propriétaires (articles de blog, romans ou tout autre travail que vous avez l'intention de protéger par des droits d'auteur et/ou de vendre), vous voudrez désactiver cette fonction immédiatement.
Plusieurs médias dans la presse spécialisée ont repris ces allégations, notant que dans le cadre de son fonctionnement normal, l'utilitaire comporte une fonction sournoise dans laquelle elle « recueille automatiquement des données à partir de fichiers Word et Excel pour entraîner les modèles d'IA de l'entreprise ». La collecte de données est apparemment activée par défaut, ce qui signifie que le contenu des utilisateurs peut être utilisé pour entraîner les algorithmes d'IA, à moins qu'il ne soit spécifiquement désactivé. La désactivation elle-même serait « un processus très alambiqué ».
Selon l'un des rapports, ce paramètre par défaut permet à Microsoft d'utiliser toutes sortes de documents, qu'il s'agisse « d'articles, de romans ou d'autres œuvres destinées à être protégées par le droit d'auteur ou à des fins commerciales, sans consentement explicite ».
Microsoft Connected Experiences collecte vos fichiers Word et Excel à des fins d'entraînement à l'IA. Pourquoi ne pas parler de formation à l'IA ? Pourquoi utiliser de tels mots ? Il s'agit d'une pratique contraire à l'éthique suivie par une entreprise pesant des milliards de dollars. Comment cela peut-il être légal ? Je suis bien content de ne pas avoir Windows OS ou MS Office.Les conséquences sont énormes pour tous ceux qui utilisent ces outils bien connus pour générer du contenu propriétaire, qu'il s'agisse de documents écrits ou, peut-être, de données financières sensibles. Le problème est que lorsqu'un élément de contenu est utilisé pour former l'une des IA actuelles, comme le Copilot de Microsoft, une sorte d'empreinte est laissée dans l'algorithme. Lorsqu'un utilisateur différent demande des informations à un moment donné dans le futur, il est possible que votre contenu, aussi sensible soit-il, ou les informations propriétaires qu'il contient, fassent « surface » sous une forme ou une autre dans la réponse de l'IA générative.Microsoft Connected Experiences means they collect your Word and Excel files for AI training. Why not call it AI training? Why use such words? This is an unethical practice followed by a trillion-dollar corporation. How is this even legal? I am so glad that I don’t have Windows…
— nixCraft 🐧 (@nixcraft) November 24, 2024
Microsoft a répondu à ces accusations via le compte officiel @Microsoft365 sur les réseaux sociaux, en niant ces allégations. « Nous n'utilisons pas les données des clients pour former les LLM », a déclaré Microsoft. Selon l'entreprise, « Microsoft Connected Experiences » ne concerne pas les outils d'IA générative ni la formation. « Ce paramètre active uniquement les fonctionnalités nécessitant un accès à Internet, comme la co-création d'un document. »
Cependant, comme le souligne Tom's Hardware, Microsoft 365 et Microsoft Connected Experiences sont couverts par le contrat de services de Microsoft, qui confère à l'entreprise tous les droits de propriété intellectuelle sur l'ensemble de votre contenu.In the M365 apps, we do not use customer data to train LLMs. This setting only enables features requiring internet access like co-authoring a document. https://t.co/o9DGn9QnHb
— Microsoft 365 (@Microsoft365) November 25, 2024
« Dans la mesure nécessaire pour vous fournir les Services et à d'autres, pour vous protéger et protéger les Services, et pour améliorer les produits et services Microsoft, vous accordez à Microsoft une licence de propriété intellectuelle mondiale et libre de droits pour utiliser votre Contenu, par exemple, pour faire des copies, conserver, transmettre, reformater, afficher et distribuer via des outils de communication votre Contenu sur les Services », peut-on lire dans le contrat.
La réaction de Microsoft
Microsoft a démenti les affirmations selon lesquelles il alimente en informations privées de grands modèles de langage. Les données de Microsoft 365 peuvent désormais être automatiquement téléchargées et traitées pour offrir des « expériences connectées » qui, selon Microsoft, « vous permettront de créer, de communiquer et de collaborer plus efficacement ».
Le 21 octobre, Microsoft a publié sur son blog des informations détaillées sur l'expérience connectée, qui semblent avoir évoqué le souvenir de Recall, un outil qui prend des clichés de l'écran des utilisateurs toutes les quelques secondes et qui a été décrit comme un « cauchemar en matière de protection de la vie privée ».
Enfouie au plus profond de la section confidentialité des paramètres d'Office 365 se trouve une option d'expérience connectée qui est activée par défaut pour les clients américains (il faut vérifier pour les autres pays). Dans ce menu, on peut également lire en gras : « Votre vie privée est importante ». Si les utilisateurs ne choisissent pas expressément de désactiver cette fonctionnalité, les données des documents sont récoltées et traitées - ce qui a déclenché la panique à l'idée qu'elles pourraient être utilisées pour entraîner Copilot et d'autres modèles d'IA.
Des allégations concernant le scrapping de données par Microsoft ont circulé sur les médias sociaux au cours du week-end
« Cela ne peut pas être vrai », a écrit Florian Roth, responsable de la recherche chez Nextron Systems. « Alors que les entreprises sont occupées à appliquer des politiques d'IA pour protéger les données confidentielles, Microsoft active discrètement cette fonctionnalité par défaut et l'intitule « Votre vie privée est importante ».
« Il est incroyable que Microsoft ait discrètement activé cette fonction alors que tout le monde se concentrait sur sa fonction d'IA 'Recall' », poursuit-il.
Microsoft reste vague sur ce qu'elle fait des données qu'elle recueille, même s'il ne fait aucun doute qu'elle les recueille.
« Les expériences connectées qui analysent votre contenu sont des expériences qui utilisent votre contenu Office pour vous fournir des recommandations de conception, des suggestions d'édition, des informations sur les données et des fonctionnalités similaires », explique Microsoft.
Avec les applications et services Web, les réseaux sociaux, les moteurs de recherche et bien d'autres choses encore, plusieurs acteurs majeurs du secteur de la technologie et de l'IA ont été accusés à juste titre d'avoir récupéré des données utilisateur pour entraîner l'IA. Le PDG de Microsoft AI, Mustafa Suleyman, a récemment déclaré que tout contenu sur le Web « est un usage équitable » pour la formation, la reproduction et plus encore de l'IA. Tout le reste, y compris les données que les gens choisissent activement de ne pas partager ou de cocher une case « ne pas récupérer », est une « zone grise ». De plus, il appartient aux tribunaux de décider quelles données sont interdites.
Revenons à Microsoft Connected Experiences. L'entreprise a déclaré qu'elle n'utilisait pas vos documents Word pour entraîner des modèles d'IA. Néanmoins, si vous souhaitez vous désinscrire, vous devez accéder à Fichier > Options > Centre de gestion de la confidentialité > Paramètres du Centre de gestion de la confidentialité > Options de confidentialité > Paramètres de confidentialité > Expériences connectées facultatives > Décochez la case : « Activer les expériences connectées facultatives ».
Que sont les expériences connectées ?
En parcourant les « expériences » de Microsoft, nous n'avons pas trouvé une qui mentionne explicitement l'entraînement de données d'IA (mais n'hésitez pas à le préciser si vous avez trouvé le contraire). D'ailleurs, certains semblent ne pas avoir trouvé la formulation qui expliquerait cet enchainement.
Les cas d'utilisation mentionnés qui « analysent votre contenu » comprennent l'application automatique d'étiquettes de sensibilité ou une fonction qui scanne les cartes de visite pour en extraire des informations.That's not the wording I'm seeing. pic.twitter.com/8IrVfEip3e
— Pharaoh (@HalalPharaoh) November 24, 2024
Néanmoins, un utilisateur inquiet a posé une question sur la politique de Microsoft en matière de formation à l'IA sur son forum d'assistance, où un agent a admis que sa position n'était pas tout à fait claire. Il a écrit :
« À ma connaissance, Microsoft n'a pas fourni de détails détaillés accessibles au public sur les types spécifiques d'informations personnelles utilisées pour former ses modèles d'IA. Les informations relatives à l'utilisation des données pour l'entraînement de l'IA sont souvent vagues en raison de la nature des politiques de confidentialité et des conditions de service.
« Cependant, nous ne pouvons trouver que des indications générales sur la manière dont Microsoft traite les données personnelles. Mais pour des raisons de confidentialité, il se peut qu'elle ne fournisse pas de détails précis sur les données spécifiquement utilisées pour l'apprentissage de l'IA. »
Dans sa déclaration de confidentialité, Microsoft indique : « Dans le cadre de nos efforts pour améliorer et développer nos produits, nous pouvons utiliser vos données pour développer et entraîner nos modèles d'IA. »
Sur une page expliquant sa politique en matière d'entraînement à l'IA, la société promet qu'elle n'entraîne pas les modèles d'IA Copilot à partir de « nos clients commerciaux, ou de toute donnée provenant d'utilisateurs connectés à un compte organisationnel M365/EntraID » ou « d'utilisateurs connectés avec des abonnements personnels ou familiaux M365 ».
Un porte-parole de Microsoft a explicitement démenti les allégations selon lesquelles l'entreprise utilisait les données M365 pour entraîner des modèles d'IA et a déclaré : « Dans les applications grand public et commerciales de Microsoft 365, les modèles d'IA ne sont pas utilisés : « Dans les applications grand public et commerciales de Microsoft 365, Microsoft n'utilise pas les données des clients pour entraîner des modèles de langage de grande taille sans leur autorisation. »
Sources : expériences connectées dans Office, Microsoft Privacy Statement, Microsoft Community, politique de Microsoft sur la formation de l'IA
Et vous ?
Quelle lecture faites-vous de la situation ?
Comment ce genre de pratiques affecte-t-il la réputation de Microsoft auprès de ses utilisateurs et du grand public ?
Pensez-vous que ce scandale potentiel incitera Microsoft à changer de politique, ou l’entreprise continuera-t-elle sur cette voie si les critiques restent limitées ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Pas besoin de faire de grand discours... Cette news confirme simplement que Microsoft se croit tout permis et considère que les données privées de ses clients sont des données publiques pour elle!
Si vous êtes actuellement derrière votre PC Windows bien au chaud dans votre bureau croyant être dans l'intimité de votre chez soi... Ben oubliez! Microsoft est installé sur votre épaule en train d'espionner tout ce que vous faites...
Microsoft détourne un raccourci clavier pour attirer l'attention sur Copilot. L'assistant d'IA redevient, en quelque sorte, une application native sur Windows
mais ne fonctionne pas localement sur votre PC
Microsoft a l'intention de rendre son assistant d'IA Copilot plus utile et facilement accessible sur Windows 11. Pour cela, l'entreprise a décidé de passer d'une PWA à une application native et a doté la fonction d'affichage rapide de l'outil d'un nouveau raccourci clavier (Alt + Espace). Mais ce raccourci clavier est déjà utilisé par de nombreuses autres applications, y compris Microsoft PowerToys. PowerToys Run, par exemple, utilise ce raccourci pour ouvrir un lanceur dans lequel l'utilisateur peut taper le nom du service qu'il recherche. Microsoft est critiqué sur ce choix, décrit comme une nouvelle ruse de sa part pour mettre son produit en avant.
Microsoft fait volte-face et revient à une application native pour l'assistant Copilot
Il y a quelques mois, Microsoft décidait à la surprise générale de réduire l'expérience Copilot à une PWA sur Windows. Cette décision a déçu un grand nombre d'utilisateurs qui s'attendaient à ce que Copilot soit mieux intégré à Windows. « Cela montre vraiment que Microsoft ne se tient pas à un niveau élevé. Ils font tout ce bruit autour des PC propulsés par l'IA et d'une nouvelle touche Copilot, pour ne livrer que... pas grand-chose », a écrit un critique.
L'entreprise est revenue sur sa décision et va remplacer cette version PWA par une expérience « native » qui introduit un nouveau raccourci clavier et une interface de vue rapide. L'affichage rapide de Copilot flotte au-dessus de la barre des tâches, à l’image des nouvelles applications Companion que Microsoft teste actuellement pour les fichiers, contacts et entrées de calendrier. Elle peut être déclenchée via le raccourci clavier Alt + Espace ou via la barre système.
L'affichage rapide ne fait rien de spécial ici, mais il reste visible en permanence, au-dessus des autres applications, jusqu’à ce que vous reléguiez Copilot dans la barre des tâches ou utilisiez à nouveau le raccourci Alt + Espace. Il offre un accès rapide et constant à Copilot, sans avoir besoin d’ouvrir une fenêtre distincte.
Il s'agit d'un changement très mineur, mais le fait de faire de l'assistant d'IA Copilot une application native sur Windows pourrait ouvrir la voie à de futures innovations et plus d'intégration. Microsoft met actuellement la nouvelle version de Copilot à la disposition des participants au programme Windows Insiders.
La mise à jour est progressivement déployée sur tous les appareils Windows 10 et 11 du programme Windows Insider. Bien que Microsoft insiste sur le fait que la fin du support de Windows 10 est prévue pour octobre 2025, l'entreprise récupère un raccourci clavier pour son assistant d'IA mal-aimé.
Par ailleurs, rien n'indique que Copilot fonctionnera localement sur votre PC, des testeurs ont découvert que l'application se contente toujours d'appeler le site Web Copilot de Microsoft. La société a indiqué qu'une fois la mise à jour de l'application installée, Copilot apparaîtra dans la barre d'état système.
Le raccourci peut générer des conflits potentiels avec d’autres applications
Le choix du raccourci clavier Alt + Espace pourrait poser problème aux utilisateurs de Windows, car de nombreuses applications utilisent déjà cette combinaison, y compris l'utilitaire PowerToys de Microsoft. Ainsi, PowerToys Run utilise Alt + Space pour ouvrir un lanceur dans lequel les utilisateurs peuvent taper le nom du service qu'ils recherchent. Le raccourci clavier Alt + Espace est également utilisé pour afficher le menu contextuel de la fenêtre active.
Par conséquent, la décision de Microsoft d'ajouter le raccourci à Copilot pourrait ne pas plaire aux guerriers du clavier, habitués à ce que leurs raccourcis fonctionnent d'une manière particulière. Cela pourrait engendrer des conflits entre Copilot et d’autres outils, et la gestion du raccourci risque de devenir complexe pour les utilisateurs. Microsoft est conscient du problème, mais la firme de Redmond y a répondu d'une manière qui lui vaut des critiques :
L'on peut en effet se demander pourquoi Microsoft a abandonné l’ancien raccourci « Windows + C » utilisé avec Copilot, ou pourquoi il n’a pas conservé la touche Copilot dédiée introduite sur les nouveaux PC Copilot+ pilotés par l'IA. Mais encore, Microsoft précise que « Copilot continuera à explorer les options liées aux raccourcis clavier de l'application », ce qui donne l'impression que c'est l'assistant d'IA qui mène la barque chez le géant des logiciels.Envoyé par Microsoft
« Les personnes qui prennent ces décisions devraient être obligées de travailler au service d'assistance pendant un mois afin de comprendre l'impact du changement. Pour autant que je sache, Windows + S et Windows + Q font la même chose et ouvrent la recherche. Il y en a d'autres qui ne sont pas utilisées. Je suggérerais bien Windows + C pour « Copilot », mais pour une raison quelconque, cette touche est censée ouvrir Équipes », a écrit un critique.
« Les fonctions de ce type devraient être facultatives et faciles à désactiver si l'on change d'avis. Tout ce qui concerne Copilot devrait l'être. Mais dernièrement, Microsoft tente d'imposer aux utilisateurs des fonctions d'IA à peine utiles et qui s'avèrent parfois un véritable cauchemar pour la vie privée », a écrit un autre.
Copilot : une fonctionnalité d'IA toujours en quête d’identité ?
Le passage d'une PWA à une application native pour Copilot représente une étape importante pour renforcer l'intégration et utilité de l'assistant d'IA sur Windows 10 et 11. Cependant, il reste encore de nombreux défis à surmonter pour en faire un assistant d'IA vraiment fluide et intégré. Alors que Microsoft jongle avec les différentes versions et raccourcis, la société pourrait écouter les commentaires des utilisateurs pour mieux affiner cette expérience.
Pour une raison inconnue, Microsoft tente également d'obliger les utilisateurs à accepter la fonctionnalité controversée Recall, qui utilise l'IA pour enregistrer des captures d’écran automatiques des activités sur votre ordinateur, créant ainsi une sorte de mémoire visuelle numérique. Toutefois, les experts en cybersécurité alertent sur les risques de sécurité. Ils estiment notamment que Recall constitue une mine d'or pour les pirates informatiques.
Selon Microsoft, le but de Recall est de permettre à l'utilisateur de retrouver facilement le contenu qu'il a consulté (fichiers, sites Web, etc.) simplement en tapant des mots-clés ou en naviguant dans la chronologie des captures. Malgré la polémique de la fonctionnalité, Microsoft poursuit le déploiement de Recall.
Source : Microsoft
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous du nouveau raccourci clavier ajouté par Microsoft à Copilot sur Windows ?
Les critiques affirment que Microsoft tente de détourner le raccourci au profit de Copilot. Qu'en pensez-vous ?
Que pensez-vous du choix de Microsoft de revenir à une application native pour Copilot ?
Utilisez-vous Copilot sur Windows ? Si oui, le trouvez-vous utile ? Partagez votre expérience.
Voir aussi
Microsoft lance Copilot Pages, un canevas collaboratif amélioré par l'IA pour les utilisateurs de Microsoft 365 qui intègre la collaboration d'équipe en temps réel avec les capacités d'IA de Microsoft Copilot
Microsoft rend son assistant Copilot beaucoup moins utile sur les nouveaux PC Copilot+ pilotés par l'IA, la touche Copilot dédiée ne fait rien d'autre que lancer une version PWA du chatbot
La fonction controversée de Recall de Microsoft connaît déjà quelques problèmes : elle ne respecte pas toujours les préférences de l'utilisateur et ne fonctionnera pas avec certains programmes d'accessibilité
Microsoft impose son assistant d'IA Copilot aux utilisateurs de sa suite Microsoft 365 et les oblige à payer l'accès
les utilisateurs sont frustrés et réclament des mesures contre l'entreprise
Microsoft revient à la charge avec son assistant d'IA Copilot et déclenche une nouvelle vague de polémiques. Cette fois-ci, il a ajouté Copilot à sa suite de productivité Microsoft 365 en Australie et dans plusieurs pays d'Asie du Sud-Est. Microsoft 365 est son service d'abonnement pour des logiciels tels que Word, Excel et PowerPoint. Parallèlement à l'intégration de Copilot, l'entreprise a augmenté les prix pour tous ceux qui utilisent Microsoft 365 dans ces pays. Les personnes qui n'utilisent pas Copilot ou qui n'ont pas envie de l'utiliser n'ont pas le choix et sont donc obligées de payer quelques dollars de plus pour continuer à avoir accès à Microsoft 365.
Microsoft impose son outil d'IA Copilot aux utilisateurs et les force à payer l'accès
L'assistant d'IA Copilot de Microsoft a été l'un des principaux points de frictions entre la société et ses utilisateurs cette année. Le géant de Redmond cherche par tous les moyens à amener les utilisateurs à utiliser Copilot, s'adonnant parfois à des pratiques qui exaspèrent les clients. Le comportement de Microsoft a suscité de vives critiques et des mécontentements notables parmi les utilisateurs au cours de l’année, mais l'entreprise n'a pas l'intention de les écouter.
Récemment, Microsoft a décidé d'ajouter Copilot à sa suite de productivité Microsoft 365 en Australie et dans plusieurs pays d'Asie du Sud-Est. Cette intégration a été suivie d'une augmentation des prix de Microsoft 365. Qu'en est-il des personnes qui ne veulent pas payer pour que Copilot améliore leurs documents et résume leurs courriels ? Ils n'ont pas de chance. Microsoft ne leur a pas laissé la possibilité de choisir s'ils veulent ou non ajouter l'IA à leur abonnement.
Alistair Fleming utilise Word pour écrire des scripts pour sa chaîne YouTube sur le catch japonais des années 1990. L'Australien a remarqué que chaque fois qu'il terminait une ligne, le logo de Copilot apparaissait à l'écran et lui demandait s'il pouvait l'aider à écrire. « Il était très désireux d'être utilisé, ce qui m'irritait en tant qu'utilisateur », a déclaré le vidéaste. Sa facture mensuelle pour Microsoft 365 était passée de 11 dollars australiens à 16 dollars australiens.
Certains utilisateurs ont déclaré sur les médias sociaux que les fenêtres contextuelles de Copilot leur rappelaient Clippy, un assistant que Microsoft a ajouté à sa suite Office à la fin des années 1990 et qui offrait fréquemment une aide non sollicitée. Clippy a été largement tourné en dérision par les critiques.
Ce dernier changement montre à quel point Microsoft tente désespérément de trouver des moyens de tirer profit de ses énormes investissements dans l'IA. Copilot est un maillon clé du plan du PDG Satya Nadella pour continuer à développer l'activité logicielle de Microsoft pour les clients grand public et les entreprises.
Mais la stratégie agressive de Microsoft attise l'ire des utilisateurs, dont certains affirment se sentir abuser. Un porte-parole de Microsoft a refusé de commenter la stratégie derrière l'ajout forcé de Copilot dans certaines régions et n'a pas voulu dire s'il prévoyait une approche similaire sur d'autres marchés.
Alistair Fleming a cherché à supprimer Copilot de son logiciel de travail, mais a constaté que ce n'était pas possible. Il a donc résilié son abonnement. Il utilise désormais Google Docs. De nombreux critiques ont déclaré qu'ils abandonneront Microsoft 365 si cette mise à jour est déployée dans leurs régions.
Des centaines de milliards ont été investis dans l'IA pour des résultats peu reluisants
Microsoft est le plus gros investisseur d'OpenAI, le fabricant de ChatGPT. Certaines sources estiment que le géant de Redmond a déjà injecté près de 14 milliards de dollars dans OpenAI. Depuis le début de l'année 2023, Microsoft tente d'utiliser l'IA générative pour gagner du terrain sur le marché des applications grand public. Il a d'abord intégré l'IA dans son moteur de recherche Bing comme outil de chat, mais n'a pas réussi à gagner assez de terrain face à Google.
Il a ensuite lancé Copilot, un chatbot et un générateur de contenu qui s'intègre au logiciel 365 pour aider à rédiger des courriels, à résumer des réunions et à créer des diapositives PowerPoint. La version premium grand public de Copilot a été lancée en janvier 2024 au prix de 20 $ par mois aux États-Unis, ce qui s'ajoute aux quelque 7 $ mensuels d'un abonnement individuel à 365. Toutefois, Microsoft doit rivaliser sur un marché qui est hautement concurrentiel.
Le chatbot ChatGPT de son partenaire OpenAI domine le marché. À titre de comparaison, selon les données de Sensor Tower, l'application Copilot a été téléchargée 37 millions de fois entre mai 2023 et la mi-décembre, contre 433 millions de téléchargements pour ChatGPT. Outre ChatGPT, Copilot de Microsoft doit également faire face à une concurrence féroce de la part d'assistants tels que Claude 3 d'Anthropic, Gemini de Google et Grok du milliardaire Elon Musk.
Microsoft n'a pas publié de chiffres de vente pour Copilot, mais a récemment déclaré lors d'une conférence que « près de 70 % des entreprises du classement Fortune 500 utilisaient l'assistant d'IA ». Le géant de Redmond a également déclaré récemment que le chiffre d'affaires total de l'IA dépassera bientôt les 10 milliards de dollars sur une base annuelle. Ce chiffre englobe tous ses services d'IA, y compris les services cloud computing pour d'autres développeurs.
L'on ignore ce sur quoi ses prévisions sont basées. Microsoft est confronté à la pression des éditeurs de logiciels d'entreprise rivaux qui ont lancé leurs propres produits à base d'IA, notamment Salesforce, ainsi qu'aux développeurs d'IA, comme OpenAI et Anthropic, qui se lancent dans la vente aux entreprises.
Au sein de Microsoft, Copilot est considéré comme la première étape de sa stratégie en matière d'IA. La prochaine vague sera centrée sur les agents, des outils automatisés capables de gérer des tâches plus complexes telles que les interactions avec le service clientèle ou la réservation de voyages.
L'IA générative a mobilisé des investissements colossaux au cours des deux dernières années. Cependant, malgré des investissements des grandes entreprises de l'IA estimés à 292 milliards de dollars, le chiffre d'affaires généré reste faible. En outre, les centres de données mettent à rude épreuve les réseaux électriques.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des pratiques de Microsoft pour amener les gens à utiliser Copilot ?
Selon vous, pourquoi l'entreprise continue sur cette lancée malgré le mécontentement des utilisateurs ?
À long terme, quels pourraient être les impacts de cette stratégie sur Microsoft ? Risque-t-il un abandon massif de ses produits ?
Voir aussi
Microsoft détourne un raccourci clavier pour attirer l'attention sur Copilot. L'assistant d'IA redevient, en quelque sorte, une application native sur Windows, mais ne fonctionne pas localement sur votre PC
Microsoft rend son assistant Copilot beaucoup moins utile sur les nouveaux PC Copilot+ pilotés par l'IA, la touche Copilot dédiée ne fait rien d'autre que lancer une version PWA du chatbot
Malgré des investissements des grandes entreprises de l'IA estimés à 292 milliards de dollars, le chiffre d'affaire généré reste faible et les centres de données mettent à rude épreuve les réseaux électriques
Partager