IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

LinkedIn poursuivie pour avoir entraîné des modèles d'IA avec des messages privés sans consentement


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 962
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 962
    Par défaut LinkedIn poursuivie pour avoir entraîné des modèles d'IA avec des messages privés sans consentement
    LinkedIn utilise maintenant le contenu de tout le monde pour former son outil d'IA, car il vient d'inscrire automatiquement tous ses utilisateurs.

    Une utilisatrice de Linkedin aux USA vient de révéler que la plateforme utilise le contenu de tout le monde pour former son outil d'IA. Cela est possible car Linkedin aurait inscrit automatiquement tous ses utilisateurs. L'utilisatrice partage également comment se désinscrire.

    LinkedIn est une plateforme de médias sociaux axée sur les affaires et l'emploi qui fonctionne par le biais de sites web et d'applications mobiles. Elle a été lancée le 5 mai 2003 par Reid Hoffman et Eric Ly et depuis décembre 2016, LinkedIn est une filiale à 100 % de Microsoft. Depuis 2015, la majeure partie des revenus de l'entreprise provient de la vente aux recruteurs et aux professionnels de la vente de l'accès aux informations sur ses membres. LinkedIn compte plus d'un milliard de membres inscrits dans plus de 200 pays et territoires.

    La plateforme est principalement utilisée pour le réseautage professionnel et le développement de carrière, et permet aux demandeurs d'emploi d'afficher leur CV et aux employeurs d'afficher des offres d'emploi. Pour améliorer les fonctionnalités de la plateforme, Linkedin aurait commencé à entrainer une intelligence artificielle. L'intelligence artificielle (IA) est un domaine de recherche en informatique qui développe et étudie des méthodes et des logiciels permettant aux machines de percevoir leur environnement et d'utiliser l'apprentissage et l'intelligence pour prendre des mesures qui maximisent leurs chances d'atteindre des objectifs définis.

    Mais une utilisatrice de Linkedin aux USA vient de rapporter que la plateforme utilise le contenu de tout le monde pour former son outil d'IA. Cela est possible car Linkedin aurait inscrit automatiquement tous ses utilisateurs au programme.

    LinkedIn utilise maintenant le contenu de tout le monde pour former son outil d'intelligence artificielle - ils viennent juste d'inscrire automatiquement tout le monde.
    Je recommande de se désinscrire maintenant (ET que les organisations mettent fin à l'inscription automatique, ce n'est pas cool).
    Marche à suivre pour se désinscrire : Paramètres et confidentialité > Confidentialité des données > Données pour l'amélioration de l'IA générative (OFF)
    Mais ce programme de Linkedin pour entrainer son outil d'IA présente plusieurs difficultés. D'abord, Linkedin serait rempli de faux profils. Deux chercheurs de Stanford ont trouvé plus de 1 000 faux profils sur LinkedIn qui ont utilisé des visages générés par l'IA. En utilisant de faux profils, les entreprises peuvent élargir leur réseau en ligne sans avoir à payer pour du personnel supplémentaire de vente ni atteindre les limites de LinkedIn en matière de messages.

    Après que les chercheurs de Stanford ont alerté LinkedIn sur les profils, LinkedIn a déclaré avoir enquêté et supprimé ceux qui enfreignaient ses politiques, y compris les règles contre la création de faux profils ou la falsification d'informations. "Nos politiques indiquent clairement que chaque profil LinkedIn doit représenter une personne réelle. Nous mettons constamment à jour nos défenses techniques pour mieux identifier les faux profils et les supprimer de notre communauté, comme nous l'avons fait dans ce cas", a déclaré une porte-parole de LinkedIn.

    Un autre problème, c'est que les modèles d'IA s'effondrent lorsqu'ils sont formés sur des données générées récursivement, car ils seront empoisonnés par le contenu créé par l'IA. Des chercheurs de l'Université d'Oxford et de Cambridge soulignent que l'utilisation sans discernement de contenus générés par l'IA entraîne des défauts irréversibles, qui ont une incidence sur les performances et l'équité de la prédiction des modèles.

    Alors que les textes générés par l'IA prolifèrent en ligne, les chercheurs estiment qu'il est essentiel de garantir l'accès à des données humaines authentiques pour l'entraînement des futurs modèles d'IA et le maintien de l'intégrité des contenus en ligne.

    Et vous ?

    Cette exploitation IA en opt-in est elle mondiale ou seulement en test dans certains pays d'après votre expérience ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    L'impact de l'IA sur les chercheurs d'emploi : les CV sont analysés par des systèmes d'IA et les entretiens sont menés par des chatbots. Préférez-vous être recruté par une IA ?

    Des chercheurs mettent en garde contre un "effondrement du modèle" lorsque l'IA s'entraîne sur du contenu généré par l'IA, ils affirment que cela pourrait à terme éloigner l'IA de la réalité

    Une décision de justice US a légalisé la collecte des données publiques d'un site pour les utiliser dans ses activités. Certains sites veulent se protéger en y mettant des moyens techniques
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    lvr
    lvr est déconnecté
    Membre éclairé Avatar de lvr
    Profil pro
    Responsable de projet fonctionnel
    Inscrit en
    Avril 2006
    Messages
    913
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations professionnelles :
    Activité : Responsable de projet fonctionnel
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Avril 2006
    Messages : 913
    Par défaut
    Je n'ai pas trouvé l'option. Peut-être que cela ne vise que certains pays ou utilisateurs...

  3. #3
    Membre expérimenté

    Homme Profil pro
    Ingénieur logiciel embarqué
    Inscrit en
    Juillet 2002
    Messages
    403
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur logiciel embarqué
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juillet 2002
    Messages : 403
    Par défaut
    idem

  4. #4
    Expert confirmé

    Homme Profil pro
    Directeur des systèmes d'information
    Inscrit en
    Avril 2002
    Messages
    2 865
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 64
    Localisation : Luxembourg

    Informations professionnelles :
    Activité : Directeur des systèmes d'information
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2002
    Messages : 2 865
    Par défaut
    Peut être en test qu'aux USA pour l'instant. Si c'est de l'opt-in c'est pas légal en Europe.

  5. #5
    Membre du Club
    Homme Profil pro
    Ingénieur intégration/validation
    Inscrit en
    Septembre 2021
    Messages
    8
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur intégration/validation
    Secteur : Industrie

    Informations forums :
    Inscription : Septembre 2021
    Messages : 8
    Par défaut
    Idem.

    Citation Envoyé par lvr Voir le message
    Peut-être que cela ne vise que certains pays ou utilisateurs...
    Cela ne serait pas impossible.

    Affaire à suivre.

  6. #6
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 218
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 218
    Par défaut LinkedIn entraîne son IA avec les données des utilisateurs : voici comment vous désinscrire
    LinkedIn entraîne son IA avec les données des utilisateurs : voici comment vous désinscrire.
    LinkedIn confirme ne pas collecter les données des utilisateurs dans l'Espace Économique européen et en Suisse

    LinkedIn a récemment admis qu’il utilise les données des utilisateurs pour entraîner ses modèles d’intelligence artificielle (IA) sans leur consentement préalable. Cette pratique soulève des préoccupations majeures en matière de confidentialité et de protection des données personnelles.

    S'il est possible de se désinscrire, la plateforme précise : « le fait de vous désinscrire signifie que Linkedin et ses sociétés affiliées n'utiliseront pas vos données personnelles pour former des modèles à l'avenir. Mais cela n'affecte pas la formation qui a déjà eu lieu ». Concrètement, toutes les données qui ont déjà été utilisées par Linkedin pour son IA continueront à être utilisés par l'outil.


    Contexte

    LinkedIn semble suivre les traces d'autres plateformes de médias sociaux, en utilisant vos données personnelles pour former son IA.

    Mercredi, le réseau professionnel de Microsoft a publié une mise à jour « confiance et sécurité » dans laquelle Blake Lawit, vice-président senior et avocat général, a révélé l'utilisation par LinkedIn des publications et des données des utilisateurs pour la formation et le déploiement de ses outils d'IA générative.

    Dans son annonce, Lawit a indiqué que la politique de confidentialité de LinkedIn avait été mise à jour. La politique mise à jour, qui renvoie à une FAQ révisée, confirme également que les messages ont été automatiquement collectés pour l'entraînement à l'IA. Il semble que LinkedIn ait commencé à collecter du contenu pour ses modèles d'IA et ses utilisateurs bien avant que l'article de Lawit et la politique de confidentialité mise à jour ne rendent ces changements publics.

    Selon la FAQ, les fonctionnalités d'IA générative de LinkedIn peuvent utiliser des informations personnelles pour offrir des suggestions, comme vous aider à rédiger des messages lorsque vous y êtes invité. En outre, vos données seront utilisées pour former ces modèles d'IA, et si vous préférez ne pas participer, vous devrez vous désengager activement.

    Les utilisateurs de l'Union européenne, de l'Islande, de la Norvège, du Liechtenstein et de la Suisse ne sont pas inclus et ne seront pas ajoutés en raison des récents changements apportés aux lois sur la protection des données. La loi sur les marchés numériques (DMA) oblige certains des plus grands réseaux sociaux à se conformer à de nouvelles règles, ce qui permet aux gens d'utiliser les plateformes sans que leurs informations ne soient partagées.


    La situation

    LinkedIn a admis mercredi qu'il avait entraîné sa propre IA sur les données de nombreux utilisateurs sans demander leur consentement. Dans un blog détaillant les mises à jour à venir le 20 novembre, l'avocat général de LinkedIn, Blake Lawit, a confirmé que l'accord d'utilisation et la politique de confidentialité de LinkedIn seront modifiés pour mieux expliquer comment les données personnelles des utilisateurs alimentent l'IA sur la plateforme.

    Dans le cadre de la nouvelle politique de confidentialité, LinkedIn informe désormais les utilisateurs que « nous pouvons utiliser vos données personnelles [...] [pour] développer et former des modèles d'intelligence artificielle (IA), développer, fournir et personnaliser nos services, et acquérir des connaissances à l'aide de l'IA, de systèmes automatisés et d'inférences, afin que nos services puissent être plus pertinents et utiles pour vous et d'autres personnes. »

    Une FAQ explique que les données personnelles peuvent être collectées à chaque fois qu'un utilisateur interagit avec l'IA générative ou d'autres fonctionnalités d'IA, ainsi que lorsqu'un utilisateur compose un message, modifie ses préférences, fournit un retour d'information à LinkedIn ou utilise la plateforme pendant une durée quelconque. Ces données sont ensuite stockées jusqu'à ce que l'utilisateur supprime le contenu généré par l'IA. LinkedIn recommande aux utilisateurs d'utiliser son outil d'accès aux données s'ils souhaitent supprimer ou demander la suppression des données collectées sur les activités passées de LinkedIn.

    L'objectif

    Les modèles d'IA de LinkedIn qui alimentent les fonctions d'IA générative « peuvent être formés par LinkedIn ou un autre fournisseur », comme Microsoft, qui fournit certains modèles d'IA par l'intermédiaire de son service Azure OpenAI, précise la FAQ. Selon la FAQ de LinkedIn, un risque potentiellement important pour la vie privée des utilisateurs est que les utilisateurs qui « fournissent des données personnelles en entrée d'une fonction générative alimentée par l'IA » pourraient finir par voir leurs « données personnelles fournies en sortie ».

    LinkedIn affirme qu'il « cherche à minimiser les données personnelles dans les ensembles de données utilisés pour former les modèles », en s'appuyant sur des « technologies d'amélioration de la confidentialité pour expurger ou supprimer les données personnelles de l'ensemble de données de formation ».

    Le blog de Lawit ne précise pas si les données déjà collectées peuvent être supprimées des ensembles de données d'entraînement à l'IA, mais la FAQ affirme que les utilisateurs qui ont automatiquement accepté de partager leurs données personnelles pour l'entraînement à l'IA peuvent uniquement refuser la collecte de données invasive « à l'avenir ».

    Le fait de se retirer « n'affecte pas la formation qui a déjà eu lieu », précise la FAQ.

    Un porte-parole de LinkedIn a déclaré qu'il était « avantageux pour tous les membres » d'être inscrits à la formation à l'IA « par défaut » : « Les gens peuvent choisir de se retirer, mais ils viennent sur LinkedIn pour être trouvés pour des emplois et des réseaux, et l'IA générative fait partie de la façon dont nous aidons les professionnels dans ce changement », a déclaré le porte-parole de LinkedIn.

    En autorisant les opt-outs de la future formation à l'IA, le porte-parole de LinkedIn a en outre affirmé que la plateforme donnait « aux personnes utilisant LinkedIn encore plus de choix et de contrôle lorsqu'il s'agit de la façon dont nous utilisons les données pour former notre technologie d'IA générative ».

    Nom : link.png
Affichages : 7336
Taille : 523,4 Ko

    Comment se désengager de l'entraînement à l'IA sur LinkedIn

    Les utilisateurs peuvent se désengager de l'entraînement à l'IA en accédant à la section « Confidentialité des données » dans les paramètres de leur compte, puis en désactivant l'option permettant la collecte de « données pour l'amélioration de l'IA générative » que LinkedIn active par ailleurs automatiquement pour la plupart des utilisateurs.

    La seule exception concerne les utilisateurs de l'Espace économique européen ou de la Suisse, qui sont protégés par des lois plus strictes en matière de protection de la vie privée qui exigent soit le consentement des plateformes pour collecter des données personnelles, soit que les plateformes justifient la collecte de données en tant qu'intérêt légitime. Ces utilisateurs ne verront pas d'option de retrait, car ils n'ont jamais été autorisés à participer, a confirmé LinkedIn à plusieurs reprises.

    En outre, les utilisateurs peuvent « s'opposer à l'utilisation de leurs données personnelles pour la formation » de modèles d'IA génératifs non utilisés pour générer du contenu LinkedIn (tels que les modèles utilisés à des fins de personnalisation ou de modération de contenu) en soumettant le formulaire d'objection au traitement des données de LinkedIn.

    L'année dernière, LinkedIn a partagé les principes de l'IA, promettant de prendre « des mesures significatives pour réduire les risques potentiels de l'IA ». L'un des risques spécifiés dans l'accord d'utilisation mis à jour est que l'utilisation des fonctions génératives de LinkedIn pour aider à remplir un profil ou générer des suggestions lors de la rédaction d'un message pourrait générer un contenu qui « pourrait être inexact, incomplet, retardé, trompeur ou ne pas convenir à vos fins ».

    En octobre, LinkedIn a déclaré que l'intégration de l'IA était un outil pour les employés et les employeurs : « Pour les travailleurs, l'IA peut nous aider à faire le travail que nous aimons le plus - et pour lequel nous sommes les meilleurs - en y consacrant plus de temps. Pour les entreprises, l'IA peut aider les équipes à gérer plus facilement les tâches routinières tout en créant l'espace et le soutien nécessaires pour que les équipes puissent penser de manière plus créative. »

    Faites attention aux données que vous partagez avec notre IA

    Les utilisateurs sont informés qu'il leur incombe d'éviter de partager des informations trompeuses ou de diffuser du contenu généré par l'IA qui pourrait enfreindre les directives de la communauté de LinkedIn. Les utilisateurs sont également invités à faire preuve de prudence lorsqu'ils s'appuient sur des informations partagées sur la plateforme.

    « Comme tous les contenus et autres informations sur nos services, qu'ils soient ou non étiquetés comme étant créés par l'IA, assurez-vous de les examiner attentivement avant de vous y fier », indique l'accord d'utilisation de LinkedIn.

    En 2023, LinkedIn a affirmé qu'il chercherait toujours à « expliquer de manière claire et simple comment notre utilisation de l'IA a un impact sur les gens », car la « compréhension de l'IA par les utilisateurs commence par la transparence ».

    Des lois telles que la loi sur l'IA de l'Union européenne et le GDPR - en particulier avec ses fortes protections de la vie privée - si elles sont adoptées ailleurs, conduiraient à moins de chocs pour les utilisateurs qui ne se doutent de rien. Cela mettrait toutes les entreprises et leurs utilisateurs sur un pied d'égalité lorsqu'il s'agit d'entraîner des modèles d'IA, ce qui se traduirait par moins de mauvaises surprises et de clients mécontents.

    Formulaire d’opposition au traitement des données LinkedIn

    Sources : Aperçu des Conditions d'utilisation, principes de l'IA responsable de LinkedIn, FAQ sur LinkedIn et l'IA générative, politique de confidentialité

    Et vous ?

    Pensez-vous que les entreprises devraient obtenir un consentement explicite avant d’utiliser vos données personnelles pour entraîner des modèles d’IA ? Comment vous sentez-vous à l’idée que vos données passées puissent encore être utilisées même après vous être désinscrit ?
    LinkedIn a-t-il été suffisamment transparent sur l’utilisation de vos données pour l’entraînement de l’IA ? Quelles mesures supplémentaires aimeriez-vous voir mises en place pour protéger vos données personnelles sur les plateformes en ligne ?
    Quels sont, selon vous, les principaux risques liés à l’utilisation de vos données personnelles pour l’entraînement de l’IA ? Avez-vous déjà rencontré des situations où des informations personnelles ont été utilisées de manière inattendue par des plateformes en ligne ?
    Quelles alternatives proposeriez-vous pour permettre aux utilisateurs de mieux contrôler l’utilisation de leurs données personnelles ? Pensez-vous que des réglementations plus strictes devraient être mises en place pour encadrer l’utilisation des données personnelles par les entreprises technologiques ?
    Avez-vous déjà pris des mesures pour protéger vos données personnelles en ligne ? Si oui, lesquelles ? Partagez-vous vos données personnelles différemment selon les plateformes que vous utilisez ? Pourquoi ou pourquoi pas ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  7. #7
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 218
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 218
    Par défaut LinkedIn poursuivie pour avoir entraîné des modèles d'IA avec des messages privés sans consentement
    LinkedIn de Microsoft est poursuivie pour avoir prétendument entraîné des modèles d'IA avec des messages privés sans consentement,
    la fonctionnalité était activée par défaut et n'aurait pas été communiquée dans les normes

    Des clients de LinkedIn Premium poursuivent la plateforme de médias sociaux, alléguant qu'elle a partagé leurs messages privés avec des tiers sans leur consentement afin d'entraîner des modèles d'intelligence artificielle. En août dernier, LinkedIn a « ostensiblement » offert aux utilisateurs la possibilité d'activer une nouvelle fonction de confidentialité déterminant si leurs données personnelles pouvaient être partagées, mais a activé les autorisations par défaut, selon la proposition de recours collectif, déposée auprès d'un tribunal fédéral californien. La modification n'a pas été communiquée dans les conditions de service ou la politique de confidentialité du géant des médias sociaux avant qu'elle ne soit effectuée. LinkedIn, dont le siège se trouve dans la Silicon Valley, appartient à Microsoft.

    Contexte

    En septembre, le réseau professionnel de Microsoft a publié une mise à jour « confiance et sécurité » dans laquelle Blake Lawit, vice-président senior et avocat général, a révélé l'utilisation par LinkedIn des publications et des données des utilisateurs pour la formation et le déploiement de ses outils d'IA générative.

    Dans son annonce, Lawit a indiqué que la politique de confidentialité de LinkedIn avait été mise à jour. La politique mise à jour, qui renvoie à une FAQ révisée, confirme également que les messages ont été automatiquement collectés pour l'entraînement à l'IA. Il semble que LinkedIn ait commencé à collecter du contenu pour ses modèles d'IA et ses utilisateurs bien avant que l'article de Lawit et la politique de confidentialité mise à jour ne rendent ces changements publics.

    Selon la FAQ, les fonctionnalités d'IA générative de LinkedIn peuvent utiliser des informations personnelles pour offrir des suggestions, comme vous aider à rédiger des messages lorsque vous y êtes invité. En outre, vos données seront utilisées pour former ces modèles d'IA, et si vous préférez ne pas participer, vous devrez vous désengager activement.

    Les utilisateurs de l'Union européenne, de l'Islande, de la Norvège, du Liechtenstein et de la Suisse ne sont pas inclus et ne seront pas ajoutés en raison des récents changements apportés aux lois sur la protection des données. La loi sur les marchés numériques (DMA) oblige certains des plus grands réseaux sociaux à se conformer à de nouvelles règles, ce qui permet aux gens d'utiliser les plateformes sans que leurs informations ne soient partagées.

    S'il est possible de se désinscrire, la plateforme a précisé : « le fait de vous désinscrire signifie que Linkedin et ses sociétés affiliées n'utiliseront pas vos données personnelles pour former des modèles à l'avenir. Mais cela n'affecte pas la formation qui a déjà eu lieu ». Concrètement, toutes les données qui ont déjà été utilisées par Linkedin pour son IA continueront à être utilisés par l'outil.


    Les accusations contre LinkedIn

    Selon une proposition de recours collectif déposée au nom de millions de clients LinkedIn Premium, LinkedIn a discrètement introduit un paramètre de confidentialité en août dernier qui permettait aux utilisateurs d'activer ou de désactiver le partage de leurs données personnelles.

    Après que des articles de presse ont révélé que le paramètre était activé par défaut, les clients ont fait beaucoup de bruit sur les réseaux sociaux, ce qui a incité LinkedIn à mettre à jour sa politique de confidentialité en informant ses clients de cette pratique.

    Cependant, selon la plainte, la société a « dissimulé une information cruciale » dans une foire aux questions (FAQ) accessible par un lien hypertexte dans la politique de confidentialité, selon la plainte, indiquant que les messages des utilisateurs pouvaient également être utilisés pour former des modèles d'intelligence artificielle par un fournisseur tiers non nommé, potentiellement en dehors de Microsoft.

    Cette divulgation, qui n'aurait été faite que dans la FAQ, suggère que LinkedIn était « conscient que ses conditions précédentes n'autorisaient pas ces pratiques et tentait d'éviter un examen plus approfondi », selon l'action en justice. Les utilisateurs ne peuvent accéder à la page de la FAQ contenant cette information qu'en lisant la politique de confidentialité et en cliquant sur un lien, selon l'action en justice.

    LinkedIn ayant également reconnu que les données des utilisateurs étaient partagées avec des tiers « affiliés » au sein de sa « structure d'entreprise », l'action en justice soutient que les messages privés des utilisateurs pourraient alimenter d'autres modèles d'intelligence artificielle de Microsoft.

    LinkedIn a également indiqué dans la FAQ que l'entraînement du modèle d'IA qui avait déjà été alimenté par les messages des utilisateurs ne pouvait pas être inversé, selon l'action en justice.

    La plateforme « abandonne le jeu avec cette déclaration - elle indique que les informations personnelles des utilisateurs de LinkedIn sont déjà intégrées dans des modèles d'IA génératifs et ne seront pas supprimées, qu'ils choisissent ou non de ne pas les divulguer à l'avenir », affirme la plainte.

    Cette tentative de « brouiller les pistes » suggère que LinkedIn était parfaitement conscient qu'il violait la vie privée de ses clients et sa promesse de n'utiliser les données personnelles que pour soutenir et améliorer sa plateforme, afin de minimiser l'attention du public et les retombées juridiques, selon la plainte.

    L'entreprise accusée d'avoir cherché à brouiller les pistes

    Ci-dessous un extrait de la plainte

    LinkedIn a été dénoncé pour avoir divulgué des données d'utilisateurs à des tiers afin d'entraîner des modèles d'IA génératifs, puis a tenté de brouiller les pistes

    LinkedIn propose des services gratuits et des services « Premium » (payants). Tous les utilisateurs doivent accepter le contrat d'utilisation et la politique de confidentialité lorsqu'ils ouvrent un compte. Les clients Premium acceptent des conditions supplémentaires, y compris des protections accrues de la vie privée, qui sont détaillées ci-dessous.

    En août 2024, LinkedIn a discrètement introduit un nouveau paramètre de confidentialité dans son menu de paramètres (illustré ci-dessous), qui permettait ostensiblement aux utilisateurs d'activer ou de désactiver le partage de leurs données personnelles à des fins d'entraînement de modèles d'IA générative.

    Nom : linkedIn.png
Affichages : 3954
Taille : 80,3 Ko

    Ce paramètre était activé par défaut, optant automatiquement pour un programme qui permettait à LinkedIn et à ses « affiliés » d'entraîner des modèles d'IA génératifs avec les données personnelles des utilisateurs.

    Le 18 septembre 2024, de nombreux médias ont fait état de ce nouveau paramètre de confidentialité et ont interrogé un porte-parole de LinkedIn sur les raisons pour lesquelles LinkedIn n'avait pas divulgué son partage des données personnelles des utilisateurs pour la formation à l'IA générative dans ses conditions de service. LinkedIn a répondu par une déclaration : « Nous partagerons prochainement avec nos membres une mise à jour de nos conditions d'utilisation. »

    Le même jour, le 18 septembre 2024, LinkedIn a discrètement mis à jour sa politique de confidentialité, en ajoutant une description de son traitement des données des utilisateurs à des fins d'IA générative.

    Les modifications apportées par le défendeur semblent reconnaître que la divulgation des données des utilisateurs a dépassé la portée de son consentement initial au traitement des données des utilisateurs, comme en témoignent les modifications indiquées ci-dessous en tant que changements suivis :

    Nom : deux.png
Affichages : 534
Taille : 49,2 Ko

    Plus particulièrement, LinkedIn a caché une information cruciale dans un hyperlien « FAQ » (en italique ci-dessus) plutôt que dans la politique de confidentialité : « Les modèles d'intelligence artificielle que LinkedIn utilise pour alimenter les fonctions d'IA générative peuvent être formés par LinkedIn ou un autre fournisseur » (accentuation ajoutée). Le fait d'admettre que les données peuvent être divulguées à « un autre fournisseur » dans ce document secondaire suggère que LinkedIn était conscient que ses conditions précédentes n'autorisaient pas ces pratiques et qu'il tentait d'éviter un examen plus approfondi.

    En outre, la FAQ précise : « Le retrait signifie que LinkedIn et ses affiliés n'utiliseront pas vos données personnelles ou le contenu de LinkedIn pour former des modèles à l'avenir, mais n'affecte pas la formation qui a déjà eu lieu. » LinkedIn abandonne la partie avec cette déclaration - elle indique que les informations personnelles des utilisateurs de LinkedIn sont déjà intégrées dans les modèles d'IA générative et ne seront pas supprimées, qu'ils se désistent ou non des divulgations futures.

    Cette modification de sa politique de confidentialité viole également la promesse de LinkedIn de ne pas mettre à jour les termes de sa politique de confidentialité sans d'abord notifier les utilisateurs du changement imminent et leur donner la possibilité d'annuler leur compte s'ils s'y opposent[...].

    Dans un nouveau tour de passe-passe, LinkedIn a discrètement modifié une déclaration dans la FAQ susmentionnée. La version précédente de la FAQ indiquait : « Lorsque LinkedIn entraîne des modèles d'IA générative, nous cherchons à minimiser les données personnelles dans les ensembles de données utilisés pour entraîner les modèles, y compris en utilisant des technologies d'amélioration de la confidentialité pour expurger ou supprimer les données personnelles de l'ensemble de données d'entraînement. »

    Le 1er octobre 2024 ou autour de cette date, LinkedIn a supprimé les mots « y compris en utilisant des technologies d'amélioration de la confidentialité pour expurger ou supprimer les données personnelles de l'ensemble de données d'entraînement ». En d'autres termes, LinkedIn n'entreprend pas réellement les actions de protection de la vie privée qu'il a promis aux utilisateurs de mettre en œuvre après avoir divulgué illégalement leurs données personnelles pour entraîner des modèles d'IA générative.

    Les actions de LinkedIn, y compris l'introduction discrète d'un nouveau paramètre de confidentialité, la dissimulation de données critiques et la modification furtive de ses politiques et déclarations de confidentialité, indiquent une tendance à tenter de brouiller les pistes. Ce comportement suggère que LinkedIn était pleinement conscient qu'il avait violé ses promesses contractuelles et ses normes de confidentialité et qu'il cherchait à minimiser l'attention du public et les répercussions juridiques potentielles.

    LinkedIn : « Il s'agit de fausses allégations sans fondement »

    La plainte a été déposée devant le tribunal fédéral de San Jose, en Californie, au nom des clients de LinkedIn Premium qui ont envoyé ou reçu des messages InMail et dont les informations privées ont été divulguées à des tiers à des fins d'entraînement à l'IA avant le 18 septembre.

    Elle demande des dommages-intérêts non spécifiés pour rupture de contrat et violation de la loi californienne sur la concurrence déloyale, ainsi que 1 000 dollars par personne pour violation de la loi fédérale sur les communications stockées (Stored Communications Act).

    LinkedIn a déclaré dans un communiqué : « Il s'agit de fausses allégations sans fondement ».

    Le dilemme : innovation contre vie privée

    La controverse met en lumière une problématique clé dans le développement de l'intelligence artificielle : comment concilier les besoins croissants en données des entreprises technologiques avec le droit des individus à la vie privée ? Les modèles d'IA, notamment ceux utilisés pour des outils comme ChatGPT ou Copilot, dépendent d'énormes volumes de données pour être performants. Cependant, les moyens de collecte et d'utilisation de ces données font de plus en plus l'objet d'un examen minutieux.

    Dans le cas de LinkedIn, l'utilisation des données des utilisateurs pour entraîner des IA pourrait être perçue comme une innovation bénéfique, notamment pour développer des outils de recommandation d'emploi ou des analyses avancées pour les recruteurs. Mais sans consentement explicite et transparent, ces pratiques pourraient éroder la confiance des utilisateurs envers la plateforme.

    Si les accusations sont confirmées, LinkedIn pourrait faire face à de lourdes sanctions financières et à une perte significative de crédibilité. En outre, cette affaire pourrait renforcer les appels à une réglementation plus stricte sur l'utilisation des données personnelles pour l'entraînement de modèles d'IA. Des précédents comme l'amende record infligée à Meta par l'Union européenne démontrent que les régulateurs sont prêts à agir fermement contre les entreprises technologiques.

    Source : plainte

    Et vous ?

    Que pensez-vous de cette plainte ? La trouvez-vous crédible ou pertinente ?

    Les utilisateurs peuvent-ils réellement donner un consentement éclairé si les plateformes ne détaillent pas explicitement l’usage des données dans des contextes tels que l’entraînement de modèles d’IA ?

    Où se situe la limite entre l’innovation technologique et la violation de la vie privée ?

    L’entraînement des modèles d’IA sur des données publiques est-il acceptable si ces données sont collectées sans permission explicite ?

    Les réglementations actuelles, comme le RGPD ou la CCPA, sont-elles suffisamment strictes pour encadrer l’utilisation des données personnelles dans l’IA ?

    Quelles pourraient être les implications juridiques de cette affaire pour d’autres entreprises technologiques ?

    Les lois devraient-elles être adaptées pour mieux encadrer l’entraînement des modèles d’IA sur des bases de données contenant des informations personnelles ?
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Utiliser des fonctions contenues dans un fichier .bas
    Par usbeck dans le forum Visual C++
    Réponses: 4
    Dernier message: 11/08/2006, 13h03
  2. Lister le contenu de tous les répertoires sauf 1
    Par Longrais dans le forum Shell et commandes GNU
    Réponses: 1
    Dernier message: 04/04/2006, 17h00
  3. [VBA] utiliser une macro contenue dans un autre classeur
    Par laloune dans le forum Macros et VBA Excel
    Réponses: 20
    Dernier message: 01/02/2006, 19h46
  4. Perdu dans tous ces framework, mvc, et template
    Par __fabrice dans le forum Bibliothèques et frameworks
    Réponses: 6
    Dernier message: 02/09/2005, 13h00
  5. je m'y perd un peu dans tous ces plugin
    Par Stessy dans le forum Eclipse Java
    Réponses: 7
    Dernier message: 01/10/2003, 00h33

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo