Les entreprises de neurotechnologie vendent des données sur le cerveau,
avertissent des sénateurs
Les technologies d’interface cerveau-ordinateur (BCI), autrefois cantonnées à la science-fiction, sont désormais une réalité commerciale. Des casques de méditation aux implants cérébraux comme le Neuralink d’Elon Musk, ces dispositifs captent des données neurales pouvant révéler les pensées, émotions et états mentaux des utilisateurs. Face à cette avancée, trois sénateurs démocrates – Chuck Schumer, Maria Cantwell et Ed Markey – ont interpellé la FTC (Federal Trade Commission) pour exiger une réglementation plus stricte. Leur inquiétude ? Que ces informations ultra-sensibles, souvent collectées sans transparence ni consentement éclairé, soient vendues à des tiers ou exploitées à des fins commerciales ou politiques.
Pourtant, malgré les mises en garde, le secteur reste largement non régulé, en particulier pour les neurotechnologies de « bien-être », échappant aux cadres médicaux comme la loi HIPAA. Une enquête de la Neurorights Foundation révèle que la majorité des entreprises étudiées partagent ces données sans contrôle, et que les utilisateurs n’ont souvent aucun moyen de les supprimer. Si quelques États, comme le Colorado et la Californie, ont commencé à légiférer, la situation reste alarmante : comment protéger ce qui constitue l’ultime frontière de l’intimité humaine ? Les critiques dénoncent une hypocrisie systémique – où l’on s’émeut des fuites de données ADN tout en laissant les neurotechnologies prospérer dans un flou juridique. Entre promesses thérapeutiques et risques de surveillance cérébrale, un dilemme se pose : jusqu’où laisser le marché définir les limites de notre vie privée neuronale ?
Le cerveau humain se distingue de tous les autres organes par sa capacité à générer nos processus mentaux et cognitifs. Les données qu’il produit sont uniques, car elles traduisent directement notre activité mentale. Les données neurales, informations reflétant l’activité du système nerveux central et périphérique, peuvent révéler des détails hautement sensibles sur les individus concernés, tels que leur état de santé mentale ou physique, voire leur fonctionnement cognitif.
À l’avenir, la sensibilité de ces données s’accroîtra encore, sous l’effet des investissements croissants du secteur privé, des gouvernements et d’autres initiatives. Les progrès technologiques amélioreront la résolution des scanners cérébraux et permettront de collecter des jeux de données plus vastes, tandis que l’intelligence artificielle générative facilitera leur décodage précis.
Déjà, les neurotechnologies implantables parviennent à interpréter avec précision le langage et les émotions in situ, et les dispositifs portables commencent à intégrer ces fonctionnalités. Ces avancées soulèvent d’importantes questions en matière de protection de la vie privée, mettant en lumière la nécessité urgente d’évaluer les pratiques des entreprises de neurotechnologie et les garanties offertes aux utilisateurs.
La lettre s’appuie sur un rapport 2024 de la Neurorights Foundation, révélant que la majorité des entreprises de neurotechnologie imposent peu de restrictions sur l’utilisation des données utilisateurs et conservent la possibilité de partager ces informations sensibles avec des tiers. L’étude a analysé les politiques de confidentialité de 30 entreprises proposant des interfaces cerveau-ordinateur (ICB) grand public. Résultat : toutes sauf une disposaient d’un accès aux données neurales des utilisateurs sans cadre strict, selon la formulation du rapport.Envoyé par Democratic senators
Analyse des pratiques des entreprises de neurotechnologie en matière de données neurales
Le rapport examine cinq domaines clés concernant les produits de neurotechnologie destinés aux consommateurs : l'accès à l'information, la collecte et le stockage des données, le partage des données, les droits des utilisateurs, ainsi que la sécurité et la protection des données. Les résultats révèlent un écart alarmant entre les standards internationaux et les pratiques réelles des entreprises du secteur.
L'étude démontre que 29 des 30 entreprises analysées (96,67 %) ont accès aux données neurales des utilisateurs sans mettre en place de limitations significatives. Cette situation est d'autant plus préoccupante que les consommateurs ne bénéficient pas d'une information adéquate concernant l'utilisation de leurs données. Seulement 22 entreprises sur 30 (73,33 %) disposent d'une politique de confidentialité accessible en ligne, et un tiers d'entre elles seulement s'engagent à informer les utilisateurs en cas de modification de leurs pratiques. Plus inquiétant encore, seulement 4 entreprises remplissent l'ensemble des critères de transparence.
La nature même des données neurales semble mal comprise par les entreprises. Seulement 43,33 % mentionnent explicitement ces données dans leurs politiques, tandis que 60 % ne fournissent aucune information claire sur leur gestion. Les pratiques de collecte et de conservation restent tout aussi opaques, avec seulement 13,3 % des entreprises évoquant une minimisation des données collectées et moins de 7 % abordant conjointement la minimisation, la conservation et la nature neurale des données.
Le partage des données avec des tiers apparaît comme une pratique quasi-généralisée, avec 96,67 % des entreprises y ayant potentiellement recours. La question de la vente des données reste particulièrement floue, 80% des entreprises ne se prononçant pas explicitement sur ce point. Les droits des utilisateurs sont inégalement appliqués, avec seulement 40% des entreprises accordant à la fois le droit de retrait du consentement et le droit à la suppression des données.
En matière de sécurité, les mesures semblent gravement insuffisantes. Si 56,67 % des entreprises évoquent l'anonymisation des données, aucune n'en explique les limites techniques. Le chiffrement n'est mentionné que par 20 % des entreprises, et seules 3 sur 30 (10 %) mettent en œuvre l'ensemble des mesures de sécurité analysées. Ces lacunes posent des questions fondamentales sur la capacité du secteur à protéger ces données particulièrement sensibles que sont les données neurales.
La FTC sommée d'agir face au pillage des données neuronales
L'étude menée par la Neurorights Foundation révèle une situation alarmante : aucune des entreprises examinées ne propose aux utilisateurs la possibilité de s'opposer au partage de leurs données neurologiques avec des tiers. Le rapport montre que seule une légère majorité des 30 entreprises étudiées autorise les consommateurs à retirer leur consentement au traitement des données, tandis qu'à peine 14 d'entre elles (soit moins de la moitié) permettent la suppression des données. Fait particulièrement inquiétant, ces droits ne sont pas toujours universels ; certaines entreprises les réservent exclusivement aux utilisateurs de l'Union européenne, créant ainsi une discrimination inacceptable dans la protection des données à l'échelle mondiale.
L’émergence des interfaces cerveau-ordinateur dans le domaine commercial soulève des enjeux bien plus profonds qu’une simple question de régulation technique. Derrière les promesses thérapeutiques ou d’amélioration cognitive se cache une privatisation inquiétante de l’intimité cérébrale, où les données neurales, reflet de nos pensées et émotions, deviennent une marchandise comme une autre. L’interpellation des sénateurs démocrates à la FTC, bien que nécessaire, révèle surtout l’hypocrisie d’un système qui tolère un far west neurotechnologique, alors même que les dérives sont prévisibles.
L’absence de cadre réglementaire spécifique permet aux entreprises d’opérer en toute opacité : partage de données avec des tiers, politiques de consentement obscures, impossibilité pour les utilisateurs de reprendre le contrôle de leurs informations. Le parallèle avec les scandales des données ADN est frappant – sauf qu’ici, ce n’est plus notre patrimoine génétique qui est en jeu, mais l’accès direct à notre fonctionnement mental. Que des États comme la Californie tentent de combler ce vide ne suffit pas : une régulation fédérale urgente s’impose, avant que des acteurs comme Neuralink ne transforment les cerveaux en data centers exploitables.
Les dangers vont bien au-delà des fuites de données. On devine aisément comment ces technologies pourraient servir :
- Manipulation politique (ciblage électoral basé sur les émotions) ;
- Discrimination (employeurs ou assureurs analysant les tendances cognitives) ;
- Surveillance d’État (sous couvert de sécurité nationale).
Certains commentaires pointent justement le paradoxe d’une classe politique soudainement soucieuse de neuroprotection… tout en fermant les yeux sur les conflits d’intérêts évidents. Quand des entreprises offrent des participations au capital pour contourner les objections éthiques, ou que des lois diffèrent selon la géolocalisation des utilisateurs, la neuro-justice devient sélective.
La question n’est pas de freiner l’innovation, mais d’empêcher que notre vie intérieure ne soit monétisée ou weaponisée. Les neurotechnologies exigent :
- Des garde-fous légaux clairs : application du principe de neural privacy by design, interdiction des usages secondaires (IA, marketing).
- Une transparence radicale : audits indépendants, consentement explicite, droit à l’effacement inconditionnel.
- Une mobilisation citoyenne : ces enjeux concernent l’essence même de l’autonomie humaine – ils ne peuvent être abandonnés aux seuls lobbys technologiques.
En refusant de traiter ce sujet comme une priorité, les régulateurs prennent le risque de laisser s’installer une nouvelle forme de colonialisme cérébral. Comme le soulignent avec ironie certains, il est plus que temps de se demander qui, exactement, a intérêt à savoir ce que nous pensons vraiment – et surtout, ce qu’ils comptent en faire.
Source : Democratic senators in a letter to FTC
Et vous ?
La loi HIPAA protège les données médicales, mais pourquoi les neurotechnologies de "bien-être" y échappent-elles ? S’agit-il d’un vide juridique volontaire ?
Les données neurales pourraient être utilisées pour du ciblage politique ou publicitaire : cela ne menace-t-il pas la démocratie ?
Les citoyens devraient-ils avoir un droit de propriété sur leurs propres données cérébrales, comme le propose le mouvement "neurorights" ?
Voir aussi :
Une interface cérébrale exprime vos pensées en temps quasi réel : un modèle basé sur l'IA produit un discours intelligible en décodant en temps réel l'activité électrique du cortex sensorimoteur du cerveau
Neuralink implante une troisième puce cérébrale. L'entreprise prévoit d'en implanter « 20 ou 30 » cette année et éventuellement, des dispositifs de vision artificielle pour aveugle, malgré les préoccupations
Partager