La présidente et le vice-président de Signal avertissent que l'IA agentique est peu sûre, peu fiable et constitue un cauchemar de surveillance, soulignant les risques profonds pour la sécurité et la vie privée

Les dirigeants de Signal avertissent que l'essor rapide de l'intelligence artificielle (IA) agentique pourrait entraîner de graves risques en matière de sécurité, de fiabilité et de confidentialité. Meredith Whittaker, la présidente, et Joshua Lund, le vice-président de l'ingénierie, affirment que ces systèmes autonomes, conçus pour agir au nom des utilisateurs, nécessitent un accès approfondi aux appareils et aux données personnelles, créant ainsi de nouvelles vulnérabilités et soulevant des préoccupations en matière de surveillance à grande échelle. Ils exhortent l'industrie à mettre en place des mesures de protection plus strictes, à garantir la transparence et à effectuer des tests rigoureux avant tout déploiement à grande échelle.

Dans le contexte de l'intelligence artificielle générative, les agents IA (également appelés systèmes IA composites ou IA agentique) sont une catégorie d'agents intelligents qui se distinguent par leur capacité à fonctionner de manière autonome dans des environnements complexes. Les outils d'IA agentique privilégient la prise de décision plutôt que la création de contenu et ne nécessitent pas d'intervention humaine ni de supervision continue.

La prise de position de Signal intervient alors que l’IA agentique progresse rapidement dans les produits grand public, introduisant de nouveaux risques en matière de sécurité et de confidentialité. En décembre dernier, Google a reconnu les risques engendrés par l'intégration de l'agent IA Gemini dans Chrome, estimant qu'un second modèle IA est nécessaire pour surveiller le premier. Pensé à terme comme un « navigateur-agent » capable de remplir des formulaires, de naviguer et d'exécuter des actions complexes de manière autonome, Chrome a changé de nature. Cette mutation soulève désormais des questions structurelles relatives au contrôle des accès, à la protection des données et à la fiabilité des systèmes agissant au nom de l’utilisateur.

La Signal Technology Foundation, plus connue sous le nom de Signal Foundation, est une organisation américaine à but non lucratif fondée en 2018 par Moxie Marlinspike et Brian Acton. Sa mission est de « protéger la liberté d'expression et permettre une communication mondiale sécurisée grâce à une technologie open source de protection de la vie privée ». Sa filiale, Signal Messenger LLC, est chargée du développement de l'application de messagerie Signal et du protocole Signal.

Meredith Whittaker est présidente de la Signal Foundation et siège à son conseil d'administration. Elle était auparavant professeure de recherche Minderoo à l'université de New York (NYU), conseillère en chef, ancienne directrice et cofondatrice de l'AI Now Institute. Elle a également occupé le poste de conseillère principale en matière d'IA auprès de la présidente Lina Khan à la Commission fédérale du commerce et a été classée parmi les 100 personnes les plus influentes dans le domaine de l'IA par le magazine TIME en 2023. Meredith Whittaker a travaillé chez Google pendant 13 ans, où elle a fondé le groupe Open Research de Google et cofondé le M-Lab. En 2018, elle a été l'une des principales organisatrices des grèves chez Google et a démissionné de l'entreprise en juillet 2019. En juillet 2025, elle a rejoint le conseil d'administration de la société de médias allemande Hubert Burda Media.

Nom : meredith whittaker.PNG
Affichages : 5044
Taille : 192,1 Ko

Dans le monde en rapide évolution de l'IA, une nouvelle génération de technologie connue sous le nom d'IA agentique captive l'imagination des développeurs et des consommateurs. Ces systèmes, conçus pour agir de manière indépendante au nom des utilisateurs — réserver des vols, gérer des courriels, ou même négocier des contrats — promettent un avenir d'automatisation sans faille. Mais les récents avertissements des dirigeants de Signal, l'application de messagerie chiffrée réputée pour son accent sur la vie privée, dressent un tableau radicalement différent. La présidente de Signal, Meredith Whittaker, et le vice-président de l'ingénierie, Joshua Lund, ont lancé un appel solennel, soulignant des risques profonds qui pourraient compromettre la sécurité, la fiabilité et la vie privée personnelle à une échelle massive.

Leurs préoccupations découlent de l'architecture fondamentale de l'IA agentique, qui nécessite souvent une intégration profonde dans les systèmes d'exploitation et l'accès à de vastes quantités de données personnelles. Dans une récente interview, Meredith Whittaker a déclaré que ces agents étaient susceptibles de créer des « bases de données stockant des vies numériques entières », qui deviendraient alors des cibles de choix pour les logiciels malveillants et les accès non autorisés. Il ne s'agit pas là d'une simple spéculation, mais d'une réalité qui trouve son origine dans la manière dont ces systèmes d'IA sont déployés, souvent sans le consentement explicite des utilisateurs, s'intégrant au cœur même des appareils et des plateformes.

Lund a fait écho à ces sentiments, soulignant le manque de fiabilité des tâches en plusieurs étapes effectuées par ces agents. Chaque action d'une chaîne peut introduire des erreurs, entraînant des défaillances en cascade qui non seulement frustrent les utilisateurs, mais ouvrent également la porte à des abus. Alors que les entreprises d'IA se précipitent pour intégrer ces capacités dans les outils quotidiens, les dirigeants de Signal affirment que le secteur doit faire une pause et réévaluer la situation avant que des dommages irréversibles ne se produisent.

Exposer les vulnérabilités de sécurité

Le problème central, tel qu'exposé par Meredith Whittaker et Joshua Lund, tourne autour du niveau d'accès sans précédent que ces agents exigent. Contrairement aux applications traditionnelles qui fonctionnent en silos, l'IA agentique recherche des privilèges « root », brouillant les frontières entre les applications et le système d'exploitation sous-jacent. Cette intégration, bien qu'offrant des fonctionnalités puissantes, expose les utilisateurs à de nouvelles menaces. Les logiciels malveillants pourraient exploiter ces voies d'accès pour extraire des informations sensibles, des dossiers financiers aux communications privées, toutes stockées dans des bases de données centralisées que Whittaker prévient être « accessibles aux logiciels malveillants ».

Des incidents récents soulignent cette vulnérabilité. Au quatrième trimestre 2025, des rapports faisant état d'attaques menées par des agents IA ont fait surface, élargissant ainsi la surface d'attaque pour les cybercriminels. Ces événements impliquaient des agents manipulés pour effectuer des actions non autorisées, soulignant ainsi comment l'autonomie peut se retourner contre son auteur. Meredith Whittaker s'exprime ouvertement à ce sujet depuis des mois, ayant précédemment déclaré lors de la conférence SXSW que l'IA agentique posait des problèmes « profonds » en matière de sécurité et de confidentialité.

De plus, le facteur fiabilité ne peut être surestimé. Joshua Lund souligne que si les tâches simples peuvent être accomplies avec succès, les séquences complexes échouent souvent, les taux d'erreur s'accumulant à chaque étape. Il ne s'agit pas seulement d'un inconvénient : dans des domaines critiques tels que la santé ou la finance, un tel manque de fiabilité pourrait entraîner des dommages réels. Les dirigeants de Signal recommandent vivement de ralentir le déploiement et préconisent des tests rigoureux et des stratégies d'atténuation avant que ces systèmes ne deviennent omniprésents.


Atteinte à la vie privée et risques liés à la surveillance

Au-delà de la sécurité, les implications en matière de surveillance sont tout aussi alarmantes. L'IA agentique, de par sa conception, agrège et analyse de vastes quantités de données personnelles pour fonctionner efficacement. Meredith Whittaker décrit cela comme un « cauchemar en matière de surveillance », où l'intégralité de l'existence numérique des utilisateurs est compilée dans des profils qui pourraient être exploités par des gouvernements, des entreprises ou des pirates informatiques. Dans une interview en novembre 2025, elle a qualifié les agents IA de « menace existentielle » pour les applications de messagerie sécurisée, avertissant que les consommateurs et les entreprises sont terriblement mal préparés.

Cette préoccupation s'aligne sur des sentiments plus larges au sein de l'industrie. Des publications sur X provenant d'influenceurs technologiques et d'experts en cybersécurité reflètent une inquiétude croissante, beaucoup faisant écho aux craintes de Meredith Whittaker concernant l'accès excessif des agents IA aux informations personnelles. Certaines discussions soulignent comment ces systèmes pourraient involontairement permettre une surveillance de masse, en particulier lorsqu'ils sont intégrés aux systèmes d'exploitation sans option de désactivation. Whittaker a constamment soutenu que sans transparence ni contrôle utilisateur, ces agents érodent les fondements de la confidentialité que des applications comme Signal s'efforcent de protéger.

Plusieurs observateurs ont saisi cette urgence, notant les avertissements de Meredith Whittaker concernant les failles de sécurité massives créées par l'intégration de l'IA au niveau du système d'exploitation. Elle souligne que l'enregistrement par défaut des utilisateurs aggrave le problème, transformant les appareils personnels en outils de surveillance potentiels. Il ne s'agit pas d'une hypothèse : les organismes de réglementation en prennent note, le National Institute of Standards and Technology (NIST) ayant récemment sollicité des informations sur les risques liés à l'IA agentique par le biais d'une demande d'informations.

Réponses de l'industrie et appels à l'action

Le secteur technologique n'a cessé de promouvoir l'IA agentielle, poussé par le battage médiatique et les investissements. Cependant, les dirigeants de Signal ne sont pas les seuls à émettre des critiques. Les observateurs ont débattu de la question de savoir si les avertissements de Whittaker représentaient de véritables menaces ou s'ils visaient à semer la panique, les utilisateurs soulignant l'émergence de nouveaux vecteurs d'attaque, comme le montre Reddit. Les experts affirment que si l'IA n'est pas intrinsèquement malveillante, sa mise en œuvre manque souvent de garanties solides, ce qui amplifie les failles de sécurité existantes sur Internet.

En réponse, Meredith Whittaker et Joshua Lund proposent des mesures concrètes pour atténuer ces risques. Ils préconisent de faire du refus l'option par défaut, d'exiger que les développeurs donnent explicitement leur accord et d'imposer une transparence totale aux entreprises spécialisées dans l'IA. Cela inclut des informations vérifiables sur le fonctionnement des agents, afin de garantir que les utilisateurs comprennent et contrôlent les flux de données. Sans ces mesures, préviennent-ils, la confiance des consommateurs dans l'IA pourrait s'évaporer, compromettant l'avenir de cette technologie. Ce point a été souligné par plusieurs articles, dans lesquels Whittaker a précisé que les principes de « sécurité dès la conception » sont absents de l'IA agentique.

De plus, le Centre pour les normes et l'innovation en matière d'IA du NIST recherche activement les meilleures pratiques, comme le rapporte FedScoop, ce qui témoigne d'une prise de conscience croissante de ces questions au niveau gouvernemental. Cela va dans le sens de l'appel lancé par Whittaker à l'industrie pour qu'elle « prenne du recul » jusqu'à ce que les menaces soient traitées, afin d'éviter un scénario dans lequel l'IA agentique deviendrait synonyme d'insécurité.

Alors que Signal met en garde contre les dérives potentielles de l’IA agentique, l’entreprise renforce parallèlement son propre socle technologique. L'application a récemment présenté un protocole de chiffrement post-quantique, baptisé Sparse Post-Quantum Ratchet (SPQR), destiné à préserver la confidentialité persistante des échanges et la sécurité post-compromission. Cette initiative s’inscrit dans une anticipation des menaces liées au calcul quantique, susceptible de fragiliser les algorithmes de chiffrement actuels, et illustre l’approche prudente de Signal face à l’automatisation avancée.

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous les mises en garde émises par les dirigeants de Signal crédibles ou pertinentes ?

Voir aussi :

L'essor des agents IA transforme la manière dont les logiciels peuvent être développés : une étude affirme que les développeurs de logiciels professionnels ne vibe codent pas, ils contrôlent

L'IA agentique va dominer l'augmentation des budgets informatiques au cours des 5 prochaines années, dépassant 26 % des dépenses informatiques mondiales et atteignant 1 300 milliards de $ en 2029, d'après IDC

Microsoft admet que les agents IA peuvent avoir des hallucinations et être victimes d'attaques mais continuera à inonder Windows 11 d'agents IA même si vous n'en voulez pas

Plus de 40 % des projets d'IA agentique seront annulés d'ici fin 2027 en raison de l'escalade des coûts, d'une valeur commerciale incertaine ou de contrôles des risques inadéquats, d'après Gartner