1 pièce(s) jointe(s)
Apple abandonne son projet controversé de détection des contenus pédopornographiques connus stockés sur iCloud
Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs,
mais les chercheurs en sécurité craignent une surveillance de masse des iPhone
Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste. Le projet, qui devrait prendre vie aux États-Unis avant d'être étendu au reste du monde, suscite l'indignation et la communauté dénonce une surveillance de masse orchestrée par Apple.
À en juger par le nombre de critiques négatives vis-à-vis d'Apple, cette initiative n'est sans doute pas la meilleure de l'entreprise dans sa lutte contre la pédophilie et la pédopornographie. Apple, qui est un fervent défenseur de la vie privée et qui est connu pour avoir refusé de déverrouiller l'iPhone d'un suspect dans le cadre d'une enquête fédérale, envisage désormais d'"espionner" ses utilisateurs. L'entreprise a l'intention d'installer un logiciel sur les iPhone américains pour détecter les images d'abus d'enfants. Elle a présenté son projet pour la première à des universitaires en début de semaine lors d'une visioconférence.
Plus tard, Apple a confirmé ses projets dans un billet de blogue, précisant que la technologie de balayage fait partie d'une nouvelle série de systèmes de protection des enfants qui "évolueront et se développeront au fil du temps". Les fonctionnalités seront déployées dans le cadre d'iOS 15, dont la sortie est prévue le mois prochain. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société.
Le système, appelé neuralMatch, alertera de manière proactive une équipe d'examinateurs humains s'il pense que des images illégales sont détectées. Selon un article de Financial Times, qui a rapporté la nouvelle pour la première fois, les examinateurs humains contacteront ensuite les forces de l'ordre si le matériel peut être vérifié. Le système neuralMatch, qui a été formé à l'aide de 200 000 images du National Center for Missing & Exploited Children, sera d'abord déployé aux États-Unis. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.
Selon les explications du géant de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un "bon de sécurité" indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.
Il faut noter que neuralMatch représente la dernière tentative d'Apple de trouver un compromis entre sa propre promesse de protéger la vie privée des clients et les demandes des gouvernements, des organismes d'application de la loi et des militants pour la sécurité des enfants pour une plus grande assistance dans les enquêtes criminelles, y compris le terrorisme et la pédopornographie. La tension entre les entreprises technologiques telles qu'Apple et Facebook, qui ont défendu leur utilisation croissante du chiffrement dans leurs produits et services, et les forces de l'ordre n'a fait que s'intensifier depuis 2016.
À l'époque, Apple était allé en justice avec le FBI au sujet de l'accès à l'iPhone d'un suspect terroriste après une fusillade à San Bernardino, en Californie. Cette décision est donc perçue comme une sorte de volte-face de la part d'Apple, qui s'est déjà opposé aux forces de l'ordre pour défendre la vie privée des utilisateurs. Matthew Green, professeur à l'université John Hopkins et cryptographe, a fait part de ses inquiétudes concernant ce système sur Twitter mercredi soir. « Ce genre d'outils peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens », a déclaré Green.
« Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire », s'est-il interrogé. Cela inquiète les chercheurs en sécurité qui préviennent que cela pourrait ouvrir la porte à la surveillance des appareils personnels de millions de personnes. Les chercheurs en sécurité, bien qu'ils soutiennent les efforts d'Apple pour lutter contre la maltraitance des enfants, s'inquiètent du fait que l'entreprise risque de permettre aux gouvernements du monde entier de chercher à accéder aux données personnelles de leurs citoyens, potentiellement bien au-delà de son intention initiale.
« C'est une idée absolument épouvantable, car elle va conduire à une surveillance massive et distribuée de nos téléphones et ordinateurs portables », a déclaré Ross Anderson, professeur d'ingénierie de la sécurité à l'université de Cambridge. En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.
Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.
Les systèmes de stockage de photos dans le nuage et les sites de réseaux sociaux recherchent déjà les images d'abus d'enfants. Apple utilise, par exemple, des techniques de hachage lorsque les photos sont téléchargées sur iCloud Photos. Toutes les photos téléchargées sur iCloud Photos pour la sauvegarde et la synchronisation ne sont pas stockées en chiffrement de bout en bout. Les photos sont stockées sous une forme chiffrée dans les fermes de serveurs d'Apple, mais les clés de déchiffrement sont également la propriété d'Apple. Cela signifie que les forces de l'ordre peuvent assigner Apple et voir toutes les photos téléchargées par un utilisateur.
Ce n'est pas inhabituel, tous les services photo tiers fonctionnent de cette manière. Cependant, ce processus devient plus complexe lorsqu'on essaie d'accéder aux données stockées sur un appareil personnel. Ce nouveau système se ferait côté client, sur l'appareil de l'utilisateur. « Le système d'Apple est moins invasif dans la mesure où le contrôle est effectué sur le téléphone, et ce n'est qu'en cas de correspondance qu'une notification est envoyée aux personnes effectuant la recherche », a déclaré Alan Woodward, professeur de sécurité informatique à l'université du Surrey.
Selon Woodward l'approche d'Apple est quand même "louable". « Cette approche décentralisée est à peu près la meilleure approche que vous puissiez adopter si vous vous engagez dans cette voie », a-t-il ajouté. L'algorithme neuralMatch d'Apple analysera en permanence les photos stockées sur l'iPhone d'un utilisateur américain et qui ont également été téléchargées sur son système de sauvegarde iCloud.
Source : Apple
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Selon vous, Apple a-t-il le droit d'installer un tel logiciel sur votre iPhone ?
:fleche: Quel sentiment l'idée de savoir que vos photos privées sont analysées en permanence vous procure-t-elle ?
:fleche: Pensez-vous que les gouvernements ont gagné la guerre contre le chiffrement de bout en bout ? En quoi cela influera-t-il sur l'industrie ?
:fleche: Pensez-vous que la lutte contre la maltraitance des enfants l'emporte sur la surveillance en permanence des appareils personnels ? Cette solution résout-elle le problème ?
Voir aussi
:fleche: Pourquoi Apple refuse-t-elle d'aider le FBI à débloquer l'iPhone en sa possession ? L'entreprise évoque quelques raisons dans une requête d'annulation
:fleche: Apple transmet des données personnelles à la Chine et supprime les applications jugées « offensantes » par le gouvernement
:fleche: Apple aurait abandonné l'idée de déployer le chiffrement des sauvegardes sur iCloud après une plainte du FBI, d'après un rapport
:fleche: Facebook n'a pas l'intention d'affaiblir le chiffrement de ses applications de messagerie pour donner un accès privilégié aux forces de l'ordre dans le cadre d'enquêtes
2 pièce(s) jointe(s)
Le lanceur d'alerte Edward Snowden et l'EFF critiquent le projet d'Apple de scanner les messages et les images
Le lanceur d'alerte Edward Snowden et l'EFF critiquent le projet d'Apple de scanner les messages et les images iCloud
des milliers de personnes demandent à l'entreprise de suspendre ses plans
La communauté est en pleine effervescence depuis le 5 août dernier où Apple a annoncé son intention de déployer des fonctionnalités sur les iPhone qui lui permettraient d'analyser la galerie iCloud des utilisateurs en la comparant à une base de données de matériel pédopornographique (CSAM) afin de trouver des correspondances et de rechercher des contenus explicites dans les messages d'enfants. L'EFF, Edward Snowden, des experts en sécurité et confidentialité, des cryptographes, des chercheurs, des professeurs, des juristes et des consommateurs dénoncent ces agissements et demandent à Apple de suspendre immédiatement ses plans.
Edward Snowden et l'EFF s'insurgent contre la décision d'Apple
Le 5 août 2021, Apple a annoncé de nouvelles mesures destinées à s'appliquer à la quasi-totalité de ses appareils sous le nom de "Protection étendue des enfants". Selon la firme de Cupertino, les nouvelles fonctionnalités seront déployées dans le cadre d'iOS 15, dont la sortie est prévue le mois de septembre. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aussi aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a-t-elle déclaré, ajoutant que la technologie porte le nom de neuralMatch.
La technologie proposée par l'entreprise fonctionne en surveillant en permanence les photos enregistrées ou partagées sur l'iPhone, l'iPad ou le Mac de l'utilisateur. Un système détecte si un certain nombre de photos répréhensibles sont détectées dans le stockage iCloud et alerte les autorités. Un autre avertit les parents d'un enfant si iMessage est utilisé pour envoyer ou recevoir des photos qu'un algorithme d'apprentissage automatique considère comme contenant de la nudité. L'annonce d'Apple a rapidement déclenché un tollé de critiques négatives dans l'industrie dénonçant le dangereux précédent que la société tente de créer.
Dans une série de tweets vendredi, le défenseur de la vie privée et lanceur d'alerte Edward Snowden s'est inquiété du fait qu'Apple déploie une forme de "surveillance de masse dans le monde entier" et crée un précédent qui pourrait permettre à l'entreprise de rechercher tout autre contenu arbitraire à l'avenir. Snowden a également noté qu'Apple a historiquement été un leader de l'industrie en matière de confidentialité numérique, et a même refusé de déverrouiller un iPhone appartenant à Syed Farook, l'un des tireurs des attaques de décembre 2015 à San Bernardino, en Californie, malgré l'ordre du FBI et d'un juge fédéral de le faire.
Apple s'est opposé à cette ordonnance, soulignant qu'il créerait un "dangereux précédent". Selon Snowden et d'autres experts et organisations, si l'entreprise déploie cette technologie le mois prochain, elle signera ainsi la défaite de l'industrie contre les gouvernements sur la question du chiffrement de bout en bout. Ces derniers pourraient ensuite faire pression ou exiger des autres entreprises qu'elles déploient également une telle technologie dans leurs produits. L'EFF (Electronic Frontier Foundation), un groupe international à but non lucratif de défense des droits numériques, a condamné la décision d'Apple.
Dans un billet de blogue sur son site Web, l'EFF a déclaré qu'il était extrêmement "déçu qu'un champion du chiffrement de bout en bout" entreprenne une volte-face choquante pour les utilisateurs qui ont compté sur le leadership de l'entreprise en matière de confidentialité et de sécurité. « L'exploitation des enfants est un problème grave, et Apple n'est pas la première entreprise technologique à modifier sa position en matière de protection de la vie privée pour tenter de le combattre. Mais ce choix aura un prix élevé pour la vie privée globale des utilisateurs », a déclaré l'EFF, ajoutant qu'une porte dérobée ne pourrait en aucun cas être sécurisée.
« Apple peut expliquer en détail comment son implémentation technique continuera à préserver la vie privée et la sécurité de la porte dérobée qu'elle propose, mais au bout du compte, même une porte dérobée bien documentée, soigneusement pensée et de portée limitée reste une porte dérobée. Il est impossible de construire un système d'analyse côté client qui ne puisse être utilisé que pour les images sexuellement explicites envoyées ou reçues par des enfants. Ainsi, même un effort bien intentionné pour construire un tel système brisera les promesses clés du chiffrement de la messagerie elle-même et ouvrira la porte à des abus plus larges ».
« Pour élargir l'étroite porte dérobée qu'Apple est en train de construire, il suffirait d'étendre les paramètres d'apprentissage automatique afin de rechercher d'autres types de contenu, ou de modifier les drapeaux de configuration pour analyser non seulement les comptes des enfants, mais aussi ceux de n'importe qui. Ce n'est pas une pente glissante ; c'est un système entièrement construit qui n'attend qu'une pression extérieure pour effectuer le moindre changement », a expliqué en détail l'EFF.
Dans une lettre ouverte à l'attention du fabricant de l'iPhone, l'EFF, des experts en sécurité et confidentialité, des cryptographes, des chercheurs, des professeurs, des juristes et plus de 5 000 personnes et organisations ont appelé l'entreprise à faire marche arrière afin de préserver les acquis en matière de confidentialité et de chiffrement. Selon eux, bien que l'exploitation des enfants soit un problème grave et que les efforts déployés pour le combattre soient presque incontestablement bien intentionnés, la proposition d'Apple introduit une porte dérobée qui menace de saper les protections fondamentales de la vie privée pour tous les utilisateurs de produits Apple.
Une pétition demande à Apple de renoncer à cette porte dérobée
Les experts estiment en effet que comme ces deux vérifications sont effectuées sur l'appareil de l'utilisateur, elles peuvent contourner tout chiffrement de bout en bout ayant pour but de protéger la vie privée de l'utilisateur. L'EFF a également souligné que divers gouvernements dans le monde ont déjà adopté des lois qui exigent la surveillance et la censure du contenu sur diverses plateformes, y compris les applications de messagerie, et que la décision d'Apple de scanner les messages et les photos iCloud pourrait être légalement exigée pour englober des matériaux supplémentaires.
« Ne vous y trompez pas : il s'agit d'une diminution de la vie privée pour tous les utilisateurs de iCloud Photos, et non d'une amélioration », a averti l'EFF. Outre l'EFF, le Center for Democracy and Technology (CDT), une organisation à but non lucratif basée à Washington dont la mission est de renforcer les droits et libertés individuels, a déclaré qu'il était "profondément préoccupé par le fait que les changements apportés par le fabricant de l'iPhone créent en fait de nouveaux risques pour les enfants et tous les utilisateurs, et marquent un écart important par rapport aux protocoles de confidentialité et de sécurité établis de longue date".
« Apple fait le choix de remplacer son système de messagerie chiffré de bout en bout, conforme aux normes de l'industrie, par une infrastructure de surveillance et de censure, qui sera vulnérable aux abus et à la dérive, non seulement aux États-Unis, mais dans le monde entier », a averti Greg Nojeim du CDT. « Apple devrait abandonner ces changements et restaurer la confiance de ses utilisateurs dans la sécurité et l'intégrité de leurs données sur les appareils et services Apple », a-t-il ajouté. D'autres experts pensent plutôt qu'Apple conduit l'industrie technologique vers un avenir dystopique.
« Nous nous dirigions petit à petit vers un avenir où de moins en moins d'informations devaient être contrôlées et examinées par quelqu'un d'autre que nous-mêmes. Pour la première fois depuis les années 1990, nous récupérions notre vie privée. Aujourd'hui, nous sommes sur une voie différente. La pression va venir du Royaume-Uni, des États-Unis, de l'Inde, de la Chine. Je suis terrifié à l'idée de ce à quoi cela va ressembler. Pourquoi Apple voudrait-elle dire au monde : "Hé, nous avons cet outil ?" », a déclaré Matthew D. Green, un spécialiste de la recherche sur la sécurité et la vie privée et professeur à l'université Johns Hopkins.
Par ailleurs, l'EFF insiste sur le fait qu'il a déjà vu cette dérive en action : « L'une des technologies conçues à l'origine pour scanner et hacher les images d'abus sexuels d'enfants a été réaffectée à la création d'une base de données de contenus "terroristes" à laquelle les entreprises peuvent contribuer et accéder dans le but d'interdire ces contenus. Cette base de données, gérée par le Global Internet Forum to Counter Terrorism (GIFCT), ne fait l'objet d'aucune surveillance externe, malgré les appels de la société civile ». Des défauts de conception fondamentaux dans l'approche proposée par Apple ont également été soulignés par des experts.
Voici leur explication : « Apple peut trivialement utiliser différents ensembles de données d'empreintes médiatiques pour chaque utilisateur. Pour un utilisateur, il pourrait s'agir d'abus d'enfants, pour un autre, d'une catégorie beaucoup plus large, permettant ainsi un suivi sélectif du contenu pour des utilisateurs ciblés. La technologie qu'Apple propose pour ses mesures de protection des enfants dépend d'une infrastructure extensible qui ne peut pas être surveillée ou limitée techniquement ». Les experts ont averti à plusieurs reprises que le problème n'est pas seulement la protection de la vie privée, mais d'autres facteurs entrent également en jeu.
Les experts redoutent le manque de responsabilité, les obstacles techniques à l'expansion et le manque d'analyse ou même la reconnaissance du potentiel d'erreurs et de faux positifs. Kendra Albert, avocate à la Clinique du droit du cyberespace de la faculté de droit de Harvard, estime que "ces fonctions de protection de l'enfance vont conduire les enfants homosexuels à être chassés de chez eux, à être battus ou pire encore". « Je sais juste que ces algorithmes d'apprentissage automatique vont signaler les photos de transition. Bonne chance pour envoyer à vos amis une photo de vous si vous avez des tétons de présentation féminine », a-t-elle déclaré.
À l'heure actuelle, plus de 5 544 personnes et organisations (Gigahost, GNU, l'EFF, knowledgeatwork UG, Latency: Zero, LLC, MacDailyNews, etc.) ont déjà signé la pétition. Les signataires ont adressé un certain nombre de requêtes à Apple, dont l'arrêt immédiat de la mise en œuvre de sa technologie de surveillance. « Nous, les soussignés, demandons que :
- le déploiement par Apple de sa proposition de technologie de surveillance du contenu soit arrêté immédiatement ;
- Apple publie une déclaration réaffirmant son engagement envers le chiffrement de bout en bout et la vie privée des utilisateurs ;
- la démarche actuelle d'Apple menace de saper des décennies de travail effectué par des technologues, des universitaires et des défenseurs de la politique en faveur de mesures strictes de préservation de la vie privée qui deviendraient la norme pour la majorité des appareils électroniques grand public et des cas d'utilisation. Nous demandons à Apple de reconsidérer le déploiement de sa technologie, de peur qu'elle ne défasse ce travail important ».
Sources : appleprivacyletter.com, Electronic Frontier Foundation, Center for Democracy and Technology
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Pensez-vous qu'Apple va renoncer à ses plants à la suite à ces réactions ?
:fleche: Même si Apple y renonce publiquement, pensez-vous qu'il pourrait mettre en place neuralMatch discrètement ?
Voir aussi
:fleche: Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone
:fleche: Snowden avertit que les États utilisent le coronavirus pour construire « l'architecture de l'oppression » et prédit que les mesures prises pour lutter contre le COVID-19 vont persister longtemps
:fleche: Apple transmet des données personnelles à la Chine et supprime les applications jugées « offensantes » par le gouvernement
:fleche: Pourquoi la société Apple refuse-t-elle d'aider le FBI à débloquer l'iPhone en sa possession ? L'entreprise évoque quelques raisons dans une requête d'annulation
4 pièce(s) jointe(s)
Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage de photos
Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos
alors que les experts dénoncent un recul dans les progrès en matière de vie privée
Apple a annoncé la semaine dernière "Expanded Protections for Children", une série de nouvelles fonctionnalités prévues pour être livrées avec l'iOS 15 afin d'accroître les mesures de protection des enfants. Les nouvelles fonctionnalités comprennent des protections pour les images sensibles dans l'application Messages, le balayage d'iCloud Photos pour le contenu de matériel d'abus sexuel d'enfants (CSAM - child sexual abuse material), et de nouvelles connaissances pour Siri et Search. Mais alors que l'industrie s'insurge contre cette initiative, Apple donne des détails techniques sur sa technologie et affirme qu'il y a 1 chance sur 1 milliard de faux positifs.
Apple rassure qu'il n'affecte pas la vie privée des utilisateurs
Quelques heures après l'annonce d'Apple, les critiques sont venues de partout. Apple est accusé de construire une "infrastructure de surveillance de masse". Malgré les assurances d'Apple, les experts en sécurité et les défenseurs de la vie privée ont critiqué le plan. Les critiques sont venues de nombreuses personnes et organisations, notamment de sources sources notables telles qu'Edward Snowden et l'Electronic Frontier Foundation, et portent principalement sur la technologie de scannage des photos iCloud pour les comparer à une base de données de matériel pédopornographique (CSAM) et sur les implications potentielles d'une telle fonctionnalité.
Dans un mémo interne distribué aux équipes qui ont travaillé sur ce projet et obtenu par 9to5Mac, Apple reconnaît les "malentendus" autour des fonctionnalités, mais redouble d'efforts pour affirmer que ces fonctionnalités font partie d'une "mission importante" pour assurer la sécurité des enfants. Le document, qui a également été dévoilé le même jour que les nouvelles fonctionnalités, a été rédigé par Sébastien Marineau-Mes, un VP logiciel chez Apple. Marineau-Mes affirme qu'Apple continuera à "expliquer et à détailler les fonctionnalités" incluses dans cette suite de protections étendues pour les enfants. Voici le mémo dans son intégralité :
« Aujourd'hui marque le dévoilement public officiel des protections élargies pour les enfants, et je voulais prendre un moment pour remercier chacun d'entre vous pour votre travail acharné au cours des dernières années. Nous n'aurions pas atteint cette étape importante sans votre dévouement inlassable et votre résilience. Assurer la sécurité des enfants est une mission tellement importante. À la manière d'Apple, la poursuite de cet objectif a nécessité un engagement transversal profond, englobant l'ingénierie, l'administration générale, l'informatique, les services juridiques, le marketing produit et les relations publiques.
Ce que nous avons annoncé aujourd'hui est le fruit de cette collaboration, un produit qui fournit des outils pour protéger les enfants, tout en respectant l'engagement profond d'Apple envers la vie privée des utilisateurs. Nous avons vu beaucoup de réactions positives aujourd'hui. Nous savons que certaines personnes ont des malentendus et que plus d'une s'inquiète des implications, mais nous continuerons à expliquer et à détailler les fonctionnalités pour que les gens comprennent ce que nous avons construit.
Et alors qu'il reste beaucoup de travail à accomplir pour mettre en œuvre les fonctionnalités dans les prochains mois, je voulais partager cette note que nous avons reçue aujourd'hui du NCMEC. Je l'ai trouvé incroyablement motivant, et j'espère que vous le serez aussi. Je suis fier de travailler chez Apple avec une équipe aussi formidable. Merci à tous ! ».
Le mémo comprend aussi un message du National Center for Missing and Exploited Children, signé par Marita Rodriguez, directrice exécutive des partenariats stratégiques. Apple travaille en étroite collaboration avec le NCMEC sur les nouvelles fonctionnalités de numérisation d'iCloud. Voici le texte intégral de la note du NCMEC envoyée à l'équipe d'Apple travaillant sur ces fonctionnalités :
« Équipe Apple, je voulais partager un mot d'encouragement pour dire que tout le monde à NCMEC est TELLEMENT FIER de chacun d'entre vous et des décisions incroyables que vous avez prises au nom de la priorité accordée à la protection des enfants. Il a été revigorant pour toute notre équipe de voir (et de jouer un petit rôle dans) ce que vous avez dévoilé aujourd'hui. Je sais que la journée a été longue et que beaucoup d'entre vous n'ont probablement pas dormi depuis 24 heures. Nous savons que les jours à venir seront remplis des voix criardes de la minorité. Nos voix seront plus fortes.
Notre engagement à soutenir les enfants qui ont vécu les abus et les victimisations les plus inimaginables sera plus fort. Pendant ces longues journées et ces nuits sans sommeil, j'espère que vous trouverez du réconfort dans le fait que, grâce à vous, des milliers d'enfants victimes d'exploitation sexuelle seront sauvés et auront une chance de guérir et de vivre l'enfance qu'ils méritent. Merci d'avoir trouvé la voie à suivre pour protéger les enfants tout en préservant leur vie privée ! ».
La technologie d'Apple pour l'analyse des images
Le résumé technique d'Apple sur la détection de CSAM comprend quelques promesses de confidentialité dans l'introduction. « Apple n'apprend rien sur les images qui ne correspondent pas à la base de données de CSAM connus. Apple ne peut pas accéder aux métadonnées ou aux dérivés visuels des images de CSAM correspondantes jusqu'à ce qu'un seuil de correspondances soit dépassé pour un compte iCloud Photos », est-il indiqué. La technologie de hachage d'Apple est appelée NeuralHash, et elle analyse une image et la convertit en un numéro unique spécifique à cette image.
Selon Apple, seule une autre image qui semble presque identique peut produire le même nombre. La société explique, par exemple, que des images qui diffèrent en taille ou en qualité de transcodage auront toujours la même valeur NeuralHash. En outre, avant qu'un iPhone ou un autre appareil Apple ne télécharge une image sur iCloud, l'appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance. Il chiffre également le NeuralHash de l'image et un dérivé visuel. Ce justificatif est téléchargé sur iCloud Photos avec l'image.
Selon le document d'Apple, en utilisant le "partage de secret à seuil", le système garantit que le contenu des bons de sécurité ne peut pas être interprété par Apple à moins que le compte iCloud Photos ne franchisse un seuil de contenu de CSAM connus. Apple estime que ce n'est que lorsque le seuil est dépassé que la technologie cryptographique permet à Apple d'interpréter le contenu des bons de sécurité associés aux images CSAM correspondantes. Tout en notant la probabilité d'un faux positif sur un milliard, Apple a déclaré qu'il examine manuellement tous les rapports faits au NCMEC pour garantir l'exactitude des rapports.
En outre, contrairement à ce que certains pensent, Apple ne peut pas vérifier les images lorsque les utilisateurs ont désactivé iCloud Photos. En d'autres termes, les contrôles de CSAM ne seront effectués que sur les appareils sur lesquels cette fonction est activée. Les images de tout appareil dont cette fonction est désactivée ne seront pas vérifiées. Autre chose qu'il faut noter : Apple ne peut pas non plus fouiller dans les sauvegardes iCloud et vérifier les images qui y sont stockées. Cela signifie que la seule fois où Apple effectuera des contrôles sur les photos, c'est pendant leur téléchargement sur iCloud Photos.
Lors d'une conférence de presse vendredi, Apple a déclaré qu'elle prévoyait d'étendre ce service en fonction des lois de chaque pays où elle opère, en commençant par les États-Unis. Apple a déclaré que les nuances de son système, telles que les "bons de sécurité" transmis de l'iPhone aux serveurs d'Apple sans données utiles, le protégeront des pressions gouvernementales visant à identifier des contenus autres que des images d'abus d'enfants. En effet, ces dernières années, les autorités de réglementation, les forces de l'ordre et les politiciens exigent de plus en plus des entreprises IT qu'elles fassent davantage pour supprimer les contenus illicites.
Ils ont brandi le fléau des contenus pédopornographiques pour décrier le chiffrement fort, de la même manière qu'ils avaient auparavant invoqué la nécessité de lutter contre le terrorisme. WhatsApp, le plus grand service de messagerie entièrement chiffré au monde, est également sous la pression des gouvernements qui veulent voir ce que les gens disent, et il craint que cela n'augmente maintenant. Quelques lois en résultant, notamment en Grande-Bretagne, pourraient être utilisées pour forcer les entreprises technologiques à agir contre leurs utilisateurs en secret. La stratégie d'Apple pourrait détourner l'attention des gouvernements en montrant son initiative ou en se conformant aux directives prévues en Europe.
D'autres pensent toutefois que cela reste dangereux. "L'entreprise a peut-être détourné l'attention des régulateurs américains sur ce sujet, mais elle va inciter les régulateurs internationaux à faire la même chose avec les contenus terroristes et extrémistes", a déclaré Riana Pfefferkorn, chercheuse au Stanford Internet Observatory. Les détenteurs de droits d'auteur politiquement influents à Hollywood et ailleurs pourraient même faire valoir que leurs droits numériques devraient être appliqués de cette manière, a-t-elle ajouté. Le chef de WhatsApp, Will Cathcart, a écrit vendredi un flot de critiques contre Apple en ce qui concerne ses nouvelles fonctionnalités.
« Nous avons des ordinateurs personnels depuis des décennies, et il n'y a jamais eu un mandat pour scanner le contenu privé de tous les ordinateurs de bureau, ordinateurs portables ou téléphones à l'échelle mondiale à la recherche de contenu illégal; Ce n'est pas ainsi que fonctionne la technologie construite dans les pays libres », a-t-il écrit.
Sécurité de la communication dans Messages
En plus de scanner les appareils à la recherche d'images correspondant à la base de données de CSAM, Apple a déclaré qu'il mettrait à jour l'application Messages pour ajouter de nouveaux outils pour avertir les enfants et leurs parents lorsqu'ils reçoivent ou envoient des photos sexuellement explicites. « L'application Messages utilise l'apprentissage automatique sur l'appareil pour analyser les pièces jointes des images et déterminer si une photo est sexuellement explicite. La fonction est conçue de manière à ce qu'Apple n'ait pas accès aux messages », a déclaré Apple.
« Lorsqu'une image dans Messages est signalée, la photo sera brouillée et l'enfant sera averti, on lui présentera des ressources utiles et on le rassurera en lui disant qu'il n'y a aucun problème s'il ne veut pas voir cette photo. Le système permettra aux parents de recevoir un message si les enfants regardent une photo marquée, et des protections similaires sont disponibles si un enfant tente d'envoyer des photos sexuellement explicites. L'enfant sera averti avant que la photo ne soit envoyée, et les parents pourront recevoir un message si l'enfant choisit de l'envoyer », a ajouté l'entreprise.
Apple a aussi déclaré qu'elle mettrait à jour Siri et Search pour fournir aux parents et aux enfants des informations élargies et de l'aide s'ils rencontrent des situations dangereuses. Selon la société, les applications Siri et Search interviendront lorsque les utilisateurs effectueront des recherches pour des requêtes liées aux CSAM pour expliquer aux utilisateurs que l'intérêt pour ce sujet est nuisible et problématique, et fourniront des ressources de partenaires pour obtenir de l'aide sur cette question. Le Center for Democracy & Technology (CDT) a qualifié le scannage des photos dans Messages de "porte dérobée".
« Le mécanisme qui permettra à Apple de scanner les images dans Messages n'est pas une alternative à une porte dérobée - c'est une porte dérobée. L'analyse côté client d'un côté de la communication brise la sécurité de la transmission, et le fait d'informer un tiers (le parent) du contenu de la communication porte atteinte à sa vie privée », a déclaré le CDT dans un billet de blogue. Des organisations du monde entier ont mis en garde contre l'analyse côté client, car elle pourrait être utilisée par les gouvernements et les entreprises pour contrôler le contenu des communications privées.
Les appareils stockeront une base de données de CSAM
Apple a expliqué que les dispositifs des utilisateurs stockeront une "base de données aveugle" qui permettra à l'appareil de déterminer si une photo correspond à une image de la base de données de CSAM. Tout d'abord, Apple reçoit les hashs correspondant aux CSAM connus de la part des organisations de protection de l'enfance susmentionnées. Ensuite, ces hashs subissent une série de transformations qui comprennent une étape finale de neutralisation, réalisée par cryptographie à courbe elliptique (ECC). L'aveuglement est effectué à l'aide d'un secret d'aveuglement côté serveur, connu uniquement d'Apple.
Après quoi, les hashs de CSAM masqués sont placés dans une table de hachage, où la position dans la table de hachage est purement fonction du NeuralHash de l'imageb de CSAM. Cette base de données aveugle est stockée en toute sécurité sur les appareils des utilisateurs. Selon Apple, les propriétés de l'ECC garantissent qu'aucun appareil ne peut déduire quoi que ce soit sur les hachages d'images de CSAM sous-jacents à partir de la base de données masquée. Un iPhone ou un autre appareil analysera les photos de l'utilisateur, calculera un NeuralHash et consultera "l'entrée dans la table de hachage masquée".
L'appareil utilise également le hachage masqué que le système a consulté pour obtenir une clé de chiffrement dérivée et utilise cette clé de chiffrement pour chiffrer les données utiles associées. Combiné à d'autres étapes, cela garantit que seules les images correspondant à la base de données CSAM seront déchiffrées.
Source : Expanded Protections for Children
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous des annonces d'Apple concernant les protections étendues pour la sécurité des enfants ?
Voir aussi
:fleche: Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone
:fleche: Le lanceur d'alerte Edward Snowden et l'EFF critiquent le projet d'Apple de scanner les messages et les images iCloud. Des milliers de personnes demandent à l'entreprise de suspendre ses plans
:fleche: Le système de livraison par drones d'Amazon peut-il être autre chose que pure hype ? Le projet montre des signes d'effondrement, dont des licenciements en masse : vers une débâcle inéluctable ?
3 pièce(s) jointe(s)
Le PDG d'Epic Games met en garde contre la "surveillance d'État" d'Apple
Le PDG d'Epic Games met en garde contre la "surveillance d'État" d'Apple
alors qu'Epic Games est détenu en partie par Tencent en Chine
Les nouvelles fonctionnalités d'Apple pour la protection élargie des enfants sont l'objet de nombreux débats dans l'industrie depuis leur annonce la semaine passée. Un des commentaires les plus notables est celui de Tim Sweeney, PDG d'Epic Games, qui a déclaré samedi qu'Apple est en train de mettre en place des "logiciels espions du gouvernement" et qu'il serait vraisemblablement "un bras de la surveillance de l'État partout où cela est nécessaire". Sweeney critique Apple, alors qu'Epic Games est détenu à 48 % par Tencent, très souvent accusé d'aider le PCC en matière de censure et de surveillance des citoyens chinois.
Tim Sweeney lance régulièrement des piques à l'endroit d'Apple depuis quelques années, notamment sur la façon dont l'entreprise maintient son écosystème fermé. La situation s'est envenimée l'année dernière lorsqu'Apple a éjecté la franchise Fortnite d'Epic Games de l'App Store, après que le second a tenté de contourner les 30 % de commission prélevés par le premier sur tous les achats in-app. Le week-end dernier, Sweeney a lancé de nouvelles critiques à l'encontre des nouvelles politiques d'Apple en matière de sécurité et de la protection des enfants, qualifiant ces mesures de "logiciel espion du gouvernement".
Le débat découle d'une annonce faite par Apple jeudi. En théorie, l'idée est assez simple : Apple veut lutter contre les abus sexuels sur les enfants, et prend davantage de mesures pour les détecter et les arrêter. Mais les critiques disent que la stratégie d'Apple pourrait affaiblir le contrôle des utilisateurs sur leurs propres téléphones, les laissant dépendre de la promesse d'Apple de ne pas abuser de son pouvoir. La réponse d'Apple a mis en lumière la complexité - et parfois la confusion - de cette conversation. Apple a en effet annoncé trois changements qui seront mis en œuvre dans le courant de l'année.
Ils sont tous liés à la lutte contre les abus sexuels à l'encontre des enfants, mais visent des applications différentes dotées de fonctionnalités différentes. La première fonctionnalité concerne l'application de recherche d'Apple et Siri. Si un utilisateur recherche des sujets liés aux abus sexuels sur les enfants, Apple l'orientera vers des ressources permettant de les signaler ou d'obtenir de l'aide en cas d'attirance pour ce type d'abus. Cette mesure sera mise en œuvre plus tard cette année sur iOS 15, watchOS 8, iPadOS 15 et macOS Monterey, et elle ne suscite guère de controverse.
Les autres mises à jour, en revanche, ont suscité beaucoup plus de réactions négatives. L'une d'elles ajoute une option de contrôle parental à Messages, masquant les photos sexuellement explicites pour les utilisateurs de moins de 18 ans et envoyant aux parents une alerte si un enfant de 12 ans ou moins consulte ou envoie ces photos. La dernière fonctionnalité analyse les images d'iCloud Photos pour y trouver du matériel pédopornographique (CSAM - Child sexual abuse content), et le signale aux modérateurs d'Apple - qui peuvent le transmettre au National Center for Missing and Exploited Children (NCMEC).
Apple affirme avoir conçu cette fonctionnalité spécifiquement pour protéger la vie privée des utilisateurs tout en détectant les contenus illégaux. Les critiques disent que cette même conception équivaut à une porte dérobée de sécurité. Le projet, qui devrait prendre vie aux États-Unis avant d'être étendu au reste du monde, a suscité l'indignation et la communauté dénonce une surveillance de masse orchestrée par Apple. À la suite des commentaires de L'EFF (Electronic Frontier Foundation), de journalistes, de chercheurs en sécurité et de consommateurs mécontents, c'est au tour de Sweeney.
« J'ai essayé de voir ça du point de vue d'Apple. Mais inéluctablement, il s'agit d'un logiciel espion du gouvernement installé par Apple sur la base d'une présomption de culpabilité. Bien qu'Apple ait écrit le code, sa fonction est de scanner les données personnelles et de les rapporter au gouvernement. C'est totalement différent d'un système de modération de contenu sur un forum public ou un média social. Avant que la société ne choisisse d'héberger les données publiquement, il peut les scanner pour détecter ce qu'il ne veut pas héberger. Mais il s'agit de données privées de personnes », a critiqué Sweeney sur Twitter.
Mais encore, le PDG milliardaire a également critiqué la plateforme iCloud d'Apple qui télécharge par défaut les données des utilisateurs, ce qui fait que les gens accumulent des "données indésirables". En outre, Sweeney a averti que partout l'entreprise s'installera, Apple "devra se conformer à toutes les lois applicables partout où elle fait des affaires". « Par conséquent, l'on peut supposer qu'Apple sera désormais un bras de la surveillance de l'État partout où cela est nécessaire », a-t-il ajouté. De même, il a également abordé dans ses commentaires, les critiques concernant les compromis d'Apple en matière de vie privée en Chine.
Dans un jeu de mots sur "pensez aux enfants", il a déclaré : « Pensez à la dystopie dans laquelle ils grandiront si nous tolérons la croissance incontrôlée de monopoles privés dotés d'un pouvoir de surveillance illimité et assumant de plus en plus des rôles de gouvernement, sans pour autant être soumis aux processus démocratiques libéraux ». Il a souligné que de nombreux utilisateurs d'Apple ont été obligés de s'inscrire pour obtenir une adresse électronique iCloud dans le cadre des protocoles d'inscription précédents, et a prédit que le sentiment public sera manipulé pour soutenir l'initiative.
« La liberté est fondée sur une procédure régulière et un gouvernement limité. La menace existentielle ici est une alliance impie entre le gouvernement et les monopoles qui contrôlent le discours en ligne et les appareils de chacun, en utilisant l'apparence de sociétés privées pour contourner les protections constitutionnelles », a déclaré Sweeney. Cependant, Sweeney s'est rapidement vu reprocher de faire deux poids, deux mesures, car Epic Game est détenu à près de 48 % par le géant technologique chinois Tencent, un groupe technologique chinois dont les rapports avec le PCC font l'objet de plusieurs controverses.
Tencent est soupçonné d'avoir collaboré avec le gouvernement chinois pour surveiller les utilisateurs non chinois et censurer le contenu de l'application de messagerie WeChat. Une étude a révélé que le géant chinois aurait surveillé le contenu politique posté par des comptes étrangers pour former ses algorithmes de censure pour les utilisateurs nationaux. La recherche montre non seulement comment Tencent pratique la censure, mais aussi informe et développe ses propres stratégies de censure. En outre, d'autres rapports notent que l'entreprise est susceptible de soutenir les recherches politiques du gouvernement.
« Si le gouvernement chinois a besoin de réguler l'opinion publique, il utilisera certainement la base de données des contenus politiquement sensibles de WeChat pour apprendre », a déclaré un professionnel basé à Pékin qui a travaillé en étroite collaboration avec le gouvernement. Un rapport du Wall Street Journal datant décembre 2020 décrivait la plateforme WeChat de Tencent comme "l'un des outils les plus puissants de l'arsenal de Pékin pour surveiller le public, censurer les discours et punir les personnes qui expriment leur mécontentement à l'égard du gouvernement". Tencent a toutefois toujours nié ces allégations.
Une autre controverse est liée à la récente décision de Tencent d'utiliser la reconnaissance faciale pour empêcher les jeunes enfants de jouer à des jeux vidéo après l'heure du coucher. Par ailleurs, Sweeney's n'est que l'une des nombreuses voix qui demandent à Apple de reconsidérer ses plans. Des défenseurs de la vie privée et des experts en sécurité ont signé une lettre ouverte demandant l'arrêt des nouvelles mesures qui rechercheront le contenu de CSAM dans les photos iCloud sur les appareils des utilisateurs aux États-Unis, puis dans le monde.
Source : Tim Sweeney
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous des propos de Tim Sweeney ?
Voir aussi
:fleche: Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone
:fleche: Le lanceur d'alerte Edward Snowden et l'EFF critiquent le projet d'Apple de scanner les messages et les images iCloud. Des milliers de personnes demandent à l'entreprise de suspendre ses plans
:fleche: Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos, alors que les experts dénoncent un recul dans les progrès en matière de vie privée
1 pièce(s) jointe(s)
Les fonctions de protection de l'enfance d'Apple suscitent l'inquiétude dans ses propres rangs
Les fonctions de protection de l'enfance d'Apple suscitent l'inquiétude dans ses propres rangs
des employés craignent qu'elles deviennent une arme au service des gouvernements répressifs
Alors que les nouvelles fonctionnalités de protection étendue des enfants à venir sur les dispositifs Apple suscitent des critiques virulentes dans l'industrie, l'on apprend qu'elles ne feraient pas non plus l'unanimité parmi ses propres employés et collaborateurs. Des personnes proches de l'entreprise ont expliqué que les changements apportés par le passé à la sécurité chez Apple ont également suscité l'inquiétude des employés, mais le volume et la durée du nouveau débat sont surprenants. Des employés craignent désormais qu'Apple ne nuise à sa réputation de leader en matière de protection de la vie privée.
Apple a surpris plus d'un la semaine dernière lors de l'annonce des nouvelles fonctionnalités qui devraient faire leur apparition sur tous ses produits vers la fin de l'année. Rassemblées sous le nom de "Protection étendue des enfants", les nouvelles fonctionnalités visent à protéger davantage les enfants contre les différents abus en scannant les photos que les utilisateurs s'apprêtent à télécharger sur iCloud Photos pour rechercher du matériel pédopornographique (CSAM - child sexual abuse material). En outre, Apple prévoit également de rechercher des contenus explicites d'abus dans les messages d'enfants.
La nouvelle a été très mal accueillie dans l'industrie et tout en exprimant leur indignation, plusieurs experts et chercheurs en cybersécurité ont déclaré que la plus grande crainte que suscite cette décision est que les gouvernements autoritaires ou répressifs s'emparent de ces outils et les détournent de leur objectif initial pour en faire des armes de surveillance sophistiquée. L'EFF (Electronic Frontier Foundation), le lanceur d'alerte Edward Snowden, des cryptographes et des centaines d'autres personnes et organisations ont lancé une pétition contre cette décision et dénoncent une surveillance de masse orchestrée par Apple.
D'après de récentes informations obtenues par Reuters, la réaction à la décision d'Apple de scanner les appareils de ses clients à la recherche d'images d'abus sexuels sur des enfants a pris de l'ampleur et des employés se sont exprimés en interne, ce qui constitue un tournant notable pour une entreprise réputée pour sa culture du secret. Des sources ont rapporté que depuis l'annonce des nouvelles fonctionnalités il y a une semaine, les employés d'Apple ont inondé un canal Slack interne de plus de 800 messages. Selon le média, ces sources sont principalement des employés d'Apple, mais ces derniers ont demandé à ne pas être identifiés.
Comme certains le dénoncent depuis quelques jours déjà, les employés d'Apple craignent aussi que la fonctionnalité ne soit exploitée par des gouvernements répressifs cherchant à trouver d'autres éléments à censurer ou à arrêter. Les sources ont déclaré que le fil de discussion Slack dure depuis plusieurs jours. Bien que l'opposition provienne principalement d'employés qui n'occupent pas des postes de direction dans le domaine de la sécurité et de la protection de la vie privée, cette réaction marque un changement dans une entreprise où un code strict de secret autour des nouveaux produits colore d'autres aspects de la culture d'entreprise.
Selon deux employés, Slack a été largement adopté par les équipes d'Apple pendant la pandémie. Mais alors que les employés utilisaient l'application pour maintenir des liens sociaux pendant l'ère du travail à domicile en partageant des recettes et d'autres contenus légers, des discussions plus sérieuses ont également pris racine. Les informateurs ont tout de même déclaré que dans le fil de discussion Slack consacré à la fonction de numérisation des photos, certains employés ont riposté aux critiques, tandis que d'autres ont déclaré que Slack n'était pas le forum approprié pour de telles discussions.
À en croire leurs déclarations, les employés chargés de la sécurité n'étaient pas les principaux plaignants dans les messages. De même, certains parmi les sources ont déclaré qu'ils pensaient que la solution d'Apple était une réponse raisonnable à la pression exercée pour réprimer le matériel illégal. D'autres employés ont déclaré qu'ils espéraient que l'analyse était une étape vers le chiffrement complet d'iCloud pour les clients qui le souhaitent, ce qui inverserait une deuxième fois la direction d'Apple sur cette question. Jusque-là, Apple a déjà essuyé des critiques négatives de plusieurs de ses rivaux.
Le week-end dernier, Tim Sweeney, PDG d'Epic Games, a critiqué les nouvelles politiques d'Apple en matière de sécurité et de la protection des enfants, qualifiant ces mesures de "logiciel espion du gouvernement". Critique virulent d'Apple depuis plusieurs années, Sweeney a déclaré dans une série de tweets que si Apple déployait ces fonctionnalités, il deviendrait vraisemblablement "un bras de la surveillance de l'État partout où cela est nécessaire". De même, dans ses commentaires, le PDG milliardaire a également fait mention des critiques actuelles concernant les compromis d'Apple en matière de vie privée en Chine.
« J'ai essayé de voir ça du point de vue d'Apple. Mais inéluctablement, il s'agit d'un logiciel espion du gouvernement installé par Apple sur la base d'une présomption de culpabilité. Bien qu'Apple ait écrit le code, sa fonction est de scanner les données personnelles et de les rapporter au gouvernement. C'est totalement différent d'un système de modération de contenu sur un forum public ou un média social. Avant que la société ne choisisse d'héberger les données publiquement, il peut les scanner pour détecter ce qu'il ne veut pas héberger. Mais il s'agit de données privées de personnes », a critiqué Sweeney sur Twitter.
Selon certains analystes, au cours de ces dix dernières années, Apple a pris l'habitude et aime agir en tant que pionnier en matière de vie privée et de cybersécurité, ce qui signifie qu'il pourrait faire fi de tous les commentaires et déployer ces fonctionnalités. Cependant, ils préviennent toutefois qu'Apple s'avance sur une pente glissante et que cela pourrait entraver les livraisons d'iPhone ou d'autres produits. En effet, selon les analystes, même si les consommateurs sont peu (et la plupart du temps pas du tout) initiés aux technologies de cybersécurité et de vie privée, ils pourraient être réticents à l'idée de laisser Apple "jeter un coup d'œil" à leurs photos.
Facebook a payé le prix fort lorsque les agissements de Cambridge Analytica, qui a collecté les informations personnelles de dizaines de millions d'utilisateurs dans le but d'influencer les élections présidentielles américaines de 2016, ont été révélés en 2018. À la suite du scandale, le leader mondial des réseaux sociaux a relevé une baisse importante de ces utilisateurs, certains ayant tout simplement supprimé leur compte Facebook. Ainsi, les analystes pensent que les dénonciations dans la presse et les voix qui s'élèvent pourraient conduire les consommateurs à abandonner Apple, en cessant tout simplement d'acheter ces produits, car craignant d'être espionnés.
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Pensez-vous que la décision d'Apple pourrait conduire les gens à se tourner vers les téléphones Android ?
Voir aussi
:fleche: Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone
:fleche: Le lanceur d'alerte Edward Snowden et l'EFF critiquent le projet d'Apple de scanner les messages et les images iCloud, des milliers de personnes demandent à l'entreprise de suspendre ses plans
:fleche: Le PDG d'Epic Games met en garde contre la "surveillance d'État" d'Apple, alors qu'Epic Games est détenu en partie par Tencent en Chine
1 pièce(s) jointe(s)
Après les critiques, Apple ne recherchera que les images d'abus signalées dans plusieurs pays
Après les critiques, Apple ne recherchera que les images d'abus signalées dans plusieurs pays
et insiste sur le fait qu'il s'agit d'une avancée en matière de confidentialité
Environ deux semaines après l'annonce des nouvelles fonctionnalités de protection étendue des enfants, Apple essuie toujours des critiques négatives de la part d'une grande partie de la communauté. Vendredi, Apple s'est excusée pour la confusion que l'annonce a suscitée et a donné plus de détails sur les nouvelles fonctionnalités. La société a publié un document expliquant comment elle a étudié les attaques potentielles sur le système et a préparé une défense contre elles. Elle a également indiqué que son système de numérisation d'iCloud s'appuiera sur les données de plusieurs groupes de protection de l'enfance pour répondre aux craintes relatives à la vie privée.
Apple estime que les critiques négatives sont le résultat d'une confusion
Apple a annoncé l'arrivée de nouvelles fonctionnalités de protection de l'enfance le 5 août dernier, mais ces dernières ont été très mal accueillies par la communauté. L'entreprise a dévoilé deux nouveaux outils, dont un nouveau système de détection d'images qui peut alerter Apple lorsque des images connues d'abus sur les enfants sont en passe d'être téléchargées sur le stockage iCloud. Les groupes de défense de la vie privée ont critiqué cette nouvelle, certains affirmant qu'Apple avait créé une porte dérobée pour permettre la surveillance de ces clients. Cependant, la société affirme que son annonce a été largement "mal comprise".
En effet, d'autres entreprises technologiques effectuent des contrôles similaires une fois que les photos sont téléchargées sur leurs serveurs. La décision d'Apple de placer les principaux aspects du système sur le téléphone lui-même a suscité des inquiétudes quant au fait que les gouvernements pourraient obliger l'entreprise à étendre le système à d'autres usages, comme la recherche d'images politiques interdites. La controverse s'est même déplacée dans les rangs d'Apple, plusieurs employés ayant critiqué la décision et craignant que la société ne compromette sa réputation en matière de protection de la vie privée des consommateurs.
Dans une récente interview accordée au Wall Street Journal (WSJ), Apple a reconnu avoir mal géré la communication autour du programme. Craig Federighi, responsable des logiciels chez Apple, a déclaré qu'en prenant du recul, la société s'est rendu compte que l'introduction de deux fonctionnalités en même temps était "une recette pour ce genre de confusion". « Nous aurions aimé que l'annonce soit un peu plus claire pour tout le monde », a déclaré Federighi. L'ingénieur a apporté plus de détails sur le choix d'Apple et a également annoncé que le projet était toujours en cours de développement et que des changements étaient à prévoir.
Il a refusé de dire si les critiques étaient à l'origine de ces changements. L'un de changements annoncés concerne la base de données de CSAM (child sex abuse material) qu'Apple va exploiter. La société a déclaré qu'elle ne rechercherait que les images qui ont été signalées par des organismes de renseignements et de protection de l'enfance dans plusieurs pays. Autrement dit, le système ne signalera que les images trouvées dans plusieurs bases de données sur la sécurité des enfants ayant des affiliations gouvernementales différentes, ce qui empêcherait théoriquement un pays d'ajouter au système du contenu ne relevant pas du CSAM.
En présentant les fonctionnalités pour la première fois, Apple n'avait choisi que le National Center for Missing and Exploited Children (NCMEC), basé aux États-Unis, comme fournisseur d'images d'abus connus sur les enfants. À la question de savoir pourquoi cela a été le cas, un responsable d'Apple a répondu que l'entreprise venait seulement de finaliser son accord avec le NCMEC. La société a également dévoilé le nombre de correspondances d'images à partir duquel le système alertera Apple pour un examen plus approfondi effectué par un être humain. Elle avait précédemment refusé de divulguer ce nombre.
Vendredi, les dirigeants ont déclaré qu'ils commenceraient avec 30 images, bien que le nombre puisse diminuer au fil du temps à mesure que le système s'améliore. Selon Apple, ce seuil a été choisi pour fournir une "marge de sécurité drastique" afin d'éviter les faux positifs, indique le document - et au fur et à mesure de l'évaluation des performances du système dans le monde réel, "nous pourrons modifier le seuil".
Apple a également déclaré qu'il serait facile pour les chercheurs de s'assurer que la liste des identifiants d'images recherchés sur un iPhone était la même que celle de tous les autres téléphones, cherchant ainsi à apaiser les craintes que le nouveau mécanisme puisse être utilisé pour cibler des individus.
Apple dit qu'il est le meilleur en matière de protection de la vie privée
Les efforts d'Apple ont suscité des critiques d'autres sociétés de sa tranche. Un dirigeant du service de messagerie WhatsApp de Facebook a qualifié l'approche d'Apple de mauvaise pour la vie privée. La principale préoccupation est de savoir si Apple peut utiliser un logiciel qui identifie le matériel illégal sans que le système soit exploité par d'autres, comme les gouvernements, qui font pression pour obtenir davantage d'informations privées - une suggestion qu'Apple dément fermement. En outre, Federighi a déclaré que les nouvelles fonctionnalités seront protégées par "de multiples niveaux d'auditabilité".
Federighi a défendu le nouveau système lors de l'interview avec le WSJ, en disant qu'Apple vise à détecter les photos d'abus sexuels d'enfants d'une manière qui protège la vie privée des utilisateurs plus que d'autres systèmes de scan plus invasifs. « Ce que nous faisons, c'est que nous trouvons des images illégales stockées de pédopornographie dans iCloud. Si vous regardez n'importe quel autre service de cloud, ils scannent actuellement les photos en regardant chaque photo dans le cloud et en l'analysant », a déclaré Federighi, tout en refusant l'idée selon laquelle le système de l'entreprise est une porte dérobée.
« Nous voulions être en mesure de repérer de telles photos dans le nuage sans regarder les photos des gens et nous avons imaginé une architecture pour le faire. Le système d'Apple n'est pas une porte dérobée qui brise le chiffrement et il est beaucoup plus privé que tout ce qui a été fait dans ce domaine auparavant. Nous avons développé l'architecture pour identifier les photos de la manière la plus protectrice de la vie privée que nous puissions imaginer et de la manière la plus auditable et vérifiable possible », a poursuivi Federighi. Il a ajouté qu'Apple est la meilleure entreprise en matière de protection de la vie privée.
« Nous, qui nous considérons comme des leaders absolus en matière de protection de la vie privée, voyons ce que nous faisons ici comme une avancée de l'état de l'art en matière de protection de la vie privée, comme la possibilité d'un monde plus privé », a déclaré Federighi.
Quels sont les deux systèmes sur lesquels Apple travaille ?
Apple a donné plus de détails sur son projet d'analyse des photos de CSAM sur les iPhone et iPads des utilisateurs. La société a publié un nouveau document détaillant les mesures de protection qui, espère-t-elle, renforceront la confiance des utilisateurs dans cette initiative. Le document, intitulé "Security Threat Model Review of Apple's Child Safety Features" (examen du modèle de menace de sécurité des dispositifs de sécurité pour enfants d'Apple), a pour objectif de dissiper les inquiétudes en matière de confidentialité et de sécurité liées à ce déploiement. Il s'appuie sur l'entretien accordé par Craig Federighi au WSJ.
Lors de l'interview, mais aussi dans le document, Apple est revenu en détail sur ce en quoi consistent les deux nouvelles fonctionnalités qui seront déployées sur ses appareils plus tard cette année. Elles seront d'abord déployées aux États-Unis, dès la sortie de l'iOS 15.
L'outil de détection d'images de CSAM
Le premier outil permet d'identifier les images de CSAM lorsqu'un utilisateur lance le téléchargement de ses photos vers le stockage iCloud Photos. Pour ce faire, Apple s'appuiera sur les bases de données d'images de CSAM du NCMEC et celles d'autres fournisseurs. Apple a expliqué que le NCMEC gère une base de données d'images illégales connues d'abus d'enfants. Il les stocke sous forme de hashs, une "empreinte digitale" numérique du matériel illégal. Les fournisseurs de services en nuage, tels que Facebook, Google et Microsoft, comparent déjà les images à ces hashs pour s'assurer que les gens ne partagent pas des images de CSAM.
Apple veut mettre en œuvre un processus similaire, mais a déclaré qu'il effectuerait la comparaison des images sur l'iPhone ou l'iPad de l'utilisateur, avant qu'elles ne soient téléchargées sur iCloud. Federighi a précisé que l'iPhone ne vérifierait pas des éléments tels que des photos de vos enfants dans le bain ou la recherche de matériel pornographique. Le système ne pourrait que faire correspondre les "empreintes digitales exactes" d'images spécifiques d'abus pédosexuels connus. Si un utilisateur tente de télécharger plusieurs images qui correspondent à des empreintes digitales d'abus pédosexuels, son compte sera signalé à Apple.
Des humains se chargeront ensuite de faire une analyse plus poussée des images signalées. Federighi a déclaré qu'un utilisateur devrait télécharger environ 30 images correspondantes avant que cette fonction ne soit déclenchée.
L'outil de filtrage des messages
En plus de l'outil de détection de CSAM dans les images en transit vers iCloud Photos, Apple a également annoncé un contrôle parental que les utilisateurs peuvent activer sur les comptes de leurs enfants. S'il est activé, le système vérifie les photos envoyées par - ou à - l'enfant via l'application iMessage d'Apple. Si le système juge qu'une photo contient de la nudité, il la masque et avertit l'enfant. Les parents peuvent également choisir de recevoir une alerte si l'enfant choisit de regarder la photo.
Source : Interview de Craig Federighi, Document technique d'Apple
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous des déclarations d'Apple ?
:fleche: Pensez-vous que le système est aussi sécurisé que l'entreprise le prétend ?
Voir aussi
:fleche: Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone
:fleche: Les fonctions de protection de l'enfance d'Apple suscitent l'inquiétude dans ses propres rangs, des employés craignent qu'elles deviennent une arme au service des gouvernements répressifs
:fleche: Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos, alors que les experts dénoncent un recul dans les progrès en matière de vie privée
:fleche: Le PDG d'Epic Games met en garde contre la "surveillance d'État" d'Apple, alors qu'Epic Games est détenu en partie par Tencent en Chine
:fleche: Le lanceur d'alerte Edward Snowden et l'EFF critiquent le projet d'Apple de scanner les messages et les images iCloud, des milliers de personnes demandent à l'entreprise de suspendre ses plans
1 pièce(s) jointe(s)
Le Parlement allemand demande à Tim Cook de reconsidérer ses projets de CSAM
Le Parlement allemand demande à Tim Cook de reconsidérer ses projets de CSAM
estimant que le système de balayage d'Apple sape la communication confidentielle
Le Parlement allemand est la première institution gouvernementale à s'inviter dans le débat sur les nouvelles fonctionnalités de détection d'images de CSAM qu'Apple a prévu de déployer sur les iPhone et les iPad plus tard cette année. Dans une lettre envoyée au PDG d'Apple Tim Cook, Manuel Hoferlin, le président de la commission de la stratégie numérique du Parlement allemand lui a fait part de ses préoccupations concernant une surveillance de masse. Le responsable a écrit à l'entreprise qu'elle s'engage sur une "voie dangereuse" et que sa décision met en danger "la communication sécurisée et confidentielle".
Les critiques des projets d'Apple concernant les nouvelles fonctions de protection de l'enfance ne s'arrêtent pas. Depuis que l'entreprise a annoncé la semaine dernière qu'elle déploiera de nouvelles fonctionnalités pour détecter localement les photos connues d'abus d'enfants (Child Sexual Abuse Material - CSAM) sur les iPhone et d'autres dispositifs de la marque, le projet a suscité beaucoup d'inquiétudes et de controverses concernant la vie privée des utilisateurs. Le géant de Cupertino est accusé de vouloir mettre en place une porte dérobée pouvant permettre aux gouvernements autoritaires ou répressifs de cibler, surveiller et réprimer les opposants ou d'autres sujets.
Désormais, le débat n'est plus seulement entre Apple et la communauté, regroupant les experts en cybersécurité, les lanceurs d'alertes, les organismes de défense de la vie privée en ligne et les journalistes. Les critiques ont maintenant atteint le Bundestag allemand, le Parlement national, qui se mêle de l'affaire. Celui-ci s'aligne derrière la communauté et dénonce également une surveillance de masse qu'Apple s'apprête à mettre en place. Dans une lettre adressée à Tim Cook, le chef de la commission de la stratégie numérique du parlement allemand, Manuel Hoferlin, souhaite qu'Apple reconsidère ses projets de CSAM en vue de préserver les acquis en matière de vie privée en ligne.
La nouvelle de lettre a été rapportée pour la première fois par le média allemand Heise Online. Selon Hoferlin, avec la reconnaissance locale prévue des photos d'abus sur les iPhone, Apple s'engage sur une "voie dangereuse" et porte atteinte à la "communication sécurisée et confidentielle". Selon le parlementaire, Apple doit s'abstenir de mettre en œuvre la fonction - à la fois pour éviter des "problèmes prévisibles" pour l'entreprise et pour protéger la société de l'information moderne. Il suggère que les mesures de protection prévues par l'entreprise contre les cas de détournements possibles ne pourront rien face à la menace des gouvernements.
« Le balayage prévu par le CSAM serait la plus grande violation de la barrière pour la confidentialité de la communication que nous ayons connue depuis l'invention de l'Internet », a écrit Höferlin dans la lettre qu'il a envoyée à Tim Cook mardi. « Chaque contenu scanné finit par détruire la confiance des utilisateurs dans le fait que leur communication n'est pas surveillée. Sans les communications confidentielles, cependant, Internet devient le plus grand outil de surveillance de l'histoire. Ainsi, la promesse d'Apple de limiter étroitement les fonctions ne pourrait rien y changer » a mis en garde le membre du Bundestag.
Malgré les assurances données par Apple, le parlementaire insiste sur le fait qu'une porte dérobée étroite reste une porte dérobée. Selon lui, les demandes d'ouverture de la porte dérobée pour scanner d'autres types de contenu sont inévitables et Apple pourrait risquer l'accès aux principaux marchés internationaux si elle les rejette. « Même une porte dérobée étroite resterait en fin de compte une porte dérobée », a écrit Höferlin, faisant référence à Édouard Snowden et à l'organisation de défense des droits civils EFF (Electronic Frontier Foundation) qui avaient déjà critiqué les nouvelles fonctions prévues par Apple avec des arguments similaires.
« Les demandes d'extension de la fonction de balayage à d'autres contenus sont prévisibles et Apple pourrait perdre l'accès à de vastes marchés en refusant ces demandes », a-t-il poursuivi. Jusqu'à présent, Tim Cook, le patron d'Apple est resté silencieux par rapport à la controverse que suscitent les nouvelles fonctionnalités de l'entreprise pour la détection d'images de CSAM. Pour rappel, les fonctions de protection de l'enfance prévues par Apple pour l'automne prochain comprennent un filtre pour les photos de nus dans iMessage et un système indépendant de détection des contenus connus d'abus sur les enfants dans les photos iCloud.
Dans le cas de ce deuxième système, une partie fonctionnera localement sur les iPhone et iPad. Selon les précisions d'Apple sur ce système, lorsqu'un seuil d'environ 30 occurrences est atteint sur le dispositif d'un utilisateur, l'entreprise en est informée et peut passer les photos au crible, puis les signaler aux autorités compétentes. Après une communication de crise mouvementée, le patron des logiciels d'Apple a tenté une nouvelle fois de dissiper les inquiétudes à la fin de la semaine dernière. La communauté semble impatiente d'écouter les explications de Tim Cook sur ces nouvelles fonctionnalités sensées accroître la protection des enfants.
Par ailleurs, la lettre du Bundestag arrive un jour après qu'un syndicat allemand de journalistes a demandé à la Commission européenne de se pencher sur la question, en raison de la perception d'une "violation de la liberté de la presse". En effet, les outils CSAM d'Apple ont également suscité les critiques des journalistes d'Allemagne, d'Autriche et de Suisse. Le syndicat de journalistes DJV, l'association des journalistes allemands, estime qu'Apple "a l'intention de surveiller les téléphones portables localement à l'avenir". Dans un communiqué de presse, le syndicat qualifie ces outils de "violation de la liberté de la presse".
Il a demandé instamment à la Commission européenne et aux ministres fédéraux de l'intérieur autrichien et allemand de prendre des mesures. « Apple a introduit un outil avec lequel une entreprise veut accéder aux données d'autres utilisateurs sur leurs propres appareils, comme des contrats et des documents confidentiels, ce qui constituerait une violation des règles du GDPR », dénonce Hubert Krech, porte-parole de l'association AGRA. Dieter Bornemann, porte-parole du conseil de rédaction de l'ORF, suggère que les gouvernements peuvent se servir de ces fonctionnalités pour réprimer les journalistes engagés dans la cause LGBT.
Frank Uberall, président du DJV, ajoute que cela pourrait être la première étape d'une longue série. « Les images ou les vidéos des opposants au régime ou les données des utilisateurs seront-elles vérifiées à un moment donné à l'aide d'un algorithme ? », a demandé Uberall. Le groupe rejette également l'affirmation selon laquelle il ne s'appliquera qu'aux États-Unis, car la plupart des médias européens ont des correspondants dans le pays. « Ce qui commence aux États-Unis suivra certainement en Europe aussi », a déclaré le DJV. Il est important de noter qu'Apple a déclaré que les fonctionnalités seront déployées en premier lieu aux États-Unis, puis dans les autres pays, selon les lois locales.
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous des inquiétudes soulevées le Parlement allemand ?
:fleche: Que pensez-vous des inquiétudes soulevées par les associations de journalistes ?
:fleche: Pensez-vous qu'Apple va faire demi-tour ou déploiera-t-il ces fonctions en dépit des critiques ?
:fleche: Apple pourrait-il déployer discrètement ces fonctionnalités après y avoir renoncé publiquement ?
Voir aussi
:fleche: Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos, alors que les experts dénoncent un recul dans les progrès en matière de vie privée
:fleche: Après les critiques, Apple ne recherchera que les images d'abus signalées dans plusieurs pays et insiste sur le fait qu'il s'agit d'une avancée en matière de confidentialité
:fleche: Les fonctions de protection de l'enfance d'Apple suscitent l'inquiétude dans ses propres rangs, des employés craignent qu'elles deviennent une arme au service des gouvernements répressifs
:fleche: Le PDG d'Epic Games met en garde contre la "surveillance d'État" d'Apple, alors qu'Epic Games est détenu en partie par Tencent en Chine
:fleche: Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone
2 pièce(s) jointe(s)
Apple invite quiconque à inspecter de près son code tout en luttant contre les personnes qui le font
Apple affirme que les chercheurs peuvent vérifier ses fonctionnalités de sécurité pour les enfants,
mais poursuit une startup qui fait exactement cela
Au début du mois, Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste.
Apple a précisé que la technologie de balayage fait partie d'une nouvelle série de systèmes de protection des enfants qui « évolueront et se développeront au fil du temps ». Les fonctionnalités seront déployées dans le cadre d'iOS 15, dont la sortie est prévue le mois prochain. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société.
Le système, appelé neuralMatch, alertera de manière proactive une équipe d'examinateurs humains s'il pense que des images illégales sont détectées. Selon un article de Financial Times, qui a rapporté la nouvelle pour la première fois, les examinateurs humains contacteront ensuite les forces de l'ordre si le matériel peut être vérifié. Le système neuralMatch, qui a été formé à l'aide de 200 000 images du National Center for Missing & Exploited Children, sera d'abord déployé aux États-Unis, puis au reste du monde. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.
Selon les explications de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un « bon de sécurité » indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.
Une initiative qui a créé la division, même au sein des employés Apple. Matthew Green, professeur à l'université John Hopkins et cryptographe, a indiqué sur Twitter : « Ce genre d'outil peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens... Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire ».
En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.
Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.
Apple poursuit une entreprise qui permet d'inspecter son code
Dans une récente interview accordée au Wall Street Journal (WSJ), Apple a reconnu avoir mal géré la communication autour du programme. Craig Federighi, responsable des logiciels chez Apple, a déclaré qu'en prenant du recul, la société s'est rendu compte que l'introduction de deux fonctionnalités en même temps était « une recette pour ce genre de confusion ». « Nous aurions aimé que l'annonce soit un peu plus claire pour tout le monde », a déclaré Federighi. L'ingénieur a apporté plus de détails sur le choix d'Apple et a également annoncé que le projet était toujours en cours de développement et que des changements étaient à prévoir.
Face à la résistance du public, Apple a insisté sur le fait que sa technologie peut être vérifiée. « Les chercheurs en sécurité sont constamment en mesure d'introspecter ce qui se passe dans le logiciel [téléphonique] d'Apple », a déclaré Craig Federighi, vice-président d'Apple, dans une interview au Wall Street Journal. « Donc, si des changements étaient apportés pour étendre la portée d'une manière que nous nous étions engagés à ne pas faire, il y a une vérifiabilité, ils peuvent détecter ce qui se passe ».
Pourtant, Apple poursuit une entreprise qui propose des logiciels pour permettre aux chercheurs en sécurité de faire exactement cela.
En 2019, Apple a déposé une plainte contre Corellium, qui permet aux chercheurs en sécurité de tester facilement et à moindre coût les appareils mobiles en émulant leur logiciel plutôt que de les obliger à accéder aux appareils physiques. Le logiciel, qui émule également les appareils Android, peut être utilisé pour résoudre ces problèmes.
Dans la plainte, Apple a fait valoir que Corellium avait violé ses droits d'auteur, permis la vente de failles logicielles utilisées pour le piratage et qui ne devraient pas exister. La startup a répliqué en disant que son utilisation du code d'Apple était un cas classique protégé de fair usage. Le juge s'est largement rangé du côté de Corellium jusqu'à présent. Une partie de cette affaire vieille de deux ans a été réglée la semaine dernière, quelques jours après que l'actualité de la technologie CSAM de l'entreprise soit devenue publique.
L'annonce de Corellium
Lundi, Corellium a annoncé une subvention de 15 000 $ pour un programme qu'il promeut spécifiquement comme un moyen d'examiner les iPhones au microscope et de tenir Apple responsable :
« Aujourd'hui, en l'honneur du quatrième anniversaire de Corellium, nous annonçons l'Initiative de sécurité ouverte de Corellium. Cette initiative soutiendra la recherche publique indépendante sur la sécurité et la confidentialité des applications et appareils mobiles grâce à une série de prix et à l'accès à la plateforme Corellium. »
« Plus que tout autre domaine de l'informatique, la sécurité dépend de l'existence d'une communauté de chercheurs importante, diversifiée et non officielle. Alors que les avancées dans des domaines tels que la conception de matériel informatique émergent souvent de laboratoires privés bien financés, la majorité des progrès en matière de cybersécurité au cours des dernières décennies sont venus de la "communauté de la recherche en sécurité", une communauté qui comprend non seulement des universitaires et des professionnels accrédités, mais aussi des hackers ou des amateurs. »
« Mener des recherches par des tiers sur les appareils mobiles reste difficile, inefficace et coûteux. En particulier dans l'écosystème iOS, les tests nécessitent généralement un appareil physique jailbreaké. Les jailbreaks reposent sur des exploits complexes, et ils ne sont souvent pas fiables ou disponibles pour les derniers modèles d'appareils et versions de système d'exploitation. »
« Chez Corellium, nous reconnaissons le rôle essentiel que jouent les chercheurs indépendants dans la promotion de la sécurité et de la confidentialité des appareils mobiles. C'est pourquoi nous recherchons constamment des moyens de rendre les recherches de tiers sur les appareils mobiles plus faciles et plus accessibles, et c'est pourquoi nous lançons la Corellium Open Security Initiative. »
« En tant que premier pilote de ce programme, nous lancerons un appel à propositions sur un sujet spécifique. Au fil du temps, nous évaluerons l'ajout de plus de sujets et plus de possibilités de récompenses. Si vous êtes intéressé à parrainer ou à collaborer avec nous sur cette initiative, veuillez nous contacter. »
« La communauté des chercheurs en sécurité joue un rôle central non seulement dans l'identification et la défense contre les menaces de sécurité, mais aussi dans la responsabilisation des éditeurs de logiciels quant aux déclarations de sécurité et de confidentialité qu'ils font à propos de leurs produits. »
Plus loin, Corellium félicite Apple et encourage les autres entreprises technologiques à faire de même :
« Pas plus tard que la semaine dernière, Apple a annoncé qu'il commencerait à numériser les photos téléchargées dans le service iCloud d'Apple pour le matériel d'abus sexuel d'enfants (CSAM). Laissant de côté les débats sur les implications civiles et philosophiques de cette nouvelle fonctionnalité, Apple a fait plusieurs déclarations de confidentialité et de sécurité à propos de ce nouveau système. Ces revendications couvrent des sujets aussi divers que la technologie de hachage d'image, la conception cryptographique moderne, l'analyse de code et la mécanique interne et la conception de la sécurité d'iOS lui-même. Des erreurs dans n'importe quel composant de cette conception globale pourraient être utilisées pour subvertir le système dans son ensemble et, par conséquent, violer les attentes en matière de confidentialité et de sécurité des utilisateurs d'iPhone. »
« Depuis cette annonce initiale, Apple a encouragé la communauté indépendante de la recherche en sécurité à valider et vérifier ses allégations de sécurité. Comme l'a déclaré Craig Federighi, vice-président directeur de l'ingénierie logicielle d'Apple dans une interview au Wall Street Journal, "les chercheurs en sécurité sont constamment en mesure d'introspecter ce qui se passe dans le logiciel [téléphonique] d'Apple, donc si des changements étaient apportés qui devaient étendre la portée de cela dans d'une certaine manière - d'une manière que nous nous étions engagés à ne pas faire - il y a une vérifiabilité, ils peuvent repérer ce qui se passe". »
« Nous applaudissons l'engagement d'Apple à se tenir responsable vis-à-vis des chercheurs tiers. Nous pensons que notre plateforme est particulièrement capable de soutenir les chercheurs dans cet effort. Nos appareils virtuels "jailbreakés" n'utilisent aucun exploit et s'appuient plutôt sur notre technologie d'hyperviseur unique. Cela nous permet de fournir des appareils virtuels enracinés pour une analyse de sécurité dynamique presque dès la sortie d'une nouvelle version d'iOS. De plus, notre plateforme fournit des outils et des capacités qui ne sont pas facilement disponibles avec les appareils physiques. »
« Nous espérons que d'autres fournisseurs de logiciels mobiles suivront l'exemple d'Apple en promouvant la vérification indépendante des allégations de sécurité et de confidentialité. Pour encourager cette recherche importante, pour ce premier pilote de notre initiative de sécurité, nous accepterons des propositions de projets de recherche conçus pour valider toute revendication de sécurité et de confidentialité pour tout fournisseur de logiciel mobile, que ce soit dans le système d'exploitation ou des applications tierces. »
Le lendemain, c'est à dire mardi, Apple a déposé un recours pour poursuivre le procès.
Dans une interview avec MIT Technology Review, le directeur de l'exploitation de Corellium, Matt Tait, a déclaré que les commentaires de Federighi ne correspondent pas à la réalité : « C'est trop facile à dire pour Apple », a-t-il dit. «*iOS est conçu de manière à ce qu'il soit en fait très difficile pour les utilisateurs d'inspecter les services système*».
Il n'est pas le seul à contester la position défendue par Apple.
« Apple exagère la capacité d'un chercheur à examiner le système dans son ensemble », déclare David Thiel, directeur de la technologie à l'observatoire Internet de Stanford. Thiel, l'auteur d'un livre intitulé iOS Application Security, a tweeté que l'entreprise dépensait beaucoup pour empêcher la même chose qu'elle prétend être possible : « Apple a dépensé des sommes considérables spécifiquement pour empêcher cela et rendre de telles recherches difficiles. Ils sont allés jusqu'à poursuivre une entreprise qui a rendu les choses trop faciles. Ce pivot est totalement fallacieux. Si Apple veut s'appuyer sur la communauté de sécurité iOS comme vérification indépendante, il doit cesser de traiter cette communauté comme des ennemis et nous laisser déverrouiller et examiner correctement les appareils. »
Des bâtons dans les roues ?
Si vous voulez voir exactement comment fonctionne la nouvelle technologie complexe d'Apple, vous ne pouvez pas simplement regarder à l'intérieur du système d'exploitation de l'iPhone que vous venez d'acheter au magasin. L'approche de «*jardin clos*» de l'entreprise en matière de sécurité a permis de résoudre certains problèmes fondamentaux, mais cela signifie également que le téléphone est conçu pour empêcher les visiteurs d'entrer.
Les téléphones Android, quant à eux, sont fondamentalement différents. Alors que les iPhones sont connus pour être verrouillés, tout ce que vous avez à faire pour déverrouiller un Android est de brancher un périphérique USB, d'installer des outils de développement et d'obtenir l'accès root de haut niveau.
L'approche d'Apple signifie que les chercheurs sont laissés enfermés dans une bataille sans fin avec l'entreprise pour essayer d'obtenir le niveau de compréhension dont ils ont besoin.
Cependant, il existe plusieurs manières possibles pour Apple et les chercheurs en sécurité de vérifier qu'aucun gouvernement n'utilise à des fins de surveillance les nouvelles fonctionnalités de sécurité des enfants de l'entreprise : Apple pourrait remettre le code pour examen, même si ce n'est pas quelque chose qu'il a dit qu'il ferait. Les chercheurs peuvent également essayer de désosser la fonctionnalité de manière « statique », c'est-à-dire sans exécuter les programmes réels dans un environnement réel.
De manière réaliste, cependant, aucune de ces méthodes ne vous permet de regarder le code exécuté en direct sur un iPhone à jour pour voir comment il fonctionne réellement. Au lieu de cela, il faut avoir confiance non seulement dans le fait qu'Apple est ouvert et honnête, mais aussi dans le fait qu'il a écrit le code sans aucune erreur ou oubli significatif.
Une autre possibilité serait d'accorder l'accès au système aux membres du Security Research Device Program d'Apple afin de vérifier les déclarations de l'entreprise. Mais ce groupe, soutient Thiel, est composé de chercheurs extérieurs à Apple, est lié par tant de règles sur ce qu'ils peuvent dire ou faire que cela ne résout pas nécessairement le problème de la confiance.
Cela ne laisse vraiment que deux options. Premièrement, les hacker peuvent jailbreaker d'anciens iPhones à l'aide d'une vulnérabilité zero-day. C'est difficile et coûteux, et cela peut être bloqué par un correctif de sécurité. D'ailleurs Thiel rappelle qu'Apple a dépensé beaucoup d'argent pour essayer d'empêcher les gens de pouvoir jailbreaker des téléphones : « Ils ont spécifiquement embauché des personnes de la communauté de jailbreak pour rendre le jailbreak plus difficile. »
Ou un chercheur peut utiliser un iPhone virtuel qui peut désactiver les fonctions de sécurité d'Apple. En pratique, cela signifie faire appel à Corellium.
Il y a également des limites à ce que tout chercheur en sécurité pourra observer, mais si Apple scanne des choses au-delà des photos partagées sur iCloud, un chercheur pourrait être en mesure de le repérer.
Cependant, si quelque chose d'autre que du matériel d'abus d'enfants entre dans les bases de données, cela serait invisible pour les chercheurs. Pour répondre à cette question, Apple dit qu'il faudra que deux organisations distinctes de protection de l'enfance dans des juridictions distinctes aient la même image d'abus dans leurs propres bases de données. Mais l'entreprise a donné peu de détails sur la façon dont cela fonctionnerait, qui gérerait les bases de données, quelles juridictions seraient impliquées et quelles seraient les sources ultimes de la base de données.
Un véritable problème à résoudre
Thiel souligne que le problème qu'Apple essaie de résoudre est réel.
« Ce n'est pas une préoccupation théorique », dit-il à propos du matériel pédopornographique. « Ce n’est pas quelque chose que les gens invoquent simplement comme excuse pour mettre en place une surveillance. Il s'agit d'un problème réel qui est répandu et doit être abordé. La solution n'est pas de se débarrasser de ce genre de mécanismes .»
Mais, dit Tait de Corellium, Apple essaie d'être à la fois fermé et transparent.
« Apple essaie d'avoir son gâteau et de le manger aussi », explique Tait, un ancien spécialiste de la sécurité de l'information pour le service de renseignement britannique GCHQ. »
« Avec leur main gauche, ils rendent difficile le jailbreak et poursuivent des entreprises comme Corellium pour les empêcher d'exister. Avec leur main droite, ils disent : "Oh, nous avons construit ce système vraiment compliqué et il s'avère que certaines personnes ne croient pas qu'Apple l'a fait honnêtement, mais ce n'est pas grave parce que n'importe quel chercheur en sécurité peut aller de l'avant et le constater". »
Sources : Correlium, entretien avec Federighi, David Thiel, Washington Post
1 pièce(s) jointe(s)
Le plan de surveillance des appareils d'Apple est une menace pour la vie privée des utilisateurs
« Le plan de surveillance des appareils d'Apple est une menace pour la vie privée des utilisateurs - et la liberté de la presse »
prévient la Freedom of the Press Association
Les groupes de défense des droits de l'homme, de la liberté d'expression et de la vie privée en ligne continuent de mettre la pression à Apple pour qu'il abandonne ses plans de détection de CSAM [child sexual abuse material] sur les appareils des utilisateurs. Un nouveau groupe s'est joint à la cause ce jeudi, notamment la Freedom of the Press Association (FPA), qui allègue que le projet de surveillance des appareils d'Apple est une menace pour la vie privée des utilisateurs, mais également pour la liberté de la presse. Apple insiste toujours sur le bien-fondé de ce projet et assure que le système ne peut pas être détourné.
La Freedom of the Press Association rejoint le combat contre Apple
Au début du mois, Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS et iPadOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste. Apple a précisé que cette nouvelle technologie fait partie d'une nouvelle série de systèmes de protection des enfants qui « évolueront et se développeront au fil du temps ».
Les fonctionnalités seront déployées dans le cadre d'iOS 15, qui devrait sortir le mois prochain. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société. Mais les choses ne sont pas passées comme prévu. En effet, lorsqu'Apple a annoncé ses plans il y a deux semaines, la société s'attendait peut-être à une faible controverse. Après tout, les abus sexuels sur les enfants sont un problème que tout le monde veut résoudre.
Cela dit, la réaction des défenseurs de la vie privée et des droits de l'homme a été rapide, forte et presque unanime. Les plaintes ne portaient pas principalement sur la mise en œuvre précise annoncée par Apple, mais plutôt sur le dangereux précédent qu'elle crée. Les façons dont la technologie pourrait être utilisée à mauvais escient à l'avenir lorsqu'Apple et ses partenaires seront soumis à la pression extérieure des gouvernements ou d'autres acteurs puissants sont presque trop nombreuses pour être comptées. Selon la FPA, de manière très générale, les atteintes à la vie privée proviennent de situations où de "faux positifs" sont générés.
C'est-à-dire qu'une image, un appareil ou un utilisateur est signalé alors qu'il n'y a aucune image d'abus sexuel. « Ce type de faux positifs peut se produire si la base de données de comparaison a été modifiée ou élargie pour inclure des images qui ne représentent pas d'abus sexuels, ou si un adversaire peut tromper l'algorithme d'Apple en faisant correspondre par erreur une image existante. (Apple, pour sa part, a déclaré qu'un faux positif accidentel - où une image innocente est signalée comme du matériel pédopornographique sans raison - est extrêmement improbable, ce qui est probablement vrai) », a déclaré l'association aujourd'hui.
Selon elle, le problème des faux positifs touche plus directement les questions de liberté de la presse lorsqu'on considère la première catégorie, avec des adversaires qui peuvent modifier le contenu de la base de données à laquelle les appareils Apple comparent les fichiers. Elle estime qu'une organisation qui pourrait ajouter des copies de ses dossiers internes ayant fait l'objet de fuites pourrait trouver les appareils qui détiennent ces données - y compris, potentiellement, les dénonciateurs et les journalistes qui ont travaillé sur une histoire donnée. Cela pourrait également révéler l'ampleur d'une fuite si elle n'est pas encore connue.
Les gouvernements qui pourraient inclure des images critiques de leurs politiques ou de leurs responsables pourraient également trouver les dissidents qui échangent ces fichiers. Dans un billet de blogue publié ce jeudi, l'organisation affirme que ces préoccupations ne sont pas purement hypothétiques. Elle note, par exemple, que la Chine obligerait déjà certains de ses citoyens à installer directement sur leurs appareils des applications qui recherchent les images qu'elle juge pro- Ouïghour. Cela dit, il faut noter qu'Apple a déclaré dans un document FAQ qu'il s'opposera à l'insertion d'images non-CSAM dans la base de données de hachage.
« Apple refuserait de telles demandes et notre système a été conçu pour empêcher que cela ne se produise », a déclaré l'entreprise. Cependant, la FPA estime que ce n'est pas aussi simple. « Si seulement c'était aussi simple ! Même avec les meilleures intentions, Apple et les organisations qui maintiennent les bases de données en question sont susceptibles de faire face à une pression extrême des gouvernements du monde entier pour étendre leurs efforts à toutes sortes d'autres types de contenus illégaux. Et les ordres juridiques ne sont pas exactement quelque chose que les entreprises peuvent simplement refuser », a-t-elle déclaré.
Electronic Frontier Foundation : si vous construisez, ils viendront
Après de nombreuses critiques, Apple a publié la semaine dernière de nouvelles clarifications sur les efforts visant à atténuer ces préoccupations. Il ne correspondrait qu'aux images qui ont été signalées par des groupes dans plusieurs pays, et les utilisateurs avertis seraient en mesure de vérifier que la liste des images que leur propre téléphone vérifie est la même que sur tous les autres téléphones. Si ces garanties permettent d'atténuer le risque d'un point de défaillance unique, elles ne répondent pas entièrement aux risques posés par un acteur étatique. De même, Apple poursuit actuellement en justice une startup qui fait exactement cela.
Par ailleurs, la Freedom of the Press Association indique dans son billet de blogue que malheureusement, la société a parfois cédé à ce type de pression. Des rapports publiés plus tôt dans l'année ont révélé que, sous pression, Apple a accepté de stocker les données des utilisateurs et les clés de chiffrement en Chine, à la demande du gouvernement, et a accédé aux demandes de données iCloud. La société a aussi retiré des applications et des jeux de sa place de marché pour se conformer aux réglementations locales. Alors, que ferait-elle différemment face à de nouvelles demandes d'utilisation abusive de cette technologie de comparaison d'images ?
Comme l'a déjà souligné l'Electronic Frontier Foundation : « si vous construisez, ils viendront ». « L'exploitation des enfants est un problème grave, et Apple n'est pas la première entreprise technologique à modifier sa position en matière de protection de la vie privée pour tenter de le combattre. Mais ce choix aura un prix élevé pour la vie privée globale des utilisateurs », a déclaré l'EFF, ajoutant qu'une porte dérobée ne pourrait en aucun cas être sécurisée. L'EFF a déclaré qu'il était extrêmement "déçu qu'un champion du chiffrement de bout en bout" entreprenne une volte-face choquante pour les utilisateurs.
Selon la Freedom of the Press Association, au-delà de la possibilité d'altération de la base de données, les faux positifs pourraient aussi se produire si des adversaires parviennent à générer des fichiers qui entrent en collision avec des images connues dans la base de données. Avant même l'annonce officielle d'Apple, les chercheurs ont demandé à l'entreprise de publier son algorithme de comparaison afin de voir dans quelle mesure il est sensible à ce type de fausses correspondances générées (généralement appelées "exemples contradictoires" dans le monde de l'apprentissage automatique).
Mais jusqu'à présent, Apple a refusé de rendre cette fonction de correspondance disponible, même si la société a demandé aux chercheurs en sécurité de vérifier son travail. Cependant, des chercheurs semblent avoir récemment extrait la fonction de correspondance d'iOS et ont même généré une correspondance "préimage", c'est-à-dire un fichier créé de toutes pièces que la fonction de correspondance d'Apple ne peut distinguer d'une autre image connue. Selon la FPA, cela représente un sérieux problème pour les plans d'Apple : des adversaires capables de générer de faux positifs pourraient inonder le système de mauvaises données.
Ils peuvent aussi utiliser les appareils d'utilisateurs peu méfiants pour les héberger. L'organisation a déclaré que les premiers exemples d'adversaires ressemblent à du bruit blanc, mais ce n'est probablement qu'une question de temps avant qu'ils puissent être intégrés dans une tout autre image. « Les journalistes, en particulier, s'appuient de plus en plus sur les solides protections de la vie privée fournies par Apple, même lorsque d'autres grandes entreprises technologiques ne le font pas », a déclaré l'association, rappelant que par le passé, Apple a déjà refusé d'ouvrir l'iPhone d'un suspect en raison du précédent que cela pouvait créer.
« Apple a refusé de remanier son logiciel pour ouvrir le téléphone d'un terroriste présumé - non pas parce qu'elle voulait protéger le contenu du téléphone du criminel, mais parce qu'il s'inquiétait du précédent que cela créerait pour les autres personnes qui comptent sur la technologie d'Apple pour se protéger. En quoi cette situation est-elle différente ? », s'interroge l'association.
« Aucune porte dérobée pour les forces de l'ordre ne sera suffisamment sûre pour empêcher les mauvais acteurs de continuer à l'ouvrir juste un peu plus. Les risques pour la vie privée que présente ce système sont trop extrêmes pour être tolérés. Apple a peut-être eu de nobles intentions avec le système annoncé, mais les bonnes intentions ne suffisent pas à sauver un plan qui est pourri jusqu'à la moelle », a-t-elle conclu, demandant à Apple de renoncer immédiatement à ces plans.
Des dizaines d'organisations forment une coalition contre d'Apple
La coalition contre cette démarche d'Apple continue de grandir depuis l'annonce de la société. Ils seraient désormais plus de 90 groupes politiques et de défense des droits à travers le monde. Ils ont publié ce jeudi une lettre ouverte demandant à Apple d'abandonner son projet de scanner les messages des enfants à la recherche de nudité et les téléphones des adultes à la recherche d'images d'abus sexuels sur des enfants. Certains signataires étrangers, en particulier, s'inquiètent de l'impact des changements dans des pays dotés de systèmes juridiques différents, dont certains sont déjà le théâtre de luttes acharnées sur le chiffrement et la vie privée.
« Bien que ces fonctionnalités soient destinées à protéger les enfants et à réduire la diffusion de documents relatifs à des abus sexuels sur des enfants, nous craignons qu'elles ne soient utilisées pour censurer des discours protégés, menacer la vie privée et la sécurité de personnes dans le monde entier et avoir des conséquences désastreuses pour de nombreux enfants », a écrit la coalition dans une lettre ouverte publiée aujourd'hui par le Center for Democracy & Technology (CDT). Parmi les signataires figurent de nombreux groupes au Brésil, où les tribunaux ont bloqué à plusieurs reprises l'application WhatsApp de Facebook.
WhatsApp a refusé à plusieurs reprises de déchiffrer des messages dans le cadre d'enquêtes criminelles. De plus, le sénat brésilien a adopté un projet de loi imposant la traçabilité des messages, ce qui nécessiterait de marquer leur contenu d'une manière ou d'une autre. Une loi similaire a été adoptée en Inde cette année. « Notre principale préoccupation est la conséquence de ce mécanisme, comment il pourrait être étendu à d'autres situations et à d'autres entreprises. Cela représente un sérieux affaiblissement du chiffrement », a déclaré Flavio Wagner, président de la section indépendante brésilienne de l'Internet Society, qui a signé.
« C'est très décevant et contrariant qu'Apple fasse cela, car il a été un allié fidèle dans la défense du chiffrement par le passé », a déclaré Sharon Bradford Franklin, codirectrice du projet de sécurité et de surveillance du CDT. D'autres signataires se trouvent en Inde, au Mexique, en Allemagne, en Argentine, en Tanzanie et au Ghana. Alors que les plaintes se baisaient jusque-là sur le balayage des iPhone, la lettre de la coalition dénonce également une modification d'iMessage dans les comptes familiaux, qui tenterait d'identifier et d'estomper la nudité dans les messages des enfants et ne les laisserait voir que si les parents en sont informés.
Selon les signataires, cette mesure pourrait mettre en danger les enfants vivant dans des foyers intolérants ou ceux qui recherchent du matériel éducatif. De manière plus générale, ils ont déclaré que ce changement briserait le chiffrement de bout en bout d'iMessage, qu'Apple a farouchement défendu dans d'autres contextes. « Une fois cette fonction de porte dérobée intégrée, les gouvernements pourraient contraindre Apple à étendre la notification à d'autres comptes et à détecter les images choquantes pour des raisons autres que leur caractère sexuellement explicite », indique la lettre. Les autres groupes signataires sont l'American Civil Liberties Union, l'Electronic Frontier Foundation, Access Now, Privacy International et le projet Tor.
Sources : Freedom of the Press Association, Lettre de la coalition
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
Voir aussi
:fleche: Le lanceur d'alerte Edward Snowden et l'EFF critiquent le projet d'Apple de scanner les messages et les images iCloud, des milliers de personnes demandent à l'entreprise de suspendre ses plans
:fleche: Apple invite les chercheurs à vérifier ses fonctionnalités de sécurité pour les enfants, mais poursuit en justice une startup qui fait exactement cela
:fleche: Après les critiques, Apple ne recherchera que les images d'abus signalées dans plusieurs pays et insiste qu'il s'agit d'une avancée en matière de confidentialité
:fleche: Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos, alors que les experts dénoncent un recul dans les progrès en matière de vie privée
:fleche: Le Parlement allemand demande à Tim Cook de reconsidérer ses projets de CSAM, estimant que le système de balayage d'Apple sape la communication confidentielle
2 pièce(s) jointe(s)
Apple analyse déjà les pièces jointes sur iCloud Mail à la recherche de contenu pédopornographique
Apple effectue déjà une analyse des pièces jointes envoyées par iCloud Mail à la recherche de contenu pédopornographique,
mais l'entreprise affirme ne pas le faire sur iCloud Photos
Au début du mois, Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste.
Apple a précisé que la technologie de balayage fait partie d'une nouvelle série de systèmes de protection des enfants qui « évolueront et se développeront au fil du temps ». Les fonctionnalités seront déployées dans le cadre d'iOS 15, dont la sortie est prévue le mois prochain. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société.
Le système, appelé neuralMatch, alertera de manière proactive une équipe d'examinateurs humains s'il pense que des images illégales sont détectées. Selon un article de Financial Times, qui a rapporté la nouvelle pour la première fois, les examinateurs humains contacteront ensuite les forces de l'ordre si le matériel peut être vérifié. Le système neuralMatch, qui a été formé à l'aide de 200 000 images du National Center for Missing & Exploited Children, sera d'abord déployé aux États-Unis, puis au reste du monde. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.
Selon les explications de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un « bon de sécurité » indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.
Une initiative qui a créé la division, même au sein des employés Apple. Matthew Green, professeur à l'université John Hopkins et cryptographe, a indiqué sur Twitter : « Ce genre d'outil peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens... Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire ».
En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.
Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.
Apple scanne déjà iCloud Mail à la recherche de contenu pédopornographique, et ce depuis 2019
Apple a confirmé qu'il scanne déjà iCloud Mail à la recherche de contenu pédopornographique, et ce depuis 2019. Cependant, l'entreprise affirme ne pas avoir parcouru les photos iCloud ou les sauvegardes iCloud.
Une précision qui est venue lorsque les médias ont interrogé Apple suite à une déclaration plutôt étrange du chef de la lutte contre la fraude de l'entreprise dans un échange sur iMessage : il a déclaré qu'Apple était « la meilleure plateforme pour la distribution de pornographie juvénile ». Cela a immédiatement soulevé la question : si l'entreprise ne parcourait pas les photos iCloud, comment pourrait-elle le savoir ?
Le fil iMessage a été repéré par les médias tandis qu'ils parcouraient les e-mails, messages et autres documents internes remis par Apple dans le cadre de l'affaire l'opposant à Epic Games.
Ironiquement, Friedman suggère en fait que Facebook effectue une meilleure détection qu'Apple :
- Les projecteurs sur Facebook etc. sont tous sur la confiance et la sécurité (faux comptes, etc.). Pour ce qui concerne la vie privée, ils sont nuls.
- Nos priorités sont l'inverse. C'est pourquoi nous sommes la plus grande plateforme de distribution de pornographie juvénile, etc.
Un collègue remet cela en doute, demandant si cela est vrai :
- Vraiment ? Je veux dire, y en a-t-il beaucoup dans notre écosystème ? Je pensais qu'il y avait encore plus d'opportunités pour les mauvais acteurs sur d'autres systèmes de partage de fichiers.
Ce à quoi Friedman à répondu par « Oui ».
Le document est sans surprise étiqueté « Haute confidentialité – peut uniquement être lu par des avocats ».
Il existe également quelques autres indices indiquant qu'Apple devait effectuer une sorte d'analyse à la recherche de contenu pédopornographique. Une version archivée de la page sur la sécurité des enfants d'Apple disait ceci :
« Apple s'engage à protéger les enfants dans tout notre écosystème, où que nos produits soient utilisés, et nous continuons à soutenir l'innovation dans cet espace. Nous avons développé des protections robustes à tous les niveaux de notre plateforme logicielle et tout au long de notre chaîne d'approvisionnement. Dans le cadre de cet engagement, Apple utilise la technologie de correspondance d'images pour aider à trouver et à signaler l'exploitation d'enfants. Tout comme les filtres antispam dans les e-mails, nos systèmes utilisent des signatures électroniques pour détecter les soupçons d'exploitation d'enfants. Nous validons chaque correspondance par un examen individuel. Les comptes avec du contenu d'exploitation d'enfants enfreignent nos conditions générales de service, et tous les comptes que nous trouvons avec ce matériel seront désactivés ».
De plus, le responsable de la protection de la vie privée de l'entreprise a déclaré la même chose en janvier 2020. En fait, Jane Horvath, responsable de la protection de la vie privée d'Apple, a déclaré lors d'une conférence technique que la société utilisait une technologie de filtrage pour rechercher les images illégales. La société a expliqué qu'elle désactive les comptes si Apple trouve des preuves de matériel d'exploitation d'enfants, bien qu'elle n'a pas précisé comment elle le découvre.
Apple n'a pas voulu commenter la citation de Friedman, mais a déclaré a la presse que la société n'avait jamais scanné les photos iCloud.
Apple scanne iCloud Mail
Cependant, Apple a confirmé qu'il analysait chaque pièce jointe des iCloud Mail à la recherche du contenu pédopornographique depuis 2019. Le courrier électronique n'est pas chiffré, donc l'analyse des pièces jointes lorsque le courrier passe par les serveurs Apple serait une tâche triviale.
Apple a également indiqué qu'il effectuait une analyse limitée d'autres données, mais ne voulait pas expliquer à la presse de quoi il s'agissait, sauf pour suggérer que c'était à petite échelle. L'entreprise a précisé que les « autres données » n'incluent pas les sauvegardes iCloud.
Bien que la déclaration de Friedman dans l'échange iMessage pourrait sembler factuelle (comme si elle était basée sur des données concrètes), la sortie médiatique d'Apple suggère que ce n'est probablement pas le cas. Le nombre total de rapports qu'Apple catégorise dans cette catégorie chaque année se compte par centaines, ce qui signifie que l'analyse des e-mails ne fournirait aucune preuve d'un problème à grande échelle sur les serveurs Apple.
L'explication réside probablement dans le fait que d'autres services cloud analysaient des photos à la recherche de ce type de contenu, contrairement à Apple. Si d'autres services désactivaient les comptes pour faire suite au téléchargement de contenu pédopornographique et que iCloud Photos ne l'était pas (parce que la société n'y faisait pas d'analyse), alors la déduction logique serait qu'il existe plus de contenu pédopornographique sur la plateforme d'Apple que partout ailleurs. Friedman a probablement fait des conjectures pour arriver à cette conclusion.
Sources : déclaration Apple, Web Archive
1 pièce(s) jointe(s)
Apple retarde les fonctionnalités controversées de protection de l'enfance après un tollé sur la vie privée
Apple retarde les fonctionnalités controversées de protection de l'enfance après un tollé sur la vie privée
des défenseurs des droits numériques les considérant comme « une porte dérobée »
Début août, Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste.
Apple a précisé que la technologie de balayage fait partie d'une nouvelle série de systèmes de protection des enfants qui « évolueront et se développeront au fil du temps ». Les fonctionnalités seront déployées dans le cadre d'iOS 15, dont la sortie est prévue ce mois-ci. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société.
Le système, appelé neuralMatch, alertera de manière proactive une équipe d'examinateurs humains s'il pense que des images illégales sont détectées. Selon un article de Financial Times, qui a rapporté la nouvelle pour la première fois, les examinateurs humains contacteront ensuite les forces de l'ordre si le matériel peut être vérifié. Le système neuralMatch, qui a été formé à l'aide de 200 000 images du National Center for Missing & Exploited Children, sera d'abord déployé aux États-Unis, puis au reste du monde. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.
Selon les explications de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un « bon de sécurité » indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.
La réaction des employés d'Apple
Une initiative qui a créé la division, même au sein des employés Apple. Selon un rapport, un nombre indéterminé d'employés d'Apple se sont tournés vers les canaux internes de Slack pour faire part de leurs préoccupations concernant la détection CSAM. Plus précisément, les employés craignent que les gouvernements ne forcent Apple à utiliser la technologie à des fins de censure en trouvant un contenu autre que CSAM. Certains employés ont manifesté leurs craintes de voir Apple porter atteinte à sa réputation de leader en matière de confidentialité.
En quelques jours, les employés d'Apple ont échangé plus de 800 messages sur le plan annoncé, ont déclaré des travailleurs à la presse qui ont demandé à ne pas être identifiés. Beaucoup ont exprimé leur inquiétude que la fonctionnalité puisse être exploitée par des gouvernements répressifs cherchant à trouver d'autres matériaux pour la censure ou les arrestations, selon ces travailleurs.
Les changements de sécurité passés chez Apple ont également suscité des inquiétudes parmi les employés, mais le volume et la durée du nouveau débat sont surprenants, ont précisé les travailleurs. Les employés d'Apple occupant des postes liés à la sécurité des utilisateurs ne sont pas censés avoir fait partie de la protestation interne, selon le rapport.
Edward Snowden
Dans une série de tweets, le militant de la protection de la vie privée Edward Snowden a souligné les inquiétudes qu'Apple déploie une forme de « surveillance de masse dans le monde entier » et crée un précédent qui pourrait permettre à l'entreprise de rechercher tout autre contenu arbitraire dans le futur.
« Peu importe à quel point les intentions sont bonnes, Apple déploie une surveillance de masse dans le monde entier avec cela. Ne vous y trompez pas : s'ils peuvent rechercher de la pédopornographie aujourd'hui, ils pourraient rechercher n'importe quoi demain. Ils ont transformé un billion de dollars d'appareils en iNarcs— sans demander ».
Snowden a également noté qu'Apple a toujours été un leader du secteur en termes de confidentialité numérique et a même refusé de déverrouiller un iPhone appartenant à Syed Farook, l'un des tireurs des attentats de décembre 2015 à San Bernardino, en Californie, malgré les injonctions du FBI et d'un juge fédéral. Apple s'est opposé à l'ordonnance, notant qu'elle créerait un « précédent dangereux ».
L'Electronic Frontier Foundation
Le groupe de défense des droits numériques à but non lucratif a vivement condamné la décision d'Apple d'analyser les bibliothèques et les messages iCloud des utilisateurs, affirmant qu'il est extrêmement « déçu » qu'un « champion du chiffrement de bout en bout » entreprenne une « choquante volte-face pour les utilisateurs qui se sont appuyés sur le leadership de l'entreprise en matière de confidentialité et de sécurité » :
« L'exploitation des enfants est un problème grave, et Apple n'est pas la première entreprise technologique à modifier sa position de protection de la vie privée pour tenter de la combattre. Mais ce choix aura un prix élevé pour la confidentialité globale des utilisateurs. Apple peut expliquer en détail comment sa mise en œuvre technique préservera la confidentialité et la sécurité de sa porte dérobée proposée, mais en fin de compte, même une porte dérobée soigneusement documentée, soigneusement pensée et à portée étroite est toujours une porte dérobée... ».
« Il est impossible de créer un système de numérisation côté client qui ne peut être utilisé que pour les images sexuellement explicites envoyées ou reçues par des enfants. En conséquence, même un effort bien intentionné pour construire un tel système brisera les promesses clés du chiffrement et ouvrira la porte à des abus plus larges. ».
« Tout ce qu'il faudrait pour élargir la porte dérobée étroite qu'Apple construit est une extension des paramètres d'apprentissage automatique pour rechercher des types de contenu supplémentaires, ou un ajustement des indicateurs de configuration à analyser, pas seulement les comptes des enfants, mais ceux de n'importe qui. Ce n'est pas une pente glissante ; c'est un système entièrement construit qui n'attend que la pression extérieure pour faire le moindre changement ».
L'EFF a souligné comment divers gouvernements du monde entier ont adopté des lois qui exigent la surveillance et la censure du contenu sur diverses plateformes, y compris les applications de messagerie, et que la décision d'Apple de numériser les messages et iCloud Photos pourrait être légalement tenue d'inclure du matériel supplémentaire ou facilement être élargie. « Ne vous méprenez pas : il s'agit d'une diminution de la confidentialité pour tous les utilisateurs de iCloud Photos , pas d'une amélioration », a averti l'EFF.
Les chercheurs
Matthew Green, professeur à l'université John Hopkins et cryptographe, a indiqué sur Twitter : « Ce genre d'outils peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens... Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire ».
En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.
Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.
La polémique aura eu raison des intentions d’Apple
Apple a décidé de retarder ses fonctionnalités de protection de l'enfance annoncées le mois dernier, y compris une fonctionnalité controversée qui analyserait les photos des utilisateurs à la recherche de matériel pédopornographique (CSAM), à la suite de vives critiques selon lesquelles les changements pourraient diminuer la confidentialité des utilisateurs. Les changements devaient être déployés plus tard cette année.
« Le mois dernier, nous avons annoncé des plans pour des fonctionnalités destinées à aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et à limiter la propagation du matériel d'abus sexuel d'enfants », a déclaré Apple dans une mise à jour de son communiqué de presse. « Sur la base des commentaires des clients, des groupes de défense des droits, des chercheurs et d'autres, nous avons décidé de prendre plus de temps au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d'une importance cruciale ».
Matthew Green, chercheur en cybersécurité à l'Université Johns Hopkins qui avait critiqué la décision d'Apple, a déclaré que la décision d'Apple était « prometteuse ». Green a déclaré sur Twitter qu'Apple devrait « être clair sur les raisons pour lesquelles Apple scanne mais aussi ce qu'Apple scanne. Passer de l'analyse de rien (en dehors des pièces jointes aux e-mails) à l'analyse de la photothèque privée de tout le monde est énorme. Vous devez justifier des escalades comme celle-ci ».
Apple jouait les défenseurs de son initiative depuis des semaines, et avait déjà proposé une série d'explications et de documents pour montrer que les risques de fausses détections étaient faibles. L'éditeur avait prévu de déployer la fonctionnalité pour iPhones, iPads et Mac avec des mises à jour logicielles plus tard cette année aux États-Unis.
Source : Apple, Snowden, EFF