Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs,
mais les chercheurs en sécurité craignent une surveillance de masse des iPhone

Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste. Le projet, qui devrait prendre vie aux États-Unis avant d'être étendu au reste du monde, suscite l'indignation et la communauté dénonce une surveillance de masse orchestrée par Apple.

À en juger par le nombre de critiques négatives vis-à-vis d'Apple, cette initiative n'est sans doute pas la meilleure de l'entreprise dans sa lutte contre la pédophilie et la pédopornographie. Apple, qui est un fervent défenseur de la vie privée et qui est connu pour avoir refusé de déverrouiller l'iPhone d'un suspect dans le cadre d'une enquête fédérale, envisage désormais d'"espionner" ses utilisateurs. L'entreprise a l'intention d'installer un logiciel sur les iPhone américains pour détecter les images d'abus d'enfants. Elle a présenté son projet pour la première à des universitaires en début de semaine lors d'une visioconférence.

Nom : iphone-communication-safety-feature-arned.jpg
Affichages : 3564
Taille : 96,7 Ko

Plus tard, Apple a confirmé ses projets dans un billet de blogue, précisant que la technologie de balayage fait partie d'une nouvelle série de systèmes de protection des enfants qui "évolueront et se développeront au fil du temps". Les fonctionnalités seront déployées dans le cadre d'iOS 15, dont la sortie est prévue le mois prochain. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société.

Le système, appelé neuralMatch, alertera de manière proactive une équipe d'examinateurs humains s'il pense que des images illégales sont détectées. Selon un article de Financial Times, qui a rapporté la nouvelle pour la première fois, les examinateurs humains contacteront ensuite les forces de l'ordre si le matériel peut être vérifié. Le système neuralMatch, qui a été formé à l'aide de 200 000 images du National Center for Missing & Exploited Children, sera d'abord déployé aux États-Unis. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.

Selon les explications du géant de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un "bon de sécurité" indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.

Il faut noter que neuralMatch représente la dernière tentative d'Apple de trouver un compromis entre sa propre promesse de protéger la vie privée des clients et les demandes des gouvernements, des organismes d'application de la loi et des militants pour la sécurité des enfants pour une plus grande assistance dans les enquêtes criminelles, y compris le terrorisme et la pédopornographie. La tension entre les entreprises technologiques telles qu'Apple et Facebook, qui ont défendu leur utilisation croissante du chiffrement dans leurs produits et services, et les forces de l'ordre n'a fait que s'intensifier depuis 2016.

À l'époque, Apple était allé en justice avec le FBI au sujet de l'accès à l'iPhone d'un suspect terroriste après une fusillade à San Bernardino, en Californie. Cette décision est donc perçue comme une sorte de volte-face de la part d'Apple, qui s'est déjà opposé aux forces de l'ordre pour défendre la vie privée des utilisateurs. Matthew Green, professeur à l'université John Hopkins et cryptographe, a fait part de ses inquiétudes concernant ce système sur Twitter mercredi soir. « Ce genre d'outils peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens », a déclaré Green.

« Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire », s'est-il interrogé. Cela inquiète les chercheurs en sécurité qui préviennent que cela pourrait ouvrir la porte à la surveillance des appareils personnels de millions de personnes. Les chercheurs en sécurité, bien qu'ils soutiennent les efforts d'Apple pour lutter contre la maltraitance des enfants, s'inquiètent du fait que l'entreprise risque de permettre aux gouvernements du monde entier de chercher à accéder aux données personnelles de leurs citoyens, potentiellement bien au-delà de son intention initiale.

« C'est une idée absolument épouvantable, car elle va conduire à une surveillance massive et distribuée de nos téléphones et ordinateurs portables », a déclaré Ross Anderson, professeur d'ingénierie de la sécurité à l'université de Cambridge. En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.

Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.

Les systèmes de stockage de photos dans le nuage et les sites de réseaux sociaux recherchent déjà les images d'abus d'enfants. Apple utilise, par exemple, des techniques de hachage lorsque les photos sont téléchargées sur iCloud Photos. Toutes les photos téléchargées sur iCloud Photos pour la sauvegarde et la synchronisation ne sont pas stockées en chiffrement de bout en bout. Les photos sont stockées sous une forme chiffrée dans les fermes de serveurs d'Apple, mais les clés de déchiffrement sont également la propriété d'Apple. Cela signifie que les forces de l'ordre peuvent assigner Apple et voir toutes les photos téléchargées par un utilisateur.

Ce n'est pas inhabituel, tous les services photo tiers fonctionnent de cette manière. Cependant, ce processus devient plus complexe lorsqu'on essaie d'accéder aux données stockées sur un appareil personnel. Ce nouveau système se ferait côté client, sur l'appareil de l'utilisateur. « Le système d'Apple est moins invasif dans la mesure où le contrôle est effectué sur le téléphone, et ce n'est qu'en cas de correspondance qu'une notification est envoyée aux personnes effectuant la recherche », a déclaré Alan Woodward, professeur de sécurité informatique à l'université du Surrey.

Selon Woodward l'approche d'Apple est quand même "louable". « Cette approche décentralisée est à peu près la meilleure approche que vous puissiez adopter si vous vous engagez dans cette voie », a-t-il ajouté. L'algorithme neuralMatch d'Apple analysera en permanence les photos stockées sur l'iPhone d'un utilisateur américain et qui ont également été téléchargées sur son système de sauvegarde iCloud.

Source : Apple

Et vous ?

Quel est votre avis sur le sujet ?
Selon vous, Apple a-t-il le droit d'installer un tel logiciel sur votre iPhone ?
Quel sentiment l'idée de savoir que vos photos privées sont analysées en permanence vous procure-t-elle ?
Pensez-vous que les gouvernements ont gagné la guerre contre le chiffrement de bout en bout ? En quoi cela influera-t-il sur l'industrie ?
Pensez-vous que la lutte contre la maltraitance des enfants l'emporte sur la surveillance en permanence des appareils personnels ? Cette solution résout-elle le problème ?

Voir aussi

Pourquoi Apple refuse-t-elle d'aider le FBI à débloquer l'iPhone en sa possession ? L'entreprise évoque quelques raisons dans une requête d'annulation

Apple transmet des données personnelles à la Chine et supprime les applications jugées « offensantes » par le gouvernement

Apple aurait abandonné l'idée de déployer le chiffrement des sauvegardes sur iCloud après une plainte du FBI, d'après un rapport

Facebook n'a pas l'intention d'affaiblir le chiffrement de ses applications de messagerie pour donner un accès privilégié aux forces de l'ordre dans le cadre d'enquêtes