IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    juin 2016
    Messages
    2 077
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : juin 2016
    Messages : 2 077
    Points : 45 987
    Points
    45 987
    Par défaut Un groupe de chercheurs a déclaré que la « technologie dangereuse » d'analyse de photos d'Apple était invasive
    Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs,
    mais les chercheurs en sécurité craignent une surveillance de masse des iPhone

    Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste. Le projet, qui devrait prendre vie aux États-Unis avant d'être étendu au reste du monde, suscite l'indignation et la communauté dénonce une surveillance de masse orchestrée par Apple.

    À en juger par le nombre de critiques négatives vis-à-vis d'Apple, cette initiative n'est sans doute pas la meilleure de l'entreprise dans sa lutte contre la pédophilie et la pédopornographie. Apple, qui est un fervent défenseur de la vie privée et qui est connu pour avoir refusé de déverrouiller l'iPhone d'un suspect dans le cadre d'une enquête fédérale, envisage désormais d'"espionner" ses utilisateurs. L'entreprise a l'intention d'installer un logiciel sur les iPhone américains pour détecter les images d'abus d'enfants. Elle a présenté son projet pour la première à des universitaires en début de semaine lors d'une visioconférence.

    Nom : iphone-communication-safety-feature-arned.jpg
Affichages : 1843
Taille : 96,7 Ko

    Plus tard, Apple a confirmé ses projets dans un billet de blogue, précisant que la technologie de balayage fait partie d'une nouvelle série de systèmes de protection des enfants qui "évolueront et se développeront au fil du temps". Les fonctionnalités seront déployées dans le cadre d'iOS 15, dont la sortie est prévue le mois prochain. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société.

    Le système, appelé neuralMatch, alertera de manière proactive une équipe d'examinateurs humains s'il pense que des images illégales sont détectées. Selon un article de Financial Times, qui a rapporté la nouvelle pour la première fois, les examinateurs humains contacteront ensuite les forces de l'ordre si le matériel peut être vérifié. Le système neuralMatch, qui a été formé à l'aide de 200 000 images du National Center for Missing & Exploited Children, sera d'abord déployé aux États-Unis. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.

    Selon les explications du géant de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un "bon de sécurité" indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.

    Il faut noter que neuralMatch représente la dernière tentative d'Apple de trouver un compromis entre sa propre promesse de protéger la vie privée des clients et les demandes des gouvernements, des organismes d'application de la loi et des militants pour la sécurité des enfants pour une plus grande assistance dans les enquêtes criminelles, y compris le terrorisme et la pédopornographie. La tension entre les entreprises technologiques telles qu'Apple et Facebook, qui ont défendu leur utilisation croissante du chiffrement dans leurs produits et services, et les forces de l'ordre n'a fait que s'intensifier depuis 2016.

    À l'époque, Apple était allé en justice avec le FBI au sujet de l'accès à l'iPhone d'un suspect terroriste après une fusillade à San Bernardino, en Californie. Cette décision est donc perçue comme une sorte de volte-face de la part d'Apple, qui s'est déjà opposé aux forces de l'ordre pour défendre la vie privée des utilisateurs. Matthew Green, professeur à l'université John Hopkins et cryptographe, a fait part de ses inquiétudes concernant ce système sur Twitter mercredi soir. « Ce genre d'outils peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens », a déclaré Green.

    « Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire », s'est-il interrogé. Cela inquiète les chercheurs en sécurité qui préviennent que cela pourrait ouvrir la porte à la surveillance des appareils personnels de millions de personnes. Les chercheurs en sécurité, bien qu'ils soutiennent les efforts d'Apple pour lutter contre la maltraitance des enfants, s'inquiètent du fait que l'entreprise risque de permettre aux gouvernements du monde entier de chercher à accéder aux données personnelles de leurs citoyens, potentiellement bien au-delà de son intention initiale.

    « C'est une idée absolument épouvantable, car elle va conduire à une surveillance massive et distribuée de nos téléphones et ordinateurs portables », a déclaré Ross Anderson, professeur d'ingénierie de la sécurité à l'université de Cambridge. En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.

    Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.

    Les systèmes de stockage de photos dans le nuage et les sites de réseaux sociaux recherchent déjà les images d'abus d'enfants. Apple utilise, par exemple, des techniques de hachage lorsque les photos sont téléchargées sur iCloud Photos. Toutes les photos téléchargées sur iCloud Photos pour la sauvegarde et la synchronisation ne sont pas stockées en chiffrement de bout en bout. Les photos sont stockées sous une forme chiffrée dans les fermes de serveurs d'Apple, mais les clés de déchiffrement sont également la propriété d'Apple. Cela signifie que les forces de l'ordre peuvent assigner Apple et voir toutes les photos téléchargées par un utilisateur.

    Ce n'est pas inhabituel, tous les services photo tiers fonctionnent de cette manière. Cependant, ce processus devient plus complexe lorsqu'on essaie d'accéder aux données stockées sur un appareil personnel. Ce nouveau système se ferait côté client, sur l'appareil de l'utilisateur. « Le système d'Apple est moins invasif dans la mesure où le contrôle est effectué sur le téléphone, et ce n'est qu'en cas de correspondance qu'une notification est envoyée aux personnes effectuant la recherche », a déclaré Alan Woodward, professeur de sécurité informatique à l'université du Surrey.

    Selon Woodward l'approche d'Apple est quand même "louable". « Cette approche décentralisée est à peu près la meilleure approche que vous puissiez adopter si vous vous engagez dans cette voie », a-t-il ajouté. L'algorithme neuralMatch d'Apple analysera en permanence les photos stockées sur l'iPhone d'un utilisateur américain et qui ont également été téléchargées sur son système de sauvegarde iCloud.

    Source : Apple

    Et vous ?

    Quel est votre avis sur le sujet ?
    Selon vous, Apple a-t-il le droit d'installer un tel logiciel sur votre iPhone ?
    Quel sentiment l'idée de savoir que vos photos privées sont analysées en permanence vous procure-t-elle ?
    Pensez-vous que les gouvernements ont gagné la guerre contre le chiffrement de bout en bout ? En quoi cela influera-t-il sur l'industrie ?
    Pensez-vous que la lutte contre la maltraitance des enfants l'emporte sur la surveillance en permanence des appareils personnels ? Cette solution résout-elle le problème ?

    Voir aussi

    Pourquoi Apple refuse-t-elle d'aider le FBI à débloquer l'iPhone en sa possession ? L'entreprise évoque quelques raisons dans une requête d'annulation

    Apple transmet des données personnelles à la Chine et supprime les applications jugées « offensantes » par le gouvernement

    Apple aurait abandonné l'idée de déployer le chiffrement des sauvegardes sur iCloud après une plainte du FBI, d'après un rapport

    Facebook n'a pas l'intention d'affaiblir le chiffrement de ses applications de messagerie pour donner un accès privilégié aux forces de l'ordre dans le cadre d'enquêtes
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre habitué
    Profil pro
    Inscrit en
    avril 2013
    Messages
    52
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : avril 2013
    Messages : 52
    Points : 143
    Points
    143
    Par défaut
    Qu'ils appliqueront dans un premier temps uniquement aux USA, et heureusement en Europe, et tout du moins en France, une telle mesure à peu de chance de passer.

    Sans compter les futurs ratages de l'IA chargée d'analyser les images, je sens que pas mal de parents vont avoir des ennuis. Ils veulent combattre l'abus d'enfants, qu'ils commencent par les parents instrumentalisant leurs enfants sur les réseaux sociaux pour l'appâts du gain.

  3. #3
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    décembre 2008
    Messages
    8 349
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : décembre 2008
    Messages : 8 349
    Points : 14 914
    Points
    14 914
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    « Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire », s'est-il interrogé. Cela inquiète les chercheurs en sécurité qui préviennent que cela pourrait ouvrir la porte à la surveillance des appareils personnels de millions de personnes. Les chercheurs en sécurité, bien qu'ils soutiennent les efforts d'Apple pour lutter contre la maltraitance des enfants, s'inquiètent du fait que l'entreprise risque de permettre aux gouvernements du monde entier de chercher à accéder aux données personnelles de leurs citoyens, potentiellement bien au-delà de son intention initiale.

    « C'est une idée absolument épouvantable, car elle va conduire à une surveillance massive et distribuée de nos téléphones et ordinateurs portables », a déclaré Ross Anderson, professeur d'ingénierie de la sécurité à l'université de Cambridge. En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.

    Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.
    Ils ont raison les types, même si le prétexte de base est louable parce que ça permettrait peut-être de stopper des gros réseaux pédophiles, le risque d'abus est trop dangereux.
    Ce serait terrible que les algorithmes interprètent tout ce qu'on dit, tout ce qu'on écrit, tout ce qu'on film ou prend en photo. (c'est peut-être déjà le cas, mais pour le moment c'est juste utilisé pour vendre des produits)
    Keith Flint 1969 - 2019

  4. #4
    Membre éprouvé
    Homme Profil pro
    Ingénieur avant-vente
    Inscrit en
    septembre 2020
    Messages
    267
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Ingénieur avant-vente

    Informations forums :
    Inscription : septembre 2020
    Messages : 267
    Points : 1 060
    Points
    1 060
    Par défaut
    Et après ça, les Apple fans viennent nous expliquer doctement que la firme à la pomme respecte leur vie privée.

    Les promesses engagent ceux qui y croient, pas ceux qui les font. Les seules données personnelles réellement en sécurité sont celles qui n'ont pas été collectées. Peu importe qu'Apple les transmettent à des tiers ou pas après, ce que la société est de toute façon légalement tenue de faire confidentiellement de part le patriot act sans même que l'usager ne soit au courant.

  5. #5
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    décembre 2008
    Messages
    8 349
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : décembre 2008
    Messages : 8 349
    Points : 14 914
    Points
    14 914
    Par défaut
    Citation Envoyé par Jeff_67 Voir le message
    Et après ça, les Apple fans viennent nous expliquer doctement que la firme à la pomme respecte leur vie privée.
    Tes photos restent chiffrées tant qu'il n'y en a pas trop qui sont suspectes :
    Citation Envoyé par Bill Fassinou Voir le message
    Selon les explications du géant de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un bon de sécurité indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.
    Mais après les lois changent et ce qui est légal aujourd'hui peut devenir illégal demain.
    Keith Flint 1969 - 2019

  6. #6
    Membre éprouvé
    Profil pro
    programmeur du dimanche
    Inscrit en
    novembre 2003
    Messages
    259
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : novembre 2003
    Messages : 259
    Points : 902
    Points
    902
    Par défaut
    Si leur IA fait ne serait-ce que 0,1% de faux positifs (un bon chiffre...), ça veut dire que chaque personne aura quelques unes de ses photos regardées par un humain, soit quelques centaines de millions (113 millions d'iphone aux USA).
    Il va falloir des "fermes" d'humains pour regarder vos photos toute la journée...

    Edit : commentaire erroné (cf la source en anglais plus claire) : pas d'IA mais un hash.

    Une fois qu'on a une telle logistique en place, ce serait dommage de ne pas en profiter pour étendre la mesure.

  7. #7
    Membre confirmé
    Profil pro
    Inscrit en
    avril 2008
    Messages
    448
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : avril 2008
    Messages : 448
    Points : 608
    Points
    608
    Par défaut
    Citation Envoyé par Waikiki Voir le message
    Sans compter les futurs ratages de l'IA chargée d'analyser les images, je sens que pas mal de parents vont avoir des ennuis. (...)
    Citation Envoyé par Fagus Voir le message
    Si leur IA fait ne serait-ce que 0,1% de faux positifs (un bon chiffre...), ça veut dire que chaque personne aura quelques unes de ses photos regardées par un humain, soit quelques centaines de millions (113 millions d'iphone aux USA).
    Il va falloir des "fermes" d'humains pour regarder vos photos toute la journée...
    Je crois que vous n'avez absolument rien compris de la technologie utilisée décrite dans cette article. Il n'y a aucune "IA" ou analyse d'image intelligente comme la reconnaissance de scène ou d'objet. Le résultat est "bêtement" un numéro. Numéro qui sera vérifié si existant dans une base de données prédéfinie.

    Des faux positifs peuvent donc toujours se produire mais avec une telle techno ça autant de chance d'être une photo de tracteur ou ton plat de spaghetti ! Nos gamins n'ont pas plus de "chance" d'être reconnus.

    De plus les "collectionneurs" de photos ont rarement qu'une photo. Donc si deux/trois photos d'un utilisateur "matchent" le taux d'erreur est quasi nul.

  8. #8
    Membre éprouvé
    Profil pro
    programmeur du dimanche
    Inscrit en
    novembre 2003
    Messages
    259
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : novembre 2003
    Messages : 259
    Points : 902
    Points
    902
    Par défaut
    Citation Envoyé par ijk-ref Voir le message
    Je crois que vous n'avez absolument rien compris de la technologie utilisée décrite dans cette article. Il n'y a aucune "IA" ou analyse d'image intelligente comme la reconnaissance de scène ou d'objet. Le résultat est "bêtement" un numéro. Numéro qui sera vérifié si existant dans une base de données prédéfinie....
    C'est juste, la traduction en français met en avant neuralMatch qui donne l'impression d'un réseau neuronal, mais le communiqué d'Apple mentionne des hashs. Autant pour moi.

  9. #9
    Membre confirmé
    Homme Profil pro
    retraité
    Inscrit en
    septembre 2014
    Messages
    266
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : retraité

    Informations forums :
    Inscription : septembre 2014
    Messages : 266
    Points : 621
    Points
    621
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Ils ont raison les types, même si le prétexte de base est louable parce que ça permettrait peut-être de stopper des gros réseaux pédophiles, le risque d'abus est trop dangereux.
    Ce serait terrible que les algorithmes interprètent tout ce qu'on dit, tout ce qu'on écrit, tout ce qu'on film ou prend en photo. (c'est peut-être déjà le cas, mais pour le moment c'est juste utilisé pour vendre des produits)
    Les "gros" réseaux pédophiles n'utilisent pas d'iPhones, sont sur le darkweb, et avec même des protocoles développés ad-hoc parfois...
    Il faut avoir un pois-chiche comme cerveau pour stocker des contenus illégaux sur un iPhone et dans un espace iCloud (qui reste facultatif)...

  10. #10
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    décembre 2008
    Messages
    8 349
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : décembre 2008
    Messages : 8 349
    Points : 14 914
    Points
    14 914
    Par défaut
    Citation Envoyé par TotoParis Voir le message
    Les "gros" réseaux pédophiles n'utilisent pas d'iPhones
    Plus il y a de monde qui travaillent pour le réseau, plus il y a des chances qu'il y a en a un qui fasse une erreur.
    Entre ceux qui capturent des enfants, et ceux qui les consomment à la fin, il y a du monde.

    En tout cas Apple pense qu'il y a des pédophiles qui prennent des preuves en photos.
    Keith Flint 1969 - 2019

  11. #11
    Membre éclairé
    Homme Profil pro
    Développeur C++
    Inscrit en
    octobre 2008
    Messages
    234
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bas Rhin (Alsace)

    Informations professionnelles :
    Activité : Développeur C++

    Informations forums :
    Inscription : octobre 2008
    Messages : 234
    Points : 686
    Points
    686
    Par défaut
    L'iPhone téléchargera un ensemble d'empreintes digitales
    Vous relisez ce que vous écrivez parfois en traduisant un article ?

  12. #12
    Modérateur
    Avatar de escartefigue
    Homme Profil pro
    bourreau
    Inscrit en
    mars 2010
    Messages
    7 666
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Loir et Cher (Centre)

    Informations professionnelles :
    Activité : bourreau
    Secteur : Finance

    Informations forums :
    Inscription : mars 2010
    Messages : 7 666
    Points : 26 240
    Points
    26 240
    Billets dans le blog
    2
    Par défaut
    "Digital" en anglais se traduit par "numérique" en français, il s'agit donc d'empreintes numériques

    Edit : c'est corrigé

  13. #13
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    juin 2016
    Messages
    2 077
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : juin 2016
    Messages : 2 077
    Points : 45 987
    Points
    45 987
    Par défaut Le lanceur d'alerte Edward Snowden et l'EFF critiquent le projet d'Apple de scanner les messages et les images
    Le lanceur d'alerte Edward Snowden et l'EFF critiquent le projet d'Apple de scanner les messages et les images iCloud
    des milliers de personnes demandent à l'entreprise de suspendre ses plans

    La communauté est en pleine effervescence depuis le 5 août dernier où Apple a annoncé son intention de déployer des fonctionnalités sur les iPhone qui lui permettraient d'analyser la galerie iCloud des utilisateurs en la comparant à une base de données de matériel pédopornographique (CSAM) afin de trouver des correspondances et de rechercher des contenus explicites dans les messages d'enfants. L'EFF, Edward Snowden, des experts en sécurité et confidentialité, des cryptographes, des chercheurs, des professeurs, des juristes et des consommateurs dénoncent ces agissements et demandent à Apple de suspendre immédiatement ses plans.

    Edward Snowden et l'EFF s'insurgent contre la décision d'Apple

    Le 5 août 2021, Apple a annoncé de nouvelles mesures destinées à s'appliquer à la quasi-totalité de ses appareils sous le nom de "Protection étendue des enfants". Selon la firme de Cupertino, les nouvelles fonctionnalités seront déployées dans le cadre d'iOS 15, dont la sortie est prévue le mois de septembre. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aussi aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a-t-elle déclaré, ajoutant que la technologie porte le nom de neuralMatch.

    Nom : a.png
Affichages : 1439
Taille : 48,9 Ko

    La technologie proposée par l'entreprise fonctionne en surveillant en permanence les photos enregistrées ou partagées sur l'iPhone, l'iPad ou le Mac de l'utilisateur. Un système détecte si un certain nombre de photos répréhensibles sont détectées dans le stockage iCloud et alerte les autorités. Un autre avertit les parents d'un enfant si iMessage est utilisé pour envoyer ou recevoir des photos qu'un algorithme d'apprentissage automatique considère comme contenant de la nudité. L'annonce d'Apple a rapidement déclenché un tollé de critiques négatives dans l'industrie dénonçant le dangereux précédent que la société tente de créer.

    Dans une série de tweets vendredi, le défenseur de la vie privée et lanceur d'alerte Edward Snowden s'est inquiété du fait qu'Apple déploie une forme de "surveillance de masse dans le monde entier" et crée un précédent qui pourrait permettre à l'entreprise de rechercher tout autre contenu arbitraire à l'avenir. Snowden a également noté qu'Apple a historiquement été un leader de l'industrie en matière de confidentialité numérique, et a même refusé de déverrouiller un iPhone appartenant à Syed Farook, l'un des tireurs des attaques de décembre 2015 à San Bernardino, en Californie, malgré l'ordre du FBI et d'un juge fédéral de le faire.

    Apple s'est opposé à cette ordonnance, soulignant qu'il créerait un "dangereux précédent". Selon Snowden et d'autres experts et organisations, si l'entreprise déploie cette technologie le mois prochain, elle signera ainsi la défaite de l'industrie contre les gouvernements sur la question du chiffrement de bout en bout. Ces derniers pourraient ensuite faire pression ou exiger des autres entreprises qu'elles déploient également une telle technologie dans leurs produits. L'EFF (Electronic Frontier Foundation), un groupe international à but non lucratif de défense des droits numériques, a condamné la décision d'Apple.

    Dans un billet de blogue sur son site Web, l'EFF a déclaré qu'il était extrêmement "déçu qu'un champion du chiffrement de bout en bout" entreprenne une volte-face choquante pour les utilisateurs qui ont compté sur le leadership de l'entreprise en matière de confidentialité et de sécurité. « L'exploitation des enfants est un problème grave, et Apple n'est pas la première entreprise technologique à modifier sa position en matière de protection de la vie privée pour tenter de le combattre. Mais ce choix aura un prix élevé pour la vie privée globale des utilisateurs », a déclaré l'EFF, ajoutant qu'une porte dérobée ne pourrait en aucun cas être sécurisée.

    « Apple peut expliquer en détail comment son implémentation technique continuera à préserver la vie privée et la sécurité de la porte dérobée qu'elle propose, mais au bout du compte, même une porte dérobée bien documentée, soigneusement pensée et de portée limitée reste une porte dérobée. Il est impossible de construire un système d'analyse côté client qui ne puisse être utilisé que pour les images sexuellement explicites envoyées ou reçues par des enfants. Ainsi, même un effort bien intentionné pour construire un tel système brisera les promesses clés du chiffrement de la messagerie elle-même et ouvrira la porte à des abus plus larges ».

    « Pour élargir l'étroite porte dérobée qu'Apple est en train de construire, il suffirait d'étendre les paramètres d'apprentissage automatique afin de rechercher d'autres types de contenu, ou de modifier les drapeaux de configuration pour analyser non seulement les comptes des enfants, mais aussi ceux de n'importe qui. Ce n'est pas une pente glissante ; c'est un système entièrement construit qui n'attend qu'une pression extérieure pour effectuer le moindre changement », a expliqué en détail l'EFF.

    Dans une lettre ouverte à l'attention du fabricant de l'iPhone, l'EFF, des experts en sécurité et confidentialité, des cryptographes, des chercheurs, des professeurs, des juristes et plus de 5 000 personnes et organisations ont appelé l'entreprise à faire marche arrière afin de préserver les acquis en matière de confidentialité et de chiffrement. Selon eux, bien que l'exploitation des enfants soit un problème grave et que les efforts déployés pour le combattre soient presque incontestablement bien intentionnés, la proposition d'Apple introduit une porte dérobée qui menace de saper les protections fondamentales de la vie privée pour tous les utilisateurs de produits Apple.

    Une pétition demande à Apple de renoncer à cette porte dérobée

    Les experts estiment en effet que comme ces deux vérifications sont effectuées sur l'appareil de l'utilisateur, elles peuvent contourner tout chiffrement de bout en bout ayant pour but de protéger la vie privée de l'utilisateur. L'EFF a également souligné que divers gouvernements dans le monde ont déjà adopté des lois qui exigent la surveillance et la censure du contenu sur diverses plateformes, y compris les applications de messagerie, et que la décision d'Apple de scanner les messages et les photos iCloud pourrait être légalement exigée pour englober des matériaux supplémentaires.

    Nom : iphone-communication-safety-feature-arned.jpg
Affichages : 1427
Taille : 96,7 Ko

    « Ne vous y trompez pas : il s'agit d'une diminution de la vie privée pour tous les utilisateurs de iCloud Photos, et non d'une amélioration », a averti l'EFF. Outre l'EFF, le Center for Democracy and Technology (CDT), une organisation à but non lucratif basée à Washington dont la mission est de renforcer les droits et libertés individuels, a déclaré qu'il était "profondément préoccupé par le fait que les changements apportés par le fabricant de l'iPhone créent en fait de nouveaux risques pour les enfants et tous les utilisateurs, et marquent un écart important par rapport aux protocoles de confidentialité et de sécurité établis de longue date".

    « Apple fait le choix de remplacer son système de messagerie chiffré de bout en bout, conforme aux normes de l'industrie, par une infrastructure de surveillance et de censure, qui sera vulnérable aux abus et à la dérive, non seulement aux États-Unis, mais dans le monde entier », a averti Greg Nojeim du CDT. « Apple devrait abandonner ces changements et restaurer la confiance de ses utilisateurs dans la sécurité et l'intégrité de leurs données sur les appareils et services Apple », a-t-il ajouté. D'autres experts pensent plutôt qu'Apple conduit l'industrie technologique vers un avenir dystopique.

    « Nous nous dirigions petit à petit vers un avenir où de moins en moins d'informations devaient être contrôlées et examinées par quelqu'un d'autre que nous-mêmes. Pour la première fois depuis les années 1990, nous récupérions notre vie privée. Aujourd'hui, nous sommes sur une voie différente. La pression va venir du Royaume-Uni, des États-Unis, de l'Inde, de la Chine. Je suis terrifié à l'idée de ce à quoi cela va ressembler. Pourquoi Apple voudrait-elle dire au monde : "Hé, nous avons cet outil ?" », a déclaré Matthew D. Green, un spécialiste de la recherche sur la sécurité et la vie privée et professeur à l'université Johns Hopkins.

    Par ailleurs, l'EFF insiste sur le fait qu'il a déjà vu cette dérive en action : « L'une des technologies conçues à l'origine pour scanner et hacher les images d'abus sexuels d'enfants a été réaffectée à la création d'une base de données de contenus "terroristes" à laquelle les entreprises peuvent contribuer et accéder dans le but d'interdire ces contenus. Cette base de données, gérée par le Global Internet Forum to Counter Terrorism (GIFCT), ne fait l'objet d'aucune surveillance externe, malgré les appels de la société civile ». Des défauts de conception fondamentaux dans l'approche proposée par Apple ont également été soulignés par des experts.

    Voici leur explication : « Apple peut trivialement utiliser différents ensembles de données d'empreintes médiatiques pour chaque utilisateur. Pour un utilisateur, il pourrait s'agir d'abus d'enfants, pour un autre, d'une catégorie beaucoup plus large, permettant ainsi un suivi sélectif du contenu pour des utilisateurs ciblés. La technologie qu'Apple propose pour ses mesures de protection des enfants dépend d'une infrastructure extensible qui ne peut pas être surveillée ou limitée techniquement ». Les experts ont averti à plusieurs reprises que le problème n'est pas seulement la protection de la vie privée, mais d'autres facteurs entrent également en jeu.

    Les experts redoutent le manque de responsabilité, les obstacles techniques à l'expansion et le manque d'analyse ou même la reconnaissance du potentiel d'erreurs et de faux positifs. Kendra Albert, avocate à la Clinique du droit du cyberespace de la faculté de droit de Harvard, estime que "ces fonctions de protection de l'enfance vont conduire les enfants homosexuels à être chassés de chez eux, à être battus ou pire encore". « Je sais juste que ces algorithmes d'apprentissage automatique vont signaler les photos de transition. Bonne chance pour envoyer à vos amis une photo de vous si vous avez des tétons de présentation féminine », a-t-elle déclaré.

    À l'heure actuelle, plus de 5 544 personnes et organisations (Gigahost, GNU, l'EFF, knowledgeatwork UG, Latency: Zero, LLC, MacDailyNews, etc.) ont déjà signé la pétition. Les signataires ont adressé un certain nombre de requêtes à Apple, dont l'arrêt immédiat de la mise en œuvre de sa technologie de surveillance. « Nous, les soussignés, demandons que :

    • le déploiement par Apple de sa proposition de technologie de surveillance du contenu soit arrêté immédiatement ;
    • Apple publie une déclaration réaffirmant son engagement envers le chiffrement de bout en bout et la vie privée des utilisateurs ;
    • la démarche actuelle d'Apple menace de saper des décennies de travail effectué par des technologues, des universitaires et des défenseurs de la politique en faveur de mesures strictes de préservation de la vie privée qui deviendraient la norme pour la majorité des appareils électroniques grand public et des cas d'utilisation. Nous demandons à Apple de reconsidérer le déploiement de sa technologie, de peur qu'elle ne défasse ce travail important ».


    Sources : appleprivacyletter.com, Electronic Frontier Foundation, Center for Democracy and Technology

    Et vous ?

    Quel est votre avis sur le sujet ?
    Pensez-vous qu'Apple va renoncer à ses plants à la suite à ces réactions ?
    Même si Apple y renonce publiquement, pensez-vous qu'il pourrait mettre en place neuralMatch discrètement ?

    Voir aussi

    Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone

    Snowden avertit que les États utilisent le coronavirus pour construire « l'architecture de l'oppression » et prédit que les mesures prises pour lutter contre le COVID-19 vont persister longtemps

    Apple transmet des données personnelles à la Chine et supprime les applications jugées « offensantes » par le gouvernement

    Pourquoi la société Apple refuse-t-elle d'aider le FBI à débloquer l'iPhone en sa possession ? L'entreprise évoque quelques raisons dans une requête d'annulation
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  14. #14
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    juin 2016
    Messages
    2 077
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : juin 2016
    Messages : 2 077
    Points : 45 987
    Points
    45 987
    Par défaut Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage de photos
    Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos
    alors que les experts dénoncent un recul dans les progrès en matière de vie privée

    Apple a annoncé la semaine dernière "Expanded Protections for Children", une série de nouvelles fonctionnalités prévues pour être livrées avec l'iOS 15 afin d'accroître les mesures de protection des enfants. Les nouvelles fonctionnalités comprennent des protections pour les images sensibles dans l'application Messages, le balayage d'iCloud Photos pour le contenu de matériel d'abus sexuel d'enfants (CSAM - child sexual abuse material), et de nouvelles connaissances pour Siri et Search. Mais alors que l'industrie s'insurge contre cette initiative, Apple donne des détails techniques sur sa technologie et affirme qu'il y a 1 chance sur 1 milliard de faux positifs.

    Apple rassure qu'il n'affecte pas la vie privée des utilisateurs

    Quelques heures après l'annonce d'Apple, les critiques sont venues de partout. Apple est accusé de construire une "infrastructure de surveillance de masse". Malgré les assurances d'Apple, les experts en sécurité et les défenseurs de la vie privée ont critiqué le plan. Les critiques sont venues de nombreuses personnes et organisations, notamment de sources sources notables telles qu'Edward Snowden et l'Electronic Frontier Foundation, et portent principalement sur la technologie de scannage des photos iCloud pour les comparer à une base de données de matériel pédopornographique (CSAM) et sur les implications potentielles d'une telle fonctionnalité.

    Nom : screenshot-2021-08-05-at-13.59.14@2x-2.jpg
Affichages : 1404
Taille : 61,3 Ko

    Dans un mémo interne distribué aux équipes qui ont travaillé sur ce projet et obtenu par 9to5Mac, Apple reconnaît les "malentendus" autour des fonctionnalités, mais redouble d'efforts pour affirmer que ces fonctionnalités font partie d'une "mission importante" pour assurer la sécurité des enfants. Le document, qui a également été dévoilé le même jour que les nouvelles fonctionnalités, a été rédigé par Sébastien Marineau-Mes, un VP logiciel chez Apple. Marineau-Mes affirme qu'Apple continuera à "expliquer et à détailler les fonctionnalités" incluses dans cette suite de protections étendues pour les enfants. Voici le mémo dans son intégralité :

    « Aujourd'hui marque le dévoilement public officiel des protections élargies pour les enfants, et je voulais prendre un moment pour remercier chacun d'entre vous pour votre travail acharné au cours des dernières années. Nous n'aurions pas atteint cette étape importante sans votre dévouement inlassable et votre résilience. Assurer la sécurité des enfants est une mission tellement importante. À la manière d'Apple, la poursuite de cet objectif a nécessité un engagement transversal profond, englobant l'ingénierie, l'administration générale, l'informatique, les services juridiques, le marketing produit et les relations publiques.

    Ce que nous avons annoncé aujourd'hui est le fruit de cette collaboration, un produit qui fournit des outils pour protéger les enfants, tout en respectant l'engagement profond d'Apple envers la vie privée des utilisateurs. Nous avons vu beaucoup de réactions positives aujourd'hui. Nous savons que certaines personnes ont des malentendus et que plus d'une s'inquiète des implications, mais nous continuerons à expliquer et à détailler les fonctionnalités pour que les gens comprennent ce que nous avons construit.

    Et alors qu'il reste beaucoup de travail à accomplir pour mettre en œuvre les fonctionnalités dans les prochains mois, je voulais partager cette note que nous avons reçue aujourd'hui du NCMEC. Je l'ai trouvé incroyablement motivant, et j'espère que vous le serez aussi. Je suis fier de travailler chez Apple avec une équipe aussi formidable. Merci à tous !
    ».

    Le mémo comprend aussi un message du National Center for Missing and Exploited Children, signé par Marita Rodriguez, directrice exécutive des partenariats stratégiques. Apple travaille en étroite collaboration avec le NCMEC sur les nouvelles fonctionnalités de numérisation d'iCloud. Voici le texte intégral de la note du NCMEC envoyée à l'équipe d'Apple travaillant sur ces fonctionnalités :

    « Équipe Apple, je voulais partager un mot d'encouragement pour dire que tout le monde à NCMEC est TELLEMENT FIER de chacun d'entre vous et des décisions incroyables que vous avez prises au nom de la priorité accordée à la protection des enfants. Il a été revigorant pour toute notre équipe de voir (et de jouer un petit rôle dans) ce que vous avez dévoilé aujourd'hui. Je sais que la journée a été longue et que beaucoup d'entre vous n'ont probablement pas dormi depuis 24 heures. Nous savons que les jours à venir seront remplis des voix criardes de la minorité. Nos voix seront plus fortes.

    Notre engagement à soutenir les enfants qui ont vécu les abus et les victimisations les plus inimaginables sera plus fort. Pendant ces longues journées et ces nuits sans sommeil, j'espère que vous trouverez du réconfort dans le fait que, grâce à vous, des milliers d'enfants victimes d'exploitation sexuelle seront sauvés et auront une chance de guérir et de vivre l'enfance qu'ils méritent. Merci d'avoir trouvé la voie à suivre pour protéger les enfants tout en préservant leur vie privée !
    ».

    La technologie d'Apple pour l'analyse des images

    Le résumé technique d'Apple sur la détection de CSAM comprend quelques promesses de confidentialité dans l'introduction. « Apple n'apprend rien sur les images qui ne correspondent pas à la base de données de CSAM connus. Apple ne peut pas accéder aux métadonnées ou aux dérivés visuels des images de CSAM correspondantes jusqu'à ce qu'un seuil de correspondances soit dépassé pour un compte iCloud Photos », est-il indiqué. La technologie de hachage d'Apple est appelée NeuralHash, et elle analyse une image et la convertit en un numéro unique spécifique à cette image.

    Nom : d.png
Affichages : 1403
Taille : 49,1 Ko

    Selon Apple, seule une autre image qui semble presque identique peut produire le même nombre. La société explique, par exemple, que des images qui diffèrent en taille ou en qualité de transcodage auront toujours la même valeur NeuralHash. En outre, avant qu'un iPhone ou un autre appareil Apple ne télécharge une image sur iCloud, l'appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance. Il chiffre également le NeuralHash de l'image et un dérivé visuel. Ce justificatif est téléchargé sur iCloud Photos avec l'image.

    Selon le document d'Apple, en utilisant le "partage de secret à seuil", le système garantit que le contenu des bons de sécurité ne peut pas être interprété par Apple à moins que le compte iCloud Photos ne franchisse un seuil de contenu de CSAM connus. Apple estime que ce n'est que lorsque le seuil est dépassé que la technologie cryptographique permet à Apple d'interpréter le contenu des bons de sécurité associés aux images CSAM correspondantes. Tout en notant la probabilité d'un faux positif sur un milliard, Apple a déclaré qu'il examine manuellement tous les rapports faits au NCMEC pour garantir l'exactitude des rapports.

    En outre, contrairement à ce que certains pensent, Apple ne peut pas vérifier les images lorsque les utilisateurs ont désactivé iCloud Photos. En d'autres termes, les contrôles de CSAM ne seront effectués que sur les appareils sur lesquels cette fonction est activée. Les images de tout appareil dont cette fonction est désactivée ne seront pas vérifiées. Autre chose qu'il faut noter : Apple ne peut pas non plus fouiller dans les sauvegardes iCloud et vérifier les images qui y sont stockées. Cela signifie que la seule fois où Apple effectuera des contrôles sur les photos, c'est pendant leur téléchargement sur iCloud Photos.

    Lors d'une conférence de presse vendredi, Apple a déclaré qu'elle prévoyait d'étendre ce service en fonction des lois de chaque pays où elle opère, en commençant par les États-Unis. Apple a déclaré que les nuances de son système, telles que les "bons de sécurité" transmis de l'iPhone aux serveurs d'Apple sans données utiles, le protégeront des pressions gouvernementales visant à identifier des contenus autres que des images d'abus d'enfants. En effet, ces dernières années, les autorités de réglementation, les forces de l'ordre et les politiciens exigent de plus en plus des entreprises IT qu'elles fassent davantage pour supprimer les contenus illicites.

    Nom : z.png
Affichages : 1372
Taille : 48,8 Ko

    Ils ont brandi le fléau des contenus pédopornographiques pour décrier le chiffrement fort, de la même manière qu'ils avaient auparavant invoqué la nécessité de lutter contre le terrorisme. WhatsApp, le plus grand service de messagerie entièrement chiffré au monde, est également sous la pression des gouvernements qui veulent voir ce que les gens disent, et il craint que cela n'augmente maintenant. Quelques lois en résultant, notamment en Grande-Bretagne, pourraient être utilisées pour forcer les entreprises technologiques à agir contre leurs utilisateurs en secret. La stratégie d'Apple pourrait détourner l'attention des gouvernements en montrant son initiative ou en se conformant aux directives prévues en Europe.

    D'autres pensent toutefois que cela reste dangereux. "L'entreprise a peut-être détourné l'attention des régulateurs américains sur ce sujet, mais elle va inciter les régulateurs internationaux à faire la même chose avec les contenus terroristes et extrémistes", a déclaré Riana Pfefferkorn, chercheuse au Stanford Internet Observatory. Les détenteurs de droits d'auteur politiquement influents à Hollywood et ailleurs pourraient même faire valoir que leurs droits numériques devraient être appliqués de cette manière, a-t-elle ajouté. Le chef de WhatsApp, Will Cathcart, a écrit vendredi un flot de critiques contre Apple en ce qui concerne ses nouvelles fonctionnalités.

    « Nous avons des ordinateurs personnels depuis des décennies, et il n'y a jamais eu un mandat pour scanner le contenu privé de tous les ordinateurs de bureau, ordinateurs portables ou téléphones à l'échelle mondiale à la recherche de contenu illégal; Ce n'est pas ainsi que fonctionne la technologie construite dans les pays libres », a-t-il écrit.

    Sécurité de la communication dans Messages

    En plus de scanner les appareils à la recherche d'images correspondant à la base de données de CSAM, Apple a déclaré qu'il mettrait à jour l'application Messages pour ajouter de nouveaux outils pour avertir les enfants et leurs parents lorsqu'ils reçoivent ou envoient des photos sexuellement explicites. « L'application Messages utilise l'apprentissage automatique sur l'appareil pour analyser les pièces jointes des images et déterminer si une photo est sexuellement explicite. La fonction est conçue de manière à ce qu'Apple n'ait pas accès aux messages », a déclaré Apple.

    Nom : e.png
Affichages : 1369
Taille : 34,0 Ko

    « Lorsqu'une image dans Messages est signalée, la photo sera brouillée et l'enfant sera averti, on lui présentera des ressources utiles et on le rassurera en lui disant qu'il n'y a aucun problème s'il ne veut pas voir cette photo. Le système permettra aux parents de recevoir un message si les enfants regardent une photo marquée, et des protections similaires sont disponibles si un enfant tente d'envoyer des photos sexuellement explicites. L'enfant sera averti avant que la photo ne soit envoyée, et les parents pourront recevoir un message si l'enfant choisit de l'envoyer », a ajouté l'entreprise.

    Apple a aussi déclaré qu'elle mettrait à jour Siri et Search pour fournir aux parents et aux enfants des informations élargies et de l'aide s'ils rencontrent des situations dangereuses. Selon la société, les applications Siri et Search interviendront lorsque les utilisateurs effectueront des recherches pour des requêtes liées aux CSAM pour expliquer aux utilisateurs que l'intérêt pour ce sujet est nuisible et problématique, et fourniront des ressources de partenaires pour obtenir de l'aide sur cette question. Le Center for Democracy & Technology (CDT) a qualifié le scannage des photos dans Messages de "porte dérobée".

    « Le mécanisme qui permettra à Apple de scanner les images dans Messages n'est pas une alternative à une porte dérobée - c'est une porte dérobée. L'analyse côté client d'un côté de la communication brise la sécurité de la transmission, et le fait d'informer un tiers (le parent) du contenu de la communication porte atteinte à sa vie privée », a déclaré le CDT dans un billet de blogue. Des organisations du monde entier ont mis en garde contre l'analyse côté client, car elle pourrait être utilisée par les gouvernements et les entreprises pour contrôler le contenu des communications privées.

    Les appareils stockeront une base de données de CSAM

    Apple a expliqué que les dispositifs des utilisateurs stockeront une "base de données aveugle" qui permettra à l'appareil de déterminer si une photo correspond à une image de la base de données de CSAM. Tout d'abord, Apple reçoit les hashs correspondant aux CSAM connus de la part des organisations de protection de l'enfance susmentionnées. Ensuite, ces hashs subissent une série de transformations qui comprennent une étape finale de neutralisation, réalisée par cryptographie à courbe elliptique (ECC). L'aveuglement est effectué à l'aide d'un secret d'aveuglement côté serveur, connu uniquement d'Apple.

    Après quoi, les hashs de CSAM masqués sont placés dans une table de hachage, où la position dans la table de hachage est purement fonction du NeuralHash de l'imageb de CSAM. Cette base de données aveugle est stockée en toute sécurité sur les appareils des utilisateurs. Selon Apple, les propriétés de l'ECC garantissent qu'aucun appareil ne peut déduire quoi que ce soit sur les hachages d'images de CSAM sous-jacents à partir de la base de données masquée. Un iPhone ou un autre appareil analysera les photos de l'utilisateur, calculera un NeuralHash et consultera "l'entrée dans la table de hachage masquée".

    L'appareil utilise également le hachage masqué que le système a consulté pour obtenir une clé de chiffrement dérivée et utilise cette clé de chiffrement pour chiffrer les données utiles associées. Combiné à d'autres étapes, cela garantit que seules les images correspondant à la base de données CSAM seront déchiffrées.

    Source : Expanded Protections for Children

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des annonces d'Apple concernant les protections étendues pour la sécurité des enfants ?

    Voir aussi

    Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone

    Le lanceur d'alerte Edward Snowden et l'EFF critiquent le projet d'Apple de scanner les messages et les images iCloud. Des milliers de personnes demandent à l'entreprise de suspendre ses plans

    Le système de livraison par drones d'Amazon peut-il être autre chose que pure hype ? Le projet montre des signes d'effondrement, dont des licenciements en masse : vers une débâcle inéluctable ?
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  15. #15
    Membre éprouvé
    Homme Profil pro
    Consultant en technologies
    Inscrit en
    juin 2013
    Messages
    260
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Consultant en technologies
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : juin 2013
    Messages : 260
    Points : 903
    Points
    903
    Par défaut
    Je suis très partagé sur cette news, je suis convaincu que le système actuel sera très pertinent au regard du respect de la vie privée des utilisateurs d'Iphone et se montrera très efficace dans la lutte contre ces crimes qui sont quand même les pire, mais c'est vrai que c'est la porte ouverte à beaucoup de choses par la suite (détecter un bisou entre 2 hommes ou 2 femmes dans les pays où ce n'est pas bien vu par exemple). Il suffit qu'un état le décrète et Apple sera obligé de suivre les réglementations locales. Ils ont prouvés qu'il était possible d'espionner certains crimes / délits sans nuire à la vie privée, et si on relit cette phrase 2 fois je ne pensais pas dire ça un jour. Il ne reste désormais plus qu'aux politiques à s'en servir.

  16. #16
    Membre actif
    Inscrit en
    mai 2008
    Messages
    97
    Détails du profil
    Informations forums :
    Inscription : mai 2008
    Messages : 97
    Points : 281
    Points
    281
    Par défaut
    Semer la peur pour vendre des IBidules à toute la famille. C'est une stratégie marketing comme une autre...

    Quand au ton de leur mémo, ça ne fait que confirmer ce que je pense, ce sont des exaltés prétentieux qui ont vu la lumière.
    Je sais que la journée a été longue et que beaucoup d'entre vous n'ont probablement pas dormi depuis 24 heures. Nous savons que les jours à venir seront remplis des voix criardes de la minorité. Nos voix seront plus fortes.

  17. #17
    Membre confirmé
    Homme Profil pro
    retraité
    Inscrit en
    septembre 2014
    Messages
    266
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : retraité

    Informations forums :
    Inscription : septembre 2014
    Messages : 266
    Points : 621
    Points
    621
    Par défaut
    Je me demande s'il y a tant que cela de contenus illégaux de ce type sur les iPhone, dans iCloud / iMessage.
    J'avoue être dubitatif.
    Ensuite, maintenant que l'affaire est publiquement connue, les éventuels délinquants sexuels concernés par
    le matériel Apple vont pouvoir soigneusement choisir d'autres moyens de stockage et d'échange que des
    iMachins de chez Apple. Et je reste persuadé que l'essentiel de ces contenus est sur le DarkWeb (merci la DARPA...).

  18. #18
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    décembre 2008
    Messages
    8 349
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : décembre 2008
    Messages : 8 349
    Points : 14 914
    Points
    14 914
    Par défaut
    Citation Envoyé par earhater Voir le message
    mais c'est vrai que c'est la porte ouverte à beaucoup de choses par la suite
    C'est vrai que pour l'instant ça va, mais qu'on ne sait pas quelle direction ça va prendre avec les années.
    On pourrait s'en foutre et dire "de toute façon je ne fais rien d'illégal donc je ne peux pas prendre de photo qui dépasserait le seuil de tolérance d'Apple, jamais une seule de mes photos sera déchiffré par Apple". Mais il y aura peut-être des abus dans le futur. (un peu comme les gars qui utilisaient des outils de la NSA pour lire les emails et les SMS que recevaient leur ex)

    Citation Envoyé par TotoParis Voir le message
    Je me demande s'il y a tant que cela de contenus illégaux de ce type sur les iPhone
    Moi je trouve qu'assez souvent, dans les médias il y a des histoires du genre : "plus de 20 000 documents pédopornographique ont été retrouvé sur l'ordinateur d'un directeur d'école".
    Il y a toujours des gens qui ne prennent pas assez de précautions.
    Keith Flint 1969 - 2019

  19. #19
    Expert éminent
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    juillet 2013
    Messages
    4 057
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : juillet 2013
    Messages : 4 057
    Points : 9 092
    Points
    9 092
    Par défaut
    Pourtant cela va faire presque 5 ans que Google avec GMail scanne les courriels pour la pédopornographie avec des prises.

  20. #20
    Expert confirmé Avatar de Zefling
    Homme Profil pro
    Développeur Web
    Inscrit en
    avril 2007
    Messages
    1 118
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : avril 2007
    Messages : 1 118
    Points : 4 330
    Points
    4 330
    Par défaut
    Citation Envoyé par foetus Voir le message
    Pourtant cela va faire presque 5 ans que Google avec GMail scanne les courriels pour la pédopornographie avec des prises.
    Il faut vraiment pas être une lumière pour utiliser Gmail sans savoir que tout y est scanné.
    Niveau vie privée, pour moi Gmail c'est le néant.

Discussions similaires

  1. Réponses: 6
    Dernier message: 02/07/2009, 16h32
  2. Système de détection des intrusion en C#
    Par Med_Yo_Sn dans le forum Général Dotnet
    Réponses: 3
    Dernier message: 22/03/2009, 09h22
  3. Réponses: 3
    Dernier message: 24/01/2007, 14h09
  4. Réponses: 6
    Dernier message: 23/12/2006, 17h36
  5. [Système] [debug] Détection des erreurs de compil
    Par Herode dans le forum Langage
    Réponses: 3
    Dernier message: 28/11/2006, 13h03

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo