IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

Apple dépense des millions pour faire du lobbying contre la sécurité des enfants

  1. #21
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 298
    Points
    66 298
    Par défaut Le PDG d'Epic Games met en garde contre la "surveillance d'État" d'Apple
    Le PDG d'Epic Games met en garde contre la "surveillance d'État" d'Apple
    alors qu'Epic Games est détenu en partie par Tencent en Chine

    Les nouvelles fonctionnalités d'Apple pour la protection élargie des enfants sont l'objet de nombreux débats dans l'industrie depuis leur annonce la semaine passée. Un des commentaires les plus notables est celui de Tim Sweeney, PDG d'Epic Games, qui a déclaré samedi qu'Apple est en train de mettre en place des "logiciels espions du gouvernement" et qu'il serait vraisemblablement "un bras de la surveillance de l'État partout où cela est nécessaire". Sweeney critique Apple, alors qu'Epic Games est détenu à 48 % par Tencent, très souvent accusé d'aider le PCC en matière de censure et de surveillance des citoyens chinois.

    Tim Sweeney lance régulièrement des piques à l'endroit d'Apple depuis quelques années, notamment sur la façon dont l'entreprise maintient son écosystème fermé. La situation s'est envenimée l'année dernière lorsqu'Apple a éjecté la franchise Fortnite d'Epic Games de l'App Store, après que le second a tenté de contourner les 30 % de commission prélevés par le premier sur tous les achats in-app. Le week-end dernier, Sweeney a lancé de nouvelles critiques à l'encontre des nouvelles politiques d'Apple en matière de sécurité et de la protection des enfants, qualifiant ces mesures de "logiciel espion du gouvernement".

    Nom : sqz.png
Affichages : 3555
Taille : 47,4 Ko

    Le débat découle d'une annonce faite par Apple jeudi. En théorie, l'idée est assez simple : Apple veut lutter contre les abus sexuels sur les enfants, et prend davantage de mesures pour les détecter et les arrêter. Mais les critiques disent que la stratégie d'Apple pourrait affaiblir le contrôle des utilisateurs sur leurs propres téléphones, les laissant dépendre de la promesse d'Apple de ne pas abuser de son pouvoir. La réponse d'Apple a mis en lumière la complexité - et parfois la confusion - de cette conversation. Apple a en effet annoncé trois changements qui seront mis en œuvre dans le courant de l'année.

    Ils sont tous liés à la lutte contre les abus sexuels à l'encontre des enfants, mais visent des applications différentes dotées de fonctionnalités différentes. La première fonctionnalité concerne l'application de recherche d'Apple et Siri. Si un utilisateur recherche des sujets liés aux abus sexuels sur les enfants, Apple l'orientera vers des ressources permettant de les signaler ou d'obtenir de l'aide en cas d'attirance pour ce type d'abus. Cette mesure sera mise en œuvre plus tard cette année sur iOS 15, watchOS 8, iPadOS 15 et macOS Monterey, et elle ne suscite guère de controverse.

    Les autres mises à jour, en revanche, ont suscité beaucoup plus de réactions négatives. L'une d'elles ajoute une option de contrôle parental à Messages, masquant les photos sexuellement explicites pour les utilisateurs de moins de 18 ans et envoyant aux parents une alerte si un enfant de 12 ans ou moins consulte ou envoie ces photos. La dernière fonctionnalité analyse les images d'iCloud Photos pour y trouver du matériel pédopornographique (CSAM - Child sexual abuse content), et le signale aux modérateurs d'Apple - qui peuvent le transmettre au National Center for Missing and Exploited Children (NCMEC).

    Apple affirme avoir conçu cette fonctionnalité spécifiquement pour protéger la vie privée des utilisateurs tout en détectant les contenus illégaux. Les critiques disent que cette même conception équivaut à une porte dérobée de sécurité. Le projet, qui devrait prendre vie aux États-Unis avant d'être étendu au reste du monde, a suscité l'indignation et la communauté dénonce une surveillance de masse orchestrée par Apple. À la suite des commentaires de L'EFF (Electronic Frontier Foundation), de journalistes, de chercheurs en sécurité et de consommateurs mécontents, c'est au tour de Sweeney.

    Nom : asz.png
Affichages : 3047
Taille : 103,2 Ko

    « J'ai essayé de voir ça du point de vue d'Apple. Mais inéluctablement, il s'agit d'un logiciel espion du gouvernement installé par Apple sur la base d'une présomption de culpabilité. Bien qu'Apple ait écrit le code, sa fonction est de scanner les données personnelles et de les rapporter au gouvernement. C'est totalement différent d'un système de modération de contenu sur un forum public ou un média social. Avant que la société ne choisisse d'héberger les données publiquement, il peut les scanner pour détecter ce qu'il ne veut pas héberger. Mais il s'agit de données privées de personnes », a critiqué Sweeney sur Twitter.

    Mais encore, le PDG milliardaire a également critiqué la plateforme iCloud d'Apple qui télécharge par défaut les données des utilisateurs, ce qui fait que les gens accumulent des "données indésirables". En outre, Sweeney a averti que partout l'entreprise s'installera, Apple "devra se conformer à toutes les lois applicables partout où elle fait des affaires". « Par conséquent, l'on peut supposer qu'Apple sera désormais un bras de la surveillance de l'État partout où cela est nécessaire », a-t-il ajouté. De même, il a également abordé dans ses commentaires, les critiques concernant les compromis d'Apple en matière de vie privée en Chine.

    Dans un jeu de mots sur "pensez aux enfants", il a déclaré : « Pensez à la dystopie dans laquelle ils grandiront si nous tolérons la croissance incontrôlée de monopoles privés dotés d'un pouvoir de surveillance illimité et assumant de plus en plus des rôles de gouvernement, sans pour autant être soumis aux processus démocratiques libéraux ». Il a souligné que de nombreux utilisateurs d'Apple ont été obligés de s'inscrire pour obtenir une adresse électronique iCloud dans le cadre des protocoles d'inscription précédents, et a prédit que le sentiment public sera manipulé pour soutenir l'initiative.

    « La liberté est fondée sur une procédure régulière et un gouvernement limité. La menace existentielle ici est une alliance impie entre le gouvernement et les monopoles qui contrôlent le discours en ligne et les appareils de chacun, en utilisant l'apparence de sociétés privées pour contourner les protections constitutionnelles », a déclaré Sweeney. Cependant, Sweeney s'est rapidement vu reprocher de faire deux poids, deux mesures, car Epic Game est détenu à près de 48 % par le géant technologique chinois Tencent, un groupe technologique chinois dont les rapports avec le PCC font l'objet de plusieurs controverses.

    Tencent est soupçonné d'avoir collaboré avec le gouvernement chinois pour surveiller les utilisateurs non chinois et censurer le contenu de l'application de messagerie WeChat. Une étude a révélé que le géant chinois aurait surveillé le contenu politique posté par des comptes étrangers pour former ses algorithmes de censure pour les utilisateurs nationaux. La recherche montre non seulement comment Tencent pratique la censure, mais aussi informe et développe ses propres stratégies de censure. En outre, d'autres rapports notent que l'entreprise est susceptible de soutenir les recherches politiques du gouvernement.

    Nom : ref.png
Affichages : 3023
Taille : 144,7 Ko

    « Si le gouvernement chinois a besoin de réguler l'opinion publique, il utilisera certainement la base de données des contenus politiquement sensibles de WeChat pour apprendre », a déclaré un professionnel basé à Pékin qui a travaillé en étroite collaboration avec le gouvernement. Un rapport du Wall Street Journal datant décembre 2020 décrivait la plateforme WeChat de Tencent comme "l'un des outils les plus puissants de l'arsenal de Pékin pour surveiller le public, censurer les discours et punir les personnes qui expriment leur mécontentement à l'égard du gouvernement". Tencent a toutefois toujours nié ces allégations.

    Une autre controverse est liée à la récente décision de Tencent d'utiliser la reconnaissance faciale pour empêcher les jeunes enfants de jouer à des jeux vidéo après l'heure du coucher. Par ailleurs, Sweeney's n'est que l'une des nombreuses voix qui demandent à Apple de reconsidérer ses plans. Des défenseurs de la vie privée et des experts en sécurité ont signé une lettre ouverte demandant l'arrêt des nouvelles mesures qui rechercheront le contenu de CSAM dans les photos iCloud sur les appareils des utilisateurs aux États-Unis, puis dans le monde.

    Source : Tim Sweeney

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des propos de Tim Sweeney ?

    Voir aussi

    Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone

    Le lanceur d'alerte Edward Snowden et l'EFF critiquent le projet d'Apple de scanner les messages et les images iCloud. Des milliers de personnes demandent à l'entreprise de suspendre ses plans

    Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos, alors que les experts dénoncent un recul dans les progrès en matière de vie privée

  2. #22
    Invité
    Invité(e)
    Par défaut
    Le problème, c'est que je peux facilement me passer des produits Tencent (le fait d'être actionnaire minoritaire d'Epic ne lui confère aucun droit sur les données des utilisateurs), mais difficilement des produits Apple. Même si je ne suis pas directement client de la marque, les messages, photos et vidéos que j'envoie à mes contacts risquent de se retrouver sur leurs terminaux et leur cloud.

  3. #23
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 298
    Points
    66 298
    Par défaut Les fonctions de protection de l'enfance d'Apple suscitent l'inquiétude dans ses propres rangs
    Les fonctions de protection de l'enfance d'Apple suscitent l'inquiétude dans ses propres rangs
    des employés craignent qu'elles deviennent une arme au service des gouvernements répressifs

    Alors que les nouvelles fonctionnalités de protection étendue des enfants à venir sur les dispositifs Apple suscitent des critiques virulentes dans l'industrie, l'on apprend qu'elles ne feraient pas non plus l'unanimité parmi ses propres employés et collaborateurs. Des personnes proches de l'entreprise ont expliqué que les changements apportés par le passé à la sécurité chez Apple ont également suscité l'inquiétude des employés, mais le volume et la durée du nouveau débat sont surprenants. Des employés craignent désormais qu'Apple ne nuise à sa réputation de leader en matière de protection de la vie privée.

    Apple a surpris plus d'un la semaine dernière lors de l'annonce des nouvelles fonctionnalités qui devraient faire leur apparition sur tous ses produits vers la fin de l'année. Rassemblées sous le nom de "Protection étendue des enfants", les nouvelles fonctionnalités visent à protéger davantage les enfants contre les différents abus en scannant les photos que les utilisateurs s'apprêtent à télécharger sur iCloud Photos pour rechercher du matériel pédopornographique (CSAM - child sexual abuse material). En outre, Apple prévoit également de rechercher des contenus explicites d'abus dans les messages d'enfants.

    Nom : apple-child-safety-features-messages-siri-AI-1280x720.jpg
Affichages : 2696
Taille : 66,0 Ko

    La nouvelle a été très mal accueillie dans l'industrie et tout en exprimant leur indignation, plusieurs experts et chercheurs en cybersécurité ont déclaré que la plus grande crainte que suscite cette décision est que les gouvernements autoritaires ou répressifs s'emparent de ces outils et les détournent de leur objectif initial pour en faire des armes de surveillance sophistiquée. L'EFF (Electronic Frontier Foundation), le lanceur d'alerte Edward Snowden, des cryptographes et des centaines d'autres personnes et organisations ont lancé une pétition contre cette décision et dénoncent une surveillance de masse orchestrée par Apple.

    D'après de récentes informations obtenues par Reuters, la réaction à la décision d'Apple de scanner les appareils de ses clients à la recherche d'images d'abus sexuels sur des enfants a pris de l'ampleur et des employés se sont exprimés en interne, ce qui constitue un tournant notable pour une entreprise réputée pour sa culture du secret. Des sources ont rapporté que depuis l'annonce des nouvelles fonctionnalités il y a une semaine, les employés d'Apple ont inondé un canal Slack interne de plus de 800 messages. Selon le média, ces sources sont principalement des employés d'Apple, mais ces derniers ont demandé à ne pas être identifiés.

    Comme certains le dénoncent depuis quelques jours déjà, les employés d'Apple craignent aussi que la fonctionnalité ne soit exploitée par des gouvernements répressifs cherchant à trouver d'autres éléments à censurer ou à arrêter. Les sources ont déclaré que le fil de discussion Slack dure depuis plusieurs jours. Bien que l'opposition provienne principalement d'employés qui n'occupent pas des postes de direction dans le domaine de la sécurité et de la protection de la vie privée, cette réaction marque un changement dans une entreprise où un code strict de secret autour des nouveaux produits colore d'autres aspects de la culture d'entreprise.

    Selon deux employés, Slack a été largement adopté par les équipes d'Apple pendant la pandémie. Mais alors que les employés utilisaient l'application pour maintenir des liens sociaux pendant l'ère du travail à domicile en partageant des recettes et d'autres contenus légers, des discussions plus sérieuses ont également pris racine. Les informateurs ont tout de même déclaré que dans le fil de discussion Slack consacré à la fonction de numérisation des photos, certains employés ont riposté aux critiques, tandis que d'autres ont déclaré que Slack n'était pas le forum approprié pour de telles discussions.

    À en croire leurs déclarations, les employés chargés de la sécurité n'étaient pas les principaux plaignants dans les messages. De même, certains parmi les sources ont déclaré qu'ils pensaient que la solution d'Apple était une réponse raisonnable à la pression exercée pour réprimer le matériel illégal. D'autres employés ont déclaré qu'ils espéraient que l'analyse était une étape vers le chiffrement complet d'iCloud pour les clients qui le souhaitent, ce qui inverserait une deuxième fois la direction d'Apple sur cette question. Jusque-là, Apple a déjà essuyé des critiques négatives de plusieurs de ses rivaux.

    Le week-end dernier, Tim Sweeney, PDG d'Epic Games, a critiqué les nouvelles politiques d'Apple en matière de sécurité et de la protection des enfants, qualifiant ces mesures de "logiciel espion du gouvernement". Critique virulent d'Apple depuis plusieurs années, Sweeney a déclaré dans une série de tweets que si Apple déployait ces fonctionnalités, il deviendrait vraisemblablement "un bras de la surveillance de l'État partout où cela est nécessaire". De même, dans ses commentaires, le PDG milliardaire a également fait mention des critiques actuelles concernant les compromis d'Apple en matière de vie privée en Chine.

    « J'ai essayé de voir ça du point de vue d'Apple. Mais inéluctablement, il s'agit d'un logiciel espion du gouvernement installé par Apple sur la base d'une présomption de culpabilité. Bien qu'Apple ait écrit le code, sa fonction est de scanner les données personnelles et de les rapporter au gouvernement. C'est totalement différent d'un système de modération de contenu sur un forum public ou un média social. Avant que la société ne choisisse d'héberger les données publiquement, il peut les scanner pour détecter ce qu'il ne veut pas héberger. Mais il s'agit de données privées de personnes », a critiqué Sweeney sur Twitter.

    Selon certains analystes, au cours de ces dix dernières années, Apple a pris l'habitude et aime agir en tant que pionnier en matière de vie privée et de cybersécurité, ce qui signifie qu'il pourrait faire fi de tous les commentaires et déployer ces fonctionnalités. Cependant, ils préviennent toutefois qu'Apple s'avance sur une pente glissante et que cela pourrait entraver les livraisons d'iPhone ou d'autres produits. En effet, selon les analystes, même si les consommateurs sont peu (et la plupart du temps pas du tout) initiés aux technologies de cybersécurité et de vie privée, ils pourraient être réticents à l'idée de laisser Apple "jeter un coup d'œil" à leurs photos.

    Facebook a payé le prix fort lorsque les agissements de Cambridge Analytica, qui a collecté les informations personnelles de dizaines de millions d'utilisateurs dans le but d'influencer les élections présidentielles américaines de 2016, ont été révélés en 2018. À la suite du scandale, le leader mondial des réseaux sociaux a relevé une baisse importante de ces utilisateurs, certains ayant tout simplement supprimé leur compte Facebook. Ainsi, les analystes pensent que les dénonciations dans la presse et les voix qui s'élèvent pourraient conduire les consommateurs à abandonner Apple, en cessant tout simplement d'acheter ces produits, car craignant d'être espionnés.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Pensez-vous que la décision d'Apple pourrait conduire les gens à se tourner vers les téléphones Android ?

    Voir aussi

    Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone

    Le lanceur d'alerte Edward Snowden et l'EFF critiquent le projet d'Apple de scanner les messages et les images iCloud, des milliers de personnes demandent à l'entreprise de suspendre ses plans

    Le PDG d'Epic Games met en garde contre la "surveillance d'État" d'Apple, alors qu'Epic Games est détenu en partie par Tencent en Chine

  4. #24
    Membre expérimenté Avatar de electroremy
    Homme Profil pro
    Ingénieur sécurité
    Inscrit en
    Juin 2007
    Messages
    952
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Doubs (Franche Comté)

    Informations professionnelles :
    Activité : Ingénieur sécurité
    Secteur : Industrie

    Informations forums :
    Inscription : Juin 2007
    Messages : 952
    Points : 1 309
    Points
    1 309
    Par défaut
    Tout ceci est extrêmement inquiétant...
    Et encore : Apple a l'honnêté d'annoncer l'existence et le fonctionnement de son système
    Car la vraie question est quels sont les mouchards que nous avons sur nos smartphones, nos ordinateurs dont nous ignorons l'existence ???

    Les OS et logiciels actuels sont trop gros, trop nombreux et mis à jours trop souvent pour que des informaticiens dignes de confiance puissent tout passer au crible.

    Solution : fonctionner en "local" avec un second terminal dédié uniquement à Internet ?
    Avec, pour les échanges sensible, un cryptage en amont et en aval avec un outil open source ?
    Ce n'est pas très pratique, il faut jongler avec une clef USB ou un outil d'échange maison entre les deux machines...
    Le problème supplémentaire étant qu'il devient de plus en plus difficile de fonctionner "en local" c'est à dire sans connexion réseau
    Pour un smartphone c'est impossible par principe
    Pour un PC ça devient de plus en plus difficile (serveurs de licence par exemple)

    Ce qui m'énerve le plus c'est :
    - le prétexte "lutte contre la pédophilie" qui est la baguette magique pour faire accepter n'importe quoi
    - Internet qui est le grand bouc émissaire de tous les malheurs du monde

    Car concernant les viols en général, et les viols sur mineurs en particulier, dans la grande majorité des cas l'agresseur connait la victime (même famille, même cercle amical, même quartier).

    Pour une agression sexuelle d'un enfant par un parent (ou un oncle, un voisin, un enseignant, le curé...), le rôle d'Internet est donc... totalement nul !
    Et ces cas de figure constituent la majorité de ces agressions.

    Ensuite il y a les enlèvements d'enfants par les sinistres criminels en série.
    Ils opèrent dans la région où ils habitent, ça se passe "dans la vraie vie", le rôle d'Internet est... nul !

    Oui il arrive qu'Internet ai un rôle (les fameux réseaux) mais les agressions se passent toujours "dans la vraie vie" en laissant pas mal de traces pour l'enquête - un enlèvement ne passe pas inaperçu, une enquête de voisinage, des barrages routiers, des analyses ADN sont souvent la solution.
    Internet permet de partager et voir les images des crimes commis par d'autre, mais c'est un problème "secondaire", le problème principal c'est l'agression originale dont l'auteur doit être arrêté.

    Le pire c'est que ce flicage d'Internet :
    - ne va servir à rien, car les criminels vont s'adapter
    - va pénaliser les personnes vulnérables (sources des journalistes, lanceurs d'alerte, minorités opprimés)

    Car un criminel qui veut commettre un crime va s'organiser dès le départ en faisant attention avec Internet et les smartphones - sauf s'il est idiot... et il y en a des "champions", voir les rubriques "ivre virgule..." de la presse régionale

    En revanche, un lanceur d'alerte, au départ, ne se rend pas compte qu'il est en danger, car tout simplement, on devient lanceur d'alerte progressivement : on découvre un problème, on essaye d'en parler, on se rend compte que ça gêne, on se rend compte que c'est beaucoup plus grave que ce qu'on imaginait au départ, on reçoit des menaces, et là seulement on se rend compte qu'il faut prendre des précautions mais c'est trop tard, on est déjà repéré

    Que conclure ?
    - soit les GAFAM et nos élus sont tous complétements naïfs et incompétents en matière de technologie et de criminalité
    - soit les GAFAM et nos élus nous prennent ouvertement pour des imbéciles, leur véritable objectif c'est de pouvoir surveiller tout le monde, pour se débarrasser des lanceurs d'alerte, pour se débarrasser des opposants politiques, pour rester au pouvoir et/ou gagner de l'argent, la lutte contre la pédophilie n'étant qu'un prétexte...

    Mais au fait, si on se préoccupait vraiment du sort des enfants de notre planète :
    - on aurait fait le ménage dans les institutions (écoles, églises, ...) au lieu de protéger les agresseurs en les mutants ailleurs et en étouffant l'affaire
    - on s'occuperai mieux des orphelins placés en institution, et on ne les jetterais pas dehors à 18 ans
    - on interdirait le travail des enfants ; en Chine ou dans les pays du tiers-monde beaucoup d'enfants sont exploités en usine, dans les mines ou dans les décharges, mais là ça ne dérange personne du moment que ça fait tourner l'économie et qu'on peut fabriquer des smartphones... Apple protecteur de l'enfance, c'est du foutage de gueule quand on voit où et comment sont fabriqués leurs smartphone, leurs composants et les matières premières...

  5. #25
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 298
    Points
    66 298
    Par défaut Après les critiques, Apple ne recherchera que les images d'abus signalées dans plusieurs pays
    Après les critiques, Apple ne recherchera que les images d'abus signalées dans plusieurs pays
    et insiste sur le fait qu'il s'agit d'une avancée en matière de confidentialité

    Environ deux semaines après l'annonce des nouvelles fonctionnalités de protection étendue des enfants, Apple essuie toujours des critiques négatives de la part d'une grande partie de la communauté. Vendredi, Apple s'est excusée pour la confusion que l'annonce a suscitée et a donné plus de détails sur les nouvelles fonctionnalités. La société a publié un document expliquant comment elle a étudié les attaques potentielles sur le système et a préparé une défense contre elles. Elle a également indiqué que son système de numérisation d'iCloud s'appuiera sur les données de plusieurs groupes de protection de l'enfance pour répondre aux craintes relatives à la vie privée.

    Apple estime que les critiques négatives sont le résultat d'une confusion

    Apple a annoncé l'arrivée de nouvelles fonctionnalités de protection de l'enfance le 5 août dernier, mais ces dernières ont été très mal accueillies par la communauté. L'entreprise a dévoilé deux nouveaux outils, dont un nouveau système de détection d'images qui peut alerter Apple lorsque des images connues d'abus sur les enfants sont en passe d'être téléchargées sur le stockage iCloud. Les groupes de défense de la vie privée ont critiqué cette nouvelle, certains affirmant qu'Apple avait créé une porte dérobée pour permettre la surveillance de ces clients. Cependant, la société affirme que son annonce a été largement "mal comprise".

    Nom : memo-interne-du-vice-president-du-logiciel-chez-apple-parle-de-la-numerisation-de-photos-icloud-.jpg
Affichages : 2600
Taille : 82,2 Ko

    En effet, d'autres entreprises technologiques effectuent des contrôles similaires une fois que les photos sont téléchargées sur leurs serveurs. La décision d'Apple de placer les principaux aspects du système sur le téléphone lui-même a suscité des inquiétudes quant au fait que les gouvernements pourraient obliger l'entreprise à étendre le système à d'autres usages, comme la recherche d'images politiques interdites. La controverse s'est même déplacée dans les rangs d'Apple, plusieurs employés ayant critiqué la décision et craignant que la société ne compromette sa réputation en matière de protection de la vie privée des consommateurs.

    Dans une récente interview accordée au Wall Street Journal (WSJ), Apple a reconnu avoir mal géré la communication autour du programme. Craig Federighi, responsable des logiciels chez Apple, a déclaré qu'en prenant du recul, la société s'est rendu compte que l'introduction de deux fonctionnalités en même temps était "une recette pour ce genre de confusion". « Nous aurions aimé que l'annonce soit un peu plus claire pour tout le monde », a déclaré Federighi. L'ingénieur a apporté plus de détails sur le choix d'Apple et a également annoncé que le projet était toujours en cours de développement et que des changements étaient à prévoir.

    Il a refusé de dire si les critiques étaient à l'origine de ces changements. L'un de changements annoncés concerne la base de données de CSAM (child sex abuse material) qu'Apple va exploiter. La société a déclaré qu'elle ne rechercherait que les images qui ont été signalées par des organismes de renseignements et de protection de l'enfance dans plusieurs pays. Autrement dit, le système ne signalera que les images trouvées dans plusieurs bases de données sur la sécurité des enfants ayant des affiliations gouvernementales différentes, ce qui empêcherait théoriquement un pays d'ajouter au système du contenu ne relevant pas du CSAM.

    En présentant les fonctionnalités pour la première fois, Apple n'avait choisi que le National Center for Missing and Exploited Children (NCMEC), basé aux États-Unis, comme fournisseur d'images d'abus connus sur les enfants. À la question de savoir pourquoi cela a été le cas, un responsable d'Apple a répondu que l'entreprise venait seulement de finaliser son accord avec le NCMEC. La société a également dévoilé le nombre de correspondances d'images à partir duquel le système alertera Apple pour un examen plus approfondi effectué par un être humain. Elle avait précédemment refusé de divulguer ce nombre.

    Vendredi, les dirigeants ont déclaré qu'ils commenceraient avec 30 images, bien que le nombre puisse diminuer au fil du temps à mesure que le système s'améliore. Selon Apple, ce seuil a été choisi pour fournir une "marge de sécurité drastique" afin d'éviter les faux positifs, indique le document - et au fur et à mesure de l'évaluation des performances du système dans le monde réel, "nous pourrons modifier le seuil".

    Apple a également déclaré qu'il serait facile pour les chercheurs de s'assurer que la liste des identifiants d'images recherchés sur un iPhone était la même que celle de tous les autres téléphones, cherchant ainsi à apaiser les craintes que le nouveau mécanisme puisse être utilisé pour cibler des individus.

    Apple dit qu'il est le meilleur en matière de protection de la vie privée

    Les efforts d'Apple ont suscité des critiques d'autres sociétés de sa tranche. Un dirigeant du service de messagerie WhatsApp de Facebook a qualifié l'approche d'Apple de mauvaise pour la vie privée. La principale préoccupation est de savoir si Apple peut utiliser un logiciel qui identifie le matériel illégal sans que le système soit exploité par d'autres, comme les gouvernements, qui font pression pour obtenir davantage d'informations privées - une suggestion qu'Apple dément fermement. En outre, Federighi a déclaré que les nouvelles fonctionnalités seront protégées par "de multiples niveaux d'auditabilité".

    Federighi a défendu le nouveau système lors de l'interview avec le WSJ, en disant qu'Apple vise à détecter les photos d'abus sexuels d'enfants d'une manière qui protège la vie privée des utilisateurs plus que d'autres systèmes de scan plus invasifs. « Ce que nous faisons, c'est que nous trouvons des images illégales stockées de pédopornographie dans iCloud. Si vous regardez n'importe quel autre service de cloud, ils scannent actuellement les photos en regardant chaque photo dans le cloud et en l'analysant », a déclaré Federighi, tout en refusant l'idée selon laquelle le système de l'entreprise est une porte dérobée.

    « Nous voulions être en mesure de repérer de telles photos dans le nuage sans regarder les photos des gens et nous avons imaginé une architecture pour le faire. Le système d'Apple n'est pas une porte dérobée qui brise le chiffrement et il est beaucoup plus privé que tout ce qui a été fait dans ce domaine auparavant. Nous avons développé l'architecture pour identifier les photos de la manière la plus protectrice de la vie privée que nous puissions imaginer et de la manière la plus auditable et vérifiable possible », a poursuivi Federighi. Il a ajouté qu'Apple est la meilleure entreprise en matière de protection de la vie privée.

    « Nous, qui nous considérons comme des leaders absolus en matière de protection de la vie privée, voyons ce que nous faisons ici comme une avancée de l'état de l'art en matière de protection de la vie privée, comme la possibilité d'un monde plus privé », a déclaré Federighi.

    Quels sont les deux systèmes sur lesquels Apple travaille ?

    Apple a donné plus de détails sur son projet d'analyse des photos de CSAM sur les iPhone et iPads des utilisateurs. La société a publié un nouveau document détaillant les mesures de protection qui, espère-t-elle, renforceront la confiance des utilisateurs dans cette initiative. Le document, intitulé "Security Threat Model Review of Apple's Child Safety Features" (examen du modèle de menace de sécurité des dispositifs de sécurité pour enfants d'Apple), a pour objectif de dissiper les inquiétudes en matière de confidentialité et de sécurité liées à ce déploiement. Il s'appuie sur l'entretien accordé par Craig Federighi au WSJ.

    Lors de l'interview, mais aussi dans le document, Apple est revenu en détail sur ce en quoi consistent les deux nouvelles fonctionnalités qui seront déployées sur ses appareils plus tard cette année. Elles seront d'abord déployées aux États-Unis, dès la sortie de l'iOS 15.

    L'outil de détection d'images de CSAM

    Le premier outil permet d'identifier les images de CSAM lorsqu'un utilisateur lance le téléchargement de ses photos vers le stockage iCloud Photos. Pour ce faire, Apple s'appuiera sur les bases de données d'images de CSAM du NCMEC et celles d'autres fournisseurs. Apple a expliqué que le NCMEC gère une base de données d'images illégales connues d'abus d'enfants. Il les stocke sous forme de hashs, une "empreinte digitale" numérique du matériel illégal. Les fournisseurs de services en nuage, tels que Facebook, Google et Microsoft, comparent déjà les images à ces hashs pour s'assurer que les gens ne partagent pas des images de CSAM.

    Apple veut mettre en œuvre un processus similaire, mais a déclaré qu'il effectuerait la comparaison des images sur l'iPhone ou l'iPad de l'utilisateur, avant qu'elles ne soient téléchargées sur iCloud. Federighi a précisé que l'iPhone ne vérifierait pas des éléments tels que des photos de vos enfants dans le bain ou la recherche de matériel pornographique. Le système ne pourrait que faire correspondre les "empreintes digitales exactes" d'images spécifiques d'abus pédosexuels connus. Si un utilisateur tente de télécharger plusieurs images qui correspondent à des empreintes digitales d'abus pédosexuels, son compte sera signalé à Apple.

    Des humains se chargeront ensuite de faire une analyse plus poussée des images signalées. Federighi a déclaré qu'un utilisateur devrait télécharger environ 30 images correspondantes avant que cette fonction ne soit déclenchée.

    L'outil de filtrage des messages

    En plus de l'outil de détection de CSAM dans les images en transit vers iCloud Photos, Apple a également annoncé un contrôle parental que les utilisateurs peuvent activer sur les comptes de leurs enfants. S'il est activé, le système vérifie les photos envoyées par - ou à - l'enfant via l'application iMessage d'Apple. Si le système juge qu'une photo contient de la nudité, il la masque et avertit l'enfant. Les parents peuvent également choisir de recevoir une alerte si l'enfant choisit de regarder la photo.

    Source : Interview de Craig Federighi, Document technique d'Apple

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des déclarations d'Apple ?
    Pensez-vous que le système est aussi sécurisé que l'entreprise le prétend ?

    Voir aussi

    Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone

    Les fonctions de protection de l'enfance d'Apple suscitent l'inquiétude dans ses propres rangs, des employés craignent qu'elles deviennent une arme au service des gouvernements répressifs

    Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos, alors que les experts dénoncent un recul dans les progrès en matière de vie privée

    Le PDG d'Epic Games met en garde contre la "surveillance d'État" d'Apple, alors qu'Epic Games est détenu en partie par Tencent en Chine

    Le lanceur d'alerte Edward Snowden et l'EFF critiquent le projet d'Apple de scanner les messages et les images iCloud, des milliers de personnes demandent à l'entreprise de suspendre ses plans

  6. #26
    Nouveau membre du Club
    Homme Profil pro
    Inscrit en
    Septembre 2013
    Messages
    6
    Détails du profil
    Informations personnelles :
    Sexe : Homme

    Informations forums :
    Inscription : Septembre 2013
    Messages : 6
    Points : 28
    Points
    28
    Par défaut
    Votre sécurité qui vous mets à nu
    Bizarre quand même; ces grandes entreprises qui veulent notre sécurité; c'est de chez eux que les plus grandes fuites de données se sont produites.Ce sont eux qui abusent de nos données. Y a-t-il des études qui déterminent ce risque pour un internaute(individu) lambda. En fait, c'est d'eux qu'ils faux avoir peur c'est contre eux qu'ils faux avoir une protection

  7. #27
    Membre expérimenté
    Homme Profil pro
    retraité
    Inscrit en
    Septembre 2014
    Messages
    626
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : retraité

    Informations forums :
    Inscription : Septembre 2014
    Messages : 626
    Points : 1 495
    Points
    1 495
    Par défaut
    C'est super : les prédateurs savent qu'ils ne doivent pas télécharger plus de 30 images de ce type avant de se faire prendre, et comme ils sont prévenus de la mise en place de ce système massif de surveillance depuis quelques temps, ils n'utiliseront plus d'iPhone, ni de matériel Apple, désactiverons iCloud, et en fait on ne perd rien quand on supprime d'iCloud : il suffit de sauvegarder auparavant régulièrement dans un HD externe, ensuite même si vous supprimez dans iCloud ce qui y a été transféré et donc supprimez sur vos iMachins, vous avez les sauvegardes sur le HD externe :

    https://support.apple.com/fr-fr/guid...49040b5/icloud

    Attention : il y a un temporisation de 30 jours avant la suppression définitive (?)...

    Et ces gens utiliseront autre chose. D'ailleurs l'essentiel de la pédo-pronographie est sur le Dark Web.
    Question : quid des vidéos ?

  8. #28
    Membre éclairé
    Homme Profil pro
    Développeur Web
    Inscrit en
    Janvier 2016
    Messages
    188
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Isère (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Janvier 2016
    Messages : 188
    Points : 821
    Points
    821
    Par défaut
    Citation Envoyé par samil2013 Voir le message
    Votre sécurité qui vous mets à nu
    Bizarre quand même; ces grandes entreprises qui veulent notre sécurité; c'est de chez eux que les plus grandes fuites de données se sont produites.Ce sont eux qui abusent de nos données. Y a-t-il des études qui déterminent ce risque pour un internaute(individu) lambda. En fait, c'est d'eux qu'ils faux avoir peur c'est contre eux qu'ils faux avoir une protection
    "Mais puisqu'on vous dit que c'est pour votre bien !"

  9. #29
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 298
    Points
    66 298
    Par défaut Le Parlement allemand demande à Tim Cook de reconsidérer ses projets de CSAM
    Le Parlement allemand demande à Tim Cook de reconsidérer ses projets de CSAM
    estimant que le système de balayage d'Apple sape la communication confidentielle

    Le Parlement allemand est la première institution gouvernementale à s'inviter dans le débat sur les nouvelles fonctionnalités de détection d'images de CSAM qu'Apple a prévu de déployer sur les iPhone et les iPad plus tard cette année. Dans une lettre envoyée au PDG d'Apple Tim Cook, Manuel Hoferlin, le président de la commission de la stratégie numérique du Parlement allemand lui a fait part de ses préoccupations concernant une surveillance de masse. Le responsable a écrit à l'entreprise qu'elle s'engage sur une "voie dangereuse" et que sa décision met en danger "la communication sécurisée et confidentielle".

    Les critiques des projets d'Apple concernant les nouvelles fonctions de protection de l'enfance ne s'arrêtent pas. Depuis que l'entreprise a annoncé la semaine dernière qu'elle déploiera de nouvelles fonctionnalités pour détecter localement les photos connues d'abus d'enfants (Child Sexual Abuse Material - CSAM) sur les iPhone et d'autres dispositifs de la marque, le projet a suscité beaucoup d'inquiétudes et de controverses concernant la vie privée des utilisateurs. Le géant de Cupertino est accusé de vouloir mettre en place une porte dérobée pouvant permettre aux gouvernements autoritaires ou répressifs de cibler, surveiller et réprimer les opposants ou d'autres sujets.

    Nom : memo-interne-du-vice-president-du-logiciel-chez-apple-parle-de-la-numerisation-de-photos-icloud-.jpg
Affichages : 2788
Taille : 82,2 Ko

    Désormais, le débat n'est plus seulement entre Apple et la communauté, regroupant les experts en cybersécurité, les lanceurs d'alertes, les organismes de défense de la vie privée en ligne et les journalistes. Les critiques ont maintenant atteint le Bundestag allemand, le Parlement national, qui se mêle de l'affaire. Celui-ci s'aligne derrière la communauté et dénonce également une surveillance de masse qu'Apple s'apprête à mettre en place. Dans une lettre adressée à Tim Cook, le chef de la commission de la stratégie numérique du parlement allemand, Manuel Hoferlin, souhaite qu'Apple reconsidère ses projets de CSAM en vue de préserver les acquis en matière de vie privée en ligne.

    La nouvelle de lettre a été rapportée pour la première fois par le média allemand Heise Online. Selon Hoferlin, avec la reconnaissance locale prévue des photos d'abus sur les iPhone, Apple s'engage sur une "voie dangereuse" et porte atteinte à la "communication sécurisée et confidentielle". Selon le parlementaire, Apple doit s'abstenir de mettre en œuvre la fonction - à la fois pour éviter des "problèmes prévisibles" pour l'entreprise et pour protéger la société de l'information moderne. Il suggère que les mesures de protection prévues par l'entreprise contre les cas de détournements possibles ne pourront rien face à la menace des gouvernements.

    « Le balayage prévu par le CSAM serait la plus grande violation de la barrière pour la confidentialité de la communication que nous ayons connue depuis l'invention de l'Internet », a écrit Höferlin dans la lettre qu'il a envoyée à Tim Cook mardi. « Chaque contenu scanné finit par détruire la confiance des utilisateurs dans le fait que leur communication n'est pas surveillée. Sans les communications confidentielles, cependant, Internet devient le plus grand outil de surveillance de l'histoire. Ainsi, la promesse d'Apple de limiter étroitement les fonctions ne pourrait rien y changer » a mis en garde le membre du Bundestag.

    Malgré les assurances données par Apple, le parlementaire insiste sur le fait qu'une porte dérobée étroite reste une porte dérobée. Selon lui, les demandes d'ouverture de la porte dérobée pour scanner d'autres types de contenu sont inévitables et Apple pourrait risquer l'accès aux principaux marchés internationaux si elle les rejette. « Même une porte dérobée étroite resterait en fin de compte une porte dérobée », a écrit Höferlin, faisant référence à Édouard Snowden et à l'organisation de défense des droits civils EFF (Electronic Frontier Foundation) qui avaient déjà critiqué les nouvelles fonctions prévues par Apple avec des arguments similaires.

    « Les demandes d'extension de la fonction de balayage à d'autres contenus sont prévisibles et Apple pourrait perdre l'accès à de vastes marchés en refusant ces demandes », a-t-il poursuivi. Jusqu'à présent, Tim Cook, le patron d'Apple est resté silencieux par rapport à la controverse que suscitent les nouvelles fonctionnalités de l'entreprise pour la détection d'images de CSAM. Pour rappel, les fonctions de protection de l'enfance prévues par Apple pour l'automne prochain comprennent un filtre pour les photos de nus dans iMessage et un système indépendant de détection des contenus connus d'abus sur les enfants dans les photos iCloud.

    Dans le cas de ce deuxième système, une partie fonctionnera localement sur les iPhone et iPad. Selon les précisions d'Apple sur ce système, lorsqu'un seuil d'environ 30 occurrences est atteint sur le dispositif d'un utilisateur, l'entreprise en est informée et peut passer les photos au crible, puis les signaler aux autorités compétentes. Après une communication de crise mouvementée, le patron des logiciels d'Apple a tenté une nouvelle fois de dissiper les inquiétudes à la fin de la semaine dernière. La communauté semble impatiente d'écouter les explications de Tim Cook sur ces nouvelles fonctionnalités sensées accroître la protection des enfants.

    Par ailleurs, la lettre du Bundestag arrive un jour après qu'un syndicat allemand de journalistes a demandé à la Commission européenne de se pencher sur la question, en raison de la perception d'une "violation de la liberté de la presse". En effet, les outils CSAM d'Apple ont également suscité les critiques des journalistes d'Allemagne, d'Autriche et de Suisse. Le syndicat de journalistes DJV, l'association des journalistes allemands, estime qu'Apple "a l'intention de surveiller les téléphones portables localement à l'avenir". Dans un communiqué de presse, le syndicat qualifie ces outils de "violation de la liberté de la presse".

    Il a demandé instamment à la Commission européenne et aux ministres fédéraux de l'intérieur autrichien et allemand de prendre des mesures. « Apple a introduit un outil avec lequel une entreprise veut accéder aux données d'autres utilisateurs sur leurs propres appareils, comme des contrats et des documents confidentiels, ce qui constituerait une violation des règles du GDPR », dénonce Hubert Krech, porte-parole de l'association AGRA. Dieter Bornemann, porte-parole du conseil de rédaction de l'ORF, suggère que les gouvernements peuvent se servir de ces fonctionnalités pour réprimer les journalistes engagés dans la cause LGBT.

    Frank Uberall, président du DJV, ajoute que cela pourrait être la première étape d'une longue série. « Les images ou les vidéos des opposants au régime ou les données des utilisateurs seront-elles vérifiées à un moment donné à l'aide d'un algorithme ? », a demandé Uberall. Le groupe rejette également l'affirmation selon laquelle il ne s'appliquera qu'aux États-Unis, car la plupart des médias européens ont des correspondants dans le pays. « Ce qui commence aux États-Unis suivra certainement en Europe aussi », a déclaré le DJV. Il est important de noter qu'Apple a déclaré que les fonctionnalités seront déployées en premier lieu aux États-Unis, puis dans les autres pays, selon les lois locales.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des inquiétudes soulevées le Parlement allemand ?
    Que pensez-vous des inquiétudes soulevées par les associations de journalistes ?
    Pensez-vous qu'Apple va faire demi-tour ou déploiera-t-il ces fonctions en dépit des critiques ?
    Apple pourrait-il déployer discrètement ces fonctionnalités après y avoir renoncé publiquement ?

    Voir aussi

    Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos, alors que les experts dénoncent un recul dans les progrès en matière de vie privée

    Après les critiques, Apple ne recherchera que les images d'abus signalées dans plusieurs pays et insiste sur le fait qu'il s'agit d'une avancée en matière de confidentialité

    Les fonctions de protection de l'enfance d'Apple suscitent l'inquiétude dans ses propres rangs, des employés craignent qu'elles deviennent une arme au service des gouvernements répressifs

    Le PDG d'Epic Games met en garde contre la "surveillance d'État" d'Apple, alors qu'Epic Games est détenu en partie par Tencent en Chine

    Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone

  10. #30
    Membre émérite
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    951
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 951
    Points : 2 909
    Points
    2 909
    Par défaut
    Citation Envoyé par samil2013 Voir le message
    c'est de chez eux que les plus grandes fuites de données se sont produites
    Sérieusement ? Les plus grosse boîte on le plus grand nombre de client, c'est pour ça que s'il y a une fuite de données elle est plus grosse. (je parle bien de fuite de données, pas de revente).
    C'est comme dire que c'est chez Windows qu'il y a le plus de piratage quand il représente plus de 90% du parc informatique mondiale, ce qui est juste LA raison pour laquelle il est plus ciblé que Linux, comme les GAFAM sont plus ciblé par les hackers ambitieux que ... Dailymotion ?

    Et non je n'ai pas d'Apple et je n'ai aucune sympathie pour les GAFAM.

  11. #31
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 920
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 920
    Points : 206 727
    Points
    206 727
    Par défaut Apple invite quiconque à inspecter de près son code tout en luttant contre les personnes qui le font
    Apple affirme que les chercheurs peuvent vérifier ses fonctionnalités de sécurité pour les enfants,
    mais poursuit une startup qui fait exactement cela

    Au début du mois, Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste.

    Apple a précisé que la technologie de balayage fait partie d'une nouvelle série de systèmes de protection des enfants qui « évolueront et se développeront au fil du temps ». Les fonctionnalités seront déployées dans le cadre d'iOS 15, dont la sortie est prévue le mois prochain. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société.

    Le système, appelé neuralMatch, alertera de manière proactive une équipe d'examinateurs humains s'il pense que des images illégales sont détectées. Selon un article de Financial Times, qui a rapporté la nouvelle pour la première fois, les examinateurs humains contacteront ensuite les forces de l'ordre si le matériel peut être vérifié. Le système neuralMatch, qui a été formé à l'aide de 200 000 images du National Center for Missing & Exploited Children, sera d'abord déployé aux États-Unis, puis au reste du monde. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.

    Selon les explications de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un « bon de sécurité » indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.

    Une initiative qui a créé la division, même au sein des employés Apple. Matthew Green, professeur à l'université John Hopkins et cryptographe, a indiqué sur Twitter : « Ce genre d'outil peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens... Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire ».

    En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.

    Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.

    Nom : apple.png
Affichages : 2886
Taille : 67,4 Ko

    Apple poursuit une entreprise qui permet d'inspecter son code

    Dans une récente interview accordée au Wall Street Journal (WSJ), Apple a reconnu avoir mal géré la communication autour du programme. Craig Federighi, responsable des logiciels chez Apple, a déclaré qu'en prenant du recul, la société s'est rendu compte que l'introduction de deux fonctionnalités en même temps était « une recette pour ce genre de confusion ». « Nous aurions aimé que l'annonce soit un peu plus claire pour tout le monde », a déclaré Federighi. L'ingénieur a apporté plus de détails sur le choix d'Apple et a également annoncé que le projet était toujours en cours de développement et que des changements étaient à prévoir.

    Face à la résistance du public, Apple a insisté sur le fait que sa technologie peut être vérifiée. « Les chercheurs en sécurité sont constamment en mesure d'introspecter ce qui se passe dans le logiciel [téléphonique] d'Apple », a déclaré Craig Federighi, vice-président d'Apple, dans une interview au Wall Street Journal. « Donc, si des changements étaient apportés pour étendre la portée d'une manière que nous nous étions engagés à ne pas faire, il y a une vérifiabilité, ils peuvent détecter ce qui se passe ».

    Pourtant, Apple poursuit une entreprise qui propose des logiciels pour permettre aux chercheurs en sécurité de faire exactement cela.

    En 2019, Apple a déposé une plainte contre Corellium, qui permet aux chercheurs en sécurité de tester facilement et à moindre coût les appareils mobiles en émulant leur logiciel plutôt que de les obliger à accéder aux appareils physiques. Le logiciel, qui émule également les appareils Android, peut être utilisé pour résoudre ces problèmes.

    Dans la plainte, Apple a fait valoir que Corellium avait violé ses droits d'auteur, permis la vente de failles logicielles utilisées pour le piratage et qui ne devraient pas exister. La startup a répliqué en disant que son utilisation du code d'Apple était un cas classique protégé de fair usage. Le juge s'est largement rangé du côté de Corellium jusqu'à présent. Une partie de cette affaire vieille de deux ans a été réglée la semaine dernière, quelques jours après que l'actualité de la technologie CSAM de l'entreprise soit devenue publique.

    L'annonce de Corellium

    Lundi, Corellium a annoncé une subvention de 15 000 $ pour un programme qu'il promeut spécifiquement comme un moyen d'examiner les iPhones au microscope et de tenir Apple responsable :

    « Aujourd'hui, en l'honneur du quatrième anniversaire de Corellium, nous annonçons l'Initiative de sécurité ouverte de Corellium. Cette initiative soutiendra la recherche publique indépendante sur la sécurité et la confidentialité des applications et appareils mobiles grâce à une série de prix et à l'accès à la plateforme Corellium. »

    « Plus que tout autre domaine de l'informatique, la sécurité dépend de l'existence d'une communauté de chercheurs importante, diversifiée et non officielle. Alors que les avancées dans des domaines tels que la conception de matériel informatique émergent souvent de laboratoires privés bien financés, la majorité des progrès en matière de cybersécurité au cours des dernières décennies sont venus de la "communauté de la recherche en sécurité", une communauté qui comprend non seulement des universitaires et des professionnels accrédités, mais aussi des hackers ou des amateurs. »

    « Mener des recherches par des tiers sur les appareils mobiles reste difficile, inefficace et coûteux. En particulier dans l'écosystème iOS, les tests nécessitent généralement un appareil physique jailbreaké. Les jailbreaks reposent sur des exploits complexes, et ils ne sont souvent pas fiables ou disponibles pour les derniers modèles d'appareils et versions de système d'exploitation. »

    « Chez Corellium, nous reconnaissons le rôle essentiel que jouent les chercheurs indépendants dans la promotion de la sécurité et de la confidentialité des appareils mobiles. C'est pourquoi nous recherchons constamment des moyens de rendre les recherches de tiers sur les appareils mobiles plus faciles et plus accessibles, et c'est pourquoi nous lançons la Corellium Open Security Initiative. »

    « En tant que premier pilote de ce programme, nous lancerons un appel à propositions sur un sujet spécifique. Au fil du temps, nous évaluerons l'ajout de plus de sujets et plus de possibilités de récompenses. Si vous êtes intéressé à parrainer ou à collaborer avec nous sur cette initiative, veuillez nous contacter. »

    « La communauté des chercheurs en sécurité joue un rôle central non seulement dans l'identification et la défense contre les menaces de sécurité, mais aussi dans la responsabilisation des éditeurs de logiciels quant aux déclarations de sécurité et de confidentialité qu'ils font à propos de leurs produits. »

    Plus loin, Corellium félicite Apple et encourage les autres entreprises technologiques à faire de même :

    « Pas plus tard que la semaine dernière, Apple a annoncé qu'il commencerait à numériser les photos téléchargées dans le service iCloud d'Apple pour le matériel d'abus sexuel d'enfants (CSAM). Laissant de côté les débats sur les implications civiles et philosophiques de cette nouvelle fonctionnalité, Apple a fait plusieurs déclarations de confidentialité et de sécurité à propos de ce nouveau système. Ces revendications couvrent des sujets aussi divers que la technologie de hachage d'image, la conception cryptographique moderne, l'analyse de code et la mécanique interne et la conception de la sécurité d'iOS lui-même. Des erreurs dans n'importe quel composant de cette conception globale pourraient être utilisées pour subvertir le système dans son ensemble et, par conséquent, violer les attentes en matière de confidentialité et de sécurité des utilisateurs d'iPhone. »

    « Depuis cette annonce initiale, Apple a encouragé la communauté indépendante de la recherche en sécurité à valider et vérifier ses allégations de sécurité. Comme l'a déclaré Craig Federighi, vice-président directeur de l'ingénierie logicielle d'Apple dans une interview au Wall Street Journal, "les chercheurs en sécurité sont constamment en mesure d'introspecter ce qui se passe dans le logiciel [téléphonique] d'Apple, donc si des changements étaient apportés qui devaient étendre la portée de cela dans d'une certaine manière - d'une manière que nous nous étions engagés à ne pas faire - il y a une vérifiabilité, ils peuvent repérer ce qui se passe". »

    « Nous applaudissons l'engagement d'Apple à se tenir responsable vis-à-vis des chercheurs tiers. Nous pensons que notre plateforme est particulièrement capable de soutenir les chercheurs dans cet effort. Nos appareils virtuels "jailbreakés" n'utilisent aucun exploit et s'appuient plutôt sur notre technologie d'hyperviseur unique. Cela nous permet de fournir des appareils virtuels enracinés pour une analyse de sécurité dynamique presque dès la sortie d'une nouvelle version d'iOS. De plus, notre plateforme fournit des outils et des capacités qui ne sont pas facilement disponibles avec les appareils physiques. »

    « Nous espérons que d'autres fournisseurs de logiciels mobiles suivront l'exemple d'Apple en promouvant la vérification indépendante des allégations de sécurité et de confidentialité. Pour encourager cette recherche importante, pour ce premier pilote de notre initiative de sécurité, nous accepterons des propositions de projets de recherche conçus pour valider toute revendication de sécurité et de confidentialité pour tout fournisseur de logiciel mobile, que ce soit dans le système d'exploitation ou des applications tierces. »

    Le lendemain, c'est à dire mardi, Apple a déposé un recours pour poursuivre le procès.

    Dans une interview avec MIT Technology Review, le directeur de l'exploitation de Corellium, Matt Tait, a déclaré que les commentaires de Federighi ne correspondent pas à la réalité : « C'est trop facile à dire pour Apple », a-t-il dit. «*iOS est conçu de manière à ce qu'il soit en fait très difficile pour les utilisateurs d'inspecter les services système*».

    Il n'est pas le seul à contester la position défendue par Apple.

    « Apple exagère la capacité d'un chercheur à examiner le système dans son ensemble », déclare David Thiel, directeur de la technologie à l'observatoire Internet de Stanford. Thiel, l'auteur d'un livre intitulé iOS Application Security, a tweeté que l'entreprise dépensait beaucoup pour empêcher la même chose qu'elle prétend être possible : « Apple a dépensé des sommes considérables spécifiquement pour empêcher cela et rendre de telles recherches difficiles. Ils sont allés jusqu'à poursuivre une entreprise qui a rendu les choses trop faciles. Ce pivot est totalement fallacieux. Si Apple veut s'appuyer sur la communauté de sécurité iOS comme vérification indépendante, il doit cesser de traiter cette communauté comme des ennemis et nous laisser déverrouiller et examiner correctement les appareils. »

    Nom : david.png
Affichages : 2547
Taille : 41,6 Ko

    Des bâtons dans les roues ?

    Si vous voulez voir exactement comment fonctionne la nouvelle technologie complexe d'Apple, vous ne pouvez pas simplement regarder à l'intérieur du système d'exploitation de l'iPhone que vous venez d'acheter au magasin. L'approche de «*jardin clos*» de l'entreprise en matière de sécurité a permis de résoudre certains problèmes fondamentaux, mais cela signifie également que le téléphone est conçu pour empêcher les visiteurs d'entrer.

    Les téléphones Android, quant à eux, sont fondamentalement différents. Alors que les iPhones sont connus pour être verrouillés, tout ce que vous avez à faire pour déverrouiller un Android est de brancher un périphérique USB, d'installer des outils de développement et d'obtenir l'accès root de haut niveau.

    L'approche d'Apple signifie que les chercheurs sont laissés enfermés dans une bataille sans fin avec l'entreprise pour essayer d'obtenir le niveau de compréhension dont ils ont besoin.

    Cependant, il existe plusieurs manières possibles pour Apple et les chercheurs en sécurité de vérifier qu'aucun gouvernement n'utilise à des fins de surveillance les nouvelles fonctionnalités de sécurité des enfants de l'entreprise : Apple pourrait remettre le code pour examen, même si ce n'est pas quelque chose qu'il a dit qu'il ferait. Les chercheurs peuvent également essayer de désosser la fonctionnalité de manière « statique », c'est-à-dire sans exécuter les programmes réels dans un environnement réel.

    De manière réaliste, cependant, aucune de ces méthodes ne vous permet de regarder le code exécuté en direct sur un iPhone à jour pour voir comment il fonctionne réellement. Au lieu de cela, il faut avoir confiance non seulement dans le fait qu'Apple est ouvert et honnête, mais aussi dans le fait qu'il a écrit le code sans aucune erreur ou oubli significatif.

    Une autre possibilité serait d'accorder l'accès au système aux membres du Security Research Device Program d'Apple afin de vérifier les déclarations de l'entreprise. Mais ce groupe, soutient Thiel, est composé de chercheurs extérieurs à Apple, est lié par tant de règles sur ce qu'ils peuvent dire ou faire que cela ne résout pas nécessairement le problème de la confiance.

    Cela ne laisse vraiment que deux options. Premièrement, les hacker peuvent jailbreaker d'anciens iPhones à l'aide d'une vulnérabilité zero-day. C'est difficile et coûteux, et cela peut être bloqué par un correctif de sécurité. D'ailleurs Thiel rappelle qu'Apple a dépensé beaucoup d'argent pour essayer d'empêcher les gens de pouvoir jailbreaker des téléphones : « Ils ont spécifiquement embauché des personnes de la communauté de jailbreak pour rendre le jailbreak plus difficile. »

    Ou un chercheur peut utiliser un iPhone virtuel qui peut désactiver les fonctions de sécurité d'Apple. En pratique, cela signifie faire appel à Corellium.

    Il y a également des limites à ce que tout chercheur en sécurité pourra observer, mais si Apple scanne des choses au-delà des photos partagées sur iCloud, un chercheur pourrait être en mesure de le repérer.

    Cependant, si quelque chose d'autre que du matériel d'abus d'enfants entre dans les bases de données, cela serait invisible pour les chercheurs. Pour répondre à cette question, Apple dit qu'il faudra que deux organisations distinctes de protection de l'enfance dans des juridictions distinctes aient la même image d'abus dans leurs propres bases de données. Mais l'entreprise a donné peu de détails sur la façon dont cela fonctionnerait, qui gérerait les bases de données, quelles juridictions seraient impliquées et quelles seraient les sources ultimes de la base de données.

    Un véritable problème à résoudre

    Thiel souligne que le problème qu'Apple essaie de résoudre est réel.

    « Ce n'est pas une préoccupation théorique », dit-il à propos du matériel pédopornographique. « Ce n’est pas quelque chose que les gens invoquent simplement comme excuse pour mettre en place une surveillance. Il s'agit d'un problème réel qui est répandu et doit être abordé. La solution n'est pas de se débarrasser de ce genre de mécanismes .»

    Mais, dit Tait de Corellium, Apple essaie d'être à la fois fermé et transparent.

    « Apple essaie d'avoir son gâteau et de le manger aussi », explique Tait, un ancien spécialiste de la sécurité de l'information pour le service de renseignement britannique GCHQ. »

    « Avec leur main gauche, ils rendent difficile le jailbreak et poursuivent des entreprises comme Corellium pour les empêcher d'exister. Avec leur main droite, ils disent : "Oh, nous avons construit ce système vraiment compliqué et il s'avère que certaines personnes ne croient pas qu'Apple l'a fait honnêtement, mais ce n'est pas grave parce que n'importe quel chercheur en sécurité peut aller de l'avant et le constater". »

    Sources : Correlium, entretien avec Federighi, David Thiel, Washington Post

  12. #32
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 298
    Points
    66 298
    Par défaut Le plan de surveillance des appareils d'Apple est une menace pour la vie privée des utilisateurs
    « Le plan de surveillance des appareils d'Apple est une menace pour la vie privée des utilisateurs - et la liberté de la presse  »
    prévient la Freedom of the Press Association

    Les groupes de défense des droits de l'homme, de la liberté d'expression et de la vie privée en ligne continuent de mettre la pression à Apple pour qu'il abandonne ses plans de détection de CSAM [child sexual abuse material] sur les appareils des utilisateurs. Un nouveau groupe s'est joint à la cause ce jeudi, notamment la Freedom of the Press Association (FPA), qui allègue que le projet de surveillance des appareils d'Apple est une menace pour la vie privée des utilisateurs, mais également pour la liberté de la presse. Apple insiste toujours sur le bien-fondé de ce projet et assure que le système ne peut pas être détourné.

    La Freedom of the Press Association rejoint le combat contre Apple

    Au début du mois, Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS et iPadOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste. Apple a précisé que cette nouvelle technologie fait partie d'une nouvelle série de systèmes de protection des enfants qui « évolueront et se développeront au fil du temps ».

    Nom : Apple-CSAM-FAQ-768x432.jpg
Affichages : 2336
Taille : 32,8 Ko

    Les fonctionnalités seront déployées dans le cadre d'iOS 15, qui devrait sortir le mois prochain. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société. Mais les choses ne sont pas passées comme prévu. En effet, lorsqu'Apple a annoncé ses plans il y a deux semaines, la société s'attendait peut-être à une faible controverse. Après tout, les abus sexuels sur les enfants sont un problème que tout le monde veut résoudre.

    Cela dit, la réaction des défenseurs de la vie privée et des droits de l'homme a été rapide, forte et presque unanime. Les plaintes ne portaient pas principalement sur la mise en œuvre précise annoncée par Apple, mais plutôt sur le dangereux précédent qu'elle crée. Les façons dont la technologie pourrait être utilisée à mauvais escient à l'avenir lorsqu'Apple et ses partenaires seront soumis à la pression extérieure des gouvernements ou d'autres acteurs puissants sont presque trop nombreuses pour être comptées. Selon la FPA, de manière très générale, les atteintes à la vie privée proviennent de situations où de "faux positifs" sont générés.

    C'est-à-dire qu'une image, un appareil ou un utilisateur est signalé alors qu'il n'y a aucune image d'abus sexuel. « Ce type de faux positifs peut se produire si la base de données de comparaison a été modifiée ou élargie pour inclure des images qui ne représentent pas d'abus sexuels, ou si un adversaire peut tromper l'algorithme d'Apple en faisant correspondre par erreur une image existante. (Apple, pour sa part, a déclaré qu'un faux positif accidentel - où une image innocente est signalée comme du matériel pédopornographique sans raison - est extrêmement improbable, ce qui est probablement vrai) », a déclaré l'association aujourd'hui.

    Selon elle, le problème des faux positifs touche plus directement les questions de liberté de la presse lorsqu'on considère la première catégorie, avec des adversaires qui peuvent modifier le contenu de la base de données à laquelle les appareils Apple comparent les fichiers. Elle estime qu'une organisation qui pourrait ajouter des copies de ses dossiers internes ayant fait l'objet de fuites pourrait trouver les appareils qui détiennent ces données - y compris, potentiellement, les dénonciateurs et les journalistes qui ont travaillé sur une histoire donnée. Cela pourrait également révéler l'ampleur d'une fuite si elle n'est pas encore connue.

    Les gouvernements qui pourraient inclure des images critiques de leurs politiques ou de leurs responsables pourraient également trouver les dissidents qui échangent ces fichiers. Dans un billet de blogue publié ce jeudi, l'organisation affirme que ces préoccupations ne sont pas purement hypothétiques. Elle note, par exemple, que la Chine obligerait déjà certains de ses citoyens à installer directement sur leurs appareils des applications qui recherchent les images qu'elle juge pro- Ouïghour. Cela dit, il faut noter qu'Apple a déclaré dans un document FAQ qu'il s'opposera à l'insertion d'images non-CSAM dans la base de données de hachage.

    « Apple refuserait de telles demandes et notre système a été conçu pour empêcher que cela ne se produise », a déclaré l'entreprise. Cependant, la FPA estime que ce n'est pas aussi simple. « Si seulement c'était aussi simple ! Même avec les meilleures intentions, Apple et les organisations qui maintiennent les bases de données en question sont susceptibles de faire face à une pression extrême des gouvernements du monde entier pour étendre leurs efforts à toutes sortes d'autres types de contenus illégaux. Et les ordres juridiques ne sont pas exactement quelque chose que les entreprises peuvent simplement refuser », a-t-elle déclaré.

    Electronic Frontier Foundation : si vous construisez, ils viendront

    Après de nombreuses critiques, Apple a publié la semaine dernière de nouvelles clarifications sur les efforts visant à atténuer ces préoccupations. Il ne correspondrait qu'aux images qui ont été signalées par des groupes dans plusieurs pays, et les utilisateurs avertis seraient en mesure de vérifier que la liste des images que leur propre téléphone vérifie est la même que sur tous les autres téléphones. Si ces garanties permettent d'atténuer le risque d'un point de défaillance unique, elles ne répondent pas entièrement aux risques posés par un acteur étatique. De même, Apple poursuit actuellement en justice une startup qui fait exactement cela.

    Par ailleurs, la Freedom of the Press Association indique dans son billet de blogue que malheureusement, la société a parfois cédé à ce type de pression. Des rapports publiés plus tôt dans l'année ont révélé que, sous pression, Apple a accepté de stocker les données des utilisateurs et les clés de chiffrement en Chine, à la demande du gouvernement, et a accédé aux demandes de données iCloud. La société a aussi retiré des applications et des jeux de sa place de marché pour se conformer aux réglementations locales. Alors, que ferait-elle différemment face à de nouvelles demandes d'utilisation abusive de cette technologie de comparaison d'images ?

    Comme l'a déjà souligné l'Electronic Frontier Foundation : « si vous construisez, ils viendront ». « L'exploitation des enfants est un problème grave, et Apple n'est pas la première entreprise technologique à modifier sa position en matière de protection de la vie privée pour tenter de le combattre. Mais ce choix aura un prix élevé pour la vie privée globale des utilisateurs », a déclaré l'EFF, ajoutant qu'une porte dérobée ne pourrait en aucun cas être sécurisée. L'EFF a déclaré qu'il était extrêmement "déçu qu'un champion du chiffrement de bout en bout" entreprenne une volte-face choquante pour les utilisateurs.

    Selon la Freedom of the Press Association, au-delà de la possibilité d'altération de la base de données, les faux positifs pourraient aussi se produire si des adversaires parviennent à générer des fichiers qui entrent en collision avec des images connues dans la base de données. Avant même l'annonce officielle d'Apple, les chercheurs ont demandé à l'entreprise de publier son algorithme de comparaison afin de voir dans quelle mesure il est sensible à ce type de fausses correspondances générées (généralement appelées "exemples contradictoires" dans le monde de l'apprentissage automatique).

    Mais jusqu'à présent, Apple a refusé de rendre cette fonction de correspondance disponible, même si la société a demandé aux chercheurs en sécurité de vérifier son travail. Cependant, des chercheurs semblent avoir récemment extrait la fonction de correspondance d'iOS et ont même généré une correspondance "préimage", c'est-à-dire un fichier créé de toutes pièces que la fonction de correspondance d'Apple ne peut distinguer d'une autre image connue. Selon la FPA, cela représente un sérieux problème pour les plans d'Apple : des adversaires capables de générer de faux positifs pourraient inonder le système de mauvaises données.

    Ils peuvent aussi utiliser les appareils d'utilisateurs peu méfiants pour les héberger. L'organisation a déclaré que les premiers exemples d'adversaires ressemblent à du bruit blanc, mais ce n'est probablement qu'une question de temps avant qu'ils puissent être intégrés dans une tout autre image. « Les journalistes, en particulier, s'appuient de plus en plus sur les solides protections de la vie privée fournies par Apple, même lorsque d'autres grandes entreprises technologiques ne le font pas », a déclaré l'association, rappelant que par le passé, Apple a déjà refusé d'ouvrir l'iPhone d'un suspect en raison du précédent que cela pouvait créer.

    « Apple a refusé de remanier son logiciel pour ouvrir le téléphone d'un terroriste présumé - non pas parce qu'elle voulait protéger le contenu du téléphone du criminel, mais parce qu'il s'inquiétait du précédent que cela créerait pour les autres personnes qui comptent sur la technologie d'Apple pour se protéger. En quoi cette situation est-elle différente ? », s'interroge l'association.

    « Aucune porte dérobée pour les forces de l'ordre ne sera suffisamment sûre pour empêcher les mauvais acteurs de continuer à l'ouvrir juste un peu plus. Les risques pour la vie privée que présente ce système sont trop extrêmes pour être tolérés. Apple a peut-être eu de nobles intentions avec le système annoncé, mais les bonnes intentions ne suffisent pas à sauver un plan qui est pourri jusqu'à la moelle », a-t-elle conclu, demandant à Apple de renoncer immédiatement à ces plans.

    Des dizaines d'organisations forment une coalition contre d'Apple

    La coalition contre cette démarche d'Apple continue de grandir depuis l'annonce de la société. Ils seraient désormais plus de 90 groupes politiques et de défense des droits à travers le monde. Ils ont publié ce jeudi une lettre ouverte demandant à Apple d'abandonner son projet de scanner les messages des enfants à la recherche de nudité et les téléphones des adultes à la recherche d'images d'abus sexuels sur des enfants. Certains signataires étrangers, en particulier, s'inquiètent de l'impact des changements dans des pays dotés de systèmes juridiques différents, dont certains sont déjà le théâtre de luttes acharnées sur le chiffrement et la vie privée.

    « Bien que ces fonctionnalités soient destinées à protéger les enfants et à réduire la diffusion de documents relatifs à des abus sexuels sur des enfants, nous craignons qu'elles ne soient utilisées pour censurer des discours protégés, menacer la vie privée et la sécurité de personnes dans le monde entier et avoir des conséquences désastreuses pour de nombreux enfants », a écrit la coalition dans une lettre ouverte publiée aujourd'hui par le Center for Democracy & Technology (CDT). Parmi les signataires figurent de nombreux groupes au Brésil, où les tribunaux ont bloqué à plusieurs reprises l'application WhatsApp de Facebook.

    WhatsApp a refusé à plusieurs reprises de déchiffrer des messages dans le cadre d'enquêtes criminelles. De plus, le sénat brésilien a adopté un projet de loi imposant la traçabilité des messages, ce qui nécessiterait de marquer leur contenu d'une manière ou d'une autre. Une loi similaire a été adoptée en Inde cette année. « Notre principale préoccupation est la conséquence de ce mécanisme, comment il pourrait être étendu à d'autres situations et à d'autres entreprises. Cela représente un sérieux affaiblissement du chiffrement », a déclaré Flavio Wagner, président de la section indépendante brésilienne de l'Internet Society, qui a signé.

    « C'est très décevant et contrariant qu'Apple fasse cela, car il a été un allié fidèle dans la défense du chiffrement par le passé », a déclaré Sharon Bradford Franklin, codirectrice du projet de sécurité et de surveillance du CDT. D'autres signataires se trouvent en Inde, au Mexique, en Allemagne, en Argentine, en Tanzanie et au Ghana. Alors que les plaintes se baisaient jusque-là sur le balayage des iPhone, la lettre de la coalition dénonce également une modification d'iMessage dans les comptes familiaux, qui tenterait d'identifier et d'estomper la nudité dans les messages des enfants et ne les laisserait voir que si les parents en sont informés.

    Selon les signataires, cette mesure pourrait mettre en danger les enfants vivant dans des foyers intolérants ou ceux qui recherchent du matériel éducatif. De manière plus générale, ils ont déclaré que ce changement briserait le chiffrement de bout en bout d'iMessage, qu'Apple a farouchement défendu dans d'autres contextes. « Une fois cette fonction de porte dérobée intégrée, les gouvernements pourraient contraindre Apple à étendre la notification à d'autres comptes et à détecter les images choquantes pour des raisons autres que leur caractère sexuellement explicite », indique la lettre. Les autres groupes signataires sont l'American Civil Liberties Union, l'Electronic Frontier Foundation, Access Now, Privacy International et le projet Tor.

    Sources : Freedom of the Press Association, Lettre de la coalition

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    Le lanceur d'alerte Edward Snowden et l'EFF critiquent le projet d'Apple de scanner les messages et les images iCloud, des milliers de personnes demandent à l'entreprise de suspendre ses plans

    Apple invite les chercheurs à vérifier ses fonctionnalités de sécurité pour les enfants, mais poursuit en justice une startup qui fait exactement cela

    Après les critiques, Apple ne recherchera que les images d'abus signalées dans plusieurs pays et insiste qu'il s'agit d'une avancée en matière de confidentialité

    Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos, alors que les experts dénoncent un recul dans les progrès en matière de vie privée

    Le Parlement allemand demande à Tim Cook de reconsidérer ses projets de CSAM, estimant que le système de balayage d'Apple sape la communication confidentielle

  13. #33
    Membre habitué
    Inscrit en
    Janvier 2009
    Messages
    68
    Détails du profil
    Informations forums :
    Inscription : Janvier 2009
    Messages : 68
    Points : 175
    Points
    175
    Par défaut
    Gag : comme si la vie privée et la liberté de la presse existaient encore.

  14. #34
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 920
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 920
    Points : 206 727
    Points
    206 727
    Par défaut Apple analyse déjà les pièces jointes sur iCloud Mail à la recherche de contenu pédopornographique
    Apple effectue déjà une analyse des pièces jointes envoyées par iCloud Mail à la recherche de contenu pédopornographique,
    mais l'entreprise affirme ne pas le faire sur iCloud Photos

    Au début du mois, Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste.

    Apple a précisé que la technologie de balayage fait partie d'une nouvelle série de systèmes de protection des enfants qui « évolueront et se développeront au fil du temps ». Les fonctionnalités seront déployées dans le cadre d'iOS 15, dont la sortie est prévue le mois prochain. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société.

    Le système, appelé neuralMatch, alertera de manière proactive une équipe d'examinateurs humains s'il pense que des images illégales sont détectées. Selon un article de Financial Times, qui a rapporté la nouvelle pour la première fois, les examinateurs humains contacteront ensuite les forces de l'ordre si le matériel peut être vérifié. Le système neuralMatch, qui a été formé à l'aide de 200 000 images du National Center for Missing & Exploited Children, sera d'abord déployé aux États-Unis, puis au reste du monde. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.

    Selon les explications de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un « bon de sécurité » indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.

    Une initiative qui a créé la division, même au sein des employés Apple. Matthew Green, professeur à l'université John Hopkins et cryptographe, a indiqué sur Twitter : « Ce genre d'outil peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens... Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire ».

    En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.

    Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.

    Nom : apple.png
Affichages : 2246
Taille : 67,4 Ko

    Apple scanne déjà iCloud Mail à la recherche de contenu pédopornographique, et ce depuis 2019

    Apple a confirmé qu'il scanne déjà iCloud Mail à la recherche de contenu pédopornographique, et ce depuis 2019. Cependant, l'entreprise affirme ne pas avoir parcouru les photos iCloud ou les sauvegardes iCloud.

    Une précision qui est venue lorsque les médias ont interrogé Apple suite à une déclaration plutôt étrange du chef de la lutte contre la fraude de l'entreprise dans un échange sur iMessage : il a déclaré qu'Apple était « la meilleure plateforme pour la distribution de pornographie juvénile ». Cela a immédiatement soulevé la question : si l'entreprise ne parcourait pas les photos iCloud, comment pourrait-elle le savoir ?

    Le fil iMessage a été repéré par les médias tandis qu'ils parcouraient les e-mails, messages et autres documents internes remis par Apple dans le cadre de l'affaire l'opposant à Epic Games.

    Nom : facebook.png
Affichages : 1950
Taille : 140,8 Ko

    Ironiquement, Friedman suggère en fait que Facebook effectue une meilleure détection qu'Apple :
    • Les projecteurs sur Facebook etc. sont tous sur la confiance et la sécurité (faux comptes, etc.). Pour ce qui concerne la vie privée, ils sont nuls.
    • Nos priorités sont l'inverse. C'est pourquoi nous sommes la plus grande plateforme de distribution de pornographie juvénile, etc.

    Un collègue remet cela en doute, demandant si cela est vrai :
    • Vraiment ? Je veux dire, y en a-t-il beaucoup dans notre écosystème ? Je pensais qu'il y avait encore plus d'opportunités pour les mauvais acteurs sur d'autres systèmes de partage de fichiers.

    Ce à quoi Friedman à répondu par « Oui ».

    Le document est sans surprise étiqueté « Haute confidentialité – peut uniquement être lu par des avocats ».

    Il existe également quelques autres indices indiquant qu'Apple devait effectuer une sorte d'analyse à la recherche de contenu pédopornographique. Une version archivée de la page sur la sécurité des enfants d'Apple disait ceci :

    « Apple s'engage à protéger les enfants dans tout notre écosystème, où que nos produits soient utilisés, et nous continuons à soutenir l'innovation dans cet espace. Nous avons développé des protections robustes à tous les niveaux de notre plateforme logicielle et tout au long de notre chaîne d'approvisionnement. Dans le cadre de cet engagement, Apple utilise la technologie de correspondance d'images pour aider à trouver et à signaler l'exploitation d'enfants. Tout comme les filtres antispam dans les e-mails, nos systèmes utilisent des signatures électroniques pour détecter les soupçons d'exploitation d'enfants. Nous validons chaque correspondance par un examen individuel. Les comptes avec du contenu d'exploitation d'enfants enfreignent nos conditions générales de service, et tous les comptes que nous trouvons avec ce matériel seront désactivés ».

    De plus, le responsable de la protection de la vie privée de l'entreprise a déclaré la même chose en janvier 2020. En fait, Jane Horvath, responsable de la protection de la vie privée d'Apple, a déclaré lors d'une conférence technique que la société utilisait une technologie de filtrage pour rechercher les images illégales. La société a expliqué qu'elle désactive les comptes si Apple trouve des preuves de matériel d'exploitation d'enfants, bien qu'elle n'a pas précisé comment elle le découvre.

    Apple n'a pas voulu commenter la citation de Friedman, mais a déclaré a la presse que la société n'avait jamais scanné les photos iCloud.

    Apple scanne iCloud Mail

    Cependant, Apple a confirmé qu'il analysait chaque pièce jointe des iCloud Mail à la recherche du contenu pédopornographique depuis 2019. Le courrier électronique n'est pas chiffré, donc l'analyse des pièces jointes lorsque le courrier passe par les serveurs Apple serait une tâche triviale.

    Apple a également indiqué qu'il effectuait une analyse limitée d'autres données, mais ne voulait pas expliquer à la presse de quoi il s'agissait, sauf pour suggérer que c'était à petite échelle. L'entreprise a précisé que les « autres données » n'incluent pas les sauvegardes iCloud.

    Bien que la déclaration de Friedman dans l'échange iMessage pourrait sembler factuelle (comme si elle était basée sur des données concrètes), la sortie médiatique d'Apple suggère que ce n'est probablement pas le cas. Le nombre total de rapports qu'Apple catégorise dans cette catégorie chaque année se compte par centaines, ce qui signifie que l'analyse des e-mails ne fournirait aucune preuve d'un problème à grande échelle sur les serveurs Apple.

    L'explication réside probablement dans le fait que d'autres services cloud analysaient des photos à la recherche de ce type de contenu, contrairement à Apple. Si d'autres services désactivaient les comptes pour faire suite au téléchargement de contenu pédopornographique et que iCloud Photos ne l'était pas (parce que la société n'y faisait pas d'analyse), alors la déduction logique serait qu'il existe plus de contenu pédopornographique sur la plateforme d'Apple que partout ailleurs. Friedman a probablement fait des conjectures pour arriver à cette conclusion.

    Sources : déclaration Apple, Web Archive

  15. #35
    Membre éprouvé
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Août 2018
    Messages
    398
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Autre

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux

    Informations forums :
    Inscription : Août 2018
    Messages : 398
    Points : 1 214
    Points
    1 214
    Par défaut
    Google via Gmail scanne votre boîte à lettre soit disant pour mieux vous cibler publicitairement parlant, Apple vis iCloud scanne la votre soit disant pour y trouver des fichiers compromettant...

    En résumé fuyez les services US, vous y êtes super-hyper fichés ;-(

    Les Eats Unis se moquent ouvertement du respect de la vie privée, il serait temps pour la vieille Europe de remettre l'église au centre du village et d'entreprendre des actions en justice à l'encontre de ce genre de pratiques, qui sont Dieu merci illégales chez nous.

  16. #36
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 920
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 920
    Points : 206 727
    Points
    206 727
    Par défaut Apple retarde les fonctionnalités controversées de protection de l'enfance après un tollé sur la vie privée
    Apple retarde les fonctionnalités controversées de protection de l'enfance après un tollé sur la vie privée
    des défenseurs des droits numériques les considérant comme « une porte dérobée »

    Début août, Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste.

    Apple a précisé que la technologie de balayage fait partie d'une nouvelle série de systèmes de protection des enfants qui « évolueront et se développeront au fil du temps ». Les fonctionnalités seront déployées dans le cadre d'iOS 15, dont la sortie est prévue ce mois-ci. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société.

    Le système, appelé neuralMatch, alertera de manière proactive une équipe d'examinateurs humains s'il pense que des images illégales sont détectées. Selon un article de Financial Times, qui a rapporté la nouvelle pour la première fois, les examinateurs humains contacteront ensuite les forces de l'ordre si le matériel peut être vérifié. Le système neuralMatch, qui a été formé à l'aide de 200 000 images du National Center for Missing & Exploited Children, sera d'abord déployé aux États-Unis, puis au reste du monde. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.

    Selon les explications de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un « bon de sécurité » indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.

    La réaction des employés d'Apple

    Une initiative qui a créé la division, même au sein des employés Apple. Selon un rapport, un nombre indéterminé d'employés d'Apple se sont tournés vers les canaux internes de Slack pour faire part de leurs préoccupations concernant la détection CSAM. Plus précisément, les employés craignent que les gouvernements ne forcent Apple à utiliser la technologie à des fins de censure en trouvant un contenu autre que CSAM. Certains employés ont manifesté leurs craintes de voir Apple porter atteinte à sa réputation de leader en matière de confidentialité.

    En quelques jours, les employés d'Apple ont échangé plus de 800 messages sur le plan annoncé, ont déclaré des travailleurs à la presse qui ont demandé à ne pas être identifiés. Beaucoup ont exprimé leur inquiétude que la fonctionnalité puisse être exploitée par des gouvernements répressifs cherchant à trouver d'autres matériaux pour la censure ou les arrestations, selon ces travailleurs.

    Les changements de sécurité passés chez Apple ont également suscité des inquiétudes parmi les employés, mais le volume et la durée du nouveau débat sont surprenants, ont précisé les travailleurs. Les employés d'Apple occupant des postes liés à la sécurité des utilisateurs ne sont pas censés avoir fait partie de la protestation interne, selon le rapport.

    Edward Snowden

    Dans une série de tweets, le militant de la protection de la vie privée Edward Snowden a souligné les inquiétudes qu'Apple déploie une forme de « surveillance de masse dans le monde entier » et crée un précédent qui pourrait permettre à l'entreprise de rechercher tout autre contenu arbitraire dans le futur.

    « Peu importe à quel point les intentions sont bonnes, Apple déploie une surveillance de masse dans le monde entier avec cela. Ne vous y trompez pas : s'ils peuvent rechercher de la pédopornographie aujourd'hui, ils pourraient rechercher n'importe quoi demain. Ils ont transformé un billion de dollars d'appareils en iNarcs— sans demander ».

    Nom : snowden.png
Affichages : 2157
Taille : 12,9 Ko

    Snowden a également noté qu'Apple a toujours été un leader du secteur en termes de confidentialité numérique et a même refusé de déverrouiller un iPhone appartenant à Syed Farook, l'un des tireurs des attentats de décembre 2015 à San Bernardino, en Californie, malgré les injonctions du FBI et d'un juge fédéral. Apple s'est opposé à l'ordonnance, notant qu'elle créerait un « précédent dangereux ».

    L'Electronic Frontier Foundation

    Le groupe de défense des droits numériques à but non lucratif a vivement condamné la décision d'Apple d'analyser les bibliothèques et les messages iCloud des utilisateurs, affirmant qu'il est extrêmement « déçu » qu'un « champion du chiffrement de bout en bout » entreprenne une « choquante volte-face pour les utilisateurs qui se sont appuyés sur le leadership de l'entreprise en matière de confidentialité et de sécurité » :

    « L'exploitation des enfants est un problème grave, et Apple n'est pas la première entreprise technologique à modifier sa position de protection de la vie privée pour tenter de la combattre. Mais ce choix aura un prix élevé pour la confidentialité globale des utilisateurs. Apple peut expliquer en détail comment sa mise en œuvre technique préservera la confidentialité et la sécurité de sa porte dérobée proposée, mais en fin de compte, même une porte dérobée soigneusement documentée, soigneusement pensée et à portée étroite est toujours une porte dérobée... ».

    « Il est impossible de créer un système de numérisation côté client qui ne peut être utilisé que pour les images sexuellement explicites envoyées ou reçues par des enfants. En conséquence, même un effort bien intentionné pour construire un tel système brisera les promesses clés du chiffrement et ouvrira la porte à des abus plus larges. ».

    « Tout ce qu'il faudrait pour élargir la porte dérobée étroite qu'Apple construit est une extension des paramètres d'apprentissage automatique pour rechercher des types de contenu supplémentaires, ou un ajustement des indicateurs de configuration à analyser, pas seulement les comptes des enfants, mais ceux de n'importe qui. Ce n'est pas une pente glissante ; c'est un système entièrement construit qui n'attend que la pression extérieure pour faire le moindre changement ».

    L'EFF a souligné comment divers gouvernements du monde entier ont adopté des lois qui exigent la surveillance et la censure du contenu sur diverses plateformes, y compris les applications de messagerie, et que la décision d'Apple de numériser les messages et iCloud Photos  pourrait être légalement tenue d'inclure du matériel supplémentaire ou facilement être élargie. « Ne vous méprenez pas : il s'agit d'une diminution de la confidentialité pour tous les utilisateurs de  iCloud Photos , pas d'une amélioration », a averti l'EFF.

    Les chercheurs

    Matthew Green, professeur à l'université John Hopkins et cryptographe, a indiqué sur Twitter : « Ce genre d'outils peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens... Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire ».

    En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.

    Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.

    La polémique aura eu raison des intentions d’Apple

    Apple a décidé de retarder ses fonctionnalités de protection de l'enfance annoncées le mois dernier, y compris une fonctionnalité controversée qui analyserait les photos des utilisateurs à la recherche de matériel pédopornographique (CSAM), à la suite de vives critiques selon lesquelles les changements pourraient diminuer la confidentialité des utilisateurs. Les changements devaient être déployés plus tard cette année.

    « Le mois dernier, nous avons annoncé des plans pour des fonctionnalités destinées à aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et à limiter la propagation du matériel d'abus sexuel d'enfants », a déclaré Apple dans une mise à jour de son communiqué de presse. « Sur la base des commentaires des clients, des groupes de défense des droits, des chercheurs et d'autres, nous avons décidé de prendre plus de temps au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d'une importance cruciale ».

    Matthew Green, chercheur en cybersécurité à l'Université Johns Hopkins qui avait critiqué la décision d'Apple, a déclaré que la décision d'Apple était « prometteuse ». Green a déclaré sur Twitter qu'Apple devrait « être clair sur les raisons pour lesquelles Apple scanne mais aussi ce qu'Apple scanne. Passer de l'analyse de rien (en dehors des pièces jointes aux e-mails) à l'analyse de la photothèque privée de tout le monde est énorme. Vous devez justifier des escalades comme celle-ci ».

    Apple jouait les défenseurs de son initiative depuis des semaines, et avait déjà proposé une série d'explications et de documents pour montrer que les risques de fausses détections étaient faibles. L'éditeur avait prévu de déployer la fonctionnalité pour iPhones, iPads et Mac avec des mises à jour logicielles plus tard cette année aux États-Unis.


    Source : Apple, Snowden, EFF

  17. #37
    Invité
    Invité(e)
    Par défaut
    La seule donnée privée, c'est celle qui n'est pas collectée.

    Quand Apple prétend protéger la vie privée de ses utilisateurs au prétexte que les (nombreuses) informations collectées ne sont pas transmises à des tiers, c'est juste du bidon.

  18. #38
    Membre émérite
    Homme Profil pro
    Chargé de projets
    Inscrit en
    Décembre 2019
    Messages
    677
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Chargé de projets
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 677
    Points : 2 506
    Points
    2 506
    Par défaut
    Citation Envoyé par electroremy Voir le message
    Tout ceci est extrêmement inquiétant...

    Que conclure ?
    - soit les GAFAM et nos élus sont tous complétements naïfs et incompétents en matière de technologie et de criminalité
    - soit les GAFAM et nos élus nous prennent ouvertement pour des imbéciles, leur véritable objectif c'est de pouvoir surveiller tout le monde, pour se débarrasser des lanceurs d'alerte, pour se débarrasser des opposants politiques, pour rester au pouvoir et/ou gagner de l'argent, la lutte contre la pédophilie n'étant qu'un prétexte...

    Mais au fait, si on se préoccupait vraiment du sort des enfants de notre planète :
    - on aurait fait le ménage dans les institutions (écoles, églises, ...) au lieu de protéger les agresseurs en les mutants ailleurs et en étouffant l'affaire
    - on s'occuperai mieux des orphelins placés en institution, et on ne les jetterais pas dehors à 18 ans
    - on interdirait le travail des enfants ; en Chine ou dans les pays du tiers-monde beaucoup d'enfants sont exploités en usine, dans les mines ou dans les décharges, mais là ça ne dérange personne du moment que ça fait tourner l'économie et qu'on peut fabriquer des smartphones... Apple protecteur de l'enfance, c'est du foutage de gueule quand on voit où et comment sont fabriqués leurs smartphone, leurs composants et les matières premières...
    Je plussoie à fond... C'est quand même toujours le même shéma : "pour votre sécurité on va tous vous espionner mais c'est seulement contre les méchants !!"

    Et ce truc de lutter contre la pédophilie me débecte surtout quand on voit les casserolles que certains grands buisnessman américains se traîne niveau abus sur mineur (genre l'iceberg Epstein...). La vraie volonté politique d'arreter tout ça est pas la, c'est juste un prétexte.

  19. #39
    Membre émérite
    Homme Profil pro
    Chargé de projets
    Inscrit en
    Décembre 2019
    Messages
    677
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Chargé de projets
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 677
    Points : 2 506
    Points
    2 506
    Par défaut
    Citation Envoyé par phil995511 Voir le message
    Google via Gmail scanne votre boîte à lettre soit disant pour mieux vous cibler publicitairement parlant, Apple vis iCloud scanne la votre soit disant pour y trouver des fichiers compromettant...

    En résumé fuyez les services US, vous y êtes super-hyper fichés ;-(

    Les Eats Unis se moquent ouvertement du respect de la vie privée, il serait temps pour la vieille Europe de remettre l'église au centre du village et d'entreprendre des actions en justice à l'encontre de ce genre de pratiques, qui sont Dieu merci illégales chez nous.
    On arrive déjà pas à leurs faire payer d'impôt alors le reste...

  20. #40
    Expert éminent

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 612
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 612
    Points : 6 104
    Points
    6 104
    Par défaut
    c'est dommage, depuis quelques années Apple ventait la vie privée de ces produits, meme si c'était pas parfais il y'avait un début de mouvemen.
    Je me disais enfin un gafam qui va dans le bon sens ça fait plaisir. Comme c'est Apple les autres vont peut être le copier

    Et la Apple sort un truc qui casse tout...je comprends pas la logique derrière. J'avais enfin trouvé un argument en faveur d'Apple (dieu sait que je déteste cette boite).
    Au final rien ne vaut un android rooter avec une rom custom et AFWall+ (j'exclue les firefox os, librem et co, c'est trop peu démocratiser, cher et parfois compliquer à utiliser sans les applications android...)

Discussions similaires

  1. Réponses: 5
    Dernier message: 08/04/2020, 14h47
  2. Réponses: 1
    Dernier message: 10/08/2019, 22h01
  3. Réponses: 3
    Dernier message: 29/07/2017, 13h23
  4. [audio] logiciel pour faire des .au ?
    Par Seiya dans le forum Multimédia
    Réponses: 7
    Dernier message: 05/01/2005, 00h41
  5. problème pour faire des blocs
    Par tinkye_winkye dans le forum Mise en page CSS
    Réponses: 6
    Dernier message: 04/01/2005, 14h13

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo