IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #41
    Membre émérite

    Homme Profil pro
    Développeur informatique
    Inscrit en
    octobre 2013
    Messages
    970
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : Conseil

    Informations forums :
    Inscription : octobre 2013
    Messages : 970
    Points : 2 391
    Points
    2 391
    Par défaut
    Dans ma vie antérieur de voyant j'avais pris une photo de mon petit neveu dans son bain avec des petits canards en plastiques offert par une collègue.
    C'était pour lui montrer qu'il s'amusait bien avec.

    Avec ce machin j'aurai pu être qualifier de tonton pervers.
    Et si l'information s'était propagé, même innocenté le doute aurait pu subsister.

    C'est ce que m'inspire ce truc.
    La protection des enfants un argument facile pour faire passer des trucs liberticides

    En tant qu'yvoirien j'utilise un i-phone.
    Ce qui me gave à chaque mise à jour d'IOS j'ai toujours peur qui change tout.

    Là ça n'a pas loupé les boutons on changé de place, je dois revoir tout et surtout même pour décrocher un appel c'est moins accessible

    Apple c'est très américain on décide unilaterralement pour vous
    Consultez mes articles sur l'accessibilité numérique :

    Comment rendre son application SWING accessible aux non voyants
    Créer des applications web accessibles à tous

    YES WE CAN BLANCHE !!!

    Rappelez-vous que Google est le plus grand aveugle d'Internet...
    Plus c'est accessible pour nous, plus c'est accessible pour lui,
    et meilleur sera votre score de référencement !

  2. #42
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    mars 2013
    Messages
    6 944
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : mars 2013
    Messages : 6 944
    Points : 158 405
    Points
    158 405
    Par défaut Un groupe de chercheurs a déclaré que la « technologie dangereuse » d'analyse de photos d'Apple était invasive
    Un groupe de chercheurs a déclaré que la « technologie dangereuse » d'analyse de photos d'Apple était invasive et inefficace,
    pour détecter les images d'abus sexuels sur des enfants

    Plus d'une douzaine d'éminents experts en cybersécurité ont accusé Apple de s'être appuyé sur une « technologie dangereuse » dans son plan controversé de détection d'images d'abus sexuels sur des enfants sur iPhone

    En aout, Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste.

    Apple a précisé que la technologie de balayage fait partie d'une nouvelle série de systèmes de protection des enfants qui « évolueront et se développeront au fil du temps ».

    Le système, appelé neuralMatch, alertera de manière proactive une équipe d'examinateurs humains s'il pense que des images illégales sont détectées. Selon un article de Financial Times, qui a rapporté la nouvelle pour la première fois, les examinateurs humains contacteront ensuite les forces de l'ordre si le matériel peut être vérifié. Le système neuralMatch, qui a été formé à l'aide de 200 000 images du National Center for Missing & Exploited Children, sera d'abord déployé aux États-Unis, puis au reste du monde. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.

    Selon les explications de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un « bon de sécurité » indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.

    Une initiative qui a créé la division, même au sein des employés Apple. Matthew Green, professeur à l'université John Hopkins et cryptographe, a indiqué sur Twitter : « Ce genre d'outil peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens... Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire ».

    En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.

    Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.

    Au départ, les fonctionnalités devaient être déployées dans le cadre d'iOS 15, qui est sorti en septembre. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société. Mais le tollé provoqué sur la toile a contraint Apple à modifier sa feuille de route.

    Nom : apple.png
Affichages : 2734
Taille : 67,4 Ko

    Apple a tenté sans succès de rassurer

    Dans un mémo interne à l'intention des équipes qui ont travaillé sur ce projet, Apple a reconnu les « malentendus » autour des fonctionnalités, tout en affirmant que ces fonctionnalités font partie d'une « mission importante » pour assurer la sécurité des enfants. Le document, qui a également été dévoilé le même jour que les nouvelles fonctionnalités, a été rédigé par Sébastien Marineau-Mes, un VP logiciel chez Apple. Marineau-Mes affirme qu'Apple continuera à « expliquer et à détailler les fonctionnalités » incluses dans cette suite de protections étendues pour les enfants. Voici le mémo dans son intégralité :

    « Aujourd'hui marque le dévoilement public officiel des protections élargies pour les enfants, et je voulais prendre un moment pour remercier chacun d'entre vous pour votre travail acharné au cours des dernières années. Nous n'aurions pas atteint cette étape importante sans votre dévouement inlassable et votre résilience. Assurer la sécurité des enfants est une mission tellement importante. À la manière d'Apple, la poursuite de cet objectif a nécessité un engagement transversal profond, englobant l'ingénierie, l'administration générale, l'informatique, les services juridiques, le marketing produit et les relations publiques. »

    « Ce que nous avons annoncé aujourd'hui est le fruit de cette collaboration, un produit qui fournit des outils pour protéger les enfants, tout en respectant l'engagement profond d'Apple envers la vie privée des utilisateurs. Nous avons vu beaucoup de réactions positives aujourd'hui. Nous savons que certaines personnes ont des malentendus et que plus d'une s'inquiète des implications, mais nous continuerons à expliquer et à détailler les fonctionnalités pour que les gens comprennent ce que nous avons construit. »

    « Et alors qu'il reste beaucoup de travail à accomplir pour mettre en œuvre les fonctionnalités dans les prochains mois, je voulais partager cette note que nous avons reçue aujourd'hui du NCMEC. Je l'ai trouvé incroyablement motivant, et j'espère que vous le serez aussi. Je suis fier de travailler chez Apple avec une équipe aussi formidable. Merci à tous ! ».

    Le mémo comprenait aussi un message du National Center for Missing and Exploited Children, signé par Marita Rodriguez, directrice exécutive des partenariats stratégiques. Apple travaille en étroite collaboration avec le NCMEC sur les nouvelles fonctionnalités de numérisation d'iCloud. Voici le texte intégral de la note du NCMEC envoyée à l'équipe d'Apple travaillant sur ces fonctionnalités :

    « Équipe Apple, je voulais partager un mot d'encouragement pour dire que tout le monde à NCMEC est TELLEMENT FIER de chacun d'entre vous et des décisions incroyables que vous avez prises au nom de la priorité accordée à la protection des enfants. Il a été revigorant pour toute notre équipe de voir (et de jouer un petit rôle dans) ce que vous avez dévoilé aujourd'hui. Je sais que la journée a été longue et que beaucoup d'entre vous n'ont probablement pas dormi depuis 24 heures. Nous savons que les jours à venir seront remplis des voix criardes de la minorité. Nos voix seront plus fortes. »

    « Notre engagement à soutenir les enfants qui ont vécu les abus et les victimisations les plus inimaginables sera plus fort. Pendant ces longues journées et ces nuits sans sommeil, j'espère que vous trouverez du réconfort dans le fait que, grâce à vous, des milliers d'enfants victimes d'exploitation sexuelle seront sauvés et auront une chance de guérir et de vivre l'enfance qu'ils méritent. Merci d'avoir trouvé la voie à suivre pour protéger les enfants tout en préservant leur vie privée ! »

    Des chercheurs en cybersécurité montent au créneau

    Dans un document de 46 pages publié jeudi, un groupe de chercheurs a déclaré que la « technologie dangereuse » était invasive et inefficace pour détecter les images d'abus sexuels sur des enfants.

    Les chercheurs en cybersécurité ont déclaré avoir commencé leur étude avant l'annonce d'Apple. Des documents publiés par l'Union européenne et une réunion avec des responsables de l'UE l'année dernière les ont amenés à croire que l'organe directeur du bloc voulait un programme similaire qui analyserait non seulement les images d'abus sexuels sur des enfants, mais également les signes de crime organisé et les indices de liens terroristes.

    Une proposition visant à autoriser la numérisation de photos dans l'Union européenne pourrait arriver dès cette année, estiment les chercheurs.

    Ils ont déclaré qu'ils publiaient leurs conclusions maintenant pour informer l'Union européenne des dangers de son plan, et parce que « l'extension des pouvoirs de surveillance de l'État passe vraiment une ligne rouge », a déclaré Ross Anderson, professeur d'ingénierie de sécurité à l'Université de Cambridge et membre du groupe.

    Mis à part les problèmes de surveillance, ont déclaré les chercheurs, leurs résultats ont indiqué que la technologie n'était pas efficace pour identifier les images d'abus sexuels sur des enfants. Quelques jours après l'annonce d'Apple, ont-ils déclaré, les gens avaient indiqué des moyens d'éviter la détection en modifiant légèrement les images.

    La technologie permet « de scanner un appareil privé personnel sans aucune cause probable pour que quoi que ce soit d'illégitime soit fait », a ajouté un autre membre du groupe, Susan Landau, professeur de cybersécurité et de politique à l'Université Tufts. « C'est extraordinairement dangereux. C'est dangereux pour les affaires, la sécurité nationale, la sécurité publique et la vie privée ».

    Sources : Rapport des chercheurs, UE

    Et vous ?

    Que pensez-vous des conclusions des chercheurs ?
    Que pensez-vous des mises en garde adressées à l'UE sur un plan s'appuyant non seulement sur l'analyse des images pour détecter d'éventuels abus sexuels sur des enfants, mais également les signes de crime organisé et les indices de liens terroristes ?
    Images attachées Images attachées
    • Type de fichier : pdf UE.pdf (336,6 Ko, 76 affichages)
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  3. #43
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    février 2017
    Messages
    1 424
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : février 2017
    Messages : 1 424
    Points : 39 562
    Points
    39 562
    Par défaut Apple supprime les mentions aux fonctionnalités de protection de l'enfance après un tollé sur la vie privée
    Apple supprime de la page web dédiée les mentions aux fonctionnalités controversées de protection de l’enfance après un tollé sur la vie privée
    Mais des documents suggèrent un maintien du cap

    Apple a procédé à la mise à jour de la page web dédiée sur ses fonctionnalités controversées de protection de l'enfance. L'entreprise a retiré toutes les mentions y relatives. Malgré la modification, des documents d’Apple suggèrent un maintien du cap vers l'implémentation.

    En effet, si la page dédiée a fait l’objet de toilettage, la foire aux questions d’Apple sur « les protections étendues pour l’enfance » demeure très explicite sur les fonctionnalités à controverse.

    « Non. De par sa conception, cette fonctionnalité ne s'applique qu'aux photos que l'utilisateur choisit de télécharger sur iCloud Photos, et même dans ce cas, Apple ne prend connaissance que des comptes qui stockent des collections d'images d'abus sexuels sur enfants connues, et uniquement des images qui correspondent à celles d'abus sexuels sur enfants connues. Le système ne fonctionne pas pour les utilisateurs qui ont désactivé Photos iCloud. Cette fonctionnalité ne tourne pas sur la bibliothèque privée de photos de votre iPhone », indique Apple quant à la question de savoir si l’entreprise compte procéder au scannage de toutes les photos sur les iPhone.

    « Non. Les images d'abus sexuels sur enfants ne sont pas stockées ou envoyées sur l'appareil. Au lieu d'images réelles, Apple utilise des hash illisibles qui sont stockés sur l'appareil. Ces hash sont des chaînes de chiffres qui représentent des images d'abus sexuels sur enfants connues, mais il n'est pas possible de lire ou de convertir ces hash en images d'abus sexuels sur enfants sur lesquelles ils sont basés. Cet ensemble de hash est basé sur des images acquises et validées comme étant des images d'abus sexuels sur enfants par au moins deux organisations de protection de l'enfance. Grâce à de nouvelles applications du chiffrement, Apple est en mesure d'utiliser ces hash pour connaître uniquement les comptes iCloud Photos qui stockent des collections de photos correspondant à ces images d'abus sexuels sur enfants connues », ajoute Apple.

    « L'un des défis importants dans ce domaine est de protéger les enfants tout en préservant la vie privée des utilisateurs. Grâce à cette nouvelle technologie, Apple sera informé des photos d'abus sexuels sur enfants connues, stockées dans iCloud Photos, lorsque le compte stocke une collection d'abus sexuels sur enfants connus. Apple n'apprendra rien sur les autres données stockées uniquement sur l'appareil. Les techniques existantes, telles qu'elles sont mises en œuvre par d'autres entreprises, analysent toutes les photos des utilisateurs stockées dans le nuage. Cela crée un risque pour la vie privée de tous les utilisateurs. La détection d'images d'abus sexuels sur enfants dans iCloud Photos offre des avantages significatifs en matière de protection de la vie privée par rapport à ces techniques, en empêchant Apple de prendre connaissance des photos à moins qu'elles ne correspondent à des images d'abus sexuels sur enfants connues et qu'elles soient incluses dans un compte iCloud Photos qui comprend une collection d'images d'abus sexuels sur enfants », précise la firme.

    Deux des trois fonctionnalités de sécurité ont fait l’objet de publication en début de semaine sous iOS 15.2. L'une est conçue pour avertir les enfants lorsqu'ils reçoivent des images contenant de la nudité dans des messages, tandis que la seconde fournit des informations supplémentaires lors de la recherche de termes liés à l'exploitation des enfants via Siri, Spotlight ou Safari Search. Celle de détection d’images d’abus sexuels sur enfants était attendue avec iOS15, mais continue d’être retardée.

    Nom : 2.png
Affichages : 654
Taille : 76,8 Ko

    La fonction de détection d'images d'abus sexuels sur enfants d'Apple fait l'objet de controverse, car elle laisse le sentiment aux possesseurs d'appareils Apple que leurs photos sont passées au peigne fin. Dans une série de tweets, le militant de la protection de la vie privée Edward Snowden exprime ses inquiétudes qu'Apple déploie une forme de « surveillance de masse dans le monde entier » et crée un précédent qui pourrait permettre à l'entreprise de rechercher tout autre contenu arbitraire dans le futur.

    Apple pour sa part affirme que cette approche lui permet de signaler aux autorités les utilisateurs dont on sait qu'ils mettent en ligne des images d'abus sexuels sur enfants sans compromettre la vie privée de ses clients en général. Apple affirme également que le chiffrement des données des utilisateurs n'est pas affecté et que l'analyse est effectuée sur l'appareil.

    Sources : Apple 1,2

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos, alors que les experts dénoncent un recul dans les progrès en matière de vie privée

    Après les critiques, Apple ne recherchera que les images d'abus signalées dans plusieurs pays et insiste sur le fait qu'il s'agit d'une avancée en matière de confidentialité

    Les fonctions de protection de l'enfance d'Apple suscitent l'inquiétude dans ses propres rangs, des employés craignent qu'elles deviennent une arme au service des gouvernements répressifs

    Le PDG d'Epic Games met en garde contre la "surveillance d'État" d'Apple, alors qu'Epic Games est détenu en partie par Tencent en Chine

    Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #44
    Expert confirmé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    mars 2005
    Messages
    1 297
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : mars 2005
    Messages : 1 297
    Points : 5 510
    Points
    5 510
    Par défaut
    Citation Envoyé par Patrick Ruiz Voir le message
    Quel est votre avis sur le sujet ?
    Citation Envoyé par Patrick Ruiz Voir le message
    [...]le militant de la protection de la vie privée Edward Snowden exprime ses inquiétudes qu'Apple déploie une forme de « surveillance de masse dans le monde entier » et crée un précédent qui pourrait permettre à l'entreprise de rechercher tout autre contenu arbitraire dans le futur.
    Ça. Exactement ça.
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

Discussions similaires

  1. Réponses: 6
    Dernier message: 02/07/2009, 16h32
  2. Système de détection des intrusion en C#
    Par Med_Yo_Sn dans le forum Général Dotnet
    Réponses: 3
    Dernier message: 22/03/2009, 09h22
  3. Réponses: 3
    Dernier message: 24/01/2007, 14h09
  4. Réponses: 6
    Dernier message: 23/12/2006, 17h36
  5. [Système] [debug] Détection des erreurs de compil
    Par Herode dans le forum Langage
    Réponses: 3
    Dernier message: 28/11/2006, 13h03

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo