IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #81
    Membre actif
    Homme Profil pro
    Retraité
    Inscrit en
    Juin 2008
    Messages
    73
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Retraité
    Secteur : Enseignement

    Informations forums :
    Inscription : Juin 2008
    Messages : 73
    Points : 264
    Points
    264
    Par défaut
    « Nous suivons la loi américaine pour définir ce que sont les contenus pédopornographiques et utilisons une combinaison de technologie de correspondance de hachage et d'intelligence artificielle pour les identifier et les retirer de nos plateformes », a déclaré Christa Muldoon,
    Plus que l'intelligence artificielle, ils font appel à la bêtise naturelle.

  2. #82
    Membre chevronné
    Avatar de Pelote2012
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Mars 2008
    Messages
    925
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Haute Vienne (Limousin)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2008
    Messages : 925
    Points : 1 839
    Points
    1 839
    Billets dans le blog
    2
    Par défaut
    Il pourrait assez simplement mettre des critères en plus ... le nombre de documents incriminés, la fréquence ou le destinataire est-il un professionnel de la santé, combien le destinataire reçoit il de document douteux ... j'imagine qu'on peut assez facilement inclure se genre d'infos en plus que de l'analyse d'imagerie par IA...
    Si débugger est l'art d'enlever les bugs ... alors programmer est l'art de les créer

  3. #83
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 162
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 162
    Points : 3 573
    Points
    3 573
    Par défaut
    Citation Envoyé par Pelote2012 Voir le message
    Il pourrait assez simplement mettre des critères en plus ... le nombre de documents incriminés, la fréquence ou le destinataire est-il un professionnel de la santé, combien le destinataire reçoit il de document douteux ... j'imagine qu'on peut assez facilement inclure se genre d'infos en plus que de l'analyse d'imagerie par IA...
    Ils pouraient, mais pouquoi ce donner ce mal?
    99% des consommateurs sont contents
    Cet article ne touche qu'une faible partie des consommateurs, consommateurs qui sont déjà méfiants
    De toute façon le monsieur ToutLeMonde qui lit ça se dira que ça ne lui arriverait pas à lui.

    Donc ils peuvent mais n'ont pas beaucoup de raison de le faire.

  4. #84
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 261
    Points
    66 261
    Par défaut Apple met fin à son projet controversé de détection des contenus pédopornographiques connus stockés sur iCloud
    Apple met fin à son projet controversé visant à analyser les sauvegardes sur iCloud Photos à la recherche d'images d'abus sexuels sur enfant
    après les critiques virulentes des experts en sécurité

    Apple a mis fin à son projet visant à développer un outil de détection des contenus pédopornographiques connus stockés sur iCloud Photos. Les critiques avaient mis en garde Apple contre la boîte de pandore qu'elle s'apprêtait à ouvrir, expliquant que certains États pouvaient exiger que la fonction soit détournée à d'autres fins, notamment de surveillance de masse. Après une analyse approfondie, Apple a annoncé mercredi qu'il mettait fin au projet et que l'entreprise se concentrera à l'avenir sur le chiffrement de bout en bout des sauvegardes iCloud. Apple estime que les abus sexuels sur les enfants peuvent être évités avant qu'ils ne se produisent.

    En août 2021, Apple a annoncé un plan visant à analyser les photos que les utilisateurs stockent sur iCloud Photos pour détecter des images d'abus sexuels sur enfant (CSAM). L'outil était censé préserver la vie privée et permettre à Apple de détecter et signaler les contenus potentiellement problématiques et abusifs sans rien révéler d'autre. Mais l'initiative a été controversée, et elle a rapidement suscité de nombreuses critiques de la part des chercheurs en matière de confidentialité et de sécurité et des groupes de défense des droits numériques, qui craignaient que la capacité de surveillance elle-même ne soit utilisée de manière abusive.

    Cela pourrait porter atteinte à la vie privée et à la sécurité des utilisateurs d'iCloud dans le monde entier. Au début du mois de septembre 2021, Apple a déclaré qu'elle mettrait en pause le déploiement de la fonctionnalité afin de "recueillir des commentaires et d'apporter des améliorations avant de publier ces nouvelles fonctionnalités de sécurité pour enfants d'une importance cruciale". Autrement dit, un lancement était toujours prévu. Mais mercredi, Apple a déclaré qu'en réponse aux commentaires et aux conseils qu'elle a reçus sur les impacts de cette initiative, l'outil de détection des CSAM pour les photos stockées sur iCloud est mort.

    Nom : olk.png
Affichages : 1122
Taille : 182,4 Ko

    « Après une consultation approfondie avec des experts pour recueillir des commentaires sur les initiatives de protection de l'enfance que nous avons proposées l'année dernière, nous renforçons notre investissement dans la fonction de sécurité des communications que nous avons mise à disposition pour la première fois en décembre 2021. Nous avons en outre décidé de ne pas aller de l'avant avec notre outil de détection des CSAM proposé précédemment pour iCloud Photos. Les enfants peuvent être protégés sans que les entreprises passent au peigne fin les données personnelles », a déclaré Apple dans une déclaration envoyée aux médias.

    « Nous continuerons à travailler avec les gouvernements, les défenseurs des enfants et d'autres entreprises pour aider à protéger les jeunes, à préserver leur droit à la vie privée et à faire d'Internet un endroit plus sûr pour les enfants et pour nous tous », a ajouté la société. Elle a prévu de signaler les comptes iCloud comportant des hachages d'images CSAM au National Center for Missing and Exploited Children (NCMEC) des États-Unis, une association à but non lucratif qui travaille en collaboration avec les services de police américains. Apple avait également assuré qu'il avait une chance sur un milliard pour que l'outil renvoie un faux positif.

    Les plans d'Apple ont été critiqués par un large éventail de personnes et d'organisations, notamment des chercheurs en sécurité, l'Electronic Frontier Foundation (EFF), des politiciens, des groupes politiques, des chercheurs universitaires, des rivaux (comme Epic Games) et même certains employés d'Apple. Certains ont fait valoir que cet outil aurait créé une "porte dérobée" dans les appareils Apple, que les gouvernements ou les organismes d'application de la loi pourraient utiliser pour surveiller les utilisateurs. Il y avait également la crainte qu'une personne piège une tierce personne en ajoutant intentionnellement des images CSAM à son compte iCloud.

    Une telle situation pourrait porter un grand préjudice à la victime. Rappelons qu'en août 2021, Apple prévoyait de déployer trois nouvelles fonctionnalités de sécurité pour les enfants, notamment un système de détection des images connues de CSAM stockées sur iCloud Photos, une option Communication Safety qui estompe les photos sexuellement explicites dans l'application iMessages, et des ressources sur l'exploitation des enfants pour Siri. Communication Safety a été lancé aux États-Unis avec iOS 15.2 en décembre 2021 et s'est depuis étendu au Royaume-Uni, au Canada, à l'Australie et à la Nouvelle-Zélande.

    Les parents et le personnel soignant peuvent opter pour ces protections par le biais des comptes iCloud familiaux. Elles fonctionnent avec Siri, la recherche Spotlight d'Apple et la recherche Safari. Elles avertissent si quelqu'un est en train de regarder ou de rechercher des documents relatifs au CSAM et fournir des ressources sur place pour signaler le contenu et demander de l'aide. En outre, le cœur de la protection est la sécurité de la communication pour les messages, que les soignants peuvent configurer pour fournir un avertissement et des ressources aux enfants s'ils reçoivent ou tentent d'envoyer des photos contenant de la nudité.

    L'objectif est de mettre fin à l'exploitation des enfants avant qu'elle ne se produise ou ne s'installe et de réduire la création de nouvelles CSAM. En marge de l'annonce concernant l'abandon du projet, Apple a également annoncé une vaste expansion de ses offres de chiffrement de bout en bout pour iCloud, y compris l'ajout de la protection des sauvegardes et des photos stockées sur le service de cloud computing. Bien que cette deuxième annonce ait été bien accueillie par les utilisateurs de l'iPhone, elle a également fait l'objet de quelques critiques de la part des organismes de lutte contre les abus sur les enfants.

    Les groupes qui luttent contre le CSAM se sont souvent opposés à un déploiement plus large du chiffrement de bout en bout, car il rend les données des utilisateurs inaccessibles aux entreprises technologiques, ce qui rend plus difficiles pour l'analyse et la signalisation du CSAM. Les organismes d'application de la loi du monde entier ont également invoqué le grave problème des abus sexuels sur les enfants pour s'opposer à l'utilisation et à l'expansion du chiffrement de bout en bout, bien que nombre de ces organismes aient toujours été hostiles au chiffrement de bout en bout en général parce qu'il peut rendre certaines enquêtes plus difficiles.

    La recherche a cependant montré de manière constante que le chiffrement de bout en bout est un outil de sécurité vital pour la protection des droits de l'homme et que les inconvénients de sa mise en œuvre ne l'emportent pas sur les avantages. Craig Federighi, vice-président chargé des logiciels chez Apple, a déclaré : « les abus sexuels sur les enfants peuvent être évités avant qu'ils ne se produisent. C'est là que nous mettons notre énergie à l'avenir ». Il a été interrogé directement sur les répercussions de l'extension du chiffrement sur le travail des agents chargés de l'application de la loi qui enquêtent sur les crimes.

    Federighi a répondu : « en fin de compte, la sécurisation des données des clients a de grandes répercussions sur notre sécurité au sens large ». Bien qu'il n'y ait pas un calendrier spécifique pour l'extension des fonctions de Communication Safety, Apple travaille à l'ajout de la capacité de détecter la nudité dans les vidéos envoyées par iMessages lorsque la protection est activée. L'entreprise prévoit également d'étendre l'offre au-delà de iMessages à ses autres applications de communication. En définitive, l'objectif est de permettre aux développeurs tiers d'intégrer les outils de Communication Safety dans leurs propres applications.

    Selon Apple, plus ces fonctionnalités se multiplieront, plus les enfants auront de chances d'obtenir les informations et le soutien dont ils ont besoin avant d'être exploités. Comme d'autres entreprises qui se sont débattues publiquement sur la façon de traiter le CSAM, Apple a déclaré qu'il prévoit également de continuer à travailler avec des experts de la sécurité des enfants pour qu'il soit aussi facile que possible pour ses utilisateurs de signaler les contenus et les situations d'exploitation aux organisations de défense et aux forces de l'ordre.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du revirement d'Apple sur son outil de détection du CSAM ?
    Que pensez-vous de l'extension des offres de chiffrement de bout en bout pour iCloud ?

    Voir aussi

    Apple annonce le chiffrement de bout en bout des sauvegardes iCloud et introduit la prise en charge des clés de sécurité pour l'authentification à deux facteurs

    Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos, alors que les experts dénoncent un recul dans les progrès en matière de vie privée

    Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Système de détection des intrusion en C#
    Par Med_Yo_Sn dans le forum Général Dotnet
    Réponses: 4
    Dernier message: 26/08/2022, 01h09
  2. Réponses: 6
    Dernier message: 02/07/2009, 16h32
  3. Réponses: 3
    Dernier message: 24/01/2007, 14h09
  4. Réponses: 6
    Dernier message: 23/12/2006, 17h36
  5. [Système] [debug] Détection des erreurs de compil
    Par Herode dans le forum Langage
    Réponses: 3
    Dernier message: 28/11/2006, 13h03

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo