IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

Apple dépense des millions pour faire du lobbying contre la sécurité des enfants

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 760
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 760
    Par défaut Apple retarde les fonctionnalités controversées de protection de l'enfance après un tollé sur la vie privée
    Apple retarde les fonctionnalités controversées de protection de l'enfance après un tollé sur la vie privée
    des défenseurs des droits numériques les considérant comme « une porte dérobée »

    Début août, Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste.

    Apple a précisé que la technologie de balayage fait partie d'une nouvelle série de systèmes de protection des enfants qui « évolueront et se développeront au fil du temps ». Les fonctionnalités seront déployées dans le cadre d'iOS 15, dont la sortie est prévue ce mois-ci. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société.

    Le système, appelé neuralMatch, alertera de manière proactive une équipe d'examinateurs humains s'il pense que des images illégales sont détectées. Selon un article de Financial Times, qui a rapporté la nouvelle pour la première fois, les examinateurs humains contacteront ensuite les forces de l'ordre si le matériel peut être vérifié. Le système neuralMatch, qui a été formé à l'aide de 200 000 images du National Center for Missing & Exploited Children, sera d'abord déployé aux États-Unis, puis au reste du monde. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.

    Selon les explications de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un « bon de sécurité » indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.

    La réaction des employés d'Apple

    Une initiative qui a créé la division, même au sein des employés Apple. Selon un rapport, un nombre indéterminé d'employés d'Apple se sont tournés vers les canaux internes de Slack pour faire part de leurs préoccupations concernant la détection CSAM. Plus précisément, les employés craignent que les gouvernements ne forcent Apple à utiliser la technologie à des fins de censure en trouvant un contenu autre que CSAM. Certains employés ont manifesté leurs craintes de voir Apple porter atteinte à sa réputation de leader en matière de confidentialité.

    En quelques jours, les employés d'Apple ont échangé plus de 800 messages sur le plan annoncé, ont déclaré des travailleurs à la presse qui ont demandé à ne pas être identifiés. Beaucoup ont exprimé leur inquiétude que la fonctionnalité puisse être exploitée par des gouvernements répressifs cherchant à trouver d'autres matériaux pour la censure ou les arrestations, selon ces travailleurs.

    Les changements de sécurité passés chez Apple ont également suscité des inquiétudes parmi les employés, mais le volume et la durée du nouveau débat sont surprenants, ont précisé les travailleurs. Les employés d'Apple occupant des postes liés à la sécurité des utilisateurs ne sont pas censés avoir fait partie de la protestation interne, selon le rapport.

    Edward Snowden

    Dans une série de tweets, le militant de la protection de la vie privée Edward Snowden a souligné les inquiétudes qu'Apple déploie une forme de « surveillance de masse dans le monde entier » et crée un précédent qui pourrait permettre à l'entreprise de rechercher tout autre contenu arbitraire dans le futur.

    « Peu importe à quel point les intentions sont bonnes, Apple déploie une surveillance de masse dans le monde entier avec cela. Ne vous y trompez pas : s'ils peuvent rechercher de la pédopornographie aujourd'hui, ils pourraient rechercher n'importe quoi demain. Ils ont transformé un billion de dollars d'appareils en iNarcs— sans demander ».

    Nom : snowden.png
Affichages : 3083
Taille : 12,9 Ko

    Snowden a également noté qu'Apple a toujours été un leader du secteur en termes de confidentialité numérique et a même refusé de déverrouiller un iPhone appartenant à Syed Farook, l'un des tireurs des attentats de décembre 2015 à San Bernardino, en Californie, malgré les injonctions du FBI et d'un juge fédéral. Apple s'est opposé à l'ordonnance, notant qu'elle créerait un « précédent dangereux ».

    L'Electronic Frontier Foundation

    Le groupe de défense des droits numériques à but non lucratif a vivement condamné la décision d'Apple d'analyser les bibliothèques et les messages iCloud des utilisateurs, affirmant qu'il est extrêmement « déçu » qu'un « champion du chiffrement de bout en bout » entreprenne une « choquante volte-face pour les utilisateurs qui se sont appuyés sur le leadership de l'entreprise en matière de confidentialité et de sécurité » :

    « L'exploitation des enfants est un problème grave, et Apple n'est pas la première entreprise technologique à modifier sa position de protection de la vie privée pour tenter de la combattre. Mais ce choix aura un prix élevé pour la confidentialité globale des utilisateurs. Apple peut expliquer en détail comment sa mise en œuvre technique préservera la confidentialité et la sécurité de sa porte dérobée proposée, mais en fin de compte, même une porte dérobée soigneusement documentée, soigneusement pensée et à portée étroite est toujours une porte dérobée... ».

    « Il est impossible de créer un système de numérisation côté client qui ne peut être utilisé que pour les images sexuellement explicites envoyées ou reçues par des enfants. En conséquence, même un effort bien intentionné pour construire un tel système brisera les promesses clés du chiffrement et ouvrira la porte à des abus plus larges. ».

    « Tout ce qu'il faudrait pour élargir la porte dérobée étroite qu'Apple construit est une extension des paramètres d'apprentissage automatique pour rechercher des types de contenu supplémentaires, ou un ajustement des indicateurs de configuration à analyser, pas seulement les comptes des enfants, mais ceux de n'importe qui. Ce n'est pas une pente glissante ; c'est un système entièrement construit qui n'attend que la pression extérieure pour faire le moindre changement ».

    L'EFF a souligné comment divers gouvernements du monde entier ont adopté des lois qui exigent la surveillance et la censure du contenu sur diverses plateformes, y compris les applications de messagerie, et que la décision d'Apple de numériser les messages et iCloud Photos  pourrait être légalement tenue d'inclure du matériel supplémentaire ou facilement être élargie. « Ne vous méprenez pas : il s'agit d'une diminution de la confidentialité pour tous les utilisateurs de  iCloud Photos , pas d'une amélioration », a averti l'EFF.

    Les chercheurs

    Matthew Green, professeur à l'université John Hopkins et cryptographe, a indiqué sur Twitter : « Ce genre d'outils peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens... Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire ».

    En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.

    Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.

    La polémique aura eu raison des intentions d’Apple

    Apple a décidé de retarder ses fonctionnalités de protection de l'enfance annoncées le mois dernier, y compris une fonctionnalité controversée qui analyserait les photos des utilisateurs à la recherche de matériel pédopornographique (CSAM), à la suite de vives critiques selon lesquelles les changements pourraient diminuer la confidentialité des utilisateurs. Les changements devaient être déployés plus tard cette année.

    « Le mois dernier, nous avons annoncé des plans pour des fonctionnalités destinées à aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et à limiter la propagation du matériel d'abus sexuel d'enfants », a déclaré Apple dans une mise à jour de son communiqué de presse. « Sur la base des commentaires des clients, des groupes de défense des droits, des chercheurs et d'autres, nous avons décidé de prendre plus de temps au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d'une importance cruciale ».

    Matthew Green, chercheur en cybersécurité à l'Université Johns Hopkins qui avait critiqué la décision d'Apple, a déclaré que la décision d'Apple était « prometteuse ». Green a déclaré sur Twitter qu'Apple devrait « être clair sur les raisons pour lesquelles Apple scanne mais aussi ce qu'Apple scanne. Passer de l'analyse de rien (en dehors des pièces jointes aux e-mails) à l'analyse de la photothèque privée de tout le monde est énorme. Vous devez justifier des escalades comme celle-ci ».

    Apple jouait les défenseurs de son initiative depuis des semaines, et avait déjà proposé une série d'explications et de documents pour montrer que les risques de fausses détections étaient faibles. L'éditeur avait prévu de déployer la fonctionnalité pour iPhones, iPads et Mac avec des mises à jour logicielles plus tard cette année aux États-Unis.


    Source : Apple, Snowden, EFF
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Invité
    Invité(e)
    Par défaut
    La seule donnée privée, c'est celle qui n'est pas collectée.

    Quand Apple prétend protéger la vie privée de ses utilisateurs au prétexte que les (nombreuses) informations collectées ne sont pas transmises à des tiers, c'est juste du bidon.

  3. #3
    Membre éprouvé

    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2013
    Messages
    1 134
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2013
    Messages : 1 134
    Par défaut
    Dans ma vie antérieur de voyant j'avais pris une photo de mon petit neveu dans son bain avec des petits canards en plastiques offert par une collègue.
    C'était pour lui montrer qu'il s'amusait bien avec.

    Avec ce machin j'aurai pu être qualifier de tonton pervers.
    Et si l'information s'était propagé, même innocenté le doute aurait pu subsister.

    C'est ce que m'inspire ce truc.
    La protection des enfants un argument facile pour faire passer des trucs liberticides

    En tant qu'yvoirien j'utilise un i-phone.
    Ce qui me gave à chaque mise à jour d'IOS j'ai toujours peur qui change tout.

    Là ça n'a pas loupé les boutons on changé de place, je dois revoir tout et surtout même pour décrocher un appel c'est moins accessible

    Apple c'est très américain on décide unilaterralement pour vous
    Consultez mes articles sur l'accessibilité numérique :

    Comment rendre son application SWING accessible aux non voyants
    Créer des applications web accessibles à tous

    YES WE CAN BLANCHE !!!

    Rappelez-vous que Google est le plus grand aveugle d'Internet...
    Plus c'est accessible pour nous, plus c'est accessible pour lui,
    et meilleur sera votre score de référencement !

  4. #4
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 760
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 760
    Par défaut Un groupe de chercheurs a déclaré que la « technologie dangereuse » d'analyse de photos d'Apple était invasive
    Un groupe de chercheurs a déclaré que la « technologie dangereuse » d'analyse de photos d'Apple était invasive et inefficace,
    pour détecter les images d'abus sexuels sur des enfants

    Plus d'une douzaine d'éminents experts en cybersécurité ont accusé Apple de s'être appuyé sur une « technologie dangereuse » dans son plan controversé de détection d'images d'abus sexuels sur des enfants sur iPhone

    En aout, Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste.

    Apple a précisé que la technologie de balayage fait partie d'une nouvelle série de systèmes de protection des enfants qui « évolueront et se développeront au fil du temps ».

    Le système, appelé neuralMatch, alertera de manière proactive une équipe d'examinateurs humains s'il pense que des images illégales sont détectées. Selon un article de Financial Times, qui a rapporté la nouvelle pour la première fois, les examinateurs humains contacteront ensuite les forces de l'ordre si le matériel peut être vérifié. Le système neuralMatch, qui a été formé à l'aide de 200 000 images du National Center for Missing & Exploited Children, sera d'abord déployé aux États-Unis, puis au reste du monde. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.

    Selon les explications de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un « bon de sécurité » indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.

    Une initiative qui a créé la division, même au sein des employés Apple. Matthew Green, professeur à l'université John Hopkins et cryptographe, a indiqué sur Twitter : « Ce genre d'outil peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens... Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire ».

    En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.

    Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.

    Au départ, les fonctionnalités devaient être déployées dans le cadre d'iOS 15, qui est sorti en septembre. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société. Mais le tollé provoqué sur la toile a contraint Apple à modifier sa feuille de route.

    Nom : apple.png
Affichages : 5219
Taille : 67,4 Ko

    Apple a tenté sans succès de rassurer

    Dans un mémo interne à l'intention des équipes qui ont travaillé sur ce projet, Apple a reconnu les « malentendus » autour des fonctionnalités, tout en affirmant que ces fonctionnalités font partie d'une « mission importante » pour assurer la sécurité des enfants. Le document, qui a également été dévoilé le même jour que les nouvelles fonctionnalités, a été rédigé par Sébastien Marineau-Mes, un VP logiciel chez Apple. Marineau-Mes affirme qu'Apple continuera à « expliquer et à détailler les fonctionnalités » incluses dans cette suite de protections étendues pour les enfants. Voici le mémo dans son intégralité :

    « Aujourd'hui marque le dévoilement public officiel des protections élargies pour les enfants, et je voulais prendre un moment pour remercier chacun d'entre vous pour votre travail acharné au cours des dernières années. Nous n'aurions pas atteint cette étape importante sans votre dévouement inlassable et votre résilience. Assurer la sécurité des enfants est une mission tellement importante. À la manière d'Apple, la poursuite de cet objectif a nécessité un engagement transversal profond, englobant l'ingénierie, l'administration générale, l'informatique, les services juridiques, le marketing produit et les relations publiques. »

    « Ce que nous avons annoncé aujourd'hui est le fruit de cette collaboration, un produit qui fournit des outils pour protéger les enfants, tout en respectant l'engagement profond d'Apple envers la vie privée des utilisateurs. Nous avons vu beaucoup de réactions positives aujourd'hui. Nous savons que certaines personnes ont des malentendus et que plus d'une s'inquiète des implications, mais nous continuerons à expliquer et à détailler les fonctionnalités pour que les gens comprennent ce que nous avons construit. »

    « Et alors qu'il reste beaucoup de travail à accomplir pour mettre en œuvre les fonctionnalités dans les prochains mois, je voulais partager cette note que nous avons reçue aujourd'hui du NCMEC. Je l'ai trouvé incroyablement motivant, et j'espère que vous le serez aussi. Je suis fier de travailler chez Apple avec une équipe aussi formidable. Merci à tous ! ».

    Le mémo comprenait aussi un message du National Center for Missing and Exploited Children, signé par Marita Rodriguez, directrice exécutive des partenariats stratégiques. Apple travaille en étroite collaboration avec le NCMEC sur les nouvelles fonctionnalités de numérisation d'iCloud. Voici le texte intégral de la note du NCMEC envoyée à l'équipe d'Apple travaillant sur ces fonctionnalités :

    « Équipe Apple, je voulais partager un mot d'encouragement pour dire que tout le monde à NCMEC est TELLEMENT FIER de chacun d'entre vous et des décisions incroyables que vous avez prises au nom de la priorité accordée à la protection des enfants. Il a été revigorant pour toute notre équipe de voir (et de jouer un petit rôle dans) ce que vous avez dévoilé aujourd'hui. Je sais que la journée a été longue et que beaucoup d'entre vous n'ont probablement pas dormi depuis 24 heures. Nous savons que les jours à venir seront remplis des voix criardes de la minorité. Nos voix seront plus fortes. »

    « Notre engagement à soutenir les enfants qui ont vécu les abus et les victimisations les plus inimaginables sera plus fort. Pendant ces longues journées et ces nuits sans sommeil, j'espère que vous trouverez du réconfort dans le fait que, grâce à vous, des milliers d'enfants victimes d'exploitation sexuelle seront sauvés et auront une chance de guérir et de vivre l'enfance qu'ils méritent. Merci d'avoir trouvé la voie à suivre pour protéger les enfants tout en préservant leur vie privée ! »

    Des chercheurs en cybersécurité montent au créneau

    Dans un document de 46 pages publié jeudi, un groupe de chercheurs a déclaré que la « technologie dangereuse » était invasive et inefficace pour détecter les images d'abus sexuels sur des enfants.

    Les chercheurs en cybersécurité ont déclaré avoir commencé leur étude avant l'annonce d'Apple. Des documents publiés par l'Union européenne et une réunion avec des responsables de l'UE l'année dernière les ont amenés à croire que l'organe directeur du bloc voulait un programme similaire qui analyserait non seulement les images d'abus sexuels sur des enfants, mais également les signes de crime organisé et les indices de liens terroristes.

    Une proposition visant à autoriser la numérisation de photos dans l'Union européenne pourrait arriver dès cette année, estiment les chercheurs.

    Ils ont déclaré qu'ils publiaient leurs conclusions maintenant pour informer l'Union européenne des dangers de son plan, et parce que « l'extension des pouvoirs de surveillance de l'État passe vraiment une ligne rouge », a déclaré Ross Anderson, professeur d'ingénierie de sécurité à l'Université de Cambridge et membre du groupe.

    Mis à part les problèmes de surveillance, ont déclaré les chercheurs, leurs résultats ont indiqué que la technologie n'était pas efficace pour identifier les images d'abus sexuels sur des enfants. Quelques jours après l'annonce d'Apple, ont-ils déclaré, les gens avaient indiqué des moyens d'éviter la détection en modifiant légèrement les images.

    La technologie permet « de scanner un appareil privé personnel sans aucune cause probable pour que quoi que ce soit d'illégitime soit fait », a ajouté un autre membre du groupe, Susan Landau, professeur de cybersécurité et de politique à l'Université Tufts. « C'est extraordinairement dangereux. C'est dangereux pour les affaires, la sécurité nationale, la sécurité publique et la vie privée ».

    Sources : Rapport des chercheurs, UE

    Et vous ?

    Que pensez-vous des conclusions des chercheurs ?
    Que pensez-vous des mises en garde adressées à l'UE sur un plan s'appuyant non seulement sur l'analyse des images pour détecter d'éventuels abus sexuels sur des enfants, mais également les signes de crime organisé et les indices de liens terroristes ?
    Images attachées Images attachées
    • Type de fichier : pdf UE.pdf (336,6 Ko, 582 affichages)
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  5. #5
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 337
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 337
    Par défaut Apple supprime les mentions aux fonctionnalités de protection de l'enfance après un tollé sur la vie privée
    Apple supprime de la page web dédiée les mentions aux fonctionnalités controversées de protection de l’enfance après un tollé sur la vie privée
    Mais des documents suggèrent un maintien du cap

    Apple a procédé à la mise à jour de la page web dédiée sur ses fonctionnalités controversées de protection de l'enfance. L'entreprise a retiré toutes les mentions y relatives. Malgré la modification, des documents d’Apple suggèrent un maintien du cap vers l'implémentation.

    En effet, si la page dédiée a fait l’objet de toilettage, la foire aux questions d’Apple sur « les protections étendues pour l’enfance » demeure très explicite sur les fonctionnalités à controverse.

    « Non. De par sa conception, cette fonctionnalité ne s'applique qu'aux photos que l'utilisateur choisit de télécharger sur iCloud Photos, et même dans ce cas, Apple ne prend connaissance que des comptes qui stockent des collections d'images d'abus sexuels sur enfants connues, et uniquement des images qui correspondent à celles d'abus sexuels sur enfants connues. Le système ne fonctionne pas pour les utilisateurs qui ont désactivé Photos iCloud. Cette fonctionnalité ne tourne pas sur la bibliothèque privée de photos de votre iPhone », indique Apple quant à la question de savoir si l’entreprise compte procéder au scannage de toutes les photos sur les iPhone.

    « Non. Les images d'abus sexuels sur enfants ne sont pas stockées ou envoyées sur l'appareil. Au lieu d'images réelles, Apple utilise des hash illisibles qui sont stockés sur l'appareil. Ces hash sont des chaînes de chiffres qui représentent des images d'abus sexuels sur enfants connues, mais il n'est pas possible de lire ou de convertir ces hash en images d'abus sexuels sur enfants sur lesquelles ils sont basés. Cet ensemble de hash est basé sur des images acquises et validées comme étant des images d'abus sexuels sur enfants par au moins deux organisations de protection de l'enfance. Grâce à de nouvelles applications du chiffrement, Apple est en mesure d'utiliser ces hash pour connaître uniquement les comptes iCloud Photos qui stockent des collections de photos correspondant à ces images d'abus sexuels sur enfants connues », ajoute Apple.

    « L'un des défis importants dans ce domaine est de protéger les enfants tout en préservant la vie privée des utilisateurs. Grâce à cette nouvelle technologie, Apple sera informé des photos d'abus sexuels sur enfants connues, stockées dans iCloud Photos, lorsque le compte stocke une collection d'abus sexuels sur enfants connus. Apple n'apprendra rien sur les autres données stockées uniquement sur l'appareil. Les techniques existantes, telles qu'elles sont mises en œuvre par d'autres entreprises, analysent toutes les photos des utilisateurs stockées dans le nuage. Cela crée un risque pour la vie privée de tous les utilisateurs. La détection d'images d'abus sexuels sur enfants dans iCloud Photos offre des avantages significatifs en matière de protection de la vie privée par rapport à ces techniques, en empêchant Apple de prendre connaissance des photos à moins qu'elles ne correspondent à des images d'abus sexuels sur enfants connues et qu'elles soient incluses dans un compte iCloud Photos qui comprend une collection d'images d'abus sexuels sur enfants », précise la firme.

    Deux des trois fonctionnalités de sécurité ont fait l’objet de publication en début de semaine sous iOS 15.2. L'une est conçue pour avertir les enfants lorsqu'ils reçoivent des images contenant de la nudité dans des messages, tandis que la seconde fournit des informations supplémentaires lors de la recherche de termes liés à l'exploitation des enfants via Siri, Spotlight ou Safari Search. Celle de détection d’images d’abus sexuels sur enfants était attendue avec iOS15, mais continue d’être retardée.

    Nom : 2.png
Affichages : 2165
Taille : 76,8 Ko

    La fonction de détection d'images d'abus sexuels sur enfants d'Apple fait l'objet de controverse, car elle laisse le sentiment aux possesseurs d'appareils Apple que leurs photos sont passées au peigne fin. Dans une série de tweets, le militant de la protection de la vie privée Edward Snowden exprime ses inquiétudes qu'Apple déploie une forme de « surveillance de masse dans le monde entier » et crée un précédent qui pourrait permettre à l'entreprise de rechercher tout autre contenu arbitraire dans le futur.

    Apple pour sa part affirme que cette approche lui permet de signaler aux autorités les utilisateurs dont on sait qu'ils mettent en ligne des images d'abus sexuels sur enfants sans compromettre la vie privée de ses clients en général. Apple affirme également que le chiffrement des données des utilisateurs n'est pas affecté et que l'analyse est effectuée sur l'appareil.

    Sources : Apple 1,2

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos, alors que les experts dénoncent un recul dans les progrès en matière de vie privée

    Après les critiques, Apple ne recherchera que les images d'abus signalées dans plusieurs pays et insiste sur le fait qu'il s'agit d'une avancée en matière de confidentialité

    Les fonctions de protection de l'enfance d'Apple suscitent l'inquiétude dans ses propres rangs, des employés craignent qu'elles deviennent une arme au service des gouvernements répressifs

    Le PDG d'Epic Games met en garde contre la "surveillance d'État" d'Apple, alors qu'Epic Games est détenu en partie par Tencent en Chine

    Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #6
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 917
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 917
    Par défaut
    Citation Envoyé par Patrick Ruiz Voir le message
    Quel est votre avis sur le sujet ?
    Citation Envoyé par Patrick Ruiz Voir le message
    [...]le militant de la protection de la vie privée Edward Snowden exprime ses inquiétudes qu'Apple déploie une forme de « surveillance de masse dans le monde entier » et crée un précédent qui pourrait permettre à l'entreprise de rechercher tout autre contenu arbitraire dans le futur.
    Ça. Exactement ça.

  7. #7
    Chroniqueur Actualités

    Homme Profil pro
    Webmaster
    Inscrit en
    Janvier 2014
    Messages
    1 089
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Webmaster
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 089
    Par défaut Un père a pris en photo son enfant nu et l'a envoyée au pédiatre, mais Google l’a marqué comme criminel
    Un père a pris en photo son enfant nu et l'a envoyée au pédiatre, mais Google l’a marqué comme criminel
    après avoir désactivé son compte et signalé aux forces de l’ordre

    Alors que de nombreuses personnes ont tiré la sonnette d’alarme sur les risques d’intrusion des géants de la Tech dans la vie privée des utilisateurs au motif de lutter contre les abus sur les enfants, de nombreuses organisations de protection de l’enfance se sont réjouies de l’analyse des fichiers effectuée par les grandes entreprises comme Apple et Google. Récemment, il a été rapporté qu’un père de famille vivant aux États-Unis a fait l’objet d’une enquête du gouvernement après avoir envoyé au médecin les photos d’une enflure située au niveau du sexe de son fils à des fins d’examen pour une prescription.

    L’an dernier au mois de février, Mark, un ingénieur logiciel qui est actuellement père au foyer, a été pris pour cible par l’algorithme de Google permettant de détecter les images d’abus sexuels sur enfants. Cette situation s’est produite lorsque Mark a constaté que le pénis de son fils avait l’air enflé et lui faisait mal. Possédant un téléphone Android, Mark a fait des photos de l’enflure dans laquelle apparaît son doigt pour indiquer où se trouve le problème. Il a ensuite appelé d’urgence son service de santé le vendredi soir pour une consultation par vidéo, car le lendemain était samedi et la pandémie faisait encore rage. Sur demande de l’infirmière, la femme de Mark a envoyé sur son iPhone les photos de l’enfant prises à partir du téléphone de Mark. Ceci, afin de pouvoir les télécharger sur la plateforme de leur service de santé. Après avoir reçu les photos, le médecin les a examinés et a prescrit des antibiotiques qui ont permis de régler le problème assez rapidement.

    Si le chapitre de la santé du fils de Mark a pris fin après cette prescription, un autre problème venait de commencer pour Mark. En effet, pour lutter contre la pédopornographie, Google, le géant du Web, et même Apple et Microsoft analysent aussi bien les informations en ligne qui sont traitées par leurs serveurs ainsi que les informations privées contenues sur les appareils des utilisateurs comme les photos, les vidéos, et autres informations susceptibles d’être en lien avec des images d’abus sexuels sur les enfants. Aussi, deux jours après avoir pris les photos de son fils avec son téléphone Android, celui-ci a émis un bruit de notification atypique. Google venait de l’informer que son compte a été désactivé et était invité à prendre les mesures idoines pour son rétablissement. Un lien lui avait été fourni sur la page afin de lui donner les éventuelles raisons qui avaient conduit à la désactivation de son compte.

    Troublé par ce qui venait de se passer, l’ingénieur logiciel s’est souvenu de la photo de son enfant qu’il avait prise et a conclu que Google devait croire qu’il s’adonnait au contenu pédopornographique. Mark qui a déjà travaillé en tant qu’ingénieur logiciel dans une grande entreprise sur un outil automatisé utilisé pour supprimer des vidéos signalées comme problématiques s’est dit que le problème allait être réglé facilement vu qu’il y a toujours des personnes physiques travaillant de concert avec l’outil de détection automatique. Mais que nenni ! Après avoir renseigné le formulaire de réclamation, Google a maintenu sa position en bloquant l’accès à son compte.

    Nom : Google account Blocked.jpg
Affichages : 15782
Taille : 19,7 Ko

    Nous précisons que Mark dispose d’un compte Gmail depuis le milieu des années 2000 avec ses photos et vidéos stockés sur Google Cloud. Il dispose même d’un forfait téléphonique Google Fi. Avec la désactivation de son compte, non seulement il n’a plus accès à ses emails, ses photos, vidéos personnelles, numéros de contacts, mais aussi certains comptes tiers pour lesquels il a utilisé son compte Google ou son numéro de téléphone comme support de vérification.

    Lorsque Google fait une telle découverte d’image d’abus d’enfants, cela ne s’arrête pas au simple verrouillage de compte. L’entreprise recherche d’autres éléments d’exploitation et, comme l’exige la loi fédérale, fait un rapport à la CyberTipline du National Center for Missing and Exploited Children. Et c’est ce qui s’est passé. En effet, dix mois plus tard, c’est-à-dire en décembre 2021, Mark a reçu par la poste une lettre du département de police de San Francisco l’informant qu’il avait fait l’objet d’une enquête ainsi que des copies des mandats de perquisition signifiés à Google et à son fournisseur d’accès Internet. Les informations utilisées lors de l’enquête contenaient ses recherches sur Internet, son historique de localisation, ses messages et tout document, photo et vidéo qu’il avait stockés auprès de Google.

    Ayant contacté l’agent fédéral qui a mené l’enquête pour savoir à quoi il devait s’attendre, ce dernier lui a signifié que l’affaire était close. Aucune charge n’a été retenue contre lui. Aucun élément de crime n’a été trouvé. En outre, l’agent du gouvernement lui a expliqué qu’il a essayé d’entrer en contact avec lui, mais son numéro et son adresse ne fonctionnaient pas. Soucieux de récupérer son compte, Mark a demandé à l’agent de communiquer à Google le rapport de l’enquête afin que son compte soit réactivé, mais l’agent lui a expliqué qu’il ne pouvait rien faire à ce niveau. Il y a deux mois, Mark a reçu un avis lui signifiant que son compte a été définitivement supprimé. Voyant le préjudice qu’il a subi de la part de Google, Mark s’est tourné vers un avocat pour voir s’il pouvait intenter un procès contre l’entreprise. Mais vu les frais qui s’élèvent à 7000 dollars, Mark a décidé de laisser tomber.

    Mark n’est pas le seul dans cette situation. Le 22 février 2021, le même scénario s’est produit avec un homme nommé Cassio qui a expliqué en ligne qu’après avoir pris des photos de son fils qui avait une infection au niveau de ses parties intimes pour les envoyer à son pédiatre, il a reçu un message de Google qui a désactivé son compte. Après avoir saisi l’entreprise pour un réexamen de sa situation, l’entreprise lui a signifié que son compte ne serait pas restauré.

    Source : Twitter, Message de Cassio

    Et vous ?

    Quels commentaires faites-vous de cette affaire ?

    Selon vous, comment doit-on s’y prendre pour éviter d’éventuelles dérives comme ce fut le cas avec Mark et Cassio ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  8. #8
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 645
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 645
    Par défaut
    Citation Envoyé par Olivier Famien Voir le message
    Quels commentaires faites-vous de cette affaire ?
    Cette affaire ne me surprend pas vraiment, les GAFAM veulent éviter tout problème avec les autorités en dépensant le minimum donc soit il n'y a vraiment personne derrière l'analyse du recours soit ceux qui le font ont tout intérêt à rejeter le maximum de recours pour rester sous le radar des responsables en ayant un taux d'acceptation trop élevé. Donc enfant nu = refus, alors ne parlons même pas d'un pénis.
    Ce qui me surprend le plus est que ce genre de détection prenne 2 jours. Que seul l'expéditeur à l'air d'être reporté alors que celui qui réceptionne devrait - a priori - être autant suspect. (Ce qui aurait pu leur montrer que c'est un échange entre un médecin et son patient - donc sous couverture de la confidentialité médicale, non?)
    Citation Envoyé par Olivier Famien Voir le message
    Selon vous, comment doit-on s’y prendre pour éviter d’éventuelles dérives comme ce fut le cas avec Mark et Cassio ?
    Ma solution est simple : interdire ce genre d'analyse.
    Elles sont nocives et peu efficace de base (1000eme rappel : la majorité de la pédophilie concerne des cas familiaux ou des amis proches).
    Elles ont un risque de dérives vers des contrôles encore plus discutables.

  9. #9
    Membre extrêmement actif
    Homme Profil pro
    Graphic Programmer
    Inscrit en
    Mars 2006
    Messages
    1 638
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Graphic Programmer
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2006
    Messages : 1 638
    Par défaut
    j'espere que cet incident ouvrira les yeux aux gens.

    google a de nombreux service gratuits qui sont tres bien fait et pour une bonne raisons.
    une fois que vous ne pouvez plus vous en passer, il ya une sorte de chantage qui s'installe.

    mais au dela de ca, il peut tout vous couper comme ca lui prends. c'est couvert dans les dispositions generales que
    vous n'avez pas le choix de signer regulierement pour continuer a utiliser les services en question. (le fameux chantage dont je parlais)

    Et comme pour les jeux et apps qui sont supprimés avec un messages abscons sans possibiltié de faire appel par le dev, ni contact de quoi que ce soit,
    vous perdez d'un coup l'acces a tous les services google dont vous etes dependant d'une maniere ou d'une autre, donc tout vos mails, votre telephone android, et toute les autres services, comme google ads (que vous ayez des sous ou pas dedssus bien evidemment).

    si vous etendez ca aux autres GAFAM, ca peut limite vous couper de la plupart des grand services mainstream d'internet.

    Pour eviter ca, il ne faut pas mettre tout ces oeufs dans le meme panier, soit, commencer, a ce passer d'eux quand c'est possible.

    Et c'est pas evident, mais necessaire. ce qui lui est arrivé peut vous arriver pour un motif encore plus light..

  10. #10
    Membre extrêmement actif Avatar de OrthodoxWindows
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 369
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 369
    Par défaut
    Citation Envoyé par Aiekick Voir le message
    j'espere que cet incident ouvrira les yeux aux gens.
    Malheureusement non, car seul une partie de la presse spécialisé en parle.
    C'est au membres de ce forum de diffuser l’information un maximum.

    google a de nombreux service gratuits qui sont tres bien fait et pour une bonne raisons.
    une fois que vous ne pouvez plus vous en passer, il ya une sorte de chantage qui s'installe.

    mais au dela de ca, il peut tout vous couper comme ca lui prends. c'est couvert dans les dispositions generales que
    vous n'avez pas le choix de signer regulierement pour continuer a utiliser les services en question. (le fameux chantage dont je parlais)

    Et comme pour les jeux et apps qui sont supprimés avec un messages abscons sans possibiltié de faire appel par le dev, ni contact de quoi que ce soit,
    vous perdez d'un coup l'acces a tous les services google dont vous etes dependant d'une maniere ou d'une autre, donc tout vos mails, votre telephone android, et toute les autres services, comme google ads (que vous ayez des sous ou pas dedssus bien evidemment).

    si vous etendez ca aux autres GAFAM, ca peut limite vous couper de la plupart des grand services mainstream d'internet.

    Pour eviter ca, il ne faut pas mettre tout ces oeufs dans le meme panier, soit, commencer, a ce passer d'eux quand c'est possible.

    Et c'est pas evident, mais necessaire. ce qui lui est arrivé peut vous arriver pour un motif encore plus light..
    + 10 00000000 Google : Be evil

    Citation Envoyé par Fagus Voir le message
    Personnellement, par manque de confiance, je n'utilise de google que leur compte développeur, mais j'ai aussi un tél. android (sous une autre adresse) avec à peu près toutes les appli google désactivées (sauf le store forcément), mais si c'est dans l'OS...

    Je n'ai pas de solution pratique pour avoir l'indispensable smartphone de nos jours, qui fonctionne, et ne soit ni android, ni iOS. Idéalement, il faudrait un téléphone linux... capable de faire tourner des appli android dans des containers : ça existe de manière utilisable ?
    Le PinePhone va dans ce sens. Il est tout à fait utilisable, mais malheureusement pas toujours disponible. Après, c'est possible d'installer un système comme PostMarketOS dans certains modèles avec des résultats... mitigé : https://www.internet-czas-dzialac.pl...-postmarketos/ Au passage, j'admire la vitesse de PostMarketOS sur un téléphone de 2015, qui devient aussi rapide qu'un téléphone haut de gamme de 2020. Android est donc très "bloaté".

    De manière, plus légère, c'est possible d'installer sur de nombreux modèles des systèmes Android décraptisé dégooglisé comme LineageOS ou E/OS.

  11. #11
    Membre éclairé

    Inscrit en
    Novembre 2008
    Messages
    431
    Détails du profil
    Informations forums :
    Inscription : Novembre 2008
    Messages : 431
    Par défaut
    Citation Envoyé par OrthodoxWindows Voir le message
    Le PinePhone va dans ce sens. ...
    De manière, plus légère, c'est possible d'installer sur de nombreux modèles des systèmes Android décraptisé dégooglisé comme LineageOS ou E/OS.
    Pour ma part, j'ai e/os et j'en suis tout à fait satisfait.
    Au moins on n'a pas l'impression d'avoir un type derrière soi en permanence.

    Sinon, j'avais un compte mail chez google, j'ai réinstallé ma machine, google ne la reconnait plus et du coup m'interdit l'accès à mon compte. J'ai un autre email pour la récupération mais il veulent mon téléphone en plus.
    En fait, j'ai toujours eu beaucoup plus de problèmes sur ma boîte mail google liés à leur sécurité qu'à des piratages (ça ne m'est jamais arrivé).
    Heureusement, ce n'était pas mon compte principal mais une chose est sûre : JAMAIS je n'aurai de compte mail important chez google.

    Sinon, une vidéo intéressante sur les malversations de ces géants (là c'est sur facebook mais je pense que google doit faire largement pareil)
    Ca en dit long sur les algorithmes qu'ils utilisent et affinent en permanence... Pour le bien de l'humanité ? Bien sûr que non. Pour maximiser leur profit. Il est certain qu'un Neymar ou une Rihanna n'auraient pas eu ce problème.


    RESUME : PAS DE COMPTE GOOGLE. PAS DE COMPTE FACEBOOK. AVOIR UN COMPTE CHEZ CES GENS, C'EST ÊTRE COMPLICE DU CRIME ORGANISE

  12. #12
    Membre éprouvé
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    1 063
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 1 063
    Par défaut juqu'où cela s'arrête-t-il ?
    On se retrouve avec des GAFAM qui en pratique ont autant de pouvoir qu'un tribunal civil ou administratif, mais sans procès équitable ni appel...

    OK, les téléphones contiennent des espions automates qui analysent chaque photo pour chercher de la pédopornographie, mais ça pourrait être n'importe quoi d'autre à la demande d'un gouvernement (les loi secrètent existent aux USA), mais on pourrait aussi lire les documents, ou le micro.

    Personnellement, par manque de confiance, je n'utilise de google que leur compte développeur, mais j'ai aussi un tél. android (sous une autre adresse) avec à peu près toutes les appli google désactivées (sauf le store forcément), mais si c'est dans l'OS...

    Je n'ai pas de solution pratique pour avoir l'indispensable smartphone de nos jours, qui fonctionne, et ne soit ni android, ni iOS. Idéalement, il faudrait un téléphone linux... capable de faire tourner des appli android dans des containers : ça existe de manière utilisable ?

  13. #13
    HaryRoseAndMac
    Invité(e)
    Par défaut
    Ce que je trouve scandaleux, c'est que google s'octroie le droit de rouler sur la vie privé des gens.

    Et si j'ai envie d'envoyer une photo de ma b*** à ma femme et alors ?!

  14. #14
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 264
    Par défaut
    Citation Envoyé par HaryRoseAndMac Voir le message
    Ce que je trouve scandaleux, c'est que google s'octroie le droit de rouler sur la vie privé des gens.

    Et si j'ai envie d'envoyer une photo de ma b*** à ma femme et alors ?!
    et bien non tu peux pas, c'est immoral et irrespectueux envers les femmes.
    La moindre image d'un teton est censored tu ne le savait pas ?

    Mais tkt bientôt il y'aura un filtre parental d'installer par défaut pour se prémunir de tes actes

  15. #15
    HaryRoseAndMac
    Invité(e)
    Par défaut
    Citation Envoyé par calvaire Voir le message
    et bien non tu peux pas, c'est immoral et irrespectueux envers les femmes.
    La moindre image d'un teton est censored tu ne le savait pas ?

    Mais tkt bientôt il y'aura un filtre parental d'installer par défaut pour se prémunir de tes actes
    J'espère que tu troll

  16. #16
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 264
    Par défaut
    Citation Envoyé par HaryRoseAndMac Voir le message
    J'espère que tu troll
    hélas non, sur les plateforme mainstrzam (facebook, youtube...) tu peux pas publier des seins d'une femme. C'est les dogme religieux américains.
    et une loi est passé en france il me semble pour avoir par féfaut un filtre parental d'activé

    quand à ca:
    Et si j'ai envie d'envoyer une photo de ma b*** à ma femme et alors ?!
    avec la monté des féministes extrémistes, ce genre de propos est fortement déconseillé de nos jours.

  17. #17
    Modérateur
    Avatar de escartefigue
    Homme Profil pro
    bourreau
    Inscrit en
    Mars 2010
    Messages
    10 711
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Loir et Cher (Centre)

    Informations professionnelles :
    Activité : bourreau
    Secteur : Finance

    Informations forums :
    Inscription : Mars 2010
    Messages : 10 711
    Billets dans le blog
    10
    Par défaut
    Citation Envoyé par calvaire Voir le message
    quand à ca:

    Citation Envoyé par HaryRoseAndMac Voir le message
    Et si j'ai envie d'envoyer une photo de ma b*** à ma femme et alors ?!
    avec la monté des féministes extrémistes, ce genre de propos est fortement déconseillé de nos jours.
    Aucun rapport avec le féminisme dont la montée reste à prouver (selon quel(s) critère(s), où sont les études l'attestant ?)
    Par contre c'est tout à fait en rapport avec la bêtise : publier des photos intimes ou personnelles sur un réseau, c'est le meilleur moyen d'avoir des remords toute sa vie.

  18. #18
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 337
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 337
    Par défaut Google refuse de rétablir le compte d’un parent signalé par son IA de scannage automatique de correspondances
    Google refuse de rétablir le compte d’un parent signalé par son IA de scannage automatique de correspondances
    Qui a assimilé des photos médicales de l’aine de son fils à du contenu pédopornographique

    Google refuse de rétablir le compte d’un parent signalé par son intelligence artificielle de scannage automatique de correspondances. Motif : le logiciel a signalé à tort des photos médicales de l’aine de son fils comme étant du contenu pédopornographique. Le tableau ravive les débats sur les dérives du scannage automatique des correspondances numériques dont les grandes enseignes technologiques font usage. La situation est d’autant plus intéressante que l’UE travaille à ce que les tous les fournisseurs de services de courrier électronique, de chat et de messagerie fouillent dans les communications privées à la recherche de messages suspects de manière entièrement automatisée et à les transmettre à la police dans le cadre de la lutte contre la pédopornographie.

    « C’est précisément le type de cauchemar qui nous préoccupe tous. Ils vont scanner mon album de famille et ensuite je vais avoir des problèmes », commente un responsable de l’Electronic Frontier Foundation.

    Nom : 1.jpg
Affichages : 20566
Taille : 58,7 Ko

    En effet, Mark a été innocenté de tout acte criminel, mais Google a annoncé le maintien de la décision de blocage de son compte. « Nous suivons la loi américaine pour définir ce que sont les contenus pédopornographiques et utilisons une combinaison de technologie de correspondance de hachage et d'intelligence artificielle pour les identifier et les retirer de nos plateformes », a déclaré Christa Muldoon, une porte-parole de Google.

    Pour pallier les limites que les algorithmes pourraient avoir à distinguer les images d'abus sexuels des images médicales, les entreprises font souvent appel à un humain dans la boucle. Mais ces personnes sont elles-mêmes limitées dans leur expertise et l'obtention du contexte approprié pour chaque cas nécessite un accès supplémentaire aux données des utilisateurs. En d’autres termes, en l’état actuel des développements, un faux positif de l’intelligence artificielle peut entraîner la suspension du compte d’un tiers par Google sans autre forme de procès.

    Nom : 2.jpg
Affichages : 6140
Taille : 61,7 Ko

    La situation interpelle d’autant plus que l’UE travaille ce que les tous les fournisseurs de services de courrier électronique, de chat et de messagerie fouillent dans les communications privées à la recherche de messages suspects de manière entièrement automatisée et à les transmettre à la police dans le cadre de la lutte contre la pédopornographie. La présentation d’un projet de loi y relatif s’est en principe faite au cours du mois de mai de l’année en cours.

    « Cette intrusion dans nos messages privés et nos photos par des algorithmes sujets aux erreurs est un pas de géant vers un État de surveillance à la chinoise. La prochaine étape consistera-t-elle pour la poste à ouvrir et à scanner toutes les lettres ? Les réseaux organisés de pornographie infantile n'utilisent pas le courrier électronique ou les services de messagerie, mais les forums du darknet. Avec ses projets visant à briser le chiffrement sécurisé, la Commission européenne met en péril la sécurité globale de nos communications privées et de nos réseaux publics, ainsi que les secrets commerciaux et d'État, pour satisfaire des désirs de surveillance à court terme. Ouvrir la porte aux services de renseignement étrangers et aux pirates informatiques est totalement irresponsable. Pour arrêter le contrôle des chats, la communauté du net doit monter au créneau », commente Patrick Breyer – défenseur des libertés civiles.

    En effet, les conséquences de l’entrée en vigueur de ce projet de loi sont :

    • toutes les conversations en ligne et tous les courriels seront automatiquement fouillés pour détecter tout contenu suspect. Rien ne reste confidentiel ou secret. Il ne sera pas nécessaire d'obtenir une ordonnance du tribunal ou d'avoir un soupçon initial pour effectuer une recherche dans les messages ;
    • si un algorithme classe le contenu d'un message comme suspect, les photos privées ou intimes pourront être consultées par le personnel et les sous-traitants de sociétés internationales et les autorités policières. Ces mêmes contenus pourront être consultés par des personnes inconnues ou se retrouver entre les mains d’individus mal intentionnés ;
    • les conversations intimes pourront être lues par le personnel et les sous-traitants de sociétés internationales et les autorités policières, car les filtres de reconnaissance de texte qui ciblent la "sollicitation d'enfants" signalent souvent à tort les conversations intimes ;
    • des tiers pourront être faussement signalés et faire l'objet d'enquêtes pour diffusion présumée de matériel d'exploitation sexuelle d'enfants. Les algorithmes de contrôle des messages et des chats sont connus pour signaler des photos de vacances tout à fait légales d'enfants sur une plage, par exemple. Selon les autorités de la police fédérale suisse, 86 % de tous les signalements générés par des machines s'avèrent sans fondement ;
    • lors d’un voyage à l'étranger, l’on peut se retrouver face à de gros problèmes. Les rapports générés par les machines sur les communications pourront être transmis à d'autres pays, comme les États-Unis, où la confidentialité des données demeure très mal encadrée, ce, avec des résultats incalculables ;
    • ce serait la porte ouverte pour les services de renseignement et les pirates sur les conversations et courriels.

    En mars, 35 organisations du monde entier, dont l'Association des juristes allemands, Digitale Gesellschaft et le Comité pour la protection des journalistes (CPJ), avaient mis en garde contre la loi européenne sur le contrôle des communications numériques. Selon un sondage, 72% des citoyens s'y opposent. L'accord de coalition du gouvernement allemand déclare sur le sujet du contrôle des communications numériques : « Nous rejetons les mesures visant à scanner les communications privées. »


    Et vous ?

    Interdire le scannage automatique des communications privées ou le maintenir : de quel bord êtes-vous ?
    Quelles solutions techniques préconisez-vous dans le cas d’un maintien du scannage automatique des communications privées pour garantir un équilibre entre vie privée et sécurité ?

    Voir aussi :

    Le bitcoin vaut moins que le coût d'extraction, selon JPMorgan, le coût de revient moyen pondéré d'un bitcoin étant estimé à environ 4060 $
    La cryptomonnaie de Facebook, une opportunité de 19 milliards de dollars de revenus, et une nouvelle affaire autre que la publicité, selon Barclays
    La majorité du marché de bitcoin est une tromperie, 95 % du volume des échanges de cette monnaie étant truqué, selon une nouvelle étude
    Cryptomonnaie : le crash du marché laisse des entreprises en faillite dans son sillage, des développeurs étant privés de financement supplémentaire
    L'État de New York approuve deux cryptomonnaies liées au dollar : deux nouveaux stablecoins à la suite du TrueUSD aux États-Unis
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  19. #19
    Membre extrêmement actif Avatar de OrthodoxWindows
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 369
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 369
    Par défaut
    Citation Envoyé par calvaire Voir le message
    Mais tkt bientôt il y'aura un filtre parental d'installer par défaut pour se prémunir de tes actes
    et une loi est passé en france il me semble pour avoir par féfaut un filtre parental d'activé
    Exactement. Cette loi à même été votée à l’unanimité (unanimité de la bêtise et du puritanisme).

    Ce qui n'est pas surprenant, puisque que les principaux groupes parlementaires en France sont des extrémistes puritains.

    hélas non, sur les plateforme mainstrzam (facebook, youtube...) tu peux pas publier des seins d'une femme. C'est les dogme religieux américains.
    C'est d'ailleurs pour cela que je considère de nombreux néo-féministe comme d'extrême-droite.

  20. #20
    Inactif  
    Profil pro
    undef
    Inscrit en
    Février 2013
    Messages
    1 001
    Détails du profil
    Informations personnelles :
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : undef

    Informations forums :
    Inscription : Février 2013
    Messages : 1 001
    Par défaut
    Bah procès et millions milliards en guise de dédommagement. De toute façon, il n'y a qu'une grosse attaque légale sur le portefeuille qui puisse faire réfléchir ces entreprises grosses comme des états.

Discussions similaires

  1. Réponses: 5
    Dernier message: 08/04/2020, 15h47
  2. Réponses: 1
    Dernier message: 10/08/2019, 23h01
  3. Réponses: 3
    Dernier message: 29/07/2017, 14h23
  4. [audio] logiciel pour faire des .au ?
    Par Seiya dans le forum Multimédia
    Réponses: 7
    Dernier message: 05/01/2005, 01h41
  5. problème pour faire des blocs
    Par tinkye_winkye dans le forum Mise en page CSS
    Réponses: 6
    Dernier message: 04/01/2005, 15h13

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo