IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

Apple dépense des millions pour faire du lobbying contre la sécurité des enfants

  1. #81
    Membre actif
    Homme Profil pro
    Retraité
    Inscrit en
    Juin 2008
    Messages
    74
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Retraité
    Secteur : Enseignement

    Informations forums :
    Inscription : Juin 2008
    Messages : 74
    Points : 266
    Points
    266
    Par défaut
    « Nous suivons la loi américaine pour définir ce que sont les contenus pédopornographiques et utilisons une combinaison de technologie de correspondance de hachage et d'intelligence artificielle pour les identifier et les retirer de nos plateformes », a déclaré Christa Muldoon,
    Plus que l'intelligence artificielle, ils font appel à la bêtise naturelle.

  2. #82
    Membre chevronné
    Avatar de Pelote2012
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Mars 2008
    Messages
    925
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Haute Vienne (Limousin)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2008
    Messages : 925
    Points : 1 839
    Points
    1 839
    Billets dans le blog
    2
    Par défaut
    Il pourrait assez simplement mettre des critères en plus ... le nombre de documents incriminés, la fréquence ou le destinataire est-il un professionnel de la santé, combien le destinataire reçoit il de document douteux ... j'imagine qu'on peut assez facilement inclure se genre d'infos en plus que de l'analyse d'imagerie par IA...

  3. #83
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 339
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 339
    Points : 4 038
    Points
    4 038
    Par défaut
    Citation Envoyé par Pelote2012 Voir le message
    Il pourrait assez simplement mettre des critères en plus ... le nombre de documents incriminés, la fréquence ou le destinataire est-il un professionnel de la santé, combien le destinataire reçoit il de document douteux ... j'imagine qu'on peut assez facilement inclure se genre d'infos en plus que de l'analyse d'imagerie par IA...
    Ils pouraient, mais pouquoi ce donner ce mal?
    99% des consommateurs sont contents
    Cet article ne touche qu'une faible partie des consommateurs, consommateurs qui sont déjà méfiants
    De toute façon le monsieur ToutLeMonde qui lit ça se dira que ça ne lui arriverait pas à lui.

    Donc ils peuvent mais n'ont pas beaucoup de raison de le faire.

  4. #84
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 297
    Points
    66 297
    Par défaut Apple met fin à son projet controversé de détection des contenus pédopornographiques connus stockés sur iCloud
    Apple met fin à son projet controversé visant à analyser les sauvegardes sur iCloud Photos à la recherche d'images d'abus sexuels sur enfant
    après les critiques virulentes des experts en sécurité

    Apple a mis fin à son projet visant à développer un outil de détection des contenus pédopornographiques connus stockés sur iCloud Photos. Les critiques avaient mis en garde Apple contre la boîte de pandore qu'elle s'apprêtait à ouvrir, expliquant que certains États pouvaient exiger que la fonction soit détournée à d'autres fins, notamment de surveillance de masse. Après une analyse approfondie, Apple a annoncé mercredi qu'il mettait fin au projet et que l'entreprise se concentrera à l'avenir sur le chiffrement de bout en bout des sauvegardes iCloud. Apple estime que les abus sexuels sur les enfants peuvent être évités avant qu'ils ne se produisent.

    En août 2021, Apple a annoncé un plan visant à analyser les photos que les utilisateurs stockent sur iCloud Photos pour détecter des images d'abus sexuels sur enfant (CSAM). L'outil était censé préserver la vie privée et permettre à Apple de détecter et signaler les contenus potentiellement problématiques et abusifs sans rien révéler d'autre. Mais l'initiative a été controversée, et elle a rapidement suscité de nombreuses critiques de la part des chercheurs en matière de confidentialité et de sécurité et des groupes de défense des droits numériques, qui craignaient que la capacité de surveillance elle-même ne soit utilisée de manière abusive.

    Cela pourrait porter atteinte à la vie privée et à la sécurité des utilisateurs d'iCloud dans le monde entier. Au début du mois de septembre 2021, Apple a déclaré qu'elle mettrait en pause le déploiement de la fonctionnalité afin de "recueillir des commentaires et d'apporter des améliorations avant de publier ces nouvelles fonctionnalités de sécurité pour enfants d'une importance cruciale". Autrement dit, un lancement était toujours prévu. Mais mercredi, Apple a déclaré qu'en réponse aux commentaires et aux conseils qu'elle a reçus sur les impacts de cette initiative, l'outil de détection des CSAM pour les photos stockées sur iCloud est mort.

    Nom : olk.png
Affichages : 1741
Taille : 182,4 Ko

    « Après une consultation approfondie avec des experts pour recueillir des commentaires sur les initiatives de protection de l'enfance que nous avons proposées l'année dernière, nous renforçons notre investissement dans la fonction de sécurité des communications que nous avons mise à disposition pour la première fois en décembre 2021. Nous avons en outre décidé de ne pas aller de l'avant avec notre outil de détection des CSAM proposé précédemment pour iCloud Photos. Les enfants peuvent être protégés sans que les entreprises passent au peigne fin les données personnelles », a déclaré Apple dans une déclaration envoyée aux médias.

    « Nous continuerons à travailler avec les gouvernements, les défenseurs des enfants et d'autres entreprises pour aider à protéger les jeunes, à préserver leur droit à la vie privée et à faire d'Internet un endroit plus sûr pour les enfants et pour nous tous », a ajouté la société. Elle a prévu de signaler les comptes iCloud comportant des hachages d'images CSAM au National Center for Missing and Exploited Children (NCMEC) des États-Unis, une association à but non lucratif qui travaille en collaboration avec les services de police américains. Apple avait également assuré qu'il avait une chance sur un milliard pour que l'outil renvoie un faux positif.

    Les plans d'Apple ont été critiqués par un large éventail de personnes et d'organisations, notamment des chercheurs en sécurité, l'Electronic Frontier Foundation (EFF), des politiciens, des groupes politiques, des chercheurs universitaires, des rivaux (comme Epic Games) et même certains employés d'Apple. Certains ont fait valoir que cet outil aurait créé une "porte dérobée" dans les appareils Apple, que les gouvernements ou les organismes d'application de la loi pourraient utiliser pour surveiller les utilisateurs. Il y avait également la crainte qu'une personne piège une tierce personne en ajoutant intentionnellement des images CSAM à son compte iCloud.

    Une telle situation pourrait porter un grand préjudice à la victime. Rappelons qu'en août 2021, Apple prévoyait de déployer trois nouvelles fonctionnalités de sécurité pour les enfants, notamment un système de détection des images connues de CSAM stockées sur iCloud Photos, une option Communication Safety qui estompe les photos sexuellement explicites dans l'application iMessages, et des ressources sur l'exploitation des enfants pour Siri. Communication Safety a été lancé aux États-Unis avec iOS 15.2 en décembre 2021 et s'est depuis étendu au Royaume-Uni, au Canada, à l'Australie et à la Nouvelle-Zélande.

    Les parents et le personnel soignant peuvent opter pour ces protections par le biais des comptes iCloud familiaux. Elles fonctionnent avec Siri, la recherche Spotlight d'Apple et la recherche Safari. Elles avertissent si quelqu'un est en train de regarder ou de rechercher des documents relatifs au CSAM et fournir des ressources sur place pour signaler le contenu et demander de l'aide. En outre, le cœur de la protection est la sécurité de la communication pour les messages, que les soignants peuvent configurer pour fournir un avertissement et des ressources aux enfants s'ils reçoivent ou tentent d'envoyer des photos contenant de la nudité.

    L'objectif est de mettre fin à l'exploitation des enfants avant qu'elle ne se produise ou ne s'installe et de réduire la création de nouvelles CSAM. En marge de l'annonce concernant l'abandon du projet, Apple a également annoncé une vaste expansion de ses offres de chiffrement de bout en bout pour iCloud, y compris l'ajout de la protection des sauvegardes et des photos stockées sur le service de cloud computing. Bien que cette deuxième annonce ait été bien accueillie par les utilisateurs de l'iPhone, elle a également fait l'objet de quelques critiques de la part des organismes de lutte contre les abus sur les enfants.

    Les groupes qui luttent contre le CSAM se sont souvent opposés à un déploiement plus large du chiffrement de bout en bout, car il rend les données des utilisateurs inaccessibles aux entreprises technologiques, ce qui rend plus difficiles pour l'analyse et la signalisation du CSAM. Les organismes d'application de la loi du monde entier ont également invoqué le grave problème des abus sexuels sur les enfants pour s'opposer à l'utilisation et à l'expansion du chiffrement de bout en bout, bien que nombre de ces organismes aient toujours été hostiles au chiffrement de bout en bout en général parce qu'il peut rendre certaines enquêtes plus difficiles.

    La recherche a cependant montré de manière constante que le chiffrement de bout en bout est un outil de sécurité vital pour la protection des droits de l'homme et que les inconvénients de sa mise en œuvre ne l'emportent pas sur les avantages. Craig Federighi, vice-président chargé des logiciels chez Apple, a déclaré : « les abus sexuels sur les enfants peuvent être évités avant qu'ils ne se produisent. C'est là que nous mettons notre énergie à l'avenir ». Il a été interrogé directement sur les répercussions de l'extension du chiffrement sur le travail des agents chargés de l'application de la loi qui enquêtent sur les crimes.

    Federighi a répondu : « en fin de compte, la sécurisation des données des clients a de grandes répercussions sur notre sécurité au sens large ». Bien qu'il n'y ait pas un calendrier spécifique pour l'extension des fonctions de Communication Safety, Apple travaille à l'ajout de la capacité de détecter la nudité dans les vidéos envoyées par iMessages lorsque la protection est activée. L'entreprise prévoit également d'étendre l'offre au-delà de iMessages à ses autres applications de communication. En définitive, l'objectif est de permettre aux développeurs tiers d'intégrer les outils de Communication Safety dans leurs propres applications.

    Selon Apple, plus ces fonctionnalités se multiplieront, plus les enfants auront de chances d'obtenir les informations et le soutien dont ils ont besoin avant d'être exploités. Comme d'autres entreprises qui se sont débattues publiquement sur la façon de traiter le CSAM, Apple a déclaré qu'il prévoit également de continuer à travailler avec des experts de la sécurité des enfants pour qu'il soit aussi facile que possible pour ses utilisateurs de signaler les contenus et les situations d'exploitation aux organisations de défense et aux forces de l'ordre.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du revirement d'Apple sur son outil de détection du CSAM ?
    Que pensez-vous de l'extension des offres de chiffrement de bout en bout pour iCloud ?

    Voir aussi

    Apple annonce le chiffrement de bout en bout des sauvegardes iCloud et introduit la prise en charge des clés de sécurité pour l'authentification à deux facteurs

    Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos, alors que les experts dénoncent un recul dans les progrès en matière de vie privée

    Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone

  5. #85
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 484
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 484
    Points : 103 875
    Points
    103 875
    Par défaut Apple dépense des millions pour faire du lobbying contre la sécurité des enfants
    L'hypocrisie d'Apple dévoilée : L'entreprise dépense des millions pour faire du lobbying contre la sécurité des enfants

    Des rapports montrent qu'Apple dépense des millions pour faire pression contre les mesures de sécurité pour les enfants. En Louisiane, grâce aux efforts de lobbying, un projet de loi concernant des restrictions d'âge n'a pas exigé l'inclusion de l'App Store d'Apple et a été adopté sans difficulté par le Sénat.

    Apple avait surpris lors de l'annonce des nouvelles fonctionnalités. Rassemblées sous le nom de "Protection étendue des enfants", les nouvelles fonctionnalités visaient à protéger davantage les enfants contre les différents abus en scannant les photos que les utilisateurs téléchargeaient sur iCloud Photos pour rechercher du matériel pédopornographique (CSAM - child sexual abuse material). En outre, Apple prévoyait également de rechercher des contenus explicites d'abus dans les messages d'enfants.

    Mais si ces dispositifs d'Apple ont suscité des critiques virulentes dans l'industrie, elles ne faisaient pas non plus l'unanimité parmi ses propres employés et collaborateurs. Des personnes proches de l'entreprise ont expliqué que les changements apportés par le passé à la sécurité chez Apple ont également suscité l'inquiétude des employés, mais le volume et la durée du nouveau débat étaient surprenants. Des employés craignent qu'Apple ne nuise à sa réputation de leader en matière de protection de la vie privée.

    À première vue, on pourrait croire que le géant de la technologie Apple ajoute de nouveaux moyens pour réduire la dépendance liée à l'utilisation des smartphones. Toutefois, un nouveau rapport met en lumière une autre constatation préoccupante. D'un côté, Apple dépense des millions pour faire pression contre les mesures de sécurité pour les enfants. En d'autres termes, il s'agit de faire échouer des projets de loi en faveur de la sécurité des mineurs.


    Le Wall Street Journal a partagé plusieurs rapports sur des États américains qui tentent de contrôler l'utilisation des smartphones par les adolescents. Pour être plus précis, l'un des rapports concerne la Louisiane. Il s'agit d'un projet de loi obligeant Apple à inclure des restrictions d'âge dans l'App Store. De cette manière, les applications individuelles ne seraient plus responsables des limites d'âge.

    Meta a également trouvé cette décision intéressante et s'est rangé à la discussion, car les parents n'auraient plus qu'un seul endroit pour contrôler les médias sociaux, plutôt que de courir après différentes applications pour la même épreuve. Apple a été inclus dans cette législation et, en un rien de temps, de nombreux représentants d'Apple ont fait savoir que ce n'était pas la bonne décision.

    De nombreux lobbyistes d'Apple ont parlé de la pilule empoisonnée de Meta, un moyen de détourner l'attention des différents défis liés à la sécurité des enfants auxquels l'entreprise est confrontée. Le représentant a ajouté qu'Apple fournissait des contrôles parentaux et des informations sur l'âge avec diverses plateformes tierces et que, par conséquent, le partage des informations relatives à l'âge constituerait une violation de la vie privée.

    Cela signifie que le projet de loi pourrait rencontrer de nombreux problèmes et que l'État pourrait être encore plus en difficulté, car l'entreprise pourrait faire l'objet de poursuites judiciaires pour s'être conformée aux exigences de l'App Store. En fin de compte, le projet de loi n'a pas exigé l'inclusion de l'App Store d'Apple et a été adopté sans difficulté par le Sénat. Les lobbyistes d'Apple ne se sont pas encore exprimés à ce sujet, mais ceux qui ont eu vent de la nouvelle ont simplement indiqué que d'autres États n'en voulaient pas non plus.

    En réalité, le contrôle parental d'Apple n'est pas à la hauteur de ce qu'il devrait être. Bien que le fabricant de l'iPhone souhaite dépenser moins en termes de lobbying que Meta et Amazon, il dépense tout de même des millions. Aujourd'hui, les lobbyistes vont jusqu'à proposer des investissements dans l'enseignement public. Le prix à payer est l'abandon des législations liées à l'App Store.

    Source : Le Wall Street Journal

    Et vous ?

    Pensez-vous que ces rapports sont crédibles ou pertinents ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos, alors que les experts dénoncent un recul dans les progrès en matière de vie privée

    La vérification d'âge est-elle compatible avec les valeurs d'Internet ? Qu'en pensez-vous comme approche pour protéger les enfants des sites pornographiques ? Atteinte aux libertés en gestation ?

    Apple met fin à son projet controversé visant à analyser les sauvegardes sur iCloud Photos à la recherche d'images d'abus sexuels sur enfant, après les critiques virulentes des experts en sécurité
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #86
    Membre expert
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 189
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 189
    Points : 3 258
    Points
    3 258
    Par défaut
    Pour une fois que je suis d'accord avec Apple, ce n'est pas fréquent

    Ce projet de loi est très dangereux, car il risque de mener à terme à une vérification systématique d’identités juste pour télécharger des applications, et à une pertes de liberté encore plus importante pour les développeurs, à cause de l'obligation d'utiliser l'App Store (par contre là c'est la faute d'Apple).

  7. #87
    Expert éminent

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 582
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 582
    Points : 6 024
    Points
    6 024
    Par défaut
    avec ce genre de projets de lois je ne peux me questionner sur comment on en est arrivé la...., depuis quand les enfants peuvent utiliser un iphone/ipad ? et depuis quand sans la supervision des adultes ?
    on prends le problème a l'envers, je n'ai pas eu de téléphone avant mon bac, et mes enfants n'ont pas de smartphones/tablettes non plus, ils n'en ont pas besoin et toutes les études prouve que c'est néfaste pour leurs santé.
    Donc a partir de la, je vois pas l’intérêt de ce genre de projet de lois.

    J'ai un feature phone et un bracelet pour enfant que je leurs donne quand on voyage pour que je puisse les appeler/les localiser si jamais on se perd (ce qui n'ai jamais arrivé mais on est jamais trop prudent). Perdre son gamin en vacances dans le métro d'une ville comme Hong Kong par exemple ce serait un peu dramatique
    mais en dehors de ce cas bien spécifique et en plus il existe des outils adaptés aux enfants et pas cher (moins cher qu'un smarpthone), a l'école pour les enfants aillant la nécessité d’appeler les adultes, un feature phone fait très bien l'affaire.

  8. #88
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 339
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 339
    Points : 4 038
    Points
    4 038
    Par défaut
    Citation Envoyé par OrthodoxWindows Voir le message
    Pour une fois que je suis d'accord avec Apple, ce n'est pas fréquent
    Oui mais ne nous félicitons pas trop, nous sommes peut être d'accord sur le résultat mais nos objectifs sont bien différents et on risque fort de finir avec un couteau dans le dos et un "je comprends pas nous étions pourtant d'accord".

  9. #89
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 383
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 383
    Points : 2 700
    Points
    2 700
    Par défaut
    Citation Envoyé par totozor Voir le message
    on risque fort de finir avec un couteau dans le dos et un "je comprends pas nous étions pourtant d'accord".
    À la page 18 des conditions d'utilisation ?

  10. #90
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 339
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 339
    Points : 4 038
    Points
    4 038
    Par défaut
    Citation Envoyé par Gluups Voir le message
    À la page 18 des conditions d'utilisation ?
    Par exemple mais pas que.
    Je vois aussi le "Nous étions d'accord sur la réaction à cette loi donc vous êtes d'accord avec moi sur TOUT ce que je fais" (Toute ressemblance avec notre président de la république ou un patron de réseau social est bien sûr fortuite )

  11. #91
    Membre averti
    Profil pro
    Inscrit en
    Juillet 2007
    Messages
    309
    Détails du profil
    Informations personnelles :
    Âge : 38
    Localisation : France

    Informations forums :
    Inscription : Juillet 2007
    Messages : 309
    Points : 380
    Points
    380
    Par défaut Il n'y a pas d'hypocrisie
    Les mesures de sécurité qui sont demandés pour soi-disant protéger les enfants sont en fait des mesures réduisent la sécurité de tout le monde et permet aux gouvernements et aux criminels d'espionner tout le monde. Apple a bien raison de se battre contre ces mesures et ces projets de lois!

    Les gouvernements utilisent les enfants comme des boucliers pour cacher leur vrais désires qui est de pouvoir espionner de tout le monde, les gouvernement veulent une backdoor dans le système d'encryption de tous vos appareils ce qui les ouvriraient à toutes les attaques.

    Il n'y a que deux types d'encryption: celle qui empêche le gouvernement d'entrer ou celle qui empêche votre petite soeur de rentrer, il n'y a pas de juste milieu qui permettrait aux pouvoirs publics d'espionner tout le monde sans compromettre la sécurité de tous.

    Si vous entendez protection des enfants comme justification de tout projet de loi, vous pouvez savoir sans même le lire que c'est une arnaque.

  12. #92
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 383
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 383
    Points : 2 700
    Points
    2 700
    Par défaut
    Citation Envoyé par PsychoH13 Voir le message
    Les mesures de sécurité qui sont demandés pour soi-disant protéger les enfants sont en fait des mesures réduisent la sécurité de tout le monde et permet aux gouvernements et aux criminels d'espionner tout le monde. Apple a bien raison de se battre contre ces mesures et ces projets de lois!
    Pas sûr que j'aurais osé le dire, mais c'est quand même un angle de vue à ne pas négliger.

    Il n'y a que deux types d'encryption: celle qui empêche le gouvernement d'entrer ou celle qui empêche votre petite soeur de rentrer,
    Laquelle ? Celle qui est douce et adorable comme un cœur, ou celle qui est trop curieuse, rapporteuse et avec une forte tendance à taper sur les nerfs ?


    il n'y a pas de juste milieu qui permettrait aux pouvoirs publics d'espionner tout le monde sans compromettre la sécurité de tous.

    Si vous entendez protection des enfants comme justification de tout projet de loi, vous pouvez savoir sans même le lire que c'est une arnaque.
    Boh allez, si on a le temps on le lit ...

  13. #93
    Membre éprouvé Avatar de pcdwarf
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Février 2010
    Messages
    269
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Février 2010
    Messages : 269
    Points : 976
    Points
    976
    Par défaut Encore et toujours la lutte contre les pédonazis
    Haha "du lobbying contre la sécurité des enfants" !
    ça va ? la manipe linguistique n'est pas trop voyante ?
    Et oui! ça fait plus de 20 ans que cette fausse excuse pour la surveillance généralisée marche ! Sous prétexte de lutte contre les pédonazis, il faut fliquer tout le monde.

    Mais c'est quand même pas compliqué à comprendre !
    La seule raison pour laquelle on peut accepter de mettre des données personnelles (et pourtant parfaitement innocentes) sur un cloud, c'est parce qu'il est sensé être absolument privé.
    On se doute bien que ça n'est pas réellement le cas, mais à partir du moment où il est de notoriété publique que le cloud Apple n'est pas du tout un espace confidentiel mais un espace qui est automatiquement scanné pour repérer ce type de données, il est évident que les criminels concernés feront absolument tout pour éviter de s'en servir (En toute logique, ils évitent déjà). Alors certes, ça permettra d’attraper un neuneu ou deux, mais à quel prix ? Parce que si on ouvre la boite de pandore pour scanner le pédoporn il ne faudra pas longtemps avant qu'on scanne d'autres trucs permettant de faire du profilage, politique, religieux etc... ou même simplement pour de la pub ciblée. Et à coté de ça, combien de faux positifs ? Parce que ça peut rapidement causer des emmerdes qui vont loin...

  14. #94
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 383
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 383
    Points : 2 700
    Points
    2 700
    Par défaut
    Citation Envoyé par pcdwarf Voir le message
    Et à coté de ça, combien de faux positifs ? Parce que ça peut rapidement causer des emmerdes qui vont loin...
    Sans même Internet, il suffit de dire bonjour à une passante pour voir la semaine d'après des parents d'enfants de deux ans avoir peur.

    Et il y a des structures de médiation, mais pas à l'abri de fonctionner à l'envers. Surtout que pendant deux ans la réponse préférée des pros était "Je ne prends pas de nouveau patient."

    J't'explique pas le gaspillage d'énergie.

  15. #95
    Membre actif
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Février 2014
    Messages
    94
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Février 2014
    Messages : 94
    Points : 208
    Points
    208
    Par défaut
    Un peu choqué par le titre de l'info. L'argument d'Apple est que son écosystème est déjà protégé, et comme dit par d'autres internautes le gouvernement essaie par tous les moyens de mettre son nez partout sous couvert de protection. Après, la protection par Apple est-elle suffisante ? Si vous avez déjà publié sur AppStore vous savez que ce n'est pas une mince affaire.

Discussions similaires

  1. Réponses: 5
    Dernier message: 08/04/2020, 14h47
  2. Réponses: 1
    Dernier message: 10/08/2019, 22h01
  3. Réponses: 3
    Dernier message: 29/07/2017, 13h23
  4. [audio] logiciel pour faire des .au ?
    Par Seiya dans le forum Multimédia
    Réponses: 7
    Dernier message: 05/01/2005, 00h41
  5. problème pour faire des blocs
    Par tinkye_winkye dans le forum Mise en page CSS
    Réponses: 6
    Dernier message: 04/01/2005, 14h13

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo