IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

IE Discussion :

Internet Explorer 10 moins vulnérable que ses concurrents


Sujet :

IE

  1. #21
    Expert confirmé

    Profil pro
    Inscrit en
    Février 2006
    Messages
    2 382
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Février 2006
    Messages : 2 382
    Points : 4 943
    Points
    4 943
    Par défaut
    Citation Envoyé par Neckara Voir le message
    Ah? Relis bien alors.
    Pour prouver qu'un raisonnement est faux, on ne doit pas prouver que les résultats sont faux (ils peuvent très bien être juste). On doit juste montrer que le raisonnement ne tient pas, ce qui a déjà été fait
    On a déjà avancé plusieurs points comme :
    - le paradoxe des faux-positif ;
    - des informations manquent au niveau du dénombrement des alertes ;
    - le nombre d'alerte n'est pas directement lié à une "sécurité" de l'application, pour pouvoir utiliser le nombre d'alerte, il faut d'abord prouver le lien.
    paradoxe du faux positif : comme je l'ai dit, ça ne prouve rien, en bloquant 100% des pages, tu es sur, mais tu n'as plus que 0% du net -> useless.

    informations manquantes : tout le temps le cas, des études surs à 100% n'existe pas, même scientifiques, d'ailleurs celle-ci sont relus et critiquées par des pairs -> mais dans ce cas, ne n'atteend plus à lire quoi que ce soit sur le net.

    le nombre d'alerte, au contraire, montre que potentiellement le soft a fait du boulot, pareil tu n'es pas 100% sur, mais le lien est là, si un te rapporte 10% d'alerte et l'autre 0%, soit un travaille trop, soit l'autre pas assez, mais il y a quelque chose à creuser.

    et tu ne prouves pas non plus qu'il n'y a pas de lien entre alerte et sécurité.

    Citation Envoyé par Neckara Voir le message
    Ce n'est pas parce que je dit que mon logiciel prend 10% de CPU en moins parce que j'utilise plus le GPU que je prend mes interlocuteurs pour des "naïfs". Ton raisonnement ne tient pas.
    idem que le tien, d'où tu prouves que le gpu que tu utilises en plus vaut plus le coût que les 10% de cpu de différence?
    de plus une page qui s'affiche en 0.01s contre 0.02s t'aura fait économiser 50%, mais est ce que ces 50% tu en profiteras pour autre chose? je connais déjà la réponse.
    de là à dire qu'il y a de la naïveté, il n'y a qu'un pas, qui va aller vérifier que le gpu utilisé en plus n'est pas plus préjudiciable que les quelques pour-cents de cpu en plus? et pareil aucune preuve indiscutable dans un cas comme dans l'autre.

    Citation Envoyé par Neckara Voir le message
    C'est aux études de faire en sorte qu'elle ne puissent pas être contestée. Pour cela elle doivent suivre des démarches scientifiques très précises.
    Si une étude est trop facilement contestable, elle ne vaut rien.
    Je prend dix personnes dans la rue, elles parlent toutes français, j'en conclue donc que tous les hommes et femmes de la planètes savent parler français ?
    étude incontestable, j'ai déjà répondu, on n'est plus près que lire quelque chose sur internet si on ne devait lire que des choses incontestables.
    bravo en tout cas pour l'exemple, j'ai mangé une pomme ce soir, est ce que toute la nourriture du monde se résume à une pomme?

    Citation Envoyé par Neckara Voir le message
    ????
    Es-tu sûr d'avoir compris le raisonnement ?
    Si je bloque toutes les URL sans distinction, je vais bloquer les "mauvaises URL" donc je serais considéré comme "sûr". Mais comme je bloque aussi les "bonnes URL", au final, le dispositif sera soit ignoré soit désactivé ce qui au final n'apporte aucune sécurité supplémentaire.
    si tu bloques toutes les url, tu perds 100% du net, argument testé et approuvé ... tu joues avec les excès, bah je fais pareil.
    ou pour changer de mots, tu as bloqué un site légitime, bah tant pis, c'est le jeu ma pauv' lucette, mais je ne me fais pas d'illusion, la perfection, c'est pas pour demain la veille, en tout cas c'est utopique de vouloir le croire.

    Citation Envoyé par Neckara Voir le message
    Donc tu crois tout ce que tu lis sans te poser de question tant que tu ne lis pas quelque chose qui dirait le contraire ?
    Si je te sors une pseudo-étude disant que les tomates sont comestibles parce qu'elles sont rouges comme les fraises, tu ne critiquerais pas cette étude (même si la conclusion est juste) ?
    Je pourrais même atteindre le point godwin en parlant de certaines pseudo-études scientifiques...
    tient donc ; j'aurai juré avoir écrit, que faute de mieux, j'essayais de creuser pour avoir un peu ce qu'il y avait dessous.

    après si tu veux le point godwin, tu peux toujours y aller, ça donnera une raison pour fermer le topic, vu l'absence d'argumentation ...

  2. #22
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 145
    Points
    23 145
    Par défaut
    Citation Envoyé par stardeath Voir le message
    paradoxe du faux positif : comme je l'ai dit, ça ne prouve rien, en bloquant 100% des pages, tu es sur, mais tu n'as plus que 0% du net -> useless.
    Tu te contredits, si tu dis que c'est inutile, c'est donc que cela n'apporte aucune sécurité supplémentaire.
    Et cela prouve bien quelque chose, au contraire, vu qu'on a un contre-exemple qui suffit à invalider le raisonnement.

    Citation Envoyé par stardeath Voir le message
    informations manquantes : tout le temps le cas, des études surs à 100% n'existe pas, même scientifiques, d'ailleurs celle-ci sont relus et critiquées par des pairs -> mais dans ce cas, ne n'atteend plus à lire quoi que ce soit sur le net.
    Mais ce n'est pas une raison pour croire des études sûre à 5, 10 ou 15%. Là ce sont des informations primaires/essentielles qui manquent.

    Citation Envoyé par stardeath Voir le message
    le nombre d'alerte, au contraire, montre que potentiellement le soft a fait du boulot, pareil tu n'es pas 100% sur, mais le lien est là, si un te rapporte 10% d'alerte et l'autre 0%, soit un travaille trop, soit l'autre pas assez, mais il y a quelque chose à creuser.
    Corrélation à prouver par des statistiques alors. Le lien entre l'alerte et la sécurité reste à prouver. Une application avec une seule alerte que tout le monde connaît depuis 1ans peut être 10 fois moins sûre qu'une application avec 200 alertes qui sont corrigées peu de temps ou avant qu'elles soient rendues publiques.
    Il faudra peut-être même prouver que le nombre d'alerte est lié au nombre de faille de l'application, etc.

    Citation Envoyé par stardeath Voir le message
    et tu ne prouves pas non plus qu'il n'y a pas de lien entre alerte et sécurité.
    ça ne marche pas comme ça.
    Sinon c'est trop facile :
    x + y + z = 0
    Parce que x = 0 alors y = -z.
    Et je bâtit mon raisonnement sur le fait que personne ne prouve que x != 0 ?

    Quand on utilise une corrélation, on la prouve en premier lieu. Cela fait parti des démarches scientifiques. Sinon c'est trop facile de prouver tout et n'importe quoi. Une étude qui ne suit pas une démarche scientifique claire et précise ne peut pas être recevable.

    Citation Envoyé par stardeath Voir le message
    idem que le tien, d'où tu prouves que le gpu que tu utilises en plus vaut plus le coût que les 10% de cpu de différence?
    de plus une page qui s'affiche en 0.01s contre 0.02s t'aura fait économiser 50%, mais est ce que ces 50% tu en profiteras pour autre chose? je connais déjà la réponse.
    de là à dire qu'il y a de la naïveté, il n'y a qu'un pas, qui va aller vérifier que le gpu utilisé en plus n'est pas plus préjudiciable que les quelques pour-cents de cpu en plus? et pareil aucune preuve indiscutable dans un cas comme dans l'autre.
    Donc si je te dit qu'il y a 2,5 mètres entre les longues bandes blanches sur le bord d'une route, tu vas me dire que je te prends pour un naïf car :
    - si ça se trouve c'est 2,54 ou 2,49 mètres ;
    - qui nous dit que les longues bandes blanches ne sont pas plus large que les autres bandes ce qui fait qu'au final on utilise plus de peinture que pour une ligne continue ?
    - on a une preuve qu'il y a bien 2,5 mètres entre les bandes, qui est déjà allé vérifié ?
    - est-ce que les espaces entre les bandes blanches ne seraient pas préjudiciables parce que les automobilistes peuvent penser qu'il peuvent les traverser ?

    N'est-ce pas un peu ridicule ?
    Il ne faut pas confondre les pseudo-études bancales qui là nous prennent vraiment pour des naïf tant l'invalidité des arguments sautent aux yeux avec les chiffres donnés à titre d'informations où seule la confiance accordée à l'écrit joue ( on peut aussi faire des sous-distinctions, mais je préfère nous épargner ça ).
    Les 10% de CPU gagnés ne sont qu'un indicateur pour montrer la progression de l'application. Selon le contexte, elle pourra donc avoir un caractère informatif ou un caractère publicitaire.
    A moins que le chiffre donné soit vraiment éloigné du chiffre réel, on ne prend pas le lecteur pour un "naïf", ce qui n'empêche pas de mentir et de donner un chiffre erroné. Mais là, c'est une question de confiance.



    Citation Envoyé par stardeath Voir le message
    si tu bloques toutes les url, tu perds 100% du net, argument testé et approuvé ... tu joues avec les excès, bah je fais pareil.
    Réfléchis un peu, si l'utilisateur voit trop de pages bloquée/faux positifs que va-t-il faire ? Il va soit ignorer les blocages et passer outre, soit désactiver le blocage.

  3. #23
    Expert confirmé

    Profil pro
    Inscrit en
    Février 2006
    Messages
    2 382
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Février 2006
    Messages : 2 382
    Points : 4 943
    Points
    4 943
    Par défaut
    Citation Envoyé par Neckara Voir le message
    Tu te contredits, si tu dis que c'est inutile, c'est donc que cela n'apporte aucune sécurité supplémentaire.
    Et cela prouve bien quelque chose, au contraire, vu qu'on a un contre-exemple qui suffit à invalider le raisonnement.
    contredire, c'est pas moi qui apporte un truc qui veut tout et rien dire en l'imposant comme vérité absolu et indiscutable.
    moi je dis que bloquer 1% de sites légitimes ou autoriser 1% de sites vérolés c'est du pareil au même, tu pourras trouver autant d'argument pour ou contre les 2.

    Citation Envoyé par Neckara Voir le message
    Mais ce n'est pas une raison pour croire des études sûre à 5, 10 ou 15%. Là ce sont des informations primaires/essentielles qui manquent.
    tient donc, et depuis le début je demande un exemple d'études objectives et exhaustives, j'attends toujours ...

    Citation Envoyé par Neckara Voir le message
    Corrélation à prouver par des statistiques alors. Le lien entre l'alerte et la sécurité reste à prouver. Une application avec une seule alerte que tout le monde connaît depuis 1ans peut être 10 fois moins sûre qu'une application avec 200 alertes qui sont corrigées peu de temps ou avant qu'elles soient rendues publiques.
    Il faudra peut-être même prouver que le nombre d'alerte est lié au nombre de faille de l'application, etc.
    l'absence de lien entre alerte et sécurité est aussi à prouver dans ce cas.

    Citation Envoyé par Neckara Voir le message
    ça ne marche pas comme ça.
    Sinon c'est trop facile :
    x + y + z = 0
    Parce que x = 0 alors y = -z.
    Et je bâtit mon raisonnement sur le fait que personne ne prouve que x != 0 ?
    condition initiale différente => conclusion différente

    Citation Envoyé par Neckara Voir le message
    Quand on utilise une corrélation, on la prouve en premier lieu. Cela fait parti des démarches scientifiques. Sinon c'est trop facile de prouver tout et n'importe quoi. Une étude ne suit pas une démarche scientifique claire et précise ne peut pas être recevable.
    tu y tiens à ta démarche scientifique, d'ailleurs en parlant de scientifique, tu n'as pas démontré non plus qu'il y en avait jamais de corrélation entre les 2.
    si tu déclenche une alerte quand quelque chose te semble bizarre, le doute seul te permet de dire qu'il y a potentiellement un élément déclencheur, tu n'as aucune preuve de la réalité de cette cause, mais le doute et le principe de précaution te font le signaler, on ne sait jamais.
    tout comme le contraire, ce n'est qu'un doute, pas de quoi s'inquiéter ... mais lequel des 2 est le bon comportement?

    Citation Envoyé par Neckara Voir le message
    Donc si je te dit qu'il y a 2,5 mètres entre les longues bandes blanches sur le bord d'une route, tu vas me dire que je te prends pour un naïf car :
    - si ça se trouve c'est 2,54 ou 2,49 mètres ;
    - qui nous dit que les longues bandes blanches ne sont pas plus large que les autres bandes ce qui fait qu'au final on utilise plus de peinture que pour une ligne continue ?
    - on a une preuve qu'il y a bien 2,5 mètres entre les bandes, qui est déjà allé vérifié ?
    - est-ce que les espaces entre les bandes blanches ne seraient pas préjudiciables parce que les automobilistes peuvent penser qu'il peuvent les traverser ?
    heu c'est pas toi qui m'a sorti cet exemple de conso cpu, ça serait sympa d'éviter de se défiler en sortant n'importe quoi parce que ton truc est tombé à l'eau.
    mais puisque je sens que tu y tiens, je vais répondre, à quoi annoncer une conso cpu de 10% moindre si finalement tout le monde s'en fout, tout comme l'espace entre les bandes blanches.
    à quoi ça sert d'avancer ce nombre 10% si finalement on peut pas le critiquer sur la pertinence de l'avantage ou de l’inconvénient que cela amène?
    pourquoi est ce que je ne pourrai pas critiquer ce nombre fantaisiste de 10% comme vous le faites avec cette étude de microsoft?
    est ce que ça n'en fait que de la pub? à vous écoutez, oui. il n'y a jamais les conditions de l'expérience, c'est toujours une fourchette approximative d'un gain attendu, pas une expérience scientifique avec un protocole précis permettant de démontrer un gain identique à conditions initiales égales ou équivalentes.

    Citation Envoyé par Neckara Voir le message
    N'est-ce pas un peu ridicule ?
    Il ne faut pas confondre les pseudo-études bancales qui là nous prennent vraiment pour des naïf tant l'invalidité des arguments sautent aux yeux avec les chiffres donnés à titre d'informations où seule la confiance accordée à l'écrit joue ( on peut aussi faire des sous-distinctions, mais je préfère nous épargner ça ).
    Les 10% de CPU gagnés ne sont qu'un indicateur pour montrer la progression de l'application. Selon le contexte, elle pourra donc avoir un caractère informatif ou un caractère publicitaire.
    A moins que le chiffre donné soit vraiment éloigné du chiffre réel, on ne prend pas le lecteur pour un "naïf", ce qui n'empêche pas de mentir et de donner un chiffre erroné. Mais là, c'est une question de confiance.
    tout comme l'étude de microsoft, la seule chose que vous avez réussi à montrer c'est que ce n'est pas vrai parce que c'est microsoft, et que les 10% sont fiable parce que c'est google. CQFD

    Citation Envoyé par Neckara Voir le message
    Réfléchis un peu, si l'utilisateur voit trop de pages bloquée/faux positifs que va-t-il faire ? Il va soit ignorer les blocages et passer outre, soit désactiver le blocage.
    et le jour où il se fera avoir, il regrettera.

    il y a 2 stratégies :
    - on bloque un maximum, quitte à avoir des faux-positifs
    - on essaie de bloquer un minimum les sites valides, quitte à laisser passer des trucs dangereux

    les 2 stratégies ont des inconvénients :
    - même si on bloque, des trucs dangereux peuvent toujours contourner
    - on risque tout de même de bloquer des trucs valides

    est ce qu'il y en a une de mieux que l'autre? pour moi non, par contre vu la politique des stores, leurs fréquentations et leurs critiques, je doute que les gens choisissent la deuxième.

  4. #24
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 145
    Points
    23 145
    Par défaut
    Citation Envoyé par stardeath Voir le message
    contredire, c'est pas moi qui apporte un truc qui veut tout et rien dire en l'imposant comme vérité absolu et indiscutable.
    moi je dis que bloquer 1% de sites légitimes ou autoriser 1% de sites vérolés c'est du pareil au même, tu pourras trouver autant d'argument pour ou contre les 2.
    Le fait même que le paradoxe des faux-positif existe invalide le raisonnement car on a alors un contre-exemple. Les données ne sont alors pas exploitables sans données complémentaires.

    Ne pas la prendre en considération, c'est envoyer des milliers d'innocents en prison pour un assassin sous prétexte que la méthode trouve 80% des assassins et ne donne que 1% de faux positifs sur la population globale ( mais 99,9% des alertes sont des faux-positifs car les assassins représentent X% de la population globale).

    De même pour le navigateur, si un blocage à 99% de chances d'être un faux-positif, il sera alors très vite ignoré ou désactivé par les utilisateurs par habitude le rendant totalement inefficace.


    Citation Envoyé par stardeath Voir le message
    tient donc, et depuis le début je demande un exemple d'études objectives et exhaustives, j'attends toujours ...
    C'est du niveau lycéen de faire de telles études :
    - tu prends des boîtes de pétri identique ;
    - tu met une culture de bactérie dedans (même quantité pour chaque boîte) ;
    - tu prend le même sel que tu verse à des quantité différente sur les boîtes de pétri sauf sur une boîte (boîte témoin) ainsi qu'une autre où tu met des petites billes de plastiques (boîte témoin 2) ;
    - tu les met dans un placard prévu à cet effet (protégé de la lumière directe du soleil, environnement "neutre", etc. ) ;
    - tu renseigne toutes les conditions de l'expérience (durée, sel utilisé, type de culture, les boîtes de pétri utilisé, température moyenne (?), manipulations effectuées, etc. ) ;
    - tu regardes régulièrement au fil des jours l’évolution de tes cultures ;
    - tu prends des photo régulières des boîtes ;
    - tu regarde si le sel a un effet apparent quant au développement de tes cultures.

    Citation Envoyé par stardeath Voir le message
    l'absence de lien entre alerte et sécurité est aussi à prouver dans ce cas.
    Non.
    Tu ne comprends pas les démarches scientifiques.
    Une corrélation n'est pas "vrai tant qu'on a pas prouvé qu'elle était fausse".
    Si tu dois utiliser une corrélation, tu dois la prouver.

    Demande à n'importe quelle personne manipulant des BDD immense comment ils font pour établir les corrélations.


    Citation Envoyé par stardeath Voir le message
    condition initiale différente => conclusion différente
    Non, x = 0 n'est en aucun cas une condition initiale.
    C'est une proposition que j'utilise sans la prouver pour te montrer le ridicule d'utiliser des corrélations non-prouvée dans un raisonnement et de demander aux détracteurs de prouver le contraire.
    C'est bien à l'étude de démontrer que x = 0 pas à ses détracteurs de démontrer que x != 0.



    Citation Envoyé par stardeath Voir le message
    tu y tiens à ta démarche scientifique, d'ailleurs en parlant de scientifique, tu n'as pas démontré non plus qu'il y en avait jamais de corrélation entre les 2.
    si tu déclenche une alerte quand quelque chose te semble bizarre, le doute seul te permet de dire qu'il y a potentiellement un élément déclencheur, tu n'as aucune preuve de la réalité de cette cause, mais le doute et le principe de précaution te font le signaler, on ne sait jamais.
    tout comme le contraire, ce n'est qu'un doute, pas de quoi s'inquiéter ... mais lequel des 2 est le bon comportement?
    Tu mélanges tout. Le principe de précaution n'a rien à voir avec le fait de prouver si une proposition est vrai ou est fausse. Mais dès qu'un risque existe, et si la corrélation n'est ni confirmée, ni infirmée, le principe de précaution fera qu'on considérera la chose comme "dangereuse" mais la corrélation ne sera toujours ni prouvée, ni infirmée.

    Ensuite, ce n'est pas à moi de prouver l'absence de corrélation entre les deux éléments mais à l'étude de prouver la corrélation entre ces éléments. Si la corrélation n'est pas prouvée, le raisonnement ne tient pas.

    Ensuite, je n'ai pas besoin de prouver l'absence de corrélation, juste à trouver un argument soulignant que la corrélation n'est pas évidente ce qui a déjà été faite.

    Citation Envoyé par stardeath Voir le message
    mais puisque je sens que tu y tiens, je vais répondre, à quoi annoncer une conso cpu de 10% moindre si finalement tout le monde s'en fout, tout comme l'espace entre les bandes blanches.
    Je te montre des exemples pour te faire comprendre le ridicule de ton raisonnement.

    Citation Envoyé par stardeath Voir le message
    à quoi ça sert d'avancer ce nombre 10% si finalement on peut pas le critiquer sur la pertinence de l'avantage ou de l’inconvénient que cela amène?
    Critiquer pour critiquer, ce n'est que du pinaillage ou du troll.
    Critiquer un chargement de page qui va 50% plus rapidement parce que ces améliorations ne sont pas visible, c'est du troll. Cela peut être utile pour certains robots de recherches par exemple. Si tu ne trouve pas qu'une amélioration t'es utile, ce n'est pas pour autant qu'elle est inutile aux autres.
    Ensuite, pour le CPU/GPU, on peut demander confirmation à des membres plus expérimenté que moi dans le domaine, mais je ne pense pas que déporter les calculs graphiques du CPU vers le GPU puisse avoir des inconvénients significatifs. Et le GPU est bien plus rapide que le CPU pour les calculs graphiques.

    Citation Envoyé par stardeath Voir le message
    pourquoi est ce que je ne pourrai pas critiquer ce nombre fantaisiste de 10% comme vous le faites avec cette étude de microsoft?
    est ce que ça n'en fait que de la pub? à vous écoutez, oui. il n'y a jamais les conditions de l'expérience, c'est toujours une fourchette approximative d'un gain attendu, pas une expérience scientifique avec un protocole précis permettant de démontrer un gain identique à conditions initiales égales ou équivalentes.
    Parce que ce chiffre de 10% n'intervient pas dans le cadre d'un communiqué d'étude (et n'a donc pas pour but de prouver quelque chose) mais d'être là à titre d'indicateur. Les lecteurs savent que ce chiffre va varier selon les ordinateurs mais il donne un ordre de grandeur.
    Il ne prend donc pas nécessairement ses lecteurs pour des "naïf" alors qu'il annonce une hausse des performances comme tu l'affirmais.


    Citation Envoyé par stardeath Voir le message
    tout comme l'étude de microsoft, la seule chose que vous avez réussi à montrer c'est que ce n'est pas vrai parce que c'est microsoft, et que les 10% sont fiable parce que c'est google. CQFD
    Non, on a prouvé que le raisonnement de microsoft est bancal est faux. Les 10% ne sont que de moi, et là cela ne joue plus sur un raisonnement mais sur une "confiance" en la source.
    Si je poste à propos d'un de mes projets que j'utilise 10% de CPU en moins, on ne va pas aller me demander des justifications et je ne prend pas mes lecteurs pour des "naïfs".
    Ensuite, on ne croit pas microsoft "parce que c'est microsoft" ? Ou n'est-ce pas plutôt que, à l'image de cette étude, microsoft perd tout crédit ?



    Citation Envoyé par stardeath Voir le message
    et le jour où il se fera avoir, il regrettera.
    Donc tu es d'accord avec moi, il n'y a donc pas de sécurité supplémentaire.

    Citation Envoyé par stardeath Voir le message
    il y a 2 stratégies :
    - on bloque un maximum, quitte à avoir des faux-positifs
    - on essaie de bloquer un minimum les sites valides, quitte à laisser passer des trucs dangereux

    les 2 stratégies ont des inconvénients :
    - même si on bloque, des trucs dangereux peuvent toujours contourner
    - on risque tout de même de bloquer des trucs valides

    est ce qu'il y en a une de mieux que l'autre? pour moi non, par contre vu la politique des stores, leurs fréquentations et leurs critiques, je doute que les gens choisissent la deuxième.
    C'est une question de proportion.
    Mais il vaut mieux ne bloquer que 1% des menaces que d'avoir une technique qui aurait trop de faux-positifs rendant ainsi le dispositif inutile et ne bloquant au final 0% des menaces car l'utilisateur l'a désactivé ou l'ignore. Si je te montre un petit message à chaque action, combien de temps te faudra-t-il pour fermer ce message sans le lire complètement par habitude ?

  5. #25
    Expert confirmé

    Profil pro
    Inscrit en
    Février 2006
    Messages
    2 382
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Février 2006
    Messages : 2 382
    Points : 4 943
    Points
    4 943
    Par défaut
    Citation Envoyé par Neckara Voir le message
    Le fait même que le paradoxe des faux-positif existe invalide le raisonnement car on a alors un contre-exemple. Les données ne sont alors pas exploitables sans données complémentaires.

    Ne pas la prendre en considération, c'est envoyer des milliers d'innocents en prison pour un assassin sous prétexte que la méthode trouve 80% des assassins et ne donne que 1% de faux positifs sur la population globale ( mais 99,9% des alertes sont des faux-positifs car les assassins représentent X% de la population globale).

    De même pour le navigateur, si un blocage à 99% de chances d'être un faux-positif, il sera alors très vite ignoré ou désactivé par les utilisateurs par habitude le rendant totalement inefficace.
    et? désolé de ne pas être dans un monde manichéen où les seuls choix sont 0 ou 1, tu trouves que bloquer 1% de sites légitimes est inadmissible, je suis sur de trouver des gens pour qui laisser passer 1% de sites frauduleux l'est tout autant voir plus.
    je suis sur que si ça s'attaquait à ton compte en banque, tu changerais vite d'avis ...

    Citation Envoyé par Neckara Voir le message
    C'est du niveau lycéen de faire de telles études :
    - tu prends des boîtes de pétri identique ;
    - tu met une culture de bactérie dedans (même quantité pour chaque boîte) ;
    - tu prend le même sel que tu verse à des quantité différente sur les boîtes de pétri sauf sur une boîte (boîte témoin) ainsi qu'une autre où tu met des petites billes de plastiques (boîte témoin 2) ;
    - tu les met dans un placard prévu à cet effet (protégé de la lumière directe du soleil, environnement "neutre", etc. ) ;
    - tu renseigne toutes les conditions de l'expérience (durée, sel utilisé, type de culture, les boîtes de pétri utilisé, température moyenne (?), manipulations effectuées, etc. ) ;
    - tu regardes régulièrement au fil des jours l’évolution de tes cultures ;
    - tu prends des photo régulières des boîtes ;
    - tu regarde si le sel a un effet apparent quant au développement de tes cultures.
    cool, elle vient quand l'étude sur les navigateurs?

    Citation Envoyé par Neckara Voir le message
    Non.
    Tu ne comprends pas les démarches scientifiques.
    Une corrélation n'est pas "vrai tant qu'on a pas prouvé qu'elle était fausse".
    Si tu dois utiliser une corrélation, tu dois la prouver.

    Demande à n'importe quelle personne manipulant des BDD immense comment ils font pour établir les corrélations.
    non plus, en science, tu vois un phénomène, tu essaies de reproduire le cas de figure qui a amené le phénomène de façon systématique, tu essaies d'expliquer le pourquoi du comment de la cause, si tu y arrives, tant mieux, sinon tu essaies encore ou tu passes à autre chose, mais tu connais toujours un pourcentage de chance de reproduire le phénomène.

    demande à n'importe quel taseur ou speedrunner comment ils font pour exploiter les glitches et masteriser un jeu.

    Citation Envoyé par Neckara Voir le message
    Non, x = 0 n'est en aucun cas une condition initiale.
    C'est une proposition que j'utilise sans la prouver pour te montrer le ridicule d'utiliser des corrélations non-prouvée dans un raisonnement et de demander aux détracteurs de prouver le contraire.
    C'est bien à l'étude de démontrer que x = 0 pas à ses détracteurs de démontrer que x != 0.
    sans prouver quoi, que tu as omis de considérer un cas de figure qui change toute ta conclusion?
    c'est parce que tu as pris x=0 que la suite en découle, c'est un biais mais qui n'invalide pas la suite.

    Citation Envoyé par Neckara Voir le message
    Tu mélanges tout. Le principe de précaution n'a rien à voir avec le fait de prouver si une proposition est vrai ou est fausse. Mais dès qu'un risque existe, et si la corrélation n'est ni confirmée, ni infirmée, le principe de précaution fera qu'on considérera la chose comme "dangereuse" mais la corrélation ne sera toujours ni prouvée, ni infirmée.
    mais tu considères que le risque existe et que la corrélation est dans un état qui fait que tu vas lancer une alerte, ceci dis, j'ai toujours pas de preuve que la corrélation est inexistante ...

    Citation Envoyé par Neckara Voir le message
    Ensuite, ce n'est pas à moi de prouver l'absence de corrélation entre les deux éléments mais à l'étude de prouver la corrélation entre ces éléments. Si la corrélation n'est pas prouvée, le raisonnement ne tient pas.
    la corrélation existera tant que l'alerte sera déclenchée par quelque chose qui paraitra suspect. on ne déclenche rarement une alerte quand tout va bien.
    un suspect => une alerte, mais comme on ne déclenche une alerte que si il y a une forte probabilité de trouver un suspect, il y a une forte probabilité que une alerte => un suspect.
    le seul cas ou ça n'est pas vrai ça serait le cas que dans 100% des cas tu lèves une alerte, suspect ou pas, dans ce cas seulement il y aurait 0% de trouver un suspect si on voir une alerte.

    Citation Envoyé par Neckara Voir le message
    Ensuite, je n'ai pas besoin de prouver l'absence de corrélation, juste à trouver un argument soulignant que la corrélation n'est pas évidente ce qui a déjà été faite.
    on est pas en logique avec des cas de certitude absolu, ici on a pas de méthode qui prouve à 100% qu'un site est légitime ou pas, pour ça on doit faire une étude à postériori, on charge d'abord le site, pour ensuite vérifier qu'il est sur ; là on bosse avec des techniques qui essaient de prévenir le risque tant bien que mal, que ça soit technique d'analyse du code ou réputation.
    et cette dernière méthode étant réalisée par des mimines humaines, elle porte naturellement le risque que ça ne soit pas fiable.
    et que donc il ne suffit pas d'aller bien loin pour pouvoir dire que comme il y a une interface chaise/clavier dans la chaine, il y a forcément un risque d'erreur. (et encore je n'ai pas parlé du type qui a programmé l'algo de rejet)
    le but étant d'essayer de minimiser un risque absolument incompréhensible pour le commun des mortels.

    Citation Envoyé par Neckara Voir le message
    Je te montre des exemples pour te faire comprendre le ridicule de ton raisonnement.
    et je te rétorque que c'est toujours plus facile de critiquer que de sortir quelque chose soit même.
    ton envie c'est de ne pas voir ta navigation entravée, pourtant tu aimerais surement qu'on te prévienne de comportements bizarres.
    d'autres peuvent dans ce cas très bien choisir de minimiser les risques, quitte à en payer un mal voir beaucoup le prix, mais ça, vous arrivez pas à comprendre que des gens peuvent choisir ce comportement, croyant surement à la supériorité du votre.

    Citation Envoyé par Neckara Voir le message
    Critiquer pour critiquer, ce n'est que du pinaillage ou du troll.
    ce que vous faites allègrement depuis la première page.
    vous êtes très peu à avoir sorti autre chose que : "de toute façon l'étude est biaisée, elle ne sert donc à rien".

    Citation Envoyé par Neckara Voir le message
    Critiquer un chargement de page qui va 50% plus rapidement parce que ces améliorations ne sont pas visible, c'est du troll. Cela peut être utile pour certains robots de recherches par exemple. Si tu ne trouve pas qu'une amélioration t'es utile, ce n'est pas pour autant qu'elle est inutile aux autres.
    critiquer un navigateur qui fait son possible pour éviter les sites frauduleux est potentiellement aussi utile à des gens, les gens qui passent outre les systèmes de sécurité, qui ne lise pas les conditions d'utilisations ne peuvent en prendre qu'à eux mêmes.

    Citation Envoyé par Neckara Voir le message
    Ensuite, pour le CPU/GPU, on peut demander confirmation à des membres plus expérimenté que moi dans le domaine, mais je ne pense pas que déporter les calculs graphiques du CPU vers le GPU puisse avoir des inconvénients significatifs. Et le GPU est bien plus rapide que le CPU pour les calculs graphiques.
    le gpu est une machine parallèle qui va être capable de faire plus rapidement de nombreux traitements répétitifs relativement simples.
    casse une de ces conditions et ratio gain/mise en œuvre devra être revu 2 fois avant de faire faire du taf au gpu.
    quand tu regardes bien, la mode du calcul gpu n'est finalement pas resté dans beaucoup de domaine et que l'affichage n'est généralement qu'une petite partie de ce que fait un logiciel dans son ensemble.

    Citation Envoyé par Neckara Voir le message
    Parce que ce chiffre de 10% n'intervient pas dans le cadre d'un communiqué d'étude (et n'a donc pas pour but de prouver quelque chose) mais d'être là à titre d'indicateur. Les lecteurs savent que ce chiffre va varier selon les ordinateurs mais il donne un ordre de grandeur.
    Il ne prend donc pas nécessairement ses lecteurs pour des "naïf" alors qu'il annonce une hausse des performances comme tu l'affirmais.
    les lecteurs informés peuvent tout aussi bien prendre le résultat de cette étude avec des pincettes et voir aussi que les chiffres avancés vont varier, je dirai que c'est vous qui prenez les gens pour des idiots qui vont prendre ça au pied de la lettre, et surement encore plus avec ce chiffre de 10% qui sort d'un chapeau.
    tout comme cette étude sort une différence de 70% un peu magiquement, l'amélioration de 10% est aussi magique, si tu es capable de sortir un chiffre, c'est que tu as été capable de le mesurer sinon pourquoi pas dire 5, 20, 75% si finalement le chiffre n'est un ordre de grandeur, tu peux très bien mettre n'importe quoi et surtout un truc du genre, surement plus honnête : on a changé tel algo, des gains de performance significatif seront visibles.

    Citation Envoyé par Neckara Voir le message
    Non, on a prouvé que le raisonnement de microsoft est bancal est faux. Les 10% ne sont que de moi, et là cela ne joue plus sur un raisonnement mais sur une "confiance" en la source.
    Si je poste à propos d'un de mes projets que j'utilise 10% de CPU en moins, on ne va pas aller me demander des justifications et je ne prend pas mes lecteurs pour des "naïfs".
    Ensuite, on ne croit pas microsoft "parce que c'est microsoft" ? Ou n'est-ce pas plutôt que, à l'image de cette étude, microsoft perd tout crédit ?
    non encore une fois, vous n'avez rien prouver du tout.
    et confiance envers la source n'a rien de scientifique, toi qui aimes tout prouver de manière sure et indiscutable, là bizarrement la confiance n'a rien de scientifique.

    microsoft pourrait faire quelque chose de bien que de toute façon il s'en prendrait plein la tête, faut arrêter d'être effarouché par ce qui semble être un constat.
    google dit clairement dans ces conditions que de toute façon il fait ce qu'il veut de vos données, ça n'empêche personne de continuer d'affirmer haut et fort que google est un saint.
    microsoft perdre du crédit : mais une fois de plus ce n'est qu'une interprétation, qui plus est n'est que la tienne, je ne compte plus le nombre de boites faisant des trucs que moi j'aime pas continuer à vivre, mais ce n'est que mon avis.

    je n'utilise pas internet explorer 10, je suis plutôt utilisateur de firefox, pourtant quand je vois que firefox n'a qu'un score de 10, je me demande quand même pourquoi?
    et même dans ce cas, je ne vais pas passer de si tôt à ie ; est ce que dans mon cas microsoft n'a fait que de la pub? bah non.
    chez moi microsoft n'a pas perdu de sacro saint crédit, il m'a juste montrer qu'il y avait peut être un déficit coté firefox, ile ne me reste plus qu'à aller affirmer ou infirmer ma croyance ailleurs.

    j'ai difficilement l'habitude de croire quelque chose contrairement à ce que tu as l'air de croire.

    ton projet? et alors, si tu en parles, c'est pas un peu pour faire de la pub?
    d'autant plus que si tu dis qu'il y a une amélioration, ça n'empêchera personne de te demander comment tu as réussi à obtenir cette amélioration ni même comment tu l'as calculée.
    je vois régulièrement des gens qui demandent à d'autres de tester un programme sur leur machine pour vérifier les améliorations sur d'autres configs que celle que les développeurs maitrisent.
    c'est peut être eux qui sont le moins dans le faux, faire constater le avant/après.

    Citation Envoyé par Neckara Voir le message
    Donc tu es d'accord avec moi, il n'y a donc pas de sécurité supplémentaire.
    tout comme le désactiver fera forcément tout perdre. faut peut être arrêter de soutenir systématiquement les gens qui font n'importe quoi.

    Citation Envoyé par Neckara Voir le message
    C'est une question de proportion.
    Mais il vaut mieux ne bloquer que 1% des menaces que d'avoir une technique qui aurait trop de faux-positifs rendant ainsi le dispositif inutile et ne bloquant au final 0% des menaces car l'utilisateur l'a désactivé ou l'ignore. Si je te montre un petit message à chaque action, combien de temps te faudra-t-il pour fermer ce message sans le lire complètement par habitude ?
    c'est une question de proportion : prendras tu le risque si tu te retrouve dans un process critique?
    c'est l'équivalent d'un darwin award, si systématiquement l'interface chaise/clavier décide de contourner les process ayant plus ou moins de succès, leurs efficacités tomberont à 0% sans sommation.
    et là systématiquement il se prendra les merdes, est ce que ça vaut la chandelle contre même admettons 10% de faux positifs?

  6. #26
    Expert éminent sénior Avatar de Uther
    Homme Profil pro
    Tourneur Fraiseur
    Inscrit en
    Avril 2002
    Messages
    4 559
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Pyrénées Orientales (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Tourneur Fraiseur

    Informations forums :
    Inscription : Avril 2002
    Messages : 4 559
    Points : 15 484
    Points
    15 484
    Par défaut
    J'ai l'impression que vous vous embetez a troller sur les détails de comment valider une analyse alors que dès le premiers coup d'oeil on voit d'énormes faille dans les méthodes utilisées et pas besoin d'étudier en profondeur.

    Citation Envoyé par stardeath
    microsoft pourrait faire quelque chose de bien que de toute façon il s'en prendrait plein la tête, faut arrêter d'être effarouché par ce qui semble être un constat.
    google dit clairement dans ces conditions que de toute façon il fait ce qu'il veut de vos données, ça n'empêche personne de continuer d'affirmer haut et fort que google est un saint.
    Je dirais au contraire que la mode du troll contre Microsoft est passée. Google est aujourd’hui bien plus trollé que Microsoft

    Citation Envoyé par stardeath
    chez moi microsoft n'a pas perdu de sacro saint crédit, il m'a juste montrer qu'il y avait peut être un déficit coté firefox, ile ne me reste plus qu'à aller affirmer ou infirmer ma croyance ailleurs.
    Si tu croyais que Firefox était parfait et que tu découvres qu'il peut comme les autres être victime de failles, ok.
    Sinon vu que les chiffres fournis n'ont aucune valeur, rien ne dit qu'il n'y a pas autant voire plus de déficit sur IE que Firefox

    Citation Envoyé par stardeath
    ton projet? et alors, si tu en parles, c'est pas un peu pour faire de la pub?
    d'autant plus que si tu dis qu'il y a une amélioration, ça n'empêchera personne de te demander comment tu as réussi à obtenir cette amélioration ni même comment tu l'as calculée.
    Justement en l’occurrence la liste des sites testés est faite par une société payée par Microsoft, difficile dans ce cas là d'accorder un crédit. D'autant plus qu'il s'agit de bloquage de site malicieux dont la définition peut parfois être floue. Quand Mozilla communique sur les performances de leurs moteur Javascript, ils communiquent les résultats de leur benchmark maison(Kraken) mais aussi sur ceux des benchmarks de Apple(Sunspider) et Google(Octane), c'est bien moins contestable.

    Quand au nombre de failles de sécurité, il est sans valeur car il ne prend en compte que les failles publiques, or pour Firefox et Chromium, tout le suivi de l'application est public, ce qui n'est pas le cas pour IE.

  7. #27
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 145
    Points
    23 145
    Par défaut
    Citation Envoyé par stardeath Voir le message
    et? désolé de ne pas être dans un monde manichéen où les seuls choix sont 0 ou 1, tu trouves que bloquer 1% de sites légitimes est inadmissible, je suis sur de trouver des gens pour qui laisser passer 1% de sites frauduleux l'est tout autant voir plus.
    je suis sur que si ça s'attaquait à ton compte en banque, tu changerais vite d'avis ...
    Inutile de continuer ce débat sur ce point là, tu es pire qu'un sourd. J'ai beau répéter que "bloquer 1% des sites légitimes" et "bloquer 1% des sites frauduleux" ne veut rien dire tant qu'on ne prend pas en compte le paradoxe des faux-positifs qui peut amener la désactivation du système par l'utilisateur mais tu te bornes à refuser de comprendre.
    Un système désactivé (ou ignoré) n'offre aucune protection.


    Citation Envoyé par stardeath Voir le message
    cool, elle vient quand l'étude sur les navigateurs?
    Tu m'as demandée une étude, je t'en offre une. Je ne suis pas suffisamment borné pour passer plusieurs heures à rechercher une étude existante sur les navigateur qui soit un minimum sérieuse juste pour le plaisir de prouver que j'ai raison.




    Citation Envoyé par stardeath Voir le message
    non plus, en science, tu vois un phénomène, tu essaies de reproduire le cas de figure qui a amené le phénomène de façon systématique, tu essaies d'expliquer le pourquoi du comment de la cause, si tu y arrives, tant mieux, sinon tu essaies encore ou tu passes à autre chose, mais tu connais toujours un pourcentage de chance de reproduire le phénomène.
    Tu mélange vraiment tout...
    En science il ne suffit pas d'écrire n'importe quoi puis de dire "prouves-moi le contraire".
    En science on va souvent prouver les choses de manières statistiques. On va faire des hypothèses expliquant ce phénomène. Lorsque les hypothèses auront été vérifiée par un certains nombre d'expériences, et qu'elles auront alors une probabilité d'être "vraie", on les considérera comme "vraie" car elles représentent/simplifient le "modèle réel du monde". Mais dès qu'un contre-exemple ou un cas particulier invalide la théorie, cette dernière est alors considérée comme fausse ( mais ce qui ne l'empêchera pas parfois d'être utilisée pour simplifier les calculs ).
    La science tend donc à rapprocher un "modèle théorique" d'un "modèle réel" inconnu.
    Mais on ne constitue pas ce "modèle théorique" n'importe comment et la science ne suffit pas à justifier les raisonnements biaisés.



    Citation Envoyé par stardeath Voir le message
    sans prouver quoi, que tu as omis de considérer un cas de figure qui change toute ta conclusion?
    c'est parce que tu as pris x=0 que la suite en découle, c'est un biais mais qui n'invalide pas la suite.
    Ah bon? Donc maintenant si je dit x + z + y = 0 on peut directement en conclure que z = - y ?
    Ce que j'essaye de t'expliquer c'est un raisonnement mathématique niveau seconde là !
    z = - y n'est vrai que si x = 0 mais je n'ai pas prouvé que z = -y. Si cela se trouve x = 2 ou x = 4 qu'en sais-je ?
    E = MC²
    Parce que M = 2 alors E = 2C². Et voilà comment on fait sauter des centrales nucléaires par des raisonnements biaisés




    Citation Envoyé par stardeath Voir le message
    mais tu considères que le risque existe et que la corrélation est dans un état qui fait que tu vas lancer une alerte, ceci dis, j'ai toujours pas de preuve que la corrélation est inexistante ...
    E = MC², je n'ai pas de preuve que M != 2 donc M = 2 ?
    Ne travaille surtout pas dans les centrales nucléaire



    Citation Envoyé par stardeath Voir le message
    la corrélation existera tant que l'alerte sera déclenchée par quelque chose qui paraitra suspect. on ne déclenche rarement une alerte quand tout va bien.
    Une corrélation peut exister sans être "vrai" (= "fortement corrélée").

    Citation Envoyé par stardeath Voir le message
    un suspect => une alerte, mais comme on ne déclenche une alerte que si il y a une forte probabilité de trouver un suspect, il y a une forte probabilité que une alerte => un suspect.
    le seul cas ou ça n'est pas vrai ça serait le cas que dans 100% des cas tu lèves une alerte, suspect ou pas, dans ce cas seulement il y aurait 0% de trouver un suspect si on voir une alerte.
    Mais combien de suspects sans alertes ? Les suspects sont-il tous aussi "dangereux" les uns des autres ? Les arrête-t-on avant qu'ils aient pu faire des dégâts ou à leurs n ième récidive ? Combien de suspects innocent ?
    La police arrête 10% de plus de personnes. La sécurité de la ville a augmentée ou est-ce la criminalité qui a augmenté ? A moins que la police arrête des personnes pour de moindre raisons ? etc...



    Citation Envoyé par stardeath Voir le message
    on est pas en logique avec des cas de certitude absolu, ici on a pas de méthode qui prouve à 100% qu'un site est légitime ou pas, pour ça on doit faire une étude à postériori, on charge d'abord le site, pour ensuite vérifier qu'il est sur ; là on bosse avec des techniques qui essaient de prévenir le risque tant bien que mal, que ça soit technique d'analyse du code ou réputation. et cette dernière méthode étant réalisée par des mimines humaines, elle porte naturellement le risque que ça ne soit pas fiable.
    et que donc il ne suffit pas d'aller bien loin pour pouvoir dire que comme il y a une interface chaise/clavier dans la chaine, il y a forcément un risque d'erreur. (et encore je n'ai pas parlé du type qui a programmé l'algo de rejet)
    Si le raisonnement même est biaisé, tu peux aller clamer ton résultat sur tous les toits, il n'empêchera qu'il ne vaudra rien.
    Si tu fais une étude sur le nombre d'attaque effectuées sur un site internet et que tu prend pour sujet d'étude un serveur relié à aucun réseau, tu peux dire ce que tu veux mais l'étude ne vaudra rien.

    Une corrélation "non-évidente" (= non prouvée par raisonnement logique), il faut les prouver de façon statistiques (ce que je me tue à dire) avant de les utiliser. C'est comme ça et tu n'y peux rien, cela fait partie des conditions de n'importe quelle étude un minimum sérieuse.

    Citation Envoyé par stardeath Voir le message
    et je te rétorque que c'est toujours plus facile de critiquer que de sortir quelque chose soit même.
    Et ? Ce n'est pas parce qu'on ne sort pas quelque chose soit-même que notre critique perd sa légitimité.

    Citation Envoyé par stardeath Voir le message
    ton envie c'est de ne pas voir ta navigation entravée, pourtant tu aimerais surement qu'on te prévienne de comportements bizarres.
    d'autres peuvent dans ce cas très bien choisir de minimiser les risques, quitte à en payer un mal voir beaucoup le prix, mais ça, vous arrivez pas à comprendre que des gens peuvent choisir ce comportement, croyant surement à la supériorité du votre.
    Donc on a un navigateur "sécurisé" pour les 1% des utilisateurs qui veulent voir une alerte à chaque page ?
    SuperSecure, le nouveau navigateur le plus sûr du marché ! SuperSecure éteint votre ordinateur à son lancement ! Ne craignez plus les malwares et le pishing, efficacité garantie à 100% !

    Toujours est-il que le paradoxe des faux-positifs est toujours là.
    Peut-être que pour certains 25% de chance qu'une alerte soit un faux-positif sera trop pour d'autres ce sera 99% mais il y aura toujours une limite, bien que floue, qui fera que "le prix" sera trop élevée pour intéresser l'utilisateur ce qui conduira à la désactivation du service.


    Citation Envoyé par stardeath Voir le message
    ce que vous faites allègrement depuis la première page.
    vous êtes très peu à avoir sorti autre chose que : "de toute façon l'étude est biaisée, elle ne sert donc à rien".
    Par contre un certain nombre ont montré que le raisonnement ne tenait pas avec de simples arguments.


    Citation Envoyé par stardeath Voir le message
    critiquer un navigateur qui fait son possible pour éviter les sites frauduleux est potentiellement aussi utile à des gens, les gens qui passent outre les systèmes de sécurité, qui ne lise pas les conditions d'utilisations ne peuvent en prendre qu'à eux mêmes.
    Non, c'est trop facile. Je te fais un système de sécurité qui bloque totalement l'accès à internet et si l'utilisateur le désactive, bien fait pour sa pomme.
    Après, il faudra juste me dire quel est l'intérêt d'un navigateur qui ne peut pas accéder à internet ( on va s'échanger des sites via des clés usb au lieu de donner l'URL, ce sera tout aussi sécurisé ).
    On peut aussi avoir un navigateur microsoft qui donne une alerte dès qu'on est pas sur le site de la msdn, sur bing, sur hotmail ou sur la documentation windows. Vous allez sur un autre site ? Tant pis pour vous.

    Il ne suffit pas que le système de sécurité soit "sûr", il faut aussi qu'il soit "acceptable" pour l'utilisateur (ou du moins un maximum d'utilisateurs).

    Citation Envoyé par stardeath Voir le message
    les lecteurs informés peuvent tout aussi bien prendre le résultat de cette étude avec des pincettes et voir aussi que les chiffres avancés vont varier.
    Le problème ne sont pas les chiffres de l'étude mais le raisonnement de l'étude.

    Citation Envoyé par stardeath Voir le message
    je dirai que c'est vous qui prenez les gens pour des idiots qui vont prendre ça au pied de la lettre, et surement encore plus avec ce chiffre de 10% qui sort d'un chapeau.
    En même temps pour un exemple, je n'allais pas coder une application, faire des calculs de performances et déporter certains calculs pour mesurer le gain de CPU ...''

    Citation Envoyé par stardeath Voir le message
    tout comme cette étude sort une différence de 70% un peu magiquement, l'amélioration de 10% est aussi magique, si tu es capable de sortir un chiffre, c'est que tu as été capable de le mesurer sinon pourquoi pas dire 5, 20, 75% si finalement le chiffre n'est un ordre de grandeur, tu peux très bien mettre n'importe quoi et surtout un truc du genre, surement plus honnête : on a changé tel algo, des gains de performance significatif seront visibles.
    Si je sors un 10% c'est qu'il aura été mesuré (dans la théorie de mon exemple), mais il reste un ordre de grandeur car les utilisateurs ont peu de chances de reproduire exactement les conditions des mesures (déjà au niveau matériel). "gains de performances significatif" veut tout et rien dire.
    Gain CPU ? Gain de chargement ? Gain de téléchargement ? Gain GPU ? Gain sur le temps d'exécution ?
    "significatif", cela veut dire quoi? 5%, 10 %, 20% ou 90 % ?
    Pour peu qu'on donne des informations complémentaires comme le modèle d'ordinateur utilisé, le charge CPU moyenne, l'utilisateur pourra se faire une idée plus précise de ce qu'est ce "gain de performances significatif" mais il y aura bien sûr une marge d'erreur évidente.



    Citation Envoyé par stardeath Voir le message
    non encore une fois, vous n'avez rien prouver du tout.
    et confiance envers la source n'a rien de scientifique, toi qui aimes tout prouver de manière sure et indiscutable, là bizarrement la confiance n'a rien de scientifique.
    Désolé mais on a pas tous un accélérateur à particules dans sa chambre avec des microscopes à balayage et dans le jardin une petite zone de fouille archéologique pour tout vérifier par soit-même.

    Dans la société moderne, on est obligé de faire confiance à certaines sources d'informations sans pour autant avoir une confiance aveugle et tout en jouant de son sens critique. Dans les très grandes profondeurs des mers vivent des bestioles bizarres, personnellement je n'ai pas la capacité d'aller vérifier les dire des scientifiques.

    Citation Envoyé par stardeath Voir le message
    microsoft pourrait faire quelque chose de bien que de toute façon il s'en prendrait plein la tête, faut arrêter d'être effarouché par ce qui semble être un constat.
    Un constat ? En quoi cette étude est un constat ?

    Citation Envoyé par stardeath Voir le message
    ton projet? et alors, si tu en parles, c'est pas un peu pour faire de la pub?
    Tu m'accuses de faire sciemment de la publicité ?


    Citation Envoyé par stardeath Voir le message
    d'autant plus que si tu dis qu'il y a une amélioration, ça n'empêchera personne de te demander comment tu as réussi à obtenir cette amélioration ni même comment tu l'as calculée.
    Ce qui ne m'empêchera pas de lui répondre. Mais il y a une différence entre les études et les simples calculs/mesures faites pour donner une indication. Le chiffre est là pour donner une indication sur les changements effectués, pas pour prouver et démontrer l'amélioration du logiciel.

    Citation Envoyé par stardeath Voir le message
    je vois régulièrement des gens qui demandent à d'autres de tester un programme sur leur machine pour vérifier les améliorations sur d'autres configs que celle que les développeurs maitrisent.
    c'est peut être eux qui sont le moins dans le faux, faire constater le avant/après.
    Ne t'éloigne pas du sujet.



    Citation Envoyé par stardeath Voir le message
    tout comme le désactiver fera forcément tout perdre. faut peut être arrêter de soutenir systématiquement les gens qui font n'importe quoi.
    Les utilisateurs feraient n'importe quoi? N'est-ce pas plutôt les concepteurs qui ont fait n'importe quoi en mettant en place un système trop restrictifs et inacceptable pour les utilisateurs ?



    Citation Envoyé par stardeath Voir le message
    c'est une question de proportion : prendras tu le risque si tu te retrouve dans un process critique?
    D'où la nécessiter d'avoir des chiffres supplémentaires (nombre de faux positifs) pour évaluer cette proportion ! Plus le nombre de faux-positifs sera élevé, plus le système sera inintéressant et inefficace (dépendant aussi d'autres paramètres). Tu connais l'histoire de "Pierre et le Loup" ?

    Si dans un établissement l'alarme sonne en permanence pour des faux-positifs, très vite les personnes deviendront sourdes et n'entendront plus rien il n'y aura plus aucun moyen d'avertir d'une réelle menace.


    Citation Envoyé par stardeath Voir le message
    c'est l'équivalent d'un darwin award, si systématiquement l'interface chaise/clavier décide de contourner les process ayant plus ou moins de succès, leurs efficacités tomberont à 0% sans sommation.
    et là systématiquement il se prendra les merdes, est ce que ça vaut la chandelle contre même admettons 10% de faux positifs?
    Oui, elle peut être prévoyante et se mettre un sac plastique pour se protéger des abeilles, elle ne craindra pas la fumée, ni les piqûres, elle mourra juste étouffée (moi aussi je lis les dawin arward).

    EDIT : Sinon je ne peux qu'approuver les propos d'Uther et je pense m'arrêter là dans ce débat, je pense avoir dit ce que j'avais à dire et je n'ai pas le temps de passer 2heure à rédiger d'aussi longues réponses

  8. #28
    Expert confirmé

    Profil pro
    Inscrit en
    Février 2006
    Messages
    2 382
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Février 2006
    Messages : 2 382
    Points : 4 943
    Points
    4 943
    Par défaut
    bien sur que vous avez besoin de 2h pour répondre, il n'y a aucune preuve dans ce que vous avancez ...

    la seule chose que vous montrez c'est que seule votre vision compte : "alala j'ai 10% de mes sites bloqués parce que il y a une possible suspicion, c'est totalement admissible"

    je me demande qui est le plus borné : vous qui n'avez absolument rien creusé ou même essayé d'en tirer quelque chose, ou moi qui regarde si il n'y a pas quelque chosede tangible et ça même si finalement il n'y a rien.

    Citation Envoyé par Uther
    Si tu croyais que Firefox était parfait et que tu découvres qu'il peut comme les autres être victime de failles, ok.
    Sinon vu que les chiffres fournis n'ont aucune valeur, rien ne dit qu'il n'y a pas autant voire plus de déficit sur IE que Firefox
    c'est ce que je me tue à répéter, non rien ne dit que firefox est pire, mais on croirait que ça va tuer des gens d'essayer d'approfondir le truc.
    à moins qu'on ne peut plus avoir un esprit critique sur les produits qu'on préfère?

    il y a un point que vous avez l'air non plus de pas comprendre, je ne prend pas pour vérité les propos de microsoft, pas plus que google ou mozilla, mais là crosoft sort une étude, parfaitement discutable, que la concurrence pourrait copier pour montrer le contraire (comme j'ai déjà dit, si c'était si fallacieux et mensonger, la concurrence serait déjà monter au créneau) et la seule chose que vous trouvez à dire c'est que ce n'est que de la pub?

    Citation Envoyé par Neckara
    Inutile de continuer ce débat sur ce point là, tu es pire qu'un sourd. J'ai beau répéter que "bloquer 1% des sites légitimes" et "bloquer 1% des sites frauduleux" ne veut rien dire tant qu'on ne prend pas en compte le paradoxe des faux-positifs qui peut amener la désactivation du système par l'utilisateur mais tu te bornes à refuser de comprendre.
    Un système désactivé (ou ignoré) n'offre aucune protection.
    le paradoxe des faux positifs est un paradoxe qui devient stupide si l'utilisateur est aussi stupide. et encore une fois pourquoi considères tu que seule TA vision est correcte, des gens sont prêts à sacrifier un peu leur navigation pour avoir potentiellement un peu plus de sécurité.

    Citation Envoyé par Neckara
    Un système désactivé (ou ignoré) n'offre aucune protection.
    ça sert à rien de répéter ce que j'ai dit.

    toute ton argumentation tient sur le seul fait que ta vision ferait foi, moi au contraire peu comprendre que des gens veulent diminuer les risques, quitte à perdre en confort.
    et j'ai toujours quelque peu du mal à comprendre ceux qui contournent la sécurité mais qui oseront quand même se plaindre, je me demande vraiment QUI est sourd ...

Discussions similaires

  1. Réponses: 12
    Dernier message: 14/06/2013, 11h03
  2. Réponses: 34
    Dernier message: 24/01/2011, 10h02
  3. Réponses: 30
    Dernier message: 20/07/2009, 15h35
  4. Réponses: 0
    Dernier message: 16/07/2009, 16h49
  5. [IE 8] Internet Explorer 8, plus rapide que Firefox, Google Chrome
    Par Jean-Baptiste Su dans le forum IE
    Réponses: 31
    Dernier message: 19/06/2009, 12h14

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo