IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Sécurité Discussion :

Se protéger un maximum des crawler et autres scraper !


Sujet :

Sécurité

  1. #1
    Membre régulier
    Avatar de madvic
    Homme Profil pro
    Inscrit en
    Mai 2003
    Messages
    101
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Deux Sèvres (Poitou Charente)

    Informations forums :
    Inscription : Mai 2003
    Messages : 101
    Points : 92
    Points
    92
    Par défaut Se protéger un maximum des crawler et autres scraper !
    Bonjour,
    Je sais que c'est impossible de protéger complètement un site contre les scraper / crawler.
    Mais d'après vous quels sont les méthodes qui permettent de compliqué le plus possible la récupération de données ?

    Merci à vous

  2. #2
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 145
    Points
    23 145
    Par défaut
    Bonjour,

    Pour éviter cela il faut au minimum :
    - faire des mises à jour régulières (apache, CMS, BDD, ...) ;
    - supprimer les fichiers Install.php des CMS une fois le CMS installé ;
    - toujours vérifier les données entrées par les utilisateurs (cf injections SQL, utilisation de la fonction system avec PHP ) ;
    - utiliser un bon mot de passe administrateur ;
    - éviter de laisser ses sessions ouvertes dans des lieux publics ;
    - rendre inaccessible les fichiers qui les utilisateurs ne doivent pas voir (.htaccess, droits sur les fichiers, etc. ).

    Pour éviter la "récupération de données" accessibles au public, on ne peut malheureusement pas faire grand chose.
    En revanche, pour ralentir certains robots malveillants, certaines personnes tentent de les "flooder" en les envoyant sur de fausses pages (générées aléatoirement) contenant de fausses adresses mails.

  3. #3
    Membre régulier
    Avatar de madvic
    Homme Profil pro
    Inscrit en
    Mai 2003
    Messages
    101
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Deux Sèvres (Poitou Charente)

    Informations forums :
    Inscription : Mai 2003
    Messages : 101
    Points : 92
    Points
    92
    Par défaut
    Merci pour votre réponse.

    Même avec des méthode ajax ou crypter les pages ? Cela ne les ralentit pas ?
    Le flood OK, mais ca sera la même chose pour les visiteurs, ce qui n'est pas très pro..., non ?

  4. #4
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 145
    Points
    23 145
    Par défaut
    Citation Envoyé par madvic Voir le message
    Même avec des méthode ajax ou crypter les pages ? Cela ne les ralentit pas ?
    "crypter les pages" ?
    Pour l'AJAX, je pense que cela dépendra du robot utilisé.

    Je pense que le plus efficace reste tout de même d'utiliser des adresses mails "poubelles" ou de se créer des règles anti-spam dans sa boîte mail.

    Une autre solution est d'avoir, au lieu d'afficher les adresses mails, des formulaires pour contacter une personne.

    Le flood OK, mais ca sera la même chose pour les visiteurs, ce qui n'est pas très pro..., non ?
    Les robots vont souvent lire le code source de la page, il est alors possible de "cacher" des liens (display:none) ou d'afficher une petite icône/lien url "honey pot" avec une courte description/texte au survol.

  5. #5
    Membre régulier
    Avatar de madvic
    Homme Profil pro
    Inscrit en
    Mai 2003
    Messages
    101
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Deux Sèvres (Poitou Charente)

    Informations forums :
    Inscription : Mai 2003
    Messages : 101
    Points : 92
    Points
    92
    Par défaut
    mes infos a cacher ne sont pas des adresse email.

    Sinon, j'ai vu des scripts js qui était crypter par un algorithme comme ceux utiliser pour les adresses emails.


    Ah pas mal pour le lien cacher, je vais voir cela, et des pages qui tourne en boucles....mmmm

  6. #6
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 145
    Points
    23 145
    Par défaut
    Que veux-tu cacher comme information alors

    Après, quitte à "crypter", autant passer par des session https.

  7. #7
    Membre régulier
    Avatar de madvic
    Homme Profil pro
    Inscrit en
    Mai 2003
    Messages
    101
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Deux Sèvres (Poitou Charente)

    Informations forums :
    Inscription : Mai 2003
    Messages : 101
    Points : 92
    Points
    92
    Par défaut
    En passant en https, on ne cache pas la source html ?

    je souhaite masquer les information relative a des adresses et des info particulière d’entreprises. On créé une sorte d'annuaire, seulement il est simple pour des concurrents de récupérer ces infos. Je souhaite tout simplement les démotiver à pomper.

  8. #8
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 145
    Points
    23 145
    Par défaut
    Si votre annuaire est public, je vois mal comment vous pourriez le empêcher de pomper.

    De toute façon, ils pourront très bien consulté cet annuaire quand l'envie leur prendra.

  9. #9
    Membre régulier
    Avatar de madvic
    Homme Profil pro
    Inscrit en
    Mai 2003
    Messages
    101
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Deux Sèvres (Poitou Charente)

    Informations forums :
    Inscription : Mai 2003
    Messages : 101
    Points : 92
    Points
    92
    Par défaut
    Bien sur, le but est de générer des visiteurs mais pas qu'un concurrent par un robot récupère ces données pour son propre site. D'ou la question sur la manière de compliquer la récupération via des robots.

  10. #10
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 145
    Points
    23 145
    Par défaut
    Peut-être en utilisant des mesures anti-spam.

    N'autoriser que les utilisateurs ayant un compte par exemple et détecter et bloquer des "comportements suspects".

    Mais après, je pense que vous perdrez plus de temps à protéger ces données que les concurrents pour accéder à vos données via des robots.

  11. #11
    Membre régulier
    Avatar de madvic
    Homme Profil pro
    Inscrit en
    Mai 2003
    Messages
    101
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Deux Sèvres (Poitou Charente)

    Informations forums :
    Inscription : Mai 2003
    Messages : 101
    Points : 92
    Points
    92
    Par défaut
    Merci pour vos réponses.

Discussions similaires

  1. Réponses: 21
    Dernier message: 20/06/2009, 03h40
  2. Réponses: 38
    Dernier message: 22/07/2005, 08h30
  3. Réponses: 11
    Dernier message: 13/06/2005, 13h23
  4. protéger les images des internautes ?
    Par WBO dans le forum Balisage (X)HTML et validation W3C
    Réponses: 7
    Dernier message: 17/05/2005, 17h14
  5. taille des 'pages' et autres questions
    Par Equus dans le forum Débuter
    Réponses: 2
    Dernier message: 04/03/2005, 09h50

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo