Bonjour,
Je sais que c'est impossible de protéger complètement un site contre les scraper / crawler.
Mais d'après vous quels sont les méthodes qui permettent de compliqué le plus possible la récupération de données ?
Merci à vous
Bonjour,
Je sais que c'est impossible de protéger complètement un site contre les scraper / crawler.
Mais d'après vous quels sont les méthodes qui permettent de compliqué le plus possible la récupération de données ?
Merci à vous
Bonjour,
Pour éviter cela il faut au minimum :
- faire des mises à jour régulières (apache, CMS, BDD, ...) ;
- supprimer les fichiers Install.php des CMS une fois le CMS installé ;
- toujours vérifier les données entrées par les utilisateurs (cf injections SQL, utilisation de la fonction system avec PHP ) ;
- utiliser un bon mot de passe administrateur ;
- éviter de laisser ses sessions ouvertes dans des lieux publics ;
- rendre inaccessible les fichiers qui les utilisateurs ne doivent pas voir (.htaccess, droits sur les fichiers, etc. ).
Pour éviter la "récupération de données" accessibles au public, on ne peut malheureusement pas faire grand chose.
En revanche, pour ralentir certains robots malveillants, certaines personnes tentent de les "flooder" en les envoyant sur de fausses pages (générées aléatoirement) contenant de fausses adresses mails.
Merci pour votre réponse.
Même avec des méthode ajax ou crypter les pages ? Cela ne les ralentit pas ?
Le flood OK, mais ca sera la même chose pour les visiteurs, ce qui n'est pas très pro..., non ?
"crypter les pages" ?
Pour l'AJAX, je pense que cela dépendra du robot utilisé.
Je pense que le plus efficace reste tout de même d'utiliser des adresses mails "poubelles" ou de se créer des règles anti-spam dans sa boîte mail.
Une autre solution est d'avoir, au lieu d'afficher les adresses mails, des formulaires pour contacter une personne.
Les robots vont souvent lire le code source de la page, il est alors possible de "cacher" des liens (display:none) ou d'afficher une petite icône/lien url "honey pot" avec une courte description/texte au survol.Le flood OK, mais ca sera la même chose pour les visiteurs, ce qui n'est pas très pro..., non ?
mes infos a cacher ne sont pas des adresse email.
Sinon, j'ai vu des scripts js qui était crypter par un algorithme comme ceux utiliser pour les adresses emails.
Ah pas mal pour le lien cacher, je vais voir cela, et des pages qui tourne en boucles....mmmm
Que veux-tu cacher comme information alors
Après, quitte à "crypter", autant passer par des session https.
En passant en https, on ne cache pas la source html ?
je souhaite masquer les information relative a des adresses et des info particulière d’entreprises. On créé une sorte d'annuaire, seulement il est simple pour des concurrents de récupérer ces infos. Je souhaite tout simplement les démotiver à pomper.
Si votre annuaire est public, je vois mal comment vous pourriez le empêcher de pomper.
De toute façon, ils pourront très bien consulté cet annuaire quand l'envie leur prendra.
Bien sur, le but est de générer des visiteurs mais pas qu'un concurrent par un robot récupère ces données pour son propre site. D'ou la question sur la manière de compliquer la récupération via des robots.
Peut-être en utilisant des mesures anti-spam.
N'autoriser que les utilisateurs ayant un compte par exemple et détecter et bloquer des "comportements suspects".
Mais après, je pense que vous perdrez plus de temps à protéger ces données que les concurrents pour accéder à vos données via des robots.
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager