Nous utilisons Apache. Pour certains la securité se limité :
Aux directives :
La première protège l'acces aux fichiers du repertoire racine de notre site.
Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16 <Directory /> Options FollowSymLinks AllowOverride None Order deny,allow Deny from all Satisfy all </Directory> <Directory "C:/wamp/www"> AllowOverride all Options Indexes FollowSymLinks Order Deny,Allow Deny from all Allow from All </Directory>
La deuxième permet aux internautes de consulter via http le contenu du repertoire "C:/wamp/www" ce qui n'empêche pas d'aspirer le contenu de tout ce repertoire.
Pour proteger la consultation du contenu de ce repertoire nous utilisons les fichiers .htacess afin d'obliger une personne voulons consulter une page de notre repertoire de saisir un login et un mot mot passe sauvegardés dans .htpasswp.
On se protège de l'aspiration du contenu en intégrant un petit script dans le fichier .htacces, detectant les noms des logiciels d'apiration connus et on les empechant le téléchargement du contenu. C'est la seule methode que je connais.
Qu'en 'est il d'une aspiration executée depuis un logiciel inconnu par l'administrateur Apache d'un site web ?
Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24 RewriteEngine on RewriteCond %{HTTP_USER_AGENT} ^-?$ [OR] RewriteCond %{HTTP_USER_AGENT} Advanced\ Email\ Extractor [OR] RewriteCond %{HTTP_USER_AGENT} almaden [NC,OR] RewriteCond %{HTTP_USER_AGENT} @nonymouse [OR] RewriteCond %{HTTP_USER_AGENT} Art-Online [OR] RewriteCond %{HTTP_USER_AGENT} CherryPicker [OR] RewriteCond %{HTTP_USER_AGENT} Crescent\ Internet\ ToolPack [OR] RewriteCond %{HTTP_USER_AGENT} DirectUpdate [OR] RewriteCond %{HTTP_USER_AGENT} Download\ Accelerator [OR] RewriteCond %{HTTP_USER_AGENT} eCatch [OR] RewriteCond %{HTTP_USER_AGENT} echo\ extense [OR] RewriteCond %{HTTP_USER_AGENT} EmailCollector [OR] RewriteCond %{HTTP_USER_AGENT} EmailWolf [OR] RewriteCond %{HTTP_USER_AGENT} ExtractorPro [OR] RewriteCond %{HTTP_USER_AGENT} Fetch\ API\ Request [OR] RewriteCond %{HTTP_USER_AGENT} flashget [NC,OR] RewriteCond %{HTTP_USER_AGENT} frontpage [NC,OR] RewriteCond %{HTTP_USER_AGENT} Go!Zilla [OR] . . . RewriteRule ^.*$ http://www.autre_site.com [R,L]
Existe t-il une autre méthode contre l'aspiration ??
Par exemple je peux créer avec les languages de programmation un aspirateur perso inconnu à tous.
Partager