Salut j'ai besoin d'utiliser WWW::RobotRules dans un script mais je comprend pas comment il marche exactement j'ai testé plein de soluce et je n'arrive a rien , le mieux que je suis arrivé a faire c'est




Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
#!/usr/bin/perl -w
use strict;
 
 
   my @site = ("http://clubic.com/robots.txt"); 
 
      @site = robots(@site)
 
 
   sub robots 
   { 
   use WWW::RobotRules; 
   my $rules = WWW::RobotRules->new('Mozilla/5.0 (compatible)'); 
   use LWP::Simple qw(get); 
 
   {
   foreach $resultat( @_ ) {
   my $robots_txt = get $resultat; 
    $rules->parse($resultat, $robots_txt) if defined $robots_txt; 
  }
 
 
}
Et la catastrophe je sais pas comment récupérer la sortie du programme tout ce que j'ai tenté me sort Hash:?????????

De plus j'ai encore un prb avec ce module il ne sort que les lien Allow hors certain fichiers robots.txt ne comporte que des Disallow

User-agent: *
Disallow: /s/infoprix.php
Disallow: /s/infoprix_2.php
Disallow: /shopper/infoprix_2.php
De même auriez vous une solution pour retaper les url parce que

/s/infoprix.php c'est moins exploitable que htp://clubic.com/s/infoprix.php ou un exemple de sctipt complet avec robotrules parce que je sèche lamentablement.