IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Langage Perl Discussion :

Erreur Deep recursion et de conso ram :(


Sujet :

Langage Perl

  1. #1
    Membre actif Avatar de mobscene
    Profil pro
    Inscrit en
    Avril 2005
    Messages
    331
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Avril 2005
    Messages : 331
    Points : 234
    Points
    234
    Par défaut Erreur Deep recursion et de conso ram :(
    Bonjour, j'ai récupéré un robot sur le forum je l'ai un peu arrangé a ma sauce en faisant le ménage dans le code.

    Mon problème est une consommation mémoire excessive, le spider prend de plus en plus de ram , il est sans limite.

    voici le code du robot en question
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    55
    56
    57
    58
    59
    60
    61
    62
    63
    64
    65
    66
    67
    68
    69
    70
    71
    72
    73
    74
    75
    76
    77
    78
    79
    80
    81
    82
    83
    84
    85
    86
    87
    88
    89
    90
    91
    92
    93
    94
    95
    96
    97
    98
    99
    100
    101
    102
    103
    104
    105
    106
    107
    108
    109
    110
    111
    112
    113
    114
    115
    116
    117
    118
    119
    120
    121
    122
    123
    124
    125
    126
    127
    128
    129
    130
    131
    132
    133
    134
    135
    136
    137
    138
    139
    140
    141
    142
    143
    144
    145
    146
    147
    148
     
    #!/usr/bin/perl -w
    use strict;
    use URI::URL;
    use HTTP::Request;
    use HTTP::Cookies;
    use HTML::LinkExtor;
    use HTTP::Response;
    require LWP::UserAgent;
     
     # Ce robot est basé sur celui de Scaleo et Jedai
     # Code d'origine => http://<a href="http://www.developpez.net/forums/viewforum.php?f=83&sid=5f0e64c5db31ac7284b52f7530e0e2b3" target="_blank">http://www.developpez.net/forums/vie...b52f7530e0e2b3</a>
     
    #===========================================================================#
    #                          Début de la configuraton                         #
    #===========================================================================#
     
    $| = 1;
    my @web;
     
    my $VERSION = "RoBot-Exprerimental/0.1";
     
    my $ua = LWP::UserAgent->new;
       $ua->agent('Mozilla/5.0 (compatible; RoBot-Exprerimental/0.1)');
       $ua->timeout(2);
       $ua->protocols_allowed( [ 'http' ] );
       $ua->protocols_forbidden( [ 'file', 'mailto', 'https', 'ftp', 'socks', 'gopher', 'wais' ] );
     
    my $cookie_jar = HTTP::Cookies->new(
        file => 'robot_cookies.dat',
        autosave => 1,
      );
     
       $ua->cookie_jar($cookie_jar);
     
     
     
    #===========================================================================#
    #                               Log d'erreurs                               #
    #===========================================================================#
     
    BEGIN {
     
         use CGI::Carp qw(carpout);
         open(LOG, ">>/robots.log")
         or die "Unable to append to robots.log : $!\n";
         carpout(*LOG);
    }
     
     
    #===========================================================================#
    #                               Le robot                                    #
    #===========================================================================#
     
     robot(@ARGV);
     
    {
      my %vus;
      my @avoir;
     
    sub robot
    {
     foreach my $url ( @_ )
     {
      next if defined $vus{$url};
      push(@avoir, $url);
     }
      return if $#avoir == -1;
     
     while (my $link = shift @avoir) {
     
      ++$vus{$link};
       my $verif_links = verif_link_format($link);
     
       if ( $verif_links == 1 ) {
     
            my $req = HTTP::Request->new('GET', $link);
     
               $req->header('Accept' => [ qw( text/html ) ] );
     
         my $res = $ua->request($req);
     
     
             if ($res->is_success) {
     
                 my ($code, $base, $content_type);
     
                     $code = $res->content;
     
                     $base = $res->base;
     
                     $content_type = $res->content_type;
     
                         print "$code\n";
                         print "$link\n";
                         print "$content_type\n"; 
     
                my $p = HTML::LinkExtor->new(\&callback);
     
                   $p->utf8_mode;  
     
                   $p->parse($code);
     
                         @web = map { $_ = url($_, $base)->abs; } @web;
     
              robot(@web);         
     
         }
        }
       }
     }
    }
     
     
     
    #===========================================================================#
    #                             Extraction des liens                          #
    #===========================================================================#
     
    sub callback {
         my($tag, %attr) = @_;
         return if $tag ne 'a';
         push(@web, values %attr);
    }
     
     
     
    #===========================================================================#
    #                       Verification du format des liens                    #
    #===========================================================================#
     
    sub verif_link_format
    {
     foreach my $link_format ( @_ )
     {
       if ( $link_format =~ m!^http://[_a-zA-Z0-9-]+\.[_a-zA-Z0-9-]+[.a-zA-Z0-9-]*(/~|/?)[/_.a-zA-Z0-9#?&=+-]*$!i) {
     
         return 1;
     
       }
        else
       {
     
         return 0;
     
       }
     }
    }
    J'ai aussie un autre problème qui est LWP::RobotUA quand je l'utilise a la place de LWP::UserAgent le spider devient super lent , pourtant je le parametre bien comme il faut.

    mici de vos réponses !!!!

  2. #2
    Membre actif Avatar de mobscene
    Profil pro
    Inscrit en
    Avril 2005
    Messages
    331
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Avril 2005
    Messages : 331
    Points : 234
    Points
    234
    Par défaut
    personne ne veut m'aider .

    J'ai un petit probleme que je ne m'explique pas j'ai changer la fonction qui permet de garantire l'unicité des liens par quelque chose de plus solide en Sql mais malgré que logiquement tout semble bon ben le robot produit des doublons

    voici le code

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
     
    sub robot
    {
     foreach my $url ( @_ )
     {
      my $verif_links = verif_link_format($url);
      if ( $verif_links == 1 ) {
          my $defined = sql_read($url);  #0 = introuvable, 1 = trouvé
      if ( $defined == 0 ) {
      push(@avoir, $url);
       }
        else {
         print "Link alreaday spidered\n";
       }
      }
       else {
       print "Bad link\n";
      }
     }
      return if $#avoir == -1;
     
     
     #while (my $link = shift @avoir) {
     
     #  ++$vus{$link};
      for (my $link = shift @avoir ) {
     
     
    [...]
     
     
    }
     
    sub sql_read {
     my $mssql = shift;
       my $find; 
       my $sth = $dbh->prepare(" SELECT count(link) FROM content WHERE link=? ");
          $sth->execute($mssql); 
          $sth->bind_columns(\$find); 
       $sth->fetch(); 
       $sth->finish(); 
     return $find; 
    }
    Please Help mici

  3. #3
    Membre actif Avatar de mobscene
    Profil pro
    Inscrit en
    Avril 2005
    Messages
    331
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Avril 2005
    Messages : 331
    Points : 234
    Points
    234
    Par défaut
    J'ai laissé tourner le bot pour avoir un log d'erreur digne de ce nom , j'ai l'erreur
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    Deep recursion on subroutine robot
    j'ai trouvé l'explication suivante sur le net


    W) Ce sous-programme s'est appelé lui-même (directement ou indirectement) 100 fois plus de fois qu'il a retourné une valeur. Cela indique probablement une récursion infinie, à moins que vous n'écriviez un étrange programme de benchmark, dans ce cas cela indique quelque chose d'autre.
    Après pas mal d'essaie , je n'est pas réussie a trouver de solution .

    A l'aide

+ Répondre à la discussion
Cette discussion est résolue.

Discussions similaires

  1. [Débutant] ERREUR Maximum recursion limit of 500 reached
    Par ayoub haouari dans le forum MATLAB
    Réponses: 1
    Dernier message: 22/12/2013, 21h53
  2. ERREUR Maximum recursion limit of 500 reached
    Par mounabs dans le forum MATLAB
    Réponses: 8
    Dernier message: 14/08/2011, 23h31
  3. Erreur 04030, Oracle 8i avec assez de RAM
    Par julien20vt dans le forum Administration
    Réponses: 5
    Dernier message: 08/02/2008, 17h04
  4. Message d'erreur après ajout de Ram
    Par Thrystan dans le forum Composants
    Réponses: 5
    Dernier message: 04/07/2007, 00h47
  5. Probleme avec Make -->[all-recursive] Erreur 1
    Par lolodelp dans le forum Installation
    Réponses: 3
    Dernier message: 18/04/2006, 23h41

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo