IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Web Perl Discussion :

Récupération de page web


Sujet :

Web Perl

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Candidat au Club
    Inscrit en
    Décembre 2007
    Messages
    3
    Détails du profil
    Informations forums :
    Inscription : Décembre 2007
    Messages : 3
    Par défaut Récupération de page web
    Bonjour

    J'ai besoin de votre aide, j'ai jamais programmé en Perl et je dois faire un programme en perl qui récupère une page web et qui extrait tout les lien qu'elle contient.

    Merci pour votre aide.

  2. #2
    Candidat au Club
    Inscrit en
    Décembre 2007
    Messages
    3
    Détails du profil
    Informations forums :
    Inscription : Décembre 2007
    Messages : 3
    Par défaut
    je pense avoir trouvé comment récupérer une page web.

    my $content = get( "http://www.mapage.com" . shift );

    Par contre je sais pas comment je pourrais analyser son contenu pour en extraire les liens.

  3. #3
    Expert confirmé
    Avatar de Jedai
    Homme Profil pro
    Enseignant
    Inscrit en
    Avril 2003
    Messages
    6 245
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Côte d'Or (Bourgogne)

    Informations professionnelles :
    Activité : Enseignant

    Informations forums :
    Inscription : Avril 2003
    Messages : 6 245
    Par défaut
    Tu pourrais utiliser un module comme HTML::LinkExtor.

    --
    Jedaï

  4. #4
    Membre chevronné Avatar de iblis
    Inscrit en
    Janvier 2007
    Messages
    510
    Détails du profil
    Informations personnelles :
    Âge : 58

    Informations forums :
    Inscription : Janvier 2007
    Messages : 510
    Par défaut
    Tiens, j'ai eu le même besoin, il y a quelques mois, et j'avais fais un script pour ça. Tu peux toujours y jeter un oeil, même si je m'aperçois maintenant grâce à Jedaï que cela revient à réinventer la roue puisque HTML::LinkExtor fait ça tout seul – et qu'en plus c'est une extension de HTML:arser : que demander de plus.

  5. #5
    Nouveau candidat au Club
    Profil pro
    Inscrit en
    Janvier 2008
    Messages
    2
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Janvier 2008
    Messages : 2
    Par défaut
    ça serait pas un devoir que tu as à faire???

  6. #6
    Nouveau membre du Club
    Profil pro
    Inscrit en
    Juin 2008
    Messages
    7
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2008
    Messages : 7
    Par défaut
    Pour aller à la pêche à la page web, lire "Comment faire un client HTTP ?" :
    http://www.alianwebserver.com/inform...#get_file_http

    Il suffit ensuite de triturer la variable $res->content de l'exemple qui contient le source de la page avec une expression régulière qui va bien.

Discussions similaires

  1. Récupération infos pages web
    Par zworg dans le forum Web & réseau
    Réponses: 1
    Dernier message: 06/03/2009, 08h45
  2. Récupération de page Web
    Par kalash_jako dans le forum Entrée/Sortie
    Réponses: 3
    Dernier message: 09/10/2006, 18h21
  3. Réponses: 1
    Dernier message: 07/08/2006, 06h08
  4. Réponses: 3
    Dernier message: 27/04/2006, 14h23
  5. [Réseau]Récupération de page Web
    Par n1c0las dans le forum Entrée/Sortie
    Réponses: 4
    Dernier message: 27/03/2004, 18h15

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo