Bonjour
J'ai besoin de votre aide, j'ai jamais programmé en Perl et je dois faire un programme en perl qui récupère une page web et qui extrait tout les lien qu'elle contient.
Merci pour votre aide.
Bonjour
J'ai besoin de votre aide, j'ai jamais programmé en Perl et je dois faire un programme en perl qui récupère une page web et qui extrait tout les lien qu'elle contient.
Merci pour votre aide.
je pense avoir trouvé comment récupérer une page web.
my $content = get( "http://www.mapage.com" . shift );
Par contre je sais pas comment je pourrais analyser son contenu pour en extraire les liens.
Tu pourrais utiliser un module comme HTML::LinkExtor.
--
Jedaï
Tiens, j'ai eu le même besoin, il y a quelques mois, et j'avais fais un script pour ça. Tu peux toujours y jeter un oeil, même si je m'aperçois maintenant grâce à Jedaï que cela revient à réinventer la roue puisque HTML::LinkExtor fait ça tout seul – et qu'en plus c'est une extension de HTML:arser : que demander de plus.
ça serait pas un devoir que tu as à faire???
Pour aller à la pêche à la page web, lire "Comment faire un client HTTP ?" :
http://www.alianwebserver.com/inform...#get_file_http
Il suffit ensuite de triturer la variable $res->content de l'exemple qui contient le source de la page avec une expression régulière qui va bien.
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager