Bonjour,
Je cherche à récupérer la liste des fichiers présent a une URL par exemple www.google.com/
pour cela j'aimerai utilisé libcurl le probleme est que n'arrive pas à lister
merci jérémy
Bonjour,
Je cherche à récupérer la liste des fichiers présent a une URL par exemple www.google.com/
pour cela j'aimerai utilisé libcurl le probleme est que n'arrive pas à lister
merci jérémy
Rien ne se perd, rien ne se crée, tout se transforme
------- -------
D'aprés ce que je sais de curl (valable pour libcurl ?), il ne fait que récupérer une page HTML. Il te restes à scanner le code HTML pour extraire les liens.
Pour cela recherche google sur W3C
Avant de poster un message .
Quand vous avez la réponse à votre question, n'oubliez pas de cliquer sur .
Bien le bonjour,
Avec libcurl tu vas aller interroger une adresse web et tu vas récupérer le résultat en html. Donc, si jamais tu comptais lister un répertoire derrière un index.htm, c'est foutu.
Quand tu tombes sur une pages n'ayant pas d'index.htm ni index.php ni aucune page à interprêter par défaut, le serveur web te renvoie le listing du répertoire. Et ce listing est renvoyé sous la forme d'une page html. Le format de cette page html n'est pas toujours le même. Mais en gros tu auras toujours une <ul> qui contient des <li> qui contiennent des <a>
Il faut donc que tu fasses de l'analyse de chaine de caractères. Et pour ça, je doute que libcurl puisse t'aider.
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager