Bonjour,

j'essaye de créer un aspirateur de pages web, j'utilise le langage C et des sockets, j'arrive a télécharger une page avec le protocol HTTP 1.0.

Mais j'ai besoin d'utiliser HTTP 1.1 pour gérer les connexions persistantes et donc de n'être pas obligé de déconnecter la socket proprement et la re-connecter à chaque nouvelle requete http.

Mais j'ai un problème, en effet lorsque les pages sont encodés (transfert-encoding : chunked dans les headers HTTP), je suis obligé d'analyser les données recu, de lire morceaux par morceaux les données recus (comme décrit par la RFC 2616 (http://www.faqs.org/rfcs/rfc2616.html)), chose que je n'arrive pas a faire.

Si quelqu'un avait un algorithme ou mieux, une implémentation en C ou C++.

Si je ne lis par correctement les données, j'aurais quand meme toute les données que je souhaite, mais je suis déconnecté du serveur à la fin et je suis donc obligé de me reconnecter derrière pour télécharger une autre page, et en plus la deconnection ne se fait pas instantannément mais prend plusieurs secondes. Bref je n'ai pas trop le choix.

Il doit bien avoir des exemples quelque-part, après tout c'est comme ca que marche mozilla & co, avec les connexions persistantes, donc ca doit etre relativement connu.

Merci beaucoup si quelqu'un a déja à des idées.