Bonjour,

Je suis en train de créer un petit moteur de recherche (a ma connaissance différent dans le fonctionnement des moteurs de recherche qui existent), et j'ai donc besoin de récupérer le contenu de documents (pages html ou autres) sur le web. J'utilise pour l'instant file_get_contents() de php, mais avec cette fonction je n'arrive qu'a récupérer 100-150 pages en 30 secondes.
J'aimerais savoir s'il existe un moyen de récupérer plus rapidement le contenu de pages internet, ou si la vitesse de récupération est tout simplement limitée par le temps de réponse des serveurs à qui je demande les pages...
Je précise que le traitement en php de chaque page une fois récupérée prend un temps négligeable devant le temps mis pour les récupérer.