Bonjours à toutes et à tous,
Après plusieurs jours de recherches infructueuses, je viens vous solliciter pour un problème un peu bizarre...
Objectif : récupération du contenue de pages Web depuis plusieurs sites différents pour en extraire les informations souhaitées.
Méthode utilisée : file_get_contents ou cURL
Lors de mon premier test, celui-ci se basait sur 3 URL et avec la fonction file_get_contents (puis en cURL par la suite) de PHP.
Sur mes environnements de développements / Tests, le fonctionnement est correcte.
Là où ça devient devient bizarre, c'est qu'à partir du moment où je transfert le code sur des environnements de recettes, le code "ne fonctionne plus" que pour un seul des trois sites testés.
Quand je dis que le code "ne fonctionne plus", c'est surtout que la fonction file_get_contents, ou cURL, se met en TimeOut (à peine 2500 caractères récupérés en 10 secondes et même pas 4000 caractères en 100 secondes).
Le fonctionnement de file_get_contents ou de cURL n'est pas à remettre en cause car ces fonctions fonctionnent correctement avec les 3 sites de tests sur les environnements de Dev, et avec 2 / 3 des sites sur les environnements de Recette.
La seul différence entre les environnements de DEV et de Recettes est que les environnements de Recettes sont chez des hébergeurs.
Juste pour infos : les environnements de Dev sont aux nombres de 3 et ceux de recettes sont aux nombres de 2 (hébergeurs différents).
Du coup, voici ma questions :
Pourquoi un seul des sites en Test deviendrait deviendrai extrêmement lent et que sur des serveurs distants (hébergeur) ?
Voici le site qui me pose problème :
- http://www.hotelopia.fr/h/hotel-resi...ulouse_111235/
Dans l'attente de vos retour,
et vous remerciant par avance,
Cordialement,
Partager