Bonjour!

J'ai un petit soucis afin d'optimiser mon code php, jvais partir du début:
Un client de ma boite souhaite me transférer une grosse partie de sa bdd mais pour des raisons un peu compliquées (et vu que c'est pas le but de raconter ma vie ici ) me les transfer via des pages html en json.
C'est à dire que quand j'appelle sa page ca ressemble à ceci:

url: http://www.xxx.com/data/50000/
Contenu:
[{"creation":"","mode":"Classique","type":"pointer","Suivi":0,"log":[{"date":null,"time":"00:01:42 05/03/2013","type":null,"sent_to":"Admin","message":"Warning in E202 - pointer", ETC ETC ETC.
Je n'ai accès qu'à ces pages html, qui sont trèèèèèèès nombreuses (de l'ordre des 5-6 millions).
Via mon code, j'éxécute de cette façon:

Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
 
@$recept = file("http://www.xxx/data/COUNTRY_ID/$j/"); // Get the Json form
$_JsonParsedFile = json_decode($recept[0]);
Néanmoins, rien que cette partie prend environ 2-3 secondes à s’exécuter.
Et pour les 5.000.000 d'url que j'ai à fouiller j'ai calculé que ca me prendrait le mois
La question que j'ai: Existe t-il une fonction beaucoup plus rapide afin d'attraper ces données?
Le reste de mon code ne pose aucun soucis vu qu'il met moins de 0.1 seconde pour traiter une centaine de cas (testé et approuvé ).
Néanmoins, ce sont vraiment ces 2-3 secondes qui me plombent entièrement tout le script

Si quelqu'un a une idée de comment faire je le remercie d'avance