Bonjour
J'utilise pour récupérer des données de pages web un BufferedReader ( BufferedReader flot=new BufferedReader(new InputStreamReader(u.openStream(),"utf-8")); u étant une url bien sur) .
Cela marche tres bien mais lors de l'execution j'ai besion de récupérer un grand nmbre de donnée dans un grand nombre d'adresses differentes.
Je créé un nouveau bufferdReader a chaque fois avec ma nouvelle url mais, il semble qu'au bout d'un moment la lecture soit de plus en plus lente (les 10 premieres pages sont quasi instantané mais au bout de 100 ca prend plusieurs secondes et ca va de pis en pis).
Je suspect une saturation quelque part (mal fermé) mais j'utilise des close() a chaque fin de l'écture.
Ya t'il autre chose a faire ?
merci
Partager