Bonjour,
J'ai développé une petite application qui utilise une connexion Url pour récupérer un fichier HTML présent sur un de mes serveurs web, puis qui extrait différentes images/fichier en fonction du contenu de cette page.
Hors lors de mes tests, il apparait que les performance que ce soit lors de la lecture de la page ou la copie des fichiers sont vraiment pas terrible.
Pour la lecture de la page, j'utilise le mode de chargement suivant :
Le telechargement des images de la manière suivante
Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
4
5
6
7
8
9
10
11 URL url = new URL("http://www.monsite.com"); InputStreamReader ipsr = new InputStreamReader(url.openStream()); BufferedReader br = new BufferedReader(ipsr); String line = null; String lineRes=""; while ((line = br.readLine()) != null) { if(id==0){}else{ lineRes+="\n"+line; } id++; }
Comment puis je améliorer les performances lors de la récupération des flux ?
Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
4
5
6
7
8
9
10
11
12
13 URL url = new URL(tmp); URLConnection urlC = url.openConnection(); InputStream is = url.openStream(); FileOutputStream fos=null; fos = new FileOutputStream("/sdcard/IMG_/"+this.tab[IMG]+"/"+file); int oneChar, count=0; while ((oneChar=is.read()) != -1){ fos.write(oneChar); count++; } is.close(); fos.close();
Cordialement
Partager