Bonjour!
Après avoir exploré à fond pas mal de langage comme le PHP, je me met à présent au Java.
Comme j'ai fait que du développement web jusque là, mes premiers codes javas seront dans ce sens.
Donc je me suis donné pour but de récupérer une page internet avec un maximum d'informations possibles, mais je me suis vite heurté à un problème.
Lorsque je récupère le contenu (HTML) d'une page, je n'ai pas la totalité de la page! (le code html est coupé...)
Second problème: Certains sites ne marchent pas comme:
-google.fr
-developpez.com ()
Pourquoi?
Voici mon code:
Merci bien!
Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24 try { URL url = new URL("http", addr, ""); URLConnection connexion = url.openConnection(); weight = connexion.getContentLength(); InputStream Content = connexion.getInputStream(); byte contenuFichier[] = new byte[connexion.getContentLength()]; int octetsLus = Content.read(contenuFichier); content = new String(contenuFichier, 0, 0, octetsLus); Content.close(); System.out.println("------------------------------------------"); System.out.println("Résultat:"); System.out.println("URL: http://"+addr); System.out.println("Poids: "+weight); System.out.println("Contenu: "+content); } catch(Exception e) { System.out.println("Echec lors de la connexion: "+e); }
Partager