IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Java Discussion :

Peut-on copier les infos d'un site web avec class Robot ou autres ?


Sujet :

Java

  1. #1
    Futur Membre du Club
    Inscrit en
    Janvier 2006
    Messages
    4
    Détails du profil
    Informations forums :
    Inscription : Janvier 2006
    Messages : 4
    Points : 5
    Points
    5
    Par défaut Peut-on copier les infos d'un site web avec class Robot ou autres ?
    bonjour,

    j'aimerai récupérer les infos d'une page web que j'affiche à coté de mon programme java. Avec la class Robot on peut simuler la souris ou le clavier, je voudrai faire un copier des infos de IE. vous croyez que c'est possible ?

    merci d'avance

    henriette

  2. #2
    Membre expert

    Homme Profil pro
    Consultant informatique
    Inscrit en
    Janvier 2004
    Messages
    2 301
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Finance

    Informations forums :
    Inscription : Janvier 2004
    Messages : 2 301
    Points : 3 675
    Points
    3 675
    Par défaut
    Citation Envoyé par henriette Voir le message
    vous croyez que c'est possible ?
    Oui.

    par contre je suis pas sûr que ça soit la meilleure manière de faire. Utiliser Robot impose que l'on connaisse les positions X;Y à l'écran des éléments que l'on désire copier/screenshoter/autres.

    Par contre on peut lire le flux html de la page (via URLConnection ou HTTPClient (de apache commons http)), et extraire ce qui nous intéresse pour l'afficher ailleurs

    "Le plug gros problème des citations trouvées sur internet, c'est qu'on ne peut jamais garantir leur authenticité"

    Confucius, 448 av. J-C

  3. #3
    Membre à l'essai
    Inscrit en
    Mars 2010
    Messages
    19
    Détails du profil
    Informations forums :
    Inscription : Mars 2010
    Messages : 19
    Points : 17
    Points
    17
    Par défaut
    Citation Envoyé par Pill_S Voir le message
    Oui.

    par contre je suis pas sûr que ça soit la meilleure manière de faire. Utiliser Robot impose que l'on connaisse les positions X;Y à l'écran des éléments que l'on désire copier/screenshoter/autres.

    Par contre on peut lire le flux html de la page (via URLConnection ou HTTPClient (de apache commons http)), et extraire ce qui nous intéresse pour l'afficher ailleurs

    et comment faire pour extraire ce qui nous interesse, surtout si c'est des valeurs dans des tableaux ??

  4. #4
    Membre expert

    Homme Profil pro
    Consultant informatique
    Inscrit en
    Janvier 2004
    Messages
    2 301
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Finance

    Informations forums :
    Inscription : Janvier 2004
    Messages : 2 301
    Points : 3 675
    Points
    3 675
    Par défaut
    bin on parse le contenu, c'est à dire qu'on recherche, dans la string contenant de l'html, la ou les zones qui contiennent le contenu désiré, en utilisant de la manipulation de string, des stringtokenizer, des expressions régulières ou des parseurs xml (à condition que l'html soit du xml bien formé)...

    Ex en pseudo code:
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
     
    String search = "<table id=\"theIdOfTheTableToFind\">"
     
    int position = theHTML.indexOf(search);
    if(position<0) { throw new Exception("pas trouvé!"); }
     
    position += search.length();
     
    position = theHTML.indexOf("<tr>", position);
    if(position<0) { throw new Exception("pas trouvé!"); }
    ...
    bon courage
    "Le plug gros problème des citations trouvées sur internet, c'est qu'on ne peut jamais garantir leur authenticité"

    Confucius, 448 av. J-C

  5. #5
    Membre à l'essai
    Inscrit en
    Mars 2010
    Messages
    19
    Détails du profil
    Informations forums :
    Inscription : Mars 2010
    Messages : 19
    Points : 17
    Points
    17
    Par défaut
    Merci Beaucoup Je vais m'y mettre et je te tiendrais au courant si j'ai un probleme

  6. #6
    Membre à l'essai
    Inscrit en
    Mars 2010
    Messages
    19
    Détails du profil
    Informations forums :
    Inscription : Mars 2010
    Messages : 19
    Points : 17
    Points
    17
    Par défaut
    Citation Envoyé par tariq85 Voir le message
    Merci Beaucoup Je vais m'y mettre et je te tiendrais au courant si j'ai un probleme
    J'ai fais comme tu m'a dis, mais le probleme c'est que la page dont j'ai besoin, j'ai pas pu en extraire rien du tout . J'ai essayé avec d'autre URL et ça marche, mais avec la mienne qui est 192.168.1.1 ( c'est la page de configuration de mon modem ) une erreur qui aparait :

    Server returned HTTP response code: 401 for URL: http://192.168.1.1/
    at sun.net.http://www.protocol.http.HttpURLConn...Stream(Unknown Source)
    at JavaUrlConnectionReader.getUrlContents(JavaUrlConnectionReader.java:33)
    at JavaUrlConnectionReader.main(JavaUrlConnectionReader.java:14)

  7. #7
    Membre expert

    Homme Profil pro
    Consultant informatique
    Inscrit en
    Janvier 2004
    Messages
    2 301
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Finance

    Informations forums :
    Inscription : Janvier 2004
    Messages : 2 301
    Points : 3 675
    Points
    3 675
    Par défaut
    les erreurs 40x sont des erreurs serveur, en l'occurence 401 c'est "Unauthorized".

    Il faut
    1) se logguer sur la page d'accueuil du routeur en fournissant le user/password
    2) charger la bonne page

    pour ces 2 opérations, je te conseille de regarder du côté de HTTPClient (de la librairie commons-http): cela va te permettre de récupérer le cookie d'authentification au retour de 1) et de l'utiliser pour charger 2)

    bon courage
    "Le plug gros problème des citations trouvées sur internet, c'est qu'on ne peut jamais garantir leur authenticité"

    Confucius, 448 av. J-C

  8. #8
    Membre à l'essai
    Inscrit en
    Mars 2010
    Messages
    19
    Détails du profil
    Informations forums :
    Inscription : Mars 2010
    Messages : 19
    Points : 17
    Points
    17
    Par défaut
    Je crois que je vais laisser ça en dernier, j'essairais d'extraire les infos tout d'abord sur des pages statique, puis je ferais la connexion.. c'estmieux non ?

Discussions similaires

  1. Copier les Dépêches d'un site de presse
    Par manune dans le forum Général Conception Web
    Réponses: 2
    Dernier message: 05/12/2013, 15h04
  2. Réponses: 1
    Dernier message: 13/03/2012, 20h23
  3. Comment lire les infos d'un site Web écrit en JavaScript
    Par TiMal75 dans le forum Général JavaScript
    Réponses: 4
    Dernier message: 17/04/2010, 18h47
  4. [SP-2007] Récupérer les infos d'un site de réunion
    Par glucas59 dans le forum SharePoint
    Réponses: 7
    Dernier message: 25/11/2009, 14h11
  5. copier les infos d'une fenêtre dos vers le bloc notes
    Par beegees dans le forum Autres Logiciels
    Réponses: 3
    Dernier message: 16/08/2005, 13h06

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo