IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Scripts/Batch Discussion :

curl: lister une page. jsp


Sujet :

Scripts/Batch

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre averti
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    34
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 34
    Par défaut curl: lister une page. jsp
    Bonjour a tous,
    je désire utiliser un batch pour lister une pages web.
    Pour cela j'ai utilisé l'utilitaire curl:
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    curl -u login:pwd http://www.lesite/liste.jsp -S -o index.html
    le problème est qu'il me liste bien la page mais pas le tableau dynamique présent sur cette page .
    existe il une solution pour pallier a ce problème?
    Merci d'avance

  2. #2
    Membre chevronné

    Homme Profil pro
    Analyste d'exploitation
    Inscrit en
    Décembre 2003
    Messages
    333
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Analyste d'exploitation
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Décembre 2003
    Messages : 333
    Billets dans le blog
    1
    Par défaut
    Essaie avec WGET (unixutils).

  3. #3
    Membre averti
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    34
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 34
    Par défaut
    Bonjour
    justement j'étais en train d'y penser
    Merci pour la réponse.

    Justement comment pourrais je faire avec ?
    Merci d'avance

  4. #4
    Membre chevronné

    Homme Profil pro
    Analyste d'exploitation
    Inscrit en
    Décembre 2003
    Messages
    333
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Analyste d'exploitation
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Décembre 2003
    Messages : 333
    Billets dans le blog
    1
    Par défaut
    wget --help

  5. #5
    Membre averti
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    34
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 34
    Par défaut
    J'ai fait
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    wget --http-user=login--http-passwd=pwd -p  "http://www.lesite/liste.jsp" -S -o index2.html
    et cela ne marche pas.J'ai encore moins de chose d'affiché?
    Ai je fait une erreur ou bien cela vien du site?
    Merci d'avance

  6. #6
    Membre chevronné

    Homme Profil pro
    Analyste d'exploitation
    Inscrit en
    Décembre 2003
    Messages
    333
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Analyste d'exploitation
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Décembre 2003
    Messages : 333
    Billets dans le blog
    1
    Par défaut
    : wget --help
    GNU Wget 1.8.2, a non-interactive network retriever.
    Usage: wget [OPTION]... [URL]...

    Mandatory arguments to long options are mandatory for short options too.

    Startup:
    -V, --version display the version of Wget and exit.
    -h, --help print this help.
    -b, --background go to background after startup.
    -e, --execute=COMMAND execute a `.wgetrc'-style command.

    Logging and input file:
    -o, --output-file=FILE log messages to FILE.
    -a, --append-output=FILE append messages to FILE.
    -d, --debug print debug output.
    -q, --quiet quiet (no output).
    -v, --verbose be verbose (this is the default).
    -nv, --non-verbose turn off verboseness, without being quiet.
    -i, --input-file=FILE download URLs found in FILE.
    -F, --force-html treat input file as HTML.
    -B, --base=URL prepends URL to relative links in -F -i file.
    --sslcertfile=FILE optional client certificate.
    --sslcertkey=KEYFILE optional keyfile for this certificate.
    --egd-file=FILE file name of the EGD socket.

    Download:
    --bind-address=ADDRESS bind to ADDRESS (hostname or IP) on local host.
    -t, --tries=NUMBER set number of retries to NUMBER (0 unlimits).
    -O --output-document=FILE write documents to FILE.
    -nc, --no-clobber don't clobber existing files or use .# suffixes.
    -c, --continue resume getting a partially-downloaded file.
    --progress=TYPE select progress gauge type.
    -N, --timestamping don't re-retrieve files unless newer than local.
    -S, --server-response print server response.
    --spider don't download anything.
    -T, --timeout=SECONDS set the read timeout to SECONDS.
    -w, --wait=SECONDS wait SECONDS between retrievals.
    --waitretry=SECONDS wait 1...SECONDS between retries of a retrieval.
    --random-wait wait from 0...2*WAIT secs between retrievals.
    -Y, --proxy=on/off turn proxy on or off.
    -Q, --quota=NUMBER set retrieval quota to NUMBER.
    --limit-rate=RATE limit download rate to RATE.

    Directories:
    -nd --no-directories don't create directories.
    -x, --force-directories force creation of directories.
    -nH, --no-host-directories don't create host directories.
    -P, --directory-prefix=PREFIX save files to PREFIX/...
    --cut-dirs=NUMBER ignore NUMBER remote directory components.

    HTTP options:
    --http-user=USER set http user to USER.
    --http-passwd=PASS set http password to PASS.
    -C, --cache=on/off (dis)allow server-cached data (normally allowed).
    -E, --html-extension save all text/html documents with .html extension.
    --ignore-length ignore `Content-Length' header field.
    --header=STRING insert STRING among the headers.
    --proxy-user=USER set USER as proxy username.
    --proxy-passwd=PASS set PASS as proxy password.
    --referer=URL include `Referer: URL' header in HTTP request.
    -s, --save-headers save the HTTP headers to file.
    -U, --user-agent=AGENT identify as AGENT instead of Wget/VERSION.
    --no-http-keep-alive disable HTTP keep-alive (persistent connections).
    --cookies=off don't use cookies.
    --load-cookies=FILE load cookies from FILE before session.
    --save-cookies=FILE save cookies to FILE after session.

    FTP options:
    -nr, --dont-remove-listing don't remove `.listing' files.
    -g, --glob=on/off turn file name globbing on or off.
    --passive-ftp use the "passive" transfer mode.
    --retr-symlinks when recursing, get linked-to files (not dirs).

    Recursive retrieval:
    -r, --recursive recursive web-suck -- use with care!
    -l, --level=NUMBER maximum recursion depth (inf or 0 for infinite).
    --delete-after delete files locally after downloading them.
    -k, --convert-links convert non-relative links to relative.
    -K, --backup-converted before converting file X, back up as X.orig.
    -m, --mirror shortcut option equivalent to -r -N -l inf -nr.
    -p, --page-requisites get all images, etc. needed to display HTML page.

    Recursive accept/reject:
    -A, --accept=LIST comma-separated list of accepted extensions.
    -R, --reject=LIST comma-separated list of rejected extensions.
    -D, --domains=LIST comma-separated list of accepted domains.
    --exclude-domains=LIST comma-separated list of rejected domains.
    --follow-ftp follow FTP links from HTML documents.
    --follow-tags=LIST comma-separated list of followed HTML tags.
    -G, --ignore-tags=LIST comma-separated list of ignored HTML tags.
    -H, --span-hosts go to foreign hosts when recursive.
    -L, --relative follow relative links only.
    -I, --include-directories=LIST list of allowed directories.
    -X, --exclude-directories=LIST list of excluded directories.
    -np, --no-parent don't ascend to the parent directory.

    Mail bug reports and suggestions to <bug-wget@gnu.org>.
    wget "http://www.developpez.net" -a wget.log -O wget.html

Discussions similaires

  1. [XML][XSL][Mozilla Firefox] Integraton dans une page JSP
    Par BANATACH dans le forum XSL/XSLT/XPATH
    Réponses: 3
    Dernier message: 05/08/2004, 14h46
  2. [Debutant(e)]Appel d'une servlet dans une page jsp
    Par kouadjalain dans le forum Servlets/JSP
    Réponses: 5
    Dernier message: 20/07/2004, 15h02
  3. [EJB+JSP+Tomcat] Appel d'une page JSP à partir d'un bean
    Par Hakkou dans le forum Tomcat et TomEE
    Réponses: 8
    Dernier message: 02/06/2004, 15h26
  4. [Débutant][Application web] : context d'une page JSP
    Par silver_dragoon dans le forum Servlets/JSP
    Réponses: 2
    Dernier message: 14/02/2004, 11h53
  5. [Débutant] Problème de déconnexion d'une page JSP
    Par amal9 dans le forum Servlets/JSP
    Réponses: 12
    Dernier message: 22/01/2004, 13h40

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo