IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Modules Perl Discussion :

Besoin d'un coup de main pour l'installation d'un module


Sujet :

Modules Perl

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre éclairé Avatar de mobscene
    Profil pro
    Inscrit en
    Avril 2005
    Messages
    331
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Avril 2005
    Messages : 331
    Par défaut Besoin d'un coup de main pour l'installation d'un module
    Je bosse actuellement sur un crawler, j'ai mon propre serveur DNS mais j'aimerai que mon crawler possède lui aussi sont propre "dns reseolver" que je vais intégrer a la lib HTTP::Async que j'ai modifier , j'ai trouvé la lib gnu/adns ici http://dotat.at/prog/adns-perl/ en perl mais je n'arrive pas a l'installer j'ai lancé makefile mais il me dit qu'il ne trouve pas perl 5 et miniperl bref je comprend rien lol

    Pouvez vous m'indiquer la marche a suivre ?

    mici

  2. #2
    Membre chevronné
    Profil pro
    Inscrit en
    Juin 2006
    Messages
    427
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2006
    Messages : 427
    Par défaut
    tu a aussi un mode asynchrone dans Net:NS (bgread)

  3. #3
    Membre éclairé Avatar de mobscene
    Profil pro
    Inscrit en
    Avril 2005
    Messages
    331
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Avril 2005
    Messages : 331
    Par défaut
    Ah cool je vais voir sa de suite , je veux que mon crawler passe par sont resolver intégré si mon dns tombe en rade lol

  4. #4
    Membre chevronné
    Profil pro
    Inscrit en
    Juin 2006
    Messages
    427
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2006
    Messages : 427
    Par défaut
    mais c'est un client DNS aussi en fait.
    Aknd tu dis ton dns tu veux dire un serveur dns?
    dans tous les cas tu a besoin d'un serveur dns, et je ne sais pas si c'est facile (ou rentable) d'en integrer un à ton programme.
    la bonne solution est d'avoir un client DNS asynchrone (pour pas bloquer) et avec un bon cache (avec un LRU et une expiration), et une liste de DNS alternatifs (dans ton os) pour si l'un plante

  5. #5
    Membre éclairé Avatar de mobscene
    Profil pro
    Inscrit en
    Avril 2005
    Messages
    331
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Avril 2005
    Messages : 331
    Par défaut
    Thx Pospos, par contre chose qui n'a rien a voir heu voila j'utilise sqlite comme cache pour mon crawler seulement c'est vraiment pas performant sa prend plus de 5 mn pour enregistrer 15 000 liens j'ai codé une lib de gestion reposant sur un hash sérialisé mais par exemple si le crawler veut supprimer http://www.free.fr et que c'est http://www.free.fr/ qui est enregistré dans le hash sa marche pas j'ai aussi pensé a une file d'attente sous forme de fichier plat mais comme rien ne garantie que les liens seront crawlé dans l'ordre dans lequel ils sont dans le fichier sa marche pas non plus

    donc voila je cherche une solution potable merci et désolé pour le poste hors-sujet mais sa commence a me taper sur le système

  6. #6
    Membre chevronné
    Profil pro
    Inscrit en
    Juin 2006
    Messages
    427
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2006
    Messages : 427
    Par défaut
    pour les perfs avec sqlite il faut absolument utiliser des transactions, sinon les inserts sont vraiment lent. Si tu veux un cache rapide je te conseil plutot BerkeleyDB.
    Pour tes url il te faut les normaliser avant de pouvoir les comparer (avec le module URI par exemple), et aussi virer le fragment en fin d'url (apres le #).
    En memoire viva ca prend pas mal de place si tu utilise une hash, mais tu peux deja gagner un peu en utilisant un md5 de l'url (voir la moitié d'un md5) à la place de l'url elle meme.
    En fait je bosse exactement sur ce genre de chose depuis pas mal de temps, et on a bcp de solutions qu'on devrait bientot mettre en open source, mais ca tarde pour des raisons à la con...

+ Répondre à la discussion
Cette discussion est résolue.

Discussions similaires

  1. Réponses: 9
    Dernier message: 03/06/2008, 09h55
  2. Réponses: 1
    Dernier message: 24/01/2007, 12h35
  3. [RegEx] Besoin d'un coup de main pour écrire une regex
    Par gaboo_bl dans le forum Langage
    Réponses: 7
    Dernier message: 18/08/2006, 17h53
  4. besoin d'un coup de main pour une requête ;)
    Par Fabouney dans le forum Requêtes
    Réponses: 3
    Dernier message: 14/11/2005, 23h14

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo