IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Langage Perl Discussion :

Capacité d'un hash


Sujet :

Langage Perl

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Responsable Perl et Outils

    Avatar de djibril
    Homme Profil pro
    Inscrit en
    Avril 2004
    Messages
    19 822
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Avril 2004
    Messages : 19 822
    Par défaut Capacité d'un hash
    Salut à tous,
    petite question sur les Hash.
    Je dois scinder un fichier qui fait 15 Go en plusieurs fichiers. Et la facon la plus pratique pour moi serait d'utiliser un hash. Mais avant, je voudrais savoir la capacité maximal d'un hash!!!
    Puis mettre environ 4 Go de données dans un hash???

    Merci!!

  2. #2
    Membre expérimenté
    Avatar de GLDavid
    Homme Profil pro
    Head of Service Delivery
    Inscrit en
    Janvier 2003
    Messages
    2 895
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 48
    Localisation : France, Seine Saint Denis (Île de France)

    Informations professionnelles :
    Activité : Head of Service Delivery
    Secteur : Industrie Pharmaceutique

    Informations forums :
    Inscription : Janvier 2003
    Messages : 2 895
    Par défaut
    Hello Djibril

    Il faut gérer ça en mémoire ! Ca va être chaud ! Etant donné que tu es sous Linux maintenant () un petit recours à la commande split serait à envisager.

    @++
    GLDavid
    Consultez la FAQ Perl ainsi que mes cours de Perl.
    N'oubliez pas les balises code :tagcode: ni le tag :resolu:

    Je ne répond à aucune question technique par MP.

  3. #3
    Responsable Perl et Outils

    Avatar de djibril
    Homme Profil pro
    Inscrit en
    Avril 2004
    Messages
    19 822
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Avril 2004
    Messages : 19 822
    Par défaut
    je veux pas forcement mettre les 15Go en memoire, ce sera impossible, mais je sais pas la limite.
    Je pourrais mettre 1Go, ou plus, bref je sais pas.
    c'est un fichier speciale (fasta pour les connaisseur) , et je peux pas le couper n'importe comment.

  4. #4
    Membre expérimenté
    Avatar de GLDavid
    Homme Profil pro
    Head of Service Delivery
    Inscrit en
    Janvier 2003
    Messages
    2 895
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 48
    Localisation : France, Seine Saint Denis (Île de France)

    Informations professionnelles :
    Activité : Head of Service Delivery
    Secteur : Industrie Pharmaceutique

    Informations forums :
    Inscription : Janvier 2003
    Messages : 2 895
    Par défaut
    Tiens, entre bioinformaticiens on va s'aider
    C'est quoi comme fichier fasta ?
    nr ?
    Maintenant, veux-tu sciender ce fichier de manière régulière ou logique (en fonction de la taxonomie par exemple ) ?

    @++

    GLDavid, protéomiste qui aide Djibril, un autre protéomiste
    GLDavid
    Consultez la FAQ Perl ainsi que mes cours de Perl.
    N'oubliez pas les balises code :tagcode: ni le tag :resolu:

    Je ne répond à aucune question technique par MP.

  5. #5
    Responsable Perl et Outils

    Avatar de djibril
    Homme Profil pro
    Inscrit en
    Avril 2004
    Messages
    19 822
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Avril 2004
    Messages : 19 822
    Par défaut
    c'est est_others dans dans le ncbi (/pub/db/FASTA/) c'est un .gz de plus de 4 Go, qd tu le decompresse, il fait 15 Go. Je voudrais faire un script qui scinde ce fichier en plusieur fichier d' environ 4 Go (sachant que d'ici quelques mois, le fichier d'origine sera > 15 Go).
    Voilà, c'est tout bete (bon je me suis pas penché à fond dessus pour l'instant car d'autres soucis info ).

  6. #6
    Membre expérimenté
    Avatar de GLDavid
    Homme Profil pro
    Head of Service Delivery
    Inscrit en
    Janvier 2003
    Messages
    2 895
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 48
    Localisation : France, Seine Saint Denis (Île de France)

    Informations professionnelles :
    Activité : Head of Service Delivery
    Secteur : Industrie Pharmaceutique

    Informations forums :
    Inscription : Janvier 2003
    Messages : 2 895
    Par défaut
    Ok, je vois.
    Il faudrait voir si ton file system accepte des fichiers de 4 Go (c'est la limite pour ext3, si je ne me trompe pas).

    @++
    GLDavid
    Consultez la FAQ Perl ainsi que mes cours de Perl.
    N'oubliez pas les balises code :tagcode: ni le tag :resolu:

    Je ne répond à aucune question technique par MP.

  7. #7
    Membre Expert
    Avatar de 2Eurocents
    Profil pro
    Inscrit en
    Septembre 2004
    Messages
    2 177
    Détails du profil
    Informations personnelles :
    Âge : 55
    Localisation : France

    Informations forums :
    Inscription : Septembre 2004
    Messages : 2 177
    Par défaut
    N'étant pas bio-informaticien, j'assume le risque de raconter des bétises, sur ce sujet ...

    Ne serait il pas pertinent d'indexer ce monstrueux fichier ?

    Si j'ai bien lu les (vieux) messages traitant de fichiers FASTA, ils contiennent une "clef", du genre nom de protéine, suivie du séquençage d'ycelle.

    J'aurais naturellement tendance à lire ce fichier séquentiellement pour me constituer un hash dont la clef est la "clef" du fichier FASTA et dont la donnée est la position dans le fichier à laquelle elle commence ... (on peut aussi ajouter une autre info qui serait la longueur ...).

    Cela faciliterait les extractions ultérieures (pour obtenir des fichiers plus petits ne contenant que les protéines voulues).

    Si votre fichier de référence ne change pas de structure mais qu'il reçoit simplement des ajouts en fin, l'index restera valable, pour ce qu'il connait, malgré les ajouts de protéïnes, et il suffira de relancer l'indexation pour prendre en compte les nouvelles protéïnes ...

    C'était mes 2centimes de bioinfo

Discussions similaires

  1. [Système] Connaitre la capacité d'un disque dur et l'espace libre
    Par sebastakis dans le forum API standards et tierces
    Réponses: 7
    Dernier message: 03/12/2007, 11h48
  2. [langage] hash
    Par giverny dans le forum Langage
    Réponses: 3
    Dernier message: 12/08/2003, 11h27
  3. [langage] probleme avec un hash de hash
    Par planetevoyage dans le forum Langage
    Réponses: 4
    Dernier message: 06/06/2003, 12h55
  4. [langage] Créé un hash dans un fichier...
    Par Smooky dans le forum Langage
    Réponses: 3
    Dernier message: 26/03/2003, 08h49
  5. Tables de hash
    Par miss8 dans le forum C
    Réponses: 2
    Dernier message: 16/11/2002, 17h44

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo