IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Administration système Discussion :

cluster de calcul et hyperthreading


Sujet :

Administration système

  1. #1
    Membre éclairé
    Profil pro
    Assistant recherche bioinformatique
    Inscrit en
    Novembre 2007
    Messages
    877
    Détails du profil
    Informations personnelles :
    Localisation : Canada

    Informations professionnelles :
    Activité : Assistant recherche bioinformatique

    Informations forums :
    Inscription : Novembre 2007
    Messages : 877
    Points : 835
    Points
    835
    Par défaut cluster de calcul et hyperthreading
    Bonjour,
    Background
    Notre cluster de calcul (caos linux + Torque) contient 20 noeuds avec chacun 8 coeurs (Xeon L5520 @ 2.27GHz).
    Chaque coeur est hyperthreading (2 thread), donc 16 thread possibles par noeud.
    Acutellement, la configuration est de 8 taches par noeud, soit une tache par coeur. Dans mon ancien job, je ne me souviens plus du type de Xeon, mais on autorisait plus de taches que de coeur.
    Question
    Pouvons nous executer plus de taches par noeud (ex. 10) que de nombre de coeur sans perte de performance?

    Merci.
    Z.

  2. #2
    Expert éminent sénior Avatar de frp31
    Homme Profil pro
    Ingénieur systèmes et réseaux
    Inscrit en
    Juillet 2006
    Messages
    5 196
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 48
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Ingénieur systèmes et réseaux
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juillet 2006
    Messages : 5 196
    Points : 12 262
    Points
    12 262
    Par défaut
    ou tu peux tjrs dépasser un peu, car il y a tjrs des temps morts de calcul (temps d'ecriture/lecture vers memoire/disques etc...) ce temps libre est utilisé pour la surcharge.

    à l'époque de mosix, on préconnisait une surcharge de 1 thread par processeur. mais mosix est une technologie dépassée, donc on peut sans doute faire mieux

    donc si tu joues la prudence : 2 de surcharge par coeur.
    si tu es plus joueur : 5 de plus par processeurs (ça me parait déjà beaucoup mais tu peux tester si il y a des ralentissements tu baisses à 4 et 3 et jusqu'à 2 si nécessaire).

    un second avis pour confirmer ?

  3. #3
    Membre éclairé
    Profil pro
    Assistant recherche bioinformatique
    Inscrit en
    Novembre 2007
    Messages
    877
    Détails du profil
    Informations personnelles :
    Localisation : Canada

    Informations professionnelles :
    Activité : Assistant recherche bioinformatique

    Informations forums :
    Inscription : Novembre 2007
    Messages : 877
    Points : 835
    Points
    835
    Par défaut
    Merci pour tes informations. J'ai fixé la limite a 10.
    Le load average reste dans les 10, ce qui est normal avec 10 taches simultanées.
    Il faudra que je trouve un teste pour verifier tout ca
    Merci encore!
    Z.

Discussions similaires

  1. solution pour optimiser le temps de calcul (Cluster +2008 )
    Par iMech dans le forum Windows Serveur
    Réponses: 0
    Dernier message: 01/03/2015, 21h34
  2. Clustering hiérarchique et calculs de distances
    Par Petru16 dans le forum SAS STAT
    Réponses: 1
    Dernier message: 15/04/2011, 15h25
  3. Réponses: 3
    Dernier message: 27/05/2009, 09h59
  4. [TP7] Calculer sin, cos, tan, sqrt via le FPU
    Par zdra dans le forum Assembleur
    Réponses: 8
    Dernier message: 25/11/2002, 05h09
  5. Algo de calcul de FFT
    Par djlex03 dans le forum Traitement du signal
    Réponses: 15
    Dernier message: 02/08/2002, 18h45

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo