ok, je remballe ma curiositéen fait, c'est un probleme de modellisation mais avec beaucoup, beaucoup de parametres..
Ce n'est pas du tout ce que je voulais dire . J'ai cru lire dans un de tes posts que ton programme marchait pas mal jusqu'à ce qu'on te soumette des jeux de données plus gros. Je parle de la taille des différentes instances du problème, des données de départ quoi.en quoi le fait de multiplier les nombre de processeur doublerait le nombre de mes données
Si ce n'est toujours pas clair : si ton objet de départ a une "taille" de 100, tu résoudras peut-être le problème en moyenne en 1h, mais avec une taille de 200, tu auras une moyenne de 10h. Avec deux processeurs, tu réduiras peut-être le temps de calcul à 5h, mais pour un problème de taille 1000, il te faudra... beaucoup de processeurs pour terminer en moins d'une heure. C'était juste pour souligner le fait que si tu n'as pas de réponse à ton problème après 5 jours, c'est peut-être qu'il te faudra peut-être attendre 3 semaines, et 10 jours avec deux processeurs, et que multiplier le nombre de processeurs ne divise le temps de calcul que linéairement face à une augmentation exponentielle selon la taille des données.
Juste pour le plaisir, puisque ça n'est pas du tout ce que je voulais dire :pourrait tu me donner un exemple concret, ou l'augmentation du nb de processeur ne change rien ?? ca m'interresse, par curiosité..
Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
4
5 i <- 0 Tant que i<100 i <- i+1 Fin Tant que
Partager