Ca ira. Après c'est surtout une occasion pour moi de jouer et m'exercer un peu plus avec la PL donc je ne te garantis par le résultat :)
Version imprimable
Voici un fichier comme convenu.
- 10000 commandes
- Env. 3 articles par commande (en moyenne)
- 5000 références articles
Si tu le souhaites, je peux en constituer un plus petit... dis moi
Ok je regarde ça. Pour cet exemple tu souhaites travailler avec combien de lots ? 200 ?
oui, 200 c'est bien (car ça fait des lots de 50) !
Voila une modélisation de ton problème en PL. Mais j'ai un petit problème de taille. Avec cette modélisation et les volumes indiqués, je me retrouve avec 3 000 000 de variables (binaires) et 6 000 000 de contraintes. :aie:
Je te dirai ce qu'en pense le solveur :)
Merci... je suis curieux de connaitre la suite !!
Quelques remarques cependant car je ne suis pas sûr que ça soit dans ton modèle :
Dans notre exemple, il faut exactement 200 packs et chaque pack contient exactement 50 commandes. Donc chaque commande doit être présente dans exactement 1 pack (et non pas dans "au moins un pack").
Pour
Je crois que c'est plutôt : somme des zi,j <= SIZEPACKCitation:
Les contraintes exprimant le fait que chaque pack doit contenir SIZE-
PACK commandes
... mais ça ne change rien pour notre jeu d'essai, car la division tombe juste.
Implémenté, testé... RAM explosée... ;)
Je peux mettre les sources si cela t’intéresse (j'ai utilisé Gurobi pour ma tentative de résolution).
C'est des choses qui arrivent... :lol:
De mon côté, tentative par AG. Et c'est plutôt mauvais : mauvaise convergence, temps de calcul longs, ...
... mais surtout un résultat final décevant : et du coup, je me demande si l'optimisation peut apporter une réelle plus value sur le "terrain" ??
Volontiers, merci !