Cela me paraît pas mal.
Etant totalement dépendant d'une estimation correcte des étalons, je me demande s'il ne serait pas déjà intéressant d'appliquer un correctif à l'estimation des étalons en fonction de la difficulté à les estimer.
Cette méthode resemble au méthode de dosage que je faisais en biologie.
Mais en biologie nos étalons étaient "parfait".
Par exemple lorsque l'on utilisais les spectromètre de masse (pour déterminer la quantité d'un élément dans une solution liquide), on cherhait en premier à déterminer un ensemble de delta erreurs à appliquer à nos résultats, dont le delta erreur du à la machine.
Pour cela on utilisais des solutions dont ont connaissais au par avance le résultat que donnerait le spectromètre de masse. Et on les mesurait avec ce spectro. Et l'écart obtenu se trouve être notre delta erreur.
Je pense que l'idée est là. En suivant la méthode de freyn, on détermine des étalons en fonction aussi de notre propre expériences, les modules que l'on sera mieux estimé.
Puis on applique un delta erreur important (genre 20%).
On obtiens deux résultats :
- Un avec le delta erreur, qui sera notre temps max.
- Un sans le delta erreur, qui sera notre minimum.
On ne communique que le temps max du projet (pour que la direction ne transforme pas notre temps mnimum en temps max
).
Et ensuite on réestime notre delta erreur une fois que l'on a codé un ou plusieurs étalons (avoir des étalons que l'on code au début c'est donc pas mal aussi) et on obtiens le nouveau temps max que l'on peut communiquer à ses supérieurs.
Partager