Bonjour,
@ serendib
Voila un raisonnement bien fataliste et qui me semble à l'envers. C'est quoi une erreur d'index ? Je ne sais pas, par contre je connais les erreurs de lecture, d'écriture dues à des index erronés. Il faut mettre les choses à l'endroit, ce n'est pas la lecture qui crée l'erreur d'index mais elle peut en être la victime, et dans ce cas la réindexation préventive peut être judicieuse.A part pour optimiser, il me semble très exagéré de reindexer systématiquement la base
puisque si une erreur d'index doit se produire, elle se produira, même si tu as lancé la réindex avant.
Voilà tout.
Et comment sait on qu'il faut agir préventivement ? Aux problèmes,il peut y avoir des raisons matérielles ou réseaux ou que sais-je, mais j'ai noté depuis très longtemps que l'ajout dans les fichiers n'altère quasiment jamais les index. Ce sont surtout les suppressions de données qui créent "des trous" dans les index et génèrent par la suite des erreurs et plantages Autrement dit, plus vous faites d'ajouts-suppressions sur un fichier, plus il est nécessaire de ré indexer régulièrement.
@ lololebricoleur
La gestion des exceptions permet de faire face à des erreurs de doublons par exemple, mais si on est en lecture et que l'index est erroné on aura pas obligatoirement une exception. Il est fort probable qu'on pointera vers un autre enregistrement que celui recherché.Si on fait une modification derrière on aura toujours pas d'exception, et là, on a mis 70 ans à mme DUPONT au lieu de les mettre à mme DUPOND, c'est la cata !
Sinon vous n’êtes pas obligé de mettre des "QAUND EXCEPTION" partout, la fonction HsurErreur en début de projet permet de diriger et globaliser la gestion des exceptions vers vos propres procédures
Cordialement
Partager