Bonjour
Je suis confronté à une problématique très gênante, dans la mesure où lorsque j'extrais des données d'une base SQL Server pour générer un cube, j'ai d'une génération à l'autre un nombre d'erreurs à priori aléatoire (pas toujours les mêmes données concernées) et n'ayant pas d'explications "rationnelles".
J'utilise des vues SQL pour préparer les données qui seront envoyées dans mon cube. Chaque vue est minutieusement contrôlée de manière à ce qu'il n'y ait jamais de soucis de non correspondance entre identifiants de tables, etc...
Or, à chaque génération de mon cube, il demeure des retours d'anomalies, mais qui fluctuent d'une génération à une autre, même réalisée à 5 minutes d'intervalle !
Ma question : est-ce que la présence d'utilisateurs (en saisie) sur la base servant à générer le cube a un impact sur le nombre d'anomalies potentielles ? Je comprends bien que deux requêtes générées à quelques secondes d'intervalles puissent avoir quelques écarts immédiats sur des données qui viennent d'être saisies, mais pas sur des données datant de fin 2007, qui une fois passent, et une fois ne passent pas !
Un avis sur la question ? Des conseils ?...
Partager