Bonjour à tous,
Je sollicite votre aide pour une petite question d'optimisation
Pour schématiser, j'ai actuellement 8 traitements qui vont chercher des informations dans les mêmes tables et les recréer sous la forme de work (work dont la structure est identique) :
- mon traitement T1 crée mon work_1 avec les lignes dont il a besoin : 40.000.000 de records ;
- mon traitement T2 crée mon work_2 avec les lignes dont il a besoin : 2.000.000 de records ;
- mon traitement T3 crée mon work_3 avec les lignes dont il a besoin : 40.000.000 de records ;
- mon traitement T4 crée mon work_4 avec les lignes dont il a besoin : 9.000.000 de records ;
...
Les 40.000.000 de lignes représente mon univers, il contient toutes les données utilisées par les différents traitements.
Bref, tout ça pour dire que les traitements vont être de plus en plus nombreux et que ça m'embête d'aller reconstruire des tables pour refaire la même chose.
Je cherche une solution qui me permette de créer une table référence, et d'aller rechercher les infos dont j'ai besoin dans cette table en limitant les pertes de perfomance :
- les vues matérialisées ne changent pas tellement mon problème ;
- les vues non matérialisées semblent affecter un peu trop fortement mes perfs ;
Est-ce que vous auriez des idées de d'autres possibilités que je pourrais explorer ?
C'est pour du traitement batch massif.
Merci d'avance !
Partager