Bonjour,

J'aimerais avoir vos conseils sur une optimisation de base décisionnelle.

J'ai une base 11g avec un tablespace, avec un datafile qui fait 40Go. Dans ce dernier, il y a une table assez volumineuse (20Go, 70millions d'enregistrements)
Les stats sont a jour.

Lorsque je fais un COUNT(*) sur cette table, la requete prend 9min pour s'executer.
Lorsque je lance un SELECT métier, elle prend plus de 20 min (je l'ai interrompu), et vois plein d'alerte sur un goulot d'étranglement sur les disques (la machine est une VM)
Il n'y a pas l'air d'y avoir de chainage.

Je me demande si ca vaut pas le coup de mettre la table volumineuse sur un autre tablespace, voir meme, de créer plusieurs petits datafiles de 5Go pour parallelliser les acces disque.

Je réfléchie aussi éventuellement au Partitionning.

Qu'en pensez vous ?