Bonjour,
Je reprends une base de données de statistiques sous Oracle 10g.
Cette base a beaucoup de mal à fonctionner et est très lente.
Actuellement j'ai le file system qui a mal.
J'essaye de voir comment optimiser les tablespaces.
Actuellement sous oradata, j'ai ceci :
du -h *
9,8M control01.ctl
9,8M control02.ctl
9,8M control03.ctl
8,0G DATA.dbf
8,0G INDX.dbf
4,1M redo01.log
4,1M redo02.log
4,1M redo03.log
183M sysaux01.dbf
273M system01.dbf
76K temp01.dbf
9,9G undotbs01.dbf
13G users01.dbf
La base contient des tables de plusieurs millions d'enregistrements et notamment une qui doit contenir 100 000 enregistrements par jour * 365 (un an de données d'historique).
Afin que cela fonctionne, je dois revoir l'ensemble de la configuration de la base (initora, ...).
Au niveau des tablespaces, vaut il mieux avoir plusieurs ddbf ou un seul ?
Est qu'il est intéressant de passer en BIGFILE dans mon cas de figure ?
Autres symptomes :
- un dump de cette base prend une journée,
- la suppression d'une colonne dans la plus grosse table prend facile 1h...
Merci,
Alex
PS : soyez indulgent, je débute.
Partager