Bonjour,

Je recherche des infos sur les optimisations possibles lors de l'import d'une table en ORACLE 10G. (reorganisation offline)

Voici en gros ma procédure : table BALDAT (12 Go)

1er ) EXPORT
Création des 3 DDL lors de l'export de la table :

table seule :
nohup brspace -c force -f tbreorg -s PSAPBTABD -t "BALDAT" -n PSAPUSEREORI -d only_tab &

index seul :
nohup brspace -c force -f tbreorg -s PSAPBTABD -t "BALDAT" -n PSAPUSEREORI -d only_ind &

contraintes :
nohup brspace -c force -f tbreorg -s PSAPBTABD -t "BALDAT" -n PSAPUSEREORI -d only_dep &

et l'export proprement dit :
brspace -c force -f tbexport -f -s PSAPBTABD -u /oracle/PRP/sapdata25/reorg -t "BALDAT" -r yes -i no -c no -g no -e no -b 1024000000
durée de l'export 17 mn.

2eme ) DROP TABLE et index

3eme ) IMPORT
a) Executer la 1ere DDL après modif
création de la structure de la table

b) modifier le parfile.exp lors de l'export
full=y
rows=y
indexes=n
constraints=n
feedback=10000
grants=n
buffer=204800000
commit=y
ignore=y
statistics=none
file=/oracle/PRP/sapdata25/reorg/secojczy.edd/expdat.dmp
filesize=20000MB
tables=('"SAPR3"."BALDAT"')
log=/oracle/PRP/sapreorg/import_BALDAT.log

c) Mettre la table en nologging parallel

D) Import de la table
imp system/password PARFILE=parfile.exp
durée de l'import 7h00

E) Remettre la table en logging noparallel

F) Executer la 2ere DDL après modif
Création de l'index

F) Executer la 3ere DDL
Création des contraintes

Je n'ai pas de souci réel, juste un problème de temps d'exécution de l'import, car j'ai pris une petite table afin de valider mes commandes.

Je suis preneurs sur la manière d'optimiser cette reorg offline d'une table car je vais devoirs attaquer des tables de plus de 80 Go ^^

J'ai recherche sur les DBWRITER mais j'ai 4 cpu et 3 DBWR donc pas de probleme à ce niveau...d'autres pistes peut-être ???

Merci à tous pour vos retours d'expériences à ce sujet...

Cordialement,
Stanwill