Bonjour,
En BENCH depuis quelques jours sur un traitement d'extraction de données (un gros SELECT dans une table contenant ~6 Million d'enregistrements, droppée et recréée chaque jour + exécution des statistiques avant le SELECT) devant passer vers une architecture 2 tiers (1 serveur applicatif et 1 serveur de base de données sous ASE 12.0 avec 6 engines)
Le serveur de BDD est un HP Unix 11i avec 6 CPU
La table NEUF_CDR_DATA_TODAY est partitionée (12 et lock datarows)
Une interface 100Mb est en place entre les 2 serveurs (sera 1Gb en Production)
J'ai essayé plusieurs optimisation : de jouer avec les paramètres "max parallel degree" et "max scan parallel degree" ; mais le traitement reste toujours aussi long : ~1h20 pour traiter 400.000 enregistrements.
Avez-vous une piste d'optimisation ? ou de correction à apporter à la configuration du dataserver ?
D'avance merci
Ci-joint,
sp_sysmon.zip : résultat de sp_sysmon pendant l'exécution du traitement d'extraction
sp_configure.zip : configuration du dataserver ASE 12.0
show_plan.zip : show_plan de la requête d'extraction
requete_extraction.zip : la requête d'extraction (le gros SELECT)
table_neuf_cdr_data_today.zip : détail de la table NEUF_CDR_DATA_TODAY
Partager