Optimisation MySQL pour gros volumes
Bonjour à tous,
J'ai un gros problème d'optimisation de base de données. Pour une application de cartographie, j'ai deux tables, une de 1.5 millions d'enregistrements et l'autre de 6 millions d'enregistrements qui montera à 26 millions.
Les requetes s'effetuent sur 4 champs integer( 8 ) indexés.
Le temps de requete sur la 1ere table se situe aux environs de 6 secondes, pour la deuxième, environ 20 secondes.
La première optimisation a été de passer les tables en InnoDB (obligé pour la taille).
Si qqun a déja rencontré ce type de problématique et veut bien partager son experience, je suis preneur !!!
Merci,
Frédéric
Mieux vaut tard que jamais !
Salut,
Ben voilà, l'appli est en test de prod et va être lancée le mois prochain (je passerai l'adresse). Ca marche nikel et l'architecture n'a pas encore évoluée.
La solution:
-> Type de table innoDb
-> Requete uniquement avec des AND dans la clause W (merci !) (tps de requete 24 secondes -> 0.2 secondes)
MySQL se débrouille très très bien avec une table de 28 000 000 d'enregistrements... rien à redire !
Le défi technique suivant a été de stoker et et afficher rapidement parmis les 28 000 000 d'imagettes jpg qui vont avec mais pour ça, notre bon linux s'en débrouille tout aussi bien !
Merci à tous.