Bonjour,
Je développe un site en php avec beaucoup de requêtes sql avec des group by et des requêtes du genre assez lourdes. Pour l'instant il n'y a pas beaucoup de lignes dans la base, donc je ne peux pas réellement me rendre compte de la lourdeur du code.
En gros, un utilisateur s'inscrit. Il a une sorte de blog qu'il peut alors remplir à sa guise. Il y a donc une table 'sujets' qui a une quinzaine de champs. Sur le blog de l'utilisateur, il y a des statistiques qui sont calculer depuis les lignes insérer dans la table 'sujets', le tout à chaque fois en direct.
Imaginons avec 100.000 enregistrements, rien que ca déjà. Cela va-t-il se ressentir et faire éventuellement tomber le serveur ou bien mettre un temps incroyable au loading ?
Faut-il impérativement que je fasses une table 'stats' qui enregistre sous forme temporaire les statistiques selon les sujets, les points de l'utilisateur ?
Honnêtement, ça me plait bien que ca soit un calcul en direct. Ça évite des tables supplémentaires et le calcul est forcement juste car ça s'appuie sur les enregistrements de la base.
Savez-vous s'il est possible de simuler des centaines de milliers d'enregistrements afin de tester ce que ça peut donner si la base est lourde ?
Je ne suis pas encore assez calé en php pour avoir toutes ces notions d'allégement du code. J'ai fait tout mon possible pour que les select ne pointe que sur ce qui est utile. C'est déjà ca.
Vous connaissez peu-être un tutoriel sur les choses importantes à savoir pour éviter l'overload d'un serveur à cause d'un mauvais code ...
Merci par avance pour vos infos.
Partager