Bonjour,
J'ai essayé de chercher de ci de là, mais je n'ai pas trouvé de réponse vraiment concrète à ma problématique aujourd'hui, voilà pourquoi j'aimerais l'avis des connaisseurs que vous êtes.
Je cherche à implémenter aujourd'hui une page de statistiques sur mon site internet qui contient en gros des statistiques sur les utilisateurs du site (pour ne rien vous cacher un jeu).
Au jour d'aujourd'hui ces données sont consolidées à chaque affichage de la page, mais on parle d'une série de requêtes sur plusieurs tables jointes, bref, en terme de performances, ça demande un peu de traitement, et je sais qu'à terme ces pages seront parmis les plus consultées du site.
Je m'intéresse donc à un moyen de temporiser la consolidation de ces données toutes les X heures (6 ou 12 à priori) pour ne lancer le traitement qu'une fois et éviter un recalcul sur toute la base de données à chaque affichage.
Beaucoup de blabla pour ma question : Quelle est la techno la plus performante pour se faire sachant que j'aimerais stocker ces données au fur et à mesure des jours/mois/années
J'avais pensé à créer un fichier xml à partir de la base de donnée, et de parser ce fichier à l'affichage de ma page PHP.
Ou alors je créé une table dédiée dans ma base pour ne contenir que ces données ainsi à l'affichage de la page, je n'ai qu'une requête de sélection et affichage par PHP.
Je m'intéresse principalement à la performance en terme de traitement à savoir la méthode qui prendra le moins de ressources (notre machine n'est pas une foudre de guerre).
Sachant de plus que je n'ai qu'une expérience très limitée en XML (je me suis déjà perdu entre les méthodes de parsing d'un fichier, je vois qu'on peut créer un objet xml_tree() mais pas de doc là dessus par contre pas mal de doc sur xml_parser_create qui m'a l'air bien plus compliqué à manipuler).
Bref un peu un pavé, mais si quelqu'un peut m'aiguiller je lui en serais très reconnaissant.
Partager