Bonjour,
Je suis loin d'être une flèche en Ajax, donc ma question va peut être sembler bête pour certains, mais il faut que je comprenne un petit truc ...
Pour essayer de poser le cadre:
. on est sur IE7, Apache2
. je travaille principalement avec la lib Prototype.js
. j'ai qq pages qui sont générées directement par Oracle et le package HTP
. pour certaines update d'objets (des sortes de "grids"), je fait des appels via Ajax.Request et pointe vers les procédures HTP qui me renvoient des chaines de données au format JSon.
Les traitements se font dans le < onComplete > de mon "Ajax.Request", et tout va pour le mieux dans le meilleur des mondes.
Ou presque, parceque sinon je poserais un nouveau sujet ici.
Bref, je cherchais a comprendre pourquoi - suite a l'appel d'une Ajax.Request et la récuperation de mon Json en bonne et due forme - le temps de chargement d'une grille pouvait varier (de manière assez "importante") en fonction du serveur sur lequel je me trouve, surtout que j'ai les meilleures perfs la ou j'aurais théoriquement pu craindre le pire.
Les données sont les mêmes, base de données identiques, navigateurs et webserver identiques, settings de navigateurs identiques, etc ...
Je me suis amusé avec IETester (je ne sais d'ailleurs pas si c'est "fiable"), et la différence est toujours sur le "Data transmission time".
Que dois-je regarder / tester afin de comprendre d'ou proviens la différence et d'obtenir dans tous les cas le temps de réponse optimum ?
Merci d'avance,
![]()
Partager