J'avoue que je suis méga retissent à ce genre de présentation, je préfère de loinCitation:
Envoyé par Kioob
car elle est très lisible, on voit de suite le code compris dans l'acolade.Code:
1
2
3
4 function maFonction() { instruction }
Version imprimable
J'avoue que je suis méga retissent à ce genre de présentation, je préfère de loinCitation:
Envoyé par Kioob
car elle est très lisible, on voit de suite le code compris dans l'acolade.Code:
1
2
3
4 function maFonction() { instruction }
Bonjour, j'aimerais savoir si les commentaires et autres choses trucs inutiles ont une incidence sur la vitesse d'exécution d'une page appelée très souvent.
Dans mon cas, il s'agit d'un script d'environnement appelé très très souvent gérant mon site (il s'agit d'un jeu en php, le script gérant par exemple l'IA des créatures)
Un matin je me suis levé, et j'ai liquidé tout commentaire, indentation, etc... Le fichier est passé de 80ko à 50ko
Le fait est que le fichier peut être appelé plusieurs centaines (milliers de fois ?) par jour, ce qui représente autant de fois 30ko de moins de chargé.
J'ai fait de même sur les pages principales (les plus vues par les visiteurs).
Je suis conscient que php comme les autres compilateurs ignorent les commentaires en compilant, mais contrairement aux autres langages, on obtient pas de fichier "compilé", et donc je me suis dit qu'à chaque fois le serveur rechargeait en ram le fichier complet, et donc si un fichier de 100 ko est vu par 10 visiteurs en meme temps, le serveur prendra 1 Mo en gros de ram pour les compiler.
Je voulais savoir si dans l'idée c'était intéressant, ou si ct inutile (par exemple si les serveurs étaient de base optimisé pour éviter de recompiler 15 fois les mêmes fichiers en ne gardant qu'une occurence du fichier d'origine en ram) ?
Autre question que je n'ai pas vu ici (j'ai lu les 10 pages :p) :
Je découpe énormément mes sources (pour mon jeu, j'en suis à 700 pages php) de façon à pouvoir retoucher plus facilement telle ou telle partie. Mais du coup je suis confronté à un soucis : include ou require ? include_once ? require_once ?
je me retrouve souvent avec 4 ou 5 require en début de fichier (suite au test de session ou autre). Il y a assez peu de page ou un fichier est inclu "forcément", j'ai donc opté pour le require. Mais dans le cas par exemple du fichier de connexion (pratiquement appelé partout), ne vaut il pas mieux appeler include ? Avec 2 ou 3 millions de pages vue par mois, et les 2/3 avec un appel à ce fichier, même si c quelques millisecondes, ça peut finir par être un gain de temps (et le contraire aussi niveau perte mémoire, etc...). Pour les *_once, sont ils vraiment utiles si on compare à un simple "function_exists" d'une fonction présente dans le fichier à inclure ? (par exemple une page peut être appelée à partir d'une ayant déjà déclarée une fonction, et d'une autre ne l'ayant pas fait)
voila voila... merci :)
Hello,
oui les commentaires et autres "choses trucs inutiles" ont une légère incidence sur le temps de "compilation". Mais ce n'est pas pour ça qu'il faut les supprimer !!! Le plus sage est plutot d'installer un cache d'opcode (Turck MMCache par exemple) qui évitera à PHP de recompiler le script systématiquement.
Pour les inclusions, require et include sont quasiment identiques depuis "belle lurette" : ce n'est que la gestion des erreurs qui change.
Quant à include_once() vs include(), la première est légèrement plus lente, puisqu'elle inclus un test supplémentaire ; ce qui ne veut pas dire que tu ferais mieux autrement.
A mon avis tu ne cherches pas forcément où il faut : regarde déjà du coté de la compression des pages, des caches HTTP, des caches de données et/ou html, etc.
quand je parle de retirer tout commentaire, et autres trucs inutiles, je veux dire que j'ai 2 fois la page : la page pour développer, et la page à uploader "nettoyée" :)
évidemment, dans un soucis de développement tranquille, je garde tout :)
Le probleme des caches, c que mes pages sont identiques au niveau source, mais le résultat est différent pour chaque visiteur (sans compter que pour les pages style forum assez visité, il vaut mieux voir les messages en direct plutôt qu'avec un cache :p)
Sur mon forum j'ai un cache de données, et un cache HTTP.... ça ne pose aucun problème.... quand c'est bien fait.
Et le gain est évidement énorme.
Tous les commentaires ne sont que mon avis (ou experience) ;-)
Globalement tu gagneras de la mémoire RAM, ce qui peut etre utile notamnent pour ton jeu.Citation:
Envoyé par Grey
Le must reste le cache même si tu risque d'avoir peu de partie cachable dans ton jeu (sauf si tu utilises un systeme de template).
Si tu veux vraiement gagner de la mémoire évite de charger des fonction inutile.
Par exemple si tu crées une classe avec 10 fonction et que 95% du tps tu n'utilises que 2 fonctions, il y a surement qqch à faire pour découpler ta classe et ainsi gagner de la mémoire.
Attention ! Mauvaise habitude.Citation:
Envoyé par Grey
Il est préférable d'utiliser des classes test si tu veux vérifier tes fichiers, avec un si gros projet tu gagneras du temps.
Sinon je prefere require_once() que require car on evite d'inclure plusieurs fois les fichiers (et ça prend de la mémoire)
Quel est le jeu :D
Salut,Citation:
Envoyé par Kioob
aurais tu de bons petits liens pour expliquer comment c est petites choses doivent etre mise en place ?
ca m interesse
En fait, ça se passe généralement comme ça :Citation:
Grey a écrit:
je me retrouve souvent avec 4 ou 5 require en début de fichier (suite au test de session ou autre). Il y a assez peu de page ou un fichier est inclu "forcément", j'ai donc opté pour le require.
Attention ! Mauvaise habitude.
Il est préférable d'utiliser des classes test si tu veux vérifier tes fichiers, avec un si gros projet tu gagneras du temps.
Sinon je prefere require_once() que require car on evite d'inclure plusieurs fois les fichiers (et ça prend de la mémoire)
include "entete"
et la page elle meme
l'entete contient l'include de connexion à la base (pour les pages de jeu qui oblige à récupérer les données du perso)
puis un test sur la validité de la session, sur l'homogénéité des données, et leur contenu (qu'elles soient toute la, etc..)
si un truc cloche, je redirige vers une page logout
sinon on continue vers la page, ou il y aura les fameux require (qui ne sont qu'une fois par page, et qui ne sont donc inclu que si le test des données est passées)
Par contre en lisant les optimisations, je me rend compte que je pourrais optimiser les connexions à la base (un jeu générant beaucoup de connexion, vaut mieux les libérer dès que plus nécessaire, avant de lancer la construction de la page d'après les données récup)
Question :
vaut il mieux faire
** Connexion
** Requete
traitement
** eventuelle requete
traitement
** requete (derniere)
** Fin de connexion
autre traitement
ou
** Connexion
** Requete
** Fin de connexion
traitement
** Connexion
** eventuelle requete
** Fin de connexion
traitement
** Connexion
** requete (derniere)
** Fin de connexion
?
on libère les accès, mais en meme temps, ça risque de multiplier les demandes d'accès
je vais essayer aussi de revoir les pages ou je peux regrouper toutes les requetes en un paquet pour libérer plus vite la connexion, mais bien souvent elles dépendent d'autres choses...
enfin bref, sinon comme montou je suis intéressé par le systeme de cache :)
(je suis pas fort en admin, je fais gérer le serveur par un tiers)
autre traitement
Pour les bases de données, il faut (normalement)
- Connexion Base
Toutes les requetes
Fermeture
- Traitement des données (template ou autres)
En gros, jamais fermer à la fin :wink:
Sinon pour le cache, regarde PEAR
si vous avez deux boucles imbriquées les une dans les autres, dans le style :
il est très préférable de faire :Code:
1
2
3
4
5 for ($i = 0; $i < 256; $i++) { for ($j = 0; $j < 256; $j++) { code } }
Gain de performances garantis ;)Code:
1
2
3
4
5
6 $i, $j = 0; while ($i < 256) { code if ($j < 255) { $j++; } else { $j = 0; $i++; } }
Noteirak j'ai bien peur que le code que tu as posté (le second) soit faux pour plusieurs raisons:
- $i va de 0 à 256 inclus. La boucle for du premier exemple va de 0 à 255 inclus.
- dans le premier exemple, ($i<256) est évalué 256 fois, ($j<256) est évalué 65536 fois. Dans le second exemple, les deux conditions sont évaluées 65536 fois chacunes, ce qui rend ton code 60% plus lent qu'une simple boucle for. (benchmarké sous PHP5.1-dev)
À priori, dans l'exemple fourni le plus rapide serait:
Code:
1
2
3
4
5
6
7
8
9
10
11 $i = 0; do { $j = 0; do { // code } while (++$j !== 256); } while (++$i !== 256);
je m'excuse, je me suis trompé de code pour le 1er exemple, voici le bon :
J'ai fait le benchmark, le second est 10% plus rapide.Code:
1
2
3
4
5
6
7
8
9
10 $i = 0; $j = 0; while ($i < 256) { while ($j < 256) { ... $j++; } $j = 0; $i++; }
Pour l'histoire du 0 à 256, il doit aller de 0 à 255 inclus, ce que font bien mes deux codes, et pas aller de 0 à 256 (vu que je veux 256 boucles pour chaque).
Ce que je veux dire, c'est si vous devez imbriquez deux boucles whiles, ou deux boucles for, préférez-leur une seule avec une vérification à la fin
Petite question d'optimisation, l'utilisation des références avec & est elle une solution pratique ou bel et bien un gain de temps comme en C par exemple ou il est préférable d'utiliser des pointeurs ?
Je ne sais pas si cela a changé dans les nouvelles versions, mais quand il s'agit d'une petite quantité de données les références sont plus lentes. C'est un des phénomènes curieux de PHP... :?
Non, le second ne le fait pas désolé. Mais c'est vrai que je me suis trompé, ce n'est pas $i qui va de 0 à 256, c'est $j. Tu peux le vérifier par toi-même. Quant à ton 3eme exemple... il ne suit pas ce que tu proposes ("une seule avec vérification à la fin") et il est plus lent que celui que j'ai posté plus haut. Sous PHP5.1-dev, sur 2^24 (65536x65536) itérations vides (c-à-d sans code autre que la boucle): 3.85s pour mon code, 11.73s pour ton 3eme exemple. :(Citation:
Envoyé par Noteirak
Comme je le disais ailleurs, n'utilisez pas les références durant le développement dans un soucis de performance. Si ton code est mature (c-à-d stable depuis quelques temps) tu peux benchmarker l'utilisation de références aux points-clé, mais le gain est loin d'être systématique. HTH.Citation:
Envoyé par dark_genova
Un truc évident, mais auquel on doit faire attention dés le début : ne pas charger un fichier avec file() si on est pas interressé par tout son contenu.
Bonjour,
J'ai besoin d'extraire une grosse quantité de donnée depuis mysql pour les envoyer vers jpgraph.
Y a t-il plus rapide que le classique:
?Code:
1
2
3
4
5 while($row=mysql_fetch_array($result, MYSQL_ASSOC);) { $tab_val[] = $row['michMuch'] }
Il va falloir que je me plonge dans le code de phpMyAdmin mais je vois que la meme requete sql met enormément plus de temps à être exécuté et renvoyé dans mon script que dans phpmyadmin :-\
Essaye plutôt mysql_fetch_row. Si tu as bcp d'enregistrements ça peut améliorer la rapidité de ton script.
Merci de ta réponse. En cherchant d'avantage j'ai vu que la perte de temps était surtout à l'étape mysql_query :oops: et là je pense qu'il ne me reste plus grand chose à faire ...Citation:
Envoyé par fragmonster
Bonjour,
J'ai un script PHP que je lance manuellement grosso modo 2 fois par jour. Il fait beaucoup d'accès et de mises à jour à ma base mySql et du coup pendant qu'il tourne, ma base est indisponible.
Vu que mon script est vraiment séquencé en plusieurs étapes bien distinctes, j'ai essayé de mettre de nombreux sleep(2) entre les étapes mais rien n'y fait, ma base ne redevient disponible qu'à la fin du script.
C'est assez genant vu que ma base héberge entre autre des forums. Du coup lorsque ce gros script tourne, les forums et les sites qui vont chercher des infos dans la base sont out
Quelqu'un a t il un début de piste ?
Merci
Optimise ton script ...
L'optimisation n'est pas évidente.
Peux t on grouper en mysql un envoi de requetes ?
En fait mon script fais 60 fois la meme étape (calculs divers) pour à chaque fois faire un update d'une ligne d'une table (ligne différente à chaque fois)
Peut etre serait il possible d'atttendre d'avoir toutes les requetes pour les envoyer en une fois à la base ?
Tu peux faire un copie colle de ton script ici qu'on voye ce qu'il y a a optimiser ?
J'ai eut besoin il y a quelques jours de tester si la solution utilisant MySQL était plus rapide que la solution utilisant PHP.
Ma question était de tester si une ligne existait dans une table. Il ne pouvait y avoir au maximum qu'une seul ligne.
Donc vallait-il mieux sélectionner la ligne et tester son existance avec mysql_num_rows(), ou alors utiliser la fonction COUNT() de MySQL, puis ensuite récupérer un tableau avec mysql_fetch_array puis en extraite la valeur voulue ?
Pour répondre à cette question j'ai réalisé un benchmark
Résultat (pour ma machine) : une moyenne de 22 ms pour le mysql_num_rows contre 15ms pour COUNT.
(Pour ce test j'ai réalisé 100000 itérations allant de la requête jusqu'a la récupération concrète du nombre de ligne.)
Maintenant ça peut parraitre un peu bêtat de dire que c'est plus rapide en utilisant les fonction de mysql, mais à l'origine cette question ne m'a pas parru évidente.
Je pense donc que ceci est généralisable à la plus part des cas : préférer la solution MySQL lorsque vous avez le choix entre une solution MySQL et PHP.
J'en profite pour poser une petite question : vaut-il mieux stoquer dans une bdd les dates sous formes d'unix timestamp (dans un champ de type INT) ou un des formats de date de mysql ?
Benchmark est ton ami dans ce cas :)
Si tu utilises le format DATE de MySQL, tu pourras faire un grand nombre de calcul directement via MySQL. Et si besoin, tu pourras quand même récupèrer le timestamp UNIX, via la fonction MySQL dédiée à cela.Citation:
Envoyé par Celelibi
Par contre si tu stockes en timestamp, tu vas être fortement limité question calculs, et un grand nombre de taches risque d'etre relégué à PHP.
DATETIME plutot non ?
Sinon tu perd les infos heures/minutes/secondes
La doc mysql est ton amie aussi, très intéressante je trouve :
http://dev.mysql.com/doc/mysql/en/da...functions.html
Existe même en francais :]
http://dev.mysql.com/doc/mysql/fr/da...functions.html
Bonsoir,
Si je veux accèder à n données, uniques, mais accèdées à chaque execution d'un script, vaut il mieux créer une table mysql rien que pour stocker ces n données, ou utiliser un fichier à la place ?
Ou un genre de schéma similaire ?Code:
1
2
3
4
5
6
7
8
9 $Variables = file('variables'); ... $v_i = $Variables[i]; ... $Variables[m] = $v_m; ... $Fichier = fopen('variables','a'); fwrite ($Fichier, join("\n", $Variables)); fclose($Fichier);
Si tu utilises énormément de SELECT de ton fichier (c'est à dire de lecture) et que tu utilises relativement peut d'écriture (UPDATE, INSERT) je te conseil de passer par un fichier, mais stoque ces fichiers sous forme de tableau PHP avec var_export().
Par exemple :
Un simple include() et hop le tour est joué.Code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16 <?php $ary = array( 0 => array( 'champ1' => 'valeur1', 'champ2' => 'valeur2' ), 1 => array( 'champ1' => 'valeur1', 'champ2' => 'valeur2' ), 2 => array( 'champ1' => 'valeur1', 'champ2' => 'valeur2' ), ); ?>
A part ça j'ai effectué un benchmark qui m'a largement surpris. J'ai fait une fonction de test qui recoit de trois facon un tableau de 1000 éléments. Il recoit ce tableau en paramètre lors du premier test, lors du second test en global, lors du troisième par référence.
Je fais une itération de 10000 tour avec appel de fonction, le résultat est sans appel :
passage du tableau en argument : 5.0572290420532 secondes
passage par globalisation : 0.026066064834595 secondes
Passage par référence : 0.024504899978638 secondes
Voici le code utilisé pour le passage en argument :
J'en conclu qu'il faut fortement éviter de passer des grosses données par argument à sa fonction (ce qui parait logiquie car toute la mémoirre alouée pour cet élément est passée à la fonction).Code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19 <?php include('function.php'); include('class_benchmark.php'); $ary = array(); for ($i = 0; $i < 1000; $i++) { $ary[$i] = $i * $i; } function test($ary) { $ary[0]++; } $bench = new bench(); for ($i = 0; $i < 10000; $i++) { test($ary); } $bench->finish(); ?>
J'ai du mal m'exprimer. Je voulais dire n variables :
Variable 1
Variable 2
...
Variable n
qu'on peut coder en mysql comme une table avec deux champs "Nom Variable" et "Valeur" (ou en une seule ligne ^^ mais c'est pas beau)
effectivement, c assez impressionant ..Citation:
Envoyé par dark_genova
??Citation:
Envoyé par dark_genova
C'est surtout parce que dans une fonction, PHP travaille sur des copies des variables passées en paramètre (donc si tu passes un bon gros tableau en paramètre, PHP va devoir le copier)
Salut,
j'ai une question qui me turlupine :
Dois-je systématiquement activer la compression GZip ? Je voudrais savoir si elle correspond à un type de sites particuliers, ou bien si elle est efficace dans tous les cas ?
Je suis en train de faire un projet à la SPIP, et je me demande simplement si je dois faire une constante GZIP pour activer ou non la compression HTTP...
Merci de votre aide.
Pourquoi alors ne pas travailler qu'avec des référence ?
Est-ce un reflexe à prendre ?
A chaque tour dans la boucle tu calcule leCitation:
Envoyé par iubito
alors en le sortant avant la boucle tu le calcule une fois pour toutes.Code:sizeof($arr)
Au bout de la boucle tu aurra economisé du temps... :lun:
oui mais il arrive qu'on ne veuille pas les deux premières cases du tableau...dans ce cas un for est bien pratique.
Si j'ai deux tables A et B, et je veux selectionner des enregistrements de A, et quelques enregistrement de B associés. Du style
Vaut il mieux faire réelement la jointure externe, ou vaut il mieux tout rappattrier par une jointure interne, et trier après ce que je garde ou non dans chaque enregistrement ?Code:SELECT ... FROM A LEFT OUTER JOIN B ON A.Id = B.Id AND A.Cle = 'Constante'
Code:SELECT ... FROM A JOIN B ON A.Id = B.Id
Code:
1
2
3
4
5
6 $Enregistrement = mysql_fetch_array(); if ($Enregistrement[Cle] == 'Constante') ... else ...
Bonjour,
Interessant ce sujet. Je l'ai trouvé en cherchant justement quel était le plus rapide entre un while et un foreach.
J'ai beaucoup vu que vous parliez de libérer la mémoire du server, mais celà se fait au détriment du CPU non ?
Donc faut il vraiment détruire les variables temporaires à chaque fois, et libérer les résult Mysql, ce qui libère de la mémoire mais utilise le CPU à chaque appel de fonction ?
J'apporte ma pierre à l'édifice. Enfin... Disons mon petit caillou plutôt, mais c'est l'intention qui compte ^^ :
Lorsque vous devez compter un nombre d'enregistrement d'une table compotant un champ 'id', et que cette table ne subit jamais d'effacement (table contenant chaque connection au site par exemple, pour faire un compteur avec stats sur le pays etc.) plutôt que de faire un Where 1 et compter le nombre de lignes retournées, faites un Where 1 order by id desc limit 0,1
L'id retourné est le dernier et correspond au nombre d'enregistrement puisque dans ce genre de table aucun n'est supprimé. Donc un seul enregistrement retourné au lieu de tous.
Il est très difficile de faire les bons tests de rapidités. Beaucoup de tests sur internet montrent que pour charger le contenu d'un fichier la fonction file_get_content est la plus rapide. En pratique, fgets peut être de 20 % plus rapide à infiniement plus long suivant les paramètres. 20 % sur le chargement d'un gros fichier, ce n'est pas rien.
Il y a toujours un tas de paramètres que l'on oublie, et l'optimisation n'est pas simple. Le pire est qu'elle dépend avant tout de la machine sur laquelle le script tourne. D'une machine à l'autre, d'une configuration à l'autre, les meilleures solutions ne seront pas toujours les mêmes.