Bonjour,
Je réalise actuellement un comparatif entre différents temps d'accès à des données sur le serveur MySQL.
Je cherche actuellement à mesurer l'insertion de 200.000 lignes de données dans une base mysql via la console.
Je pensais me connecter sur la console et lancer ces scripts :
Ce code fonctionne, sauf que le retour ce fait de la façon suivante :
Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3DOS>mysql -u test -p test -b mysql>use test; mysql>source d:/monfichier.sql;
Malheureusement, je ne souhaite pas le temps de chaque insertion, mais le temps de l'execution globale. Quelqu'un aurait une idée me permettant de mesurer ce temps total ?
Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
4
5
6
7 mysql> source d:/mon_fichier.sql; Query OK, 1 row affected (0.03 sec) Query OK, 1 row affected (0.02 sec) Query OK, 1 row affected (0.03 sec) Query OK, 1 row affected (0.03 sec) Query OK, 1 row affected (0.03 sec) Query OK, 1 row affected (0.02 sec)
Pour information je suis en mysql 5.0, et sur un Windows XP, je passe mon script via "l'émulation" de console DOS et la console mysql.
Merci de votre aide, car là je sèche un peu !
PS : J'ai bien pensé à récupérer le contenu total mais l'incertitude sur le centième de seconde par ligne insérée est trop grande. En effet, avec 200.000 lignes, la répétabilité de l'incertitude de ma mesure serait de 200000 * 0,01 = 2000 secondes, soit 33 minutes et 20 secondes. Et un test comparatif déterminant que l'insertion de 200000 lignes durent 1h20 + ou - 33 minutes est assez ridicule !
Partager