Bonjour,

Je suis amené à créer une page php de quelques lignes qui sera appelé en moyenne 1 à 2 fois par seconde en période de pointe.

Le script doit simplement entrer des paramètres passé par $_GET (une dizaine) dans une table mysql sans en vérifier le contenu.
Tous les traitements (DELETE des raté/doublons etc .. se feront post rush, la nuit)

Assez effrayé à l'idée de faire un script de 10 lignes sensé supporté plus de 200 visites minutes en période de pointe j'essaie de faire au mieux pour l'optimiser.
Du coup j'ai tout plein de question !

Dans un tel cas de figure, est ce que

- PDO ou mysqli est mieux adapté que les fonctions mysql de base ?
- Une connexion mysql persistante à un intérêt ? http://php.net/manual/en/function.mysql-pconnect.php
- J'ai lu que le moteur Innodb était plus rapide pour des INSERT IGNORE que myiasim vu qu'il lock la ligne et pas la table , était ce mon imagination ou est ce vrai ?
- Faut il que je change de table quand celle ci atteint une certaine taille ?
Est ce que la taille d'une table influe sur un INSERT IGNORE ?

Mysql est il vraiment adapté ? Je n'ai jamais utilisé que lui, est ce que DB2-express-C , postgreSQL ou carrément un nosql serait plus adapté à mon besoin ?

Voilà toutes ces questions pour à peine 5 lignes de codes o// !

Merci d'avance pour tous vos conseils !