bonjour a tous
je dois developper une interface web avec postgresql/postgis
le volume de données est tres important.
par exemple je dois permettre le depot sur le site de gros fichiers texte (env 500MO par fichier). j'ai utilisé curl pour ça.
ensuite je dois intégrer ces donnees dans la bdd, traitement, etc...
j'ai bien sur rencontre le pbm du time out.
j'ai regle differente choses dans le php.ini, comme la taille maxi pour l'upload, la duree du script, etc...
ca passe mais c'est limite et je rallonge un peu plus chaque fois la duree du time out....
ca ne me semble pas etre fiable, ni même la bonne façon de faire.
comment procedez vous de maniere generale pour de gros traitement de donnees ? je ne pense pas que la maniere interactive (web client/serveur) soit judicieuse, j'aimerai faire quelque chose comme ca :
l'administrateur via l'appli depose son gros fichier, il clique sur un bouton "traiter" et il reprend la main.
derriere un script s'executerai en faisant tout le travail et peu importe le temps que ca prendra. une fois le traitement fini, l'utilisateur en est informé d'une manière ou d'une autre (mail ?)
est-ce faisable ?
les scripts cgi sont ils capables de ca ? j'ai lu certain post et/ou doc mais je ne suis pas sure de bien comprendre comment ça marche.
merci d'avance pour votre aide,
n
Partager