salut,

Envoyé par
Svengali48
bon, je sais que techniquement y en toujours qu'un qui se fait à la fois
ben... non. si tu parallélises tous les traitements sont réalisés en même temps (on parle du point de vue de l'application, pas du noyau ou du CPU) et la bande passante sera divisée d'autant
Le problème se situe plutôt au niveau de la lecture et l'écriture : je ne veux pas que deux processus lisent la même ligne et que deux écrivent sur la même ligne.
je crois que tu fais fausse route, il faut plutôt envisager ça sous cet angle :
1 2 3
| while read url < fichier; do
curl -s "$url" &
done |
J'ai entendu parlé de la commande parallel mais (...)
pareil j'en ai entendu parler, je l'ai quasiment jamais utilisé à vrai dire, arrivant toujours à me débattre avec les moyens du bord donc je saurai pas t'aider là dessus
Edit: typiquement la commande xargs permet de paralléliser l'exécution des commandes elle aussi, un truc du genre serait peut-être à tester :
cat fichier | xargs -n1 -P5 -IURL curl "URL" & # -P5 = 5 threads
Partager