Bonjour,
Effectivement, aujourd'hui, on vend du parallelisme a tout va, en expliquant que c'est vachement mieux qu'avant.
Mais dans la vrai vie, des qu'on developpe un peu, on se rend compte que c'est plus complexe que ca.
Du parallelisme CPU et GPU ? Youpi, mais pour la plupart des applications, ca sert a quoi ?
Mettre ca dans la norme ? Mais bien sur, surchargeons une norme qui est deja tellement complexe que certains pans de celle-ci semblent reserves a l'elite de l'elite des excellents developpeurs C++ (regardez-la, elle vaut le coup).
Alors oui, le GPU a le vent en poupe aujourd'hui, de meme que le green computing, le cloud, ... Bref, encore pleins de buzz-word pour montrer que tout le monde il est beau, tout le monde il est gentil.
PS : En tant que developpeur d'applications systemes, je n'ai jamais vu d'applications lambda qui demandaient plus de 6 ou 8 threads (et encore, c'etait pour de l'optimisation massivement parallele).
PPS : Bien sur, en calcul parallele, c'est autre chose, mais c'est un domaine tellement particulier que je ne suis pas certain qu'ils se reposent sur une implementation dans le compilateur.
PPPS : Ah si, il y a les paralleliseurs de code, tres utilises par les physiciens, qui pourraient tirer parti de ce genre d'implementation. Dommage qu'ils generent du Fortran.
Partager