Je ne suis pas sûr de t'avoir bien compris, mais je suis opposé à la distinction CPU/GPU en parlant de Larabee.
Intel est en train d'utiliser son expertise en matière de cpu (et non de GPU bien qu'il est le premier vendeur de GPU au monde) pour concevoir le Larabee.
Ils sont parti de leur architecture multicore CPU et l'ont simplement adpatée pour implémenter les jeux instructions, les shaders et autre composants propres aux GPU.
Non seulement la programmation spécifiques aux cartes graphiques va se rapprocher de celle propre aux CPU avec ce prochain GPU, mais en plus, si on assiste à son adoption majeure, on va sans aucun doute s'orienter dans les années à venir à ce qu'on a pu voir dans le monde de l'informatique/téléphonie mobile ; à savoir un fort rapprochement des plateformes, au point d'arriver à les confondres.
Histoire d'aoppuyer un peu mon propos afin que cela ne paraissent pas qu'être des divagations, je citerai la plateforme .Net et .Net Compact, ou encore la suite de développement XCode Apple (pour Mac OS X et OS X mobile (iphone, ipod touch)).
Bref, pour moi cette distinction CPU/GPU est dépassée et tout porte à croire qu'elle n'existera plus ou presque plus dans quelques années d'un point de vue développement.
La politique de Microsoft est de tendre vers un aplanissement de la distinction entre le développement d'application mono-threadée "classique" et celui d'application multi-threadée.
Celle d'Intel veut tendre vers une unification du modèle CPU/GPU et des développement associé.
Ca ressort clairement de leurs conférences, webcasts/screencast, et de leur whitepapers.
Pour nous, développeurs objets, c'est du tout bon
(j'en veux, pour dernier exemple, BOINC qui est passé pour certain de ses projets, à faire les calculs sur le cpu comme sur le gpu, presque indifféremment)
Partager