IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Hardware Discussion :

Le CEO de NVIDIA déclare que les GPU remplaceront les CPU dans les années à venir


Sujet :

Hardware

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Webmaster
    Inscrit en
    Janvier 2014
    Messages
    1 089
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Webmaster
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 089
    Points : 26 554
    Points
    26 554
    Par défaut Le CEO de NVIDIA déclare que les GPU remplaceront les CPU dans les années à venir
    Le CEO de NVIDIA déclare que les GPU remplaceront les CPU dans les années à venir
    et annonce que la loi de Moore n'est plus valable

    En 2015, lors d’un évènement qui a consacré la célébration des 50 ans de la loi Moore, Gordon Moore, l’auteur de cette loi, a souligné qu’il fut marqué par le fait que cette loi dura autant d’années. Il faut rappeler que la première version de cette loi qui soutient que le nombre de transistors sur un circuit intégré doublerait chaque année fut rapportée publiquement le 19 avril 1965.

    Mais, compte tenu du ralentissement technologique, Moore a révisé cette prédiction en 1975 en affirmant que le nombre de transistors sur un circuit intégré doublerait non plus chaque année, mais chaque deux ans. Les deux premières années, Moore reconnait qu’il ne pouvait pas prononcer le terme loi de Moore, car c’était assez embarrassant. Mais une fois cette période passée, il fut en mesure de le dire sans gêne aucune.

    Cependant, au regard des limites physiques liées à la réduction de la taille des composants sur un circuit intégré, Moore n’a pas manqué de souligner qu’il donnait cinq ou dix ans au plus à cette loi pour rester toujours vraie, après quoi la fréquence de croissance des transistors ne respectera plus la projection faite.

    Il y a quelques heures, Jensen Huang, le fondateur et PDG de NVIDIA, a enfoncé le clou en déclarant lors d’une conférence sur les processeurs graphiques (GPU en anglais) que la loi de Moore n’est plus valable. Selon lui, cette époque est au-delà de la loi Moore dans la mesure où les transistors des processeurs (CPU) ont augmenté de 50 % par an pour une performance réduite à 10 % seulement. En continuant sur cette lancée, Huang envisage une baisse drastique de la croissance des performances des CPU, ce qui obligerait les entreprises à se tourner vers des alternatives comme les GPU NVIDIA.

    NVIDIA conçoit depuis des années des processeurs graphiques, cartes graphiques et puces graphiques pour les ordinateurs et les consoles de jeux. Mais depuis un bout de temps, l’entreprise est passée à une nouvelle génération de ses cartes graphiques qui intègrent plus de puissance. Ces processeurs graphiques soutenus pour certains par des réseaux neuronaux seraient, selon Huang, plus performants que les CPU.

    En d’autres termes, les GPU NVIDIA pourraient remplacer les CPU en raison de leurs capacités de calcul qui ont considérablement augmenté au cours des années. En outre, il souligne que certaines grandes entreprises, notamment, Alibaba, Baidu, Tencent, JD.com et iFLYTEK (les cinq premiers opérateurs de commerce électronique en Chine) ont adopté les architectures GPU Nvidia Volta pour prendre en charge les services cloud, tandis que Huawei, Inspur et Lenovo ont déployé des serveurs GPU basés sur HGX.

    Pendant cette conférence, NVIDIA a présenté son dernier produit TensorRT3, qui peut être programmé pour booster les performances des serveurs. Et pour couronner le tout, la société s’est associée avec Huawei, Lenovo et Inspur pour développer l’accélérateur Tesla 100 HGX-1, un serveur basé sur un GPU et qui peut surpasser les serveurs CPU traditionnels en termes d’efficacité opérationnelle, de gestion, de reconnaissance vocale et dans bien d’autres domaines.

    Mais, bien que Huang soit enthousiaste quant au fait que les GPU pourraient remplacer les CPU dans les années à venir, Intel a déclaré que cela ne se fera pas lorsqu’elle a présenté pendant une de ses conférences les détails techniques de son processeur gravé en 10 nm.

    Source : Segment Next

    Et vous ?

    Pensez-vous que les processeurs graphiques pourront remplacer les CPU dans un avenir proche ?

    Vers quel modèle technologique s’orientera-t-on pour soutenir les performances des processeurs après la fin de la loi de Moore ?

    Voir aussi

    50 ans de la loi de Moore : l'auteur étonné qu'elle ait façonné l'industrie technologique aussi longtemps, il prédit sa fin dans une dizaine d'années
    NVIDIA présente sa nouvelle génération de cartes graphiques, Volta accélère d'un facteur trois l'apprentissage profond grâce à ses cœurs tensoriels
    NVIDIA détaille la version PCI Express de ses cartes Volta avec une consommation énergétique réduite à 250 W et la fréquence amputée de 85 MHz
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Invité
    Invité(e)
    Par défaut
    Bah, ce qui défini un CPU ou un GPU c'est sa conception selon son utilisation mais au final ça reste une unité de calcul et le reste n'est que du blabla commercial.

    Si j'utilise un GPU équipé pour servir d'unité de calcul principal c'est un CPU avec GPU intégré ou un GPU équipé d'un CPU epicétou

  3. #3
    Inactif  

    Homme Profil pro
    NR
    Inscrit en
    Juin 2013
    Messages
    3 715
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : NR
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2013
    Messages : 3 715
    Points : 1 184
    Points
    1 184
    Billets dans le blog
    9
    Par défaut
    Pourtant Intel concurrence Nvidia avec ces Xeon Phi sur certains calcules spécifiques.
    a supériorité des gpu est loin d’être vrai.

    au passage l'encodage video (chez les pro) se fait toujours sur cpu qui fait du meilleur rendu que sur gpu.

  4. #4
    Membre éclairé
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Mars 2011
    Messages
    183
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 32
    Localisation : France, Gard (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Mars 2011
    Messages : 183
    Points : 715
    Points
    715
    Par défaut
    Pour que Nvidia disent vrai, il faut qu'il augmente leur fréquence et leur finesse de gravure, tout en baissant le prix. Ce qui est impossible.
    Un GPU restera toujours plus optimisé qu'un CPU pour certaine tache,
    mais le rôle du CPU est d'être polyvalent, en permettant la communication avec les composants, avec un jeux d'instruction normalisée (ex i386, amd64 etc) pour assurer la compatibilité avec les programmes.

    Avec le nombre d'années où ATI et Nvidia ce font la guerre, ils ont pas été fichu de normaliser, pour obtenir un driver générique avec accélération graphique. Que les GPU remplace les CPU est un doux rêve.

    NVIDIA conçoit depuis des années des processeurs graphiques, cartes graphiques et puces graphiques pour les ordinateurs et les consoles de jeux.
    Troll On: Lesquelles? La switch? Nvidia Shield?

  5. #5
    Membre chevronné Avatar de nirgal76
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Septembre 2007
    Messages
    903
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Ingénieur développement logiciels

    Informations forums :
    Inscription : Septembre 2007
    Messages : 903
    Points : 2 116
    Points
    2 116
    Par défaut
    Citation Envoyé par RyzenOC Voir le message
    Pourtant Intel concurrence Nvidia avec ces Xeon Phi sur certains calcules spécifiques.
    a supériorité des gpu est loin d’être vrai.

    au passage l'encodage video (chez les pro) se fait toujours sur cpu qui fait du meilleur rendu que sur gpu.
    Le rendu dépends de l'algorithme, pas de l'unité de calcul qui l'implémente.

  6. #6
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 552
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 552
    Points : 18 448
    Points
    18 448
    Par défaut
    Citation Envoyé par Olivier Famien Voir le message
    Pensez-vous que les processeurs graphiques pourront remplacer les CPU dans un avenir proche ?
    Il me semble que l’intérêt des cartes graphiques c'est qu'il y a un nombre très important de cœurs. (j'ai fais du CUDA à l'école)
    Mais j'imagine que les performances mono cœur, sont bien plus faible que sur un processeur.

    Toutes les applications ne sont pas conçu pour prendre en compte un grand nombre de processeur.
    Certaines tâches ne sont pas très parallélisable.

    Citation Envoyé par e101mk2 Voir le message
    Troll On: Lesquelles? La switch? Nvidia Shield?
    Peut être qu'nVidia n'est pas content que Sony et Microsoft utilise des APU et GPU AMD dans leur console.
    Si ça se trouve nvidia propose des trucs pour les prochaines consoles.
    Keith Flint 1969 - 2019

  7. #7
    Membre éprouvé
    Profil pro
    Inscrit en
    Mai 2011
    Messages
    498
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2011
    Messages : 498
    Points : 1 148
    Points
    1 148
    Par défaut
    Citation Envoyé par Old Geek Voir le message
    Bah, ce qui défini un CPU ou un GPU c'est sa conception selon son utilisation mais au final ça reste une unité de calcul et le reste n'est que du blabla commercial.

    Si j'utilise un GPU équipé pour servir d'unité de calcul principal c'est un CPU avec GPU intégré ou un GPU équipé d'un CPU epicétou
    Je ne suis pas expert, mais cela me semble louche ce que tu dis. J'ai donc fait un peu de recherche. Car la premiere logique qui me vient a l'esprit, c'est pourquoi on fait cette differentation. Je me suis rappeler de la CIA qui utilisait des PS3 pour faire tourner leur serveur et je me rends compte qu'il y a peut-etre une utilite.

    D'abord voici deux liens qui peuvent utile :


    Apres fais cette recherche, j'en conclus que faire ne almagame pareille, c'est vachement grave.

    Comme dit sur le postcast, beaucoup d'acteurs comme paypal, amazon, ...

    Voila ce que j'ai retenu :
    • Physiquement un CPU a au max quelque core, quand un GPU a des centaines de core minimum
    • Le GPU est superbon au traitement de calcul complexe et surtout mathematique par contre il n'est pas super aussi bon quele CPU pour des choses basiques que le systeme d'explotation traite
    • le GPU ayant de capaicte calcul impressionnante, il peut servir pour le deep learning, l'AI, tout calcul
    • Etant donnee que le GPU a vachement plein de core, son princple est purement de la programmation parallel de haut niveau. Ils l'ont aussi specifie que peux de languages et peu de framework pourraient opere sur ce genre de architecture physique. Alors dire que le GPU c'est un juste CPU ets grotesque. Aucun non 10x programmeur peut travailler sur ce genre de materiel, c'est carement du niveau de l'ingenierie informatique que du simple developpeur javascript.


    Il y a aussi quelque chose de surprenant comme par la programmation fonctionnel qui peut etre optmial dessus. Ceux par exemple qui sont familie avec AWS lambda ou si vous voulez une partie du serveless programming, le GPU est optimal pour ce genre d'operations. Je ne connais pas beaucoup de gens monde qui maitrises ce genre de programmatons.

    HBO Silicon Valley (c'est purement une serie fictionnel, je vous ai prevenu ^^), Gilford conseille a Richard d'utiliser des GPU que d'utilser des plateformes cloud qui utilisent des pauvres structures avec des CPUs. Parce que l'algorithmes de compression qui utilisent des calculs assez complexes pour compresser, decompressez et chercher dans des donnees compresses (calcul de signatures ...) sur un temps relative super rapide demande une telle demande de calculs.

    Conclusions :
    • Tu programmes differements
    • Tu scales l'architecture differement
    • L'usage peut est complementements differements ou complemnentaires l'un a l'autre
    • Si demain, la tendance est au GPU comme pour Javascript alors je dois apprendre toutes les notions de programmation parallele, le marche de l'emploi aussi et je dois m'acheter des cachets d'aspirines pour finir ma formation sur la programmation paralleles et surtout le C++ pour tirer au max la puissance du GPU. C'est pas un truc qu'on rigole. Apprendre toutes les stacks de Javascript est juste un jeux d'enfants comparer a sa.


    Apres je peux me tromper, je maitrise pas encore le sujet pour confirmer ces dires @oldgeek.
    Les expert de creation et d'utilisations de moteur de jeux sont de meilleurs expert que moi ^^.

  8. #8
    Invité
    Invité(e)
    Par défaut
    Citation Envoyé par koyosama Voir le message
    Je ne suis pas expert, mais cela me semble louche ce que tu dis[...]
    Un GPU ne reste qu'une forme de co-processeur dédié à un type de tache, tout comme le FPU et tout ce qui a été rajouté après avec le temps.
    Photoshop peut utiliser un GPU comme co-processeur pour accélérer certain traitement parce qu'il possède des unités dédié à des taches bien précise ce qui rend l'application plus performante mais il y d'autre traitement qui reste plus efficace au niveau du CPU qui est plus polyvalent en l'absence de circuit spécifique. On pourrais faire comme raccourci une forme de logiciel "hardware" pour optimiser un type de traitement.

    Normal que ça ne se programme pas de la même façon tout comme tu ne programmes pas un CPU CISC de la même façon qu'un CPU RISC et pourtant tu peux faire la même chose avec plus ou moins la même efficacité selon le type de calcul.

    Euh.. par contre tout processeurs est conçu pour du calcul mathématique, 'fin je dis ça je dis rien

    Essaye de simplifier au maximum la doc que tu lis pour en extraire la base, le reste est bien souvent de la pure com pour faire passer des vessies pour des lanternes.
    Dernière modification par Invité ; 29/09/2017 à 14h34.

  9. #9
    Membre éprouvé
    Profil pro
    Inscrit en
    Mai 2011
    Messages
    498
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2011
    Messages : 498
    Points : 1 148
    Points
    1 148
    Par défaut
    Citation Envoyé par Old Geek Voir le message
    Euh.. par contre tout processeurs est conçu pour du calcul mathématique, 'fin je dis ça je dis rien
    Pas tellement, tout utilisateur peut le voir si il essaie d'outlimiter les capacites de taches qu'il peut faire sur son ordinateurs. Et les entreprises n'auraient pas de probleme de cout et IBM ne se ferait pas chier pour faire des super-calculateurs. Quand je dis mathematique, c'est un peu simplet.

    L'exemple qu tu cites est vachement interessant car cela va dans le sens de l'article et de NDVIA. Comme tu le dis en fait le GPU peut faire le travail d'un CPU. Mais moi j'ai prouve que vice-versa n'est pas possible (jouer a GTA 5 avec un simple CPU, je ne suis pas contre mais c'est pas possible). Donc en gros, on peut speculer que NDvia a raison, demain c'est possible que les CPU disparaissent au profit du GPU.

    Apres c'est de la pure com, moi qui compile le kernel je peux sentir une mega net difference entre les machines. Le processeur est un element important selon mes besoins, apres on n'utilise pas tous la machine de la meme facon. Je me suis meme limite par le type de processeur que j'utilise pour faire certaines operations. Je peux comprendre pour toi c'est de la pure com, pour moi c'est essentiel de comprendre les difference, meme aler au dela pour optmiser au max ce qui existe. Je suis que les overcloker te donneront une bonne explication ^^. C'est un peu dire pourquoi veut optmiser les configuration de bases de donnees.

    Sans compter que celon moi, le green IT commence par la maitrise optimal de l'optmisation materiel et logiciel. C'est comme cela que le cloud existe, les containeurs existent et le raspberry existe.

    Apres faire un type de taches et specifique, c'est la chose la plus complique dans une monde qui veut pas le faire et qui cherche a simplifier les choses par tous les moyens quand en fait l'amazonie est plus grande que la foret.

  10. #10
    Expert éminent sénior
    Avatar de Paul TOTH
    Homme Profil pro
    Freelance
    Inscrit en
    Novembre 2002
    Messages
    8 964
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 54
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Freelance
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2002
    Messages : 8 964
    Points : 28 430
    Points
    28 430
    Par défaut
    hum...cette vision de nVidia explique peut-être pourquoi le "driver video" de ma carte nVidia prend maintenant plusieurs Go de disque (oui en comptant tout l'espace disque perdu par des répertoires temporaires de téléchargement jamais effacés dans ses multiples versions)
    Developpez.com: Mes articles, forum FlashPascal
    Entreprise: Execute SARL
    Le Store Excute Store

  11. #11
    Expert éminent sénior
    Avatar de Mat.M
    Profil pro
    Développeur informatique
    Inscrit en
    Novembre 2006
    Messages
    8 352
    Détails du profil
    Informations personnelles :
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Novembre 2006
    Messages : 8 352
    Points : 20 359
    Points
    20 359
    Par défaut
    Citation Envoyé par Olivier Famien Voir le message
    Le CEO de NVIDIA déclare que les GPU remplaceront les CPU dans les années à venir
    ehhh quel intérêt d'avoir de la puissance de calcul pour commander une pizza ou le dernier Marc Levy sur Amazon ?

  12. #12
    Membre à l'essai
    Inscrit en
    Décembre 2008
    Messages
    29
    Détails du profil
    Informations forums :
    Inscription : Décembre 2008
    Messages : 29
    Points : 23
    Points
    23
    Par défaut "autres alternatives" = pléonasme
    Il aurait fallu écrire : "se tourner vers des alternatives comme les GPU NVIDIA."

  13. #13
    Membre régulier
    Profil pro
    Inscrit en
    Septembre 2004
    Messages
    61
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2004
    Messages : 61
    Points : 71
    Points
    71
    Par défaut
    Je suis assez circonspect : il faut bien voir que la programmation d'un GPU est très complexe, et quand je dis très, s'est un doux euphémisme.
    Un GPU supporte mal les boucles : très peu de portes logiques sont dévolues au contrôle, et donc c'est très lent. En règle général, tout ce qui est test est lent.
    Un GPU est fait pour du map/reduce (surtout du map, en fait). Mais dès qu'on sort de ce cadre, les problèmes commencent..

    Les temps d'accès à la mémoire sont très très inégaux : on a 3 niveaux qui vont de quelques ko, quelques dizaines de ko, quelques Mo. Les temps d'accès en cycles se multiplient par 10 à chaque fois. Donc tout ce qui est intensif en mémoire (l'algo du LiteCoin par exemple) est très peu intéressant sur un GPU.

    Bref le CPU et Intel a de beaux jours devant lui.

    Par contre il y a des concepts intéressant qui apparaissent : le Mill-CPU

  14. #14
    Membre averti
    Profil pro
    TDG
    Inscrit en
    Mars 2007
    Messages
    152
    Détails du profil
    Informations personnelles :
    Localisation : Canada

    Informations professionnelles :
    Activité : TDG

    Informations forums :
    Inscription : Mars 2007
    Messages : 152
    Points : 367
    Points
    367
    Par défaut Loi de Moore
    Je peux me tromper et je n'ai pas le temps de vérifier, mais la Loi de Moore prédisait que le nombre de transistors doublerait tous les 18 mois, pas tous les ans. Le PDG de nVidia n'étend donc pas beaucoup ce délai.

    En passant, en français, on dit tous les deux ans, et non chaque deux ans. Ça, c'est de l'anglais.

  15. #15
    Expert confirmé
    Avatar de shenron666
    Homme Profil pro
    avancé
    Inscrit en
    Avril 2005
    Messages
    2 519
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 47
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : avancé

    Informations forums :
    Inscription : Avril 2005
    Messages : 2 519
    Points : 5 168
    Points
    5 168
    Par défaut
    CPU GPU FPU PPU SPU au final on multiplie les appellations à mesure que sont conçus des processeurs spécialisés
    un CPU sait tout faire
    un GPU est spécialisé dans les calculs et l'affichage graphique

    Les GPU ne remplaceront pas les CPU, on donnera un autre nom à ces processeurs ou alors le G de GPU ne voudra plus dire Graphics
    Mais comme certains l'expliquent, les CPU intègrent déjà un GPU depuis quelques années et le CPU est capable de déléguer à ce GPU les traitements sur lesquels ce dernier est plus efficace

    AMD fait parler de lui en sortant une nouvelle gamme de CPU, ou une nouvelle version de GPU
    Le net ne parle pas assez de NVidia en ce moment, il faut donc faire du buzz pour rappeler au monde que la marque existe toujours
    Tutoriels OpenGL
    Je ne répondrai à aucune question en MP
    - Si c'est simple tu dis que c'est compliqué et tu le fait
    - Si c'est compliqué tu dis que c'est simple et tu le sous-traite ou le fait faire par un stagiaire.

  16. #16
    Membre à l'essai
    Inscrit en
    Décembre 2008
    Messages
    29
    Détails du profil
    Informations forums :
    Inscription : Décembre 2008
    Messages : 29
    Points : 23
    Points
    23
    Par défaut
    Citation Envoyé par amundsen Voir le message
    Il aurait fallu écrire : "se tourner vers des alternatives comme les GPU NVIDIA."
    Merci pour la correction!

  17. #17
    Expert éminent sénior
    Avatar de Mat.M
    Profil pro
    Développeur informatique
    Inscrit en
    Novembre 2006
    Messages
    8 352
    Détails du profil
    Informations personnelles :
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Novembre 2006
    Messages : 8 352
    Points : 20 359
    Points
    20 359
    Par défaut
    Citation Envoyé par shenron666 Voir le message
    Les GPU ne remplaceront pas les CPU, on donnera un autre nom à ces processeurs ou alors le G de GPU ne voudra plus dire Graphics
    Mais comme certains l'expliquent, les CPU intègrent déjà un GPU depuis quelques années et le CPU est capable de déléguer à ce GPU les traitements sur lesquels ce dernier est plus efficace
    c'est exact et d'un autre côté comme je l'ai écris dans mon précédent message quel intérêt de mettre sur une carte mère des chipsets dédiés aux graphismes 3d si le système informatique ( PC, smartphone,tablette...) que l'on utilise ne sert qu'à consulter des sites webs ou faire de l'info de gestion ?
    Ensuite utiliser un GPU comme un CPU c'est un peu idiot quelque part car il y a des câblages internes qui ne seront jamais sollicités donc en définitif ça revient à n'utiliser un composant électronique que partiellement en deça de ses capacités

  18. #18
    Inactif  

    Homme Profil pro
    NR
    Inscrit en
    Juin 2013
    Messages
    3 715
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : NR
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2013
    Messages : 3 715
    Points : 1 184
    Points
    1 184
    Billets dans le blog
    9
    Par défaut
    Citation Envoyé par Mat.M Voir le message
    c'est exact et d'un autre côté comme je l'ai écris dans mon précédent message quel intérêt de mettre sur une carte mère des chipsets dédiés aux graphismes 3d si le système informatique ( PC, smartphone,tablette...) que l'on utilise ne sert qu'à consulter des sites webs ou faire de l'info de gestion ?
    les navigateurs web et les OS (ou plutôt l'interface graphique de windows, KDE...) utilisent l’accélération matériel (en opengl, vulkan, direct3D...) qui utilisent le gpu.
    C'est donc très utile d'avoir un petit gpu/gpu embarqué dans le cpu

  19. #19
    Futur Membre du Club
    Profil pro
    Inscrit en
    Septembre 2007
    Messages
    5
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2007
    Messages : 5
    Points : 9
    Points
    9
    Par défaut Pas idiot...
    Actuellement les applications de reconnaissance vocale et tout ce qui concerne l'IA a le vent en poupe et c'est une tendance lourde. Dès qu'il est question d'IA, des langages comme CUDA arrivent vite dans la discussion.

    Pour ma part je verrai bien un renversement de la tendance : Jusqu'à maintenant on faisait les choses "intéressantes" sur CPU, et on refilait la gestion de la vidéo à un GPU. Maintenant que le GPU a prouvé qu'il peut avoir d'autres intérêts, il est envisageable que les choses intéressantes se fassent désormais dessus, et que les programmes monotaches sur CPU soient considérés comme peu importants, un peu comme on voit les drivers aujourd'hui (J'ai pas dit que les drivers ne sont pas importants, c'est juste que le pékin moyen s'en contrefiche tant que ça fonctionne).

    Le fait de remplacer le CPU par un GPU n'a pas de sens vu qu'il y a beaucoup de tâches qui sont parfaitement adaptées au CPU. On peut par contre imaginer que dans quelques années, c'est le GPU qui sera vu comme le coeur du PC. Le CPU devenant une annexe, le composant qui gère les périphériques et c'est tout. Et un peu plus tard le CPU serait intégré au GPU et on l'oublierait totalement.

    Bref, de mon point de vue, s'il est clair que NVidia prêche pour sa paroisse, ce qu'ils disent est loin d'être déconnant.

  20. #20
    Membre confirmé Avatar de pierre.E
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Janvier 2016
    Messages
    241
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués
    Secteur : Industrie

    Informations forums :
    Inscription : Janvier 2016
    Messages : 241
    Points : 570
    Points
    570
    Par défaut
    euh un cpu fait juste un type d'opération a savoir des additions donc pour faire une opération mathematique plus complexe il lui faut plein de cycle d'horloge
    un gpu est capable de faire certaine opération mathématique en peu cycle d'horloge car gravé dans le silicium
    l avenir c est donc le cgpu

Discussions similaires

  1. Qu'est-ce que je n'ai pas compris dans les threads ?
    Par Patrice Henrio dans le forum Concurrence et multi-thread
    Réponses: 25
    Dernier message: 27/01/2014, 12h56
  2. Réponses: 4
    Dernier message: 18/09/2011, 15h50
  3. Réponses: 6
    Dernier message: 30/09/2009, 11h26
  4. Réponses: 15
    Dernier message: 15/04/2008, 15h25
  5. Réponses: 3
    Dernier message: 26/04/2007, 12h50

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo