IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Hardware Discussion :

La prochaine génération de GPU NVIDIA pourrait débarquer fin 2018, avec des dies empilés


Sujet :

Hardware

  1. #1
    Expert éminent sénior

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mars 2017
    Messages
    1 177
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Madagascar

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2017
    Messages : 1 177
    Points : 78 774
    Points
    78 774
    Par défaut La prochaine génération de GPU NVIDIA pourrait débarquer fin 2018, avec des dies empilés
    La prochaine génération de GPU NVIDIA pourrait débarquer fin 2018, avec des dies empilés
    Grâce à la technologie WoW de TSMC

    En marge de la conférence TSMC Technology qui a été organisée au début de ce mois à Santa Clara, aux États-Unis, par le fabricant taïwanais de semi-conducteurs TSMC, l’entreprise américaine Cadence a effectué une série d’annonces en rapport avec les percées technologiques les plus récentes réalisées par son partenaire TSMC.

    D’après Cadence, les travaux réalisés par TSMC pour la mise en œuvre de procédés de gravure en 5 nm (nanomètres) et 10 nm+ (ou 10 nm haute performance) seraient sur la bonne voie. Le fabricant de semi-conducteurs taïwanais devrait d’ailleurs être en mesure de proposer le 5 nm à ses différents partenaires dès le premier trimestre de l’année prochaine. Les puces pour mobiles et HPC devraient être les premières bénéficiaires de ces technologies de gravure une fois qu’elles seront arrivées à maturité.

    Cadence a également confirmé que TSMC était résolu à mettre sur pied la première usine du monde dédiée au 3 nm à Taiwan, comme le fondeur l’avait annoncé l’année dernière, sans toutefois donner une date précise pour le lancement du projet.
    Mais la révélation la plus importante faite par l’entreprise américaine concerne probablement la technologie « Wafer-on-Wafer » (WoW) sur laquelle le fondeur taïwanais travaillerait actuellement. Cette technologie devrait permettre d’empiler les dies de GPU ou de CPU afin de concevoir des puces 3D plus performantes dans un encombrement réduit, à l’image de ce que SK Hynix et AMD font déjà pour leurs mémoires HBM.

    Nom : 1-1260.jpg
Affichages : 5479
Taille : 13,7 Ko

    La technologie WoW permet à deux dies d’être réunis dans un « bloc unifié » et de communiquer par le biais d’un TSV (Thru Silicon Via). Ce procédé permettrait au moins de doubler le nombre d’unités de calcul ou de cœurs d’une puce, en supposant que les dies élémentaires des CPU ou des GPU qui la constituent sont identiques. On pourrait même imaginer des puces au format MCM (Multi-Chip-Module) constituées de plusieurs « blocs unifiés » qui utiliseraient un interposeur pour mettre en commun ces différents blocs. L’un des avantages de ce procédé est qu’il permet de se focaliser sur la conception des dies moins complexes et moins volumineux, ce qui pourrait contribuer à réduire de manière significative le taux de rebut dans la chaine de production.

    Nom : AMD-Vega-GPU-MCM-Yield-Gains.jpg
Affichages : 5632
Taille : 37,4 Ko

    Ce procédé permettrait d’induire l’augmentation exponentielle du nombre de cœurs ou d’unités de calcul présent sur une puce sans qu’aucun progrès technologique supplémentaire ne soit nécessaire (technologie de gravure améliorée par exemple) et donnerait la possibilité à des fabricants comme AMD ou NVIDIA de mettre au point des circuits graphiques plus performants à moindre coût. Il faut préciser qu’à l’inverse de systèmes comme le SLI de NVIDIA ou le CrossFire d’AMD, les processeurs exploitant cette technologie seront reconnus comme une seule entité.

    Le problème qui se pose néanmoins avec cette technologie concerne d’une part la TDP des puces qui l’exploiteront et d’autre part la bande passante et la latence autorisées par les éléments utilisés pour l’interconnexion entre et au sein des « blocs unifiés ». Ces puces devront probablement voir la valeur de leur TDP abaissée, tout comme les fréquences et voltages qui leur sont appliqués, afin de rester fonctionnelles, à moins qu’un système de refroidissement novateur ne soit implémenté pour les refroidir correctement. D’un autre côté, on ne peut pas négliger le fait qu’une plus grande proximité entre les différents blocs unifiés d’une telle puce MCM permettrait d’obtenir des latences plus faibles, une bande passante plus élevée et un produit final moins énergivore.

    Dans le cas où TSMC viendrait à confirmer cette information, WoW serait le troisième procédé 3D de fabrication de semi-conducteurs développé par cette entreprise, après CoWoS (chip-on-wafer-on-substrate) et InFO (integrated-fan-out). La technologie WoW devrait être incluse dans le panel de solutions proposées par le fondeur taïwanais dans le cadre de ce qui s’apparente à une offre baptisée SoIC (system on integrated chips).

    Cette technologie pourrait éventuellement faire son apparition dans les prochains GPU de NVIDIA, sachant que ce fabricant de GPU et fidèle client de l’entreprise TSMC aurait prévu de lancer des circuits graphiques nouvelle génération pour les appareils mobiles d’ici la fin de cette année.

    Source : Cadence, WccfTech, VideoCardz

    Et vous ?

    Qu’en pensez-vous ?

    Voir aussi

    NVIDIA envisage d'intégrer plusieurs puces dans un même boîtier pour monter en performance, chaque module serait plus simple à fabriquer
    AMD lance son offensive dans l'embarqué avec ses nouveaux CPU embarqués EPYC et Ryzen, des puces spécialisées ciblant des marchés bien spécifiques
    NVIDIA présente sa nouvelle génération de cartes graphiques, Volta accélère d'un facteur trois l'apprentissage profond grâce à ses cœurs tensoriels
    Le CEO de NVIDIA déclare que les GPU remplaceront les CPU dans les années à venir et annonce que la loi de Moore n'est plus valable
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Inactif  
    Profil pro
    Inscrit en
    Août 2008
    Messages
    238
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Août 2008
    Messages : 238
    Points : 620
    Points
    620
    Par défaut
    Verra-t'on un jour une unité centrale complète intégrée sur un seul die ?

    Et quid de la dispersion thermique ?

  3. #3
    Bot Troll en alpha-test

    Femme Profil pro
    Webmarketer
    Inscrit en
    Septembre 2016
    Messages
    133
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 28
    Localisation : France, Marne (Champagne Ardenne)

    Informations professionnelles :
    Activité : Webmarketer
    Secteur : Enseignement

    Informations forums :
    Inscription : Septembre 2016
    Messages : 133
    Points : 0
    Points
    0
    Billets dans le blog
    1
    Par défaut
    super, je vais enfin pouvoir rejouer a WoW

  4. #4
    Membre extrêmement actif
    Homme Profil pro
    Graphic Programmer
    Inscrit en
    Mars 2006
    Messages
    1 537
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Graphic Programmer
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2006
    Messages : 1 537
    Points : 3 909
    Points
    3 909
    Par défaut
    c'est quoi un die ?

    Citation Envoyé par datalandia Voir le message
    super, je vais enfin pouvoir rejouer a WoW
    je comprend pas pourquoi tu t'es prit 6 pouces rouge sur ce commentaire....c'est pas bine méchant quand meme

  5. #5
    Membre régulier Avatar de _champy_
    Homme Profil pro
    Chef de projet progiciel patrimoine route/tram/aeroport
    Inscrit en
    Novembre 2017
    Messages
    26
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Chef de projet progiciel patrimoine route/tram/aeroport
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2017
    Messages : 26
    Points : 75
    Points
    75
    Par défaut
    c'est quoi un die ?
    Un petit morceau de semi-conducteur sur lequel un circuit intégré électronique a été fabriqué.

    Quand même : https://fr.wikipedia.org/wiki/Die

  6. #6
    Membre éclairé Avatar de Matthieu76
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Mars 2013
    Messages
    568
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2013
    Messages : 568
    Points : 890
    Points
    890
    Par défaut
    C'est bien beau toutes ces explications mais cela soulève beaucoup de questions.

    Quel en sera l'impact ?

    • Cela va-il fortement augmenter les performances des GPU ?
    • L'impact sera-il plus important pour les pc portables que pour les pc fixes ?
    • Et au niveau du prix, qu'en est-il ?

  7. #7
    MikeRowSoft
    Invité(e)
    Par défaut
    Citation Envoyé par Aiekick Voir le message
    c'est quoi un die ?
    Un mot, de la langue allemande vers le langue française il y a la traduction "la" selon l'outil de traduction que j'ai utilisé.

  8. #8
    Membre extrêmement actif
    Avatar de benjani13
    Homme Profil pro
    Consultant en sécurité
    Inscrit en
    Février 2010
    Messages
    615
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ain (Rhône Alpes)

    Informations professionnelles :
    Activité : Consultant en sécurité

    Informations forums :
    Inscription : Février 2010
    Messages : 615
    Points : 2 824
    Points
    2 824
    Par défaut
    Citation Envoyé par Matthieu76 Voir le message
    C'est bien beau toutes ces explications mais cela soulève beaucoup de questions.

    Quel en sera l'impact ?

    • Cela va-il fortement augmenter les performances des GPU ?
    • L'impact sera-il plus important pour les pc portables que pour les pc fixes ?
    • Et au niveau du prix, qu'en est-il ?
    Et aussi l'impact sur le reste des composants d'un PC. Si un composant connait une petite révolution et voit ses capacités décuplées (comme il est prétendu ici pour les CGs), il y a de fortes chances que les autres composants doivent se mettre à niveau (besoin de lignes pci plus rapides, d'un processeur plus rapide pour orchestrer le tout).

    Citation Envoyé par Aiekick Voir le message
    je comprend pas pourquoi tu t'es prit 6 pouces rouge sur ce commentaire....c'est pas bine méchant quand meme
    Par ce que son commentaire n'apporte rien du tout et ne veut de toute façon rien dire (pas besoin d'une CG de nouvelle génération pour jouer à WoW), et que c'est un troll connu et reconnu. PS: Je remercie aussi mon voisin du dessus pour sa grande utilité et pour l'ensemble de son œuvre sur ce forum.

  9. #9
    MikeRowSoft
    Invité(e)
    Par défaut
    Cela ne chamboulera pas la loi de Moore ?

  10. #10
    Expert confirmé Avatar de sergio_is_back
    Homme Profil pro
    Responsable informatique, développeur tout-terrain
    Inscrit en
    Juin 2004
    Messages
    1 076
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Responsable informatique, développeur tout-terrain
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 076
    Points : 5 541
    Points
    5 541
    Par défaut
    Citation Envoyé par benjani13 Voir le message
    PS: Je remercie aussi mon voisin du dessus pour sa grande utilité et pour l'ensemble de son œuvre sur ce forum.
    Je dirais que ça tiens même plus du roman en plusieurs tomes, on devrait faire une compilations des meilleurs...



    Scusez-moi mais quand j'ai l'occasion de rire j'en profite.....

  11. #11
    Membre à l'essai
    Inscrit en
    Avril 2010
    Messages
    14
    Détails du profil
    Informations forums :
    Inscription : Avril 2010
    Messages : 14
    Points : 16
    Points
    16
    Par défaut
    Il faisait juste un jeu de mot avec l'acronyme de Wafer on Wafer, rien à voir avec un quelconque troll.
    Apprenez à avoir de l'humour.

  12. #12
    Membre régulier
    Homme Profil pro
    Étudiant
    Inscrit en
    Juin 2014
    Messages
    52
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 30
    Localisation : France, Haute Marne (Champagne Ardenne)

    Informations professionnelles :
    Activité : Étudiant
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Juin 2014
    Messages : 52
    Points : 71
    Points
    71
    Par défaut
    Dans un premier temps les problèmes de TDP ne permettra pas de faire des puces trop gourmande mais si on a beaucoup d'unitées on peut pas mal baisser la fréquence ce qui fera bien chuter la conso et tiendra dans un plus petit TDP.

    Je pense que l'on verra surtout la différence dans le mobile ou alors sur des écrans de haute résolution 2k ou 4k.

    Si le caméléon augment le nombre d'unitées et baisse le fréquence, les GPU vont ressembler à ceux D'AMD qui pour le moment sont pas toujours bien exploiter par les jeux les logiciels pros tire mieux partie de cette configuration.

  13. #13
    Expert éminent sénior

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mars 2017
    Messages
    1 177
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Madagascar

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2017
    Messages : 1 177
    Points : 78 774
    Points
    78 774
    Par défaut Les GeForce Volta de NVIDIA pourraient supporter la technologie RTX, la norme HDMI 2.1
    Les GeForce Volta de NVIDIA pourraient supporter la technologie RTX, la norme HDMI 2.1
    La VRAM GDDR6 et un nouvel algorithme de Boost

    GTX de la série 1100 ou de la série 2000 ? Les rumeurs vont bon train concernant la nomenclature et la date de sortie probable de la prochaine génération de cartes graphiques GeForce de NVIDIA. Mais peu de détails vérifiables ont jusque-là filtré, qu’il s’agisse des spécifications ou des technologies qui caractériseront les GPU GeForce de la marque au caméléon basés sur l’architecture Volta.

    Nom : 0.jpg
Affichages : 5738
Taille : 14,6 Ko

    Une chose parait toutefois certaine : les circuits graphiques GeForce Volta de Nvidia qui succèderont à Pascal devraient introduire leur lot de nouveautés avec des améliorations d’importance variable. Certaines de ces nouveautés ont d’ores et déjà été exposées, alors que d’autres restent encore dans le domaine strict de la spéculation. Il est, par exemple, fort probable de retrouver sur la prochaine génération de circuits graphiques GeForce des verts deux nouvelles technologies : la norme HDMI 2.1 et la technologie RTX.

    C’est pendant la Game Developers Conference 2018 qui s’est tenu en mars dernier que NVIDIA a présenté sa technologie RTX, une technologie de ray tracing (procédé bien connu de l’industrie du cinéma) qui permet aux créateurs de contenu et aux développeurs de jeux vidéo de proposer un rendu de qualité cinéma en temps réel pour donner vie à des mondes virtuels. Concrètement, cette technologie autorise un contrôle plus fin sur la luminosité, les reflets et les ombres afin de fournir des rendus qui sont censés être plus vivants et plus proches du monde réel.

    La technologie RTX a été développée par NVIDIA en étroite collaboration avec Microsoft et devrait faire son apparition sur les GPU GeForce nouvelle génération exploitant l’architecture Volta. Cette fonctionnalité a par ailleurs déjà été implémentée par la marque au caméléon sur ses GPU Titan V et Quadro GV100.


    La norme HDMI 2.1 annoncée au Consumer Electronics Show (CES) 2017 a, pour sa part, été lancée officiellement en novembre dernier par le Forum HDMI. Elle a introduit plusieurs améliorations qui concernent notamment le débit, la définition et la qualité d’image. La norme HDMI 2.1 supporte des définitions d’affichage pouvant aller jusqu’à 10K (soit 10240 x 4320 pixels), HD, FHD, 4K et 8K inclus.

    La norme HDMI 2.1 introduit également plusieurs nouveautés comme le support des technologies :

    • Dynamic HDR qu’il ne faut pas confondre avec le Static HDR qui était déjà pris en charge par la norme 2.0. La technologie Dynamic HDR propose un espace colorimétrique théoriquement infini afin d’offrir, en temps réel, de meilleurs rendus pour les contrastes et les détails ainsi qu’une meilleure luminosité ;
    • VRR ou fréquence de rafraîchissement variable qui permet d’optimiser l’expérience de jeu. Elle rappelle fortement les technologies G-Sync/FreeSync proposées par NVIDIA/AMD ;
    • eARC (enhanced Audio Return Channel) qui est censée améliorer la qualité audio ;
    • ALLM (auto low latency mode), QFT (quick frame transport) et QMS (quick media switching) qui promettent des temps de latence plus faibles pour une amélioration de l’expérience d’utilisation.

    Elle est compatible avec les contenus en 4K (jusqu’à 120 Hz) et en 8K (jusqu’à 60 images/seconde) et peut gérer une bande passante maximale de 48 Gb/s, contre 18 Gb/s pour la norme HDMI 2.0. Elle pourrait très bien faire ses premiers pas du côté de NVIDIA avec le lancement des GPU GeForce Volta.

    Nom : 0 (1).jpg
Affichages : 5062
Taille : 13,1 Ko

    D’un autre côté, nous savons d’ores et déjà que les entreprises technologiques Micron, Samsung et SK Hynix produisent la mémoire GDDR6 en masse destinée au marché des circuits graphiques. Le fabricant de GPU GeForce aurait tout intérêt à équiper ses nouveaux GPU avec cette mémoire plus performante que la GDDR5 ou la GDDR5X afin de conforter sa position de leader sur le marché.

    On pourrait enfin suspecter l’arrivée probable d’un nouvel algorithme permettant de mieux contrôler les fréquences du GPU, sachant que depuis trois générations l’entreprise a, à chaque fois, procédé à une mise à jour de son algorithme de Boost. La dernière en date caractérisant l’architecture Pascal a permis au fabricant de GPU de commercialiser des circuits graphiques pouvant monter jusqu’à 2 GHz en fréquence, voire plus dans certains cas, avec une relative facilité. L’algorithme GPU Boost est déjà à sa troisième itération et il ne serait pas surprenant de découvrir une quatrième version sur les nouvelles cartes de la génération Volta ou un tout nouveau mécanisme de contrôle.

    Source : WccfTech

    Et vous ?

    Qu’en pensez-vous ?

    Voir aussi

    La prochaine génération de GPU NVIDIA pourrait débarquer fin 2018, avec des dies empilés, grâce à la technologie WoW de TSMC
    Le CEO de NVIDIA déclare que les GPU remplaceront les CPU dans les années à venir et annonce que la loi de Moore n'est plus valable
    NVIDIA envisage d'intégrer plusieurs puces dans un même boîtier pour monter en performance, chaque module serait plus simple à fabriquer
    NVIDIA demande aux détaillants d'arrêter de vendre ses GPU GeForce aux mineurs de crytomonnaies pour contrer la pénurie et la hausse des prix des GP
    NVIDIA présente sa nouvelle génération de cartes graphiques, Volta accélère d'un facteur trois l'apprentissage profond grâce à ses cœurs tensoriels
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  14. #14
    MikeRowSoft
    Invité(e)
    Par défaut
    La démo en vidéo n'est vraiment pas terrible si c'est pour convaincre... Je présume que je n'ai pas le bon HW.
    Pourtant j'ai le souvenir de démos sur de plus anciens GPU si sont à couper le souffle...
    Dernière modification par MikeRowSoft ; 15/06/2018 à 20h11.

  15. #15
    Nouveau Candidat au Club
    Homme Profil pro
    historien & product owner
    Inscrit en
    Mai 2018
    Messages
    618
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : Algérie

    Informations professionnelles :
    Activité : historien & product owner

    Informations forums :
    Inscription : Mai 2018
    Messages : 618
    Points : 0
    Points
    0
    Par défaut
    +1 MikeRowSoft
    la video de démo est effectivement pas terrible...
    c'est pas ce genre de démo qui vas me faire dépenser dans un nouveau gpu en tous cas.

  16. #16
    MikeRowSoft
    Invité(e)
    Par défaut
    C'est surtout les tons pastelles des lumières du plafond qui font ça je pense.
    Les autres détails sont très bien travaillés sur le plan "technique/modélisation/visuel".

    https://gaming.youtube.com/watch?v=3KrkuPMMI5I

    Je comprend mieux pourquoi tu achètera pas de nouvelle carte graphique.
    Cependant regarde bien les "hautes" herbes et plantes en tout genre. J'aurais juré de la 2D...



    Celle ci explique mieux le principe.

    P.S. : On dirait bien que la prise en compte de gaz ambiant n'a pas lieu, pourtant le gaz est comme un " liquide " sur le principe.
    Dernière modification par MikeRowSoft ; 17/06/2018 à 09h27.

  17. #17
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 249
    Points
    66 249
    Par défaut NVIDIA lance GeForce RTX 2060 qui dispose de 1920 cœurs CUDA
    NVIDIA lance GeForce RTX 2060 qui dispose de 1920 cœurs CUDA
    240 cœurs Tensor et 30 cœurs RT

    Fin décembre 2018, Videocardz divulguait quelques informations et spécifications à propos de la GeForce RTX 2060 de Nvidia. « Nous pouvons maintenant confirmer que le GeForce RTX 2060 dispose de 1920 cœurs CUDA, 240 cœurs Tensor, 30 cœurs RT, 120 TMU et 48 ROP. L'horloge boost de 1680 MHz sera la même pour les cartes de référence et les éditions Founders. Les partenaires du Conseil d’administration proposeront des modèles stock et overclockés en usine », avait annoncé Videocardz. Aussi poursuivait-il, le RTX 2060 est un modèle de milieu de gamme remplaçant la GTX 1060 de l’architecture Pascal. Nvidia indiquait tout au long du Guide des réviseurs qu’elle offrira des performances comparables à celles de la GeForce GTX 1070 Ti.

    Selon le même guide, RTX 2060 offrirait une expérience jouable dans Battlefield V avec la fonction de lancer de rayons (1080p). Il prévoyait que la GeForce RTX 2060 devrait être introduite le 7 janvier passé au prix de 349 USD (même prix pour les cartes Custom et Founders Edition). La carte sera fournie gratuitement avec Battlefield V ou Anthem. Le modèle de Turing le plus lent sera lui disponible dans les magasins à partir du 15 janvier prochain. Il avait également fourni une fiche technique de la série Nvidia GeForce RTX 20 (Nvidia GeForce RTX 2080 Ti, Nvidia GeForce RTX 2080, Nvidia GeForce RTX 2070 et Nvidia GeForce RTX 2060).

    Cela s’est révélé être vrai, puisque pour cette conférence CES de 2019, Nvidia a saisi l’occasion pour annoncer la sortie officielle de GeForce RTX 2060. Ce dernier est un produit GPU à l’endroit des joueurs équipés de moniteurs Full HD et voulant jouer dans de très bonnes conditions et profiter d’une expérience de jeux enrichie. Selon Nvidia, la GeForce RTX 2060, dispose pour ses performances de similitudes avec la GeForce GTX 1070 Ti avec la possibilité de jouer à des jeux dotés d’effets améliorés (jeux compatibles Battlefield V pour l’instant) et de jouir d’un nouveau type d’antialiasing (le DLSS). Nvidia a annoncé que ses essais sous Battlefield V montrent par ailleurs que la carte est tout à fait en mesure d'assurer un débit d'images suffisant pour jouer à ce jeu en WQHD (1440p) avec les options graphiques poussées à leur maximum.

    Nom : Capture du 2019-01-09 08-43-12.png
Affichages : 10658
Taille : 58,3 Ko

    En Full HD (1080p), le débit moyen est supérieur à 100 i/s, ce qui est assez satisfaisant. En revanche, l'activation des effets DXR met à mal la carte qui ne débite plus que 56 i/s de moyenne en Full HD avec les effets DXR en Ultra et 68 i/s avec les effets DXR à leur minimum. Le mode minimal reste donc satisfaisant, mais en Ultra, certaines baisses de régime sont à prévoir. La GeForce RTX 2060 débarque au tarif de 369 €. Ce tarif, s'il est respecté, est également assez inférieur à celui pratiqué actuellement par les commerçants sur les GeForce GTX 1070 Ti et GeForce GTX 1070, deux modèles désormais vendus à plus de 410 € hors promotion. On est en revanche assez loin du tarif du modèle réellement remplacé, la GeForce GTX 1060 6 Go, que l'on trouve désormais entre 230 et 280 €.

    Ce modèle était pour sa part sorti à 319 € sur le site de Nvidia avec des premiers prix débutant à 279 €. Bref, Nvidia confirme une nouvelle fois que sa génération de GeForce RTX 20 fait glisser le tarif d'un cran vers le haut. La carte serait disponible dans une infinité de modèles grâce aux nombreux constructeurs tiers comme Asus, MSI, Zotac ou EVGA (entre autres), ce qui devrait offrir une large gamme de tarifs et de performances. En ce qui concerne le modèle de référence “Founder's Edition”, ce dernier conserve le système de refroidissement à vapor chamber avec deux ventilateurs axiaux qu'on a pu voir sur toutes les nouvelles RTX.

    Au sein des internautes, tout le monde n'accueillent pas la nouvelle de la même manière. Certains s’interrogent de savoir depuis quand les cartes graphiques de milieu de gamme coûtent plus cher qu'une console de jeu. D’autres s’inquiètent pour la firme notamment à cause du marché des cryptomonnaies. Ils jugent de la cherté du GPU et se demandent si Nvidia compte sur ce marché là pour le lui acheter. A ce propos, ils indexent l’une de ces monnaies, l’Ethereum Classic, qui a subit depuis ce week-end une vague d’attaques à 51 %. Autre chose, récemment dans une plainte, le cabinet d’avocats Schall Law Firm basé à Los Angeles, accuse le fabricant de GPU, NVIDIA, d’avoir induit ses actionnaires en erreur en surestimant sa capacité à résister à l’effondrement du marché des monnaies virtuelles, concernant les opérations spécifiques de minage de monnaies cryptographiques effectuées par l’intermédiaire de GPU.

    D’après Schall Law Firm, l’entreprise a fait des déclarations publiques fausses et trompeuses  sur le marché, en soutenant que toute baisse de la demande pour ses GPU sur le marché du minage des monnaies cryptographiques n’aurait pas d’impact négatif sur les activités de la société en raison de la forte demande de GPU sur le marché des jeux . Elle a également vanté  sa capacité à surveiller le marché des monnaies cryptographiques et à apporter des modifications rapides à son activité si nécessaire. Pour finir, la compatibilité avec son système d'antialiasing DLSS permettrait d'observer des performances plus élevées au détriment de la netteté ; la DLSS apportant un très léger effet de flou sur les scènes très rapides. Pour l’instant, la société teste son outil sur divers jeux et fournira dans les jours à suivre les résultats obtenus et découvrir le comportement de la carte sur le plan des nuisances sonores et de la consommation électrique.

    Sources : Videocardz, Nvidia, AnandTech

    Et vous ?

    Qu'en pensez-vous ?

    Voir aussi

    NVIDIA pourrait faire face à un recours collectif lié à l'implosion du marché des cryptomonnaies le groupe est accusé d'avoir trompé ses actionnaires

    Les cryptomonnaies à la base de résultats financiers spectaculaires chez les fabricants de cartes graphiques, mais cela va-t-il encore durer ?

    NVIDIA demande aux détaillants d'arrêter de vendre ses GPU GeForce aux mineurs de cryptomonnaies, pour contrer la pénurie et la hausse des prix des GPU

    Les ventes de GPU NVIDIA ont connu une croissance plus forte que celles des GPU AMD et Intel au troisième trimestre 2017, d'après une étude

    Les GPU de seconde main envahissent le marché avec la baisse de la cryptomonnaie d'Ethereum, déjà la fin de la pénurie des cartes graphiques ?
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  18. #18
    Membre habitué
    Homme Profil pro
    Développeur .NET
    Inscrit en
    Juin 2012
    Messages
    80
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur .NET
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2012
    Messages : 80
    Points : 163
    Points
    163
    Par défaut
    (amicalement) j'ai eu beaucoup de mal à lire l'article. Je dois être fatigué.

  19. #19
    Membre éclairé
    Inscrit en
    Mai 2003
    Messages
    265
    Détails du profil
    Informations personnelles :
    Âge : 43

    Informations forums :
    Inscription : Mai 2003
    Messages : 265
    Points : 707
    Points
    707
    Par défaut
    +1, l article est difficile à lire.

  20. #20
    Membre régulier
    Homme Profil pro
    Étudiant
    Inscrit en
    Juin 2014
    Messages
    52
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 30
    Localisation : France, Haute Marne (Champagne Ardenne)

    Informations professionnelles :
    Activité : Étudiant
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Juin 2014
    Messages : 52
    Points : 71
    Points
    71
    Par défaut
    Citation Envoyé par myNameIsFlo Voir le message
    (amicalement) j'ai eu beaucoup de mal à lire l'article. Je dois être fatigué.
    Nvidia essaye d'implimenté dans ses drivers qui arrivent la compatibilité freesync, Nvidia étant assez exigent seulement une faible minorité semble être compatible a 100%

    Il faut dire que freesync Version 1 par AMD était très large comme norme et laissais trop de moue au fabricant niveau plage de fréquence utile pour le freesync ... mais bon sens ce laxisme la sauce n'aurais peut être pas prise, les Freesync V2 sont bien meilleurs et offre une plage de synchronisation entre l'écrans et la carte plus élever cela évite de sortir et re-rentré trop sauvent dans cette plage et crée des problèmes visuel ...

    il y a pas mal d'article sur le Freesync si vous voulez en savoir plus, j'arrive a vulgariser mais pour rentré dans les détails c'est plus compliqué et je ne maîtrise pas tout les thermes

Discussions similaires

  1. Réponses: 6
    Dernier message: 12/04/2018, 01h16
  2. NVIDIA lance la génération de GPU Volta
    Par dourouc05 dans le forum Coprocesseurs et calcul hétérogène
    Réponses: 10
    Dernier message: 03/08/2017, 11h47
  3. Réponses: 0
    Dernier message: 17/03/2010, 15h49
  4. Réponses: 16
    Dernier message: 08/11/2009, 18h52
  5. Réponses: 0
    Dernier message: 14/10/2009, 16h38

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo