IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Hardware Discussion :

Les GPU Nvidia Blackwell RTX 5000 pourraient être lancés plus tôt que prévu


Sujet :

Hardware

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 249
    Points
    66 249
    Par défaut Les GPU Nvidia Blackwell RTX 5000 pourraient être lancés plus tôt que prévu
    Nvidia annonce des puces graphiques GeForce RTX de la série 3000 basées sur la nouvelle architecture Ampère de la société
    La démo du RTX 3090 de Nvidia met l'accent sur l'absurdité du jeu 8K

    Nvidia a dévoilé mardi ses nouvelles puces graphiques GeForce RTX série 3000 : les GeForce RTX 3070, 3080 et 3090. Ces trois puces incluront la seconde génération de RTX, ou graphiques de ray tracing en temps réel. Elles sont basées sur la nouvelle architecture Ampère de la société et sont conçues pour succéder aux puces GeForce RTX de la série 2000. Elles apportent des performances graphiques 3D améliorées, deux fois supérieures à celles de l'architecture Turing de la génération précédente et 1,9 fois plus efficaces en termes de consommation d'énergie.

    L’annonce des RTX 3000 par Jensen Huang, le PDG de Nvidia, confirme plus d'un mois de rumeurs de fuites et de conceptions de puces. L’annonce a été accueillie par une vague d'autres annonces de partenariats matériels, applicatifs et logiciels. « C’est le plus grand saut générationnel que nous ayons jamais fait », a déclaré Huang lors d'un point de presse. Il a poursuivi en laissant entendre ce qui suit : « Si les 20 dernières années ont été étonnantes, les 20 prochaines ne ressembleront à rien de moins que de la science-fiction ».

    Pour commencer, Nvidia a introduit le ray tracing en temps réel il y a deux ans avec sa première génération de RTX, et les jeux ont commencé à l'adopter. Cette technologie a considérablement amélioré le réalisme des ombres, des reflets, ainsi que l'éclairage dans les jeux. Les développeurs de jeux n'étaient pas prêts jusque-là, mais Huang a déclaré mardi qu'il y a à présent des centaines de jeux RTX en cours de développement. En outre, il a aussi ajouté que des jeux tels que Minecraft, Control, et “Wolfenstein 3D : Youngblood” utilisent déjà RTX.


    Parlant de Fortnite, Huang a déclaré que le jeu activera les fonctions du ray tracing en temps réel sur RTX prochainement pour améliorer les caractéristiques de réalisme graphique telles que les reflets, les ombres, l'éclairage global et l'occlusion ambiante. De plus, le processus Ampere fait apparaître 28 milliards de transistors sur les nouvelles puces, contre 19,8 milliards à Turing, et il prend également en charge ce que Huang décrit comme une « mémoire G6X à modulation d'amplitude d'impulsion à quatre niveaux ». Ce qui apporte plus de puissances aux nouvelles puces.

    Selon les propos de Huang, elles devraient doubler les performances graphiques des dernières puces qui utilisent l’architecture Turing. À titre illustratif, la RTX 3080, conçue pour succéder aux puces RTX 2080 et 2080 Ti, devrait en temps normal doubler les performances offertes par la RTX 2080. Huang soutient qu’elle est plus rapide que la RTX 2080 Ti et qu’elle sera livrée avec 10 Go de mémoire GDDR6X. Elle sera vendue au prix de 699 dollars lors de son expédition le 17 septembre. La RTX 3090, une puce haut de gamme, sera livrée à partir du 24 septembre à 1499 dollars, avec une mémoire de 24 Go.

    Bien que Huang affirme que la RTX 3070 dépassera la RTX 2080 Ti, il est plutôt considéré comme une puce “1440p, 60fps”, avec des effets RTX activés. L’on estime qu’il s’agit de la performance que vous pouviez attendre actuellement d'un RTX 2080 Ti. Son seuil de 4K/60fps est plus facile à atteindre avec des effets RTX réduits ou DLSS augmentés. La RTX 3070 commencera à être livrée en octobre au prix de 499 dollars. Par ailleurs, la RTX 3090 comporte 10 496 cœurs CUDA, 8 704 pour la RTX 3080 et 5 888 pour la RTX 3070.

    C’est un bond significatif par rapport aux 4352 cœurs CUDA de la RTX 2080 Ti apparue à la fin de l’année 2018. La société utilise un nouveau connecteur à 12 broches sur ses nouvelles puces RTX 3000, plus petit que les deux connecteurs traditionnels à huit broches. Nvidia a prévu d’inclure un adaptateur compatible avec les câbles à huit broches avec ses puces Founders Edition. Il a choisi un connecteur à 12 broches pour laisser plus de place sur la carte pour les composants et le refroidissement.

    En outre, Huang a présenté Nvidia Reflex, qui permet aux écrans de fonctionner à des vitesses plus élevées, ce qui favorise les temps de réaction des joueurs compétitifs. Reflex réduit la latence, ou les délais d'interaction, jusqu'à 50 %. Il a également présenté Omniverse Machinima, qui permet aux joueurs d'utiliser les jeux pour raconter des histoires avec des animations en temps réel. Et il a dévoilé la diffusion gratuite de Nvidia Broadcast, qui permet de diffuser plus facilement des jeux en streaming sans aucun problème.

    Par rapport aux jeux 8K, la RTX 3090 aurait permis de montrer que cette résolution n’est pas aussi fiable qu’on le dit. En effet, dans sa vidéo promotionnelle sur la RTX 3090, Nvidia a fait s'asseoir un certain nombre de livestreamers et d'influenceurs pour leur faire découvrir le jeu à 4320p. Les résultats ont semblé impressionner toutes les personnes impliquées. Elles ont fourni beaucoup de halètements et d'exclamations. Cela dit, pour obtenir cette réaction, Nvidia a fait en sorte que ces personnes soient assises à quelques pas seulement d'un LG OLED 8K de 80 pouces.

    Cela est nécessaire pour obtenir ne serait-ce que les avantages minimaux de cette résolution. Même à 80 pouces, il faudrait s'asseoir à moins de 3 pieds du panneau pour remarquer une différence de densité de pixels entre 4K et 8K. Ainsi, certaines critiques qualifient le jeu 8K de « quête stupide ». Elles estiment également que la démonstration de Nvidia est utile pour d'autres raisons. La technologie DLSS de l'entreprise prend maintenant tout son sens. Le DLSS est le super-échantillonnage basé sur apprentissage profond qu’utilisent les GPU de Nvidia.

    Il leur permet de reconstruire une image de plus faible résolution en quelque chose avec beaucoup plus de détails. L’entreprise a passé les deux dernières années à travailler sur le DLSS, et d’après ces critiques, c'est la seule chose qui donne un sens au jeu 8K et même 4K. Dans la démo du jeu 8K du RTX 3090. Nvidia a fait tourner les jeux en 8K natif pour ses participants à la démonstration, mais cela a fait baisser les performances en dessous de 20 images par seconde. Même ce taux d'images est étonnant et témoigne de la puissance du RTX 3090.

    Cependant, le DLSS serait si performant qu'il transforme les ultra-hautes résolutions d'un luxe en une option insensée. Thomas Edison a promis de rendre l'électricité si bon marché que seuls les riches brûleraient des bougies, et maintenant Nvidia fait de même avec la résolution. DLSS fabrique du 4K et du 8K si bon marché que seuls les riches les utiliseront en natif. Pour cela, beaucoup pensent qu’on n'a pas vraiment besoin de plus de 4K pour les jeux, et certainement pas besoin du 8K.


    Source : Nvidia

    Et vous ?

    Qu'en pensez-vous ?

    Voir aussi

    NVIDIA lance GeForce RTX 2060 qui dispose de 1920 cœurs CUDA, 240 cœurs Tensor et 30 cœurs RT

    NVIDIA dévoile ses GPU Turing avec une GeForce RTX 2080 Ti en tête d'affiche qui promet des performances record en matière de ray tracing et d'IA

    Découvrez la chaîne de fabrication des cartes graphiques ZOTAC GeForce RTX 20XX, une vidéo retrace leur parcours jusqu'à la mise en boîte

    Les avantages des cartes NVIDIA RTX diminuent, le lancer de rayons disponible sur les GTX
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Modérateur
    Avatar de grunk
    Homme Profil pro
    Lead dév - Architecte
    Inscrit en
    Août 2003
    Messages
    6 690
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 39
    Localisation : France, Côte d'Or (Bourgogne)

    Informations professionnelles :
    Activité : Lead dév - Architecte
    Secteur : Industrie

    Informations forums :
    Inscription : Août 2003
    Messages : 6 690
    Points : 20 211
    Points
    20 211
    Par défaut
    Ainsi, certaines critiques qualifient le jeu 8K de « quête stupide ».
    C'était pareil avec le passage de HD à Full HD , puis de Full HD à 4K. On à la même rengaine du passage de 3G à 4G puis à 5G.
    Et puis finalement tout le monde se rue sur la nouvelle technologie quand elle devient disponible ...

    Donc oui , peut être qu'à l'instant présent, le 8K n'a pas d'intérêt. On lui en trouvera surement dans quelques temps.

    On peut sinon saluer la performance de Nvidia , qui continue à proposer des produits ultra performant alors qu'ils dominent déjà la concurrence et aurait pu simplement se contenter d'un petit upgrade de quelque % comme intel sait si bien le faire.
    Pry Framework php5 | N'oubliez pas de consulter les FAQ Java et les cours et tutoriels Java

  3. #3
    Membre habitué
    Profil pro
    Inscrit en
    Juin 2012
    Messages
    121
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2012
    Messages : 121
    Points : 173
    Points
    173
    Par défaut
    Citation Envoyé par grunk Voir le message
    C'était pareil avec le passage de HD à Full HD , puis de Full HD à 4K. On à la même rengaine du passage de 3G à 4G puis à 5G.
    Et puis finalement tout le monde se rue sur la nouvelle technologie quand elle devient disponible ...

    Donc oui , peut être qu'à l'instant présent, le 8K n'a pas d'intérêt. On lui en trouvera surement dans quelques temps.

    On peut sinon saluer la performance de Nvidia , qui continue à proposer des produits ultra performant alors qu'ils dominent déjà la concurrence et aurait pu simplement se contenter d'un petit upgrade de quelque % comme intel sait si bien le faire.
    Intel ne se contente pas d'un petit upgrade, ils galèrent et ne parviennent pas a innover. Suffit de voir le délire autour de la finesse de gravure en 10nm qu'ils promettent depuis des années. Ils en sont toujours au 14nm (14nm+, 14nm++ etc etc).

    Alors qu'à coté AMD grimpe a fond et réduit sérieusement son écart avec intel en terme de % du marché en innovant constamment avec sa gamme Ryzen.

  4. #4
    Membre extrêmement actif Avatar de darklinux
    Homme Profil pro
    Chef de projet en SSII
    Inscrit en
    Novembre 2005
    Messages
    570
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 47
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : Chef de projet en SSII
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2005
    Messages : 570
    Points : 1 023
    Points
    1 023
    Par défaut
    Qu'en pensez-vous ?

    d ' un point de vue cynique cela va permettre à la série 20xx d ' ètre abordable . Mais la série 3000 , donne une tel avance à Nvidia par rapport à AMD , qui ce permet de courir deux chevaux à la fois . Mais les avances en ML vont ètre extraordinaire

  5. #5
    Responsable Qt & Livres


    Avatar de dourouc05
    Homme Profil pro
    Ingénieur de recherche
    Inscrit en
    Août 2008
    Messages
    26 609
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : Ingénieur de recherche
    Secteur : Enseignement

    Informations forums :
    Inscription : Août 2008
    Messages : 26 609
    Points : 188 582
    Points
    188 582
    Par défaut
    Citation Envoyé par grunk Voir le message
    On peut sinon saluer la performance de Nvidia , qui continue à proposer des produits ultra performant alors qu'ils dominent déjà la concurrence et aurait pu simplement se contenter d'un petit upgrade de quelque % comme intel sait si bien le faire.
    S'ils continuent à monter en puissance, ce n'est pas forcément pour les joueurs, qui ne représentent pas une énorme partie de leurs profits. S'ils veulent être présents dans les superordinateurs à venir, ils n'ont pas d'autre choix que de proposer toujours plus de puissance de calcul en consommant moins d'énergie. Sinon, pour monter à un exaflops ou plus, les décideurs devront se tourner vers d'autres technologies…

    Citation Envoyé par Karshick Voir le message
    Intel ne se contente pas d'un petit upgrade, ils galèrent et ne parviennent pas a innover. Suffit de voir le délire autour de la vitesse de gravure en 10nm qu'ils promettent depuis des années. Ils en sont toujours au 14nm (14nm+, 14nm++ etc etc).
    Peut-être ne font-ils pas la lithographie la plus fine, mais il s'agit à chaque fois d'avancées sur d'autres points. Quand tu vois à quel point une puce Intel peut monter en fréquence par rapport à, par exemple, un processeur AMD, sans devoir recourir à du surcadençage, ça montre qu'Intel fait certains trucs mieux que la concurrence (au niveau microarchitectural, par contre, ils ne sont pas en avance…).
    Vous souhaitez participer aux rubriques Qt (tutoriels, FAQ, traductions) ou HPC ? Contactez-moi par MP.

    Créer des applications graphiques en Python avec PyQt5
    Créer des applications avec Qt 5.

    Pas de question d'ordre technique par MP !

  6. #6
    Modérateur
    Avatar de grunk
    Homme Profil pro
    Lead dév - Architecte
    Inscrit en
    Août 2003
    Messages
    6 690
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 39
    Localisation : France, Côte d'Or (Bourgogne)

    Informations professionnelles :
    Activité : Lead dév - Architecte
    Secteur : Industrie

    Informations forums :
    Inscription : Août 2003
    Messages : 6 690
    Points : 20 211
    Points
    20 211
    Par défaut
    Citation Envoyé par Karshick Voir le message
    Intel ne se contente pas d'un petit upgrade, ils galèrent et ne parviennent pas a innover. Suffit de voir le délire autour de la finesse de gravure en 10nm qu'ils promettent depuis des années. Ils en sont toujours au 14nm (14nm+, 14nm++ etc etc).

    Alors qu'à coté AMD grimpe a fond et réduit sérieusement son écart avec intel en terme de % du marché en innovant constamment avec sa gamme Ryzen.
    Si intel commence à être à la bourre c'est bien parce que il se sont reposé sur le domination du marché depuis plus de 10 ans.
    C'est économiquement bien plus intéressant d'essorer une architecture vieillissante plutôt que de repartir sur quelque chose de nouveau surtout quand la concurrence n'est pas à la hauteur. Et puis tout d'un coup la concurrence sort des CPU avec une nouvelle architecture , plus performant et moins cher ...
    La bascule est entrain de se faire doucement dans le monde du desktop, il ont encore un peu de marge sur les serveur car leur réputation leur sauve le cul mais va falloir faire quelque chose à un moment donné.
    Pry Framework php5 | N'oubliez pas de consulter les FAQ Java et les cours et tutoriels Java

  7. #7
    Expert confirmé

    Homme Profil pro
    Développeur .NET
    Inscrit en
    Novembre 2010
    Messages
    2 065
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur .NET

    Informations forums :
    Inscription : Novembre 2010
    Messages : 2 065
    Points : 4 229
    Points
    4 229
    Par défaut
    Citation Envoyé par grunk Voir le message
    C'était pareil avec le passage de HD à Full HD , puis de Full HD à 4K. On à la même rengaine du passage de 3G à 4G puis à 5G.
    Et puis finalement tout le monde se rue sur la nouvelle technologie quand elle devient disponible ...

    Donc oui , peut être qu'à l'instant présent, le 8K n'a pas d'intérêt. On lui en trouvera surement dans quelques temps.

    On peut sinon saluer la performance de Nvidia , qui continue à proposer des produits ultra performant alors qu'ils dominent déjà la concurrence et aurait pu simplement se contenter d'un petit upgrade de quelque % comme intel sait si bien le faire.
    Du 8K pour du jeu PC je vois pas l’intérêt, sur PC t'es proche de ton écran il faudrait une diagonale de quel dimension pour que le pitch soit assez grand pour réellement en profiter, après dans d'autre domaine ça à son utilité ...

  8. #8
    Membre éclairé
    Homme Profil pro
    Développeur .NET
    Inscrit en
    Septembre 2014
    Messages
    204
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur .NET
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Septembre 2014
    Messages : 204
    Points : 712
    Points
    712
    Par défaut
    La 8K sera nécessaire pour la VR, pour une utilisation sur un écran ou une TV ça sera inutile en effet.
    La VR va devenir enfin abordable avec la 3070 et le choc que ça va faire sur les prix des cartes moins puissantes.

  9. #9
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 379
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 379
    Points : 5 467
    Points
    5 467
    Par défaut
    Citation Envoyé par grunk Voir le message
    C'était pareil avec le passage de HD à Full HD , puis de Full HD à 4K. On à la même rengaine du passage de 3G à 4G puis à 5G.
    Et puis finalement tout le monde se rue sur la nouvelle technologie quand elle devient disponible ...

    Donc oui , peut être qu'à l'instant présent, le 8K n'a pas d'intérêt. On lui en trouvera surement dans quelques temps.

    On peut sinon saluer la performance de Nvidia , qui continue à proposer des produits ultra performant alors qu'ils dominent déjà la concurrence et aurait pu simplement se contenter d'un petit upgrade de quelque % comme intel sait si bien le faire.
    ça dépends de la taille d'écrans et de ton éloignement.
    La 4K est déjà limite niveau utilité sur un écran pc ou une télé, faut une grosse télé et être assez proche pour voir la différence face à une FHD
    Et pareil pour les écrans pc... < 27 pouces tu ne vois pas la différence et je parle même pas du 4k dans les smartphones (c'est utile pour la vr apparemment mais c'est une feature assez anecdotique pour beaucoup de monde)

  10. #10
    Membre expérimenté
    Homme Profil pro
    Chargé de projet
    Inscrit en
    Novembre 2015
    Messages
    429
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Seine Saint Denis (Île de France)

    Informations professionnelles :
    Activité : Chargé de projet
    Secteur : Industrie

    Informations forums :
    Inscription : Novembre 2015
    Messages : 429
    Points : 1 684
    Points
    1 684
    Par défaut
    Citation Envoyé par grunk Voir le message
    C'était pareil avec le passage de HD à Full HD , puis de Full HD à 4K. On à la même rengaine du passage de 3G à 4G puis à 5G.
    Et puis finalement tout le monde se rue sur la nouvelle technologie quand elle devient disponible ...

    Donc oui , peut être qu'à l'instant présent, le 8K n'a pas d'intérêt. On lui en trouvera surement dans quelques temps.

    On peut sinon saluer la performance de Nvidia , qui continue à proposer des produits ultra performant alors qu'ils dominent déjà la concurrence et aurait pu simplement se contenter d'un petit upgrade de quelque % comme intel sait si bien le faire.
    Il y a bien un intérêt à la 8k : pouvoir faire du split screen local en 4k imaginez les possibilité ... oh wait le covid est pas sympa pour le multi local ....
    Pour ne pas passer pour un boulet :
    http://coursz.com/difference-entre-r...-et-gddr4.html

  11. #11
    Membre expérimenté
    Homme Profil pro
    chomeur
    Inscrit en
    Avril 2015
    Messages
    709
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 79
    Localisation : France, Seine Maritime (Haute Normandie)

    Informations professionnelles :
    Activité : chomeur
    Secteur : Distribution

    Informations forums :
    Inscription : Avril 2015
    Messages : 709
    Points : 1 582
    Points
    1 582
    Par défaut
    jour

    c'est beau tous çà mais quand je voit la taille de la rxt 3900 c'est de l'abus
    Plus vite encore plus vite toujours plus vite.

  12. #12
    Expert confirmé Avatar de Zefling
    Homme Profil pro
    Développeur Web
    Inscrit en
    Avril 2007
    Messages
    1 168
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Avril 2007
    Messages : 1 168
    Points : 4 654
    Points
    4 654
    Par défaut
    Citation Envoyé par arond Voir le message
    Il y a bien un intérêt à la 8k : pouvoir faire du split screen local en 4k imaginez les possibilité ... oh wait le covid est pas sympa pour le multi local ....
    Ou faire du double écran 4K, ou avoir un dpi plus important.

    Perso un écran 8K 100cm (40") je signe tout de suite. J'ai un écran 4K 100cm et à 1 m de distance, on voit encore très clairement les pixels. Je pense qu'avec un dpi 2 fois plus important, je ne les verrais plus, ça serait d'un grand confort pour la lecture d'avoir des caractères plus net et au contour plus lisse (comme sur les smartphone) et de ne plus voir les pixels dans certains cas.

  13. #13
    Membre éclairé
    Profil pro
    Inscrit en
    Avril 2008
    Messages
    467
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Avril 2008
    Messages : 467
    Points : 681
    Points
    681
    Par défaut
    Citation Envoyé par Leruas Voir le message
    La 8K sera nécessaire pour la VR, pour une utilisation sur un écran ou une TV ça sera inutile en effet.
    La VR va devenir enfin abordable avec la 3070 et le choc que ça va faire sur les prix des cartes moins puissantes.
    En VR je ne suis pas sûr. Tu ne vois déjà pas les pixels sur un écran 4k avec un oeil assez près pour couvrir plus de 90% de ton champ de vision. Deux écrans 4K pour notre pair d'yeux semble suffisant. De plus techniquement nos yeux ont seulement besoin de détails dans une zone précis du regard le reste à besoin de beaucoup moins de pixels. Ainsi avec des techniques de suivis des yeux, il y a aussi moyen de baisser considérablement le nombres de pixels à calculer.

    Alors attention, je ne dis pas que la 8K "c'est de la merde inutile". Quand la norme sera d'avoir un "mur-écran" t'auras l'air fin avec ta petite lucarne de 55" qui ne retransmettra pas bien les dernière séries tv . Donc oui à un écran avec toujours plus de pixels mais (pour les jeux par exemple) il ne sera pas du tout nécessaire d'envoyer et de calculer réellement touts les pixels. Car un humain seul ne peut physiquement pas tous les voir en même temps

  14. #14
    Membre confirmé
    Homme Profil pro
    Technicien réseau
    Inscrit en
    Septembre 2013
    Messages
    133
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Technicien réseau
    Secteur : Service public

    Informations forums :
    Inscription : Septembre 2013
    Messages : 133
    Points : 458
    Points
    458
    Par défaut
    Citation Envoyé par Leruas Voir le message
    La 8K sera nécessaire pour la VR, pour une utilisation sur un écran ou une TV ça sera inutile en effet.
    La VR va devenir enfin abordable avec la 3070 et le choc que ça va faire sur les prix des cartes moins puissantes.
    La question étant quel est l’intérêt de la VR d'un point de vue gaming Et même dans ce cas là 8K ça me semble overkill.

    Joli coup de la part de Nvidia en tout cas, c'est pas mal ce qu'il font même si j'ai peur que ça tue la concurrence et qu'ils finissent comme Intel sur le segment des CPU, ce serait dommage. Ça donnerais presque envie de changer mon matériel même si je vais attend une année ou deux encore, c'est plus raisonnable. J’espère que ça va permettre de casser les prix des modèles inférieurs en tout cas.

    Pour ce qui est de la 8K c'est bien de le savoir, mais franchement déjà que je trouve que la 4k c'est beaucoup, 8k c'est vraiment inutile sur PC, j'ai pas besoins d'avoir un écran 50" sur mon bureau (en plus certains vieux jeux n'aime pas vraiment ce genre de résolutions). Déjà que l'effet tunnel fait que dans certains jeux on se concentre sur une partie de l'écran, si tout se retrouve dispersé on peut louper encore plus d'informations. Que ça fasse tourner n'importe quoi en 4K avec un bon framerate ça suffit très largement.

  15. #15
    Expert confirmé

    Homme Profil pro
    Développeur .NET
    Inscrit en
    Novembre 2010
    Messages
    2 065
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur .NET

    Informations forums :
    Inscription : Novembre 2010
    Messages : 2 065
    Points : 4 229
    Points
    4 229
    Par défaut
    Citation Envoyé par Zefling Voir le message
    Ou faire du double écran 4K, ou avoir un dpi plus important.

    Perso un écran 8K 100cm (40") je signe tout de suite. J'ai un écran 4K 100cm et à 1 m de distance, on voit encore très clairement les pixels. Je pense qu'avec un dpi 2 fois plus important, je ne les verrais plus, ça serait d'un grand confort pour la lecture d'avoir des caractères plus net et au contour plus lisse (comme sur les smartphone) et de ne plus voir les pixels dans certains cas.
    Perso j'ai un 25p 1440p, j'ai pas zoomé la police et vraiment c'est trop petit, pas sur de voir l’intérêt du 8k sur du 40p (peut être du 6k serait suffisant), tu vois le pixel que si tu y fais attention sinon tu le discerne pas ou peut être que t'es un aigle

  16. #16
    Membre expert

    Profil pro
    activité : oui
    Inscrit en
    Janvier 2014
    Messages
    1 260
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : activité : oui

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 260
    Points : 3 402
    Points
    3 402
    Par défaut
    J'entend parler de "véritable bond" dans les performances, de "véritable avancé" ...mais n'est-ce pas normal que le gain soit suppérieur aux 10% habituels quand on place un ventirad 10x plus imposant sur le bousin, et que la carte consomme 10x plus ?
    Si l'on prend les ancienne générations, qu'on y place un radiateur qui dissipe autant, et qu'on overclock jusqu'à atteindre la même consommation... ne retrouve-t-on pas notre gain habituel de 10% ?

    l'intérêt de la 8K ne se discute pas uniquement sur la distinction du pixel sur la dalle... c'est une composante de la qualité vidéo, dont les facteurs sont :
    - la résolution de l'écran (nombre de pixels totaux)
    - la taille physique de l'écran --> et donc la définition (densité de pixels)
    - la distance de visionnage
    - la couverture colorimétrique (espace de couleur) --> et la cohérence des couleurs affichées : DeltaE /gamma / calibrage...
    - le nombre d'images par secondes
    - la manière d'opérer les transitions entre chaques images (ex: ULMB)
    - les traitement de chaques pixel sur les images (ex: Anti-Aliasing)

    tout ceci n'amène pas un gain de qualité vidéo VISIBLE au sens où l'on peux entourer et déssiner les défaut, le gain est sur le ressenti, l'impression, la perception ---> fluidité, netteté, halo lumineux ne débordant pas sur de l'ombre, etc.
    Avoir une résolution plus élevé induit également avoir des traitement sur une résolution encore plus élevé, et avoir en retour une image avec un rendu plus "aproffondi", mieux travaillé.
    On s'accordera à dire que c'est inutile en bureautique, tout comme le passage de 720p (HD) à 1080p (FHD) ...mais enfaite si, car quand tu passes de 720p en 14 pouces à un écran en 27" --> les polices d'écritures deviennet cranté, et la résolution 1080p résout le problème.

    la démocratisation des "grands" écrans a également démocratisé la nécessité des grandes résolutions.
    Tout la question est sur : la démocratisation des écrans vendu aujourd'hui rendera-t-elle nécessaire la 8K

    Ma réponse, la 8K est déjà necessaire dans certains domaines, mais pas sur des télé standards (en taille) ou moniteur PC standard (en taille) ...le plus grand besoin actuel à combler c'est les FPS (images par secondes), et l'espace colorimétrique CALIBRÉ (petit DeltaE --> DeltaE<4 pour chaques couleurs).
    Pensez à utiliser les pouces d’appréciation, pour participer à la visibilité de l'apport d'un propos, ou l'intérêt que vous y prêtez... qu'il soit positif ou négatif.

  17. #17
    Membre expert

    Profil pro
    activité : oui
    Inscrit en
    Janvier 2014
    Messages
    1 260
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : activité : oui

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 260
    Points : 3 402
    Points
    3 402
    Par défaut
    ...mais n'est-ce pas normal que le gain soit suppérieur aux 10% habituels quand on place un ventirad 10x plus imposant sur le bousin, et que la carte consomme 10x plus ?
    --> GeForce RTX 2080 Super de référence consomme 250 W ...la 3080 consomme 320 W, soit une augmentation de 28% de conso' électrique.
    --> la 2080 Ti de référence consomme 260 W ...la 3080 consomme 350 W, soit une augmentation de 34% de conso' électrique.
    ...c'est comme dire qu'Intel a fait un vrai bon en performances, alors qu'une année il a sortie des CPU Celerons (25-55W), et l'année suivante, des CPU i5 (35-120W).

    Une consommation électrique augmenté de 28% et 34%... à voir les bench si l'augmentation des performances pratiques augmentent d'autant, voir plus, puisqu'on nous rappel sans arrêt que l'efficacité énergétique a été amélioré :
    2080 en FP32 --> 816 FLOPS /transistor (13.6 milliards) : et 44 GFLOPS par Watt
    3080 en FP32 --> 1064 FLOPS /transistor (28.0 milliards) : et 93 GFLOPS par Watt
    -
    2080 Ti en FP32 --> 725 FLOPS /transistor (18.6 milliards) : et 51 GFLOPS par Watt
    3090 __en FP32 --> 1271 FLOPS /transistor (28.0 milliards) : et 101 GFLOPS par Watt
    (NB: ce n'est qu'indicatif, puisqu'il y a aussi les Tensor FLOPS, et les RT FLOPS)
    Pensez à utiliser les pouces d’appréciation, pour participer à la visibilité de l'apport d'un propos, ou l'intérêt que vous y prêtez... qu'il soit positif ou négatif.

  18. #18
    Expert confirmé Avatar de Zefling
    Homme Profil pro
    Développeur Web
    Inscrit en
    Avril 2007
    Messages
    1 168
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Avril 2007
    Messages : 1 168
    Points : 4 654
    Points
    4 654
    Par défaut
    Citation Envoyé par youtpout978 Voir le message
    Perso j'ai un 25p 1440p, j'ai pas zoomé la police et vraiment c'est trop petit, pas sur de voir l’intérêt du 8k sur du 40p (peut être du 6k serait suffisant), tu vois le pixel que si tu y fais attention sinon tu le discerne pas ou peut être que t'es un aigle
    Alors, prends un smartphone est met lui une résolution au pixel... Tu verras, tu ne pourras plus rien lire.
    C'est en ×3 ou ×4, mais ça rend les polices lisibles humainement. Mais tout est agrandi.
    J'ai aussi une tablette de dessins en 1440p, c'est une 13", Windows scale tout en 200%. Sur ma tablette les textes sont plus agréable à lire.

    Moi ce que j'aimerais c'est une 40" 8K, ce qui me permettrait d'avoir une utilisation PC bien plus confortable où les pixels serait juste invisible j'aurais l'équivalent d'une affichage 4K mais avec une rendu 8K. Bref, un rendu « retina » sur un écran de PC 40", je prends direct (si c'est pas trop chère).

  19. #19
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 379
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 379
    Points : 5 467
    Points
    5 467
    Par défaut
    Citation Envoyé par Zefling Voir le message
    Moi ce que j'aimerais c'est une 40" 8K, ce qui me permettrait d'avoir une utilisation PC bien plus confortable où les pixels serait juste invisible j'aurais l'équivalent d'une affichage 4K mais avec une rendu 8K. Bref, un rendu « retina » sur un écran de PC 40", je prends direct (si c'est pas trop chère).
    tu vois les pixels sur ton écrans ? il fait quel taille ?
    sur mon 27 qhd je ne les vois pas... par contre ce qui a changé ma vie c'est le passage de 60hz à 144hz, la fluidité c'est agréable pour l'oeil

    j'ai une 980 actuellement (payé 500€ à l'époque) et je commence à être limité et j'arrive pas à exploiter mon écran sur des jeux récent a voir avec ce que propose amd mais je pense partir sur une 3070. Mais si AMD propose mieux et moins cher j'irais chez eux.
    mon écran est freesync en plus mais les nouvelles carte Nvidia sont compatible apparemment

  20. #20
    Membre averti
    Profil pro
    Inscrit en
    Septembre 2009
    Messages
    156
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2009
    Messages : 156
    Points : 306
    Points
    306
    Par défaut Traduction...
    Ce n'est pas la première fois que je remarque que certains articles sont une traduction très approximative et sans aucun contexte d'articles en anglais.
    Celui-ci en est la parfaite illustration : phrases à la limite de la compréhension, termes hors contextes qui peuvent paraître insultants tellement ils sont déplacés dans le sujet, construction grammaticale adaptée d'une autre langue.

    Bref, si la rédaction de Developpez.net n'est pas capable d’arrêter ce genre de bouillie et préfère s'appuyer sur un service (Google ou autre) plutôt que sur des personnes pour produire du contenu, excusez moi mais je vais me tourner vers les sources (en anglais généralement) ou vers des sites qui ont de vrais journalistes en chair et en os mais qui savent parler français et construire un article.

    Désabonnement immédiat de votre récapitulatif hebdomadaire.

Discussions similaires

  1. Réponses: 0
    Dernier message: 09/07/2019, 18h08
  2. Réponses: 0
    Dernier message: 05/12/2018, 05h38
  3. Réponses: 4
    Dernier message: 02/07/2018, 11h43
  4. Réponses: 3
    Dernier message: 14/05/2018, 15h16
  5. Réponses: 0
    Dernier message: 09/11/2011, 16h51

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo