Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    La démo du RTX 3090 de Nvidia met l'accent sur l'absurdité du jeu 8K
    Nvidia annonce des puces graphiques GeForce RTX de la série 3000 basées sur la nouvelle architecture Ampère de la société
    La démo du RTX 3090 de Nvidia met l'accent sur l'absurdité du jeu 8K

    Nvidia a dévoilé mardi ses nouvelles puces graphiques GeForce RTX série 3000 : les GeForce RTX 3070, 3080 et 3090. Ces trois puces incluront la seconde génération de RTX, ou graphiques de ray tracing en temps réel. Elles sont basées sur la nouvelle architecture Ampère de la société et sont conçues pour succéder aux puces GeForce RTX de la série 2000. Elles apportent des performances graphiques 3D améliorées, deux fois supérieures à celles de l'architecture Turing de la génération précédente et 1,9 fois plus efficaces en termes de consommation d'énergie.

    L’annonce des RTX 3000 par Jensen Huang, le PDG de Nvidia, confirme plus d'un mois de rumeurs de fuites et de conceptions de puces. L’annonce a été accueillie par une vague d'autres annonces de partenariats matériels, applicatifs et logiciels. « C’est le plus grand saut générationnel que nous ayons jamais fait », a déclaré Huang lors d'un point de presse. Il a poursuivi en laissant entendre ce qui suit : « Si les 20 dernières années ont été étonnantes, les 20 prochaines ne ressembleront à rien de moins que de la science-fiction ».

    Pour commencer, Nvidia a introduit le ray tracing en temps réel il y a deux ans avec sa première génération de RTX, et les jeux ont commencé à l'adopter. Cette technologie a considérablement amélioré le réalisme des ombres, des reflets, ainsi que l'éclairage dans les jeux. Les développeurs de jeux n'étaient pas prêts jusque-là, mais Huang a déclaré mardi qu'il y a à présent des centaines de jeux RTX en cours de développement. En outre, il a aussi ajouté que des jeux tels que Minecraft, Control, et “Wolfenstein 3D : Youngblood” utilisent déjà RTX.


    Parlant de Fortnite, Huang a déclaré que le jeu activera les fonctions du ray tracing en temps réel sur RTX prochainement pour améliorer les caractéristiques de réalisme graphique telles que les reflets, les ombres, l'éclairage global et l'occlusion ambiante. De plus, le processus Ampere fait apparaître 28 milliards de transistors sur les nouvelles puces, contre 19,8 milliards à Turing, et il prend également en charge ce que Huang décrit comme une « mémoire G6X à modulation d'amplitude d'impulsion à quatre niveaux ». Ce qui apporte plus de puissances aux nouvelles puces.

    Selon les propos de Huang, elles devraient doubler les performances graphiques des dernières puces qui utilisent l’architecture Turing. À titre illustratif, la RTX 3080, conçue pour succéder aux puces RTX 2080 et 2080 Ti, devrait en temps normal doubler les performances offertes par la RTX 2080. Huang soutient qu’elle est plus rapide que la RTX 2080 Ti et qu’elle sera livrée avec 10 Go de mémoire GDDR6X. Elle sera vendue au prix de 699 dollars lors de son expédition le 17 septembre. La RTX 3090, une puce haut de gamme, sera livrée à partir du 24 septembre à 1499 dollars, avec une mémoire de 24 Go.

    Bien que Huang affirme que la RTX 3070 dépassera la RTX 2080 Ti, il est plutôt considéré comme une puce “1440p, 60fps”, avec des effets RTX activés. L’on estime qu’il s’agit de la performance que vous pouviez attendre actuellement d'un RTX 2080 Ti. Son seuil de 4K/60fps est plus facile à atteindre avec des effets RTX réduits ou DLSS augmentés. La RTX 3070 commencera à être livrée en octobre au prix de 499 dollars. Par ailleurs, la RTX 3090 comporte 10 496 cœurs CUDA, 8 704 pour la RTX 3080 et 5 888 pour la RTX 3070.

    C’est un bond significatif par rapport aux 4352 cœurs CUDA de la RTX 2080 Ti apparue à la fin de l’année 2018. La société utilise un nouveau connecteur à 12 broches sur ses nouvelles puces RTX 3000, plus petit que les deux connecteurs traditionnels à huit broches. Nvidia a prévu d’inclure un adaptateur compatible avec les câbles à huit broches avec ses puces Founders Edition. Il a choisi un connecteur à 12 broches pour laisser plus de place sur la carte pour les composants et le refroidissement.

    En outre, Huang a présenté Nvidia Reflex, qui permet aux écrans de fonctionner à des vitesses plus élevées, ce qui favorise les temps de réaction des joueurs compétitifs. Reflex réduit la latence, ou les délais d'interaction, jusqu'à 50 %. Il a également présenté Omniverse Machinima, qui permet aux joueurs d'utiliser les jeux pour raconter des histoires avec des animations en temps réel. Et il a dévoilé la diffusion gratuite de Nvidia Broadcast, qui permet de diffuser plus facilement des jeux en streaming sans aucun problème.

    Par rapport aux jeux 8K, la RTX 3090 aurait permis de montrer que cette résolution n’est pas aussi fiable qu’on le dit. En effet, dans sa vidéo promotionnelle sur la RTX 3090, Nvidia a fait s'asseoir un certain nombre de livestreamers et d'influenceurs pour leur faire découvrir le jeu à 4320p. Les résultats ont semblé impressionner toutes les personnes impliquées. Elles ont fourni beaucoup de halètements et d'exclamations. Cela dit, pour obtenir cette réaction, Nvidia a fait en sorte que ces personnes soient assises à quelques pas seulement d'un LG OLED 8K de 80 pouces.

    Cela est nécessaire pour obtenir ne serait-ce que les avantages minimaux de cette résolution. Même à 80 pouces, il faudrait s'asseoir à moins de 3 pieds du panneau pour remarquer une différence de densité de pixels entre 4K et 8K. Ainsi, certaines critiques qualifient le jeu 8K de « quête stupide ». Elles estiment également que la démonstration de Nvidia est utile pour d'autres raisons. La technologie DLSS de l'entreprise prend maintenant tout son sens. Le DLSS est le super-échantillonnage basé sur apprentissage profond qu’utilisent les GPU de Nvidia.

    Il leur permet de reconstruire une image de plus faible résolution en quelque chose avec beaucoup plus de détails. L’entreprise a passé les deux dernières années à travailler sur le DLSS, et d’après ces critiques, c'est la seule chose qui donne un sens au jeu 8K et même 4K. Dans la démo du jeu 8K du RTX 3090. Nvidia a fait tourner les jeux en 8K natif pour ses participants à la démonstration, mais cela a fait baisser les performances en dessous de 20 images par seconde. Même ce taux d'images est étonnant et témoigne de la puissance du RTX 3090.

    Cependant, le DLSS serait si performant qu'il transforme les ultra-hautes résolutions d'un luxe en une option insensée. Thomas Edison a promis de rendre l'électricité si bon marché que seuls les riches brûleraient des bougies, et maintenant Nvidia fait de même avec la résolution. DLSS fabrique du 4K et du 8K si bon marché que seuls les riches les utiliseront en natif. Pour cela, beaucoup pensent qu’on n'a pas vraiment besoin de plus de 4K pour les jeux, et certainement pas besoin du 8K.


    Source : Nvidia

    Et vous ?

    Qu'en pensez-vous ?

    Voir aussi

    NVIDIA lance GeForce RTX 2060 qui dispose de 1920 cœurs CUDA, 240 cœurs Tensor et 30 cœurs RT

    NVIDIA dévoile ses GPU Turing avec une GeForce RTX 2080 Ti en tête d'affiche qui promet des performances record en matière de ray tracing et d'IA

    Découvrez la chaîne de fabrication des cartes graphiques ZOTAC GeForce RTX 20XX, une vidéo retrace leur parcours jusqu'à la mise en boîte

    Les avantages des cartes NVIDIA RTX diminuent, le lancer de rayons disponible sur les GTX
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Modérateur

    Ainsi, certaines critiques qualifient le jeu 8K de « quête stupide ».
    C'était pareil avec le passage de HD à Full HD , puis de Full HD à 4K. On à la même rengaine du passage de 3G à 4G puis à 5G.
    Et puis finalement tout le monde se rue sur la nouvelle technologie quand elle devient disponible ...

    Donc oui , peut être qu'à l'instant présent, le 8K n'a pas d'intérêt. On lui en trouvera surement dans quelques temps.

    On peut sinon saluer la performance de Nvidia , qui continue à proposer des produits ultra performant alors qu'ils dominent déjà la concurrence et aurait pu simplement se contenter d'un petit upgrade de quelque % comme intel sait si bien le faire.
    Pry Framework php5 | N'oubliez pas de consulter les FAQ Java et les cours et tutoriels Java

  3. #3
    Membre régulier
    Citation Envoyé par grunk Voir le message
    C'était pareil avec le passage de HD à Full HD , puis de Full HD à 4K. On à la même rengaine du passage de 3G à 4G puis à 5G.
    Et puis finalement tout le monde se rue sur la nouvelle technologie quand elle devient disponible ...

    Donc oui , peut être qu'à l'instant présent, le 8K n'a pas d'intérêt. On lui en trouvera surement dans quelques temps.

    On peut sinon saluer la performance de Nvidia , qui continue à proposer des produits ultra performant alors qu'ils dominent déjà la concurrence et aurait pu simplement se contenter d'un petit upgrade de quelque % comme intel sait si bien le faire.
    Intel ne se contente pas d'un petit upgrade, ils galèrent et ne parviennent pas a innover. Suffit de voir le délire autour de la finesse de gravure en 10nm qu'ils promettent depuis des années. Ils en sont toujours au 14nm (14nm+, 14nm++ etc etc).

    Alors qu'à coté AMD grimpe a fond et réduit sérieusement son écart avec intel en terme de % du marché en innovant constamment avec sa gamme Ryzen.

  4. #4
    Membre éclairé
    Qu'en pensez-vous ?

    d ' un point de vue cynique cela va permettre à la série 20xx d ' ètre abordable . Mais la série 3000 , donne une tel avance à Nvidia par rapport à AMD , qui ce permet de courir deux chevaux à la fois . Mais les avances en ML vont ètre extraordinaire

  5. #5
    Responsable Qt & Livres

    Citation Envoyé par grunk Voir le message
    On peut sinon saluer la performance de Nvidia , qui continue à proposer des produits ultra performant alors qu'ils dominent déjà la concurrence et aurait pu simplement se contenter d'un petit upgrade de quelque % comme intel sait si bien le faire.
    S'ils continuent à monter en puissance, ce n'est pas forcément pour les joueurs, qui ne représentent pas une énorme partie de leurs profits. S'ils veulent être présents dans les superordinateurs à venir, ils n'ont pas d'autre choix que de proposer toujours plus de puissance de calcul en consommant moins d'énergie. Sinon, pour monter à un exaflops ou plus, les décideurs devront se tourner vers d'autres technologies…

    Citation Envoyé par Karshick Voir le message
    Intel ne se contente pas d'un petit upgrade, ils galèrent et ne parviennent pas a innover. Suffit de voir le délire autour de la vitesse de gravure en 10nm qu'ils promettent depuis des années. Ils en sont toujours au 14nm (14nm+, 14nm++ etc etc).
    Peut-être ne font-ils pas la lithographie la plus fine, mais il s'agit à chaque fois d'avancées sur d'autres points. Quand tu vois à quel point une puce Intel peut monter en fréquence par rapport à, par exemple, un processeur AMD, sans devoir recourir à du surcadençage, ça montre qu'Intel fait certains trucs mieux que la concurrence (au niveau microarchitectural, par contre, ils ne sont pas en avance…).
    Vous souhaitez participer aux rubriques Qt ou PyQt (tutoriels, FAQ, traductions), HPC ? Contactez-moi par MP.

    Créer des applications graphiques en Python avec PyQt5
    Créer des applications avec Qt 5.

    Pas de question d'ordre technique par MP !

  6. #6
    Modérateur

    Citation Envoyé par Karshick Voir le message
    Intel ne se contente pas d'un petit upgrade, ils galèrent et ne parviennent pas a innover. Suffit de voir le délire autour de la finesse de gravure en 10nm qu'ils promettent depuis des années. Ils en sont toujours au 14nm (14nm+, 14nm++ etc etc).

    Alors qu'à coté AMD grimpe a fond et réduit sérieusement son écart avec intel en terme de % du marché en innovant constamment avec sa gamme Ryzen.
    Si intel commence à être à la bourre c'est bien parce que il se sont reposé sur le domination du marché depuis plus de 10 ans.
    C'est économiquement bien plus intéressant d'essorer une architecture vieillissante plutôt que de repartir sur quelque chose de nouveau surtout quand la concurrence n'est pas à la hauteur. Et puis tout d'un coup la concurrence sort des CPU avec une nouvelle architecture , plus performant et moins cher ...
    La bascule est entrain de se faire doucement dans le monde du desktop, il ont encore un peu de marge sur les serveur car leur réputation leur sauve le cul mais va falloir faire quelque chose à un moment donné.
    Pry Framework php5 | N'oubliez pas de consulter les FAQ Java et les cours et tutoriels Java

  7. #7
    Membre expert
    Citation Envoyé par grunk Voir le message
    C'était pareil avec le passage de HD à Full HD , puis de Full HD à 4K. On à la même rengaine du passage de 3G à 4G puis à 5G.
    Et puis finalement tout le monde se rue sur la nouvelle technologie quand elle devient disponible ...

    Donc oui , peut être qu'à l'instant présent, le 8K n'a pas d'intérêt. On lui en trouvera surement dans quelques temps.

    On peut sinon saluer la performance de Nvidia , qui continue à proposer des produits ultra performant alors qu'ils dominent déjà la concurrence et aurait pu simplement se contenter d'un petit upgrade de quelque % comme intel sait si bien le faire.
    Du 8K pour du jeu PC je vois pas l’intérêt, sur PC t'es proche de ton écran il faudrait une diagonale de quel dimension pour que le pitch soit assez grand pour réellement en profiter, après dans d'autre domaine ça à son utilité ...

  8. #8
    Membre actif
    La 8K sera nécessaire pour la VR, pour une utilisation sur un écran ou une TV ça sera inutile en effet.
    La VR va devenir enfin abordable avec la 3070 et le choc que ça va faire sur les prix des cartes moins puissantes.

  9. #9
    Membre éprouvé
    Citation Envoyé par grunk Voir le message
    C'était pareil avec le passage de HD à Full HD , puis de Full HD à 4K. On à la même rengaine du passage de 3G à 4G puis à 5G.
    Et puis finalement tout le monde se rue sur la nouvelle technologie quand elle devient disponible ...

    Donc oui , peut être qu'à l'instant présent, le 8K n'a pas d'intérêt. On lui en trouvera surement dans quelques temps.

    On peut sinon saluer la performance de Nvidia , qui continue à proposer des produits ultra performant alors qu'ils dominent déjà la concurrence et aurait pu simplement se contenter d'un petit upgrade de quelque % comme intel sait si bien le faire.
    ça dépends de la taille d'écrans et de ton éloignement.
    La 4K est déjà limite niveau utilité sur un écran pc ou une télé, faut une grosse télé et être assez proche pour voir la différence face à une FHD
    Et pareil pour les écrans pc... < 27 pouces tu ne vois pas la différence et je parle même pas du 4k dans les smartphones (c'est utile pour la vr apparemment mais c'est une feature assez anecdotique pour beaucoup de monde)

  10. #10
    Membre chevronné
    Citation Envoyé par grunk Voir le message
    C'était pareil avec le passage de HD à Full HD , puis de Full HD à 4K. On à la même rengaine du passage de 3G à 4G puis à 5G.
    Et puis finalement tout le monde se rue sur la nouvelle technologie quand elle devient disponible ...

    Donc oui , peut être qu'à l'instant présent, le 8K n'a pas d'intérêt. On lui en trouvera surement dans quelques temps.

    On peut sinon saluer la performance de Nvidia , qui continue à proposer des produits ultra performant alors qu'ils dominent déjà la concurrence et aurait pu simplement se contenter d'un petit upgrade de quelque % comme intel sait si bien le faire.
    Il y a bien un intérêt à la 8k : pouvoir faire du split screen local en 4k imaginez les possibilité ... oh wait le covid est pas sympa pour le multi local ....
    Pour ne pas passer pour un boulet :
    http://coursz.com/difference-entre-r...-et-gddr4.html

  11. #11
    Membre éprouvé
    jour

    c'est beau tous çà mais quand je voit la taille de la rxt 3900 c'est de l'abus
    Plus vite encore plus vite toujours plus vite.

  12. #12
    Expert confirmé
    Citation Envoyé par arond Voir le message
    Il y a bien un intérêt à la 8k : pouvoir faire du split screen local en 4k imaginez les possibilité ... oh wait le covid est pas sympa pour le multi local ....
    Ou faire du double écran 4K, ou avoir un dpi plus important.

    Perso un écran 8K 100cm (40") je signe tout de suite. J'ai un écran 4K 100cm et à 1 m de distance, on voit encore très clairement les pixels. Je pense qu'avec un dpi 2 fois plus important, je ne les verrais plus, ça serait d'un grand confort pour la lecture d'avoir des caractères plus net et au contour plus lisse (comme sur les smartphone) et de ne plus voir les pixels dans certains cas.

  13. #13
    Membre confirmé
    Citation Envoyé par Leruas Voir le message
    La 8K sera nécessaire pour la VR, pour une utilisation sur un écran ou une TV ça sera inutile en effet.
    La VR va devenir enfin abordable avec la 3070 et le choc que ça va faire sur les prix des cartes moins puissantes.
    En VR je ne suis pas sûr. Tu ne vois déjà pas les pixels sur un écran 4k avec un oeil assez près pour couvrir plus de 90% de ton champ de vision. Deux écrans 4K pour notre pair d'yeux semble suffisant. De plus techniquement nos yeux ont seulement besoin de détails dans une zone précis du regard le reste à besoin de beaucoup moins de pixels. Ainsi avec des techniques de suivis des yeux, il y a aussi moyen de baisser considérablement le nombres de pixels à calculer.

    Alors attention, je ne dis pas que la 8K "c'est de la merde inutile". Quand la norme sera d'avoir un "mur-écran" t'auras l'air fin avec ta petite lucarne de 55" qui ne retransmettra pas bien les dernière séries tv . Donc oui à un écran avec toujours plus de pixels mais (pour les jeux par exemple) il ne sera pas du tout nécessaire d'envoyer et de calculer réellement touts les pixels. Car un humain seul ne peut physiquement pas tous les voir en même temps

  14. #14
    Membre averti
    Citation Envoyé par Leruas Voir le message
    La 8K sera nécessaire pour la VR, pour une utilisation sur un écran ou une TV ça sera inutile en effet.
    La VR va devenir enfin abordable avec la 3070 et le choc que ça va faire sur les prix des cartes moins puissantes.
    La question étant quel est l’intérêt de la VR d'un point de vue gaming Et même dans ce cas là 8K ça me semble overkill.

    Joli coup de la part de Nvidia en tout cas, c'est pas mal ce qu'il font même si j'ai peur que ça tue la concurrence et qu'ils finissent comme Intel sur le segment des CPU, ce serait dommage. Ça donnerais presque envie de changer mon matériel même si je vais attend une année ou deux encore, c'est plus raisonnable. J’espère que ça va permettre de casser les prix des modèles inférieurs en tout cas.

    Pour ce qui est de la 8K c'est bien de le savoir, mais franchement déjà que je trouve que la 4k c'est beaucoup, 8k c'est vraiment inutile sur PC, j'ai pas besoins d'avoir un écran 50" sur mon bureau (en plus certains vieux jeux n'aime pas vraiment ce genre de résolutions). Déjà que l'effet tunnel fait que dans certains jeux on se concentre sur une partie de l'écran, si tout se retrouve dispersé on peut louper encore plus d'informations. Que ça fasse tourner n'importe quoi en 4K avec un bon framerate ça suffit très largement.

  15. #15
    Membre expert
    Citation Envoyé par Zefling Voir le message
    Ou faire du double écran 4K, ou avoir un dpi plus important.

    Perso un écran 8K 100cm (40") je signe tout de suite. J'ai un écran 4K 100cm et à 1 m de distance, on voit encore très clairement les pixels. Je pense qu'avec un dpi 2 fois plus important, je ne les verrais plus, ça serait d'un grand confort pour la lecture d'avoir des caractères plus net et au contour plus lisse (comme sur les smartphone) et de ne plus voir les pixels dans certains cas.
    Perso j'ai un 25p 1440p, j'ai pas zoomé la police et vraiment c'est trop petit, pas sur de voir l’intérêt du 8k sur du 40p (peut être du 6k serait suffisant), tu vois le pixel que si tu y fais attention sinon tu le discerne pas ou peut être que t'es un aigle

  16. #16
    Membre émérite
    J'entend parler de "véritable bond" dans les performances, de "véritable avancé" ...mais n'est-ce pas normal que le gain soit suppérieur aux 10% habituels quand on place un ventirad 10x plus imposant sur le bousin, et que la carte consomme 10x plus ?
    Si l'on prend les ancienne générations, qu'on y place un radiateur qui dissipe autant, et qu'on overclock jusqu'à atteindre la même consommation... ne retrouve-t-on pas notre gain habituel de 10% ?

    l'intérêt de la 8K ne se discute pas uniquement sur la distinction du pixel sur la dalle... c'est une composante de la qualité vidéo, dont les facteurs sont :
    - la résolution de l'écran (nombre de pixels totaux)
    - la taille physique de l'écran --> et donc la définition (densité de pixels)
    - la distance de visionnage
    - la couverture colorimétrique (espace de couleur) --> et la cohérence des couleurs affichées : DeltaE /gamma / calibrage...
    - le nombre d'images par secondes
    - la manière d'opérer les transitions entre chaques images (ex: ULMB)
    - les traitement de chaques pixel sur les images (ex: Anti-Aliasing)

    tout ceci n'amène pas un gain de qualité vidéo VISIBLE au sens où l'on peux entourer et déssiner les défaut, le gain est sur le ressenti, l'impression, la perception ---> fluidité, netteté, halo lumineux ne débordant pas sur de l'ombre, etc.
    Avoir une résolution plus élevé induit également avoir des traitement sur une résolution encore plus élevé, et avoir en retour une image avec un rendu plus "aproffondi", mieux travaillé.
    On s'accordera à dire que c'est inutile en bureautique, tout comme le passage de 720p (HD) à 1080p (FHD) ...mais enfaite si, car quand tu passes de 720p en 14 pouces à un écran en 27" --> les polices d'écritures deviennet cranté, et la résolution 1080p résout le problème.

    la démocratisation des "grands" écrans a également démocratisé la nécessité des grandes résolutions.
    Tout la question est sur : la démocratisation des écrans vendu aujourd'hui rendera-t-elle nécessaire la 8K

    Ma réponse, la 8K est déjà necessaire dans certains domaines, mais pas sur des télé standards (en taille) ou moniteur PC standard (en taille) ...le plus grand besoin actuel à combler c'est les FPS (images par secondes), et l'espace colorimétrique CALIBRÉ (petit DeltaE --> DeltaE<4 pour chaques couleurs).
    Pensez à utiliser les pouces d’appréciation, pour participer à la visibilité de l'apport d'un propos, ou l'intérêt que vous y prêtez... qu'il soit positif ou négatif.

  17. #17
    Membre émérite
    ...mais n'est-ce pas normal que le gain soit suppérieur aux 10% habituels quand on place un ventirad 10x plus imposant sur le bousin, et que la carte consomme 10x plus ?
    --> GeForce RTX 2080 Super de référence consomme 250 W ...la 3080 consomme 320 W, soit une augmentation de 28% de conso' électrique.
    --> la 2080 Ti de référence consomme 260 W ...la 3080 consomme 350 W, soit une augmentation de 34% de conso' électrique.
    ...c'est comme dire qu'Intel a fait un vrai bon en performances, alors qu'une année il a sortie des CPU Celerons (25-55W), et l'année suivante, des CPU i5 (35-120W).

    Une consommation électrique augmenté de 28% et 34%... à voir les bench si l'augmentation des performances pratiques augmentent d'autant, voir plus, puisqu'on nous rappel sans arrêt que l'efficacité énergétique a été amélioré :
    2080 en FP32 --> 816 FLOPS /transistor (13.6 milliards) : et 44 GFLOPS par Watt
    3080 en FP32 --> 1064 FLOPS /transistor (28.0 milliards) : et 93 GFLOPS par Watt
    -
    2080 Ti en FP32 --> 725 FLOPS /transistor (18.6 milliards) : et 51 GFLOPS par Watt
    3090 __en FP32 --> 1271 FLOPS /transistor (28.0 milliards) : et 101 GFLOPS par Watt
    (NB: ce n'est qu'indicatif, puisqu'il y a aussi les Tensor FLOPS, et les RT FLOPS)
    Pensez à utiliser les pouces d’appréciation, pour participer à la visibilité de l'apport d'un propos, ou l'intérêt que vous y prêtez... qu'il soit positif ou négatif.

  18. #18
    Expert confirmé
    Citation Envoyé par youtpout978 Voir le message
    Perso j'ai un 25p 1440p, j'ai pas zoomé la police et vraiment c'est trop petit, pas sur de voir l’intérêt du 8k sur du 40p (peut être du 6k serait suffisant), tu vois le pixel que si tu y fais attention sinon tu le discerne pas ou peut être que t'es un aigle
    Alors, prends un smartphone est met lui une résolution au pixel... Tu verras, tu ne pourras plus rien lire.
    C'est en ×3 ou ×4, mais ça rend les polices lisibles humainement. Mais tout est agrandi.
    J'ai aussi une tablette de dessins en 1440p, c'est une 13", Windows scale tout en 200%. Sur ma tablette les textes sont plus agréable à lire.

    Moi ce que j'aimerais c'est une 40" 8K, ce qui me permettrait d'avoir une utilisation PC bien plus confortable où les pixels serait juste invisible j'aurais l'équivalent d'une affichage 4K mais avec une rendu 8K. Bref, un rendu « retina » sur un écran de PC 40", je prends direct (si c'est pas trop chère).

  19. #19
    Membre éprouvé
    Citation Envoyé par Zefling Voir le message

    Moi ce que j'aimerais c'est une 40" 8K, ce qui me permettrait d'avoir une utilisation PC bien plus confortable où les pixels serait juste invisible j'aurais l'équivalent d'une affichage 4K mais avec une rendu 8K. Bref, un rendu « retina » sur un écran de PC 40", je prends direct (si c'est pas trop chère).
    tu vois les pixels sur ton écrans ? il fait quel taille ?
    sur mon 27 qhd je ne les vois pas... par contre ce qui a changé ma vie c'est le passage de 60hz à 144hz, la fluidité c'est agréable pour l'oeil

    j'ai une 980 actuellement (payé 500€ à l'époque) et je commence à être limité et j'arrive pas à exploiter mon écran sur des jeux récent a voir avec ce que propose amd mais je pense partir sur une 3070. Mais si AMD propose mieux et moins cher j'irais chez eux.
    mon écran est freesync en plus mais les nouvelles carte Nvidia sont compatible apparemment

  20. #20
    Membre actif
    Traduction...
    Ce n'est pas la première fois que je remarque que certains articles sont une traduction très approximative et sans aucun contexte d'articles en anglais.
    Celui-ci en est la parfaite illustration : phrases à la limite de la compréhension, termes hors contextes qui peuvent paraître insultants tellement ils sont déplacés dans le sujet, construction grammaticale adaptée d'une autre langue.

    Bref, si la rédaction de Developpez.net n'est pas capable d’arrêter ce genre de bouillie et préfère s'appuyer sur un service (Google ou autre) plutôt que sur des personnes pour produire du contenu, excusez moi mais je vais me tourner vers les sources (en anglais généralement) ou vers des sites qui ont de vrais journalistes en chair et en os mais qui savent parler français et construire un article.

    Désabonnement immédiat de votre récapitulatif hebdomadaire.

###raw>template_hook.ano_emploi###