Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Responsable Qt & Livres

    Crytek démontre la faisabilité du lancer de rayons en temps réel sur n'importe quelle carte graphique
    NVIDIA avait fait les grands titres avec ses cartes graphiques RTX, avec des cœurs de calcul spécifiquement prévus pour le lancer de rayons. Grâce à cette évolution, NVIDIA promettait d'apporter des jeux vidéo qui utilisent le rendu par lancer de rayons en temps réel. Cependant, Crytek a proposé récemment une démo, Neon Noir, qui utilise justement les effets par lancer de rayons que NVIDIA promettait d'accélérer — sans utiliser le dernier matériel NVIDIA. En vrai, la démo a été lancée sur une carte AMD Vega 56.

    La démo utilise le moteur de jeux de la firme, CryENGINE, avec des fonctionnalités encore en développement sur l'illumination de la scène. Les réflexions et réfractions sont calculées en temps réel par lancer de rayons. L'implémentation est entièrement indépendante du matériel, n'utilisant que les possibilités de Vulkan et de DirectX 12.


    Source : Crytek CryEngine shows raytracing technology demo (runs on Radeon RX Vega 56).
    Vous souhaitez participer aux rubriques Qt ou PyQt (tutoriels, FAQ, traductions), HPC ? Contactez-moi par MP.

    Créer des applications graphiques en Python avec PyQt5
    Créer des applications avec Qt 5.

    Pas de question d'ordre technique par MP !

  2. #2
    Membre averti
    La démo est impressionnante c'est clair mais je ne peux m'empêcher de penser que Crytek, au bord du gouffre, aurait pu attendre un peu plus et balancer un trailer voir même une démo jouable d'un Crysis 4 en 1080/60 avec du Raytracing sur une Radeon 56 ! Et là, je pense que l'impacte aurait été grandiose.
    Parce que là, malheureusement, beaucoup croit au bullshit...

  3. #3
    Membre du Club
    Et en même temps, attendre pour sortir un super produit fini par surprise alors qu'ils sont au bord du gouffre me semble difficile ...
    Après je ne vois pas nécessairement pourquoi il y aurait du bullshit, avec les possibilités de calcul maintenant proposées par les cartes graphiques, je pense que la plupart des fonctionnalités hardware peuvent être émulées, la seule question étant celle des performances finales en jeu.

  4. #4
    Membre extrêmement actif
    Je ne vois pas bien ce que ça a d'impressionnant, évidemment qu'on peut faire du raytracing avec n'importe quel carte, j'en faisais déjà sur mon portable en 2008 sur 3d studio max, ça prenait juste une blinde.
    Donc reste à voir ce qui fait tourner le démo, si ce sont dix cartes en parallèle la performance n'est pas particulièrement intéressante.
    Citation Envoyé par Un expert en programmation
    D'ailleurs il croit toujours que le JS c'est de la POO

  5. #5
    Membre habitué
    Citation Envoyé par Sodium Voir le message
    Donc reste à voir ce qui fait tourner le démo, si ce sont dix cartes en parallèle la performance n'est pas particulièrement intéressante.
    C'est indiqué dans la news et dans la vidéo...

    Une AMD Vega 56

  6. #6
    Membre extrêmement actif
    Je voulais dire qu'est-ce qui fait "vraiment" tourner la démo, car le ray tracing ça galère déjà sur les nvidia prévues pour à plus de 1000€ ...
    Citation Envoyé par Un expert en programmation
    D'ailleurs il croit toujours que le JS c'est de la POO

  7. #7
    Modérateur

    Et pouf comme par hasard, NVIDIA annonce le support du raytracing pour les version GTX de leur cartes graphiques.
    (Les "ça ne marche pas", même écrits sans faute(s), vous porteront discrédit ad vitam æternam et malheur pendant 7 ans)

    N'oubliez pas de consulter les FAQ Java et les cours et tutoriels Java

  8. #8
    Membre averti
    Citation Envoyé par Sodium Voir le message
    Je voulais dire qu'est-ce qui fait "vraiment" tourner la démo, car le ray tracing ça galère déjà sur les nvidia prévues pour à plus de 1000€ ...
    On t'a répondu : une Radeon 56 ! D'ou la performance assez bluffante. Même si, comme je l'ai dit, dans un jeu ingame, la démonstration aurait été encore plus impressionnante

  9. #9
    Membre extrêmement actif
    Citation Envoyé par mattdef Voir le message
    On t'a répondu : une Radeon 56 ! D'ou la performance assez bluffante. Même si, comme je l'ai dit, dans un jeu ingame, la démonstration aurait été encore plus impressionnante
    J’ai vu, d’où mon sarcasme, une carte graphique à 400€ qui fait tourner une scène à 60fps alors que les geforce en valant le triple et prévues pour galerent dans les jeux avec ray tracing, ça me semble louche. D’autant que ray tracing ou pas ray tracing, les cartes amd sont pour le moment très largement à la traîne sur le marché,

    De là à déduire que soit crytek mitonne sur le matis utilisé, soit bidouille pour obtenir un résultat impressionnant avec des ressources limitées, il n’y qu’un pas que je ne me gênerai pas pour franchir.
    Citation Envoyé par Un expert en programmation
    D'ailleurs il croit toujours que le JS c'est de la POO

  10. #10
    Expert éminent
    Ou alors il exploite bien la CG , dans les caractéristiques théorique le Vega 56 est plus puissant qu'un 1070 alors peut être qu'ils ont trouvé un bon moyen d'exploité les CG AMD.
    Ah et les processeurs AMD ont une puissance de calcul doublé quand on utilise du Half (des float 16 bits) , le 1070,1080 n'a pas cette particularité par exemple.
    Seul la nouvelle gen de Nvidia (les 2050-2080 ont une puissance doublé pour les Half aussi).
    (Pour info le Vega 56 à une puissance théorique de 21 TFlops , le GTX 2080 de 20 TFlops ).

    Et même si c'est le prix est x3 , la puissance ne l'est clairement pas :p
    D’après les benchmark (donc un truc pas trop théorique) , la RTX 2080 est 26% plus puissant q'un Vega 56 pour les jeux (c'est une moyenne hein),sauf le prix qui n'est pas de 26% supérieur

  11. #11
    Membre émérite
    Ce que je retiens :
    NVIDIA (...) avec ses cartes graphiques RTX, avec des cœurs de calcul spécifiquement prévus pour le Ray Tracing (...) promettait d'apporter des jeux (...) qui l'utilisent (...) en temps réel. Ça, c'était avant !
    (...) Crytek a proposé (...) les effets par Ray Tracing que NVIDIA promettait d'accélérer — sans utiliser le dernier matériel NVIDIA. En vrai, la démo a été lancée sur une carte AMD Vega 56.

    La démo utilise le moteur de jeux de la firme, CryENGINE (...) calculées en temps réel par Ray Tracing. L'implémentation est entièrement indépendante du matériel, n'utilisant que les possibilités de Vulkan et de DirectX 12.
    bref, ça fait plaisir de voir une techno où la directive générale qui était : "pour utiliser la le Ray Tracing (seule la techno RTX de Nvidia semblait exister), il est nécessaire de s'équiper d'un GPU Nvidia", devient maintenant obsolète, et que le RTX devient accessible à tout les équipements (je simplifie), sur tout les OS ...merci l'open-source, merci Vulkan, merci Crytek. Maintenant il n'y a plus qu'à découvrir que le tout est sous licence libre ! C'est un très bon début.
    Pensez à utiliser les pouces d’appréciation, pour participer à la visibilité de l'apport d'un propos, ou l'intérêt que vous y prêtez... qu'il soit positif ou négatif.

  12. #12
    Membre extrêmement actif
    Citation Envoyé par Steinvikel Voir le message
    bref, ça fait plaisir de voir une techno où la directive générale qui était : "pour utiliser la le Ray Tracing (seule la techno RTX de Nvidia semblait exister), il est nécessaire de s'équiper d'un GPU Nvidia", devient maintenant obsolète
    En fait le truc c'est pour le moment la techno ray tracing pompe tellement de ressources que même sur les cartes haut de gamme nvidia ce n'est pas intéressant.
    Un joueur pc préféfera toujours s'assurer d'avoir du 60fps constant dans un jeu plutôt que d'activer un effet quelconque. Le ray tracing démocratisé ce n'est pas pour tout de suite, peut-être pour les prochaine génération de cartes d'ici 4-5 ans.
    Citation Envoyé par Un expert en programmation
    D'ailleurs il croit toujours que le JS c'est de la POO

  13. #13
    Membre émérite
    ...comme beaucoup d'évolutions d'il y a 20ans, directement intégrés dans n'importe quelle GPU aujourd'hui. : )
    4-5ans c'est optimiste ou c'est la tendance constaté de la dernière décennie ?
    Pensez à utiliser les pouces d’appréciation, pour participer à la visibilité de l'apport d'un propos, ou l'intérêt que vous y prêtez... qu'il soit positif ou négatif.

  14. #14
    Membre extrêmement actif
    C'est ce qui me semble logique vu l'évolution du marché des cartes graphiques.

    Les nouvelles générations de cartes sortent tous les 3-4 ans. Ce sont en général des cartes très haut de gamme que les fabricants espèrent écouler chez les gamers les plus exigeants (et surtout fortunés), il faut ensuite 6 mois / un an pour que les modèles milieu de gammes arrivent sur le marché.

    Clairement, le support du ray tracing dans la dernière génération est juste un coup marketing. Le procédé diminue considérablement la fluidité des jeux qui l'utilisent et pratiquement tous les joueurs pc préféreront avec 60 images/seconde constants plutôt qu'un gadget en plus qui ne transforme pas considérablement l'expérience.

    La technologie sera sans doute mature et utilisable par le commun des mortels sur la prochaine génération de cartes... ou alors la technologie va tomber dans l'oubli, ce qui est également une possibilité.
    Citation Envoyé par Un expert en programmation
    D'ailleurs il croit toujours que le JS c'est de la POO

  15. #15
    Membre régulier
    Je suis un peu novice dans le sujet mais, le Raytracing, c'est pas le concepte de base de tous les moteurs de rendu implémentés jusqu'à présent?
    Ou se place la différence entre avant et maintenant?

  16. #16
    Expert éminent
    @alexgille
    Pas du tout un concept de base , le raytracing c'est un lancer de rayon donc assez gourmand (tu imagine pas le nombre de rebond qu'on doit faire ) , actuellement c'est plus le Rendu physique réaliste qui devient un rendu de base (en gros un comportements de Lumière plus réaliste suivant les surfaces).

  17. #17
    Membre du Club
    POV
    Je me rappel encore de mon POV (Persistence Of Vision) sous MS-DOS... ou 30 bonnes minutes était nécessaire pour calculer une image VGA !

  18. #18
    Membre émérite
    donc en gros, avant les effets de lumières et d'ombres étaient générés plutôt comme une lumière diffuse et homogène, alors que maintenant, c'est des milliers de faisceaux lumineux, et une physique de rebond en fonction du type de surface ?
    Pensez à utiliser les pouces d’appréciation, pour participer à la visibilité de l'apport d'un propos, ou l'intérêt que vous y prêtez... qu'il soit positif ou négatif.

  19. #19
    Membre extrêmement actif
    C'est à peu près ça, il y a aussi tous les effets liés à la lumière. Par exemple dans un jeu, un miroir affiche juste le rendu d'une caméra dans la scène. Avec du ray tracing, il affiche le résultat des rayons lumineux, c'est valable également sur les reflets sur les surfaces métaliques, eau, etc.
    Citation Envoyé par Un expert en programmation
    D'ailleurs il croit toujours que le JS c'est de la POO

  20. #20
    Membre averti
    Citation Envoyé par patrick72 Voir le message
    Je me rappel encore de mon POV (Persistence Of Vision) sous MS-DOS... ou 30 bonnes minutes était nécessaire pour calculer une image VGA !
    Yep, sauf qu'à l'époque, le plus gros calculateur du monde donnait 150GFLOPS. Je me suis senti obligé de vérifier les 20TFLOPS de cette carte... c'est juste énorme.