IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Développement 2D, 3D et Jeux Discussion :

Le G-Sync de NVIDIA expliqué


Sujet :

Développement 2D, 3D et Jeux

  1. #1
    Responsable 2D/3D/Jeux


    Avatar de LittleWhite
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    mai 2008
    Messages
    26 341
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur développement logiciels

    Informations forums :
    Inscription : mai 2008
    Messages : 26 341
    Points : 212 618
    Points
    212 618
    Billets dans le blog
    94
    Par défaut Le G-Sync de NVIDIA expliqué
    Le G-Sync de NVIDIA expliqué
    Comprenez ce qu'est le G-Sync et comment il fonctionne

    NVIDIA a annoncé une nouveauté qui pourrait changer la vie des joueurs. En effet, pratiquement tout le monde connaît les déchirements dans l'image que l'on peut apercevoir lorsque la synchronisation verticale est désactivée et NVIDIA apporte une solution sous la forme d'une carte se connectant entre la carte graphique et le moniteur.


    Mais, revenons sur le problème.

    Actuellement, l'écran affiche un nombre d'images fixe. La carte graphique, un nombre d'image dynamique, qui plus est, pouvant grandement varier et cela même dans une simple scène (par exemple, allant de 30 à 80 IPS). Du coup, la carte graphique va envoyer une image alors que l'écran est entrain de la dessiner (cas du déchirement). Si vous activez la synchronisation verticale, il n'y aura plus de déchirement, car la carte graphique attendra le balayage de l'écran, mais vous allez sentir des lags, ce qui est aussi très désagréable.

    [ame="http://www.youtube.com/watch?v=KZyhCKH8IbQ"]Guru3D - NVIDIA G-SYNC Overview - Shaky Cam Voice over is Tom Petersen from NV - YouTube[/ame]
    (attention, la vidéo YouTube étant elle même à 30 FPS, il sera compliqué de voir l'amélioration)

    NVIDIA apporte donc une solution à ce problème. Grace à G-Sync, l'écran devient esclave de la carte graphique et le taux de rafraîchissement devient alors dynamique permettant ainsi une meilleure synchronisation entre les deux et donc, d'enlever les défauts d'images.
    Même sur un écran à 30 Hz l'expérience de jeux en est visuellement meilleure. De plus, les écrans allant jusqu'à 177 Hz et les écrans 4k sont aussi supportés.

    Les écrans compatibles ainsi que la carte devraient être facilement disponible au début de l'année 2014. Asus, Benq, Philips et ViewSonic sont les constructeurs qui produiront ce type d'écran. Le prix n'est pas encore annoncé, mais il se pourrait être à une hauteur de 100 €.


    Les cartes compatibles avec G-Sync sont les GTX TITAN, GTX 780, GTX 770,GTX 760, GTX 690, GTX 680, GTX 670, GTX 660 Ti, GTX 660, GTX 650 Ti Boost.


    Votre opinion ?

    Que pensez-vous de la solution apportée par NVIDIA pour ce problème connus de tous les joueurs ?
    Êtes-vous prêt à investir pour une telle solution ?
    Est-ce que tous les jeux peuvent supporter une telle technologie ?


    Source

    Guru3D
    Vous souhaitez participer à la rubrique 2D/3D/Jeux ? Contactez-moi

    Ma page sur DVP
    Mon Portfolio

    Qui connaît l'erreur, connaît la solution.

  2. #2
    Membre expert
    Avatar de Dabou Master
    Homme Profil pro
    Graphiste 3D auto-didacte
    Inscrit en
    février 2012
    Messages
    1 018
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Graphiste 3D auto-didacte

    Informations forums :
    Inscription : février 2012
    Messages : 1 018
    Points : 3 568
    Points
    3 568
    Par défaut
    1) Hum, je ne sais pas, je la sens pas cette solution. On va remplacer le problème par un autre je dirais. Quand on a une bonne config, la V-Sync n'occasionne pas de lags.

    2) Je ne vais sûrement pas investir pour un truc qui n'a absolument pas fait ses preuves alors que la situation actuelle est tout de même satisfaisante. Et, je ne suis pas un grand connaisseur en la matière, si jamais cette solution accélérait l'usure des écrans ? J'attendrai un long moment pour être sûr avant de me lancer dans cette aventure.

    3) Vu qu'on est dans le hardware je ne comprends pas en quoi un jeu pourrait ne pas supporter ça ... C'est le signal vidéo qui est altéré par la carte, le jeu n'a pas le choix si ?
    Abandonner ses rêves n'est pas à la portée de tout le monde.

  3. #3
    Membre extrêmement actif

    Homme Profil pro
    Ingénieur test de performance
    Inscrit en
    décembre 2003
    Messages
    1 971
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 48
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Ingénieur test de performance
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : décembre 2003
    Messages : 1 971
    Points : 2 625
    Points
    2 625
    Par défaut
    Bonjour.

    Avant il y a avait deux options : synchronisation verticale ou pas. Les écrans et les cartes graphiques ne communiquaient pas entre-eux.

    Si je comprends bien ce système, maintenant, l'écran peut dire à la carte graphique, j'ai finit de dessiner, envoie-moi la suite (donc peut-être un peu plus rapidement qu'une synchronisation verticale figée).

    Ca peut le faire, il faut voir à l'usage.

  4. #4
    En attente de confirmation mail
    Profil pro
    Inscrit en
    décembre 2010
    Messages
    555
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : décembre 2010
    Messages : 555
    Points : 1 595
    Points
    1 595
    Par défaut
    Citation Envoyé par moldavi Voir le message
    Bonjour.

    Avant il y a avait deux options : synchronisation verticale ou pas. Les écrans et les cartes graphiques ne communiquaient pas entre-eux.

    Si je comprends bien ce système, maintenant, l'écran peut dire à la carte graphique, j'ai finit de dessiner, envoie-moi la suite (donc peut-être un peu plus rapidement qu'une synchronisation verticale figée).

    Ca peut le faire, il faut voir à l'usage.
    Ça serait plutôt le contraire. L'écran rafraichit l'image que lorsqu'elle en reçoit une nouvelle.

    En dessous du taux de rafraichissement normal de l'écran ça aide, au delà, ça sent les images rémanentes amplifiées à plein nez en plus de l'usure accélérée de l'écran.
    À 100€ le boitier, le joueur ferait mieux de placer cette somme dans une carte graphique plus véloce ou faire un SLI/CrossFire avec sa carte graphique existante (occasion ou autre). Jouer en FullHD dans de bonnes conditions n'est plus réservés à une élite.
    Par contre, le boitier sera le bienvenu si les écrans 4K (+3000€) deviennent accessibles avant les cartes graphique adéquate (+1000€).

  5. #5
    Membre chevronné Avatar de Jbx 2.0b
    Homme Profil pro
    Développeur C++/3D
    Inscrit en
    septembre 2002
    Messages
    476
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 40
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations professionnelles :
    Activité : Développeur C++/3D
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : septembre 2002
    Messages : 476
    Points : 1 871
    Points
    1 871
    Par défaut
    NVIDIA apporte une solution sous la forme d'une carte se connectant entre la carte graphique et le moniteur.
    Moi ce qui me saute aux yeux, c'est pourquoi avoir une carte "se connectant entre la carte graphique et le moniteur". Je propose deux solutions :

    1) L'intégrer dans la carte graphique.
    2) L'intégrer dans l'écran.

    Merci de rien. Ça sent vraiment le gadget pour nous faire payer plus cette histoire.

  6. #6
    Membre confirmé
    Profil pro
    Inscrit en
    décembre 2006
    Messages
    176
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : décembre 2006
    Messages : 176
    Points : 495
    Points
    495
    Par défaut
    Alors qu'avec le triple buffering pour la Vsync, tu n'a ni tearing ni pertes de perf ni pertes d'argent.

  7. #7
    Expert confirmé

    Homme Profil pro
    Développeur .NET
    Inscrit en
    novembre 2010
    Messages
    2 060
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur .NET

    Informations forums :
    Inscription : novembre 2010
    Messages : 2 060
    Points : 4 220
    Points
    4 220
    Par défaut
    Un nouvel objet dans la boite à outil de Nvidia pour concurrencer AMD, le problème c'est que comme tous leur produits ça nous oblige à rester chez eux pour continuer à les exploiter.

  8. #8
    Membre éprouvé
    Homme Profil pro
    Développeur informatique
    Inscrit en
    octobre 2008
    Messages
    215
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : octobre 2008
    Messages : 215
    Points : 1 084
    Points
    1 084
    Par défaut
    Citation Envoyé par niarkyzator Voir le message
    Alors qu'avec le triple buffering pour la Vsync, tu n'a ni tearing ni pertes de perf ni pertes d'argent.
    J'allais le dire. Sauf que, le triple buffering implique plus de besoins en mémoire de la carte graphique, ce qui fait qu'on a tout de même besoins d'une carte graphique un peu plus chère (car plus de ram) pour résultat égal avec un autre carte graphique sans vsync + triple buffer.

    Cependant, j'ai fait le calcul lors de mon achat : c'est moins cher d'acheter une TV à 60Hz + carte graphique 2Go qu'une TV 120Hz + carte graphique équivalente à 1Go. (Après, ça évolue dans le temps...).

    Par contre, il y a un avantage à cette carte intermédiaire, si en effet ça fonctionne correctement et que c'est une optimisation purement hardware sans besoins de drivers particuliers (est-ce le cas?) : Le problème de la VSync + triple buffering, c'est que c'est compatible direct X, Open GL, VLC (en bidouillant pendant des heures dans VLC), mais ça n'est pas bien géré partout...

    Par exemple, je me suis battu pendant des heures pour que Flash le prenne en compte, sans succès. (Donc mes vidéos Youtube sont déchirées!). Autre exemple, pour la gestion des fenêtres de Linux Mint : pas réussi à virer le déchirement! Et VLC est l'unique lecteur que j'ai réussi à configurer pour la VSync... Gom Player ou autre, jamais réussi à le configurer...

    Et je ne parle pas des jeux exotiques qui ne gèrent pas bien la vsync + triple buffer (même en la forçant au niveau driver).

    Juste pour toutes ces emmerdes de configuration au cas par cas, où il faut être ingénieur bac+15 pour régler la vsync, ça ne faut pas le coup d'acheter un écran à 60Hz, et autant claquer 300€ (prix de mémoire, au pif) en plus pour un 120Hz au moins.

    Et si une telle nouvelle carte peut régler ce problème (et économiser les 300€ de supplément au niveau de l'écran), alors je suis preneur à 100%!!

  9. #9
    Membre extrêmement actif

    Homme Profil pro
    Ingénieur test de performance
    Inscrit en
    décembre 2003
    Messages
    1 971
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 48
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Ingénieur test de performance
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : décembre 2003
    Messages : 1 971
    Points : 2 625
    Points
    2 625
    Par défaut
    Re.

    Citation Envoyé par Squisqui Voir le message
    Ça serait plutôt le contraire. L'écran rafraichit l'image que lorsqu'elle en reçoit une nouvelle.
    Tout à fait. Lorsque la carte graphique n'utilise pas la synchro verticale, on peut observer du tearing, parce que l'écran affiche ce qu'on lui donne.

    Lorsque l'on utilise la VSync, la carte graphique n'envoie les images que lorsqu'elle est certaine que l'image précédente est entièrement affichée (basé sur le taux de rafraîchissement de l'écran). Donc pas de tearing.

    Un moniteur n'a jamais communiqué avec la carte graphique. Mais si maintenant un moniteur est capable de dire à la carte graphique : j'ai terminé l'affichage d'une image, la carte graphique peut gérer plus précisément ses buffers et peut-être éviter le triple-buffering.

    Je le vois comme cela, mais l'usage en dira plus.

Discussions similaires

  1. expliquation base client/serveur
    Par jejestyle dans le forum Bases de données
    Réponses: 8
    Dernier message: 23/02/2004, 14h37
  2. [GLX] installer drivers opengl Nvidia
    Par GMI3 dans le forum OpenGL
    Réponses: 2
    Dernier message: 13/02/2004, 17h07
  3. Pb TSimpleDataSet : "command out of sync"
    Par ms91fr dans le forum Bases de données
    Réponses: 4
    Dernier message: 02/10/2003, 17h28
  4. [Kylix] Kylix et les pilotes Nvidia
    Par rudy77 dans le forum EDI
    Réponses: 1
    Dernier message: 28/04/2003, 12h55
  5. nvidia mesa et linux
    Par Cypher dans le forum GLUT
    Réponses: 2
    Dernier message: 13/08/2002, 21h02

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo