Bonjour,
Mon chipset graphique (Intel 945GM) de gère hélas pas le multisampling, je me demandais donc s'il existait une alternative pour lisser mes rendus?
Comment ce problème est géré par les appli professionnelles?
D'avance merci
Version imprimable
Bonjour,
Mon chipset graphique (Intel 945GM) de gère hélas pas le multisampling, je me demandais donc s'il existait une alternative pour lisser mes rendus?
Comment ce problème est géré par les appli professionnelles?
D'avance merci
Bonjour,
Tu peux toujours faire un filtre gaussien avec un noyau de 3X3 pixels mais tu perdras alors des petits détails sur toute la surface de l'image.
De qu'elle appli parles-tu? Je pense que celles qui ont besoin de quelque chose pour fonctionner (par ex : telle extension ou version > X.XX) clarifient la situation à l'achat (Requiert une carte NVxxxxTI_bidule pour utiliser au mieux les fonctionnalités). Quel pro serait obligé d'utiliser un Chipset graphique? (c'est une vraie question!)Citation:
Comment ce problème est géré par les appli professionnelles?
En temps réel ?
Si le temps de rendu ne compte pas, il y a la solution de faire un rendu 2^N fois plus grand puis d'utiliser le niveau de mipmap N.
Sinon il y a un article dans le livre GPU Pro sur l'antialiasing en post-processing (mais je ne sais rien de plus sur la technique).
Je pense qu'il parle de rendu CPU genre 3dsmax ....
Pour répondre, ces logiciels utilisent leur propre systèmes de rendu.
Je t'invite à regarder les sources de blender.
Le système en question s'appel OSA.
Mais il est clair que pour du rendu "temp réel" c'est un peut foireux :aie:
Pour du temps réel, si ta carte ne supporte pas le multisampling, je pense que c'est perdu d'avance.
Faire un rendu 2 fois plus gros, ca bouffe enormement de memoire graphique (et bon, si ta carte n'est pas fichue de supporter le multisampling, j'imagine que niveau memoire, ca vole pas haut :p).
Le multisampling en post-process est tres couteux et n'est en fait qu'un smooth sur les contours (du coup, c'est un poil plus lisse, mais on perd de l'information). Il te faut donc faire un rendu avec la distance lineaire et les normales en eye-space (Et pan ! Deux buffers dans les dents !), et ensuite flouter ta scene (oh ! un beau buffer rgb) en fonction des contours detectés. En fait cette technique n'est utilisée que quand la methode de rendu ne permet pas le multisampling de base (deferred shading, par exemple), et ne devrait jamais etre utilisée pour autre chose.
Pas de soucis ce n'est pas une appli temps réel.
Dans ce cas, le maxi-rendu (2 ou 4 fois la taille normale) redimensionné est la meilleur solution vu que c'est du vrai multisampling (plus que le multisampling hardware, en fait :P).