IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Hardware Discussion :

On en pige plus rien !


Sujet :

Hardware

  1. #1
    Membre averti
    Homme Profil pro
    aux études mais 40 ans
    Inscrit en
    Juin 2004
    Messages
    2 016
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : aux études mais 40 ans

    Informations forums :
    Inscription : Juin 2004
    Messages : 2 016
    Points : 308
    Points
    308
    Par défaut On en pige plus rien !
    Bonjour,
    Je me souviens d'une belle époque ou un pentium 2 était moins performant qu'un pentium 3, ou une Geforce 2 était moins performante qu'une Geforce 3.

    Maintenant on ne pige plus rien !!!!!!!!!!!!

    Je dois acheter une nouvelle carte graphique... bon à priori Nvidia mais laquelle RTX, Geforce, RX, GTX, Radeon ?
    Et j'ai beau chercher je n'ai trouvé aucun comparatif clair entre les différent modèles et les références dans chaque modèle.

    J'ai un budget de maximum 600 € et pour l'instant cette carte sera montée sur une carte mère GryphoZ87 avec un I7 3.5Ghz....
    Le but plus tard est de changer aussi la carte mère et le CPU... mais la aussi laquelle et quel CPU ?

    Mon usage en dehors de la bureautique classique est en grande partie le montage vidéo avec Adobe Premier et la modélisation 3D avec Capture Sweden.

    Si vous avez des suggestions ou, mieux, des explications pour que je puisse piger qq chose dans tout ce "bazard".

    Merci.

  2. #2
    Expert éminent sénior
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    Juillet 2013
    Messages
    4 630
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 4 630
    Points : 10 556
    Points
    10 556
    Par défaut
    Citation Envoyé par Yepazix Voir le message
    Maintenant on ne pige plus rien !!!!!!!!!!!!
    Pour NVidia, je peux t'éclairer. Par contre, je ne connais pas la gamme AMD ... mais la nouvelle architecture RDNA 2.0 - 60XX sortie hier, le 29 octobre 2020, est apparemment équivalente au NVidia RTX 30XX (en attendant les vrais tests) et présente dans les nouvelles consoles PS 5/ XBox Series S/X

    D’ailleurs RTX, veut dire "ray tracing", c'est à dire la gamme qui fait du lancer de rayons. NVidia est en avance sur cette technologie par rapport à AMD : d'ailleurs l'architecture RDNA 2.0 est la réponse d'AMD.

    Regarde la liste wiki des GPU NVidia

    Et c'est simple : + les caractéristiques sont importantes, + la carte graphique est puissante.
    Dans les cartes graphiques modernes, le nombre de cores est très importante : Shader Processors, Texture Mapping Units (TMU), Render Output Units (ROP) et + récemment Tensor Cores et Ray-tracing Cores.

    Et fais attention, les nouvelles cartes graphiques sont en PCI Express 4, la nouvelle norme qu'AMD utilise ... mais pas encore Intel en attendant la 11ieme génération début 2021.

  3. #3
    Membre averti
    Homme Profil pro
    aux études mais 40 ans
    Inscrit en
    Juin 2004
    Messages
    2 016
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : aux études mais 40 ans

    Informations forums :
    Inscription : Juin 2004
    Messages : 2 016
    Points : 308
    Points
    308
    Par défaut
    Je ne voudrais pas avoir l'air ingrat mais là tu ne m'aide pas. Tu m'enfonce

    Je ne sais pas si ça a de l'importance de lancer des rayons... enfin si pour Goldorak des rayons LASER mais pour faire du capture Sweden ou de l'adobe premiere ???
    Les marques qui font des cartes semblent d'ailleurs s'en foutre complètement... il ne parlent plus que de jeux...
    Hors moi à part un vieux Doom95 ou un émulateur du SuperNes.... je ne joue jamais.

    Les nouvelles cartes sont en PCI espress 4.
    ca veut dire quoi ? elles sont TOTALEMENt incompatibles avec ma GryphonZ87 ou alors c'est juste qu'elles seront ralenties ?
    Sachant que je veux changer de MD et CPU dans quelques semaines, si j'achète une PCI3, elle ne sera pas top pour ma nouvelle MB et CPU ?

    Tu semble dire qu'il faut allez vers la gamme RTX ?
    Mais la encore... laquelle.
    Je vois sur le site de NVIDIA plusieurs modèles qui sont très similaires niveau prix...

    PNY GeForce RTX 3070 8GB XLR8 Gaming REVEL EPIC-X RGB Triple Fan Edition 680 €.
    EVGA GeForce RTX 3070 XC3 Black GAMING 730 €.
    NVIDIA GEFORCE RTX 3070 519 €.
    Gigabyte GV-N208SAORUS-W-8GC GeForce RTX 2080 SUPER 8 GB GDDR6 745 €.
    Gigabyte GeForce RTX 3070 VISION OC 8G 730 €.
    NVIDIA GEFORCE RTX 3080 720 €.

    Bon alors selon toute logique la plus chère serait la mieux...

    Sauf que !
    Quand je regarde les fréquences de GPU celle à 500 à la même fréquence que certaines qui sont à 700 et elle a même une Fréquence boost (je ne sais pas ce que c'est) plus élevée.
    La taille de la mémoire est identique sur celle à 500 et toutes les autres sauf la RTX3080.

    D'Autre part j'ai lu sur Internet que la vitesse et le type de la mémoire comptent aussi, mais il n'y a pas d'infos à ce sujet sur le site de Nvidia.

    Et finalement, même si je me doute que plus on met d'argent plus on en a pour son fric... la question c'est la différence vaut elle le coup ?
    Je veux dire, OK, si je dois mettre 745 € au lieu de 679 €, je ne vais pas me poser beaucoup de questions pour 70 € de différence même si niveau performance on ne gagne pas grand chose.
    Par contre pour justifier de dépenser 745 € au lieu de 520 € là il faut vraiment que la différences soit significative. Je vais pas mettre 200 € de plus pour gagner 1 minutes sur l'encodage d'une vidéo ou 2 pixels sur un rendu 3D.

    Voilou, j'espère qu'avec ces infos tu sauras m'aider parce que moi je ne pige toujours rien du tout à leurs références.
    Et d'ailleurs coup de gueule dans ma spécialité (la com) à ceux qui font le marketing de ces machins : "les gars recyclez vous dans la dentelle... c'est mieux".

    un site clair avec des gammes claires pour des utilisations spécifiques, des références croissantes en fonction des perfs dans ces domaines, voir un assistant de recherche... ce ne serait pas du luxe.

    En tous cas merci pour ton aide.

    A fort bientôt.

  4. #4
    Expert éminent sénior
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    Juillet 2013
    Messages
    4 630
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 4 630
    Points : 10 556
    Points
    10 556
    Par défaut
    Oui tu as raison : Il faut déjà cibler ton besoin

    Quel est actuellement ton processeur ? ta plateforme/ carte mère ?

    À quelle résolution veux-tu jouer ? 1080? 1440? 4K? Est-ce que tu as la télé/ l'écran pour ?
    Par exemple, les RTX 20XX et RTX 30XX sont faites pour jouer en 4K. Si tu veux jouer en 1080, c'est inutile.

    D'après ce que j'ai compris, les cartes graphiques ont des logiciels pour les streameurs ? Est-ce ton cas ?

    Est-ce que tu utilises des logiciels qui utilisent la carte graphique ? (modeleur 3D, encodeur/ décodeur, CAO/ DAO, ...)

    Le lancer de rayons est pour le futur. Les prochains jeux (comme Halo Infinite ) vont l'utiliser.

    Es-tu sensible au fps ? (30 vs 60 vs 120 vs ...) Est-ce que tu as la télé/ l'écran pour ?

    Citation Envoyé par Yepazix Voir le message
    Tu semble dire qu'il faut allez vers la gamme RTX ?
    Non mais elles sont récentes Tout comme les cartes de la série 16XX, si tu ne veux pas le top du top.

    Parce que choisir 1 carte graphique c'est simple
    XX30 < XX50 < XX60 < XX70 < XX80. Ensuite les versions TI et Super viennent 1 chouïa perturber cet ordre.

    Et regarde ma liste
    2016 - 2018, GTX 10XX -- 2018 - 2019, RTX 20XX -- 2019 - 2020, GTX 16XX -- 2020, RTX 30XX

    RTX, "ray tracing" haut de gamme, GTX grand public.
    Et les cartes récentes consomment 1 chouïa moins, et ont sûrement + de fonctionnalités.

    Citation Envoyé par Yepazix Voir le message
    Par contre pour justifier de dépenser 745 € au lieu de 520 € là il faut vraiment que la différences soit significative.
    C'est toujours le même vieux débat dans 3 - 4 ans, ce sera peut-être 25 fps vs 45 fps, 1 jeu injouable vs 1 jeu "ca passe"

    Citation Envoyé par Yepazix Voir le message
    Les nouvelles cartes sont en PCI espress 4. ca veut dire quoi ? elles sont TOTALEMENt incompatibles avec ma GryphonZ87 ou alors c'est juste qu'elles seront ralenties ?
    Le PCI Express 4.0 8x équivaut à du PCI Express 3.0 16x, soit d'après les tests 3% de performances en +

    Effectivement les cartes graphiques PCI Express 4.0 sont récentes mais chères.
    Mais c'est toujours le même vieux débat dans 3 - 4 ans, ce sera de l’occasion vs du neuf (mais le bas game à cause du processeur qui va être limitant)

  5. #5
    Rédacteur/Modérateur
    Avatar de andry.aime
    Homme Profil pro
    Inscrit en
    Septembre 2007
    Messages
    8 391
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Ile Maurice

    Informations forums :
    Inscription : Septembre 2007
    Messages : 8 391
    Points : 15 059
    Points
    15 059
    Par défaut
    Bonjour,

    Juste pour info, si c'est pour les domaines professionnels, ceux ne sont pas les gammes qu'il faut voir, je vous conseille plutôt de regarder les nVidia Quadro et Amd Radeon Pro WX. Par rapport aux budgets, chercher les prix sur le web et ensuite comparez les benchmark sur les applications que vous allez utiliser avec.
    Pour les CPU, les derniers Amd sont beaucoup plus performant et efficience que les Intel.

    A+.

  6. #6
    Membre averti
    Homme Profil pro
    aux études mais 40 ans
    Inscrit en
    Juin 2004
    Messages
    2 016
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : aux études mais 40 ans

    Informations forums :
    Inscription : Juin 2004
    Messages : 2 016
    Points : 308
    Points
    308
    Par défaut
    @foetus.

    Avant tout une chose importante : JE NE JOUE PAS !.
    Pas du tout, jamais ! Je me fou donc royalement des technologies jeux passées présentes ou futures.

    Ce que je fais :
    - Comme tout le monde, de la bureautique, mais pour ça pas besoin d'un PC très puissant.
    - Du Photoshop. Pour ça c'est parfois un peu lent sur certaines fonctions spécifiques comme les filtres.
    - Du montage vidéo avec Adobe Premier. Pour ça besoin d'un peu plus de puissance mais ça reste "accessible".
    - Du rendu d'éclairage en 3D avec le logiciel Capture ( https://www.capture.se/Products/Capture) et là ça rame avec mon I7 32 Go de RAM et ma GTX650.

    MA config :

    I7-4770K à 3.5 Ghz (donc relativement ancien).
    32 Go de RAM a 667 Mhz (donc ancienne aussi).
    Carte mère Asus Gryphon Z87 (Rev1).
    Chipset Haswell 6
    Carte graphique Nvidia Geforce GTX650
    HD SSD Crucial 500 Go version SATA : 2.6
    ECRANS : 3 ecrans à gauche ACER X233H (1920x1080), au centre Samsung C49J89x (3840X1080), un autre ACER X233H à droite.


    A terme je compte changer la RAM, la carte mère, la carte Graphique et le CPU.

    Pour passer à 32 Go de RAM Rapide.
    Un CPU plus rapide et récent et la carte mère qui va avec.
    Pour le CPU je pensais à un Ryzen 9 - 3900X mais je ne suis pas encore décidé car j'ai eu des expériences pas top avec AMD.
    Pour la carte mère je suis complètement paumé. J'aimerais quelque chose qui se rapproche qualitativement de ma Gryphon.

    En ce qui concerne la carte graphique, je dois pouvoir fournir du signal à mes TROIS écrans.
    J'Avais donc pensé à une Asus GeForce RTX 2060 Super Dual A8G Evo, 8192 MB GDDR6.
    Si je ne me trompe elle à 2 HDMI et 1 DVI, je pourrais donc connecter mon moniteur central en HDMI, un des moniteur latéral en DVI et l'autre avec un câble HDMI --> DVI.
    Je pense que la mémoire GDDR6 est un plus ? et son prix est raisonnable.
    SI je ne me trompe pas elle est en PCI 3 et donc compatible avec mon PC actuel et le futur.
    Par contre c'est aussi la qu'est mon questionnement --> est ce que la différence entre PCI3 et 4 est très importante ?

    @Andry.aime :
    j'ai un peu regardé la gamme pro.
    Mais là encore j'ai bien du mal à comprendre.
    Ils ne disent pas spécifiquement ce que sont les + par rapport à la gamme RTX.
    Par contre elles sont au double du prix à spécifications identiques. (confirmé par pas mal de test sur Internet).
    Je pense donc que la gamme pro c'est surtout payer pour une certification logicielle et Capture ne figure pas dans ces logiciels.
    Donc dans mon cas pas grand intéret. A moins bien sur que tu ai des infos contraires :-).

    Voila les amis, merci pour vos com' et j'attends votre retour avec impatience :-)

  7. #7
    Expert éminent sénior
    Avatar de JML19
    Homme Profil pro
    Retraité : Electrotechnicien Electronicien Informaticien de la SNCF
    Inscrit en
    Décembre 2010
    Messages
    14 939
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Corrèze (Limousin)

    Informations professionnelles :
    Activité : Retraité : Electrotechnicien Electronicien Informaticien de la SNCF
    Secteur : Transports

    Informations forums :
    Inscription : Décembre 2010
    Messages : 14 939
    Points : 23 253
    Points
    23 253
    Billets dans le blog
    10
    Par défaut
    Bonjour

    Qui dit qu'en informatique et dans les nouvelles technologies la transparence est bonne pour le commerce ?

    Si c'était le cas, Apple ne vendrait un nouveau modèle iPhone que tous les 5 ans.
    Vous pouvez utiliser les FAQ (ICI) ou les Tutoriels (ICI) et aussi accéder au blog (ICI)

  8. #8
    Membre averti
    Homme Profil pro
    aux études mais 40 ans
    Inscrit en
    Juin 2004
    Messages
    2 016
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : aux études mais 40 ans

    Informations forums :
    Inscription : Juin 2004
    Messages : 2 016
    Points : 308
    Points
    308
    Par défaut
    @JML19... je comprends pas bien le lien mais bon Apple... on sait quoi hein :-)

  9. #9
    Expert éminent sénior
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    Juillet 2013
    Messages
    4 630
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 4 630
    Points : 10 556
    Points
    10 556
    Par défaut
    Citation Envoyé par Yepazix Voir le message
    J'Avais donc pensé à une Asus GeForce RTX 2060 Super Dual A8G Evo, 8192 MB GDDR6.)
    Ouais c'est 1 bon choix, surtout avec 1 logiciel 3D. La carte équivalente est GTX 1660 Ti (<- note le Ti)

    La RTX 2060 a au + 20% de performances en + par rapport à 1 GTX 1660 Ti et 1 consommation + élevée (120W vs 160W)

    Citation Envoyé par Yepazix Voir le message
    Si je ne me trompe elle à 2 HDMI et 1 DVI, je pourrais donc connecter mon moniteur central en HDMI, un des moniteur latéral en DVI et l'autre avec un câble HDMI --> DVI.
    Il faut regarder les modèles. Par exemple, le modèle MSI GeForce GTX 1660 Ti GAMING X 6G a 3 sorties DisplayPort (v1.4) et 1 sortie HDMI 2.0b.

    Et regarde aussi la ventilation : les modèles avec 2 ou 3 ventilateurs, en mode caloducs ("heat pipe" en anglais) et non "blower" sont + silencieux.
    Et certains ont des profils ventilateur avec du "0 décibel"

    Et ne te fais pas avoir avec la longueur de ta carte que tu ne peux pas mettre dans ton boitier
    Ni avec ton alimentation. La plage idéale c'est entre 40 et 60% où ton alimentation est le + efficace.

    Citation Envoyé par Yepazix Voir le message
    Ils ne disent pas spécifiquement ce que sont les + par rapport à la gamme RTX.
    Les cartes RTX ont 2 choses en + :
    • le "ray tracing" en hardware (il me semble que ce sont les "Tensor Cores" et les "Ray-tracing Cores" en +)
    • DLSS (deep learning super sampling support), l'algo magique pour faire des upscales "Deep learning super sampling uses artificial intelligence and machine learning to produce an image that looks like a higher-resolution image, without the rendering overhead."

    Et tu as également des logiciels en + comme NVIDIA Broadcast

    Après niveau prix, c'est toi qui voit s'y cela vaut le coup

    Citation Envoyé par Yepazix Voir le message
    Je pense que la mémoire GDDR6 est un plus ? et son prix est raisonnable.
    C'est le choix entre de la GDDR6, de la GDDR6 et de la GDDR6

    Plus sérieusement, il faut regarder la largeur de bus ("bus width" en anglais).
    D'après moi , 64 c'est trop peu. 128 c'est 1 configuration bureautique/ HTPC. 196 c'est le minimum pour la 3D.
    La liste wiki des GPU NVidia donne cette information

    Citation Envoyé par Yepazix Voir le message
    est ce que la différence entre PCI3 et 4 est très importante ?
    D'après les tests sur les jeux récents c'est 3% en + comme je le disais dans mon précédent message
    On verra avec les jeux optimisés PS5 / XBox Series X - S

    Citation Envoyé par Yepazix Voir le message
    j'ai un peu regardé la gamme pro.
    Mais là encore j'ai bien du mal à comprendre.
    Je dirais
    • la connectique. Tu peux brancher au moins 4 écrans. Avec des connectiques spécifiques : mini-DisplayPort, USB Type-C
    • la consommation moindre avec 1 design "slim" (pour les pro. c'est peut-être 1 +) - sauf les monstres Quadro GP100 et Quadro P6000
    • sûrement des pilotes logiciels optimisés.


    Ton logiciel n'est pas très exigeant il veut 1 carte graphique (<- lien officiel en anglais)

  10. #10
    Membre averti
    Homme Profil pro
    aux études mais 40 ans
    Inscrit en
    Juin 2004
    Messages
    2 016
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : aux études mais 40 ans

    Informations forums :
    Inscription : Juin 2004
    Messages : 2 016
    Points : 308
    Points
    308
    Par défaut
    @foetus.

    Merci pour ta réponse très complète.
    Je sais que Capture ne semble pas très exigeant et en effet, il ne l'est pas...
    Si tu fais un plan d'éclairage avec 10 projecteurs et un univers DMX...
    Quand, comme moi tu fais un plan avec plusieurs centaines de projos, des serveurs vidéos, de la pyro et même parfois de l'eau... AIE ça pique !
    En fait capture à besoin d'une carte graphique en fonction de ce que tu met dans le plan.

    Vu que la Asus GeForce RTX 2060 Super Dual A8G Evo, 8192 MB GDDR6 à
    - Les sorties qu'il me faut pour mes 3 écrans.
    - 8 Go de GDDR6 à 256 bits (tu disais que 196 c'est bien :-)).
    - C'est un RTX donc elle à tous les machins en Anglais que tu dis et auxquels je ne comprends rien... mais ça fait "important" :-)

    Bon ils ne parlent pas de la ventilations mais je vois sur la photos deux gros ventillos qui ont l'air efficaces et Asus en général ils construisent des trucs plutôt bien non ?

    Pour 3% de gain, je vais pas me faire chier avec le PCI4 surtout que le jeu je m'en fou, donc qu'ils optimisent seulement tout ce qu'ils veulent, moi je reste avec mon bon vieux Capture.
    Et pour le pro, vu que j'ai ma connectiques sur la Asus et que je n'utilise pas (ou peu) les logiciels pour lesquels ils optimisent, je ne vais pas allez par là.

    Bon je crois donc que je fais le bon choix avec la Asus GeForce RTX 2060 Super Dual A8G Evo, 8192 MB GDDR6 !
    Un grand merci pour ton aide :-).

    A fort bientôt.

  11. #11
    Expert éminent sénior
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    Juillet 2013
    Messages
    4 630
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 4 630
    Points : 10 556
    Points
    10 556
    Par défaut
    Citation Envoyé par Yepazix Voir le message
    C'est un RTX donc elle à tous les machins en Anglais que tu dis et auxquels je ne comprends rien... mais ça fait "important" :-)
    En gros si tu veux 1 rendu photoréaliste comme dans les films, il faut calculer la lumière spéculaire et la lumière diffuse.
    Et si je ne dis pas de bêtises , c'est l'algo du lancer de rayons ("ray tracing") qui calcule la lumière spéculaire et l'algo de radiosité qui calcule la lumière diffuse.

    Ce sont des algos connus depuis '70 mais demande 1 temps de calcul très important (avec des fermes de rendu)
    Que le "ray tracing" soit en hardware permet du temps réel.

    Les jeux comme Control et Minecraft ont 1 bonne implémentation (d'après les tests).
    Par contre dans les démos des jeux qui sortiront 2021 - 2022 et après, tu as l'impression d'être dans 1 galerie de glaces en plein zénith au mois de juillet (les flaques d'eau, c'est terrible)

    Mais pour les développeurs, cela permet de les décharger. Plus besoin de précalculer la lumière (avec des "lightmap" par exemple) Avec le "ray tracing", c'est la carte qui calcule tout en temps réel.

    Pour le DLSS, c'est juste que les ordinateurs sont presque incapables de faire tourner 1 jeu en 4K 30fps en 2020
    Donc, il faut 1 gros algo d'upscale pour faire croire qu'1 jeu 1080p/ 1440p/ 1600p est 1 jeu qui tourne en 4K native (surtout pour avoir 1 frame rate + important)


    Citation Envoyé par Yepazix Voir le message
    8 Go de GDDR6 à 256 bits (tu disais que 196 c'est bien :-)).
    Oui mais c'est 1 version Super : consomme 20W de + (160 vs 180W) et elle est + chère.

    Mais oui la largeur de bus influence la bande passante mémoire et donc la vitesse de transfert avec la mémoire.

    Sinon la version Super est 1 peu chère (400 €uros pour la version 1 et 480 €uros pour la version 2 en septembre 2020 si je ne dis pas de bêtises)
    Peut-être attendre le "black friday"

    Le problème c'est que les nouvelles cartes RTX de NVidia, les RTX 30XX, sont moins chères que les anciennes carte RTX 20XX.
    Mais la remplaçante, la RTX 3060 n'est apparemment pas encore sortie


    Citation Envoyé par Yepazix Voir le message
    Asus GeForce RTX 2060 Super Dual A8G Evo, 8192 MB GDDR6
    Attention tu as 2 versions. La version 2 a 1 port DisplatPort 1.4 en - et elle est plus grande.
    Et justement, je pense que niveau bruit, la version 2 doit être 1 chouïa + efficace

    Je n'ai pas fait attention , au niveau de l'alimentation.

    Je parlais de wattage. C'est au moins 550W et recommandé du 650W voire 700W pour 1 Super.
    C'est le connecteur : tu n'as qu'1 seul connecteur PCI Express de 8 broches.
    Donc c'est à toi de voir si ton alimentation convient. Et si tu changes ton processeur avec 3900X, effectivement je pense qu'il faut avoir 1 alimentation entre 650 et 700W (après, utiliser les calulateurs en ligne pour être sûr)
    Avec ton i7, 1 alimentation entre 550 et 650W devrait être suffisante.

    Sinon, effectivement, ton i7 (Haswell) est 1 peu court avec cette carte graphique (du moins sur les jeux en 1080p/ 1440p)
    Donc c'est à toi de voir, si tu vas changer de processeur ou pas.
    Et difficile à dire si avec ton logiciel 3D, ta carte va "s'éclater" sans que le processeur l'embête.

  12. #12
    Expert éminent sénior
    Avatar de Mat.M
    Profil pro
    Développeur informatique
    Inscrit en
    Novembre 2006
    Messages
    8 361
    Détails du profil
    Informations personnelles :
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Novembre 2006
    Messages : 8 361
    Points : 20 381
    Points
    20 381
    Par défaut
    Citation Envoyé par Yepazix Voir le message
    - Du rendu d'éclairage en 3D avec le logiciel Capture ( https://www.capture.se/Products/Capture) et là ça rame avec mon I7 32 Go de RAM et ma GTX650.
    chercher sur les sites de fermes de rendu...mais ce genre de site c'est surtout fait pour les logiciels de 3d comme Maya

    Citation Envoyé par Yepazix Voir le message
    En ce qui concerne la carte graphique, je dois pouvoir fournir du signal à mes TROIS écrans.
    si ce logiciel Capture ne fait pas de calcul GPU bref sur le processeur graphique de la bécane,une super carte vidéo ne servira à rien...donc il faut beaucoup de gigas en RAM et un processeur puissant.
    Quant à l'alimentation c'est limite avoir du 1 megawatt bref l'alimentation d'une plaque électrique pour faire chauffer la soupe...
    attention aux factures d'électricité

  13. #13
    Membre averti
    Homme Profil pro
    aux études mais 40 ans
    Inscrit en
    Juin 2004
    Messages
    2 016
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : aux études mais 40 ans

    Informations forums :
    Inscription : Juin 2004
    Messages : 2 016
    Points : 308
    Points
    308
    Par défaut
    Bon vous savez quoi... Je vais envoyer un mail chez Capture :-)
    Je vous donnerai leur retour...

  14. #14
    Membre averti
    Homme Profil pro
    aux études mais 40 ans
    Inscrit en
    Juin 2004
    Messages
    2 016
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : aux études mais 40 ans

    Informations forums :
    Inscription : Juin 2004
    Messages : 2 016
    Points : 308
    Points
    308
    Par défaut
    Bon ben la réponse de Capture n'est pas très éclairante... je trouve...

    Voici mes questions, leurs réponses et mes commentaires.

    Tout dépend de la taille des projets et du nombre de points lumineux que vous utiliserez. ca je l'avais dit :-)
    - Vaut-il mieux avoir une carte mère, un CPU et de la RAM très puissante ?  Capture effectue ses calculs sur le CPU du PC. Processeur récent avec au moins 8 Go de RAM
    1. Vaut-il mieux avoir une carte graphique très performante ?  Capture effectue ses calculs sur le GPU de la carte graphique. La carte graphique est la plus importante. Consultez le lien suivant : http://www.videocardbenchmark.net/high_end_gpus.html. Un « Pass Mark G3D » de 2000 MINIMUM ou plus haut, peut être considéré, comme la performance nécessaire, qu’il vous faut absolument comme minimum pour Capture. Mais en pratique, les nécessités actuelles vont varier fortement, de la façon que vous utilisez Capture et la grandeur de vos projets.
    - Capture utilise t’il les technologies comme le Ray Tracing en Hardware et le DLSS qui sont présentes, par exemple, sur les nouvelles cartes NVIDIA de la gamme RTX ? Ray tracing - Non
    - Est-ce que 8Go de GDDR6 sur la carte graphique est suffisant ou vaut-il mieux prendre une carte avec plus de RAM quitte à prendre un GPU moins puissant ? Pas de réponse...
    - Est-ce que les cartes graphiques de gamme pro comme la NVIDIA Quadro ont un intérêt pour Capture ? NON !!!


    Ce qui me chiffone.

    Ils disent un CPU récent avec 8 Go de RAM.
    j'ai un I7 4770 3.5 Gh qui est tout de même relativement récent et relativement performant et j'ai 32 Go de RAM et dès que je charge un peu le plan ça rame.

    Ils ne répondent pas sur ce qui est le mieux entre bcp de GDDR et un GPU plus léger ou un gros GPU et moins de GGDR.

    Vous en pensez quoi ?





  15. #15
    Expert éminent sénior
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    Juillet 2013
    Messages
    4 630
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 4 630
    Points : 10 556
    Points
    10 556
    Par défaut
    Je ne sais pas trop sans tests

    Je dirais que Capture c'est 1 logiciel fait avec DirectX 11-12 ou OpenGL en mode ultra-basique - 100% API (et sans shaders par exemple) ... et donc cela va dépendre de tous les paramètres de ton ordinateur
    • du système d'exploitation et du pilote - bogues, stabilité
    • de la quantité mémoire RAM - va déterminer la taille des projets
    • de la bande passante mémoire graphique et RAM - va déterminer la fluidité des projets
    • du pilote - pour l'importance du nombre de cores de ton processeur
    • du pilote - qui peut utiliser des instructions mathématiques SSE4, MMX ou AVX. Ton processeur a pourtant Intel® SSE4.1, Intel® SSE4.2, et Intel® AVX2
    • de la bande passante mémoire graphique - importante pour le chargement des ressources, en quantité et rapidité
    • et donc dans ce cas, de la fréquence processeur et GPU - importants pour traiter le + rapidement les informations - comme l'aspect multi-threadé de Capture n'est pas clair


    Donc si chez toi cela rame, c'est probablement parce que ta mémoire fonctionne à 667 Mhz et que ta carte graphique ne tourne qu'à 1058 MHz/ bande-passante 80 Go/s.
    Je n'avais pas vu la fréquence mémoire 667 Mhz c'est très très faible

    Et donc la réponse de Capture est logique : cela dépend ... et va chi*r

    Après difficile de se prononcer. Parce que si c'est cela, il faut améliorer la fréquence mémoire (et donc changer de processeur et opter sûrement pour 1 Ryzen avec de la mémoire à 3200/ 3400/ 3600 MHz) et avoir 1 carte graphique "bourrine" (<- apparemment la GeForce GTX 1080 (mais pas la version Ti, 1080 Ti) n'est plus vendue neuve ... les cartes récentes haute fréquence/ grosse quantité de mémoire c'est minimum 600 - 650 €uros ... sans parler de ton alimentation qui doit encaisser au moins 180W )

  16. #16
    Membre averti
    Homme Profil pro
    aux études mais 40 ans
    Inscrit en
    Juin 2004
    Messages
    2 016
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : aux études mais 40 ans

    Informations forums :
    Inscription : Juin 2004
    Messages : 2 016
    Points : 308
    Points
    308
    Par défaut
    Et voila la réponse du service technique de capture... pas sur que ça nous avance....

    Answering directly on your questions
    - Is it better to have a very powerful motherboard, CPU and RAM? (Does Capture do its calculations on the PC CPU?)
    or
    - Is it better to have a high performance graphics card? (Capture performs its calculations on the GPU of the graphics card?)
    The GPU is the one to put your money on
    - Does Capture use technologies like Hardware Ray Tracing and DLSS that are present, for example, on the new NVIDIA cards from the RTX range?
    No
    - Is 8GB of GDDR6 on the graphics card sufficient or is it better to take a card with more RAM even if it means taking a less powerful GPU?
    I would check the overal benchmark result rather than the memory capacity alone
    - Do pro-line graphics cards like the NVIDIA Quadro have an interest in Capture?
    No

  17. #17
    Membre du Club
    Homme Profil pro
    Ingénieur sécurité
    Inscrit en
    Octobre 2020
    Messages
    25
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 49
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Ingénieur sécurité
    Secteur : Service public

    Informations forums :
    Inscription : Octobre 2020
    Messages : 25
    Points : 41
    Points
    41
    Par défaut alim
    Bonjour,
    je me retrouve un peu dans ce que tu dis au niveau conf, j'ai un haswell refresh (devil canyon - j'adore ce nom)
    24 GB Ram

    un SSD samsung (je n'ai que des samsung, eu des soucis sur un crucial pour une copine, j'ai du virer intel rapid storage)
    Par contre carte GFX bien moins bonne de ce que tu auras : je suis passé d'une 650 à une gtx 1060 (chauffe pas, ventilos souvent à l'arrêt) mais bon rien à voir avec ta carte ou les cartes plus récentes, mais ça me suffira pour faire de la compil gpu et aussi du petit montage avec avidemux sur la carte (quand j'encode avec mon cpu il chauffe à 90° en perfmax robuste le haswell et sur la carte, ben rien...)

    Par contre si je peux me permettre, ne pas lésiner sur la ventil du boitier, et la qualité de l'alim. Ex : toutes les 500W ne se valent pas au niveau rendement. tu en as qui s'effondrent quand tu monte en charge et pas d'autres ... donc surdimensionne la puissance de l'alim et choisis une bonne marque. Après c'est quoi une bonne marque. Moi j'ai eu des corsair ou des seasonic (il me semble que LDLC c'est du seasonic)

    tiens je suis tombé là dessu
    https://www.futura-sciences.com/tech...pc-comparatif/

    et la corsair est un peu moins bien (en tout cas j'ai une 750W qui tient depuis pas mal d'années) - bon pour info j'ai une alim d'un pc 8086 persona 1600 que je vais recaper (i.e changer les capacités) et elle tient depuis 1984 (soit près de 40 ans - je voudrais bien voir la tronche d'une alim actuelle dans 40 ans mdr)

    Sinon tu as quoi comme os ? Win 10 pro (désolé si j'ai pas fait gaffe dans ton topic) ou linux ?
    Après peut être déja voir si ça rame au niveau de l'os et tuner un petit peu.

    mon profil au fait, c'est "petit joueur :-) pas avec une résolution maximale" et sinon joueur sur des oldies celeron 300A avec un vodoo 4500 et un SB AWE64 et tiens une alim qui date de 98 et qui a pas encore (touchons du bois) cramée.

    Bien à toi.

  18. #18
    Expert éminent sénior
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    Juillet 2013
    Messages
    4 630
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 4 630
    Points : 10 556
    Points
    10 556
    Par défaut
    Pour les alimentations il y a 2 types de marque Seasonic, Super Flower, Channel Well par exemple (1) et les autres

    La catégorie 1 conçoivent à 100% leur alimentation. Les autres prennent "les bases" et soient les revendent rebadger soit les modifient.
    C'est pour cela qu'aux alentours de 2015 - 2016, Corsair avaient de bon modèles et des modèles à éviter. Les bons modèles provenaient de Seasonic

    Ensuite 1 alimentation c'est assez subtil
    Par exemple les alimentations Seasonic FOCUS GX et FOCUS GM sont très sensibles aux variations sur le rail 3.3V.
    Ou bien les alimentations qui sont multi-rails (<- en gros l'ampérage est réparti sur plusieurs rails, mais cela pose problème depuis 2011 parce que les cartes graphiques demandent au moins 30A qui dépassent les 23 - 25A maximum de sécurité)
    Ou encore les alimentations Be Quiet! qui ont des condensateurs chinois bon marché et non pas japonnais.

    Donc, des détails (sans parler du respect des normes), certes mais qu'ils peuvent avoir de sérieux impacts : donc il faut lire les tests qui démontent les alimentations, essayer de comprendre et se forger son avis.
    Il y a aussi les autres détails qui tuent :
    • Le nombre de connecteurs (souvent en fonction du wattage de l'alimentation ce qui est logique) et la longueur des câbles. Lorsque tu vois les alimentations Be Quiet! qui ont des câbles qui mélangent SATA, MOLEX et floppy - ce n'est pas sérieux
    • Le silence - les alimentations modernes ont de profils ventilateur qui commence à tourner à 60% de charge
    • Le silence - les alimentations modernes ont des ventilateurs de 12 ou 14 cm.



    Actuellement, octobre 2020, les meilleures sont les Corsair RMX V2 (<- attention V2) certes rendement 80+ Gold mais très bon rendement. Malheureusement en France, elles sont chères
    Sinon tu as aussi les Corsair TMX avec 1 rendement 80+ Bronze.
    Les alimentation Seasonic ont quand même 2-3 défauts assez dérangeants pour leurs prix.


    Et je pense que les alimentations 80+ Titanium ou Platinum sont à choisir pour 1 configuration silencieuse ... mais à + de 150 €uros, elles ne seront jamais rentabilisées (ou alors les utiliser au moins 10 ans)

  19. #19
    Membre averti
    Homme Profil pro
    aux études mais 40 ans
    Inscrit en
    Juin 2004
    Messages
    2 016
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : aux études mais 40 ans

    Informations forums :
    Inscription : Juin 2004
    Messages : 2 016
    Points : 308
    Points
    308
    Par défaut
    Tres intéressant discussion.
    Juste une chose : Moi perso je met sans aucun problème 150 € dans une alim.
    Je ne pige pas qu'on puisse mettre 2 ou 3 mille €uros dans un PC haut de gamme et risquer le foirage pour une alim pourrie.
    150 € ca me semble raisonnable si c'est de la qualité.
    Le problème c'est que le matos IT devient tout et n'importe quoi.
    Il y a des quantités de marques, de modèles, d'origines --> Mon post : on ne comprends plus rien.

    Tiens là par exemple : je viens d'acheter un GSM Samsung Galaxy S10, je l'ai revendu après 3 semaines... une vraie merde...
    ET j'ai acheté un Samsung Galaxy A71, moins cher en me disant bon au moins c'est pas cher.
    Il est plus rapide, l'écran est plus beau, l'autonomie c'est le double, il a aussi le NFC, les empruntes, etc...

    C'est ça le souci, trouver ce qui est qualitatif dans une péthore de brols aux références incompréhensible et en ne pouvant plus faire confiance à personne (à aucune marque).

    Ca devrait presque devenir un métier "conseiller en hardware".

  20. #20
    Membre du Club
    Homme Profil pro
    Ingénieur sécurité
    Inscrit en
    Octobre 2020
    Messages
    25
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 49
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Ingénieur sécurité
    Secteur : Service public

    Informations forums :
    Inscription : Octobre 2020
    Messages : 25
    Points : 41
    Points
    41
    Par défaut
    Bonjour,
    je suis parfaitement d'accord avec toi, conseiller en hardware est un vrai métier (et pas seulement conseiller dans la marque qui va faire déplacer ses commerciaux dans le magasin). C'est donc pour cela que des forums de discussion hardware sont essentiels pour se forger une opinion et discuter de ses options.

    On dit souvent assembleur de PC mais au delà on est sur un vrai métier d'intégrateur (faire une configuration à partir de "sources" tester chaque sources puis le couplage (1,2) (2,3) et (1,3) - je simplifie le cas, d'autant plus que les tests portent sur le matériel, le firmware, l'os / les pilotes et l'applicatif à la fin. Donc en fait pour que cela se passe bien on en revient à des PC de marques (qui certes ne sont pas les plus véloce ou les moins cher mais qui font (devraient) faire ce travail d'intégration). C'est d'ailleurs pour cela qu'à une époque on avait des distributions linux RHEL certifiées sur des PC Dell par exemple ou supermicro.

    Ensuite la jungle ? elle apparaît car il y a de la concurrence (et certes ça stimule la baisse de prix et on peut avoir des choses heureuses) mais on a aussi des choses un peu légères (soit en terme de matériel, pilote, ...). Donc après c'est vraiment la plus value de testeur, des forums, ...

    Exemple : je monte toujours (j'ai tendance à rester sur ma zone de confiance) des samsung SSD EVO 850 (et suivants) : pourquoi ? jamais eu de souci. Il y a des super concurrents SSD moins connus qui ont été testés avec de grosses (bonnes) surprises. Moi perso je me suis jamais hasardé sur ces modèles. Les seuls aventures que j'ai suivies ce sont des trion OCZ sur de petites configs - ils fonctionnement encore parfaitement au bout de 7 ans (pas de super perfs mais c'était le but pour 100Go - et ça reste de l'OCZ). J'ai essayé également du crucial (CT240BX500SSD1) pour une copine et le drame : clonage de disque, super perf tout se passe bien : windows 10 ,crashe au bout de 10 min. Ok c'est le clonage, je réinstalla à neuf, crash ... je cherche sur le net ... et c'était intel rapid storage installé par défaut avec le bundle samsung (pc) qui n'aime pas le firmware du SSD Crucial... donc un exemple d’intégration.

    Après un pc qu'est ce que c'est (maintenant car quand on était tous petits (désolé pour le flashback), on avait une CM, un carte i/O série (souris) parallèle (imprimante), une carte son, une carte vidéo et une alim qui quand on appuyait sur l'inter balançait la sauce, une carte cache, voire des cartes RAM, une carte réseau (allez mettons BNC) et point.

    Maintenant, beaucoup de choses intégrées au processeur ou aux chipsets ou avec des puces soudées, un firmware qui fait pas mal de choses en termes de mise à jour correctives ou de monitoring, bref de l'intégration limitant la casse (encore qu'il y a de la conf logicielle - plus embêtante - on peu se poser la question du fait que peut être le dev (et la formation de devs) d'une plateforme soft est moins chère que le dev d'une plateforme hard).

    Reste quoi ? le CPU : la c'est limité à AMD et INTEL (peut être plus lol) qui s'évertuent à avoir des (pareil exemples qui datent, je me rafraîchit avec vous sur le forum :-) core i7 bicore et core i5 quad allez comprendre. après je prends de l'i9 ? ou alors je vais sur une plateforme XEON (pas cher sur certains modèles pour des perfs énormes) ou alors je prends de l'AMD. Perso étant petit j'avais fait de l'intel celeron (la machine que je me suis remontée Celeron 300 avec vodoo 4500 et awe 64 ^_^) et du cyrix puis de l'AMD K6. Après je suis revenu à l'intel amd, etc ... Actuellement je serai bien infichu de vous dire quoi prendre (et à moi aussi) donc probablement une carte qui supporte de i7/i9 ou de l'amd dernière gamme : bref je reste sur mon i7 devil canyon actuel.

    Ensuite la ram : en général je prends de la marque (crucial = micron : fabricants de mémoire / ssd :-) avec des radiateurs, et je la surdimensionne pour windows : (pourtant win 10 à 4GO ça marche puisque c'est vendu) => je prends 8 voire si j'ai des sous 16GO (venant d'un mec qui a chassé les octets c'est honteux, mais c'est comme ça, j'ai toujours surdimensionné en RAM ça ne m'a jamais déçu et après le tuning OS en découle) - et gaffe aux appariement de barrettes etc...

    Et la carte vidéo : pareil la jungle : donc en général nvidia avec un intégrateur qui sait ce qu'il fait : j'ai pris une zotac 1060 à une époque après avoir épluché les forums : j'ai eu la chance de ne pas me tromper, elle est top, ne consomme rien (bon je ne suis pas un hardore gammer).

    Et après ça peut être du superflu, et bien non cela ne l'est pas !!!
    Comme le disais très justement @Yepazix il ne faut pas lésiner sur certaines choses.
    ALIM : L'alimentation : c'est cela qui fournit l'ensemble des tensions au PC. une mauvaise alim va s'effondrer si trop de charge, voir va avoir des courants de mauvaise qualité donc peut endommager des composants ou générer des pannes. Une très bonne explication de @foetus (claire et technique) donne les clés d'un bon choix. Et les cartes vidéos consomment ... donc moi j'ai du corsair et du seasonic et je crois que c'est du 80+ gold (cf page wikipedia https://fr.wikipedia.org/wiki/80_PLUS)

    LE VENTILATEUR CPU : les intels stock (ams je ne sais pas) ne sont pas si mauvais que cela mais j'ai vu les différences de stabilité sur un devil canyon qui chauffe à 100° avec un noctua... (et avec une bonne pâte thermique qui plus est). Watercooling jamais fait mais il y a des sol toute intégrées qui se sont bien simplifiées il me semble (mais là encore perso (et cela n'engage que moi) j'en reste à eau+électricité = mauvais ^_^)

    LE boitier : il y en a pour tous les gouts, du flashy, des leds, mais un bon chemin de ventilation des filtres, des caddies à montage rapide... moi à une époque c'était du antec 180P pour un serveur, maintenant j'ai un peu du mal pour avoir un boitier sobre. J'en ai pris un pas trop cher je ne suis pas trop déçu (bon mais je n'ai pas 5 disques plateaux avec 3 Cartes graphiques...)

    Donc du coup qu'est ce qu'on fait ? en discutant sur les forums, en prenant des avis, on arrive vers un pc de marque fait pas soi :-) et on peut être amené à modérer sa conf vers le milieu pour ne pas avoir trop de composants qui tirent trop en puissance ou exotique ...

    Et sinon (mode humour), je m'exerce au system i et en termes d'intégration firmware, de boitier, etc... c'est du lourd.

    Bien à tous et à toutes.
    Cls.

Discussions similaires

  1. [Eclipse3.1] Plus rien ne s'affiche dans ma console !
    Par tnodev dans le forum Eclipse Java
    Réponses: 4
    Dernier message: 12/10/2005, 12h05
  2. Je n'y comprend plus rien
    Par Pingouinvert dans le forum Décisions SGBD
    Réponses: 4
    Dernier message: 11/09/2005, 10h57
  3. [BDE] Plus rien dans Configuration/Drivers/Native
    Par Harry dans le forum Bases de données
    Réponses: 5
    Dernier message: 11/02/2005, 16h15
  4. Root qui ne peux plus rien faire :'(
    Par Smortex dans le forum Administration
    Réponses: 2
    Dernier message: 27/09/2004, 20h13
  5. [Kylix] Je n'y comprends plus rien
    Par fafamonteko dans le forum EDI
    Réponses: 5
    Dernier message: 02/03/2004, 16h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo