IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Ordinateurs Discussion :

Conseil pour achat PC de boulot


Sujet :

Ordinateurs

  1. #1
    Membre éprouvé
    Avatar de Ange_blond
    Homme Profil pro
    Ingénieur développement en 3D temps réel
    Inscrit en
    Mars 2007
    Messages
    902
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Ingénieur développement en 3D temps réel
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2007
    Messages : 902
    Points : 1 179
    Points
    1 179
    Par défaut Conseil pour achat PC de boulot
    Bonjour,

    Pour me lancer dans un projet pro, je suis en train de me composer un PC fixe a monter au bureau.
    L'objectif, c'est un PC qui tienne la cadence, multi-screen, evolutif, equilibré, et pas trop cher. Pas besoin non plus d'un monstre de gamer pour du dev' 3D.

    Voilà ce que j'ai composé assez rapidement hier, j'ai pas vérifié en détail toute les compatibilités meme si au 1er coup d'oeil ça semble bon :
    http://www.ldlc.com/b-97b5b7b9a18bcfaf.html
    (comme les quantités foirent souvent, c'est bien 2 écrans, tout le reste en 1 unité)

    Tout conseil, question, seront les bienvenus.

    Merci
    "le langage C permet de tout faire, y compris se tirer dans le pied. Le langage C++ permet de tout faire, y compris se tirer dans le pied - et réutiliser la balle"

  2. #2
    Membre expert
    Avatar de Clotho
    Homme Profil pro
    R&D
    Inscrit en
    Avril 2011
    Messages
    1 524
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : R&D
    Secteur : Industrie

    Informations forums :
    Inscription : Avril 2011
    Messages : 1 524
    Points : 3 383
    Points
    3 383
    Par défaut
    Salut,
    la configuration est bien.

    Si tu peux un peu augmenter le budget, je changerai deux éléments et en ajouterai un, primordial.

    En premier lieu, la solution de refroidissement processeur doit presque obligatoirement être changée, le coût est faible et le gain en température et bruit énorme.

    Ensuite, je changerai le boitier qui est vraiment cheap, mettre plus cher dans un élément mieux insonorisé et refroidi ( fractal design Define R4 à 85€, Corsair Carbide 300R à 70 euros ...) sera vraiment appréciable.

    Enfin, je ne sais pas exactement quels sont tes besoins, mais si tu as une application tirant parti des cartes graphiques pour le rendu, une Gt650 est relativement nulle, il va falloir t'orienter vers une Quadro, coutant plus cher, au moins le double. Pour faire court, si ton application sait s'en servir, le taux de remplissage en triangles (ou en calcul vectorisé) est bridé logiciellement à 1/3 sur les cartes grand public, en comparaison des Quadro, donc même une "petite" Quadro va éclater une GT/Gtx à prix équivalent.

    Quadro ou non, elles gèrent toutes le bi-écran, et bien. Même le chip intégré au processeur le fait correctement. Si tu n'as pas les sous, ou le besoin, tu peux du coup retirer la carte graphique de ta configuration.
    Un message vous a aidé? Votez pour moi! J'aime qu'on me dise qu'on m'aime.

    Si la question a obtenu sa réponse, passez le sujet en résolu.

    "Citer les pensées des autres, c'est regretter de ne pas les avoir trouvées soi-même" S.Guitry

  3. #3
    Membre éprouvé
    Avatar de Ange_blond
    Homme Profil pro
    Ingénieur développement en 3D temps réel
    Inscrit en
    Mars 2007
    Messages
    902
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Ingénieur développement en 3D temps réel
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2007
    Messages : 902
    Points : 1 179
    Points
    1 179
    Par défaut
    Salut,

    Le refroidissement c'est vrai que je suis un habitué du cheap, mais je prend note.
    Un conseil sur le ventilrad du coup ? en restant dans une gamme correcte sans prendre un truc monstreux, idealement silencieux.

    C'est qqch que je pourrai rajouter plus tard si besoin. A voir selon budget.
    Idem sur le boitier, j'ai +/- pris le 1er de la liste qui avait une tronche potable ^^ Je vais regarder pour prendre mieux que ça.

    Enfin sur la CG, le dev sera surtout android ou webgl, donc pas besoin d'une carte balaise loin de là.
    J'ai pris cette carte pour avoir une double sortie DVI, tout simplement. Je ne pense pas qu'il soit necessaire de pousser beaucoup plus loin ce genre de matos.

    Je bosse avec mon PC perso pour le moment, sur une Geforce GTS 450, ce qui semble suffire sans mal.

    Merci
    "le langage C permet de tout faire, y compris se tirer dans le pied. Le langage C++ permet de tout faire, y compris se tirer dans le pied - et réutiliser la balle"

  4. #4
    Membre expert
    Avatar de Clotho
    Homme Profil pro
    R&D
    Inscrit en
    Avril 2011
    Messages
    1 524
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : R&D
    Secteur : Industrie

    Informations forums :
    Inscription : Avril 2011
    Messages : 1 524
    Points : 3 383
    Points
    3 383
    Par défaut
    Noctua NHU12 (type tour) ou NHC12 (type top-flow), ou Dark Rock 2 de BeQuiet! sont de bonnes références. pour des budgets d'une cinquantaine d'euros.

    En gros, tout ce qui coute plus de 25 euros sera potable, pour une utilisation normale.

    Je sais que le bi-écran est géré par le chipset intégré au CPU, et que ses performances sont largement satisfaisantes dans ce cas là, il faut vérifier que ta carte mère dispose d'une sortie DVI-D (dédoublable, le connecteur coute 5 euros). Je ne suis pas sûr que toutes les cartes mères le permettent.

    Si tu as des doutes et si c'est juste pour un affichage basique, prends plutôt une carte de toute entrée de gamme, de préférence passive comme les Gt610 ou les radeon 8450. Tu économiseras des sous et de l'électricité et du bruit. Si tu as besoin d'un peu de performance, la Gt650 est pas mal, sinon une radeon 7770 assure globalement un rendu sur le bureau un petit peu meilleur (faut pinailler).
    Un message vous a aidé? Votez pour moi! J'aime qu'on me dise qu'on m'aime.

    Si la question a obtenu sa réponse, passez le sujet en résolu.

    "Citer les pensées des autres, c'est regretter de ne pas les avoir trouvées soi-même" S.Guitry

  5. #5
    Membre éprouvé
    Avatar de Ange_blond
    Homme Profil pro
    Ingénieur développement en 3D temps réel
    Inscrit en
    Mars 2007
    Messages
    902
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Ingénieur développement en 3D temps réel
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2007
    Messages : 902
    Points : 1 179
    Points
    1 179
    Par défaut
    Oki pour le ventilrad.

    Citation Envoyé par Clotho Voir le message
    Je sais que le bi-écran est géré par le chipset intégré au CPU, et que ses performances sont largement satisfaisantes dans ce cas là, il faut vérifier que ta carte mère dispose d'une sortie DVI-D (dédoublable, le connecteur coute 5 euros). Je ne suis pas sûr que toutes les cartes mères le permettent.

    Si tu as des doutes et si c'est juste pour un affichage basique, prends plutôt une carte de toute entrée de gamme, de préférence passive comme les Gt610 ou les radeon 8450. Tu économiseras des sous et de l'électricité et du bruit. Si tu as besoin d'un peu de performance, la Gt650 est pas mal, sinon une radeon 7770 assure globalement un rendu sur le bureau un petit peu meilleur (faut pinailler).
    En gros, tu conseille de mettre un écran sur la CM, et l'autre sur une simple CG passive ?
    Je n'ai jamais fait ce genre de trucs, parce que du coup les 2 écrans n'ont pas les memes rendus et vitesses de rendu dès que ça tire un peu non ?


    merci
    "le langage C permet de tout faire, y compris se tirer dans le pied. Le langage C++ permet de tout faire, y compris se tirer dans le pied - et réutiliser la balle"

  6. #6
    Membre expert
    Avatar de Clotho
    Homme Profil pro
    R&D
    Inscrit en
    Avril 2011
    Messages
    1 524
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : R&D
    Secteur : Industrie

    Informations forums :
    Inscription : Avril 2011
    Messages : 1 524
    Points : 3 383
    Points
    3 383
    Par défaut
    Ah non non.

    Si ta carte mère dispose bien d'une sortie DVI-D (ou dvi dual link, c'est la même chose), tu peux utiliser un doubleur DVi, comme ce produit qui se trouve chez plein d'enseignes (amazon, grosbill, ldlc...) pour quelques sous. Tu pourras avoir deux signaux HD à partir d'une prise DVI-D. C'est configurable a partir du pilote intel graphic, et la puce intégrée au CPU suffit pour faire de l'affichage en 2X HD.

    Si ça te paraît rocambolesque, plutot que de prendre une carte de milieu de gamme comme la Gt650 ou une radeon 7770, autant en prendre une qui ne fera que de l'affichage, à moindre frais, et tant qu'à faire, passive, comme certaines Gf610/710 ou radeon 8450, et n'utiliser que cette dernière pour faire ton double affichage.
    Un message vous a aidé? Votez pour moi! J'aime qu'on me dise qu'on m'aime.

    Si la question a obtenu sa réponse, passez le sujet en résolu.

    "Citer les pensées des autres, c'est regretter de ne pas les avoir trouvées soi-même" S.Guitry

  7. #7
    Membre éprouvé
    Avatar de Ange_blond
    Homme Profil pro
    Ingénieur développement en 3D temps réel
    Inscrit en
    Mars 2007
    Messages
    902
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Ingénieur développement en 3D temps réel
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2007
    Messages : 902
    Points : 1 179
    Points
    1 179
    Par défaut
    Oki, je connais peu le principe, mais en gros ça signifie que la CM sort une resolution du double de la largeur prévue sur sa sortie, qu'on redivise ensuite, sans distinciton d'écran d'un point de vue logiciel.

    Mais du coup meme pas besoin d'une CG non ? si la CM fait le boulot.

    J'suis quand meme tres dubitatif... pour le moment je reste sur mon idée de dual DVI sur la carte, la sortie de la CM me permettra de foutre un 3eme écran si j'en trouve un pas cher :-)
    "le langage C permet de tout faire, y compris se tirer dans le pied. Le langage C++ permet de tout faire, y compris se tirer dans le pied - et réutiliser la balle"

  8. #8
    Membre expert
    Avatar de Clotho
    Homme Profil pro
    R&D
    Inscrit en
    Avril 2011
    Messages
    1 524
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : R&D
    Secteur : Industrie

    Informations forums :
    Inscription : Avril 2011
    Messages : 1 524
    Points : 3 383
    Points
    3 383
    Par défaut
    Alors,

    Citation Envoyé par Ange_blond Voir le message
    Oki, je connais peu le principe, mais en gros ça signifie que la CM sort une resolution du double de la largeur prévue sur sa sortie, qu'on redivise ensuite, sans distinciton d'écran d'un point de vue logiciel.

    Mais du coup meme pas besoin d'une CG non ? si la CM fait le boulot.
    Non.
    Premier point, c'est le CPU qui a la puce graphique intégrée, et la carte mère ne sert qu'a te fournir la sortie DVI, elle ne calcule plus rien. Les intel actuels disposent par exemple du GPu Intel HD3000/4000/4400/4600/Iris(?), qui est pas bon en jeu mais largement suffisant pour un peu de dev et de l'affichage évolué ou du décodage multimedia.

    Va farfouiller sur la FAQ Intel, tu verras que le GPu HDxxx gère le multiécran en HD.

    Pour le signal, je ne sais pas exactement comment il marche, mais pour l'utiliser au boulot, je sais qu'une prise DVI-D gère sans soucis deux écrans avec un épanoui (le doubleur DVI) comme si tu avais matériellement deux prises DVi normales, ça se configure dans les pilotes comme tu le ferais sur une Matrox, AMD ou nVidia, sauf que tu passes par le intel HDGraphic.

    J'suis quand meme tres dubitatif... pour le moment je reste sur mon idée de dual DVI sur la carte, la sortie de la CM me permettra de foutre un 3eme écran si j'en trouve un pas cher :-)
    Alors, non plus. A part quelques logiciels tartinés par des stagiaires payés en packs de bières, il n'y a rien qui permette d'exploiter proprement deux cartes si différentes côte à côte, un PC récent coupera le GPU intégré s'il détecte une carte graphique dédiée, et c'est heureux, sinon tu te pourris les perf'. Je sais que Lucid a sorti un logiciel soit-disant miracle, ou que certains émulent un SLi avec le chip intégré, mais je n'ai jamais essayé.

    Si tu as besoin de trois écrans, oriente toi vers des cartes semi-pro (comme les rares matrox encore en vente, d'excellents produits pour le bureau) ou des cartes ATi, qui gèrent toutes 3 sorties simultanées, et certaines jusqu’à 6.

    Si tu crains de devoir passer par les drivers intel, je te conseillerai de prendre une carte AMD radeon 8450 passive, avec 2 DVi+1HDMi. Ca te coutera 80 euros de moins qu'une carte de milieu de gamme qui ne sera de toute façon pas exploitée.
    Un message vous a aidé? Votez pour moi! J'aime qu'on me dise qu'on m'aime.

    Si la question a obtenu sa réponse, passez le sujet en résolu.

    "Citer les pensées des autres, c'est regretter de ne pas les avoir trouvées soi-même" S.Guitry

  9. #9
    Membre éprouvé
    Avatar de Ange_blond
    Homme Profil pro
    Ingénieur développement en 3D temps réel
    Inscrit en
    Mars 2007
    Messages
    902
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Ingénieur développement en 3D temps réel
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2007
    Messages : 902
    Points : 1 179
    Points
    1 179
    Par défaut
    Citation Envoyé par Clotho Voir le message
    Alors,
    Non.
    Premier point, c'est le CPU qui a la puce graphique intégrée, et la carte mère ne sert qu'a te fournir la sortie DVI, elle ne calcule plus rien. Les intel actuels disposent par exemple du GPu Intel HD3000/4000/4400/4600/Iris(?), qui est pas bon en jeu mais largement suffisant pour un peu de dev et de l'affichage évolué ou du décodage multimedia.

    Va farfouiller sur la FAQ Intel, tu verras que le GPu HDxxx gère le multiécran en HD.

    Pour le signal, je ne sais pas exactement comment il marche, mais pour l'utiliser au boulot, je sais qu'une prise DVI-D gère sans soucis deux écrans avec un épanoui (le doubleur DVI) comme si tu avais matériellement deux prises DVi normales, ça se configure dans les pilotes comme tu le ferais sur une Matrox, AMD ou nVidia, sauf que tu passes par le intel HDGraphic.
    Ok, mais si le CPU gere l'affichage, y'a plus besoin d'une CG "dediée" on se contente de la CM.
    Ou est ce que c'est le CPU qui exploite la CG et gere la sortie sur sa prise DVI perso ?
    Désolé mais je connais pas du tout ce principe, je sais que les CM geraient les graphiques de base par le passé, mais depuis que les CG sont bon marché, j'ai cessé de me poser la question.



    Apres, ok la CG "coupe" le rendu de la CM, pas un soucis, au pire je rajoute une autre CG merdique pour le(s) autre(s) écran(s), c'est ce que j'ai sur mon PC perso avec les 4 écrans (une CG normale pour les deux DVI, une CG merdique pour le VGA et la TV en HDMI) et comme je bosse sur les principaux écrans, les autres sont pour le texte, le web et les films, bref pas besoin d'un GPU balaise quoi. Ma CG principale a bien une sortie HDMI, mais elle ne gere pas plus de 2 écrans dans la liste des 3 sorties, d'où la seconde pour le reste.
    De toute façon avec 2 écrans j'ai dejà de quoi bien commencer.
    "le langage C permet de tout faire, y compris se tirer dans le pied. Le langage C++ permet de tout faire, y compris se tirer dans le pied - et réutiliser la balle"

  10. #10
    Membre expert
    Avatar de Clotho
    Homme Profil pro
    R&D
    Inscrit en
    Avril 2011
    Messages
    1 524
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : R&D
    Secteur : Industrie

    Informations forums :
    Inscription : Avril 2011
    Messages : 1 524
    Points : 3 383
    Points
    3 383
    Par défaut
    Citation Envoyé par Ange_blond Voir le message
    Ok, mais si le CPU gere l'affichage, y'a plus besoin d'une CG "dediée" on se contente de la CM.
    Ou est ce que c'est le CPU qui exploite la CG et gere la sortie sur sa prise DVI perso ?
    Désolé mais je connais pas du tout ce principe, je sais que les CM geraient les graphiques de base par le passé, mais depuis que les CG sont bon marché, j'ai cessé de me poser la question.
    oui.
    Le CPU dispose sur son "die" d'un GPU et effectue tous les calculs, sans impact sur ses performances propres, la carte mère se contente de faire passer le signal, et tu peux te passer d'une carte fille. Je n'avais pas compris ta réaction précédente dans ce sens.

    Ce n'est heureusement plus des puces soudées sur la carte mère façon GMa450 qui puaient méchamment du c... de la bouche (mais de l'autre côté), et les performances sont totalement indépendantes de cet organe à tout faire.

    Apres, ok la CG "coupe" le rendu de la CM, pas un soucis, au pire je rajoute une autre CG merdique pour le(s) autre(s) écran(s), c'est ce que j'ai sur mon PC perso avec les 4 écrans (une CG normale pour les deux DVI, une CG merdique pour le VGA et la TV en HDMI) et comme je bosse sur les principaux écrans, les autres sont pour le texte, le web et les films, bref pas besoin d'un GPU balaise quoi. Ma CG principale a bien une sortie HDMI, mais elle ne gere pas plus de 2 écrans dans la liste des 3 sorties, d'où la seconde pour le reste.
    De toute façon avec 2 écrans j'ai dejà de quoi bien commencer.
    C'est pour ça que je te conseille de chercher une AMD plutot qu'une nVidia si tu ne profites pas spécifiquement de CUDA et que tu veux plus de deux écrans. Dès leur entrée de gamme il existe des cartes gérant plus de 2 affichages, il faut chercher la compatibilité "eyefinity" chez AMD. Chez Nvidia il faut une génération "Kepler" ou ultérieure, donc Gt640 ou + ou 730 ou +. Les restrictions sur les ports à utiliser (HDMi, displayport, DVI...) dépendent des puces, il faut chercher un peu avant.

    Si tu sais que tu restes à deux écrans "pour toujours" et que tu ne feras jamais autre chose que de l'affichage ou un tout petit peu d'openCL, le chip intégré devrait suffire.
    Un message vous a aidé? Votez pour moi! J'aime qu'on me dise qu'on m'aime.

    Si la question a obtenu sa réponse, passez le sujet en résolu.

    "Citer les pensées des autres, c'est regretter de ne pas les avoir trouvées soi-même" S.Guitry

  11. #11
    Membre éprouvé
    Avatar de Ange_blond
    Homme Profil pro
    Ingénieur développement en 3D temps réel
    Inscrit en
    Mars 2007
    Messages
    902
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Ingénieur développement en 3D temps réel
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2007
    Messages : 902
    Points : 1 179
    Points
    1 179
    Par défaut
    Oki c'est bien plus clair, merci pour les explications.

    Je vais regarder, c'est en effet une économie possible, mais les bureau étendus sur N écrans ne se genrent pas comme un multi-écran, en terme de gestion des fenetres, barre des taches, etc...
    Rien que ça, ça m'embete un peu.

    J'vais y reflechir en tout cas, la question est de savoir si cette économie fait une réelle différence contrairement au "confort" de l'utilisation en multi-ecrans gérés par l'OS et la CG.

    Merci !

    Edit : la CG choisie dans ma config est basé Kepler, et d'apres la doc http://www.nvidia.fr/object/geforce-...l#pdpContent=1 elle gere 3 écrans. Bon c'est tres marketing et j'ai pas trouvé de confirmation dans les specs techniques, mais si c'est le cas ça confirme mon choix :-)
    "le langage C permet de tout faire, y compris se tirer dans le pied. Le langage C++ permet de tout faire, y compris se tirer dans le pied - et réutiliser la balle"

  12. #12
    Membre expert
    Avatar de Clotho
    Homme Profil pro
    R&D
    Inscrit en
    Avril 2011
    Messages
    1 524
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : R&D
    Secteur : Industrie

    Informations forums :
    Inscription : Avril 2011
    Messages : 1 524
    Points : 3 383
    Points
    3 383
    Par défaut
    Je ne sais plus au cas par cas la façon dont ca se passe, mais certaines gèrent le multiécran en imposant les ports, le pire des cas possibles étant de devoir impérativement passer par un DVi, un HDMi et un DPort, puisqu'il te faut un écran de chaque type, ou des câbles interfaces.

    Si mes souvenirs ne me jouent pas des tours, seul AMD offrait le triple écran avec DVI/DVI Dport, à vérifier.

    les "rolls royce" des cartes graphiques, comme certaines matrox parhelia ou nVidia Quadro disposent d'une sortie à la noix avec un épanoui 2 à 6 DVI derrière. Mais là on change de budget.
    Un message vous a aidé? Votez pour moi! J'aime qu'on me dise qu'on m'aime.

    Si la question a obtenu sa réponse, passez le sujet en résolu.

    "Citer les pensées des autres, c'est regretter de ne pas les avoir trouvées soi-même" S.Guitry

  13. #13
    Membre éprouvé
    Avatar de Ange_blond
    Homme Profil pro
    Ingénieur développement en 3D temps réel
    Inscrit en
    Mars 2007
    Messages
    902
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Ingénieur développement en 3D temps réel
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2007
    Messages : 902
    Points : 1 179
    Points
    1 179
    Par défaut
    Ouaip j'imagine, le multi ecran est un confort de boulot, mais pas une necessité comme un controleur de vol de la NASA

    De toute façon je vise le double d'abord, c'est assez pour débuter, surtout en full HD

    Merci tout plein
    "le langage C permet de tout faire, y compris se tirer dans le pied. Le langage C++ permet de tout faire, y compris se tirer dans le pied - et réutiliser la balle"

Discussions similaires

  1. Conseils pour achat nouveau PC
    Par yal001 dans le forum Ordinateurs
    Réponses: 7
    Dernier message: 26/05/2008, 10h47
  2. [Écran] Conseil pour achat suite problèmes de migraine
    Par Leclandestin dans le forum Périphériques
    Réponses: 8
    Dernier message: 26/03/2008, 17h29
  3. Conseil pour achat d'un serveur
    Par yaboki dans le forum Ordinateurs
    Réponses: 14
    Dernier message: 13/07/2007, 17h54
  4. Conseils pour achat d'un serveur de stockage
    Par kaymak dans le forum Ordinateurs
    Réponses: 8
    Dernier message: 26/03/2007, 19h02

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo