IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Hardware Discussion :

Choisir son PC pour le développement


Sujet :

Hardware

  1. #21
    Membre expert

    Profil pro
    activité : oui
    Inscrit en
    Janvier 2014
    Messages
    1 260
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : activité : oui

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 260
    Points : 3 403
    Points
    3 403
    Par défaut
    Citation Envoyé par foetus Voir le message
    Pour moi 2 points qui peuvent être importants

    1) La fréquence et les temps de latence de la mémoire. Actuellement le bon choix semble être de la DDR4 à 2666 ou 3000 CAS 15.
    Mais, cela va dépendre du prix et de la compatibilité de la carte mère/ chipset/ processeur.
    C'est vrai que la performance de la RAM influe sur les performances générales de la machine, entre l'entrée de gamme DDR4 d'aujourd'hui : 2400, et le maximum supporté par la nomenclature : 3200 on peut avoir presque 20% d'écart (surtout en tenant compte des latences aka CLxx-xx-xx-xx). Mais ces 20% de différences sont seulement sur des charges de saturation, en définitive, globalement c'est beaucoup moins... encore faut-il qu'elle fonctionne effectivement à 3200 comme indiqué sur l'étiquette (fréquence que la barrette elle-même ne tiens pas nativement --> sans XMP, etc.)
    La compatibilité à une fréquence ne dépend pas que du contrôleur mémoire du CPU, mais également de la qualité de liaison de la carte-mère, et d'autres paramètres. Si tu prends un kit de RAM à 4800, que tu le montes sur une carte-mère mATX à 30€, tu as 2 chances sur 3 que la RAM ne fonctionne pas du tout (plutôt que de fonctionner à fréquence réduite).

    Citation Envoyé par foetus Voir le message
    Et l'autre truc avec la mémoire, mais je ne sais pas si c'est encore d'actualité, il faut avoir le moins de barrettes. Par exemple, il faut mieux 1 kit de 16 gigas que de 2 kits de 8 gigas.
    De plus, les cartes mères acceptent depuis très longtemps qu'au plus 2 kits. Donc raison de plus de prendre un peu plus de mémoire dès le départ.
    Et actuellement tu n'as pas trop le choix : 8, 16 ou 32. Avec de la mémoire "triple channel", tu pouvais avoir 24 gigas (3 * 8 gigas)
    En général il faut le moins de barette possible pour atteindre la fréquence maximale. Certaines carte-mères imposent l'usage d'une seule barrette, d'autres permettent une barrette par canal... ça dépend du constructeur et du modèle.
    Ça, c'est pour un fonctionnement optimum, tu n'es pas obligé de mettre les mêmes barrettes pour fonctionner. Une barrette de 16Go et une autre de 8Go sur le 2e canal coexistent sans problème (même avec des fréquences différentes). En revanche on s'appliquera à employer le même modèle sur un même canal (avec 4 slots par exemple). Le tout fonctionne à la fréquence mémoire la plus basse des barrette installé... veillez donc à employer des fréquences compatibles. ^^'

    exemple concret : carte-mère ATX AM4 avec un CPU 2xxx (Raven Ridge), 4 slots RAM
    fréquence max / fréquence min --> 2933 / 2133
    Dans tout les cas de figures, le fonctionnement est à 2667 ...à 2 exceptions près :
    - une seule barrette employé, en "single rank"
    - la fréquence de la RAM est inférieur à 2667

    Citation Envoyé par foetus Voir le message
    2) Le nombre de lignes PCI-Express. Apparemment depuis le succès d'AMD avec ces processeurs Ryzen, Intel a enfin augmenté le nombre de lignes PCI-Express.
    Parce que maintenant presque tout utilise des lignes PCI-Express : NVME, DMI ("Direct Media Interface"), ... en plus des 16 lignes de la carte graphique.
    Pour moi, le nombre de lignes PCIe est une guerre qui ne concerne pas notre marché, mais celui du segment serveur. Un GPU, un SSD NVMe, des disques SATA, des ports USB, et un lien avec le chipset (qui offre des liens PCIe supplémentaires), suffisent amplement pour la presque totalité des utilisateurs.
    Pensez à utiliser les pouces d’appréciation, pour participer à la visibilité de l'apport d'un propos, ou l'intérêt que vous y prêtez... qu'il soit positif ou négatif.

  2. #22
    Expert éminent sénior
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    Juillet 2013
    Messages
    4 630
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 4 630
    Points : 10 556
    Points
    10 556
    Par défaut
    Citation Envoyé par Steinvikel Voir le message
    Mais ces 20% de différences sont seulement sur des charges de saturation, en définitive, globalement c'est beaucoup moins

    Pour moi, le nombre de lignes PCIe est une guerre qui ne concerne pas notre marché, mais celui du segment serveur. Un GPU, un SSD NVMe, des disques SATA, des ports USB, et un lien avec le chipset (qui offre des liens PCIe supplémentaires), suffisent amplement pour la presque totalité des utilisateurs.
    C'est ce qui me désole Parce que les processeurs/ l'ordinateur permettent de grosses performances alors les cas "extrêmes", on s'en fiche (<- avec de grosses pincettes, fortes charges processeur, fortes charges mémoire, avoir 2 cartes graphiques en x16 pour du rendu 3D, mettre une grosse carte contrôleur x4 pour faire de la capture temps réel, ... exemples peut-être pourris ) (et Intel en a profité )

    Un exemple très précis : le Mac Mini avait tout pour devenir l'ordinateur ultime pour le développement. Mais cela a foiré (au delà du prix et du monde Mac). Cela a foiré parce que :
    • processeur trop court : throttling, performante brute faible, pas forcément les dernières fonctionnalités comme l'HyperThreading, VT-x, ...
    • faible quantité mémoire ... par exemple lorsque tu manipules plusieurs machines virtuelles
    • pas une carte graphique alors que beaucoup de logiciels l'utilisent ... comme Android Studio
    • tout est soudé, pas d'évolution possible


    Alors si tu regardes les tests des processeurs, les derniers processeurs sont meilleurs parce que 1) Intel a enfin débloqué le nombre de cœurs (6 et 8 maintenant) 2) ils gèrent mieux le calcul des nombres flottants (sans parler des améliorations de la technologie AVX)
    Donc comme quoi, on améliore toujours ces cas "extrêmes"


    Citation Envoyé par Steinvikel Voir le message
    tu le montes sur une carte-mère mATX à 30€, tu as 2 chances sur 3 que la RAM ne fonctionne pas du tout (plutôt que de fonctionner à fréquence réduite).
    Je pense que dans ce cas, tu peux dire merci à Intel avec ces 4-6 chipsets à chaque sortie d'une plateforme
    Il me semble que sur la majorité des cartes mères mATX tu as un chipset dit "embarqué" et donc limité. Comme d'hab, c'est la même chose : on n'a pas besoin de beaucoup lignes PCI-Express parce que le format limite le nombre de ports, on limite la fréquence mémoire parce que c'est pour faire une petite machine qui ne chauffe pas/ qui ne consomme pas beaucoup.


    Citation Envoyé par eldran64 Voir le message
    Pour le reste, sans vouloir générer un débat, je maintiens pour les 16Go de RAM sur Win10. Avec 8Go on s'en sort mais disons que l'OS aime prendre ses aises. Mes machines possèdent 64Go de ram chacune et sur Win10 je grimpe souvent à 6/7Go de RAM sans rien faire. Win10 c'est un peu comme un gosse: c'est un gros gourmand qui ne se privera pas de prendre ce qu'il peut s'il en à l'occasion. Après, soyons clair, au temps pour le boulot je ne jure que par Linux & co autant pour le perso je suis un windowsien convaincu. Bref, cette digression étant fait, chacun verra midi à sa porte sachant que la ram en ce moment ne vaut pas grand chose.
    C'est la fonctionnalité SuperFetch qui est apparue avec Microsoft Vista

  3. #23
    Membre extrêmement actif Avatar de eldran64
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Janvier 2008
    Messages
    341
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Janvier 2008
    Messages : 341
    Points : 1 515
    Points
    1 515
    Par défaut
    Citation Envoyé par foetus Voir le message
    C'est la fonctionnalité SuperFetch qui est apparue avec Microsoft Vista
    Effectivement, sur le papier c'est plutôt une bonne idée quand il y a pas mal de ram et un hdd pourri.

    Dans les faits, ça va à l'inverse de la philo de Linux.
    Tout le monde devrait avoir de l'esprit critique car personne ne pourra m'apporter la preuve de l'absence de celui-ci

  4. #24
    Candidat au Club
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2019
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1
    Points : 2
    Points
    2
    Par défaut Ca tombe à pic !
    Citation Envoyé par LittleWhite Voir le message
    Bonjour à tous,

    Voici un nouvel article pour vous aider à choisir votre prochain PC pour le développement. En effet, le choix peut être difficile à faire et on peut rapidement être perdu face à la multitude de choix sur le marché. Aussi, pour avoir le PC qui convient pour du développement, il est nécessaire de se rappeler de quelques contraintes, contraintes justement énoncées dans cet article.

    Bonne lecture
    Bonjour à tous,

    Je suis en train de choisir ma prochaine machine de développement…
    Je développe en assembleur sur du microcontrôleur pour des applications embarquées. Je développe sous Visual Studio des applications Windows.
    Je teste les application depuis ma machine de développement, plusieurs IDE en action, plusieurs VM, différents outils de traçage de bus I2C, CAN…
    Je fais aussi un peu de schématique et de CAO.

    La configuration sur laquelle j'ai flashé était sur la base d'une carte mère X570 et un processeur RYSEN 7 ou 9... Deux SSD M2...

    N'ayant aucune expérience sur la plateforme AMD, je me suis fait peur ! Vais-je compiler les mêmes exécutables qu'actuellement ? Quels problèmes de compatibilité vais-je rencontrer ?

    Cet article, bien fait au demeurant, me rassure sur la partie hardware… mais qu'en est-il de la partie software ?

    Bonne journée à tous

  5. #25
    Responsable 2D/3D/Jeux


    Avatar de LittleWhite
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Mai 2008
    Messages
    26 859
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur développement logiciels

    Informations forums :
    Inscription : Mai 2008
    Messages : 26 859
    Points : 218 580
    Points
    218 580
    Billets dans le blog
    120
    Par défaut
    N'ayant aucune expérience sur la plateforme AMD, je me suis fait peur ! Vais-je compiler les mêmes exécutables qu'actuellement ? Quels problèmes de compatibilité vais-je rencontrer ?
    Je ne vois pas quel problème vous pourriez avoir. La compilation devrait se passer tout aussi bien que maintenant. Le CPU fonctionnera comme un CPU Intel.

    Cet article, bien fait au demeurant, me rassure sur la partie hardware… mais qu'en est-il de la partie software ?
    Quels sont vos interrogations sur la partie software ?
    Vous souhaitez participer à la rubrique 2D/3D/Jeux ? Contactez-moi

    Ma page sur DVP
    Mon Portfolio

    Qui connaît l'erreur, connaît la solution.

  6. #26
    Membre extrêmement actif Avatar de eldran64
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Janvier 2008
    Messages
    341
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Janvier 2008
    Messages : 341
    Points : 1 515
    Points
    1 515
    Par défaut
    Citation Envoyé par striker13 Voir le message
    Vais-je compiler les mêmes exécutables qu'actuellement ? Quels problèmes de compatibilité vais-je rencontrer ?
    Les exécutables seront strictement les mêmes (les jeux d'instructions sont standardisés). Donc aucun soucis de compatibilité ne sera à déplorer.
    Pour Ryzen 9, oublies. Les disponibilités pour cette gamme sont dramatiques et les prix ont gonflés en conséquence. Je te conseil plutôt de t'orienter vers du Ryzen 7 qui sera tout aussi performant pour ton travail tout en étant moins couteux.
    Tout le monde devrait avoir de l'esprit critique car personne ne pourra m'apporter la preuve de l'absence de celui-ci

  7. #27
    Expert éminent sénior
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    Juillet 2013
    Messages
    4 630
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 4 630
    Points : 10 556
    Points
    10 556
    Par défaut
    Citation Envoyé par eldran64 Voir le message
    Les exécutables seront strictement les mêmes (les jeux d'instructions sont standardisés). Donc aucun soucis de compatibilité ne sera à déplorer.
    Mais, il reste des cas à la marge : il y eu amd64 versus x86-64 (x64) et aussi le support du SSE4 (dont certaines instructions sont spécifiques aux plateformes Intel et d'autres aux plateformes AMD)
    C'est la même chose que CUDA vs [les concurrents]

    Mais sinon pour AMD et Intel, les ordinateurs sont des plateformes x86.

    Par contre, comme AMD et Intel peuvent avoir des différences au niveau matériel (par exemple la gestion de la mémoire cache L1, L2), au niveau conception processeur (par exemple le nombre d'étages du pipeline) et aussi au niveau pilotes, alors certaines applications peuvent en tirer parti au profit de l'un et au détriment de l'autre ... comme les jeux et les pilotes AMD/ ATI sous Linux

  8. #28
    Responsable Systèmes


    Homme Profil pro
    Gestion de parcs informatique
    Inscrit en
    Août 2011
    Messages
    17 438
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Gestion de parcs informatique
    Secteur : High Tech - Matériel informatique

    Informations forums :
    Inscription : Août 2011
    Messages : 17 438
    Points : 43 081
    Points
    43 081
    Par défaut
    Il y a aussi des nuances avec les instructions de virtualisation (Intel VT-X vs AMD-v sans rentrer dans les détails) mais les hyperviseurs qui ont pignon sur rue gèrent les deux.
    Ma page sur developpez.com : http://chrtophe.developpez.com/ (avec mes articles)
    Mon article sur le P2V, mon article sur le cloud
    Consultez nos FAQ : Windows, Linux, Virtualisation

  9. #29
    Expert éminent sénior

    Homme Profil pro
    Développeur Web
    Inscrit en
    Septembre 2010
    Messages
    5 380
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Septembre 2010
    Messages : 5 380
    Points : 10 410
    Points
    10 410
    Par défaut
    Citation Envoyé par LittleWhite Voir le message
    Le WiFi 6 n'était pas sorti, si je ne m'abuse. J'avais donc mentionné WiFi 5 ou plus récent
    Juste pour info, le WiFi 6 est sorti en juillet 2019 avec les cartes Amd X570 qui inauguraient en même temps le PCIEx4.0.

  10. #30
    Nouveau membre du Club
    Homme Profil pro
    Architecte de base de données
    Inscrit en
    Août 2015
    Messages
    9
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Architecte de base de données

    Informations forums :
    Inscription : Août 2015
    Messages : 9
    Points : 26
    Points
    26
    Par défaut
    Salut, pour l'écran tu peux rajouter dalle matte ou anti-reflet (obligatoire pour moi) et concernant la résolution il faut calculer la densité de pixels (dpi)
    https://www.sven.de/dpi/
    On conseille de ne pas aller en dessous de 90 pour un moniteur externe et 120 pour un pc portable même si je rajouterais 10 points à ces valeurs sachant qu'au dela on devra surement utiliser la mis à l'échelle ce qui entraine un léger flou sur les élements non scalables de l'interface encore un peu présent dans windows 10 mais pas sur mac/linux à ma connaissance.
    exemples : 1080p 24" max / 1440p 32" max / pour les laptops moins de 13" : 720p / 13-14" : 900p / plus de 15 : 1080p
    Un écran 4k est toujours appréciable et obligatoire si vous dépassez 32 pouces mais consomme davantage (tout comme les écrans 120hz), bannisez les écrans full hd 27 pouces ou les laptop 15" 720p qui piquent les yeux
    Vérifier aussi que le moniteur est Flicker-free, vaste sujet mais le scintillement peut causer maux de tête et fatigue occulaire chez certaines personnes, pour les écrans de pc portable notebookcheck mesure le pwm (intensité du scintillement), préferez donc la mention "PWM not detected".
    Enfin les fonctionnalités anti lumière bleu sont à la mode mais un peu gadget car reproduisibles par un logiciel (f.lux ou mieux Iris). L'exposition prolongée à la lumière bleu est nuisible pour la santé, dans la mesure du possible réduisez la luminisoté de l'écran et diminuer la lumière bleu, l'oeil s'adapte en quelques minutes à la teinte jaune/rouge plus reposante.

  11. #31
    Expert éminent sénior

    Homme Profil pro
    Développeur Web
    Inscrit en
    Septembre 2010
    Messages
    5 380
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Septembre 2010
    Messages : 5 380
    Points : 10 410
    Points
    10 410
    Par défaut
    Citation Envoyé par lukskiwalker Voir le message
    exemples : 1080p 24" max / 1440p 32" max / pour les laptops moins de 13" : 720p / 13-14" : 900p / plus de 15 : 1080p
    Un écran 4k est toujours appréciable et obligatoire si vous dépassez 32 pouces mais consomme davantage (tout comme les écrans 120hz), bannisez les écrans full hd 27 pouces ou les laptop 15" 720p qui piquent les yeux
    Nan mais tout dépend à quelle distance tu comptes regarder ton écran. Bien sûr si l'on se met assez prêt il faut une bonne résolution sinon cela pique les yeux mais cela ne règle pas tout, car à long terme une trop grande proximité avec l'écran fatigue les yeux. Par contre évidemment c'est moins facile de s'en rendre compte en cinq minutes ou même en quelques années, mais à long terme c'est redoutable. Sans compter les douleurs cervicales et troubles musculosquelettiques si l'on à trop souvent à bouger la tête de droite à gauche et de haut en bas.

    Donc au final un 27" FHD a pas mal d'avantages si l'on prend un recul d'environ 80cm, car à cette distance les caractères sont biens définis, on se prend moins de lumière dans la tronche, et l'on a suffisamment de recul pour avoir une vision d'ensemble qui minimise les allers retours de gauche à droite et de haut en bas.

    C'était juste pour mettre un petit bémol, car le progrès et plus généralement le marketing ne parle jamais des choses qui les dérange. Pour eux le seul but est de vendre de la nouveauté sans se soucier réellement du client. Mais si l'on dit que l'on peut se contenter de 1080p pour un 27" et de 1140 jusqu'à au moins 34" (tout dépend de la distance à laquelle on les regarde évidemment), cela n'est pas bon pour le commerce.

    Après je ne suis pas contre le 4k ou même le 8K sur de grands écrans télé bien que l'intérêt soit encore limité aujourd'hui puisque la diffusion télé est en full HD, il faut donc acheter du spécifique pour avoir un beau spectacle. Mais cela dit, sur le principe y'a pas débat. Par contre pour un écran de travail je ne suis pas d'accord pour dire que la 4K ou la 8K règle tous les problèmes, sur ce sujet il y a débat.

  12. #32
    Membre expert

    Profil pro
    activité : oui
    Inscrit en
    Janvier 2014
    Messages
    1 260
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : activité : oui

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 260
    Points : 3 403
    Points
    3 403
    Par défaut
    Personnellement, je préfère un 1440p (quad HD) voir un 1080p, à un 4k s'il affiche une meilleure qualité sur les couleurs. Entre les différentes technos, les différentes conceptions, et les différentes gammes, il y a pas mal de critères à évaluer en fonction du contexte d'usage.
    Avoir un écran 4k bien calibré, ça coute bonbon, alors que pour beaucoup moins cher on trouve de 1440p avec une qualité suffisante pour dépasser n'importe quel écran 4k bon marché.
    Gamut, delta-E, luminosité, contraste, réactivité, vieillissement, reflet, fonctionnalités de l'OSD... et on a même pas encore parlé de l’aspect physique.

    Bref, il n'est pas possible de comparer une résolution contre une autre en généralisant. Cela se fait en définissant un contexte plus ou moins précis, à commencer par l'usage principal --> retour vidéo (ex: en médecine), développement audio-visuel, jeux, film, ou bureautique ...en extérieur ou intérieur ?
    Pensez à utiliser les pouces d’appréciation, pour participer à la visibilité de l'apport d'un propos, ou l'intérêt que vous y prêtez... qu'il soit positif ou négatif.

  13. #33
    Expert éminent sénior
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    Juillet 2013
    Messages
    4 630
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 4 630
    Points : 10 556
    Points
    10 556
    Par défaut
    Citation Envoyé par ABCIWEB Voir le message
    Après je ne suis pas contre le 4k ou même le 8K sur de grands écrans télé bien que l'intérêt soit encore limité aujourd'hui puisque la diffusion télé est en full HD, il faut donc acheter du spécifique pour avoir un beau spectacle. Mais cela dit, sur le principe y'a pas débat. Par contre pour un écran de travail je ne suis pas d'accord pour dire que la 4K ou la 8K règle tous les problèmes, sur ce sujet il y a débat.
    Il faut arrêter avec cet argument bidon UHD est la seule définition qui propose 2160 lignes horizontales. Sinon on tombe à 1440 voire moins.

    Tout cela parce que le commerciaux vendent que du 16:9 (et non plus du 16:10 ni du 4:3) en 2000, on était avec une définition de 1600x1200 (WUXGA)
    Par contre à ce que j'ai vu, on commence à trouver des écrans 5K à 34 pouces.


    Citation Envoyé par Steinvikel Voir le message
    Avoir un écran 4k bien calibré, ça coute bonbon, alors que pour beaucoup moins cher on trouve de 1440p avec une qualité suffisante pour dépasser n'importe quel écran 4k bon marché.
    Il faut arrêter avec cet argument bidon Tous les écrans 4K 32 pouces LG sont calibrés et coûtent environ 500-600 €uros (sauf les derniers) ... mais LG ne fait plus que des dalles IPS depuis 1 an (d'où la hausse de prix surtout avec l'ajout du HDR)

  14. #34
    Expert éminent sénior
    Avatar de Jipété
    Profil pro
    Inscrit en
    Juillet 2006
    Messages
    10 726
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations forums :
    Inscription : Juillet 2006
    Messages : 10 726
    Points : 15 126
    Points
    15 126
    Par défaut
    Citation Envoyé par foetus Voir le message
    Tous les écrans 4K 32 pouces LG sont calibrés
    Comment (just curious) ?

    À l'époque des cathodiques il y avait une armée de potards à ajuster, mais maintenant ?
    Il a à vivre sa vie comme ça et il est mûr sur ce mur se creusant la tête : peutêtre qu'il peut être sûr, etc.
    Oui, je milite pour l'orthographe et le respect du trait d'union à l'impératif.
    Après avoir posté, relisez-vous ! Et en cas d'erreur ou d'oubli, il existe un bouton « Modifier », à utiliser sans modération
    On a des lois pour protéger les remboursements aux faiseurs d’argent. On n’en a pas pour empêcher un être humain de mourir de misère.
    Mes 2 cts,
    --
    jp

  15. #35
    Expert éminent sénior
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    Juillet 2013
    Messages
    4 630
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 4 630
    Points : 10 556
    Points
    10 556
    Par défaut
    Citation Envoyé par Jipété Voir le message
    Comment (just curious) ?

    À l'époque des cathodiques il y avait une armée de potards à ajuster, mais maintenant ?
    Je ne sais pas vraiment. Il faudrait chercher sur Internet

    Mais tu as un certificat d'étalonnage (ou autre nom) qui atteste que la colorimétrie a été ajustée en usine.

    Mais toi tu peux le faire avec une sonde (Display Pro (X-Rite), Spider, ...) et un logiciel ... mais c'est minimum 150 €uros la sonde.
    Et certains moniteurs professionnels (comme les Necs) ont la sonde directement intégrée.

  16. #36
    Expert éminent sénior
    Avatar de Jipété
    Profil pro
    Inscrit en
    Juillet 2006
    Messages
    10 726
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations forums :
    Inscription : Juillet 2006
    Messages : 10 726
    Points : 15 126
    Points
    15 126
    Par défaut
    Citation Envoyé par foetus Voir le message
    Mais toi tu peux le faire avec une sonde (Display Pro (X-Rite), Spider, ...) et un logiciel ... mais c'est minimum 150 €uros la sonde.
    Yes I know, mais c'est cher pour le peu d'utilisation que j'en aurais (ce n'est pas mon cœur de métier), pi sous Linux la dernière fois que je m'étais renseigné, c'était… comment dire ?, flou encore : ça fonctionne ou pas, selon les distros.

    Citation Envoyé par foetus Voir le message
    Et certains moniteurs professionnels (comme les Necs) ont la sonde directement intégrée.
    Mais comment c'est techniquement possible, ça ? Puisque le principe de la sonde c'est de mesurer ce que la dalle de l'écran "fabrique" (et nous affiche) comme couleurs ? Donc être devant cette dalle…
    Il a à vivre sa vie comme ça et il est mûr sur ce mur se creusant la tête : peutêtre qu'il peut être sûr, etc.
    Oui, je milite pour l'orthographe et le respect du trait d'union à l'impératif.
    Après avoir posté, relisez-vous ! Et en cas d'erreur ou d'oubli, il existe un bouton « Modifier », à utiliser sans modération
    On a des lois pour protéger les remboursements aux faiseurs d’argent. On n’en a pas pour empêcher un être humain de mourir de misère.
    Mes 2 cts,
    --
    jp

  17. #37
    Expert éminent sénior
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    Juillet 2013
    Messages
    4 630
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 4 630
    Points : 10 556
    Points
    10 556
    Par défaut
    Citation Envoyé par Jipété Voir le message
    Mais comment c'est techniquement possible, ça ? Puisque le principe de la sonde c'est de mesurer ce que la dalle de l'écran "fabrique" (et nous affiche) comme couleurs ? Donc être devant cette dalle…
    Apparemment , cela peut être un truc automatique comme avec le moteur Nec SpectraView II

    Étalonnage totalement automatisé
    Le réglage automatique du matériel de l'écran permet de bénéficier de paramétrages optimaux sans que l'utilisateur ait besoin d'intervenir. SpectraView II communique avec les écrans d'affichage via DDC/CI (Display Data Channel - Command Interface), un canal de communication bidirectionnel entre l'adaptateur de graphiques vidéo et le moniteur utilisant le câble de signal vidéo habituel. Aucun autre câble requis.

  18. #38
    Expert éminent sénior
    Avatar de Jipété
    Profil pro
    Inscrit en
    Juillet 2006
    Messages
    10 726
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations forums :
    Inscription : Juillet 2006
    Messages : 10 726
    Points : 15 126
    Points
    15 126
    Par défaut
    Citation Envoyé par foetus Voir le message
    Apparemment , cela peut être un truc automatique comme avec le moteur Nec SpectraView II
    Étalonnage totalement automatisé
    Le réglage automatique du matériel de l'écran permet de bénéficier de paramétrages optimaux sans que l'utilisateur ait besoin d'intervenir. SpectraView II communique avec les écrans d'affichage via DDC/CI (Display Data Channel - Command Interface), un canal de communication bidirectionnel entre l'adaptateur de graphiques vidéo et le moniteur utilisant le câble de signal vidéo habituel. Aucun autre câble requis.
    Comment être sûr que ce joli blabla n'est pas juste de l'enfumage marketing ?
    Il a à vivre sa vie comme ça et il est mûr sur ce mur se creusant la tête : peutêtre qu'il peut être sûr, etc.
    Oui, je milite pour l'orthographe et le respect du trait d'union à l'impératif.
    Après avoir posté, relisez-vous ! Et en cas d'erreur ou d'oubli, il existe un bouton « Modifier », à utiliser sans modération
    On a des lois pour protéger les remboursements aux faiseurs d’argent. On n’en a pas pour empêcher un être humain de mourir de misère.
    Mes 2 cts,
    --
    jp

  19. #39
    Expert éminent sénior
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    Juillet 2013
    Messages
    4 630
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 4 630
    Points : 10 556
    Points
    10 556
    Par défaut
    Citation Envoyé par Jipété Voir le message
    Comment être sûr que ce joli blabla n'est pas juste de l'enfumage marketing ?
    Comment te répondre à part, tu te payes un écran Nec pro mais
    1. il faut les trouver
    2. c'est minimum 2500 €uros
    3. ils sont blindés, et en plus de toute l'électronique rajoutée (dont la sonde), c'est pour cela qu'ils pèsent minimum 20 kilos


    La sonde est le meilleur compromis : efficacité/ prix

  20. #40
    Responsable 2D/3D/Jeux


    Avatar de LittleWhite
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Mai 2008
    Messages
    26 859
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur développement logiciels

    Informations forums :
    Inscription : Mai 2008
    Messages : 26 859
    Points : 218 580
    Points
    218 580
    Billets dans le blog
    120
    Par défaut
    Citation Envoyé par Jipété Voir le message
    Mais comment c'est techniquement possible, ça ? Puisque le principe de la sonde c'est de mesurer ce que la dalle de l'écran "fabrique" (et nous affiche) comme couleurs ?
    Ils font le calibrage en usine. Ensuite, pour remplacer les potards, il suffit d'avoir une puce électronique avec une table d'étalonnage qui va altérer les signaux électroniques allant vers la dalle afin d'afficher des couleurs plus correctes. Bref, les potards ont été remplacé par le micro logiciel de l'écran.
    Vous souhaitez participer à la rubrique 2D/3D/Jeux ? Contactez-moi

    Ma page sur DVP
    Mon Portfolio

    Qui connaît l'erreur, connaît la solution.

Discussions similaires

  1. [PC portable] choisir son ordinateur pour developpement
    Par sheridan08 dans le forum Ordinateurs
    Réponses: 1
    Dernier message: 17/04/2015, 19h52
  2. choisir son pack pour une mairie
    Par doud180878 dans le forum 1&1
    Réponses: 2
    Dernier message: 14/03/2011, 14h05
  3. Choisir son hébergeur pour du PHP
    Par nebil dans le forum Langage
    Réponses: 2
    Dernier message: 30/08/2006, 11h01

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo