IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Hardware Discussion :

Le CPU Core i9 de 28 cœurs annoncé par Intel a été surcadencé pour atteindre 5 GHz


Sujet :

Hardware

  1. #21
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 604
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 604
    Points : 18 520
    Points
    18 520
    Par défaut
    Citation Envoyé par foetus Voir le message
    À ce que j'avais compris il y a 10 ans, c'est que sur un wafer, le fabricant regarde chaque puce qu'il y a dessus pour savoir "le nombre d'erreurs de production".
    C'est un peu comme ça :

    Réactiver les cores manquant des Athlon II & Phenom II X2 - X3
    AMD vend plus de Phenom II X2 et X3 que de X4 et donc une partie des processeurs utilisent un core de Phenom II X4 complet, alors que certains sont basés sur des Phenom II X4 défectueux.
    Avec le Ryzen Threadripper, AMD refait le coup du Phenom X3
    Le fondateur de Der8auer a ouvert sa puce Threadripper et a trouvé ce qui semblait être quatre matrices de 8 cœurs utilisées. Soit une base Epyc 7601 déclassée (la dernière puce serveur d'AMD avec quatre die et 32 coeurs). C'est à dire un composant qui aurait échoué aux tests qualité et recyclé en Threadripper au lieu de partir au rebut.
    Keith Flint 1969 - 2019

  2. #22
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 257
    Points
    66 257
    Par défaut Intel : le CPU Core i9 de 28 cœurs annoncé a été surcadencé pour atteindre 5 GHz
    Le CPU Core i9 de 28 cœurs annoncé par Intel a été surcadencé pour atteindre 5 GHz :
    ce qu'il faut savoir sur la puce d'Intel

    Nom : intel.jpg
Affichages : 9892
Taille : 38,3 Ko

    Intel, la grande entreprise américaine spécialisée dans la fabrication des semi-conducteurs a annoncé au début du mois de juin qu’elle travaille sur un processeur de la série Core i9 embarquant jusqu’à 28 cœurs et pourrait attendre une fréquence de 5 GHz. La nouvelle puce afficherait un score de 7334 sur le benchmark Cinebench. Elle était prévue pour la fin de cette année 2018. Mais Intel a oublié de mentionner un détail important. Les processeurs 5 GHz ont été surcadencés, c'est-à-dire qu'ils ont été manipulés pour augmenter la fréquence du signal d'horloge au-delà de la fréquence nominale.

    Sorties de l'usine, ces puces ne sont pas à 5 GHz de fréquence et un système complexe de refroidissement capable de supporter des charges thermiques jusqu'à 1,77 kW est nécessaire pour pouvoir les faire tourner à une telle vitesse. Intel a confirmé un autre fait sur ces puces 28 cœurs. Ils sont construits sur une variante de son processeur de 14 nm. Ils utilisent aussi l'énorme prise LGA3647 qui dispose de 3647 pins et qui est utilisée par certains processeurs Xeon. Ils ont six canaux de mémoire. On ignore avec quel chipset et sur quelle plateforme il sera déployé et quelle sera sa vitesse d'horloge normale. On ne peut que faire des spéculations et la plus vraisemblable est que ces puces seraient de la famille Skylake-SP qui est une variante du noyau Skylake conçu pour les processeurs de plus de huit cœurs.

    Les cœurs sont disposés sous forme de grille au lieu d'un cercle. Cela fournit une meilleure mise à l'échelle au fur et à mesure que le nombre de cœurs augmente. Il existe trois matrices Skylake-SP : LCC, HCC et XCC pour un petit, grand et très grand nombre de cœurs avec respectivement 10, 18 et 28 cœurs. À l'heure actuelle, il y a des processeurs Xeon-SP qui utilisent les trois variantes de Skylake-SP. Les processeurs Skylake-X (utilisés pour les plateformes X-Series) n'utilisent actuellement que les matrices LCC et HCC. La nouvelle puce pourrait être de la famille Skylake-X et utiliser la matrice XCC. C'est aussi possible que ce ne soit pas Skylake-X, mais plutôt Cascade Lac-X.

    Source : anandtech

    Et vous ?

    Qu'en pensez-vous ?

    Voir aussi

    Intel prépare un CPU Core i9 de 28 cœurs pouvant monter jusqu'à 5 GHz AMD veut enterrer la concurrence avec un ThreadRipper à 32 cœurs

    Intel prépare ses pilotes pour l'arrivée de ses GPU distincts une première étape dans la concrétisation de son ambition de conquérir le marché

    Intel annonce de nouvelles fonctionnalités de processeurs pour aider l'industrie à améliorer la détection des menaces de sécurité avancées

    Les processeurs Intel x86 souffriraient d'un défaut qui exposerait la mémoire noyau et impacterait surtout sur le marché serveur

    Les futurs CPU Xeon Ice Lake d'Intel se dévoilent 10nm, nouveau socket LGA4189, plus de cœurs, TDP en hausse et support de huit canaux mémoires
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #23
    Nouveau Candidat au Club
    Homme Profil pro
    historien & product owner
    Inscrit en
    Mai 2018
    Messages
    618
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : Algérie

    Informations professionnelles :
    Activité : historien & product owner

    Informations forums :
    Inscription : Mai 2018
    Messages : 618
    Points : 0
    Points
    0
    Par défaut
    Mon ressentie sur ce cpu quand je l'ai vu au computex :
    la solution d'intel semblait encore être un prototype non finalisé
    a l'inverse de celui d'amd, le threadripper2 32coeurs semblait lui par contre fini et commercialisable le jour même

    Cela vas être une vrai guerre, qui des 2 monstre sera le plus puissant en applicatif multicœur, AMD avec 4 coeurs en plus ou intel avec je pense une fréquence plus élevée ?
    parceque finalement c'est sa la seul question qui compte dans ce genre de duel, avoir la plus grosse

    et ce genre de duel me réjouit car il ne fait aucun doute que ces cpu représente l'avenir du pc fixe grand publique. Le point important a noté c'est qu'intel/amd vendent des cpu 28/32coeurs aux grand publique ce n'est plus un marché réservé aux serveur (gamme Xeon/Epyc)

  4. #24
    Expert éminent
    Avatar de berceker united
    Profil pro
    SQL
    Inscrit en
    Février 2005
    Messages
    3 488
    Détails du profil
    Informations personnelles :
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : SQL
    Secteur : Finance

    Informations forums :
    Inscription : Février 2005
    Messages : 3 488
    Points : 6 037
    Points
    6 037
    Par défaut
    Je suis étonné que ce type de cpu puisse exister même si c'est le naturel des choses. Le marché du PC est en baisse et à titre personnel je constate que les gens utilisent de moins en moins d'applications lourdes sur leurs ordinateurs hormis le faite que certain navigateur sont très gourmand en mémoire de manière totalement inexpliqué pour le simple mortel.
    Mise à part les serveurs, je ne vois pas à qui cela peut s'adresser. Si hors utilisation serveur, marché de niche ?
    Mon avatar ? Ce n'est rien, c'est juste la tête que je fais lorsque je vois un code complètement frappa dingue !...

  5. #25
    Nouveau Candidat au Club
    Homme Profil pro
    historien & product owner
    Inscrit en
    Mai 2018
    Messages
    618
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : Algérie

    Informations professionnelles :
    Activité : historien & product owner

    Informations forums :
    Inscription : Mai 2018
    Messages : 618
    Points : 0
    Points
    0
    Par défaut
    la retouche video, l'encodage, la cao/pao, flight simulator X,...

  6. #26
    Membre expert
    Profil pro
    undef
    Inscrit en
    Février 2013
    Messages
    959
    Détails du profil
    Informations personnelles :
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : undef

    Informations forums :
    Inscription : Février 2013
    Messages : 959
    Points : 3 528
    Points
    3 528
    Par défaut
    Bof. A un moment donné, pour un utilisateur lambda, le nombre de coeurs n'apporte plus d'amélioration en utilisation. Augmenter la fréquence d'horloge des coeurs redevient plus intéressant pour accélérer des traitements récurrents qui ne seront jamais parallélisables.

  7. #27
    Membre émérite Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    597
    Détails du profil
    Informations personnelles :
    Âge : 32
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 597
    Points : 2 443
    Points
    2 443
    Par défaut
    Citation Envoyé par berceker united Voir le message
    Mise à part les serveurs, je ne vois pas à qui cela peut s'adresser. Si hors utilisation serveur, marché de niche ?
    Je pense qu'on pouvait dire la même chose pour chaque grosse évolution, que ce soit de PC ou consoles. Mais au final plus de puissance permet plus de possibilité, donc ça finis par être utilisé jusqu'à devenir le standard.

    Pendant longtemps les langages étaient surtout pensé pour un seul core. Maintenant la concurrence est quand même pensée dès la base (je pense notamment a Rust).
    Au final y a pas tant d'algos utiles que ça qui sont impossible a multithreader.
    Tout ce qui est rendu 3d, traitement audio, traitement vidéo, deep learning, ça marche toujours mieux sur plusieurs cores.
    Y a qu'a voir l’essor des cartes graphiques qui est totalement basé sur ça, beaucoup beaucoup de parallélisme mais à faible puissance.

    En tout cas outre le domaine pro ce sera très utile pour les technos liées au jeu vidéo.
    Y a pas mal d'éléments d'un jeu qui demandent beaucoup de calculs et peuvent être calculé sur plusieurs threads (par exemple la physique, l'IA).

    Ça va rendre l'effort de rendre son jeu/programme multithread de plus en plus intéressant, jusqu'au moment ou le standard ce sera les applis qui tournent sur au moins 8 threads ou plus.
    Bon, le côté négatif c'est qu'on va voir des technos ultra gourmandes inutilement émerger et être utilisées en masses, mais on peut pas tout avoir (coucou node.js, electron ...).
    Circuits intégrés mis à nu: https://twitter.com/TICS_Game

  8. #28
    Nouveau Candidat au Club
    Homme Profil pro
    historien & product owner
    Inscrit en
    Mai 2018
    Messages
    618
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : Algérie

    Informations professionnelles :
    Activité : historien & product owner

    Informations forums :
    Inscription : Mai 2018
    Messages : 618
    Points : 0
    Points
    0
    Par défaut
    Citation Envoyé par 23JFK Voir le message
    Bof. A un moment donné, pour un utilisateur lambda, le nombre de coeurs n'apporte plus d'amélioration en utilisation. Augmenter la fréquence d'horloge des coeurs redevient plus intéressant pour accélérer des traitements récurrents qui ne seront jamais parallélisables.
    1) pleins de programme sont mal paralléliser parceque les dev ne le font pas car personne n'a de cpu > 4coeurs
    2) Avoir pleins de coeurs ne veut pas dire avoir une faible fréquence, la preuve avec le cpu d'intel 28 qui peut monté a 5ghz (sur 1-2 coeurs), pourquoi te plaindre si tu peut avoir les 2 ?


    Moi je vois que depuis qu'AMD a démocratiser le 8coeurs/16threads, tous les nouveaux jeux exploite bien mieux les cpu 8coeurs, le dernier assassin's creed origin le prouve assez bien par exemple.

    Alors je sais pas si un jour les jeux utiliserons 32coeurs, mais en tous cas ils exploite aujourd'hui 8 coeurs et demain ils exploiterons surement 12 coeurs.
    et si tu prend le jeu Flight Simulator X, il exploite tres bien les cpu multicoeurs, a l'époque des gens achetais des xeons 12coeurs pour le faire tourner, car ce jeu faisait la majorité de ces calculs sur le cpu.
    Aujourd'hui encore, le moteur de flight simulator peut exploiter au maximum 256coeurs d'apres MS.


    Si dans le futur nous avons des cpu 32coeurs, les dev vont peut etre enlever des calculs comme la physique du gpu pour exploiter le cpu 32couers, cela libérera des ressources gpu pour atteindre plus facilement la 8K

  9. #29
    Expert éminent sénior
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    Juillet 2013
    Messages
    4 630
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 4 630
    Points : 10 556
    Points
    10 556
    Par défaut
    Citation Envoyé par ShigruM Voir le message
    Cela vas être une vrai guerre, qui des 2 monstre sera le plus puissant en applicatif multicœur, AMD avec 4 coeurs en plus ou intel avec je pense une fréquence plus élevée ?
    Il y a surtout un point important : c'est la gestion des caches partagés et la communication entre les cores (on parle de trois matrices Skylake-SP : LCC, HCC et XCC).
    Justement tu dis que la solution d'Intel est "non finalisée" : il éprouve sûrement leur architecture core et l'améliore en conséquence.


    Dans le passé, on a vu que mettre 2 cores ensemble ne suffit pas, voire même pire


    Citation Envoyé par ShigruM Voir le message
    Moi je vois que depuis qu'AMD a démocratiser le 8coeurs/16threads, tous les nouveaux jeux exploite bien mieux les cpu 8coeurs, le dernier assassin's creed origin le prouve assez bien par exemple.
    Je peux me tromper , mais les jeux actuels fonctionnent avec des bassins "pools" d'objets (composants, entités, systèmes, ... ECS (<- lien wiki anglais))
    Et tu as à côté des managers qui permettent de détecter "le matériel" et d'adapter le cœur du jeux en fonction.

    Et donc, et c'est un peu le but, de s'adapter assez facilement au nombre de cores : plus il y a de cores, plus il va y avoir de bassins (c'est le rôle des managers).
    Mais à un moment, il ne va pas avoir assez d'objets pour alimenter les bassins.

  10. #30
    Membre expérimenté
    Profil pro
    Inscrit en
    Juin 2006
    Messages
    1 354
    Détails du profil
    Informations personnelles :
    Âge : 48
    Localisation : France

    Informations forums :
    Inscription : Juin 2006
    Messages : 1 354
    Points : 1 419
    Points
    1 419
    Par défaut
    ok mais est-il safe? (rappelez vous les recents problemes de securité)

  11. #31
    Membre expérimenté

    Homme Profil pro
    retraité
    Inscrit en
    Novembre 2004
    Messages
    389
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : retraité
    Secteur : Service public

    Informations forums :
    Inscription : Novembre 2004
    Messages : 389
    Points : 1 595
    Points
    1 595
    Par défaut
    +1
    Pour des jeux, moi, je m'en fout un peu, cela ne m'intéresse guère. Mais pour d'autres applicatifs cette interrogation prend tout son sens.
    Quelqu'un a-t-il déjà creusé les sources de l'article à propos de cet aspect ? Cela m'intéresse.

  12. #32
    Invité
    Invité(e)
    Par défaut
    Citation Envoyé par epsilon68 Voir le message
    ok mais est-il safe? (rappelez vous les recents problemes de securité)
    Au minimum son microcode est a jour pour Spectre et Meltdown, au mieux les failles sont corrigées dans l'archi.

    Citation Envoyé par Namica Voir le message
    +1
    Pour des jeux, moi, je m'en fout un peu, cela ne m'intéresse guère. Mais pour d'autres applicatifs cette interrogation prend tout son sens.
    Quelqu'un a-t-il déjà creusé les sources de l'article à propos de cet aspect ? Cela m'intéresse.
    Pas sur qu'un 28C soit vraiment utile pour du jeux vidéo, sauf si c'est pour compiler

  13. #33
    Membre éprouvé
    Homme Profil pro
    Ingénieur R&D
    Inscrit en
    Mai 2016
    Messages
    313
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Ingénieur R&D
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mai 2016
    Messages : 313
    Points : 1 237
    Points
    1 237
    Par défaut
    Citation Envoyé par berceker united Voir le message
    Je suis étonné que ce type de cpu puisse exister même si c'est le naturel des choses. Le marché du PC est en baisse et à titre personnel je constate que les gens utilisent de moins en moins d'applications lourdes sur leurs ordinateurs hormis le faite que certain navigateur sont très gourmand en mémoire de manière totalement inexpliqué pour le simple mortel.
    Mise à part les serveurs, je ne vois pas à qui cela peut s'adresser. Si hors utilisation serveur, marché de niche ?
    Pour les usages domestiques, c'est peut-être bien largement suffisant, mais en CAO et simulation physique pour l'ingénierie, il n'y a jamais assez de puissance de calcul.
    Je n'ai pas de problème pour mettre à genoux une station bi-xeon 2*22 coeurs avec mes simulations, même en ayant déployé toutes les ruses pour optimiser les algorithmes, et le calcul en réseau pour essayer de dépasser ces limites, c'est quand même un peu pénible et source de complications.
    A temps de calcul constant, plus on a de puissance, plus les simulations peuvent être précises.

  14. #34
    Membre émérite Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    597
    Détails du profil
    Informations personnelles :
    Âge : 32
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 597
    Points : 2 443
    Points
    2 443
    Par défaut
    Non mais de toute façon y a pas de questions à se poser sur la puissance. Si jamais ce n'étais pas utile maintenant (et perso je trouve cette idée biaisée), ce sera utile quand ça deviendra le standard car la majorité des programmes seront conçus pour ce genre d'archi. Plus de puissance ça permettra aussi à certains trucs cantonnés au domaine pro de toucher le public.

    Y a qu'a voir le deep learning, y a une époque c'était inimaginable de pouvoir faire tourner un gros réseau de neurones chez soit (ne parlons même pas de l'apprentissage), maintenant la moindre carte graphique à plus de 200€ peut faire tourner des trucs totalement fous. Et la on ne peut plus dire que ça n'a pas d'application ou que c'est inutile, même si a une époque j'imagine qu'on se doutait pas forcément des possibilités jusqu'à y avoir accès.

    La vrai question c'est surtout: est-ce que ce genre d'archi pourra se démocratiser, au niveau des coûts de fabrication?
    Parce que perso, je suis pas du genre à mettre plus d'argent dans mon CPU que dans ma carte graphique. Après tout dépend du besoin... mais pour la majorité je pense que c'est plus ou moins comme ça que ça fonctionne
    (et dans mon cas, vu que je compile a longueur de journée de grosses bases de code C++, ça m'est très utile d'avoir beaucoup de cores).
    Circuits intégrés mis à nu: https://twitter.com/TICS_Game

  15. #35
    Membre confirmé Avatar de LapinGarou
    Homme Profil pro
    R&D Developer
    Inscrit en
    Octobre 2005
    Messages
    341
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Var (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : R&D Developer
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Octobre 2005
    Messages : 341
    Points : 479
    Points
    479
    Par défaut
    Ca va être utile pour traiter (je ne parle pas de l'indexation mais des traitements que l'on fait des données ensuite) les 750 GigaOctets de big data que nous avons au boulot, nos i7 à huits coeurs sont déjà parfois limites pour avoir un temps de calcul raisonnable (moins d'1 min par ex)...

  16. #36
    Membre expérimenté
    Homme Profil pro
    Chargé de projet
    Inscrit en
    Novembre 2015
    Messages
    429
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Seine Saint Denis (Île de France)

    Informations professionnelles :
    Activité : Chargé de projet
    Secteur : Industrie

    Informations forums :
    Inscription : Novembre 2015
    Messages : 429
    Points : 1 684
    Points
    1 684
    Par défaut
    je sais que je vais sûrement passer pour un boulet mais :
    pourquoi ne pas faire exécuter vos calculs par un serveur qui lui pourrait avoir plusieurs processeurs et il ne serait dédier qu'à sa plutôt que de faire chacun de vos pc monstrueusement puissants ?
    Pour ne pas passer pour un boulet :
    http://coursz.com/difference-entre-r...-et-gddr4.html

  17. #37
    Nouveau Candidat au Club
    Homme Profil pro
    historien & product owner
    Inscrit en
    Mai 2018
    Messages
    618
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : Algérie

    Informations professionnelles :
    Activité : historien & product owner

    Informations forums :
    Inscription : Mai 2018
    Messages : 618
    Points : 0
    Points
    0
    Par défaut
    pour un besoin occasionnel tous le monde le fait déjà et loue un serveur a la demande a Amazon,MS Azure...etc.

    Mais pour un besoin quotidien ou pour des cas particulier (projet top secret, hardware très spécifique...), c'est plus rentable d'acheter une workstation/serveur

  18. #38
    Membre chevronné

    Homme Profil pro
    Retraité
    Inscrit en
    Juin 2012
    Messages
    1 035
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Retraité
    Secteur : Biens de consommation

    Informations forums :
    Inscription : Juin 2012
    Messages : 1 035
    Points : 2 053
    Points
    2 053
    Par défaut
    Mise à part les serveurs, je ne vois pas à qui cela peut s'adresser. Si hors utilisation serveur, marché de niche ?
    Quand j'ai eu mon premier athlon XP 2100 je me suis demandé comment j'avais pu supporter un 486DX suivi d'une série de Pentium.
    Et il y-a eu l'intel Q6600 qui m'a fait penser la même chose de l'athlon.
    Je présume que si un jour cette monstruosité devient abordable elle me fera penser la même chose de mon 4770 ayant renvoyé le Q6600 aux oubliettes.

  19. #39
    Membre expert

    Profil pro
    activité : oui
    Inscrit en
    Janvier 2014
    Messages
    1 260
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : activité : oui

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 260
    Points : 3 403
    Points
    3 403
    Par défaut
    Citation Envoyé par berceker united Voir le message
    (...) à titre personnel je constate que les gens utilisent de moins en moins d'applications lourdes sur leurs ordinateurs (...) Mise à part les serveurs, je ne vois pas à qui cela peut s'adresser. Si hors utilisation serveur, marché de niche ?
    Citation Envoyé par onilink_ Voir le message
    (...) au final plus de puissance permet plus de possibilité, donc ça finis par être utilisé jusqu'à devenir le standard.
    (...) Au final y a pas tant d'algos utiles que ça qui sont impossible a multithreader.
    Tout ce qui est rendu 3d, traitement audio, traitement vidéo, deep learning, ça marche toujours mieux sur plusieurs cores.
    (...)
    Y a pas mal d'éléments d'un jeu qui demandent beaucoup de calculs et peuvent être calculé sur plusieurs threads (par exemple la physique, l'IA).
    Citation Envoyé par foetus Voir le message
    Il y a surtout un point important : c'est la gestion des caches partagés et la communication entre les cores (on parle de trois matrices Skylake-SP : LCC, HCC et XCC).
    Le fait que les applications lourdes sur PC soient de moins en moins lourdent, le sont pour 2 raisons principales :
    1) Une appli lourde il y a 10ans ou plus, ne l'es plus forcément aujourd'hui. Tous les usages n'engendrent pas un besoin de croissance de calcul linéaire avec les années, mais plutôt un palier de confort à franchir.
    2) Le "service web" s'est démocratisé avec internet, et les avantages qu'il a apporté, c'est d'utiliser une puissance de calcul autre pars que sur sa machine, et par conséquent se libérer de certains désagréments liés à une installation et sa maintenance, des limitation matériels... en plus de la résilience des données.
    Ces appli ne sont pas moins nombreuses (en terme d'offre sur le marché), mais on en retrouve moins sur un même PC, et le critère de "lourd" est relatif, il est souvent relatif à la puissance de calcul disponible en moyenne, et non en valeur absolue (de ressource utilisé /quantité de données traité). Et pour finir bien des appli profitent d'optimisations de leur algorithme ou de l'environnement de développement, qui en améliore de facto leur efficacité.

    Au-delà de ça, certaines appli n'étaient pas amené à devenir gourmande, et par la disponibilité de ressources toujours croissante, n'ont pourtant cesser d'intégrer plus de fonctionnalités, ou d'enrichir le résultat qu'elles produisent. Dans certains cas, aujourd'hui où tu utilise une applis pour un besoin, tu en utilisais plusieurs avant.
    onilink_ , détrompe-toi, ça marche pas toujours mieux sur plus de coeur... l'arrivée Ryzen et ses 8 coeurs, à permis d'observer que de rares logiciels refusaient tout simplement de démarrer sur des CPU de plus de 4 coeurs (Ryzen 7 avec 4 coeurs désactivés sur 8 et c'était de nouveau opérationnel).

    "Si hors utilisation serveur, marché de niche ?"
    Dès qu'il est question de graphisme "haut de gamme" ou de logiciels de "production", tu peux être sûr que la question sur la puissance dispo d'un CPU est primordiale, et éliminer les i3 et compagnie. S'il y a aujourd'hui des fréquence max à 4-5 GHz sur plusieurs coeurs, c'est parce qu'un équivalent mono-coeur à fréquence suppérieur est moins "efficace" énergétiquement, de plus l'architecture multi-coeur apporte une souplesse/polyvalence dans le traitement. Les PC à 1500€ (de matière brut) son plus courant que tu ne le pense, en entreprise ou chez les particuliers (parfois auto-entrepreneur).

    Citation Envoyé par 23JFK Voir le message
    Bof. A un moment donné, pour un utilisateur lambda, le nombre de coeurs n'apporte plus d'amélioration en utilisation. Augmenter la fréquence d'horloge des coeurs redevient plus intéressant pour accélérer des traitements récurrents qui ne seront jamais parallélisables.
    Malheureusement on ne peut pas être aussi catégorique. Certains logiciels semblent s'appuyer sur la fréquence, d'autres sur les coeurs, d'autres misant sur les jeux d'instructions.
    Pour StockFish par exemple (une IA d'échec), le nombre de coeurs prime fortement sur la fréquence en terme de gains... et le SMT d'AMD (Hyper Threading pour intel) est plus efficace sur un processeur avec peu de coeur. http://www.hardware.fr/focus/121/inf...smt-ryzen.html
    - le choix du modèle de CPU intégrant les instructions les plus efficaces pour le logiciel visé (ce seul point justifie des écarts de performance jusqu'à 50% dans certain cas... autre que StockFish)


    Citation Envoyé par ShigruM Voir le message
    (...) pleins de programme sont mal paralléliser parce que les dev ne le font pas car personne n'a de cpu > 4coeurs
    (...) Moi je vois que depuis qu'AMD a démocratiser le 8coeurs/16threads, tous les nouveaux jeux exploite bien mieux les cpu 8coeurs
    (...) Si dans le futur nous avons des cpu 32coeurs, les dev vont peut etre enlever des calculs comme la physique du gpu pour exploiter le cpu 32couers, cela libérera des ressources gpu pour atteindre plus facilement la 8K
    Entièrement d'accord avec toi. Tu sais pourquoi l'usage du nombre de coeur maximal n'est pas déterminé par l'OS, mais des différentes étapes de développement ?
    Ca m'a toujours intrigué --> permettre à un programme (dans sa conception je parle) un usage d'une capatité de mémoire illimité, de thread illimité, mais pas de sappuyer sur un nombre de coeur illimité. Quelle est la cause de cette limitation ? quelqu'un sait ?


    Citation Envoyé par dantes94 Voir le message
    Pas sur qu'un 28C soit vraiment utile pour du jeux vidéo, sauf si c'est pour compiler
    Qui peux le plus peux le moins. Faut seulement voir sur combien d'années tu te projette et la "modularité" de ton porte-feuille ! x)
    Pensez à utiliser les pouces d’appréciation, pour participer à la visibilité de l'apport d'un propos, ou l'intérêt que vous y prêtez... qu'il soit positif ou négatif.

  20. #40
    Nouveau Candidat au Club
    Homme Profil pro
    historien & product owner
    Inscrit en
    Mai 2018
    Messages
    618
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : Algérie

    Informations professionnelles :
    Activité : historien & product owner

    Informations forums :
    Inscription : Mai 2018
    Messages : 618
    Points : 0
    Points
    0
    Par défaut
    Citation Envoyé par Steinvikel Voir le message
    Entièrement d'accord avec toi. Tu sais pourquoi l'usage du nombre de coeur maximal n'est pas déterminé par l'OS, mais des différentes étapes de développement ?
    Ca m'a toujours intrigué --> permettre à un programme (dans sa conception je parle) un usage d'une capatité de mémoire illimité, de thread illimité, mais pas de sappuyer sur un nombre de coeur illimité. Quelle est la cause de cette limitation ? quelqu'un sait ?
    Les dev regarde la config majoritaire que les gens ont et développe le projet en conséquence.
    Les gens on pour la majorité des cpu 4c et 1 GPU donc ils dévelope leurs programme pour ce genre de matos.
    Avec l'arrivé des consoles 8coeurs, les jeux exploite bien mieux depuis les cpu 4c/8t et aussi les Ryzen.

    Un jeu sa prend du temps a ce coder, 3-5ans, les jeux sortie après ryzen ont été développé en 2013/2014, les dev avait anticipé cela.
    Par contre pour le gpu... si le sli/cross n'est pas la norme alors aucun jeu ne l'exploiteras (ou tres peu)

Discussions similaires

  1. Intel prépare ses pilotes pour l'arrivée de ses GPU distincts
    Par Bill Fassinou dans le forum Hardware
    Réponses: 0
    Dernier message: 07/05/2018, 02h04
  2. [11gR2] AWR DB CPU vs CPU cores sockets
    Par devkais dans le forum Oracle
    Réponses: 1
    Dernier message: 26/07/2014, 10h07
  3. [Processeur] Problème avec CPU (intel Core i7 920)
    Par driteur dans le forum Composants
    Réponses: 5
    Dernier message: 17/03/2010, 08h46
  4. Différence cpu : core duo, core 2 duo
    Par soussie dans le forum Composants
    Réponses: 2
    Dernier message: 11/09/2008, 20h56

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo