IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Hardware Discussion :

L'architecture Willow Cove d'Intel sera "significativement plus grosse" que Sunny Cove


Sujet :

Hardware

  1. #1
    Responsable Qt & Livres


    Avatar de dourouc05
    Homme Profil pro
    Ingénieur de recherche
    Inscrit en
    Août 2008
    Messages
    26 609
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : Ingénieur de recherche
    Secteur : Enseignement

    Informations forums :
    Inscription : Août 2008
    Messages : 26 609
    Points : 188 580
    Points
    188 580
    Par défaut L'architecture Willow Cove d'Intel sera "significativement plus grosse" que Sunny Cove
    Les améliorations de performance dans nos processeurs n'ont cessé ces dernières années, mais à un rythme plus lent. Les moins jeunes se souviennent d'une époque où changer de PC tous les deux ou trois ans avait un véritable intérêt, le gain de performance (notamment grâce à des fréquences plus élevées) le justifiant pour bon nombre d'usages. Maintenant, on se satisfait d'un gain d'à peine une dizaine de pour cent d'une génération à l'autre, une augmentation de quinze à vingt étant très significative : l'architecture Sunny Cove d'Intel apporte une telle amélioration par rapport à Coffee Lake, cela faisait des années que le chiffre n'était pas aussi élevé. Les changements concernent à la fois l'architecture interne des processeurs, mais aussi le processus de fabrication (qui permet d'imprimer trente-huit pour cent de transistors en plus, sans augmentation de fréquence). L'écart entre le nombre de transistors supplémentaires et l'amélioration de performance est important.

    L'architecture qui suivra Sunny Cove, Willow Cove, devrait se rapprocher d'une relation linéaire entre l'augmentation de performance et le nombre de transistors. C'est tout du moins l'avis de Jim Keller, vice-président d'Intel depuis 2018. De fait, un processeur est certes le résultat du travail acharné d'un très grand nombre de personnes, mais surtout d'un grand nombre de petites équipes : chacune peut améliorer significativement sa partie, pour apporter des gains à l'échelle du processeur. En effet, la partie calcul d'un processeur actuel représente approximativement un tiers de sa consommation d'énergie, une fraction un peu plus grande des transistors : le reste sert d'interfaces avec les autres composants de l'ordinateur.


    Intel planifie l'avenir de ses processeurs sur plus d'une dizaine d'années, avec pour objectif actuel de multiplier le nombre de transistors par processeur par cinquante. Chaque étape intermédiaire de cette feuille de route prévoit d'énormes changements pour arriver à une croissance linéaire. Par exemple, un processeur Sunny Cove maintient une fenêtre de huit cent instructions à exécuter, avec un rythme de trois à six instructions exécutées par cycle, à l'aide d'énormes prédicteurs : les prochaines générations devraient augmenter ces chiffres pour atteindre le niveau de performance espéré.

    Source : Intel’s next-gen CPU architecture will be “significantly bigger” than Sunny Cove.
    Vous souhaitez participer aux rubriques Qt (tutoriels, FAQ, traductions) ou HPC ? Contactez-moi par MP.

    Créer des applications graphiques en Python avec PyQt5
    Créer des applications avec Qt 5.

    Pas de question d'ordre technique par MP !

  2. #2
    Nouveau Candidat au Club
    Homme Profil pro
    historien & product owner
    Inscrit en
    Mai 2018
    Messages
    618
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : Algérie

    Informations professionnelles :
    Activité : historien & product owner

    Informations forums :
    Inscription : Mai 2018
    Messages : 618
    Points : 0
    Points
    0
    Par défaut
    Les améliorations de performance dans nos processeurs n'ont cessé ces dernières années, mais à un rythme plus lent. Les moins jeunes se souviennent d'une époque où changer de PC tous les deux ou trois ans avait un véritable intérêt,
    Es ce la faute au progrès technologique qui sature ou au manque de concurrence ?
    depuis que zen est arrivé j'ai doublé la perf de mon cpu comme sa comme par magie en passant d'un I5 4coeurs à un ryzen 8coeurs 16threads...
    d'ici 1-2ans des CPU 12coeurs à 5Ghz pourrais bien devenir bon marché comme l'est aujourd'hui les 8coeurs à 4.5Ghz.

    Et après ? une fois que l'on aura tous un CPU 12coeurs à 5Ghz en 1nm++ ? et bien il y'a toujours la possibilité de créer des puces spécialisé, comme ils le font de plus en plus chez ARM. Un e puce dédié pour les calculs vectoriel, un NPU pour l'ia, un processeur pour les traitements d'images...etc. Ces cœurs spécialisé peuvent facilement doublé les perfs dans certaines conditions.

    Donc oui le probleme c'est quand une entreprise dispose d'un monopole et vas donc se contenter de vendre la même merde pendant 10ans.

    Le processeur du futur c'est des puces conçues pour faire des taches spécifique. des coeurs générique haute performance pour des taches générique, des puces spécialisé pour des taches spécifique mais régulière et des coeurs générique basse consomation pour économiser de l'électricité.

    L'architecture sunny cove sera d'ailleur comme cela, des coeurs haute performance pour le gaming/travail avancé et 1-2 coeurs d'atom pour la veille et la bureautique...et la puce graphique intégré évidement qui est quand même très utile quand les soft en tire partie.

  3. #3
    Expert éminent sénior
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    Juillet 2013
    Messages
    4 627
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 4 627
    Points : 10 548
    Points
    10 548
    Par défaut
    Citation Envoyé par dourouc05 Voir le message
    Les moins jeunes se souviennent d'une époque où changer de PC tous les deux ou trois ans avait un véritable intérêt
    Et pourtant depuis 2009, il y a eu beaucoup de trucs :

    • La bataille entre HDMI et DisplayPort pour passer du full HD au 4K 60 ips. Et maintenant l'USB-C est en train de gagner du terrain
    • le passage du sata-2 (300 Mo/s) au sata-3 (650 Mo/s) au NVMe (> 1500 Mo/s) et la démocratisation des SSDs
    • le passage du PCI-Express 2 au PCI-Express 3 (bientôt 4) et maintenant la majorité des bus sont du PCI-Express (DMI "Direct Media Interface", NVMe, ...)
    • Les alimentations sont passés du rendement or au rendement platinium au rendement titanium et deviennent fanless (ou semi-fanless)
    • Les boîtiers qui maintenant accueillent plus de 7 ventilateurs (<- qui ces derniers n'ont plus besoin d'évoluer) : plus de silence, meilleur refroidissement
    • Le succès des NUCs et autres ordinateurs miniatures
    • Les disques durs sont passés de 5 To à 12 To
    • De plus en plus de logiciels utilisent la carte graphique pour accélérer les traitements


    Et Apple qui a inventé le connecteur réversible


    Citation Envoyé par dourouc05 Voir le message
    le gain de performance (notamment grâce à des fréquences plus élevées) le justifiant pour bon nombre d'usages.
    Et pourtant depuis 2009, il y a eu beaucoup de trucs :

    • meilleurs calculs flottants avec la technologie AVX et son amélioration AVX 2.0
    • meilleurs performances pour les cores en multi-threading
    • meilleurs IGP
    • augmentation du nombre de cores (on est à 6 - 8) - merci AMD
    • passage de la fréquence mémoire de 1666 MHz à 3200 MHz (officiel) et les latences ne sont pas mauvaises

  4. #4
    Membre habitué
    Profil pro
    Inscrit en
    Mars 2008
    Messages
    112
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mars 2008
    Messages : 112
    Points : 165
    Points
    165
    Par défaut
    Citation Envoyé par foetus Voir le message
    Et pourtant depuis 2009, il y a eu beaucoup de trucs :

    • La bataille entre HDMI et DisplayPort pour passer du full HD au 4K 60 ips. Et maintenant l'USB-C est en train de gagner du terrain
    • le passage du sata-2 (300 Mo/s) au sata-3 (650 Mo/s) au NVMe (> 1500 Mo/s) et la démocratisation des SSDs
    • le passage du PCI-Express 2 au PCI-Express 3 (bientôt 4) et maintenant la majorité des bus sont du PCI-Express (DMI "Direct Media Interface", NVMe, ...)
    • Les alimentations sont passés du rendement or au rendement platinium au rendement titanium et deviennent fanless (ou semi-fanless)
    • Les boîtiers qui maintenant accueillent plus de 7 ventilateurs (<- qui ces derniers n'ont plus besoin d'évoluer) : plus de silence, meilleur refroidissement
    • Le succès des NUCs et autres ordinateurs miniatures
    • Les disques durs sont passés de 5 To à 12 To
    • De plus en plus de logiciels utilisent la carte graphique pour accélérer les traitements


    Et Apple qui a inventé le connecteur réversible
    Bah oui, et que retrouve-t-on dans ces différents secteurs? Beaucoup d'acteurs, et donc, de la concurrence.

    Citation Envoyé par foetus Voir le message
    [*]meilleurs performances pour les cores en multi-threading[/LIST]
    Le multi-threading s'est amélioré, en tant que tel, s'est amélioré au fils des années? J'avais rien lu là-dessus.

  5. #5
    Expert éminent sénior
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    Juillet 2013
    Messages
    4 627
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 4 627
    Points : 10 548
    Points
    10 548
    Par défaut
    Citation Envoyé par wistiti1234 Voir le message
    Bah oui, et que retrouve-t-on dans ces différents secteurs? Beaucoup d'acteurs, et donc, de la concurrence.
    Mon propos est que début 2000, oui le processeur à chaque montée de fréquence et à chaque amélioration calcul flottant c'était une claque
    Mais à côté, ce n'était pas fou :
    • le PCI-Express 1 versus l'AGP : pas une grosse différence en performance mais le full duplex un vrai plus
    • les écrans LCDs versus les écrans CRT : pour moi une perte en terme en terme de fidélité des couleurs. Mais le gros +, le poids. Même la connectique DVI ce n'est pas fou
    • le SATA versus le PATA : pas une grosse différence en performance mais un câble plus plat
    • le firewire était meilleur que l'USB-2 : latence et chaînage


    C'était le temps de la bidouille : des latences très basses (2-2-2-5), le command rate à 1, les gros ventirads, le format BTX, soit on met en série soit on double (dual channel, DDR SDRAM), ...


    Citation Envoyé par wistiti1234 Voir le message
    Le multi-threading s'est amélioré, en tant que tel, s'est amélioré au fils des années? J'avais rien lu là-dessus.
    En testant les processeurs sur les sites de comparaison, depuis 2009 on est à x3 en performance multi-threading (mais on va me reprocher que ce sont des tests synthétiques )

  6. #6
    Membre habitué
    Profil pro
    Inscrit en
    Mars 2008
    Messages
    112
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mars 2008
    Messages : 112
    Points : 165
    Points
    165
    Par défaut
    Citation Envoyé par foetus Voir le message
    En testant les processeurs sur les sites de comparaison, depuis 2009 on est à x3 en performance multi-threading (mais on va me reprocher que ce sont des tests synthétiques )
    Bien-sûr, le nombre de coeurs a augmenté et les architectures ont été optimisé, au fils des années.

    Mais en activant/désactivant le multi-threading, on est loin d'obtenir un x2 en performance. Ce ne sont pas de vrai coeurs.
    Mais est-ce qu'en coupant/activant le multithreading sur un ancien proc, puis sur un proc récent, est-ce que ce gain de performance a augmenter, en relatif par rapport aux coeurs de base?
    Ca ça m'intéresserait de savoir, tu as ouvert ma curiosité.
    Je n'ai jamais vu aucun test de processeur à tester leur CPU avec/sans SMT et à en faire un bilan sur les crus passés. Et je n'ai jamais vu aucun constructeurs communiqué sur des optimisations significatives sur leur SMT. Mais peut-être y en a-t-il eut dans la masse générale de leur optimisations.
    Je suis bien curieux de savoir combien on a gagner en 10 ans.

    Il y a quelques années, j'avais écris un logiciel. Afin qu'il s'exécute plus rapidement, j'avais parallélisé certaines tâches.
    Et je m'étais amusé a tester un peu les performance, pour voir le résultat de mon travail.
    J'avais d'abord lancé un nombre de thread de traitement correspondant à la moitié de mes coeurs physique (d'un cpu de 2015).
    Puis je l'avais relancé, en déclarant cette fois un nombre de thread égale à mon nombre de coeurs physique.
    J'obtenais bien un gain proche de x2, c'était rassurant.
    Puis j'ai déclaré un nombre de thread correspondant cette fois-ci au nombre de mes coeurs logique.
    J'ai été un peu déçut, le gain n'a été cette fois-ci qu'un peu plus de x1.5. Mais c'était toujours bon à prendre.

    J'ai aussi fait le test sur un plus vieux proc, un core2Duo de 2008. Mais il n'avait pas de SMT, alors j'ai pas pu comparer comment cette technologie avait pu évoluer...

    Alors oui, si on passe de +0% en 2008, à un +50% en 2015, c'est sûr que vu comme ça, le gain a été spectaculaire

  7. #7
    Expert éminent sénior
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    Juillet 2013
    Messages
    4 627
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 4 627
    Points : 10 548
    Points
    10 548
    Par défaut
    Citation Envoyé par wistiti1234 Voir le message
    Mais est-ce qu'en coupant/activant le multithreading sur un ancien proc, puis sur un proc récent, est-ce que ce gain de performance a augmenter, en relatif par rapport aux coeurs de base?
    Ca ça m'intéresserait de savoir, tu as ouvert ma curiosité.
    Je pense que c'est impossible parce pour que le multithreading fonctionne il faut un système d'exploitation qui le gère (préemptif, ...) et des logiciels conçus avec.
    J'ai le souvenir de la honte de Windows XP (les versions serveurs), parce que ne faisant pas la distinction entre core réel et core logique, entraînait des baisses de performances sur les serveurs (qui coûtent chers) lorsque l'hyperthreading était activé.
    Linux gloussait, Windows Vista a rectifié le tir.

    Mais niveau matériel, la gestion des caches (L1 et L2) est ultra important. On se souvient des Pentium D (qui était juste 2 Pentium 4 collés côte à côte) et du four que c'étaient.
    Et, j'ai suivi d'un œil les actualités, mais apparemment, Intel et AMD se concentrent sur des architectures qui permettent d'ajouter facilement des cores. Et justement, sur les premiers Ryzen il y a eu [encore de la part d'AMD] des histoires de caches pourris.

    C'est sûrement pour cela que tous les tests multithreading sont synthétiques. Parce qu'il faudrait trouver un logiciel en 2 versions (mono et multi).


    Citation Envoyé par wistiti1234 Voir le message
    J'ai aussi fait le test sur un plus vieux proc, un core2Duo de 2008. Mais il n'avait pas de SMT, alors j'ai pas pu comparer comment cette technologie avait pu évoluer...
    C'est normal l'Intel était reparti de l'architecture Pentium 3 mobile avec comme crédo "performance/ watts"

    L'hyperthreading c'est la fonctionnalité cache misère parce que les Pentium 4 avaient un pipeline de 29 (31 ???) stages (les changements de contexte ). Par contre, les Pentium 4 ont eu, jusqu'en 2012-2013, le record de fréquence : 8 GHz

  8. #8
    Membre habitué
    Profil pro
    Inscrit en
    Mars 2008
    Messages
    112
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mars 2008
    Messages : 112
    Points : 165
    Points
    165
    Par défaut
    Citation Envoyé par foetus Voir le message
    Je pense que c'est impossible parce pour que le multithreading fonctionne il faut un système d'exploitation qui le gère (préemptif, ...) et des logiciels conçus avec.
    Pardon? De quoi tu parles? L'hyper-Threading d'Intel, c'est comme le nombre de coeurs, ça se désactive dans le bios. Je suis sûr que le SMT d'AMD doit aussi pouvoir se désactiver dans le bios.
    Et au niveau applicatif, certain logiciels (comme les compilateurs par exemple), permettent de définir le nombre de tâches à réaliser en //.
    Généralement, il est pré-réglé sur le nombre de coeur logique, mais rien n'empêche de l'aligner sur le nombre de coeur physique, voir moins, afin de voir si le gain de perf (temps de compilation, etc...) est toujours proportionnel au nombre de coeurs... ou pas.

    Et je suis sûr que les logiciels de bench synthétiques doivent aussi avoir cette option. Et on peut aussi lancer l'encodage de 2, 4, 8, 16 vidéos en //, pour voir le temps que ça met.
    Mais je ne pense pas que les sites spécialisés soient intéressé par cette approche, quand ils réalisent leur test. C'est un peu comme tester un CPU en l'underclockant. A part pour du fanless très basse conso, ya pas vraiment d'intérêt...

    C'est pour ça, je me demandais d'où tu avais entendu que les "performances pour les cores en multi-threading" s'était amélioré en 10 ans. Je ne suis pas l'actu hardware de très près, j'ai pu passé à côté de l'info.
    Le but ultime du SMT, c'est de pouvoir réellement approcher les x2 en performance multithreadé (ou x4, pour les prochains zen), comme si on avait réellement doublé le nombre de coeurs physique. Mais on en est loin (ou pas, j'en sais rien en fait, j'ai juste fais un test comme ça un jour, et j'ai vu que c'était pas fameux).
    Mais si c'est en amélioration, c'est bon signe!

Discussions similaires

  1. Réponses: 55
    Dernier message: 08/04/2020, 17h20
  2. Windows 7 sera jusqu'à 163 % plus cher en Europe qu'aux USA
    Par Katleen Erna dans le forum Windows 7
    Réponses: 209
    Dernier message: 08/09/2009, 16h07
  3. Windows 7 sera jusqu'à 163 % plus cher en Europe qu'aux USA
    Par Katleen Erna dans le forum Actualités
    Réponses: 210
    Dernier message: 17/08/2009, 12h16
  4. [Processeur] Etre à la page sur les architectures Intel aujourd'hui
    Par bruce-willis dans le forum Composants
    Réponses: 6
    Dernier message: 20/02/2009, 15h28

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo