Une date pour un CPU quantique ?![]()
Discussion :
Le CPU Core i9 de 28 cœurs annoncé par Intel a été surcadencé pour atteindre 5 GHz :
ce qu'il faut savoir sur la puce d'Intel
Intel, la grande entreprise américaine spécialisée dans la fabrication des semi-conducteurs a annoncé au début du mois de juin qu’elle travaille sur un processeur de la série Core i9 embarquant jusqu’à 28 cœurs et pourrait attendre une fréquence de 5 GHz. La nouvelle puce afficherait un score de 7334 sur le benchmark Cinebench. Elle était prévue pour la fin de cette année 2018. Mais Intel a oublié de mentionner un détail important. Les processeurs 5 GHz ont été surcadencés, c'est-à-dire qu'ils ont été manipulés pour augmenter la fréquence du signal d'horloge au-delà de la fréquence nominale.
Sorties de l'usine, ces puces ne sont pas à 5 GHz de fréquence et un système complexe de refroidissement capable de supporter des charges thermiques jusqu'à 1,77 kW est nécessaire pour pouvoir les faire tourner à une telle vitesse. Intel a confirmé un autre fait sur ces puces 28 cœurs. Ils sont construits sur une variante de son processeur de 14 nm. Ils utilisent aussi l'énorme prise LGA3647 qui dispose de 3647 pins et qui est utilisée par certains processeurs Xeon. Ils ont six canaux de mémoire. On ignore avec quel chipset et sur quelle plateforme il sera déployé et quelle sera sa vitesse d'horloge normale. On ne peut que faire des spéculations et la plus vraisemblable est que ces puces seraient de la famille Skylake-SP qui est une variante du noyau Skylake conçu pour les processeurs de plus de huit cœurs.
Les cœurs sont disposés sous forme de grille au lieu d'un cercle. Cela fournit une meilleure mise à l'échelle au fur et à mesure que le nombre de cœurs augmente. Il existe trois matrices Skylake-SP : LCC, HCC et XCC pour un petit, grand et très grand nombre de cœurs avec respectivement 10, 18 et 28 cœurs. À l'heure actuelle, il y a des processeurs Xeon-SP qui utilisent les trois variantes de Skylake-SP. Les processeurs Skylake-X (utilisés pour les plateformes X-Series) n'utilisent actuellement que les matrices LCC et HCC. La nouvelle puce pourrait être de la famille Skylake-X et utiliser la matrice XCC. C'est aussi possible que ce ne soit pas Skylake-X, mais plutôt Cascade Lac-X.
Source : anandtech
Et vous ?
Qu'en pensez-vous ?
Voir aussi
Intel prépare un CPU Core i9 de 28 cœurs pouvant monter jusqu'à 5 GHz AMD veut enterrer la concurrence avec un ThreadRipper à 32 cœurs
Intel prépare ses pilotes pour l'arrivée de ses GPU distincts une première étape dans la concrétisation de son ambition de conquérir le marché
Intel annonce de nouvelles fonctionnalités de processeurs pour aider l'industrie à améliorer la détection des menaces de sécurité avancées
Les processeurs Intel x86 souffriraient d'un défaut qui exposerait la mémoire noyau et impacterait surtout sur le marché serveur
Les futurs CPU Xeon Ice Lake d'Intel se dévoilent 10nm, nouveau socket LGA4189, plus de cœurs, TDP en hausse et support de huit canaux mémoires
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Mon ressentie sur ce cpu quand je l'ai vu au computex :
la solution d'intel semblait encore être un prototype non finalisé
a l'inverse de celui d'amd, le threadripper2 32coeurs semblait lui par contre fini et commercialisable le jour même
Cela vas être une vrai guerre, qui des 2 monstre sera le plus puissant en applicatif multicœur, AMD avec 4 coeurs en plus ou intel avec je pense une fréquence plus élevée ?
parceque finalement c'est sa la seul question qui compte dans ce genre de duel, avoir la plus grosse
et ce genre de duel me réjouit car il ne fait aucun doute que ces cpu représente l'avenir du pc fixe grand publique. Le point important a noté c'est qu'intel/amd vendent des cpu 28/32coeurs aux grand publique ce n'est plus un marché réservé aux serveur (gamme Xeon/Epyc)
Je suis étonné que ce type de cpu puisse exister même si c'est le naturel des choses. Le marché du PC est en baisse et à titre personnel je constate que les gens utilisent de moins en moins d'applications lourdes sur leurs ordinateurs hormis le faite que certain navigateur sont très gourmand en mémoire de manière totalement inexpliqué pour le simple mortel.
Mise à part les serveurs, je ne vois pas à qui cela peut s'adresser. Si hors utilisation serveur, marché de niche ?
la retouche video, l'encodage, la cao/pao, flight simulator X,...
Bof. A un moment donné, pour un utilisateur lambda, le nombre de coeurs n'apporte plus d'amélioration en utilisation. Augmenter la fréquence d'horloge des coeurs redevient plus intéressant pour accélérer des traitements récurrents qui ne seront jamais parallélisables.
1) pleins de programme sont mal paralléliser parceque les dev ne le font pas car personne n'a de cpu > 4coeurs
2) Avoir pleins de coeurs ne veut pas dire avoir une faible fréquence, la preuve avec le cpu d'intel 28 qui peut monté a 5ghz (sur 1-2 coeurs), pourquoi te plaindre si tu peut avoir les 2 ?
Moi je vois que depuis qu'AMD a démocratiser le 8coeurs/16threads, tous les nouveaux jeux exploite bien mieux les cpu 8coeurs, le dernier assassin's creed origin le prouve assez bien par exemple.
Alors je sais pas si un jour les jeux utiliserons 32coeurs, mais en tous cas ils exploite aujourd'hui 8 coeurs et demain ils exploiterons surement 12 coeurs.
et si tu prend le jeu Flight Simulator X, il exploite tres bien les cpu multicoeurs, a l'époque des gens achetais des xeons 12coeurs pour le faire tourner, car ce jeu faisait la majorité de ces calculs sur le cpu.
Aujourd'hui encore, le moteur de flight simulator peut exploiter au maximum 256coeurs d'apres MS.
Si dans le futur nous avons des cpu 32coeurs, les dev vont peut etre enlever des calculs comme la physique du gpu pour exploiter le cpu 32couers, cela libérera des ressources gpu pour atteindre plus facilement la 8K
Je pense qu'on pouvait dire la même chose pour chaque grosse évolution, que ce soit de PC ou consoles. Mais au final plus de puissance permet plus de possibilité, donc ça finis par être utilisé jusqu'à devenir le standard.
Pendant longtemps les langages étaient surtout pensé pour un seul core. Maintenant la concurrence est quand même pensée dès la base (je pense notamment a Rust).
Au final y a pas tant d'algos utiles que ça qui sont impossible a multithreader.
Tout ce qui est rendu 3d, traitement audio, traitement vidéo, deep learning, ça marche toujours mieux sur plusieurs cores.
Y a qu'a voir l’essor des cartes graphiques qui est totalement basé sur ça, beaucoup beaucoup de parallélisme mais à faible puissance.
En tout cas outre le domaine pro ce sera très utile pour les technos liées au jeu vidéo.
Y a pas mal d'éléments d'un jeu qui demandent beaucoup de calculs et peuvent être calculé sur plusieurs threads (par exemple la physique, l'IA).
Ça va rendre l'effort de rendre son jeu/programme multithread de plus en plus intéressant, jusqu'au moment ou le standard ce sera les applis qui tournent sur au moins 8 threads ou plus.
Bon, le côté négatif c'est qu'on va voir des technos ultra gourmandes inutilement émerger et être utilisées en masses, mais on peut pas tout avoir (coucou node.js, electron ...).
Pour les usages domestiques, c'est peut-être bien largement suffisant, mais en CAO et simulation physique pour l'ingénierie, il n'y a jamais assez de puissance de calcul.
Je n'ai pas de problème pour mettre à genoux une station bi-xeon 2*22 coeurs avec mes simulations, même en ayant déployé toutes les ruses pour optimiser les algorithmes, et le calcul en réseau pour essayer de dépasser ces limites, c'est quand même un peu pénible et source de complications.
A temps de calcul constant, plus on a de puissance, plus les simulations peuvent être précises.
Non mais de toute façon y a pas de questions à se poser sur la puissance. Si jamais ce n'étais pas utile maintenant (et perso je trouve cette idée biaisée), ce sera utile quand ça deviendra le standard car la majorité des programmes seront conçus pour ce genre d'archi. Plus de puissance ça permettra aussi à certains trucs cantonnés au domaine pro de toucher le public.
Y a qu'a voir le deep learning, y a une époque c'était inimaginable de pouvoir faire tourner un gros réseau de neurones chez soit (ne parlons même pas de l'apprentissage), maintenant la moindre carte graphique à plus de 200€ peut faire tourner des trucs totalement fous. Et la on ne peut plus dire que ça n'a pas d'application ou que c'est inutile, même si a une époque j'imagine qu'on se doutait pas forcément des possibilités jusqu'à y avoir accès.
La vrai question c'est surtout: est-ce que ce genre d'archi pourra se démocratiser, au niveau des coûts de fabrication?
Parce que perso, je suis pas du genre à mettre plus d'argent dans mon CPU que dans ma carte graphique. Après tout dépend du besoin... mais pour la majorité je pense que c'est plus ou moins comme ça que ça fonctionne
(et dans mon cas, vu que je compile a longueur de journée de grosses bases de code C++, ça m'est très utile d'avoir beaucoup de cores).
Il y a surtout un point important: c'est la gestion des caches partagés et la communication entre les cores (on parle de trois matrices Skylake-SP : LCC, HCC et XCC).
Justement tu dis que la solution d'Intel est "non finalisée": il éprouve sûrement leur architecture core et l'améliore en conséquence.
Dans le passé, on a vu que mettre 2 cores ensemble ne suffit pas, voire même pire
Je peux me tromper, mais les jeux actuels fonctionnent avec des bassins "pools" d'objets (composants, entités, systèmes, ... ECS (<- lien wiki anglais))
Et tu as à côté des managers qui permettent de détecter "le matériel" et d'adapter le cœur du jeux en fonction.
Et donc, et c'est un peu le but, de s'adapter assez facilement au nombre de cores : plus il y a de cores, plus il va y avoir de bassins (c'est le rôle des managers).
Mais à un moment, il ne va pas avoir assez d'objets pour alimenter les bassins.
ok mais est-il safe? (rappelez vous les recents problemes de securité)
+1
Pour des jeux, moi, je m'en fout un peu, cela ne m'intéresse guère. Mais pour d'autres applicatifs cette interrogation prend tout son sens.
Quelqu'un a-t-il déjà creusé les sources de l'article à propos de cet aspect ? Cela m'intéresse.
Mes traductions : Pourquoi les signatures numériques ne sont pas des signatures

Le fait que les applications lourdes sur PC soient de moins en moins lourdent, le sont pour 2 raisons principales :
1) Une appli lourde il y a 10ans ou plus, ne l'es plus forcément aujourd'hui. Tous les usages n'engendrent pas un besoin de croissance de calcul linéaire avec les années, mais plutôt un palier de confort à franchir.
2) Le "service web" s'est démocratisé avec internet, et les avantages qu'il a apporté, c'est d'utiliser une puissance de calcul autre pars que sur sa machine, et par conséquent se libérer de certains désagréments liés à une installation et sa maintenance, des limitation matériels... en plus de la résilience des données.
Ces appli ne sont pas moins nombreuses (en terme d'offre sur le marché), mais on en retrouve moins sur un même PC, et le critère de "lourd" est relatif, il est souvent relatif à la puissance de calcul disponible en moyenne, et non en valeur absolue (de ressource utilisé /quantité de données traité). Et pour finir bien des appli profitent d'optimisations de leur algorithme ou de l'environnement de développement, qui en améliore de facto leur efficacité.
Au-delà de ça, certaines appli n'étaient pas amené à devenir gourmande, et par la disponibilité de ressources toujours croissante, n'ont pourtant cesser d'intégrer plus de fonctionnalités, ou d'enrichir le résultat qu'elles produisent. Dans certains cas, aujourd'hui où tu utilise une applis pour un besoin, tu en utilisais plusieurs avant.
onilink_ , détrompe-toi, ça marche pas toujours mieux sur plus de coeur... l'arrivée Ryzen et ses 8 coeurs, à permis d'observer que de rares logiciels refusaient tout simplement de démarrer sur des CPU de plus de 4 coeurs (Ryzen 7 avec 4 coeurs désactivés sur 8 et c'était de nouveau opérationnel).
"Si hors utilisation serveur, marché de niche ?"
Dès qu'il est question de graphisme "haut de gamme" ou de logiciels de "production", tu peux être sûr que la question sur la puissance dispo d'un CPU est primordiale, et éliminer les i3 et compagnie. S'il y a aujourd'hui des fréquence max à 4-5 GHz sur plusieurs coeurs, c'est parce qu'un équivalent mono-coeur à fréquence suppérieur est moins "efficace" énergétiquement, de plus l'architecture multi-coeur apporte une souplesse/polyvalence dans le traitement. Les PC à 1500€ (de matière brut) son plus courant que tu ne le pense, en entreprise ou chez les particuliers (parfois auto-entrepreneur).
Malheureusement on ne peut pas être aussi catégorique. Certains logiciels semblent s'appuyer sur la fréquence, d'autres sur les coeurs, d'autres misant sur les jeux d'instructions.
Pour StockFish par exemple (une IA d'échec), le nombre de coeurs prime fortement sur la fréquence en terme de gains... et le SMT d'AMD (Hyper Threading pour intel) est plus efficace sur un processeur avec peu de coeur. http://www.hardware.fr/focus/121/inf...smt-ryzen.html
- le choix du modèle de CPU intégrant les instructions les plus efficaces pour le logiciel visé (ce seul point justifie des écarts de performance jusqu'à 50% dans certain cas... autre que StockFish)
Entièrement d'accord avec toi. Tu sais pourquoi l'usage du nombre de coeur maximal n'est pas déterminé par l'OS, mais des différentes étapes de développement ?
Ca m'a toujours intrigué --> permettre à un programme (dans sa conception je parle) un usage d'une capatité de mémoire illimité, de thread illimité, mais pas de sappuyer sur un nombre de coeur illimité. Quelle est la cause de cette limitation ? quelqu'un sait ?
Qui peux le plus peux le moins. Faut seulement voir sur combien d'années tu te projette et la "modularité" de ton porte-feuille ! x)
Les dev regarde la config majoritaire que les gens ont et développe le projet en conséquence.
Les gens on pour la majorité des cpu 4c et 1 GPU donc ils dévelope leurs programme pour ce genre de matos.
Avec l'arrivé des consoles 8coeurs, les jeux exploite bien mieux depuis les cpu 4c/8t et aussi les Ryzen.
Un jeu sa prend du temps a ce coder, 3-5ans, les jeux sortie après ryzen ont été développé en 2013/2014, les dev avait anticipé cela.
Par contre pour le gpu... si le sli/cross n'est pas la norme alors aucun jeu ne l'exploiteras (ou tres peu)
Vous avez des exemples de logiciels qui ne fonctionnent pas quand on a un processeur avec 8 cœurs ?
Ça me semble étrange...
Parce qu'à une époque tous les logiciels n'utilisaient qu'un cœur et ils fonctionnaient avec des pc de 2, 3 ou 4 cœurs. (les autres cœurs étaient complètement ignoré par le programme)
C'est complètement possible d'utiliser automatiquement le nombre maximal de threads, tu peux dire à OpenMP de faire ça (mais tu peux aussi lui fixer un nombre de threads à utiliser).
Je pense que si dans les jeux vidéo ce n'est pas fait, c'est parce que ça coûte chère à mettre en place, à l'époque peu de personnes avaient un processeur 4 cœurs, AMD a toujours été en avance sur le nombre de cœur dans les processeurs grand public, mais les joueurs achetaient de l'Intel, parce que les performances monocœur étaient plus forte.
En plus tous n'est pas parallélisable à l'infini, parfois il y a des tâches linéaires, il faut forcément attendre le résultat d'avant pour faire l'opération.
Par contre il y a des tâches facilement parallélisable, comme si tu dois appliquer le même calcul à une liste de nombre, chaque thread peut prendre un nombre de la liste et réaliser le calcul.
un jeu est pourtant très parallélisable.
Il y'a pleins de moteur physique qui peuvent utiliser plusieurs coeurs cpu
l'ia aussi est facilement parallélisable
l'audio et lui aussi facilement parallélisable
et enfin tous les moteurs permette de charger des objets et des shaders sur plusieurs coeurs
Ca va être utile pour traiter (je ne parle pas de l'indexation mais des traitements que l'on fait des données ensuite) les 750 GigaOctets de big data que nous avons au boulot, nos i7 à huits coeurs sont déjà parfois limites pour avoir un temps de calcul raisonnable (moins d'1 min par ex)...
je sais que je vais sûrement passer pour un boulet mais :
pourquoi ne pas faire exécuter vos calculs par un serveur qui lui pourrait avoir plusieurs processeurs et il ne serait dédier qu'à sa plutôt que de faire chacun de vos pc monstrueusement puissants ?![]()
Partager