IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Hardware Discussion :

Qui de la loi de Moore ou de la chaleur limitera le plus l’avancée des processeurs ?


Sujet :

Hardware

  1. #1
    Responsable Qt & Livres


    Avatar de dourouc05
    Homme Profil pro
    Ingénieur de recherche
    Inscrit en
    Août 2008
    Messages
    26 619
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : Ingénieur de recherche
    Secteur : Enseignement

    Informations forums :
    Inscription : Août 2008
    Messages : 26 619
    Points : 188 594
    Points
    188 594
    Par défaut Qui de la loi de Moore ou de la chaleur limitera le plus l’avancée des processeurs ?
    Pour les prochaines générations de processeur, on parle très souvent des processus de fabrication, de la possibilité de créer des transistors de plus en plus petits, donc d’en mettre de plus en plus par millimètre carré de silicium. Jusqu’à présent, l’évolution de cette densité a, peu ou prou, suivi la loi (empirique) de Moore : la densité de transistors double tous les deux ans. Bon nombre de gens supputent que cette loi est “morte”, dans le sens où la densité ne continuera plus d’augmenter à la même vitesse que depuis les années 1960-1970. Cependant, un autre facteur limitera la progression des processeurs, de manière probablement plus importante : l’évacuation de la chaleur. Déjà, les processeurs actuels doivent parfois limiter leur performance pour éviter de brûler (throttling) !

    L’évolution énergétique des transistors a pu suivre, toujours depuis les années 1960-1970, la loi de Dennard. Celle-ci postule que la densité énergétique des transistors reste constante, c’est-à-dire la quantité de chaleur à évacuer par millimètre carré de processeur. De fait, si les transistors diminuent en taille, il leur faut une tension moindre pour s’activer. Néanmoins, dès 2005-2006, les transistors sont devenus tellement petits que des effets non prévisibles par Dennard sont devenus significatifs : les pertes de courant des transistors. Ces pertes font que la consommation énergétique des transistors ne décroît plus aussi rapidement que la densité de transistors augmente. La situation est telle que Facebook estime que la chaleur dégagée par les processeurs est un frein majeur au développement de lunettes de réalité augmentée.

    L’une des solutions à ce problème serait la spécialisation des processeurs, une voie de plus en plus exploitée : les processeurs seraient moins programmables, dans le sens où plus de choses seraient implémentées au niveau matériel, avec des instructions moins génériques, mais très performantes pour une tâche donnée. On voit notamment cette tendance avec les processeurs orientés réseaux neuronaux. De même, ARM laisse maintenant les concepteurs de cœurs ARM ajouter des instructions, quitte à briser une certaine homogénéité dans l’écosystème ARM.

    Source : IEEE Spectrum.
    Vous souhaitez participer aux rubriques Qt (tutoriels, FAQ, traductions) ou HPC ? Contactez-moi par MP.

    Créer des applications graphiques en Python avec PyQt5
    Créer des applications avec Qt 5.

    Pas de question d'ordre technique par MP !

  2. #2
    Invité
    Invité(e)
    Par défaut
    Je suis étonné que l'IEEE ne mentionne pas la décohérence quantique comme obstacle à la miniaturisation.

    Et pour en revenir à la Loi de Moore, IBM l'applique à l'info quantique en utilisant une métrique particulière appelée "volume quantique", c'est plus ou moins l'équivalent des benchmarks Linpacks, cf

    https://arxiv.org/pdf/1811.12926.pdf

    IBM prétend donc que les Ingés vont doubler la performance (mesurée sur le volume quantique) de sa machine quantique année par année.

    -VX

  3. #3
    Membre expert

    Profil pro
    activité : oui
    Inscrit en
    Janvier 2014
    Messages
    1 260
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : activité : oui

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 260
    Points : 3 403
    Points
    3 403
    Par défaut
    Citation Envoyé par dourouc05 Voir le message
    un autre facteur limitera la progression des processeurs, de manière probablement plus importante : l’évacuation de la chaleur.
    Une avancée théorique majeure a été faite il y a quelques années (juin 2017) au CNRS sur le routage de la chaleur. On sait tous que la chaleur se propage de manière diffuse, à l'image d'une onde ponctuelle sur l'eau. La nouveauté, c'est qu'une architecture à base de creux régulièrement ordonné permet d'obtenir une propagation "balistique" de la chaleur sur quelques centaines de nanomètres ...de quoi éviter à un coeur de chauffer immédiatement son voisin via la couche supérieur en contact avec l'IHS. Il y est dit : "Il serait alors possible de diriger ou d’empêcher la diffusion de la chaleur sur des points extrêmement précis"

    Selon moi, il y a une autre limite que l'on entend peu parler, et qui s'avèrera bien plus problématique : l'effet tunnel, qui est régit par la mécanique quantique.
    Ce phénomène opère que sur de très petites échelle, jusqu'à un maximum de 2 nanomètre à ma connaissance. Jusqu'à 2 nanomètres d'épaisseur, un électron peut s’échapper de n'importe quel matériaux, pourvu que le contexte y soit propice. Plutôt problématique pour les isolations galvaniques... que ce soit pour les grilles de transistors ou encore les circuits de routage de manière générale.

    De plus, les dernières recherche fondamentales en électronique montre qu'il est maintenant possible de faire passer du courant dans des isolants à travers des "plasmons de surfaces", sur une centaine de nanomètres d'épaisseur.
    edit : non, ça c'est pour la spintronique... qui peut convertir une partie du courant "électronique" en un courant de purs spins au voisinage du conducteur.

    Je me demande bien quelle difficulté apporte actuellement ces problématiques aux fondeurs les plus connus de semi-conducteurs. ^^'

    Citation Envoyé par vxlan.is.top Voir le message
    Je suis étonné que l'IEEE ne mentionne pas la décohérence quantique comme obstacle à la miniaturisation.
    C'est parce qu'elle n'a d'importance que dans un contexte où l'on s'appuie spécifiquement sur des phénomènes quantiques stabilisés, non ? Ce qui ne semble pas poser problème avant d'arriver à 2-3 nm.
    Pensez à utiliser les pouces d’appréciation, pour participer à la visibilité de l'apport d'un propos, ou l'intérêt que vous y prêtez... qu'il soit positif ou négatif.

  4. #4
    Invité
    Invité(e)
    Par défaut
    Citation Envoyé par Steinvikel Voir le message
    C'est parce qu'elle n'a d'importance que dans un contexte où l'on s'appuie spécifiquement sur des phénomènes quantiques stabilisés, non ? Ce qui ne semble pas poser problème avant 2-3 nm.
    Steinvikel,

    oui c'est de l'effet tunnel dont je voulais parler en fait, ce qui est différent de la décohérence.
    Merci pour la précision !

    -VX

  5. #5
    Membre chevronné
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Juillet 2007
    Messages
    884
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Juillet 2007
    Messages : 884
    Points : 2 018
    Points
    2 018
    Par défaut Faux, la chaleur n'augmente pas forcément.
    la chaleur limitera le plus l'avancée des processeurs ?
    La chaleur dépends de l'intensité. Si l'on augmente la densité de composant et que l'on conserve la même tension, alors le courant fatalement augmente. Mais si le composant est plus petit, il a besoin de moins de tension et donc si l'on baisse suffisamment la tension, on augmente pas la chaleur. Mais dans la pratique on veux garder une tension assez élever car baisser la tension, oblige à baisser la fréquence. On peux donc baisser la fréquence ou du moins l'augmenter en augmentant la finesse. Moins un processeur travail vite moins il chauffe. Mais on perd une partie de l'intérêt de graver plus finement qui est de permettre entre autre d'augmenter la fréquence (le courant ayant moins de chemin a parcourir, il peux parcourir plus de composants).

    En conclusion, si la chaleur augmente ce n'est pas parce qu'on augmente la finesse de gravure, mais parce qu'on peux se le permettre et que l'on veux augmenter les performances. Sinon, on aurait qu'a réduire la fréquence et réduire la tension.

    La loi de Moore reste et restera toujours possible, mais comme les investissements baisse du moins sur ce secteur, fatalement le rythme d’innovation baisse.

    Croire que la loi de Moore serait stoppé par un obstacle technique c'est toujours révélé faux. Par contre il est vrai qu'elle avance parfois par palier car il arrive qu'elle trébuche sur un obstacle, mais ensuite elle refait rapidement son retard.
    Tout ce que j'écris est libre de droits (Licence CC0) et je vous incite à faire de même.

  6. #6
    Membre expert

    Profil pro
    activité : oui
    Inscrit en
    Janvier 2014
    Messages
    1 260
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : activité : oui

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 260
    Points : 3 403
    Points
    3 403
    Par défaut
    L’échauffement par effet Joule dépend bien de l'intensité pour la majeure partie du phénomène. Ce sont les pertes magnétiques + pertes de flux. EDF connais très bien la problématique, voilà pourquoi il a choisi de transporter son électricité sous 400 000 Volts (alors qu'une centrale nucléaire ne génère que 10k à 30k Volts) --> pour limiter les pertes induite par la résistivité du câble.

    Le schéma le plus simple de ce que l'on désigne à tord comme des transistors (grille/drain/source) : les circuits logiques, ressemble à 2 transistors en série, l'un relié au 0V, l'autre au potentiel haut, et se rejoignant sur un commun définissant la valeur du signal logique ...chacun piloté par sa grille (voir ce schéma).
    La physique fait qu'un phénomène est plus facile (rapide) à déclencher, qu'à stopper (et se retrouver dans un état de "repos", récessif). Ainsi donc, selon que l'un ou l'autre devient passant, le signal apporte un 1 logique (potentiel haut) ou un 0 logique (0V). Mais durant la transition où l'un est "passant" et commence à se bloquer, et l'autre est "bloqué" et commence à devenir passant, l'extinction de la conduction du transistor prenant plus de temps que son allumage, il existe un bref instant où les deux conduisent, fabricant ainsi un "court-circuit" entre 0V et haut-potentiel.
    C'est de là que provient la majeur partie de l'échauffement. Le temps d'extinction est intrinsèque à la nature du transistor, il ne varie pas (peu), ce qui fait que l'échauffement est proportionnel au carré de la fréquence (J --> f²).
    On comprend alors très bien que l'énergie de pilotage des transistors est dérisoire face au phénomène de court-circuit. On comprend également que si l'on augmente la tension, on augmente aussi la "puissance" du court-circuit. Si l'on augmente la fréquence, on augmente le nombre de court-circuits par seconde.

    Il y a eu des évolutions notable en efficacité énergétique :
    - réduction du courant de fuite (le courant que laisse passer le composant, peu importe son état, comme un condensateur, ou une batterie)
    - réduction de l'énergie nécessaire pour la commande des transistors
    - amélioration notable de l’impédance (capacitance +inductance +résistance)
    - du gain
    - la plage fréquentielle (rapidité du phénomène de transition bloquant/passant et inversement)
    - etc.
    Je n'ai pas eu vent d'amélioration significative sur la problématique du court-circuit depuis mes études... ^^'
    L'amélioration de la plage fréquentielle est une amélioration du problème, mais on a systématiquement monté les fréquence pour atteindre le même échauffement. C'est ce fameux "mur" dont vous avez sûrement entendu parlé concernant le TDP des CPU. Car au-delà d'un certain niveau d'échauffement, le comportement /stabilité de certains composants devient problématique.

    Qu’apporte donc la finesse de ce point de vue ?

    eh bien, plus fin d'un point de vue " U = R.I et P = U.I " ça veut tout simplement dire que les conducteurs sont plus résistif (des court-circuit moins violant)... mais ce n'est pas parce que la gravure est plus "fine" que les tuyaux qu'elle dessine sont plus petit ! Ils sont simplement plus net, plus propres, avec moins de défauts... bref, une électronique plus fiable, et des caractéristiques plus précises. C'est la précision de la conception qui permet un gain dans l'absolue, pourquoi concevoir un système opérant entre 1 et 9 quand on peut certifier qu'il opère entre 4 et 7, que la tenue en fréquence est plus stable, etc.
    Mis bout à bout, vous avez vos 5% de perf/an.

    Citation Envoyé par dourouc05 Voir le message
    (...) mais comme les investissements baisse du moins sur ce secteur, fatalement le rythme d’innovation baisse.
    Bien vu ! Si les innovations n'étaient freiné que par les capacités de l'esprit, et non par l'argent, bien des choses seraient dans notre quotidien aujourd'hui.
    Pensez à utiliser les pouces d’appréciation, pour participer à la visibilité de l'apport d'un propos, ou l'intérêt que vous y prêtez... qu'il soit positif ou négatif.

Discussions similaires

  1. Réponses: 4
    Dernier message: 03/06/2011, 08h20
  2. Un signal qui suit une loi normale
    Par arbas dans le forum Probabilités
    Réponses: 4
    Dernier message: 30/05/2011, 11h03
  3. Réponses: 1
    Dernier message: 19/05/2011, 12h48
  4. La loi de Moore est elle encore pertinente ?
    Par Gordon Fowler dans le forum Actualités
    Réponses: 45
    Dernier message: 18/05/2010, 12h35
  5. Fonction qui manipule la loi normale
    Par leFeu dans le forum MATLAB
    Réponses: 2
    Dernier message: 08/11/2007, 07h13

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo