Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Sommes-nous préparés à la fin de la loi de Moore ?
    Sommes-nous préparés à la fin de la loi de Moore ?
    Elle a alimenté la prospérité des 50 dernières années, mais la fin est maintenant en vue

    La loi de Moore est une loi empirique qui se rapporte à l'évolution de la puissance de calcul des ordinateurs et de la complexité du matériel informatique. Depuis son apparition, il y a un peu plus de soixante ans, l’évolution des circuits intégrés a suivi les prévisions de la loi. Cependant, plusieurs personnes dans l’industrie des semiconducteurs pensent que la loi est désormais arrivée à ses limites. D’un autre côté également, certains estiment que la fin de la loi pourrait ralentir le progrès technologique et nuire à des technologies comme l’intelligence artificielle.

    En 1965, Gordon Moore prédisait que le nombre de composants d'un circuit intégré doublerait chaque année pour atteindre le chiffre étonnant de 65 000 en 1975, ce qui est vraiment arrivé. C’est la plus grande prévision technologique du dernier demi-siècle. Lorsqu'elle s'est révélée exacte en 1975, Moore a révisé la loi, en prévoyant un doublement des transistors sur une puce tous les deux ans. Depuis lors, sa prédiction a défini la trajectoire de la technologie et, à bien des égards, du progrès lui-même. L'argument de Moore était aussi d'ordre économique.

    En 1965, Moore déclarait qu’avec les nouveaux circuits intégrés, le coût par composant est presque inversement proportionnel au nombre de composants. Moore a également vu qu'il y avait beaucoup de place pour des avancées techniques pour augmenter le nombre de transistors que vous pourriez mettre de manière abordable et fiable sur une puce. Ces puces moins chères et très puissantes sont ensuite devenues ce que les économistes appellent une technologie à usage général, une technologie si vitale qu'elle a engendré d'autres innovations dans de multiples secteurs.

    Mais qu’arrivera-t-il lorsque la loi de Moore prendra fin ? Selon les analystes, l’industrie des semiconducteurs se retrouverait ralentir et par ricochet, les progrès technologiques. Comme certains le soupçonnent, la loi a déjà pris fin et nous sommes en train de fonctionner avec les vapeurs du plus grand moteur technologique de notre temps. D’après Charles Leiserson, informaticien au MIT et pionnier du calcul parallèle : « C'est fini. Cette année, c'est devenu vraiment clair ». Selon lui, ceci se traduit par le retard dans la livraison de nouvelles puces.


    Selon l’analyse du MIT Technology Review, la toute dernière usine de fabrication d'Intel, destinée à fabriquer des puces dont la taille minimale des caractéristiques est de 10 nanomètres, a pris énormément de retard. Elle a livré des puces en 2019, cinq ans après la génération précédente de puces de 14 nanomètres. La loi de Moore, selon Leiserson, a toujours porté sur le rythme du progrès, et « nous ne sommes plus à ce rythme ». De nombreux autres informaticiens éminents ont aussi déclaré ces dernières années que la loi de Moore était morte.

    Début 2019, le PDG du grand fabricant de puces Nvidia a donné son accord. « La loi de Moore avait l'habitude de croître à x10 tous les cinq ans et x100 tous les 10 ans », a expliqué Jensen Huang, PDG de Nvidia. « En ce moment, la loi de Moore augmente de quelques pour cent chaque année. Peut-être x2 seulement tous les 10 ans. La loi de Moore est donc terminée », a-t-il conclu. En vérité, il s'agit plus d'un déclin progressif que d'une mort subite. Au fil des décennies, certains, dont Moore lui-même parfois, se sont inquiétés de voir la fin en vue.

    Il devenait de plus en plus difficile de fabriquer des transistors de plus en plus petits. Pendant des années, l'industrie des puces a réussi à contourner ces obstacles physiques. Mais le progrès est devenu de plus en plus coûteux. Les économistes de Stanford et du MIT ont calculé que l'effort de recherche visant à faire respecter la loi de Moore a été multiplié par 18 depuis 1971. De plus, les laboratoires qui fabriquent les puces les plus avancées deviennent hors de prix. Le coût d'une usine augmente d'au moins 13 % par an et attendra 16 milliards de dollars ou plus d'ici 2022.

    Selon le rapport du MIT Technology Review, c’est la raison pour laquelle le nombre d’entreprises qui prévoient de fabriquer la prochaine génération de puces est en constante baisse depuis 2002, ils ne seraient désormais plus que trois. Néanmoins, des enseignes comme Intel, l'un de ces trois fabricants de puces, ne voient pas la fin de la loi de Moore pour tout de suite. Jim Keller, qui dirige l'ingénierie de silicium d'Intel trouve qu’il existe encore de nombreuses possibilités de progrès. Il estime que chacune de ces possibilités est toutefois un couteau à double tranchant.

    Selon lui, il y a probablement plus d'une centaine de variables qui interviennent dans le maintien de la loi de Moore, chacune d'entre elles apportant des avantages différents et se heurtant à ses propres limites. Cela signifie qu'il existe de nombreuses façons de continuer à doubler le nombre de dispositifs sur un processeur, des innovations telles que les architectures 3D et les nouveaux designs de transistors. Il est optimiste sur la question et affirme qu'Intel est sur la bonne voie pour les dix prochaines années.

    Cependant, même si Intel et les autres fabricants de puces peuvent produire quelques générations supplémentaires de puces encore plus avancées, l'époque où l'on pouvait compter sur des puces plus rapides et moins chères tous les deux ans est révolue. Mais cela ne signifie pas pour autant la fin des progrès informatiques. Dans un rapport, Leiserson et Neil Thompson, économiste au CSAIL du MIT ont expliqué que l’industrie a des possibilités pour améliorer les performances de calcul grâce à de meilleurs logiciels, des algorithmes et une architecture de puce spécialisée.

    L'une d’entre elles consiste à réduire le ballonnement des logiciels pour tirer le meilleur parti des puces existantes. Lorsque l'on pouvait encore compter sur les puces pour devenir plus rapides et plus puissantes, les programmeurs ne se souciaient pas beaucoup d'écrire du code plus efficace. Et souvent, ils ne parvenaient pas à tirer pleinement parti des changements dans l'architecture matérielle, comme les multiples cœurs ou processeurs que l'on trouve dans les puces utilisées aujourd'hui.

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    La fin de la loi de Moore arrêtera-t-elle les progrès de l'intelligence artificielle ? Les avis sur la question sont plutôt mitigés

    Un ingénieur de Google estime qu'il est temps de créer de nouveaux langages et architectures informatiques, la loi de Moore ayant atteint ses limites

    Google aurait mené la première véritable expérience qui établit la suprématie quantique avec un système qui résout en 3 min un calcul dont la résolution prendrait 10 000 ans sur un supercalculateur

    IBM conçoit un processeur de 50 qubits et évoque la suprématie quantique. Comment se traduit ce nombre de qubits dans la réalité ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Expert confirmé
    Citation Envoyé par Bill Fassinou Voir le message
    Le coût d'une usine augmente d'au moins 13 % par an et attendra 16 milliards de dollars ou plus d'ici 2022.
    Et vous ?
    Quel est votre avis sur le sujet ?
    Des couts de developpements collossaux, et au final on paye des composants moins chers que des montures de lunettes...Y a vraiment des secteurs qui entubent plus que les autres !

  3. #3
    Membre expérimenté
    Quand on s’intéresse vraiment aux semi conducteurs, parler de "fin de loi de moore" ça à pas vraiment de sens, tout du moins pour l'instant.
    Les constructeurs on encore pas mal de cartes qu'il leur reste à jouer. Entre les nouveaux matériaux et l'avancée de la recherche à ce niveau, les architectures hybrides avec d'autres paradigmes (comme la photonique), le développement de l'informatique quantique sur puces de silicium, les idées d'architectures novatrices pour diminuer la dissipation thermique, les nouvelles méthodes de "gravure" etc... alors certes il pourrait y avoir un ralentissement le temps qu'une percée se fasse, mais sur le long terme il n'y a pas d'inquiétude à se faire, c'est pas comme si on avait tout essayé. Loin de la.

    Et d'un autre côté, si la puissance brut des ordinateurs arrêtait de grimper un moment, qui sait, ce ne serais pas si terrible que cela. On recommencerait à faire de la "vrai" informatique, et optimiser réellement nos programmes pour des architectures spécifiques, plutôt que créer des "applications" en javascript pour faire des soit disant clients "légers" (oui on a tous compris que je parlais de discord et autres applications électron).
    Des tutos de pixel art: https://twitter.com/OniMille

  4. #4
    Membre éclairé
    Citation Envoyé par onilink_ Voir le message
    Quand on s’intéresse vraiment aux semi conducteurs, parler de "fin de loi de moore" ça à pas vraiment de sens, tout du moins pour l'instant.
    Les constructeurs on encore pas mal de cartes qu'il leur reste à jouer. Entre les nouveaux matériaux et l'avancée de la recherche à ce niveau, les architectures hybrides avec d'autres paradigmes (comme la photonique), le développement de l'informatique quantique sur puces de silicium, les idées d'architectures novatrices pour diminuer la dissipation thermique, les nouvelles méthodes de "gravure" etc... alors certes il pourrait y avoir un ralentissement le temps qu'une percée se fasse, mais sur le long terme il n'y a pas d'inquiétude à se faire, c'est pas comme si on avait tout essayé. Loin de la.

    Et d'un autre côté, si la puissance brut des ordinateurs arrêtait de grimper un moment, qui sait, ce ne serais pas si terrible que cela. On recommencerait à faire de la "vrai" informatique, et optimiser réellement nos programmes pour des architectures spécifiques, plutôt que créer des "applications" en javascript pour faire des soit disant clients "légers" (oui on a tous compris que je parlais de discord et autres applications électron).
    On recommencerait à faire de la "vrai" informatique, et optimiser réellement nos programmes pour des architectures spécifiques, plutôt que créer des "applications" en java pour faire des soit disant clients "lourds" pour enfin tout faire en assembleur.
    C'est clair que c'est une app comme discord qui tire sur le CPU

    T'aurais parlé de la RAM d'accord, mais en terme de CPU Discord c'est rien du tout, en tout cas j'aimerais bien voir des vrais sources pour voir si en terme de cpu usage il y à une telle différence avec du natif équivalent, on parle quand même d'apps qui tournent sans soucis sur des téléphones même pourris donc bon...

    Ya tout un tas d'applis hyper gourmande partout mais c'est 3 chats et des todolists qui vont pousser à bout nos procos.

  5. #5
    Membre extrêmement actif
    Citation Envoyé par Bill Fassinou Voir le message
    Jim Keller, qui dirige l'ingénierie de silicium d'Intel trouve qu’il existe encore de nombreuses possibilités de progrès. Il estime que chacune de ces possibilités est toutefois un couteau à double tranchant.

    Selon lui, il y a probablement plus d'une centaine de variables qui interviennent dans le maintien de la loi de Moore, chacune d'entre elles apportant des avantages différents et se heurtant à ses propres limites. Cela signifie qu'il existe de nombreuses façons de continuer à doubler le nombre de dispositifs sur un processeur, des innovations telles que les architectures 3D et les nouveaux designs de transistors. Il est optimiste sur la question et affirme qu'Intel est sur la bonne voie pour les dix prochaines années.
    Ouais Intel a planifié un plan qui va jusqu'en 2029. Bon la feuille de route est intenable, mais c'est bien d'être hyper ambitieux parfois :

    [th]Année[/th]
    [th]Gravure[/th]
    2019 10 nm
    2021 7 nm
    2023 5 nm
    2025 3 nm
    2027 2 nm
    2029 1,4 nm

    Si les progrès technique ralentissent ce n'est pas si grave, on a déjà beaucoup de marge, les gens ont souvent du matériel beaucoup plus puissant que nécessaire.
    Bon alors effectivement ce sera mauvais pour la consommation et la croissance économique, car les consommateurs n'auront pas de raison de renouveler leur matériel. Mais est-ce que c'est si mal ? Ce sera bon pour l'environnement
    Tout à une limite

    Les développeurs vont devoir faire un effort sur l'optimisation.
    Keith Flint 1969 - 2019

  6. #6
    Membre éclairé
    Citation Envoyé par Ryu2000 Voir le message
    Ouais Intel a planifié un plan qui va jusqu'en 2029. Bon la feuille de route est intenable, mais c'est bien d'être hyper ambitieux parfois :

    [th]Année[/th]
    [th]Gravure[/th]
    2019 10 nm
    2021 7 nm
    2023 5 nm
    2025 3 nm
    2027 2 nm
    2029 1,4 nm

    Si les progrès technique ralentissent ce n'est pas si grave, on a déjà beaucoup de marge, les gens ont souvent du matériel beaucoup plus puissant que nécessaire.
    Bon alors effectivement ce sera mauvais pour la consommation et la croissance économique, car les consommateurs n'auront pas de raison de renouveler leur matériel. Mais est-ce que c'est si mal ? Ce sera bon pour l'environnement
    Tout à une limite

    Les développeurs vont devoir faire un effort sur l'optimisation.
    Personnellement j'ai toujours un 2600k et je suis pas bottleneck ni à genoux dans 99% des usages, ya que cyberpunk qui me fera changer...

  7. #7
    Membre extrêmement actif
    Citation Envoyé par L33tige Voir le message
    Personnellement j'ai toujours un 2600k
    Ça doit être cool de garder le même processeur pendant presque 10 ans, est-ce que la carte graphique et la ram sont restées les mêmes ?

    Aujourd'hui ça devrait faire pareil avec celui qui achète un AMD Ryzen 7 3700X, le gars va être tranquille pendant un moment. 8 cœurs, 16 threads, 36 Mo de cache, ça devrait être large. Si ça se trouve en 2031 il sera toujours bien.

    J'avais également en tête les téléphones portables, est-ce que ça sert vraiment à quelque chose qu'ils soient aussi puissant ?
    Processeur : Qualcomm Snapdragon 660 Octo Core 2.2 GHz
    Processeur graphique : Adreno 512
    Ram : 4 Go

    Les pc portables se vendront probablement toujours bien, parce qu'au bout d'un moment ils sont au bout de leur vie à cause de la poussière. Rare sont ceux qui ont gardé le même PC portable pendant 10 ans.
    Keith Flint 1969 - 2019

  8. #8
    Membre éclairé
    Citation Envoyé par Ryu2000 Voir le message
    Ça doit être cool de garder le même processeur pendant presque 10 ans, est-ce que la carte graphique et la ram sont restés les mêmes ?

    Aujourd'hui ça devrait faire pareil avec celui qui achète un AMD Ryzen 7 3700X, le gars va être tranquille pendant un moment. 8 cœurs, 16 threads, 36 Mo de cache, ça devrait être large. Si ça se trouve en 2031 il sera toujours bien.

    J'avais également en tête les téléphones portables, est-ce que ça sert vraiment à quelque chose qu'ils soient aussi puissant ?
    Processeur : Qualcomm Snapdragon 660 Octo Core 2.2 GHz
    Processeur graphique : Adreno 512
    Ram : 4 Go

    Les pc portables se vendront probablement toujours bien, parce qu'au bout d'un moment ils sont au bout de leur vie à cause de la poussière. Rare sont ceux qui ont gardé le même PC portable pendant 10 ans.
    J'ai la ram d'origine, par contre la CG j'avais une 580 j'ai mis une 980ti hyperclocked (que j'ai touché 150e donc forcement même si c'est stupide je l'ai quand même rajoutée) et un SSD, mais sinon tout le reste est d'origine j'ai même le HDD de base pour le stockage.

    Pour les téléphones je suis d'accord pour la majorité des usages les configs moyennes gammes font largement l'affaire, surtout pour le prix des grandes marques, avec comme argument la photo, mais parfois pour l’écart de prix t'as plus vite fait d'acheter un bon hybride si t'as la place dans ton sac.

  9. #9
    Membre extrêmement actif
    Citation Envoyé par L33tige Voir le message
    j'ai mis une 980ti hyperclocked (que j'ai touché 150e donc forcement même si c'est stupide je l'ai quand même rajoutée) et un SSD
    Il y a une "nouvelle" technologie qui m'épate, ce sont les SSD au format M.2 ! Pour l'OS c'est tip top ça va à une vitesse folle (par exemple : Lecture max : 3500 Mo/s - Ecriture max : 3200 Mo/s).
    Par contre j'ai acheté un SSD d'1 To uniquement pour mettre mon dossier Steam dessus et je trouve que ça ne change pas grand chose
    Keith Flint 1969 - 2019

  10. #10
    Membre éclairé
    Citation Envoyé par Ryu2000 Voir le message
    Il y a une "nouvelle" technologie qui m'épate, ce sont les SSD au format M.2 ! Pour l'OS c'est tip top ça va à une vitesse folle (par exemple : Lecture max : 3500 Mo/s - Ecriture max : 3200 Mo/s).
    Par contre j'ai acheté un SSD d'1 To uniquement pour mettre mon dossier Steam dessus et je trouve que ça ne change pas grand chose
    Selon les jeux oui ça change pas grand chose aux temps de chargement malheureusement, ça doit se voir sur des gros openworld genre rust, GTA etc.

    Yavait aussi les SSD en PCI je sais pas si ça se fait toujours à cause de la galère pour booter dessus, mais les débits étaient monstrueux.

  11. #11
    Membre expérimenté
    @L33tige
    C'est une hyperbole à vocation humoristique.
    Mais c'est une façon de montrer que plus le temps passe, plus l'informatique devient un empilement de couches de merde qui n'ont pas forcement de sens, même si toi en tant que "end user" tu ne "vois pas de problèmes". Le problème est plus fondamental, passer par un interpréteur javascript pour faire une application "native", ça n'a juste pas de sens. Et c'est pourtant comme ça que fonctionne l'informatique moderne, on développe non pas les langages pour qu'ils soient performant et efficaces, mais pour qu'ils soient simples à utiliser, pour produire beaucoup, pour produire vite, quitte à produire de la merde.
    Y à qu'a voir l'état du web en 2020 pour se faire une idée.
    Juste pour l'exemple, aller sur youtube avec un raspberry pi ça devient mission impossible tellement on utilise des technos gourmandes.
    Des tutos de pixel art: https://twitter.com/OniMille

  12. #12
    Membre extrêmement actif
    Citation Envoyé par onilink_ Voir le message
    aller sur youtube avec un raspberry pi ça devient mission impossible tellement on utilise des technos gourmandes.
    Ouais mais d'un autre côté pourquoi faire en sorte que les applications utilisent le moins de ressource possible alors que tout le monde a des "avions de chasse" (comparé aux besoins).
    Les smartphones ont parfois des processeurs avec 8 cœurs et 4 Go de RAM, donc ils sont large pour gérer l'application YouTube.

    Quand quelqu'un fait un site il doit gérer avec un problème extrêmement énervant qui est la taille et l'orientation des écrans, les sites doivent fonctionner sur smartphone et sur tablette Le site doit s'adapter à trop d'écrans c'est l'horreur. (on ne peut pas se dire "ça s'affiche sur un écran 800*600 et sur un écran de 1024*768, donc on est bon")
    Les gars ne vont pas en plus se rajouter un challenge "le site doit tourner sur un PC de 1996".
    En plus quand les sites commencent à ramer les gens considèrent l'idée de changer de matériel. Pour la société de consommation c'est bien.
    Keith Flint 1969 - 2019

  13. #13
    Expert éminent sénior
    le seul truc qui mette mon laptop à plat, c'est crashplan, l'immonde outil de sauvegarde imposé par ma boite.
    Les 4 règles d'airain du développement informatique sont, d'après Michael C. Kasten :
    1)on ne peut pas établir un chiffrage tant qu'on a pas finalisé la conception
    2)on ne peut pas finaliser la conception tant qu'on a pas complètement compris toutes les exigences
    3)le temps de comprendre toutes les exigences, le projet est terminé
    4)le temps de terminer le projet, les exigences ont changé
    Et le serment de non-allégiance :
    Je promets de n’exclure aucune idée sur la base de sa source mais de donner toute la considération nécessaire aux idées de toutes les écoles ou lignes de pensées afin de trouver celle qui est la mieux adaptée à une situation donnée.

  14. #14
    Membre averti
    Citation Envoyé par Ryu2000 Voir le message
    Par contre j'ai acheté un SSD d'1 To uniquement pour mettre mon dossier Steam dessus et je trouve que ça ne change pas grand chose
    Alors c'est peut être dans ma tête mais perso j'ai vraiment eu l'impression d'y gagner. Par exemple sur civilization, la partie se lançais plus vite, même sur des jeux comme counter strike tu vois vite qui à un SSD et un HDD a la vitesse de connexion dans l'échauffement. Une fois tout chargé il y a pas de différence, mais quand ça charge c'est notable. GTA online j'en parle même pas, sur HDD le jeu dois mettre plus de 10 minutes à se lancer tellement c'est looong.

    Et ça se fait encore le stockage avec du PCI express, et effectivement c'est encore mieux que le M.2 il me semble niveau débit. Mais il y a pas ce bon du HDD/SSD qui donne vraiment l'impression que tout est mega rapide et compagnie. C'est juste super véloce, mais tu t'en rends pas toujours compte (par contre derrière ça envoie ohlala)

  15. #15
    Expert confirmé
    Citation Envoyé par Ryu2000 Voir le message
    Ouais mais d'un autre côté pourquoi faire en sorte que les applications utilisent le moins de ressource possible alors que tout le monde à des "avions de chasse" (comparé aux besoins).
    Flash est mort pour ça !
    Je suis certain que les pires applications en flash qui faisait tout ramer à l'époque ne sont pas pires que beaucoup d'appli JS d'aujourd'hui.

  16. #16
    Membre expérimenté
    Citation Envoyé par Ryu2000 Voir le message
    Ouais mais d'un autre côté pourquoi faire en sorte que les applications utilisent le moins de ressource possible alors que tout le monde à des "avions de chasse" (comparé aux besoins).
    Je sais pas, économie d'énergie? (quand tu multiplies quelques watts par des millions de machines ça a un impact réel)
    A l'autonomie des portables?
    Penser aux gens qui ont des vieux PC (et je parle même pas de PC qui ont 20 ans non plus)?
    Aux pays ou tout le monde n'a pas forcement l'argent pour investir dans du PC next gen tous les 5 ans?

    Citation Envoyé par Ryu2000 Voir le message
    Les smartphones ont parfois des processeurs avec 8 cœurs et 4 Go de RAM, donc ils sont large pour gérer l'application YouTube.
    Oui, mais à côté de ça s'ils utilisent beaucoup plus de performances que nécessaire, et bien leur autonomie va juste diminuer.
    Et je ne pense pas que les smartphones a 8 cœurs sont la généralité.

    Puis ce genre de raisonnement c'est un cercle vicieux.

    Citation Envoyé par Ryu2000 Voir le message
    Quand quelqu'un fait un site il doit gérer avec un problème extrêmement énervant qui est la taille et l'orientation des écrans, les sites doivent fonctionner sur smartphone et sur tablette Le site doit s'adapter à trop d'écrans c'est l'horreur. (on ne peut pas se dire "ça s'affiche sur un écran 800*600 et sur un écran de 1024*768, donc on est bon")
    Les gars ne vont pas en plus se rajouter un challenge "le site doit tourner sur un PC de 1996".
    En plus quand les sites commencent à ramer les gens considèrent l'idée de changer de matériel. Pour la société de consommation c'est bien.
    Merci les exagérations. La je parle de matériel relativement récent.
    Puis quand tu n'as pas les moyens ça peut être un argument. Quand tu es google on s'attend a un minimum de qualité.

    Ce genre de problème ne date pas d'hier. Mais j'ai l'impression que les principes de base en optimisation ont juste disparu dans certains domaines (dont le web).
    Pourtant optimiser un programme c'est aussi:
    - faire un bon choix au niveau des technos (et bien entendu ça implique que les technos existent)
    - faire les bons choix architecturaux
    - avoir un niveau de compétence minimum requis pour l'implémentation
    - passer un peu plus de temps sur les quelques parties critiques du programme (on connaît le vieil adage de "10% du programme consomme 30% des performances" ou un truc du genre)
    Bref, au final c'est juste bien designer son logiciel...
    IMO un logiciel non opti est juste un logiciel mal conçu.
    Des tutos de pixel art: https://twitter.com/OniMille

  17. #17
    Membre averti
    Concernant l'analyse du MIT Technology Review, je dirais plutôt que Intel stagne certainement en 14 nm pour des raisons de rentabilisation économique de ce procédé de gravure, d'autres sont au 7 nm voir même au 5 nm tel AMD, Samsung et Apple. Mais la mise au point de nouveaux procédés de gravure demande des investissements plus que conséquents qu'Intel visiblement à refusé de réaliser cette fois-ci...

    Se sont-ils dit qu'on se rapprochait du 2 nm et qu'il serait difficile d'aller au delà, qu'en tenant compte de l'avance qu'ils avaient sur leurs concurrent à l'époque, il n'était pas nécessaire d'investir massivement tout de suite ? C'est fort probable... cela leur à fait perdre énormément de crédibilité auprès du grand public qui s'est massivement tourné vers AMD et les professionnels ont eux aussi commencés à lâcher Intel. Concrètement c'était une très mauvaise idée que de confier ce type de décisions à ces économistes et de ne pas faire confiance aux Ingénieurs qui sont l'âme même de Intel et des autres sociétés de ce type. Apple à faillit faire faillite il y a quelques années suite à des prises de décision de ce type, vraisemblablement cela n'a pas servi de leçon à tout le monde.

    Une fois qu'on aura atteint la limite physique de la gravure d'ici quelques années, il restera en effet l'optimization de la gravure en 3D à finaliser petit à petit, on pourra aussi par exemple à chercher encore à optimiser les cpu en leur intégrant nativement des technologies comme celles basées réseaux de neurones ainsi qu'en créant des machines à cpu hybrides associant méthodes de calcul standard et calcul cantique, voir même en intégrant des technologies de circuits à transmission optiques ou quantique (lorsque ce sera réalisable à température standard).

    J'ai lu un article hier au sujet de CPU's ARM à 80 cores, donc à haute performance, gravés en 5 nm, mis au point par une nouvelle société s'appelant "Ampere Computing". Elle est née d'une équipe d'anciens de Intel qui se sont mis à créer des CPU's ARM hyper performants pour leur propre compte. Ils disent que leurs CPU's sont 41 % plus efficients que ceux de AMD et 63 % plus efficients ceux d'Intel pour une consommation électrique similaire... Je pense qu'au niveau du design de l'architecture des processeurs, il y aura toujours largement de quoi faire à fin d'optimiser les performances de nos machines, la chasse aux bugs en fait elle aussi partie...

    https://amperecomputing.com/altra/

    Les équipes de R&D nous réservent certainement encore quelques belles surprises

  18. #18
    Membre extrêmement actif
    Citation Envoyé par seedbarrett Voir le message
    Et ça se fait encore le stockage avec du PCI express, et effectivement c'est encore mieux que le M.2 il me semble niveau débit.
    Moi je me rappelle qu'il est possible d'utiliser de la RAM comme si c'était un "disque dur". Du coup si quelqu'un à un dossier qui compare les vitesses de la vieille SDR, de la DDR1 et 2, des disques durs, des SSD, des M.2, des PCI Express ça m'intéressait juste pour rigoler.
    Disque virtuel
    AMD Radeon™ RAMDisk
    RAMDisk software creates a virtual drive using the available main memory (RAM) in your computer. The performance of a RAMDisk, in general, is orders of magnitude faster than other forms of storage media, such as an SSD (up to 100X) and hard drive (up to 200X).
    Citation Envoyé par onilink_ Voir le message
    Je sais pas, économie d'énergie?
    L'écologie, l'autonomie, les vieux PC, les pays pauvres n'intéressent pas les grosses entreprises comme Google.

    Citation Envoyé par onilink_ Voir le message
    Oui, mais à côté de ça s'ils utilisent beaucoup plus de performances que nécessaire, et bien leur autonomie va juste diminuer.
    Les gens sont habitué à charger leur smartphone chaque jour.
    C'est fini l'époque du 3310 qui tenait 2 semaines ^^

    Citation Envoyé par onilink_ Voir le message
    Et je ne pense pas que les smartphones a 8 cœurs sont la généralité.
    C'était une figure de style pour dire que les smartphones sont surpuissant, c'est devenu n'importe quoi.

    Citation Envoyé par onilink_ Voir le message
    Puis ce genre de raisonnement c'est un cercle vicieux.
    Certes, mais on est dans un monde capitaliste ou bien ?
    Il faut toujours racheter les mêmes objets, les entreprises ont besoin de vendre toujours plus.
    C'est triste mais actuellement l'économie est plus importante que l'écologie. Le monde ne va pas changer comme ça. Cela dit il y a des gens qui sont dans le trip 0 déchet, mais ils ne sont pas encore 7 milliards...

    Citation Envoyé par onilink_ Voir le message
    IMO un logiciel non opti est juste un logiciel mal conçu.
    Ils feront peut-être un effort un jour, mais là il n'y a pas trop de technologie efficace pour le web.
    C'est surtout du javascript il me semble, après au niveau du backend il y a plus de technologies.
    Mais ils sont content avec leur framework Angular.js.

    Bref celui qui se monte un pc de bureau avec un gros AMD Ryzen 7 est tranquille pour un moment, il n'est pas prêt de le pousser à bout.
    Keith Flint 1969 - 2019

  19. #19
    Rédacteur

    Citation Envoyé par Ryu2000 Voir le message
    Il y a une "nouvelle" technologie qui m'épate, ce sont les SSD au format M.2 ! Pour l'OS c'est tip top ça va à une vitesse folle (par exemple : Lecture max : 3500 Mo/s - Ecriture max : 3200 Mo/s).
    Par contre j'ai acheté un SSD d'1 To uniquement pour mettre mon dossier Steam dessus et je trouve que ça ne change pas grand chose
    En matière de SSD il en existe de 2 types : les SSD read intensive (la très grande majorité et notamment ceux que l'on trouve dans les PC portables...) et les WRITE INTENSIVE qui sont généralement réservés aux serveurs de bases de données, et dont les performances en écritures sont sans communes mesure.... mais BEAUCOUP, BEAUCOUP plus chers !
    Exemple : https://fr.eetgroup.com/i/p04545-b21...rite-intensive

    A +
    Cette signature n'a pas pu être affichée car elle comporte des erreurs.

  20. #20
    Membre extrêmement actif
    Citation Envoyé par phil995511 Voir le message
    cela leur à fait perdre énormément de crédibilité auprès du grand public qui s'est massivement tourné vers AMD et les professionnels ont eux aussi commencés à lâcher Intel.
    Je n'en suis pas certain. Le repos sur leurs lauriers de Intel a fait que AMD a pu remonter la pente et sortir des CPU de bien meilleur rapport qualité/prix. Rapport remonté par les journalistes spécialisés, qui ont été lus par les constructeurs de PC et les DSI des entreprises. Qui ont du coup mis des CPU AMD dans leur gamme.

    La plupart des gens ne suivent pas l'actu de ce genre, ils regardent surtout les prix, et éventuellement les commentaires sur internet.