+ Répondre à la discussion Actualité déjà publiée
  1. #1
    Responsable Qt


    Avatar de dourouc05
    Homme Profil pro
    Ingénieur de recherches
    Inscrit en
    août 2008
    Messages
    22 500
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : Ingénieur de recherches
    Secteur : Enseignement

    Informations forums :
    Inscription : août 2008
    Messages : 22 500
    Points : 123 978
    Points
    123 978

    Par défaut PCIe 4.0 : jusqu’à seize millions de transferts par seconde

    PCI Express (peripheral component interconnect) est le bus de référence dans les ordinateurs actuels. Il sert notamment à connecter toutes les cartes d’extension, y compris (voire surtout) les cartes graphiques, ainsi que certains SSD. Les cartes PCIe ont une forme bien spécifique pour les enchâsser dans la carte mère, une longue série de points de contact (comme pour PCI, AGP et ISA) ; plusieurs longueurs ont été normalisées, avec un nombre de contacts variables, afin de correspondre aux différents besoins en performance (entre x1 et x16, avec une bande passante qui augmente d’un facteur seize). PCIe, ce n’est pas que ces ports : on peut connecter des SSD à travers des ports M.2, qui peuvent utiliser le protocole PCIe, tout comme les ports externes Thunderbolt (compatibles USB C).

    La version 3.0 est sortie en 2010 et permettait un total de huit millions de transferts par seconde (8 GT/s), un transfert étant un échange d’informations (équivalent d’un paquet dans les réseaux informatiques traditionnels). La quatrième version de la norme est maintenant prête (il ne manque que quelques vérifications légales, qui devraient être faites pour fin de l’année) et double la bande passante à seize gigatransferts par seconde. Ainsi, pour un port x16, PCIe 4.0 peut fournir un débit de soixante-quatre gigaoctets par seconde.

    Cette augmentation de débit maximum est importante pour bon nombre d’applications, comme les cartes graphiques : pour le traitement de jeux de données de plus en plus grands ou l’utilisation de textures plus détaillées dans les jeux vidéo, les quantités de données à transférer augmentent régulièrement (il est actuellement difficile de remplir entièrement un bus de seize gigaoctets par seconde pour ces applications, mais cela le sera probablement dans les années à venir).



    La conversion entre le nombre de transferts par seconde et le débit s’effectue selon la manière d’encoder un paquet. Depuis PCIe 3.0, un encodage 128b/130b est utilisé : cent vingt-huit bits sont codés sur cent trente bits, les deux bits supplémentaires étant utilisés pour détecter et corriger les erreurs de transmission (principalement des horloges non synchronisées). Chaque ligne PCIe est utilisée pour la transmission (en duplex : en envoi ou réception, selon les besoins) : un port x1 définit une seule ligne, un x16 seize lignes.

    Puisque l’encodage ne change pas, les gains en débit sont obtenus uniquement par une montée en fréquence de l’émission : PCIe 3.0 fonctionne à huit gigahertz, on peut attendre que la version 4.0 fonctionne à une douzaine de gigahertz, mais aucun chiffre n’est avancé officiellement. Le problème de ces hautes fréquences est que la synchronisation sur une longue distance devient plus difficile : une différence de quelques millimètres sur une piste peut induire un décalage important des paquets dans le temps.

    Un avantage de cette augmentation de fréquence est que, pour un débit donné, une carte PCIe aura besoin de moins de lignes : les besoins en énergie pour une même transmission diminuent donc (ce qui est important notamment dans le calcul de haute performance, actuellement limité par ce facteur).

    Une version 5.0 est d’ores et déjà en cours de préparation, toujours en utilisant des pistes de cuivre (la 4.0 devait être la dernière sur ce support). La rédaction devrait être achevée pour 2019, avec les premiers produits pour 2020 ou 2021. Le débit annoncé est de cent vingt-huit gigaoctets par seconde (le double de PCIe 4.0), notamment pour suivre dans des applications comme des cartes Ethernet 400 Go/s ou InfiniBand 200 Go/s.

    Sources et image : PCIe 4.0 specification finally out with 16 GT/s on tap, PCI-SIG® Fast Tracks Evolution to 32GT/s with PCI Express 5.0 Architecture.
    Vous souhaitez participer aux rubriques Qt ou PyQt (tutoriels, FAQ, traductions), HPC ? Contactez-moi par MP.

    Créer des applications graphiques en Python avec PyQt5
    Créer des applications avec Qt 5.

    Pas de question d'ordre technique par MP !

  2. #2
    Expert confirmé
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    juillet 2013
    Messages
    2 203
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : juillet 2013
    Messages : 2 203
    Points : 4 886
    Points
    4 886

    Par défaut

    En fait le plus important c'est le nombre de watts délivrés pour les cartes graphiques. Il a eu une fausse promesse en 2010/ PCI 3.0 il me semble, avec une augmentation à 200W.

    Et l'autre truc, comme Intel/ AMD sont radins sur les lignes PCI Express , cela peut être cool de prendre 8 lignes et des performances en 16x

  3. #3
    Responsable Qt


    Avatar de dourouc05
    Homme Profil pro
    Ingénieur de recherches
    Inscrit en
    août 2008
    Messages
    22 500
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : Ingénieur de recherches
    Secteur : Enseignement

    Informations forums :
    Inscription : août 2008
    Messages : 22 500
    Points : 123 978
    Points
    123 978

    Par défaut PCI Express 5.0 déjà annoncé pour 2019

    PCI Express 5.0 déjà annoncé pour 2019
    avec un débit deux fois supérieur à celui de PCIe 4.0, qui est attendu cette année

    À peine quelques mois après l’annonce de la fin des travaux sur PCI Express 4.0, voici donc les premières communications sur la version 5.0 du protocole et du bus… dont la version finale est attendue pour 2019 (alors qu’on attend l’arrivée sur le marché de PCIe 4.0 pour la fin 2017) ! Ainsi, la version 4.0 aura eu énormément de retard (deux ans) et ne vivra pas très longtemps. Elle se montrera cependant très utile à de nombreuses applications industrielles (PCI SIG, le groupe de normalisation derrière PCIe, compte pas moins de sept cent cinquante membres), pour lesquelles PCIe 3.0 est une limite — et PCIe 4.0 le sera déjà dans certains cas.



    Le retard de PCIe 3.0 peut s’expliquer par une certaine stagnation des besoins : cette version était très adaptée aux besoins de 2010 et des années qui ont suivi. Ce n’est que depuis 2015 que l’on commence à vraiment en sentir les limites : la bande passante disponible n’est plus suffisante. En effet, l’apprentissage profond nécessite de faire transiter de grandes quantités de données vers le processeur graphique ; les SSD sont de plus en plus connectés au processeur par le bus PCIe (grâce au protocole NVMe) au lieu de SATA, ils consomment donc des lignes supplémentaires ; aussi, le réseau est de plus en plus sollicité avec des applications. De nouvelles applications se développent, comme les cartes graphiques externes, qui seront également connectées en PCIe.

    PCIe 4.0 est très proche de l’utilisation réelle. Des contrôleurs existent déjà, des cartes d’extension sont d’ores et déjà prévues pour la nouvelle norme : une mise à jour logicielle devrait suffire (à moins d’un changement important de la couche physique qui interviendrait d’ici à la publication définitive de la norme PCIe 4.0).

    La nouvelle version doublera à nouveau les débits, pour atteindre les quatre gigaoctets par seconde et par ligne. Ainsi, pour une carte réseau Ethernet à quatre cents gigabits par seconde, les seize lignes pourront fournir un débit maximum suffisant qui ne bridera pas la carte réseau.

    Les produits compatibles ne tarderont pas à venir sur le marché : PCIe 4.0 devrait utiliser une fréquence de bus de trente-deux gigahertz, bon nombre de fabricants peuvent déjà fonctionner à vingt-huit gigahertz. La révision 0.3 de la norme est maintenant disponible, la 0.5 devrait faire ses premiers pas à la fin de l’année.

    Source : Hot Chips 2017: We’ll See PCIe 4.0 This Year, PCIe 5.0 In 2019.
    Vous souhaitez participer aux rubriques Qt ou PyQt (tutoriels, FAQ, traductions), HPC ? Contactez-moi par MP.

    Créer des applications graphiques en Python avec PyQt5
    Créer des applications avec Qt 5.

    Pas de question d'ordre technique par MP !

  4. #4
    Membre averti
    Avatar de RyzenOC
    Homme Profil pro
    NR
    Inscrit en
    juin 2013
    Messages
    3 416
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : NR
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : juin 2013
    Messages : 3 416
    Points : 353
    Points
    353
    Billets dans le blog
    8

    Par défaut

    Du coup pourquoi sortir du pci4 cette année alors que pci5 sortira dans 1-2ans ?

    Pour le grand publique inutile d'attendre puisque nos GPU exploite même pas complètement le pci3.

    Quand est il de la latence ? qui me semble quand même aussi voir plus important que les débits .
    =>Comment jouer sur xbox one à moindre coût ?
    Achetez un notebook de 2010 à 50€ sur leboncoin, installez steam, connectez le pc à un écran, branchez une manette xbox au pc
    Enjoy

  5. #5
    Responsable 2D/3D/Jeux


    Avatar de LittleWhite
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    mai 2008
    Messages
    22 587
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur développement logiciels

    Informations forums :
    Inscription : mai 2008
    Messages : 22 587
    Points : 156 567
    Points
    156 567
    Billets dans le blog
    11

    Par défaut

    Pour le grand publique inutile d'attendre puisque nos GPU exploite même pas complètement le pci3.
    Comment l'avez vous déterminé/su ? Moi, j'ai toujours entendu dire que le principal bottleneck des jeux vidéo (et donc des GPU) sont les transferts CPU <-> GPU. D'ailleurs, je pense qu'une solution à cela a été de faire de la mémoire unifiée (partagées entre le CPU et le GPU) sur les consoles.
    Vous souhaitez participer à la rubrique 2D/3D/Jeux ? Contactez-moi

    Ma page sur DVP
    Mon Portfolio

    Qui connaît l'erreur, connaît la solution.

  6. #6
    Membre averti
    Avatar de RyzenOC
    Homme Profil pro
    NR
    Inscrit en
    juin 2013
    Messages
    3 416
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : NR
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : juin 2013
    Messages : 3 416
    Points : 353
    Points
    353
    Billets dans le blog
    8

    Par défaut

    Citation Envoyé par LittleWhite Voir le message
    Comment l'avez vous déterminé/su ? Moi, j'ai toujours entendu dire que le principal bottleneck des jeux vidéo (et donc des GPU) sont les transferts CPU <-> GPU. D'ailleurs, je pense qu'une solution à cela a été de faire de la mémoire unifiée (partagées entre le CPU et le GPU) sur les consoles.
    Vous confondez débit et latence !
    d'ou ma remarque à la fin :
    Quand est il de la latence ? qui me semble quand même aussi voir plus important que les débits .
    a la limite les débits peuvent vous intéresser si vous avez sur crossfire avec des cartes amd (qui passe par le pci).
    Pour Nvidia ils ont déja leurs propre techo, leurs cordon sli et pour les pro il y'a le NvLink

    amd ne fait plus leurs propre réseau haute vitesse ou de cordon crossfire il me semble dans leurs dernnier gpu

    Comment l'avez vous déterminé/su ? Moi, j'ai toujours entendu dire que le principal bottleneck des jeux vidéo (et donc des GPU) sont les transferts CPU <-> GPU. D'ailleurs, je pense qu'une solution à cela a été de faire de la mémoire unifiée (partagées entre le CPU et le GPU) sur les consoles.
    Pour prouver l'absurdité de votre remarque comparer les bench avec des gpu sur du pci2 et 3.
    http://www.tomshardware.co.uk/answer...4698/pcie.html
    J'insiste bien que je parle d'une utilisation grand publique !!!
    =>Comment jouer sur xbox one à moindre coût ?
    Achetez un notebook de 2010 à 50€ sur leboncoin, installez steam, connectez le pc à un écran, branchez une manette xbox au pc
    Enjoy

  7. #7
    Expert éminent
    Avatar de Jipété
    Profil pro
    Inscrit en
    juillet 2006
    Messages
    6 192
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations forums :
    Inscription : juillet 2006
    Messages : 6 192
    Points : 8 454
    Points
    8 454

    Par défaut

    Citation Envoyé par RyzenOC Voir le message
    Quand est il de la latence ? qui me semble quand même aussi voir plus important que les débits .
    Vous confondez débit et latence !
    d'ouù ma remarque à la fin :
    Oui mais comme c'est totalement incompréhensible (quel charabia ! Oser exposer ça à la face du monde, faut pas avoir honte, hein !), on peut facilement se gourrer à l'interprétation...

    Reprenons, pour nos lecteurs étrangers :
    Qu'en est-il de la latence, qui me semble quand même aussi, voire plus, importante que les débits ?

    Et pour rester dans le sujet, c'est quoi cette unité "GT" qu'on voit sur l'image ? Par exemple, 2,5 GT/s ? 2,5 Giga-quoi par seconde ?
    Il a à vivre sa vie comme ça et il est mûr sur ce mur se creusant la tête : peutêtre qu'il peut être sûr, etc.
    Oui, je milite pour l'orthographe et le respect du trait d'union à l'impératif.
    Après avoir posté, relisez-vous ! Et en cas d'erreur ou d'oubli, il existe un bouton « Modifier », à utiliser sans modération
    On a des lois pour protéger les remboursements aux faiseurs d’argent. On n’en a pas pour empêcher un être humain de mourir de misère.
    Mes 2 cts,
    --
    jp

  8. #8
    Membre régulier
    Homme Profil pro
    Inscrit en
    juin 2012
    Messages
    29
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Isère (Rhône Alpes)

    Informations forums :
    Inscription : juin 2012
    Messages : 29
    Points : 110
    Points
    110

    Par défaut

    Citation Envoyé par Jipété Voir le message
    Et pour rester dans le sujet, c'est quoi cette unité "GT" qu'on voit sur l'image ? Par exemple, 2,5 GT/s ? 2,5 Giga-quoi par seconde ?
    Ce sont des "giga-transfers per second".

  9. #9
    Responsable 2D/3D/Jeux


    Avatar de LittleWhite
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    mai 2008
    Messages
    22 587
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur développement logiciels

    Informations forums :
    Inscription : mai 2008
    Messages : 22 587
    Points : 156 567
    Points
    156 567
    Billets dans le blog
    11

    Par défaut

    Citation Envoyé par RyzenOC Voir le message
    Pour prouver l'absurdité de votre remarque comparer les bench avec des gpu sur du pci2 et 3.
    http://www.tomshardware.co.uk/answer...4698/pcie.html
    J'insiste bien que je parle d'une utilisation grand publique !!!
    Je ne suis pas certain que cela prouve quoi que ce soit, sachant que les développeurs de jeux vidéo vont évidemment éviter ce bottleneck (et donc (re)charger au minimum les données CPU -> GPU). Il faudrait donc un bench spécifique (chargement d'une texture, de modèles et upload sur le GPU) pour vraiment constater le problème (ou pour vraiment dire que mes propos sont absurdes). Ou encore, prendre un jeu ayant des modèles dont la géométrie varie (les animations peuvent aussi être effectuées par le GPU pour diminuer les transferts).
    Vous souhaitez participer à la rubrique 2D/3D/Jeux ? Contactez-moi

    Ma page sur DVP
    Mon Portfolio

    Qui connaît l'erreur, connaît la solution.

Discussions similaires

  1. Réponses: 13
    Dernier message: 31/12/2016, 12h18
  2. Une caméra capable de capturer 6 millions d'images par seconde
    Par Katleen Erna dans le forum Actualités
    Réponses: 11
    Dernier message: 15/02/2010, 13h32
  3. Transfert par pipe
    Par Marc san dans le forum Autres éditeurs
    Réponses: 3
    Dernier message: 21/02/2006, 00h01
  4. Problème avec le transfert par POST
    Par raptor70 dans le forum Fichiers
    Réponses: 11
    Dernier message: 28/11/2005, 12h44
  5. Transferts par web, quel SGBD ?
    Par Harry dans le forum Bases de données
    Réponses: 10
    Dernier message: 22/08/2003, 23h46

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo