IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Hardware Discussion :

Plusieurs entreprises de renom s’associent pour créer de nouvelles normes de transmission des données


Sujet :

Hardware

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Webmaster
    Inscrit en
    Janvier 2014
    Messages
    1 089
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Webmaster
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 089
    Points : 26 555
    Points
    26 555
    Par défaut Plusieurs entreprises de renom s’associent pour créer de nouvelles normes de transmission des données
    Plusieurs entreprises de renom s’associent pour créer de nouvelles normes de transmission des données
    Intel doit-il être inquiet ?

    Avec les quantités énormes de données brassées par les grandes entreprises, le besoin de performance des serveurs est plus que jamais nécessaire. Les avancées sont significatives pour bon nombre de composants, comme les processeurs ou le réseau. Toutefois, alors que la performance de ces différentes technologies s’améliore,les protocoles de bus de transfert de données ne suivent pas toujours la tendance.

    Partageant donc la même problématique, AMD, Dell EMC, Google, Hewlett Packard Enterprise, Mellanox Technologies, Micron, NVIDIA et Xilinx, déjà rassemblés autour d'IBM pour sa plateforme POWER dans l'organisation OpenPOWER, ont annoncé, il y a quelques jours, la création d’un nouveau consortium du nom de OpenCAPI afin de continuer à développer une norme qui permettra d’accroître le transfert des données traitées par les serveurs.

    Cette spécification a été baptisée Open Coherent Accelarator Processor Interface (OpenCAPI) et est en fait une norme de bus pour laquelle ce consortium souhaite créer une interface afin de permettre aux systèmes qui les utiliseront d’accroître leur bande passante tout en réduisant la latence d’accès aux données.

    À l’heure actuelle, le standard de transmission des données entre composants généralement utilisé est le PCI Express (PCIe). Sa première version a été conçue en 2004 par un autre consortium, qui s'occupait déjà de PCI dans les années 1990, et l'itération 4.0 pourra monter jusqu'à 16 millions de transferts par seconde. Avec la nouvelle spécification que compte créer le consortium OpenCAPI, ceux-ci visent un taux de transfert de 25 Go par seconde.

    À travers OpenCAPI, souligne le consortium, « l’industrie de la technologie sera capable de construire des solutions de centres de données qui seront mieux équipés pour des charges de travail de prochaine génération les plus exigeantes ».

    Il ajoute que « plusieurs entreprises de technologie ont développé des solutions innovantes que la technologie des centres de données d’aujourd’hui ne peut pas exploiter efficacement en raison des interfaces existantes limitées ». Et pour cause, les technologies supportant les charges de travail en pleine évolution ne fonctionnent pas parfaitement avec les interfaces actuelles, qui sont propriétaires et fermées.

    L’objectif d’OpenCAPI est donc clair : remplacer la solution PCIe par un nouveau standard, plus ouvert et plus performant.

    Selon les déclarations du groupe, la nouvelle spécification sera disponible d’ici la fin de l’année et cela sans aucun frais. Les premiers équipements à recevoir cette norme seront les serveurs d’IBM basés sur POWER9. Cela se fera dans le courant de l’année 2017. Ensuite viendront les autres acteurs comme Google Mellanox ou encore Xilinx, qui introduiront cette nouvelle spécification dans leurs systèmes.

    Il faut noter par ailleurs que le consortium OpenCAPI n’est pas le seul à vouloir améliorer les standards actuels. Dans le courant de la même semaine, une autre alliance industrielle dénommée Gen-Z a également fait son apparition sur la scène publique. Elle se compose de plusieurs grands noms de l’industrie technologique, notamment AMD, ARM, Cavium Inc., Cray, Dell EMC, Hewlett Packard Enterprise (HPE), Huawei, IBM, IDT, Lenovo, Mellanox Technologies, Micron, Microsemi, Red Hat, Samsung, Seagate, SK Hynix, Western Digital Corporation et Xilinx.

    Contrairement à OpenCAPI qui est une organisation à but non lucratif, Gen-Z a pour objectif de créer et de commercialiser un nouveau protocole et une nouvelle interconnexion pour les systèmes tels que les racks. Cela passe par la mise en œuvre d’une nouvelle approche de l’accès aux données afin de permettre aux serveurs d’accroître leur bande passante, leur capacité de calcul, tout en réduisant la latence d’accès aux données.

    Encore une fois, Intel est grand absent parmi les membres de cette alliance. Il est bon de préciser qu’Intel a déjà mis en œuvre sa propre architecture de communication à haute performance baptisée Omni-Path. Cette solution offrirait une faible latence, une faible consommation avec un débit élevé.

    Source : OpenCAPI, Gen-Z

    Et vous ?

    Que pensez-vous de ces initiatives ?

    Sont-elles à saluer ? Ou cachent-elles d’autres objectifs ?

    Voir aussi

    Intel propose de nouvelles interconnexions entre cœurs de processeur qui pourraient accélérer d'un facteur 20 les communications entre 16 cœurs

    Forum hardware

  2. #2
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 838
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 838
    Points : 18 767
    Points
    18 767
    Par défaut
    Citation Envoyé par Olivier Famien Voir le message
    Que pensez-vous de ces initiatives ?
    Une solution plus performante et plus ouverte que le PCI Express c'est cool.

    Si j'ai bien compris en 2012 est sorti le PCI Express 3.x en 2017 sortira le PCI Express 4.x.
    La bande passante s'exprime en gigatransferts par seconde et je ne sais pas ce que c'est.
    Ça fait 8 gigatransferts par seconde pour le 3.x et ça fera 16 gigatransferts par seconde pour le 4.x (32 Go/s max).

    Citation Envoyé par Olivier Famien Voir le message
    Sont-elles à saluer ? Ou cachent-elles d’autres objectifs ?
    Apparemment oui, c'est toujours bien d'être plus ouvert et plus performant.

    Est-ce que le standard d'OpenCAPI se retrouvera dans les cartes mères et les carte graphiques grand publique ?

    C'est un peu chiant quand les normes évolues, mais au final c'est bien (quand on est passé des disques durs et graveurs en IDE vers SATA / quand on est passé des cartes graphiques AGP vers PCI Express / quand on est passé de la RAM SDR / DDR / DDR2 / DDR3 / DDR4).

  3. #3
    Expert éminent sénior
    Avatar de Paul TOTH
    Homme Profil pro
    Freelance
    Inscrit en
    Novembre 2002
    Messages
    8 964
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Freelance
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2002
    Messages : 8 964
    Points : 28 457
    Points
    28 457
    Par défaut
    ce qui est bien avec les progrès technique c'est que les développeurs peuvent coder comme des porcs, la machine rattrape le coup

  4. #4
    Membre chevronné
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Juillet 2007
    Messages
    889
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Juillet 2007
    Messages : 889
    Points : 2 042
    Points
    2 042
    Par défaut
    ce qui est bien avec les progrès technique c'est que les développeurs peuvent coder comme des porcs, la machine rattrape le coup
    Non, mais si l'on est aps obliger d'optimiser tant mieux, on économise du temps. Je n'est pas envie de revenir a l'époque ou il falait redescendre souvent au niveau ASM.
    Mais de toute façon même s'il y a des progrès technique la demande augmente de manière tellement rapide, qu'il faut bien a un moment optimiser. Une part importante est faite aussi avec la progressions de l'optimisation des outils (les langages...).

Discussions similaires

  1. Réponses: 1
    Dernier message: 08/01/2009, 18h34
  2. Réponses: 4
    Dernier message: 12/12/2008, 18h10
  3. Réponses: 22
    Dernier message: 03/08/2007, 15h57

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo