Microsoft embarque les accélérateurs d'IA de Graphcore à sa plateforme cloud Azure,
pour optimiser les calculs liés à l'intelligence artificielle

Les utilisateurs de la plateforme cloud Microsoft Azure pourront bientôt compter sur une accélération des calculs liés à l'intelligence artificielle fournie par les puces spécialisées de la start-up anglaise Graphcore. L'annonce de ce partenariat a été faite mercredi 13 novembre 2019. Microsoft avait fait partie des investisseurs de la levée de fonds de 200 millions de dollars réalisée par Graphcore en décembre dernier.

Graphcore développe des puces qu'elle a baptisées Intelligence Processing Units (IPU) afin de les différencier des CPU et GPU existants. Leur architecture est hautement parallèle, comme celle des GPU, mais est optimisée pour les calculs liés à l'intelligence artificielle, et en particulier le traitement du langage naturel. La start-up affirme que l'entraînement de modèles pour la reconnaissance d'image, le traitement de la voix ou l'analyse vidéo est de 10 à 100 fois plus rapide en utilisant ses produits qu'avec un système conventionnel. Elle précise de plus que son architecture est tout aussi adaptée à l'inférence. Sa puce peut être utilisée pour exécuter des applications intensives et gourmandes en énergie que toutes les industries de pointe, de l'automobile à la santé, en passant par la sécurité et la fabrication, pourront utiliser pour intégrer l'apprentissage automatique à leurs systèmes.

Nom : graphcore.jpg
Affichages : 580
Taille : 45,1 Ko

C'est la première fois qu'un grand fournisseur de services de cloud computing offre publiquement à ses clients la possibilité d'exécuter leurs données sur un accélérateur de l'une des dizaines de startups de puces à puce d'IA. En tant que tel, cela représente une grande victoire pour Graphcore. Microsoft a indiqué que l'accès serait initialement prioritaire pour les clients qui « repoussent les limites de l'apprentissage automatique ».

« Cette décision est très importante pour nous, car cela signifie que tout le monde sur la planète peut utiliser Azure et utiliser notre technologie pour développer ses systèmes », a déclaré Nigel Toon, directeur général de Graphcore. « C’est un grand pas en avant pour la disponibilité de notre technologie et une preuve de son niveau de maturité ».

L'adoption généralisée de la technologie permettra aux ordinateurs de détecter les tendances et de faire des découvertes à partir de grands ensembles de données. Le marché regorge de sociétés telles qu'Intel, Nvidia et Cerebras et de géants tels que Google, Amazon et Apple, qui travaillent tous sur des puces optimisées pour l'IA.

La puce de Graphcore, qu’elle appelle « unité de traitement de l’intelligence », peut être utilisée pour former des algorithmes d’apprentissage automatique. La nouvelle entreprise affirme que ses systèmes sont 10 à 100 fois plus rapides que les puces existantes pour des applications telles que la reconnaissance d’image, le traitement de la voix et la vidéo.

Benchmark

Microsoft et Graphcore ont publié des tests qui suggèrent que la puce correspond ou dépasse les performances des meilleures puces AI de Nvidia et Google en utilisant des algorithmes écrits pour ces plateformes rivales. Le code écrit spécifiquement pour le matériel de Graphcore peut être encore plus efficace.

Les sociétés affirment que certaines tâches de traitement d’images fonctionnent par exemple beaucoup plus rapidement sur les puces de Graphcore que sur ses rivales utilisant le code existant. Ils affirment également avoir été en mesure de former un modèle d'IA populaire pour le traitement du langage, appelé BERT, à des débits correspondant à ceux de tout autre matériel existant.

En utilisant huit cartes processeur Graphcore IPU (chacune avec une paire d'accélérateurs Colossus), BERT peut être entraîné en 56 heures, comme le résultat obtenu avec le processeur graphique avec PyTorch, bien qu'il soit plus rapide que le processeur graphique avec TensorFlow (voir le graphique ci-dessous). Selon Graphcore, les clients constatent une multiplication par trois du débit d'inférence BERT, avec une amélioration de 20% de la latence.

Compte tenu du battage publicitaire entourant Graphcore (la société est évaluée à 1,7 milliard de dollars), ces améliorations de performance semblent plutôt modestes. Il reste à voir si l’amélioration promise est suffisante pour inciter les clients à optimiser leurs modèles pour l’IPU.

Nom : bert.jpg
Affichages : 529
Taille : 28,8 Ko
Résultats d'entraînement BERT sur IPU Graphcore comparé à PyTorch et TensorFlow

Jusqu'à présent, les premiers clients ont noté d'importantes améliorations à leur travail axé sur l'IA depuis l'utilisation de puces Graphcore. Le Français Qwant s'en sert notamment pour son moteur de recherche d'images, et rapporte des performances 3,5 fois plus rapides qu'auparavant. Carmot Capital, un cabinet californien spécialisé dans la couverture de risque, rapporte de son côté des calculs 26 fois plus rapides.

Dans le même temps, Graphcore a également publié des résultats sur des modèles plus avancés, où il a montré des améliorations de performances plus spectaculaires.

L'inférence sur le modèle de traitement d'image ResNext a été accélérée de 3,4 fois en termes de débit avec une latence inférieure de 18 fois, comparée à une solution GPU consommant la même quantité d'énergie. ResNext utilise une technique appelée convolution séparable par groupe, qui divise les filtres de convolution en blocs plus petits séparables pour augmenter la précision tout en réduisant le nombre de paramètres. Selon Graphcore, cette approche convient bien à l’IPU en raison de l’architecture massivement parallèle de la puce et de la mémoire plus flexible à haut débit ; des blocs de données plus petits peuvent être mappés à des milliers de threads de traitement totalement indépendants.

Nom : latence.jpg
Affichages : 600
Taille : 34,5 Ko

Graphcore a également montré de bons résultats pour les modèles basés sur Markov Chain Monte-Carlo (MCMC), un nouveau type d'algorithme probabiliste utilisé pour modéliser les marchés financiers. Ce type de modèle était hors de portée pour de nombreux acteurs du secteur financier, car il était auparavant considéré comme trop coûteux en termes d'utilisation, a déclaré Graphcore. Les clients IPU du secteur financier en accès anticipé ont été en mesure de former leurs modèles MCMC propriétaires optimisés en 4,5 minutes sur des unités IPU, contre plus de 2 heures avec leur matériel existant, soit une vitesse multipliée par 26.

L'apprentissage par renforcement (RL), une autre technique répandue dans le développement d'algorithmes d'IA modernes, peut également être accéléré par rapport aux solutions existantes classiques. Graphcore a cité une amélioration d'un facteur dix du débit des modèles RL, avant même qu'ils ne soient optimisés pour l'IPU.

La société a annoncé en janvier qu’elle réaliserait plus de 50 millions de dollars de chiffre d’affaires cette année et atteindrait un taux de croissance de 1 milliard de dollars dans les cinq ans à son taux de croissance actuel. Elle emploie 200 ingénieurs au total et étend ses activités en Norvège, à Taiwan et aux États-Unis.

Girish Bablani, vice-président d’entreprise Azure Compute chez Microsoft, a déclaré : « l’offre Graphcore étend les capacités d’Azure et nos efforts font partie de notre stratégie visant à faire d’Azure le meilleur cloud pour AI ».

Tests (effectués par Graphcore)

Source : communiqué de presse