La puce IA GH200 aura une capacité de mémoire trois fois supérieure à celle de son GPU Nvidia H100 qui est déjà une référence dans le domaine de l’IA générative.
Nvidia est déjà le leader sur le marché des processeurs haut de gamme pour l’utilisation de l’IA générative, mais la société ne compte pas s’arrêter en si bon chemin. En effet, le fabricant de GPU va lancer une puce encore plus puissante pour répondre à la demande croissante d’exécution de grands modèles d’IA. Baptisée GH200 (pour Grace Hopper), cette super puce devrait être disponible au deuxième trimestre de l’année prochaine.
Nvidia souhaite conserver son quasi-monopole sur les puces IA…
Nvidia a annoncé l’arrivée prochaine de sa super puce GH200, qui va pouvoir gérer « les charges de travail d’IA générative les plus complexes, couvrant de grands modèles de langage, des systèmes de recommandation et des bases de données vectorielles ». La plateforme GH200 proposera le même GPU que le H100, actuellement l’offre la plus puissante et la plus populaire de Nvidia en matière d’IA, mais aura une capacité de mémoire trois fois supérieure.
Recap highlights from our special address at #SIGGRAPH2023, including the updated GH200 Grace Hopper Superchip, NVIDIA AI Workbench, and updates on @NVIDIAOmniverse with generative #AI. https://t.co/H925H3ROjo
— NVIDIA (@nvidia) August 8, 2023
Nvidia n’a pas encore révélé le prix de cette super puce GH200, mais à titre d’information, la gamme H100 se vend actuellement à environ 40 000 $. Un peu cher pour un chipset ? En réalité, les modèles d’IA complexes nécessitent des GPU ultras performants afin que le système puisse effectuer les calculs nécessaires pour générer du texte ou des images. L’exécution de grands modèles de langage requiert une puissance de traitement considérable et même avec les puces Nvidia H100 actuelles, certains doivent répartir les modèles entre différents GPU pour les faire fonctionner.
Nvidia détient un quasi-monopole sur les GPU capables de générer de l’IA. La plupart des fournisseurs de service Cloud comme Amazon AWS, Microsoft Azure et Google utilisent les GPU H100 Tensor Core de Nvidia et proposent des services pour aider leurs clients à mettre en œuvre des projets utilisant les grands modèles de langage afin de se différencier.
Microsoft et Nvidia se sont également associés pour construire de nouveaux supercalculateurs, même si le géant de Redmond ambitionne de fabriquer ses propres puces pour l’IA. En outre, Nvidia devra également faire face à la concurrence d’AMD qui souhaite mettre en production son propre GPU dédié à l’IA à la fin de l’année.