Nvidia dévoile la plateforme GPU d’IA de nouvelle génération “Blackwell”

Nvidia dévoile la plateforme GPU d'IA de nouvelle génération

Nvidia a dévoilé son GPU IA de nouvelle génération, nommé Blackwell, lors de sa keynote GTC 2024 à San Jose, en Californie.

Nvidia a nommé sa puce d’IA de nouvelle génération en l’honneur de David Harold Blackwell (1919-2010), un mathématicien américain du XXe siècle qui a établi la théorie des jeux, la théorie des probabilités, la théorie de l’information, etc.

“Nous avons besoin de GPU plus puissants pour apprendre et imiter des textes, des images, des graphes et même des vidéos dans les langues du monde entier”, a déclaré Jensen Huang, PDG de Nvidia, lors de son discours d’ouverture.

Nvidia affirme avoir amélioré les vitesses de traitement LLM jusqu’à 30 fois

Le GPU Blackwell est une puce fabriquée en connectant deux matrices de semi-conducteurs fabriquées selon le processus 4 nanomètres de TSMC à Taïwan, avec 280 milliards de transistors. Les deux matrices fonctionnent comme une seule puce, échangeant 10 téraoctets (To) de données par seconde.

Les fonctions intégrées comprennent le NVLink de 5e génération, une voie de connectivité qui peut envoyer et recevoir 1,8 To de données par seconde dans les deux sens entre jusqu’à 576 GPU, un moteur RAS alimenté par l’IA qui valide la fiabilité du GPU, et Secure AI qui chiffre les données sensibles et garantit leur authenticité.

 

Accélérateur GB200 composé de deux GPU Blackwell et d’un processeur Grace (Photo : nvidia)

Pour aller plus loin, Nvidia a présenté le GB200, composé de deux GPU Blackwell et d’un processeur Grace. Le GB200 NVL72 est capable d’effectuer 1,4 exaflops par seconde de calcul IA et dispose de 30 To de mémoire HBM3e. Avec ce système, Nvidia affirme avoir amélioré les vitesses de traitement LLM (large language model) jusqu’à 30 fois par rapport à un système traditionnel de 36 H100.

Nvidia lance également le HGX B200, un accélérateur qui peut utiliser les processeurs x86 existants tels que Intel Xeon et AMD Epic. Il comprend huit GPU TensorCore B200 et utilise le réseau Ethernet Quantum2 de Nvidia pour transférer des données à une vitesse pouvant atteindre 400 Gbps par seconde.

Plate-forme d'IA propulsée par NVIDIA Blackwell (Photo : Nvidia)

La puce Blackwell devrait être disponible dans le courant de l’année. Les principaux fournisseurs de serveurs, dont Cisco, Dell Technologies, HPE, Lenovo et Supermicro, proposeront également des serveurs basés sur Blackwell.

En plus de son propre cloud DGX, Nvidia proposera des instances Blackwell par l’intermédiaire des principaux fournisseurs de cloud du monde entier, notamment Amazon Web Services (AWS), Google Cloud et Microsoft Azure.

Source : “ZDNet Korea”

Leave a Reply

Discover more from Ultimatepocket

Subscribe now to keep reading and get access to the full archive.

Continue reading