NVIDIA DGX A100

Le premier système universel pour le datascience,
le deep learning et l'inferencing.

EXPLORE THE POWERFUL COMPONENTS OF

DGX A100

NVIDIA DGX A100
01.
8 GPU NVIDIA A100 AVEC 320 GO DE MÉMOIRE GPU TOTALE
12 liaisons NVLink par GPU, 600 Go/s de bande passante GPU-vers-GPU
02.
6 MODULES NVSWITCH DE SECONDE GÉNÉRATION
4,8 To/s de bande passante bidirectionnelle, soit 2 fois plus que la génération précédente
03.
9 adaptateurs Mellanox ConnectX-6 VPI HDR InfiniBand 200Gb Ethernet
225 Go/s de bande passante bidirectionnelle maximale
04.
DEUX CPU AMD 0 64 CŒURS ET 1 TO DE MÉMOIRE SYSTÈME
2,7x plus de cœurs pour prendre en charge les opérations d’IA les plus intensives
05.
DISQUES SSD NVME GEN4 DE 15 TO
25,6 Go/s de bande passante maximale, 2x plus rapide qu’un SSD NVME Gen3

For all the specifications

THE TECHNOLOGY INSIDE NVIDIA DGX A100

GPU A100

The NVIDIA A100 Tensor Core GPU delivers unprecedented acceleration for AI, data analytics, and high-performance computing (HPC) to tackle the world’s toughest computing challenges. With third-generation NVIDIA Tensor Cores providing a huge performance boost, the A100 GPU can efficiently scale up to the thousands or, with Multi-Instance GPU, be allocated as seven smaller, dedicated instances to accelerate workloads of all sizes.

MULTI-INSTANCE GPU

With MIG, the eight A100 GPUs in DGX A100 can be configured into as many as 56 GPU instances, each fully isolated with their own high-bandwidth memory, cache, and compute cores. This allows administrators to right-size GPUs with guaranteed quality of service (QoS) for multiple workloads.

NVLINK & NVSWITCH

The third generation of NVIDIA® NVLink in DGX A100 doubles the GPU-to-GPU direct bandwidth to 600 gigabytes per second (GB/s), almost 10X higher than PCIe Gen4. DGX A100 also features next-generation NVIDIA NVSwitch™, which is 2X times faster than the previous generation.

Infiniband

DGX A100 features the latest Mellanox ConnectX-6 VPI HDR InfiniBand/Ethernet adapters, each running at 200 gigabits per second (Gb/s) to create a high-speed fabric for large-scale AI workloads.

Optimized Software Stack

DGX A100 integrates a tested and optimized DGX software stack, including an AI-tuned base operating system, all necessary system software, and GPU-accelerated applications, pre-trained models, and more from NGC.

Security

DGX A100 delivers the most robust security posture for AI deployments, with a multi-layered approach stretching across the baseboard management controller (BMC), CPU board, GPU board, self-encrypted drives, and secure boot.

Major deep learning frameworks pre-installed

Essentiel pour les data centers dédiés à l'IA

data-center-dgx-a100-benefits-icon_universal-system

Système universel d’IA

Système universel pour les infrastructures d’IA, NVIDIA DGX A100 peut traiter une grande variété de charges de travail allant de l’analyse de données à l’entraînement en passant par l’inférence. Doté d’une puissance de calcul sans précédent de 5 pétaflops dans une configuration au format 6U, le système A100 définit un nouveau standard pour la densité de calcul et remplace les infrastructures héritées avec une plateforme unique pour toutes les charges de travail d’IA.
data-center-dgx-a100-benefits-icon_dgxperts

DGXperts : accès à une expertise inégalée

NVIDIA DGXperts est un programme qui regroupe une équipe internationale de plus de 14 000 professionnels, spécialisés dans l’intelligence artificielle et possédant plus d’une décennie d’expérience, qui vous aideront à maximiser votre retour sur investissement avec les systèmes DGX.
data-center-dgx-a100-benefits-icon_fastest-time

Réduction majeure des délais de déploiement

NVIDIA DGX A100 est le tout premier système au monde basé sur le GPU NVIDIA A100 Tensor Core à hautes performances. Équipé d’un total de huit GPU A100, le système A100 délivre une accélération incomparable du calcul informatique et a été spécialement optimisé pour l’environnement logiciel NVIDIA CUDA-X™. Il prend en charge la pile de solutions de bout en bout NVIDIA pour Data Center.
data-center-dgx-a100-benefits-icon_unmatched-data

Évolutivité inégalée pour les Data Centers

Le système NVIDIA DGX A100 comporte des fonctionnalités Mellanox de mise en réseau fournissant une bande passante bidirectionnelle pouvant atteindre 225 gigaoctets par seconde (Go/s). Cette fonctionnalité s’ajoute aux nombreuses autres innovations technologiques qui font du système DGX A100 une base fondamentale des clusters avancés d’IA tels que NVIDIA DGX SuperPOD™, la solution d’entreprise incontournable pour les infrastructures d’IA à haut degré d’évolutivité.

Performances révolutionnaires

Analyse de données

PageRank

Une analyse plus rapide permet d’approfondir les données pour optimiser le développement de vos projets d’IA

Graph Edges per Second (Billions)

3,000X CPU Servers vs. 4X DGX A100. Published Common Crawl Data Set: 128B Edges, 2.6TB Graph.

Entraînement

NLP: BERT-Large

Un entraînement plus rapide permet de mettre en œuvre des modèles d’intelligence artificielle encore plus avancés

Sequences per Second

BERT Pre-Training Throughput using PyTorch including (2/3)Phase 1 and (1/3)Phase 2. Phase 1 Seq Len = 128, Phase 2 Seq Len = 512. V100: DGX-1 with 8X V100 using FP32 precision. DGX A100: DGX A100 with 8X A100 using TF32 precision.

Inférence

Peak Compute

Une inférence plus rapide améliore le retour sur investissement grâce à un utilisation optimale du système

TeraOPS per Second

CPU Server: 2X Intel Platinum 8280 using INT8. DGX A100: DGX A100 with 8X A100 using INT8 with Structural Sparsity.

Contactez Sebastien Maitre, notre spécialiste IA

    X