IPU - M2000
Solutions Cloud et centre de données
Hébergement
Sauvegardes avec Veeam Cloud Connect
SaaS - Microsoft 365 pour PME
Service-conseil
IPU-Machine: IPU-M2000
Solutions TI pour PME
Service TI gérés et maintenance préventive
Soutien technique sur demande
Workstations, serveurs et approvisionnement en bureautique
Solutions de réseautique et stockage
Solutions Cloud et centre de données
Hébergement
Sauvegardes avec Veeam Cloud Connect
SaaS - Microsoft 365 pour PME
Service-conseil
Solutions TI pour PME
Service TI gérés et maintenance préventive
Soutien technique sur demande
Workstations, serveurs et approvisionnement en bureautique
Solutions de réseautique et stockage
Solutions Cloud et centre de données
Hébergement
Sauvegardes avec Veeam Cloud Connect
SaaS - Microsoft 365 pour PME
Service-conseil
Solutions TI pour PME
Service TI gérés et maintenance préventive
Soutien technique sur demande
Workstations, serveurs et approvisionnement en bureautique
Solutions de réseautique et stockage
Solutions Cloud et centre de données
Hébergement
Sauvegardes avec Veeam Cloud Connect
SaaS - Microsoft 365 pour PME
Service-conseil
innovations technologiques
GPU A100
MIG - GPU MULTI-INSTANCES
NVLINK ET NVSWITCH
Infiniband
Pile logicielle optimisée
Sécurité intégrée
Principaux frameworks pré-installés
Essentiel pour les data centers dédiés à l'IA
Système universel d’IA
DGXperts : accès à une expertise inégalée
Réduction majeure des délais de déploiement
Évolutivité inégalée pour les Data Centers
Performances révolutionnaires
Analyse de données
PageRank
Une analyse plus rapide permet d’approfondir les données pour optimiser le développement de vos projets d’IA
Graph Edges per Second (Billions)
3,000X CPU Servers vs. 4X DGX A100. Published Common Crawl Data Set: 128B Edges, 2.6TB Graph.
Entraînement
NLP: BERT-Large
Un entraînement plus rapide permet de mettre en œuvre des modèles d’intelligence artificielle encore plus avancés
Sequences per Second
BERT Pre-Training Throughput using PyTorch including (2/3)Phase 1 and (1/3)Phase 2. Phase 1 Seq Len = 128, Phase 2 Seq Len = 512. V100: DGX-1 with 8X V100 using FP32 precision. DGX A100: DGX A100 with 8X A100 using TF32 precision.
Inférence
Peak Compute
Une inférence plus rapide améliore le retour sur investissement grâce à un utilisation optimale du système
TeraOPS per Second
CPU Server: 2X Intel Platinum 8280 using INT8. DGX A100: DGX A100 with 8X A100 using INT8 with Structural Sparsity.