Infrastructure basée sur GPU
Libérez le potentiel des GPU : exploitez la vitesse et l’efficacité des processeurs graphique (GPU) pour les charges de travail parallélisées ! Parfaite pour le rendering et les projets d’IA, notre gamme complète de GPU NVIDIA, comprenant les puces NVIDIA P100, H100, L4, L40S et GH200, couvrent un large éventail de besoins informatiques.
Les Instances GPU disponibles
GPU H100 PCIe
2.52€/h (~1387€/mois)
Accélérez l'entraînement de vos modèles et de vos inférences avec la puce IA la plus haut de gamme du marché !
GPU Render
1.24 €/h (~891 €/mois)
Tesla P100 dédiées pour répondre à tous vos besoins en Machine Learning et Intelligence artificielle.
GPU L4
Disponible courant du 1er trimestre 2024
Optimisez les coûts de votre infrastructure d'IA avec une Instance GPU d'entrée de gamme polyvalent.
GPU L40s
Disponible courant du 1er semestre 2024
Augmentez la capacité pour l'IA ou exécutez une combinaison de charges de travail, y compris du graphisme avec l'Instance GPU universelle L40s.
Infrastructure basée sur GPU disponible
Nabu 2023
127 NVIDIA DGX H100
Construisez le prochain modèle de Fondation avec Nabu 2023, l'un des supercalculateurs les plus rapides et les plus économes en énergie au monde.
Jero 2023
2 NVIDIA DGX H100
Affinez les modèles Transformers et déployez-les sur Jero 2023, le supercalculateur d’IA à 2-DGX qui peut monter en charge jusqu’à 16 nœuds
Grace Hopper
Disponible en 2024
La super-puce NVIDIA GH200 Grace Hopper associe le CPU NVIDIA Grace et le GPU H100 Tensor Core pour un gain de performance considérable pour l'IA et le HPC à grande échelle.
Choisissez la bonne machine
Offres | Instance GPU RENDER | Instance GPU L4 | Instance GPU L40S | Instance GPU H100 PCIe | Jero & Nabu 2023 | GH200 Grace Hopper |
Puces GPU NVIDIA | P100 16GB PCIe 3 | L4 24GB PCIe 4 | L40S 48GB PCIe 4 | H100 80GB PCIe 5 | H100 80GB Tensor Core SXM5 | NVIDIA GH200 Grace Hopper™ Superchip |
architecture NVIDIA | Pascal 2016 | LoveLace 2022 | LoveLace 2022 | Hopper 2022 | Hopper 2022 | GH200 Grace Hopper™ Architecture |
Type de machine | Instances | Instances | Instances | Instances | Supercalculateur | Instance vers Supercalculateur |
Performance (entrainement en FP16 Tensor Cores) | Pas de Tensor Cores (manque de stabilité en FP16) | Jusqu'à 242 TFLOPs | Jusqu'à 362 TFLOPS | Jusqu'à 1513 TFLOPs | Jusqu'à 2010 PFLOPs | Jusqu'à 989 peak TFLOPs par GH200 |
Détails | - 10 vCPU (Skylake) - 42 Go RAM DDR3400 Go NVMe/Boot on Block - 1 gbps | En construction | En construction | - 24 vCPU (Zen4) - 240 Go RAM DDR5 - Boot on Block - 10 gbps | - jusqu’à 14 224 coeurs CPU(Zen4) - 254To de RAM - stockage DDN low latency - Infiniband 400 Go par second | - GH200 SuperChip with 72 ARM Neoverse V2 cores alongside 480 GB of LPDDR5X DRAM and 96GB of HBM3 GPU memory, the memory is fully merged for up to 576GB of global usable memory.
-1,92TB of scratch storage Up to 25GBps of networking performances |
Prix | 1,24 €/heure (891 €/mois) | bientôt disponible | bientôt disponible | 1,9 €/heure (1387 €/mois) | En fonction du projet | bientôt disponible |
Format et Caractéristiques | Multi-GPU (en construction) | Multi-GPU (en construction) | - Multi-GPU (jusqu'à 2) - Multi Instance GPU (MIG) | - Jusqu’à 127 serveurs DGX - adaptable à votre projet | Single ship up to DGX GH200 architecture. (For larger setup needs, contact us) | |
Cas d'usages | - Meilleur rapport prix/perf pour la Computer Vision - Graphisme 3D - Encoding et Decoding de vidéos (~4k) et d'images | - Entrainement de modèles de DL de taille M - Meilleur rapport prix/performance pour l'inférence des modèles de DL S/M/L - Fine-tuning (PEFT) de modèles LLM/Gen AI taille S - Graphisme 3D - Encoding et Decoding de vidéos (~8k) | - Entrainement de modèles de DL de taille L - Inférence des modèles de DL L - Fine-tuning (PEFT) et inférence de modèles LLM/Gen AI taille M - Graphisme 3D - Encoding et Decoding de vidéos (8k) et d'images | - Entrainement de modèles de DL de taille XL - Inférence des modèles de DL XL - Fine-tuning (PEFT) et inférence de modèles LLM/Gen AI taille L | - Entrainement de modèles de DL de taille XL - Inference de modèles de DL de taille XL - Entrainement de modèle LLM/Gen AI de taille L - HPC | - Inference de modèles de DL et LLM de taille XL - HPC |
Pas faits pour | LLM | Entrainer des LLM | Graphisme 3D | Graphisme 3D | Graphisme 3D, Entrainer |