Boostez votre infrastructure d'IA avec les composants clés de l'écosystème Scaleway
Déployez et faites évoluer votre infrastructure avec Kubernetes.
Libérez le potentiel des GPU : exploitez la vitesse et l’efficacité des GPU pour les charges de travail parallélisées ! Parfaite pour le rendering et les projets d’IA, notre gamme complète de GPU NVIDIA, comprenant les puces NVIDIA H100 Tensor Core, NVIDIA L40S, NVIDIA L4 Tensor Core, NVIDIA P100 et NVIDIA GH200, couvrent un large éventail de besoins informatiques.
2.73€/h (~1 992€/mois)
Accélérez l'entraînement de vos modèles et de vos inférences avec la puce IA la plus haut de gamme du marché !
1.24 €/h (~905€/mois)
Tesla P100 dédiées pour répondre à tous vos besoins en Machine Learning et Intelligence artificielle.
0,75 €/h (~548€/mois)
Optimisez les coûts de votre infrastructure d'IA avec une Instance GPU d'entrée de gamme polyvalent.
1,4€/h (~1 022€/mois)
Accélérez la prochaine génération d'applications boostées par l'IA avec l'Instance GPU L40S universelle, plus rapide que la L4 et moins chère que la H100 PCIe.
Bientôt disponible
Une mémoire plus grande et plus rapide qui accélère l'IA générative et les LLM avec une meilleure efficacité énergétique et un coût total de possession plus faible.
Bientôt disponible
Dotée de 6 technologies différentes, l'architecture Blackwell GPU permet des avancées dans le traitement des données, l'informatique quantique et l'IA générative.
Disponible
Conçus pour gérer les charges de travail d'IA les plus exigeantes, les accélérateurs de AMD Instinct™ MI300 Series offrent des performances de calcul à grande vitesse et une grande densité de mémoire avec une bande passante élevée.
GPU | Mémoire GPU | FP16 pic de performance | Recommandé pour | Prix |
---|---|---|---|---|
2x NVIDIA H100 Tensor Core GPU | 80 GB | 3026 TFLOPS | Fine-Tuning et Inference de LLM 70B | 5,04€/hour |
1x NVIDIA H100 Tensor Core GPU | 80 GB | 1513 TFLOPS | Fine-Tuning et Inference de LLM 7B | 2,52€/hour |
8x NVIDIA L40S GPU | 48 GB | 2896 TFLOPS | Fine-Tuning et Inference de modèle jusqu'à 70B de GenAI (image, vidéo) | 11,2€/hour |
4x NVIDIA L40S GPU | 48 GB | 1448 TFLOPS | Inference de Mixtral 8x22B | 5,6€/hour |
2x NVIDIA L40S GPU | 48 GB | 724 TFLOPS | Inference de modèle LLM 7B | 2,8€/hour |
1x NVIDIA L40S GPU | 48 GB | 362 TFLOPS | Image & Video Encoding (8K) | 1,4€/hour |
8x NVIDIA L4 Tensor Core GPU | 24 GB | 1936 TFLOPS | Inference de modèle LLM 70B | 6,00€/hour |
4x NVIDIA L4 Tensor Core GPU | 24 GB | 968 TFLOPS | Inference de modèle LLM 7B | 3,00€/hour |
2x NVIDIA L4 Tensor Core GPU | 24 GB | 484 TFLOPS | Encoding vidéo (8K) | 1,50€/hour |
1x NVIDIA L4 Tensor Core GPU | 24 GB | 242 TFLOPS | Encoding d'image (8K) | 0,75€/hour |
NVIDIA P100 | 16 GB | 19 TFLOPS | Encoding d'image et vidéo (4K) | 1,24€/hour |
Option | Value | Price |
---|---|---|
Zone | Paris 2 | |
Instance | 1x | 0€ |
Volume | 10GB | 0€ |
IPv4 flexible | Oui | 0.004€ |
Total | |
---|---|
À la journée | 0€ |
À la semaine | 0€ |
Au mois | 0€ |
Boostez votre infrastructure d'IA avec les composants clés de l'écosystème Scaleway
Déployez et faites évoluer votre infrastructure avec Kubernetes.
Object Storage pour stocker et préparer votre donnée
Déployer des modèles avec le serveur d'inférence NVIDIA Triton sur Scaleway Object Storage
Docker AI Image pour accélérer votre tâche
Lancez le conteneur de votre choix étape par étape.