Instance GPU L40S

Accélérez la prochaine génération d'applications boostées par l'IA avec l'Instance GPU L40S universelle, plus rapide que la L4 et moins chère que la H100 PCIe.

Un usage universel

L'Instance GPU L40S offre des performances inégalées pour un large éventail de tâches, notamment pour l'intelligence artificielle générative, l'inférence de LLM, l'entraînement et peaufinage de petits modèles, ainsi que pour les applications en 3D, le rendering et la vidéo.

Scalabilité rentable

À partir de 1,4 €/heure pour 1 GPU avec 48 Gb de mémoire GPU et disponible en 4 formats différents (1, 2, 4, 8 GPUs), l'Instance GPU L40S permet une mise à l'échelle rentable en fonction des besoins de charge de travail, garantissant une utilisation optimale des ressources en plus de ses capacités de haute performance.

Compatible avec K8s

Intégrez sans effort l'Instance GPU L40S dans votre infrastructure existante avec le support de Kubernetes, simplifiant le déploiement et la gestion des charges de travail en intelligence artificielle tout en conservant la scalabilité et la flexibilité.

Zones disponibles :
Paris:PAR 2

Spécificités techniques

  • GPU NVIDIA GPU L40S

  • Mémoire GPU48 GB GDDR6 (864 GB/s)

  • Processeur8 vCPUs AMD EPYC 7413

  • Fréquence du processeur2,65 Ghz

  • Mémoire92 GB de RAM

  • Type de mémoireDDR4

  • Bande passante réseau2,5 Gbps

  • Stockage1,6 TB de Scratch Storage et Block Storage (additionnel)

  • CoresTensor Cores 4ème génération RT Cores 3ème génération

  • Cas d'usage

    Fine-tuning & entrainement de LMM

    Utilisez les Instances GPU H100 PCIe pour l'entraînement de modèles fondamentaux de taille moyenne à grande échelle, mais exploitez les capacités de la L40S pour fine-tuner en quelques heures et entraîner en quelques jours de petits LLM.

    • Une infrastructure alimentée par des GPU L40S peut entraîner des modèles en quelques jours
      Pour entraîner Llama 2-7B (100B tokens), cela nécessiterait 64 GPU L40S et prendrait 2,9 jours (contre 1 jour avec les GPU H100 NVlink, comme sur Nabu2023)
    • Affinez les modèles en quelques heures
      Pour affiner Llama 2-70B SFT (1T tokens), cela nécessitera 64 GPU L40S et prendra 8,2 heures (contre 2,5 heures avec les GPU H100 NVlink, comme sur Nabu2023)

    Source: Présentation produit NVIDIA L40S, octobre 2023

    Construire et surveiller une infrastructure cloud flexible et sécurisée

    Bénéficiez d'un écosystème cloud complet

    Kubernetes Kapsule

    Simple d’utilisation, Kubernetes Kapsule est entièrement intégré à notre écosystème cloud.

    En savoir plus

    Load Balancer

    Répartissez les charges de travail sur plusieurs serveurs à l'aide d'un Load Balancer afin de garantir une disponibilité continue et d'éviter la surcharge des serveurs.

    En savoir plus

    Virtual Private Cloud

    Sécurisez vos ressources cloud facilement sur un réseau privé régional résilient

    En savoir plus