ScalewayAller à la connexionAller au contenu principalAller au pied de page

ai-PULSE 2024 white paper - discover the insights!

Adapté à vos besoins

Que vous ayez besoin de développer des modèles de fondation ou d'exécuter plusieurs tâches d'apprentissage à grande échelle, nos clusters de GPU personnalisés vous permettent de définir le matériel et les ressources exacts (GPU, stockage, réseau) adaptés à votre charge de travail de Machine Learning.

Hébergé en Europe

Gardez le contrôle total de votre parcours d'IA grâce à la garantie de Scaleway sur la souveraineté des données européennes. Nos solutions de stockage complètes garantissent que vos données et innovations restent hors de portée de toutes législations extraterritoriales tout au long du cycle de l'apprentissage automatique.

Approuvé par les leaders du marché

Moshi, l'assistant vocal révolutionnaire de Kyutai, et Mixtral, un modèle de mélange d'experts très efficace conçu par Mistral AI, ont tous deux été entraînés sur Nabu 2023, le premier Custom-built Cluster. Lors de sa sortie, Mixtral a surpassé les modèles fermés et ouverts existants sur la plupart des benchmarks.

Exemples de Custom-built Clusters que nous pouvons mettre en place pour vous

Nom du ClusterNombre de GPUmaxi de PLFOPS en FP8 Tensor Core
Nabuchodonosor 20231016 GPU Nvidia H100 Tensor Core (SXM5)Jusqu’à 4021,3 PFLOPS
Jeroboam 202316 GPU Nvidia H100 Tensor Core (SXM5)Jusqu’à 63,2 PFLOPS

Nabu 2023

  • processor

    CPU

    Dual Intel® Xeon® Platinum 8480C Processors 112 coeur total

  • threads_cores

    Nombre total de coeurs CPU

    14 224 coeurs

  • gpu

    GPU

    1016 GPU Nvidia H100 Tensor Core (SXM5)

  • memory

    Mémoire GPU totale

    81 280 GB

  • processor_frequency

    Fréquence du Processeur

    Maximum de 3,80 GHz

  • memory

    Quantité de mémoire RAM totale

    254 TB de RAM

  • storage_type

    Type de stockage

    1,8 PB de stockage a3i DDN à faible latence

  • storage

    Capacité de stockage par DGX

    2,7 TB/s en lecture et 1,95 TB/s en écriture

  • bandwidth

    Bande Passante inter-GPU

    InfiniBand 400 Gb/s

Jero 2023

  • processor

    CPU

    Dual Intel® Xeon® Platinum 8480C Processors 112 coeurs total

  • threads_cores

    Nombre total de coeurs CPU

    224 coeurs

  • gpu

    GPU

    16 GPU Nvidia H100 Tensor Core (SXM5)

  • memory

    Mémoire GPU totale

    1280 GB

  • processor_frequency

    Fréquence du Processeur

    Maximum de 3,80 GHz

  • memory

    Quantité de mémoire RAM totale

    4 TB de RAM

  • storage_type

    Type de stockage

    64 TB de stockage a3i DDN à faible latence

  • bandwidth

    Bande Passante inter-GPU

    InfiniBand 400 Gb/s

Fabriqué avec les technologies les plus haut de gamme pour l'IA (TL;DR)

GPU NVIDIA H100 Tensor Core, les meilleures puces pour l'IA

Nos Custom-built Clusters, Nabu & Jero 2023, sont équipés de systèmes DGX H100 avec GPU Nvidia H100 Tensor Cores 80 Go (SXM5). Ils permettent une mise à l'échelle multi-nœuds ultra-rapide pour l'IA, grâce à leurs GPU de dernière génération :

  • Architecture Hopper ;
  • Puce avec 80 milliards de transistors répartis sur une surface de 814 mm² ;
  • Tensor Core de 4e génération jusqu'à 6 fois plus rapide que ceux de du GPU NVIDIA A100 Tensor Core ;
  • Transformer Engine jusqu'à 30 fois plus rapide pour l'accélération de l’inférence des des modèles de langage par rapport à la génération précédente de GPU A100 ;
  • 2e génération de MIG sécurisé jusqu'à 7 locataires sécurisés.

Réseaux NVIDIA ConnectX-7 et Quantum-2 pour une évolutivité sans faille

Grâce à l'interconnexion InfiniBand NDR (400Gb/s), chaque nœud de calcul de 8 GPU offre 3,2 Tb/s de bande passante vers tous les autres nœuds sur une architecture réseau totalement non bloquante.

Sa toute nouvelle technologie GPUDirect RDMA accélère la communication directe entre tous les nœuds du cluster via InfiniBand, ce qui permet :

  • 15 % de recommandations d'apprentissage en profondeur plus rapides ;
  • 17 % plus rapide pour le traitement du langage naturel (NLP) ;
  • 15 % plus rapide pour les simulations de dynamique des fluides ;
  • 36 % de consommation électrique plus faible.

Stockage DDN conçu pour le calcul intensif et co-développé avec NVIDIA pour l'intelligence artificielle

Les Custom-built Clusters bénéficient du stockage DDN a3i optimisé pour le calcul ultra-rapide. Avec plus de :

  • 2,7 To/s en lecture ;
  • 1,9 To/s en écriture ;
  • une vitesse d'écriture de plus de 15 Go/s par système DGX.
    Le stockage DDN permet des points de contrôle réguliers pour plus de sécurité.

SLURM pour une gestion complète

Bénéficiez d'une gestion complète du cluster avec SLURM. Un système de gestion de cluster open source et de planification de tâches pour les clusters Linux.

De nombreux cas d’usages

IA générative

Génère de nouveaux contenus tels que des images, du texte, de l'audio ou du code. Elle produit de manière autonome des résultats nouveaux et cohérents, élargissant le domaine des contenus générés par l'IA au-delà de la simple réplication ou prédiction.
Avec des modèles et des algorithmes spécialisés dans :

  • Génération d'images ;
  • Génération de texte avec des modèles de type Transformer, également appelés LLM (Large Language Models), tels que GPT-24 ;
  • Génération de code.