ScalewayAller à la connexionAller au contenu principalAller au pied de page

ai-PULSE 2024 white paper - discover the insights!

100% hébergé sur le territoire Européen

Idéal pour vos applications IA nécessitant une faible latence, une confidentialité totale des données et une conformité à 100% avec la loi européenne sur l'IA.

Technologies interopérables

Pas besoin de réinventer la roue, de changer votre code ou de lire une documentation infinie. Votre librairie OpenAI actuelle ou le SDK de Langchain sont compatibles !

Excellent rapport coût-efficacité

Nos API seront facturées au million de tokens, à partir de 0,022 EUR, soit jusqu'à 10 fois moins cher que nos bien-aimés hyperscalers américains.

Tout le nécessaire pour créer des applications avec l'IA générative

Une expérience développeur simplifiée, et une IA performante.

Essayez les modèles gratuitement

Scaleway offre un bac à sable gratuit qui vous permet d'expérimenter rapidement différents modèles d'IA. Une fois satisfait des réponses, il suffit d'exporter le code fourni et de reproduire à l'échelle !

Se connecter au bac à sable Generative APIs

Team open weight

Scaleway supporte activement la distribution des meilleurs modèles open weight ou open source, dont les performances en matière de raisonnement et de fonctionnalités rivalisent désormais avec celles de modèles propriétaires tels que GPTx ou Claude.

Voir les modèles supportés

Très faible latence

Les utilisateurs finaux en Europe vont apprécier un temps de réponse inférieur à 200 ms pour obtenir les premiers tokens, idéal pour des dialogues interactifs et des applications agentiques, même lorsque le contexte est très long.

Envoyez votre première requête API

Outputs structurés

Notre mode JSON ou notre schéma JSON intégrés peuvent transformer les divers résultats non structurés des LLM en données structurées exploitables, particulièrement fiables et lisibles par une machine.

Comment utiliser des outputs structurés

Appels de fonctions

Les modèles d'IA générative servis par Scaleway peuvent se connecter à des outils externes. Intégrez les LLM avec des fonctions personnalisées ou des API, et créez facilement des applications capables de s'interfacer avec des systèmes externes.

Comment utiliser les appels de fonctions

Prêt pour la production

Passez du prototype IA à la production avec une plateforme conçue pour l'échelle. La stack d'inférence de Scaleway fonctionne sur une infrastructure fiable et hautement sécurisée à Paris. Pas mal non ? C'est français.

Lire nos mesures de sécurité

Pour une IA souveraine où vos données restent à vous, et uniquement en Europe.

Conçu pour remplacer directement les API d'OpenAI

# Import modules
from openai import OpenAI
import os

# Initialize the OpenAI client using Scaleway
client = OpenAI(
    api_key=os.environ.get("SCW_API_KEY"),
    base_url='https://api.scaleway.ai/v1' 
)

# Create a chat completion request
completion = client.chat.completions.create(
    messages=[
        {
            'role': 'user',
            'content': 'Sing me a song about Xavier Niel'
        }
    ],
    model='mistral-nemo-instruct-2407'
)

Commencez avec des tutoriels

Foire aux questions

Qu'est ce que Scaleway Generative APIs ?

Generative APIs est un service donnant accès à des modèles d'IA d'avant-garde, issus de laboratoires de recherche de premier plan, via un simple appel d'API.

Comment puis-je accéder à Scaleway Generative APIs ?

L'accès à ce service est ouvert à tous les clients Scaleway. Vous pouvez accéder aux modèles par le bac à sable en ligne et par API, voir ici le guide d'accès pour commencer rapidement.

Quelle est la tarification de Scaleway Generative APIs ?

Ce service est totalement gratuit pendant son accès bêta. Une fois en disponibilité générale, les APIs seront avec une tarification "pay-as-you-go", c'est à dire payable au tokens, votre consommation sera facturée par million de tokens.

Où sont situés les serveurs d'inférence de Scaleway ?

Nous hébergeons actuellement tous les modèles d'IA dans un centre de données sécurisé situé en France, à Paris uniquement. Cette situation pourrait changer à l'avenir, fonction de vos besoins.

Est-ce que je peux utiliser les librairies d'OpenAI ?

Scaleway vous permet d'effectuer une transition sans couture pour vos applications qui utilisent déjà OpenAI. Vous pouvez utiliser n'importe laquelle des bibliothèques officielles OpenAI, par exemple le client OpenAI Python ou le SDK Azure OpenAI, pour interagir avec les APIs Scaleway. Vous trouverez ici les API et les paramètres pris en charge par ce service.

Quelle est la différence avec Scaleway Managed Inference ?
  • Scaleway Generative APIs est un service serverless, vous n'avez pas besoin de créer de déploiement sur des GPUs. C'est probablement la façon la plus simple de commencer : Nous avons tout pré-configuré, de sorte que vous ne payez que par millions de tokens consommés, et vous n'attendez pas le démarrage.

  • Scaleway Managed Inference est destiné à déployer des modèles sélectionnés (ou vos propres modèles issus de Hugging Face), avec la quantification et les instances de votre choix. Vous obtiendrez un débit prévisible, et un niveau de sécurité renforcé : isolation de vos applications dans votre réseau privé, contrôle d'accès par IP...

Ces deux services d'IA proposent des modèles de languages et multimodaux (compréhension d'images), la compatibilité avec OpenAI et des fonctionnalités importantes telles que des outputs structurés.

Cette page est terminée, mais les possibilités offertes par l'IA sont illimitées.

Wire (2).png