100% hébergé sur le territoire Européen
Idéal pour vos applications IA nécessitant une faible latence, une confidentialité totale des données et une conformité à 100% avec la loi européenne sur l'IA.
Accès par API aux derniers modèles d'Intelligence Artificielle.
Idéal pour vos applications IA nécessitant une faible latence, une confidentialité totale des données et une conformité à 100% avec la loi européenne sur l'IA.
Pas besoin de réinventer la roue, de changer votre code ou de lire une documentation infinie. Votre librairie OpenAI actuelle ou le SDK de Langchain sont compatibles !
Nos API seront facturées au million de tokens, à partir de 0,022 EUR, soit jusqu'à 10 fois moins cher que nos bien-aimés hyperscalers américains.
Fournissez des informations actualisées à votre modèle d'IA génératif à l'aide de la technique Retrieval-Augmented Generation (RAG). Récupérez des données à partir de sources de données d'entreprise et à enrichissez vos prompts avec. Vous obtiendrez des réponses plus pertinentes et plus précises.
La RAG est facile avec Scaleway : embeddings, base de données vectorielles, Langchain - nous avons tout prévu. Voir votre guide étape par étape.
Scaleway Generative APIs permettent aux modèles d'effectuer des tâches en plusieurs étapes à l'aide des systèmes ou des sources de données de votre organisation. Qu'il s'agisse de répondre aux demandes des clients sur l'état d'une livraison ou de traiter des réservations, ces modèles peuvent bénéficier d'un accès sécurisé à vos services par le biais de fonctions serverless. Un agent autonome interprète la demande de l'utilisateur et déclenche automatiquement les API et les bases de données nécessaires à la réalisation de la tâche.
Opérer des assistants multimodaux basés sur le language (copilote, chatbot, etc.): ils comprennent les demandes des utilisateurs, décomposent automatiquement les tâches, engagent un dialogue pour recueillir plus d'informations et augmentent la productivité pour de très nombreuses tâches. Les plus courantes: Traduire, résumer, analyser, créer..., etc.
Les modèles OCR traditionnels ont du mal avec les tâches nécessitant la compréhension à la fois du texte et des visuels, mais les modèles multimodaux vision-langage (VLM) disponibles via Scaleway comblent cette lacune. Les VLM sont parfaits pour des fichiers comme les documents scannés et les diagrammes techniques. Un outil puissant pour le traitement de contenu mixte.
Analyser des enregistrements d'appels/vidéos en toute sécurité afin d'identifier les besoins, l'humeur, les risques et les sujets clés. Les capacités de synthèse vocale offertes par APIs, combinées à de puissants LLM, aident déjà les géants des télécommunications en Europe à améliorer la qualité de leurs services tout en fournissant aux agents du support client des informations extrêmement précieuses.
Scaleway offre un bac à sable gratuit qui vous permet d'expérimenter rapidement différents modèles d'IA. Une fois satisfait des réponses, il suffit d'exporter le code fourni et de reproduire à l'échelle !
Scaleway supporte activement la distribution des meilleurs modèles open weight ou open source, dont les performances en matière de raisonnement et de fonctionnalités rivalisent désormais avec celles de modèles propriétaires tels que GPTx ou Claude.
Les utilisateurs finaux en Europe vont apprécier un temps de réponse inférieur à 200 ms pour obtenir les premiers tokens, idéal pour des dialogues interactifs et des applications agentiques, même lorsque le contexte est très long.
Notre mode JSON ou notre schéma JSON intégrés peuvent transformer les divers résultats non structurés des LLM en données structurées exploitables, particulièrement fiables et lisibles par une machine.
Les modèles d'IA générative servis par Scaleway peuvent se connecter à des outils externes. Intégrez les LLM avec des fonctions personnalisées ou des API, et créez facilement des applications capables de s'interfacer avec des systèmes externes.
Passez du prototype IA à la production avec une plateforme conçue pour l'échelle. La stack d'inférence de Scaleway fonctionne sur une infrastructure fiable et hautement sécurisée à Paris. Pas mal non ? C'est français.
Sécurité et confidentialité de vos données et applications
Nous ne collectons pas, ne lisons pas, ne réutilisons pas le contenu de vos requêtes, prompts ou outputs générés par les API. Pourquoi le ferions-nous ?
# Import modules
from openai import OpenAI
import os
# Initialize the OpenAI client using Scaleway
client = OpenAI(
api_key=os.environ.get("SCW_API_KEY"),
base_url='https://api.scaleway.ai/v1'
)
# Create a chat completion request
completion = client.chat.completions.create(
messages=[
{
'role': 'user',
'content': 'Sing me a song about Xavier Niel'
}
],
model='mistral-nemo-instruct-2407'
)
Generative APIs est un service donnant accès à des modèles d'IA d'avant-garde, issus de laboratoires de recherche de premier plan, via un simple appel d'API.
L'accès à ce service est ouvert à tous les clients Scaleway. Vous pouvez accéder aux modèles par le bac à sable en ligne et par API, voir ici le guide d'accès pour commencer rapidement.
Ce service est totalement gratuit pendant son accès bêta. Une fois en disponibilité générale, les APIs seront avec une tarification "pay-as-you-go", c'est à dire payable au tokens, votre consommation sera facturée par million de tokens.
Nous hébergeons actuellement tous les modèles d'IA dans un centre de données sécurisé situé en France, à Paris uniquement. Cette situation pourrait changer à l'avenir, fonction de vos besoins.
Scaleway vous permet d'effectuer une transition sans couture pour vos applications qui utilisent déjà OpenAI. Vous pouvez utiliser n'importe laquelle des bibliothèques officielles OpenAI, par exemple le client OpenAI Python ou le SDK Azure OpenAI, pour interagir avec les APIs Scaleway. Vous trouverez ici les API et les paramètres pris en charge par ce service.
Scaleway Generative APIs est un service serverless, vous n'avez pas besoin de créer de déploiement sur des GPUs. C'est probablement la façon la plus simple de commencer : Nous avons tout pré-configuré, de sorte que vous ne payez que par millions de tokens consommés, et vous n'attendez pas le démarrage.
Scaleway Managed Inference est destiné à déployer des modèles sélectionnés (ou vos propres modèles issus de Hugging Face), avec la quantification et les instances de votre choix. Vous obtiendrez un débit prévisible, et un niveau de sécurité renforcé : isolation de vos applications dans votre réseau privé, contrôle d'accès par IP...
Ces deux services d'IA proposent des modèles de languages et multimodaux (compréhension d'images), la compatibilité avec OpenAI et des fonctionnalités importantes telles que des outputs structurés.