Chat Completions
POST /v1/chat/completions est l’endpoint chat compatible OpenAI pour les SDKs, clients HTTP et outils qui parlent déjà Chat Completions.
À utiliser quand
- Ton app utilise déjà le format OpenAI Chat Completions.
- Tu veux le comportement standard
messages,tools,tool_choiceoustream. - Tu veux la compatibilité la plus large avec les SDKs style OpenAI.
Exemples de code
curl https://api.prismaticapi.com/v1/chat/completions \
-H "Authorization: Bearer $PRISMATIC_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "claude-sonnet-4-6",
"messages": [
{ "role": "system", "content": "You are a concise release assistant." },
{ "role": "user", "content": "Write three product taglines." }
],
"stream": false,
"max_tokens": 400
}'import OpenAI from "openai";
const client = new OpenAI({
apiKey: process.env.PRISMATIC_API_KEY,
baseURL: "https://api.prismaticapi.com/v1"
});
const completion = await client.chat.completions.create({
model: "claude-sonnet-4-6",
messages: [{ role: "user", content: "Write three product taglines." }],
max_tokens: 400
});import os
from openai import OpenAI
client = OpenAI(
api_key=os.environ["PRISMATIC_API_KEY"],
base_url="https://api.prismaticapi.com/v1",
)
completion = client.chat.completions.create(
model="claude-sonnet-4-6",
messages=[{"role": "user", "content": "Write three product taglines."}],
max_tokens=400,
)Paramètres
model(string, requis) — ID modèle public retourné parGET /v1/models.messages(array, requis) — Tours de conversation avecroleetcontent.max_tokensoumax_completion_tokens(integer, optionnel) — Maximum de tokens output générés.stream(boolean, optionnel) — Active le streaming SSE style OpenAI.temperature,top_p,stop,toolsettool_choicesont acceptés quand le modèle sélectionné les supporte.
Billing et limites
- Les rate limits clé API et compte sont vérifiées avant génération.
- Le quota abonnement est réservé avant génération puis settlé ensuite.
- Le fallback PAYG peut couvrir la requête uniquement s’il est activé et suffisamment crédité.