請求主體 (Request Body)
組成對話的訊息列表。每個訊息物件包含:
role (string):system、user 或 assistant
content (string | array):訊息內容
介於 0 到 2 之間的取樣溫度。較高的數值會使輸出更具隨機性。
若為 true,部分訊息增量將以 SSE 事件形式發送。
串流選項。設置 include_usage: true 以在串流區塊中接收 token 使用情況。
核取樣 (Nucleus sampling) 參數。我們建議調整此參數或 temperature,而非兩者同時調整。
介於 -2.0 到 2.0 之間的數值。正值會懲罰重複的 token。
介於 -2.0 到 2.0 之間的數值。正值會懲罰已在文本中出現過的 token。
最多 4 個序列,API 將在這些序列處停止生成 token。
模型可能呼叫的工具列表 (function calling)。
控制模型如何使用工具。選項:auto、none、required 或特定的工具物件。
是否啟用並行函式呼叫。設置為 false 則按順序呼叫函式。
補全的最大 token 數量。max_tokens 的替代方案,建議用於 o1/o3 等較新的模型。
o1/o3 模型的推理強度。選項:low、medium、high。
是否返回對數機率 (log probabilities)。
要返回的前幾個對數機率數量 (0-20)。需要設置 logprobs: true。
Top-K 取樣參數(適用於 Anthropic/Gemini 模型)。
回應格式規範。使用 {"type": "json_object"} 開啟 JSON 模式,或使用 {"type": "json_schema", "json_schema": {...}} 進行結構化輸出。
修改指定 token 出現的可能性。將 token ID(字串形式)映射到 -100 到 100 之間的偏差值。
LemonData 快取控制選項。
type (string):快取策略 - default、no_cache、no_store、response_only、semantic_only
max_age (integer):快取存活時間 (TTL),以秒為單位(最大 86400)
回應 (Response)
補全選項列表。每個選項包含:
index (integer):選項索引
message (object):生成的訊息
finish_reason (string):模型停止的原因 (stop、length、tool_calls)
Token 使用統計。
prompt_tokens (integer):提示詞中的 token 數量
completion_tokens (integer):補全中的 token 數量
total_tokens (integer):使用的總 token 數量
curl -X POST "https://api.lemondata.cc/v1/chat/completions" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-4o",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Hello!"}
],
"temperature": 0.7,
"max_tokens": 1000
}'
{
"id": "chatcmpl-abc123",
"object": "chat.completion",
"created": 1706000000,
"model": "gpt-4o",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "Hello! How can I help you today?"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 20,
"completion_tokens": 9,
"total_tokens": 29
}
}