跳轉到主要內容
POST
/
v1
/
chat
/
completions
curl -X POST "https://api.lemondata.cc/v1/chat/completions" \
  -H "Authorization: Bearer sk-your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4o",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Hello!"}
    ],
    "temperature": 0.7,
    "max_tokens": 1000
  }'
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1706000000,
  "model": "gpt-4o",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I help you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 20,
    "completion_tokens": 9,
    "total_tokens": 29
  }
}

請求主體 (Request Body)

model
string
必填
要使用的模型 ID。請參閱 Models 以查看可用選項。
messages
array
必填
組成對話的訊息列表。每個訊息物件包含:
  • role (string):systemuserassistant
  • content (string | array):訊息內容
temperature
number
預設值:"1"
介於 0 到 2 之間的取樣溫度。較高的數值會使輸出更具隨機性。
max_tokens
integer
要生成的最大 token 數量。
stream
boolean
預設值:"false"
若為 true,部分訊息增量將以 SSE 事件形式發送。
stream_options
object
串流選項。設置 include_usage: true 以在串流區塊中接收 token 使用情況。
top_p
number
預設值:"1"
核取樣 (Nucleus sampling) 參數。我們建議調整此參數或 temperature,而非兩者同時調整。
frequency_penalty
number
預設值:"0"
介於 -2.0 到 2.0 之間的數值。正值會懲罰重複的 token。
presence_penalty
number
預設值:"0"
介於 -2.0 到 2.0 之間的數值。正值會懲罰已在文本中出現過的 token。
stop
string | array
最多 4 個序列,API 將在這些序列處停止生成 token。
tools
array
模型可能呼叫的工具列表 (function calling)。
tool_choice
string | object
控制模型如何使用工具。選項:autononerequired 或特定的工具物件。
parallel_tool_calls
boolean
預設值:"true"
是否啟用並行函式呼叫。設置為 false 則按順序呼叫函式。
max_completion_tokens
integer
補全的最大 token 數量。max_tokens 的替代方案,建議用於 o1/o3 等較新的模型。
reasoning_effort
string
o1/o3 模型的推理強度。選項:lowmediumhigh
seed
integer
用於確定性取樣的隨機種子。
n
integer
預設值:"1"
要生成的補全數量 (1-128)。
logprobs
boolean
是否返回對數機率 (log probabilities)。
top_logprobs
integer
要返回的前幾個對數機率數量 (0-20)。需要設置 logprobs: true
top_k
integer
Top-K 取樣參數(適用於 Anthropic/Gemini 模型)。
response_format
object
回應格式規範。使用 {"type": "json_object"} 開啟 JSON 模式,或使用 {"type": "json_schema", "json_schema": {...}} 進行結構化輸出。
logit_bias
object
修改指定 token 出現的可能性。將 token ID(字串形式)映射到 -100 到 100 之間的偏差值。
user
string
代表您終端用戶的唯一識別碼,用於濫用監控。
cache_control
object
LemonData 快取控制選項。
  • type (string):快取策略 - defaultno_cacheno_storeresponse_onlysemantic_only
  • max_age (integer):快取存活時間 (TTL),以秒為單位(最大 86400)

回應 (Response)

id
string
補全的唯一識別碼。
object
string
始終為 chat.completion
created
integer
補全建立時的 Unix 時間戳記。
model
string
用於補全的模型。
choices
array
補全選項列表。每個選項包含:
  • index (integer):選項索引
  • message (object):生成的訊息
  • finish_reason (string):模型停止的原因 (stoplengthtool_calls)
usage
object
Token 使用統計。
  • prompt_tokens (integer):提示詞中的 token 數量
  • completion_tokens (integer):補全中的 token 數量
  • total_tokens (integer):使用的總 token 數量
curl -X POST "https://api.lemondata.cc/v1/chat/completions" \
  -H "Authorization: Bearer sk-your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4o",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Hello!"}
    ],
    "temperature": 0.7,
    "max_tokens": 1000
  }'
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1706000000,
  "model": "gpt-4o",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I help you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 20,
    "completion_tokens": 9,
    "total_tokens": 29
  }
}