リクエストボディ
使用するモデルの ID。利用可能なオプションについては Models を参照してください。
会話を構成するメッセージのリスト。各メッセージオブジェクトには以下が含まれます:
role (string): system、user、または assistant
content (string | array): メッセージの内容
0 から 2 の間のサンプリング温度。値が高いほど出力がランダムになります。
true の場合、メッセージの部分的な差分が SSE イベントとして送信されます。
ストリーミングのオプション。ストリームチャンクでトークン使用量を受け取るには include_usage: true を設定します。
核サンプリング(Nucleus sampling)パラメータ。これまたは temperature のいずれか一方のみを変更することをお勧めします。
-2.0 から 2.0 の間の数値。正の値は、繰り返されるトークンにペナルティを課します。
-2.0 から 2.0 の間の数値。正の値は、既にテキスト内に存在するトークンにペナルティを課します。
API がトークンの生成を停止する最大 4 つのシーケンス。
モデルが呼び出す可能性のあるツールのリスト(function calling)。
モデルがツールをどのように使用するかを制御します。オプション:auto、none、required、または特定のツールオブジェクト。
並列関数呼び出しを有効にするかどうか。関数を順次呼び出す場合は false に設定します。
補完の最大トークン数。max_tokens の代替であり、o1/o3 などの新しいモデルで推奨されます。
o1/o3 モデルの推論の取り組み(Reasoning effort)。オプション:low、medium、high。
返される上位の対数確率の数(0-20)。logprobs: true が必要です。
Top-K サンプリングパラメータ(Anthropic/Gemini モデル用)。
レスポンス形式の指定。JSON モードの場合は {"type": "json_object"} を、構造化出力の場合は {"type": "json_schema", "json_schema": {...}} を使用します。
特定のトークンが出現する可能性を変更します。トークン ID(文字列として)を -100 から 100 のバイアス値にマッピングします。
不正利用監視のためにエンドユーザーを表す一意の識別子。
LemonData のキャッシュ制御オプション。
type (string): キャッシュ戦略 - default、no_cache、no_store、response_only、semantic_only
max_age (integer): 秒単位のキャッシュ TTL(最大 86400)
レスポンス
補完の選択肢のリスト。各選択肢には以下が含まれます:
index (integer): 選択肢のインデックス
message (object): 生成されたメッセージ
finish_reason (string): モデルが停止した理由(stop、length、tool_calls)
トークン使用統計。
prompt_tokens (integer): プロンプト内のトークン数
completion_tokens (integer): 補完内のトークン数
total_tokens (integer): 使用された合計トークン数
curl -X POST "https://api.lemondata.cc/v1/chat/completions" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-4o",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Hello!"}
],
"temperature": 0.7,
"max_tokens": 1000
}'
{
"id": "chatcmpl-abc123",
"object": "chat.completion",
"created": 1706000000,
"model": "gpt-4o",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "Hello! How can I help you today?"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 20,
"completion_tokens": 9,
"total_tokens": 29
}
}