Isi Permintaan
Daftar pesan yang membentuk percakapan.Setiap objek pesan berisi:
role(string):system,user, atauassistantcontent(string | array): Konten pesan
content adalah array, LemonData mendukung blok multimodal terstruktur untuk model yang kompatibel:- text:
{ "type": "text", "text": "..." } - image:
{ "type": "image_url", "image_url": { "url": "https://..." } } - video:
{ "type": "video_url", "video_url": { "url": "https://..." } } - audio:
{ "type": "audio_url", "audio_url": { "url": "https://..." } }
https. LemonData akan menerjemahkan blok media ini ke bentuk permintaan spesifik provider yang diperlukan oleh model fisik yang diarahkan.Temperatur sampling antara 0 dan 2. Nilai yang lebih tinggi membuat keluaran lebih acak.
Jumlah maksimum token yang akan dihasilkan.
Jika true, delta pesan parsial akan dikirim sebagai event SSE.
Opsi untuk streaming. Setel
include_usage: true untuk menerima pemakaian token dalam potongan stream.Parameter nucleus sampling. Kami menyarankan mengubah ini atau temperature, bukan keduanya.
Angka antara -2.0 dan 2.0. Nilai positif memberi penalti pada token yang berulang.
Angka antara -2.0 dan 2.0. Nilai positif memberi penalti pada token yang sudah ada di teks.
Hingga 4 urutan di mana API akan berhenti menghasilkan token.
Daftar tools yang mungkin dipanggil model (pemanggilan fungsi).
Mengontrol bagaimana model menggunakan tools. Opsi:
auto, none, required, atau objek tool tertentu.Menentukan apakah pemanggilan fungsi paralel diaktifkan. Setel ke false untuk memanggil fungsi secara berurutan.
Token maksimum untuk penyelesaian. Alternatif untuk
max_tokens, berguna untuk keluarga model terbaru yang mendukung reasoning.Tingkat usaha reasoning untuk model yang mendukung reasoning. Opsi:
low, medium, high.Seed acak untuk sampling deterministik.
Jumlah penyelesaian yang akan dihasilkan (1-128).
Apakah akan mengembalikan log probabilitas.
Jumlah top log probabilitas yang dikembalikan (0-20). Memerlukan
logprobs: true.Parameter Top-K sampling (untuk model Anthropic/Gemini).
Spesifikasi format respons. Gunakan
{"type": "json_object"} untuk mode JSON. Perlakukan {"type": "json_schema", "json_schema": {...}} sebagai jalur best-effort yang bergantung pada model yang dipilih dan perilaku routing.Mengubah kemungkinan token tertentu muncul. Pemetaan ID token (sebagai string) ke nilai bias dari -100 sampai 100.
Identifier unik yang merepresentasikan pengguna akhir Anda untuk pemantauan penyalahgunaan.
Opsi kontrol cache LemonData.
type(string): Strategi cache -default,no_cache,no_store,response_only,semantic_onlymax_age(integer): TTL cache dalam detik (maks 86400)
Respons
Pengidentifikasi unik untuk penyelesaian.
Selalu
chat.completion.Timestamp Unix saat penyelesaian dibuat.
Model yang digunakan untuk penyelesaian.
Daftar pilihan penyelesaian.Setiap pilihan berisi:
index(integer): Indeks pilihanmessage(object): Pesan yang dihasilkanfinish_reason(string): Alasan model berhenti (stop,length,tool_calls)
Statistik penggunaan token.
prompt_tokens(integer): Token dalam promptcompletion_tokens(integer): Token dalam penyelesaiantotal_tokens(integer): Total token yang digunakan