Corpo da Requisição
Uma lista de mensagens que compõem a conversa.Cada objeto de mensagem contém:
role(string):system,userouassistantcontent(string | array): O conteúdo da mensagem
content é um array, a LemonData dá suporte a blocos multimodais estruturados para modelos compatíveis:- text:
{ "type": "text", "text": "..." } - image:
{ "type": "image_url", "image_url": { "url": "https://..." } } - video:
{ "type": "video_url", "video_url": { "url": "https://..." } } - audio:
{ "type": "audio_url", "audio_url": { "url": "https://..." } }
https. LemonData irá traduzir esses blocos de mídia para a forma de requisição específica do provedor exigida pelo modelo físico roteado.Temperatura de amostragem entre 0 e 2. Valores mais altos tornam a saída mais aleatória.
Número máximo de tokens a serem gerados.
Se
true, deltas parciais da mensagem serão enviados como eventos SSE.Opções para streaming. Defina
include_usage: true para receber uso de tokens em chunks do stream.Parâmetro de amostragem Nucleus. Recomendamos alterar este ou
temperature, não ambos.Número entre -2.0 e 2.0. Valores positivos penalizam tokens repetidos.
Número entre -2.0 e 2.0. Valores positivos penalizam tokens já presentes no texto.
Até 4 sequências nas quais a API irá parar de gerar tokens.
Uma lista de ferramentas que o modelo pode chamar (chamada de função).
Controla como o modelo usa ferramentas. Opções:
auto, none, required, ou um objeto de ferramenta específico.Se deve habilitar chamadas de função em paralelo. Defina como
false para chamar funções sequencialmente.Máximo de tokens para a conclusão. Alternativa a
max_tokens, útil para famílias de modelos mais novas com suporte a raciocínio.Esforço de raciocínio para modelos com suporte a raciocínio. Opções:
low, medium, high.Semente aleatória para amostragem determinística.
Número de conclusões a gerar (1-128).
Se deve retornar probabilidades logarítmicas.
Número das maiores probabilidades logarítmicas a retornar (0-20). Requer
logprobs: true.Parâmetro de amostragem Top-K (para modelos Anthropic/Gemini).
Especificação do formato de resposta. Use
{"type": "json_object"} para o modo JSON. Trate {"type": "json_schema", "json_schema": {...}} como um caminho de melhor esforço que depende do modelo selecionado e do comportamento roteado.Modifique a probabilidade de tokens especificados aparecerem. Mapeie IDs de tokens (como strings) para valores de bias de -100 a 100.
Um identificador único representando seu usuário final para monitoramento de abuso.
Opções de controle de cache da LemonData.
type(string): Estratégia de cache -default,no_cache,no_store,response_only,semantic_onlymax_age(integer): TTL do cache em segundos (máx 86400)
Resposta
Identificador único para a conclusão.
Sempre
chat.completion.Timestamp Unix de quando a conclusão foi criada.
O modelo usado para a conclusão.
Lista de opções de conclusão.Cada opção contém:
index(integer): Índice da escolhamessage(object): A mensagem geradafinish_reason(string): Por que o modelo parou (stop,length,tool_calls)
Estatísticas de uso de tokens.
prompt_tokens(integer): Tokens no promptcompletion_tokens(integer): Tokens na conclusãototal_tokens(integer): Total de tokens usados