Saltar para o conteúdo principal

Visão geral

Streaming permite que você receba saída parcial à medida que ela é gerada, o que melhora a latência percebida e a experiência do usuário. Para novas integrações no estilo OpenAI, prefira primeiro Responses streaming. Se o seu framework ainda usa streaming de Chat Completions, a LemonData também oferece suporte a esse caminho de compatibilidade.

Recomendado: Responses Streaming

curl https://api.lemondata.cc/v1/responses \
  -H "Authorization: Bearer sk-your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-5.4",
    "input": "Write a short poem.",
    "stream": true
  }'

Streaming de Chat Completions

Se o seu framework ainda espera chunks SSE de /v1/chat/completions, isso também funciona:
stream = client.chat.completions.create(
    model="gpt-4o",
    messages=[{"role": "user", "content": "Write a short poem"}],
    stream=True
)

for chunk in stream:
    content = chunk.choices[0].delta.content
    if content:
        print(content, end="", flush=True)

Condições de término do stream

Condições típicas de conclusão:
  • response.completed para streams da Responses API
  • finish_reason: "stop" para streams de Chat Completions
  • finish_reason: "length" quando um limite de token é atingido
  • eventos de chamada de tool/function quando o modelo deseja usar tools

Padrão para aplicação web

async function streamChat(message) {
  const response = await fetch('https://api.lemondata.cc/v1/chat/completions', {
    method: 'POST',
    headers: {
      'Authorization': 'Bearer sk-your-api-key',
      'Content-Type': 'application/json'
    },
    body: JSON.stringify({
      model: 'gpt-4o',
      messages: [{ role: 'user', content: message }],
      stream: true
    })
  });

  const reader = response.body.getReader();
  const decoder = new TextDecoder();

  while (true) {
    const { done, value } = await reader.read();
    if (done) break;

    const chunk = decoder.decode(value);
    const lines = chunk.split('\\n').filter(line => line.startsWith('data: '));

    for (const line of lines) {
      const data = line.slice(6);
      if (data === '[DONE]') return;
      const parsed = JSON.parse(data);
      const content = parsed.choices?.[0]?.delta?.content;
      if (content) {
        document.getElementById('output').textContent += content;
      }
    }
  }
}

Boas práticas

Use /v1/responses se o seu SDK ou app já oferecer suporte a ele. Mantenha o streaming de /v1/chat/completions para integrações orientadas por compatibilidade.
Acrescente chunks delta à UI ou ao terminal à medida que eles chegarem, em vez de esperar pela resposta completa.
Considere quedas de rede e desconexões upstream como modos normais de falha e reconecte com cuidado em sessões de longa duração.