Tipo: Framework ou plataformaCaminho principal: compatível com OpenAI por padrãoNível de suporte: Padrão de integração recomendado
Para o LemonData, o padrão mais estável no Vercel AI SDK é o fornecedor compatível com OpenAI.Se você precisar especificamente do comportamento nativo do Responses, pode mudar para o fornecedor OpenAI e manter a mesma URL de base do LemonData.Esta página deve ser lida como um padrão de integração recomendado, e não como uma afirmação de que cada utilitário do Vercel AI SDK tenha cobertura de ponta a ponta dedicada neste repositório.
import { generateText } from 'ai';import { lemondata } from './lemondata';const { text } = await generateText({ model: lemondata.chatModel('gpt-5.4'), prompt: 'Explain LemonData in one sentence.',});console.log(text);
import { streamText } from 'ai';import { lemondata } from './lemondata';const result = await streamText({ model: lemondata.chatModel('gpt-5.4'), prompt: 'Write a short poem about coding.',});for await (const textPart of result.textStream) { process.stdout.write(textPart);}
import { generateText } from 'ai';import { lemondataResponses } from './lemondata-responses';const { text } = await generateText({ model: lemondataResponses('gpt-5.4'), prompt: 'Explain LemonData in one sentence.',});
Use @ai-sdk/openai-compatible como padrão seguro para integrações no estilo proxy. Mude para @ai-sdk/openai apenas quando você quiser explicitamente um caminho de fornecedor construído sobre /v1/responses.
Para passagens de terceiros e servidores proxy, @ai-sdk/openai-compatible geralmente é o ponto de partida menos surpreendente.
Mude para Responses apenas quando necessário
Se você precisar de um comportamento de fornecedor vinculado a /v1/responses, troque deliberadamente o pacote do fornecedor em vez de misturar os dois padrões em um único client.
Mantenha os segredos no servidor
Nunca exponha sua chave de API do LemonData em código do lado do client. Coloque a configuração do fornecedor em arquivos de servidor ou rotas de API.