Zum Hauptinhalt springen

Überblick

Typ: Framework oder PlattformPrimärer Pfad: OpenAI-kompatibler StandardSupport-Niveau: Empfohlenes Integrationsmuster
Für LemonData ist der stabilste Standard im Vercel AI SDK der OpenAI-kompatible Anbieter. Wenn Sie ausdrücklich Responses-natives Verhalten benötigen, können Sie zum OpenAI-Anbieter wechseln und dieselbe LemonData-Base-URL beibehalten. Diese Seite sollte als empfohlene Integrationsform gelesen werden, nicht als Aussage darüber, dass jede Hilfsfunktion im Vercel AI SDK in diesem Repository durch dedizierte End-to-End-Regressionen abgedeckt ist.

Empfohlener Standard: OpenAI-kompatibler Anbieter

npm install ai @ai-sdk/openai-compatible
import { createOpenAICompatible } from '@ai-sdk/openai-compatible';

export const lemondata = createOpenAICompatible({
  name: 'lemondata',
  apiKey: process.env.LEMONDATA_API_KEY,
  baseURL: 'https://api.lemondata.cc/v1',
});

Text generieren

import { generateText } from 'ai';
import { lemondata } from './lemondata';

const { text } = await generateText({
  model: lemondata.chatModel('gpt-5.4'),
  prompt: 'Explain LemonData in one sentence.',
});

console.log(text);

Text streamen

import { streamText } from 'ai';
import { lemondata } from './lemondata';

const result = await streamText({
  model: lemondata.chatModel('gpt-5.4'),
  prompt: 'Write a short poem about coding.',
});

for await (const textPart of result.textStream) {
  process.stdout.write(textPart);
}

Tool-Aufrufe

import { generateText, tool } from 'ai';
import { z } from 'zod';
import { lemondata } from './lemondata';

const result = await generateText({
  model: lemondata.chatModel('gpt-5.4'),
  prompt: 'What is the weather in San Francisco?',
  tools: {
    weather: tool({
      description: 'Get weather in a location',
      parameters: z.object({
        location: z.string(),
      }),
      execute: async ({ location }) => ({
        location,
        temperature: 72,
        condition: 'sunny',
      }),
    }),
  },
});

console.log(result.text);

Strukturierte Ausgabe

import { generateObject } from 'ai';
import { z } from 'zod';
import { lemondata } from './lemondata';

const { object } = await generateObject({
  model: lemondata.chatModel('gpt-5.4'),
  schema: z.object({
    name: z.string(),
    role: z.string(),
  }),
  prompt: 'Generate a fake developer profile.',
});

console.log(object);

Wenn Sie ausdrücklich Responses-natives Verhalten benötigen

npm install ai @ai-sdk/openai
import { createOpenAI } from '@ai-sdk/openai';

export const lemondataResponses = createOpenAI({
  apiKey: process.env.LEMONDATA_API_KEY,
  baseURL: 'https://api.lemondata.cc/v1',
});
import { generateText } from 'ai';
import { lemondataResponses } from './lemondata-responses';

const { text } = await generateText({
  model: lemondataResponses('gpt-5.4'),
  prompt: 'Explain LemonData in one sentence.',
});
Verwenden Sie @ai-sdk/openai-compatible als sicheren Standard für Integrationen im Proxy-Stil. Wechseln Sie nur dann zu @ai-sdk/openai, wenn Sie ausdrücklich einen Pfad wünschen, der auf /v1/responses basiert.

Umgebungsvariablen

# .env.local
LEMONDATA_API_KEY=sk-your-lemondata-key

Best Practices

Für Gateways von Drittanbietern und Proxy-Backends ist @ai-sdk/openai-compatible in der Regel der am wenigsten überraschende Ausgangspunkt.
Wenn Sie Verhalten benötigen, das an /v1/responses gebunden ist, wechseln Sie das Paket bewusst, anstatt beide Muster in einem Client zu vermischen.
Legen Sie Ihren LemonData API key niemals in clientseitigem Code offen. Platzieren Sie das Anbieter-Setup in Server-Dateien oder API-Routen.