Chuyển đến nội dung chính

Tổng quan

Loại: Framework hoặc nền tảngĐường chính: đường OpenAI-compatible mặc địnhMức hỗ trợ: Mẫu tích hợp được khuyến nghị
Đối với LemonData, lựa chọn mặc định ổn định nhất trong Vercel AI SDK là nhà cung cấp tương thích OpenAI. Nếu bạn cần cụ thể hành vi Responses native, bạn có thể chuyển sang nhà cung cấp OpenAI và giữ nguyên URL cơ sở của LemonData. Trang này nên được hiểu là một mẫu tích hợp được khuyến nghị, chứ không phải tuyên bố rằng mọi helper trong Vercel AI SDK đều có kiểm thử đầu-cuối chuyên biệt trong repo này.

Mặc định được khuyến nghị: Nhà cung cấp tương thích OpenAI

npm install ai @ai-sdk/openai-compatible
import { createOpenAICompatible } from '@ai-sdk/openai-compatible';

export const lemondata = createOpenAICompatible({
  name: 'lemondata',
  apiKey: process.env.LEMONDATA_API_KEY,
  baseURL: 'https://api.lemondata.cc/v1',
});

Tạo văn bản

import { generateText } from 'ai';
import { lemondata } from './lemondata';

const { text } = await generateText({
  model: lemondata.chatModel('gpt-5.4'),
  prompt: 'Explain LemonData in one sentence.',
});

console.log(text);

Stream văn bản

import { streamText } from 'ai';
import { lemondata } from './lemondata';

const result = await streamText({
  model: lemondata.chatModel('gpt-5.4'),
  prompt: 'Write a short poem about coding.',
});

for await (const textPart of result.textStream) {
  process.stdout.write(textPart);
}

Gọi công cụ

import { generateText, tool } from 'ai';
import { z } from 'zod';
import { lemondata } from './lemondata';

const result = await generateText({
  model: lemondata.chatModel('gpt-5.4'),
  prompt: 'What is the weather in San Francisco?',
  tools: {
    weather: tool({
      description: 'Get weather in a location',
      parameters: z.object({
        location: z.string(),
      }),
      execute: async ({ location }) => ({
        location,
        temperature: 72,
        condition: 'sunny',
      }),
    }),
  },
});

console.log(result.text);

Đầu ra có cấu trúc

import { generateObject } from 'ai';
import { z } from 'zod';
import { lemondata } from './lemondata';

const { object } = await generateObject({
  model: lemondata.chatModel('gpt-5.4'),
  schema: z.object({
    name: z.string(),
    role: z.string(),
  }),
  prompt: 'Generate a fake developer profile.',
});

console.log(object);

Nếu bạn thực sự cần hành vi Responses-native

npm install ai @ai-sdk/openai
import { createOpenAI } from '@ai-sdk/openai';

export const lemondataResponses = createOpenAI({
  apiKey: process.env.LEMONDATA_API_KEY,
  baseURL: 'https://api.lemondata.cc/v1',
});
import { generateText } from 'ai';
import { lemondataResponses } from './lemondata-responses';

const { text } = await generateText({
  model: lemondataResponses('gpt-5.4'),
  prompt: 'Explain LemonData in one sentence.',
});
Sử dụng @ai-sdk/openai-compatible làm lựa chọn mặc định an toàn cho các tích hợp kiểu proxy. Chỉ chuyển sang @ai-sdk/openai khi bạn thực sự muốn đường dẫn nhà cung cấp được xây dựng trên /v1/responses.

Biến môi trường

# .env.local
LEMONDATA_API_KEY=sk-your-lemondata-key

Thực tiễn tốt nhất

Đối với các cổng bên thứ ba và backend proxy, @ai-sdk/openai-compatible thường là điểm khởi đầu ít gây nhầm lẫn nhất.
Nếu bạn cần hành vi nhà cung cấp gắn với /v1/responses, hãy chủ động chuyển package nhà cung cấp thay vì trộn cả hai mẫu trong cùng một client.
Không bao giờ để lộ API key LemonData trong code phía client. Hãy đặt phần thiết lập nhà cung cấp trong các file server hoặc API routes.