跳转到主要内容

概览

LemonData 通过单一统一的 API 提供来自 11 个供应商的 69 多个视频生成模型。视频生成是异步的 —— 您提交请求并接收一个任务 ID,然后轮询结果。
模型列表会频繁更新。有关最新可用模型和定价,请访问 模型页面 或使用 Models API

异步工作流

import requests
import time

API_KEY = "sk-your-api-key"
BASE = "https://api.lemondata.cc/v1"
headers = {"Authorization": f"Bearer {API_KEY}"}

# 步骤 1:提交生成请求
resp = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "kling-v2.6-pro",
        "prompt": "A golden retriever running on a beach at sunset, cinematic 4K",
        "duration": 5,
        "aspect_ratio": "16:9"
    }
)
task_id = resp.json()["task_id"]

# 步骤 2:轮询结果
while True:
    status = requests.get(f"{BASE}/videos/generations/{task_id}", headers=headers).json()
    if status["status"] in ("completed", "succeeded"):
        print(f"Video URL: {status['video_url']}")
        break
    elif status["status"] == "failed":
        print(f"Failed: {status.get('error')}")
        break
    time.sleep(10)

模型能力矩阵

不同的模型擅长不同的任务。使用此矩阵为您的用例选择合适的模型。 图例:✅ 支持 | ❌ 不支持
系列供应商T2VI2V关键帧延长编辑最大时长
SoraOpenAI~20s
Kling快手10s
VeoGoogle8s
Seedance字节跳动10s
HailuoMiniMax6s
Wan阿里巴巴5s
RunwayRunway10s
LumaLuma5s
Vidu生数科技8s
GrokxAI~10s
HiggsfieldHiggsfield~5s

能力定义

  • T2V (文生视频):从文本提示词生成视频
  • I2V (图生视频):使用 image_urlimage 将静态图像动画化为视频
  • 关键帧:通过 start_image + end_image 控制起始和结束帧
  • 延长:延长现有视频的时长
  • 编辑:修改现有视频的特定方面

按系列划分的可用模型

Sora (OpenAI)

模型质量备注
sora-2标准默认模型,质量和速度平衡良好
sora-2-pro更高质量,生成时间较长
sora-2-characters标准专注于角色的生成

Kling (快手)

模型能力备注
kling-v2.6-proT2V最新一代,专业级质量
kling-v2.6-stdT2V最新一代,速度快
kling-v2.5-turbo-proT2VTurbo 速度,专业级质量
kling-v2.1-masterT2V/I2V大师级质量
kling-v2.1-proT2V/I2V专业级质量
kling-v2.1-standardT2V/I2V标准质量
kling-videoT2V/I2V基础模型
kling-video-extend延长延长现有视频
kling-video-o1-proT2VO1 推理,专业级质量
kling-video-o1-stdT2VO1 推理,标准质量
kling-effects特效应用视觉特效
kling-omni-videoT2VOmni 模型
kling-motion-controlT2V运动控制生成

Veo (Google)

模型质量备注
veo3.1标准Google 最新的视频模型
veo3.1-pro专业级质量
veo3.1-4k超高4K 分辨率输出
veo3.1-fast快速生成速度更快
veo3.1-fast-4k快速 + 4K快速生成并支持 4K 输出
veo3.1-components标准基于组件的生成
veo3标准前一代模型
veo3-pro前一代,专业级
veo3-fast快速前一代,快速

Seedance (字节跳动)

模型能力备注
seedance-2-0T2V/I2V/关键帧/延长/编辑最新,功能最全
seedance-1-5-proT2V/I2V前一代,专业级质量
seedance-1-0-proT2V/I2V第一代,专业级
seedance-1-0-pro-fastT2V/I2V第一代,快速
seedance-1-0-lite-t2vT2V轻量级文生视频
seedance-1-0-lite-i2vI2V轻量级图生视频
Seedance 2.0 支持最广泛的能力,包括多模态生视频、视频延长和视频编辑 —— 全部通过同一个 API 端点实现。

Hailuo (MiniMax)

模型质量备注
hailuo-2.3标准质量良好
hailuo-2.3-pro更高质量输出
hailuo-2.3-fast快速生成速度更快
hailuo-2.3-standard标准标准层级
video-01标准MiniMax video-01
video-01-live标准直播风格生成

Wan (阿里巴巴)

模型能力备注
wan-2.6T2V最新文生视频
wan2.6-i2vI2V最新图生视频
wan-2.5T2V前一代模型
wan2.5-i2v-previewI2V前一代 I2V 预览版
wan-2.2-plusT2V早期模型
vace-14bT2VVACE 架构

Runway

模型时长备注
runwayml-gen4-turbo-55s快速生成
runwayml-gen4-turbo-1010s更长的片段

Luma

模型能力备注
luma-video-apiT2V文生视频
luma-video-extend-api延长延长现有视频

Vidu (生数科技)

模型质量备注
viduq3-pro最新一代
viduq2-pro前一代,专业级
viduq2-pro-fast快速前一代,快速专业级
viduq2标准前一代,标准
viduq2-turbo快速Turbo 速度
vidu2.0标准基础模型

Grok (xAI)

模型备注
grok-video-3xAI 的视频生成模型
grok-video-3-10s10 秒变体

Higgsfield

模型备注
higgsfield-turbo最快,成本较低
higgsfield-standard标准质量
higgsfield-lite轻量级

使用示例

文生视频 (T2V)

最常见的用例。所有模型都支持此功能。
response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "veo3.1-pro",
        "prompt": "Aerial drone shot of a coastal city at golden hour, waves crashing against cliffs",
        "duration": 5,
        "aspect_ratio": "16:9",
        "resolution": "1080p"
    }
)

图生视频 (I2V)

使静态图像动起来。使用 image_url 传递 URL,或使用 image 传递 base64 数据。
# 使用图像 URL
response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "wan2.6-i2v",
        "prompt": "The person slowly turns and smiles at the camera",
        "image_url": "https://example.com/portrait.jpg"
    }
)

# 使用 base64 图像
import base64
with open("photo.jpg", "rb") as f:
    image_b64 = base64.b64encode(f.read()).decode()

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "kling-v2.1-master",
        "prompt": "Gentle wind blows through the scene",
        "image": f"data:image/jpeg;base64,{image_b64}"
    }
)

关键帧控制(起始 + 结束图像)

同时控制第一帧和最后一帧以实现精确过渡。目前由 Seedance 2.0 支持。
response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "seedance-2-0",
        "prompt": "Smooth transition from day to night, city lights gradually turning on",
        "start_image": "https://example.com/city-day.jpg",
        "end_image": "https://example.com/city-night.jpg",
        "duration": 5
    }
)

视频延长

延长现有视频的时长。请使用具有延长能力的模型。
response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "kling-video-extend",
        "prompt": "Continue the scene naturally",
        "image_url": "https://example.com/last-frame.jpg"
    }
)

参数参考

参数类型描述
modelstring模型 ID (默认: sora-2)
promptstring必填。 视频的文本描述
image_urlstring起始图像的 URL (用于 I2V)
imagestring带有数据 URL 前缀的 Base64 编码图像 (用于 I2V)
durationinteger视频时长,单位为秒 (1-60,取决于模型)
aspect_ratiostring16:9, 9:16, 1:1
resolutionstring1080p, 720p, 4k
fpsinteger每秒帧数 (1-120)
negative_promptstring生成中需要避免的内容
seedinteger用于可复现性的随机种子
cfg_scalenumber引导比例 (0-20)
motion_strengthnumber运动强度 (0-1)
start_imagestring起始关键帧的 URL
end_imagestring结束关键帧的 URL
并非所有模型都支持所有参数。不支持的参数将被静默忽略。请检查模型的文档以了解支持的参数。

模型选择指南

最佳质量

Seedance 2.0Kling v2.6 Pro —— 电影级质量,细节丰富,运动自然

最快生成

Higgsfield TurboHailuo 2.3 —— 快速获取结果,适用于原型设计和迭代

最全能

Seedance 2.0 —— 在一个模型中支持 T2V、I2V、关键帧、延长和编辑

最佳性价比

Wan 2.6Hailuo 2.3 —— 以较低的单次生成成本提供极具竞争力的质量

计费

视频生成采用固定的单次生成定价。无论视频时长如何,在提交任务时都会计费一次。如果生成失败,费用将自动退还。 模型页面 或通过 Pricing API 查看当前定价。