メインコンテンツへスキップ

概要

LemonDataは、単一の統合APIを通じて、11のプロバイダーから69以上の動画生成モデルへのアクセスを提供します。動画生成は非同期で行われます。リクエストを送信してタスクIDを受け取り、その後結果をポーリングします。
モデルリストは頻繁に更新されます。最新の利用可能なモデルと価格については、Models pageを参照するか、Models APIを使用してください。

非同期ワークフロー

import requests
import time

API_KEY = "sk-your-api-key"
BASE = "https://api.lemondata.cc/v1"
headers = {"Authorization": f"Bearer {API_KEY}"}

# ステップ 1: 生成リクエストを送信
resp = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "kling-v2.6-pro",
        "prompt": "A golden retriever running on a beach at sunset, cinematic 4K",
        "duration": 5,
        "aspect_ratio": "16:9"
    }
)
task_id = resp.json()["task_id"]

# ステップ 2: 結果をポーリング
while True:
    status = requests.get(f"{BASE}/videos/generations/{task_id}", headers=headers).json()
    if status["status"] in ("completed", "succeeded"):
        print(f"Video URL: {status['video_url']}")
        break
    elif status["status"] == "failed":
        print(f"Failed: {status.get('error')}")
        break
    time.sleep(10)

モデル機能マトリックス

モデルによって得意なタスクが異なります。ユースケースに適したモデルを選択するために、このマトリックスを活用してください。 凡例: ✅ サポート済み | ❌ 未サポート
シリーズプロバイダーT2VI2Vキーフレーム延長編集最大時間
SoraOpenAI約20秒
KlingKuaishou10秒
VeoGoogle8秒
SeedanceByteDance10秒
HailuoMiniMax6秒
WanAlibaba5秒
RunwayRunway10秒
LumaLuma5秒
ViduVidu8秒
GrokxAI約10秒
HiggsfieldHiggsfield約5秒

機能の定義

  • T2V (Text-to-Video): テキストプロンプトから動画を生成
  • I2V (Image-to-Video): image_urlまたはimageを使用して静止画を動画としてアニメーション化
  • キーフレーム: start_image + end_imageで開始フレームと終了フレームを制御
  • 延長: 既存の動画の長さを延長
  • 編集: 既存の動画の特定の要素を修正

シリーズ別利用可能モデル

Sora (OpenAI)

モデル品質備考
sora-2標準デフォルトモデル、品質と速度のバランスが良好
sora-2-pro高品質より高品質、生成時間が長い
sora-2-characters標準キャラクターに特化した生成

Kling (Kuaishou)

モデル機能備考
kling-v2.6-proT2V最新世代、プロフェッショナル品質
kling-v2.6-stdT2V最新世代、高速
kling-v2.5-turbo-proT2Vターボ速度、プロ品質
kling-v2.1-masterT2V/I2Vマスター品質
kling-v2.1-proT2V/I2Vプロフェッショナル品質
kling-v2.1-standardT2V/I2V標準品質
kling-videoT2V/I2Vベースモデル
kling-video-extend延長既存の動画を延長
kling-video-o1-proT2VO1推論、プロ品質
kling-video-o1-stdT2VO1推論、標準
kling-effectsエフェクト視覚効果を適用
kling-omni-videoT2VOmniモデル
kling-motion-controlT2Vモーション制御による生成

Veo (Google)

モデル品質備考
veo3.1標準Googleの最新動画モデル
veo3.1-pro高品質プロフェッショナル品質
veo3.1-4kウルトラ4K解像度出力
veo3.1-fast高速より高速な生成
veo3.1-fast-4k高速 + 4K4K出力による高速生成
veo3.1-components標準コンポーネントベースの生成
veo3標準前世代
veo3-pro高品質前世代、プロフェッショナル
veo3-fast高速前世代、高速

Seedance (ByteDance)

モデル機能備考
seedance-2-0T2V/I2V/キーフレーム/延長/編集最新、最も多機能
seedance-1-5-proT2V/I2V前世代、プロ品質
seedance-1-0-proT2V/I2V第一世代、プロ
seedance-1-0-pro-fastT2V/I2V第一世代、高速
seedance-1-0-lite-t2vT2V軽量なtext-to-video
seedance-1-0-lite-i2vI2V軽量なimage-to-video
Seedance 2.0は、マルチモーダルtoビデオ、動画の延長、動画編集など、最も幅広い機能をサポートしており、これらすべてを同じAPIエンドポイントから利用できます。

Hailuo (MiniMax)

モデル品質備考
hailuo-2.3標準良好な品質
hailuo-2.3-pro高品質より高品質な出力
hailuo-2.3-fast高速より高速な生成
hailuo-2.3-standard標準標準ティア
video-01標準MiniMax video-01
video-01-live標準ライブスタイルの生成

Wan (Alibaba)

モデル機能備考
wan-2.6T2V最新のtext-to-video
wan2.6-i2vI2V最新のimage-to-video
wan-2.5T2V前世代
wan2.5-i2v-previewI2V前世代のI2V
wan-2.2-plusT2V初期の世代
vace-14bT2VVACEアーキテクチャ

Runway

モデル時間備考
runwayml-gen4-turbo-55秒高速生成
runwayml-gen4-turbo-1010秒より長いクリップ

Luma

モデル機能備考
luma-video-apiT2VText-to-video
luma-video-extend-api延長既存の動画を延長

Vidu (Shengshu)

モデル品質備考
viduq3-pro高品質最新世代
viduq2-pro高品質前世代、プロ
viduq2-pro-fast高速前世代、高速プロ
viduq2標準前世代、標準
viduq2-turbo高速ターボ速度
vidu2.0標準ベースモデル

Grok (xAI)

モデル備考
grok-video-3xAIの動画生成モデル
grok-video-3-10s10秒バリアント

Higgsfield

モデル備考
higgsfield-turbo最速、低コスト
higgsfield-standard標準品質
higgsfield-lite軽量

使用例

Text-to-Video (T2V)

最も一般的なユースケースです。すべてのモデルがこれをサポートしています。
response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "veo3.1-pro",
        "prompt": "Aerial drone shot of a coastal city at golden hour, waves crashing against cliffs",
        "duration": 5,
        "aspect_ratio": "16:9",
        "resolution": "1080p"
    }
)

Image-to-Video (I2V)

静止画をアニメーション化します。URLにはimage_urlを、base64データにはimageを使用します。
# 画像URLを使用する場合
response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "wan2.6-i2v",
        "prompt": "The person slowly turns and smiles at the camera",
        "image_url": "https://example.com/portrait.jpg"
    }
)

# base64画像を使用する場合
import base64
with open("photo.jpg", "rb") as f:
    image_b64 = base64.b64encode(f.read()).decode()

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "kling-v2.1-master",
        "prompt": "Gentle wind blows through the scene",
        "image": f"data:image/jpeg;base64,{image_b64}"
    }
)

キーフレーム制御 (開始 + 終了画像)

最初と最後のフレームの両方を制御して、正確なトランジションを実現します。現在はSeedance 2.0でサポートされています。
response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "seedance-2-0",
        "prompt": "Smooth transition from day to night, city lights gradually turning on",
        "start_image": "https://example.com/city-day.jpg",
        "end_image": "https://example.com/city-night.jpg",
        "duration": 5
    }
)

動画の延長

既存の動画の長さを延長します。延長機能を備えたモデルを使用してください。
response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "kling-video-extend",
        "prompt": "Continue the scene naturally",
        "image_url": "https://example.com/last-frame.jpg"
    }
)

パラメータリファレンス

パラメータ説明
modelstringモデルID(デフォルト: sora-2
promptstring必須。 動画のテキスト説明
image_urlstring開始画像のURL(I2V用)
imagestringデータURLプレフィックス付きのBase64エンコード済み画像(I2V用)
durationinteger動画の長さ(秒単位、1〜60、モデルに依存)
aspect_ratiostring16:99:161:1など
resolutionstring1080p720p4k
fpsintegerフレームレート(1〜120)
negative_promptstring生成時に避けるべき内容
seedinteger再現性のためのランダムシード
cfg_scalenumberガイダンススケール(0〜20)
motion_strengthnumber動きの強さ(0〜1)
start_imagestring開始キーフレームのURL
end_imagestring終了キーフレームのURL
すべてのパラメータがすべてのモデルでサポートされているわけではありません。サポートされていないパラメータは無視されます。サポートされているパラメータについては、各モデルのドキュメントを確認してください。

モデル選択ガイド

最高品質

Seedance 2.0 または Kling v2.6 Pro — 映画のような品質、豊かなディテール、自然な動き

最速生成

Higgsfield Turbo または Hailuo 2.3 — プロトタイピングや反復のための迅速な結果

最も多機能

Seedance 2.0 — T2V、I2V、キーフレーム、延長、編集を1つのモデルでサポート

最高のコストパフォーマンス

Wan 2.6 または Hailuo 2.3 — 生成あたりのコストを抑えつつ競争力のある品質を提供

料金体系

動画生成は生成ごとの固定料金制を採用しています。動画の長さに関わらず、タスクが送信された時点で一度課金されます。生成に失敗した場合は、料金は自動的に返金されます。 現在の価格については、Models pageを確認するか、Pricing APIを介して取得してください。