メインコンテンツへスキップ

概要

LemonData は単一の統一 API を通じて動画生成機能を提供します。動画生成は非同期です。リクエスト送信後、task_idpoll_url が返り、その後はポーリングで最終結果を取得します。
公開動画モデルの最新在庫を確認するには、Models API または モデルページ を利用してください。
作成レスポンスで poll_url が返る場合は、その URL をそのまま使ってください。/v1/tasks/{id} を指す場合は、それを固定の正規ステータスエンドポイントとして扱ってください。
音声挙動はモデル依存です。LemonData では、Veo 3 系列は output_audio を省略すると既定で有声として扱われます。一方、無音が既定のモデルや、安定した音声トグルを公開していないモデルもあります。
本番運用では、画像・動画・音声入力には公開アクセス可能な https URL を優先してください。互換モデルでは data: URL も利用できますが、URL の方が retry・観測・デバッグの面で扱いやすくなります。

非同期ワークフロー

現在の公開操作

LemonData の公開動画契約は主に次の操作をカバーしています。
  • text-to-video
  • image-to-video
  • reference-to-video
  • start-end-to-video
  • video-to-video
  • motion-control
audio-to-videovideo-extension も契約上は受け付けますが、このドキュメント時点の「広く有効な公開モデル」一覧には、これらを一般公開しているモデルは含まれていません。

能力マトリクス

凡例:✅ 該当 プロバイダー ファミリーに、現在有効な公開モデルが少なくとも 1 つ存在する | ❌ 現在有効な公開モデルでは未公開
SeriesT2VI2VReferenceStart-EndV2VMotion
OpenAI
Kuaishou
Google
ByteDance
MiniMax
Alibaba
Shengshu
xAI
Other

用語の意味

  • T2V (Text-to-Video):テキスト prompt から動画を生成
  • I2V (Image-to-Video):開始画像から動画を生成。互換性の観点では image_url を推奨
  • Referencereference_images で 1 枚または複数の参考画像を渡して条件制御
  • Start-Endstart_imageend_image で開始フレームと終了フレームを制御
  • V2V (Video-to-Video):既存動画を主入力として扱う
  • Motion:主体画像とモーション参照動画を同時に使う

現在の公開モデル一覧

OpenAI

Model公開オペレーション
sora-2テキストから動画、画像から動画
sora-2-proテキストから動画、画像から動画
sora-2-pro-storyboard画像から動画

Kuaishou

Model公開オペレーション
kling-3.0-motion-controlモーション制御
kling-3.0-videoテキストから動画、画像から動画、開始・終了フレームから動画
kling-v2.5-turbo-proテキストから動画、画像から動画、開始・終了フレームから動画
kling-v2.5-turbo-stdテキストから動画、画像から動画
kling-v2.6-proテキストから動画、画像から動画、開始・終了フレームから動画
kling-v2.6-stdテキストから動画、画像から動画
kling-v3.0-proテキストから動画、画像から動画、開始・終了フレームから動画
kling-v3.0-stdテキストから動画、画像から動画、開始・終了フレームから動画
kling-video-o1-proテキストから動画、画像から動画、参考画像から動画、開始・終了フレームから動画、動画から動画
kling-video-o1-stdテキストから動画、画像から動画、参考画像から動画、開始・終了フレームから動画、動画から動画

Google

Model公開オペレーション
veo3テキストから動画、画像から動画
veo3-fastテキストから動画、画像から動画
veo3-proテキストから動画、画像から動画
veo3.1テキストから動画、画像から動画、参考画像から動画、開始・終了フレームから動画
veo3.1-fastテキストから動画、画像から動画、参考画像から動画、開始・終了フレームから動画
veo3.1-proテキストから動画、画像から動画、開始・終了フレームから動画

ByteDance

Model公開オペレーション
seedance-1.5-proテキストから動画、画像から動画

MiniMax

Model公開オペレーション
hailuo-2.3-fast画像から動画
hailuo-2.3-proテキストから動画、画像から動画
hailuo-2.3-standardテキストから動画、画像から動画

Alibaba

Model公開オペレーション
wan-2.2-plusテキストから動画、画像から動画
wan-2.5テキストから動画、画像から動画
wan-2.6テキストから動画、画像から動画、参考画像から動画

Shengshu

Model公開オペレーション
viduq2テキストから動画、参考画像から動画
viduq2-pro画像から動画、参考画像から動画、開始・終了フレームから動画
viduq2-pro-fast画像から動画、開始・終了フレームから動画
viduq2-turbo画像から動画、開始・終了フレームから動画
viduq3-proテキストから動画、画像から動画、開始・終了フレームから動画
viduq3-turboテキストから動画、画像から動画、開始・終了フレームから動画

xAI

Model公開オペレーション
grok-imagine-image-to-video画像から動画
grok-imagine-text-to-videoテキストから動画
grok-imagine-upscale動画から動画

Other

Model公開オペレーション
topaz-video-upscale動画から動画

使用例

テキストから動画

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "sora-2",
        "prompt": "A calm cinematic shot of a cat walking through a sunlit garden.",
        "operation": "text-to-video",
        "duration": 4,
        "aspect_ratio": "16:9"
    }
)

画像から動画

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "hailuo-2.3-standard",
        "prompt": "The scene begins from the provided image and adds gentle natural motion.",
        "operation": "image-to-video",
        "image_url": "https://example.com/portrait.jpg",
        "duration": 6,
        "aspect_ratio": "16:9"
    }
)

参考画像から動画

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "veo3.1",
        "prompt": "Keep the same subject identity and palette while adding subtle motion.",
        "operation": "reference-to-video",
        "reference_images": [
            "https://example.com/ref-a.jpg",
            "https://example.com/ref-b.jpg"
        ],
        "duration": 8,
        "resolution": "720p",
        "aspect_ratio": "9:16"
    }
)

開始・終了フレーム制御

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "viduq2-pro",
        "prompt": "Smooth transition from day to night.",
        "operation": "start-end-to-video",
        "start_image": "https://example.com/city-day.jpg",
        "end_image": "https://example.com/city-night.jpg",
        "duration": 5,
        "resolution": "720p",
        "aspect_ratio": "16:9"
    }
)

動画から動画

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "topaz-video-upscale",
        "operation": "video-to-video",
        "video_url": "https://example.com/source.mp4",
        "prompt": "Upscale this clip while preserving the original motion."
    }
)

モーション制御

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "kling-3.0-motion-control",
        "operation": "motion-control",
        "prompt": "Keep the subject stable while following the motion reference.",
        "image_url": "https://example.com/subject.png",
        "video_url": "https://example.com/motion.mp4",
        "resolution": "720p"
    }
)

パラメータの目安

パラメータメモ
operationstring本番では明示指定を推奨
image_urlstring最も互換性が高い画像入力
imagestringローカル検証や小さな入力向けの data: URL
reference_imagesstring[]参考画像条件制御の正式な公開フィールド
reference_image_typestring任意の asset / style 切り替え
video_urlstring現在の公開 video-to-video / motion-control モデルで必要
audio_urlstringモデル固有の音声条件フロー向け
output_audiobooleanVeo 3 系列は省略時に true 扱い

モデル選定のヒント

最高品質

品質優先なら veo3.1-prokling-video-o1-providuq3-pro が有力です。

高速な反復

より速い試行には veo3.1-fasthailuo-2.3-fastviduq3-turbo が有力です。

参照画像条件制御

参照画像ベースの条件制御には veo3.1veo3.1-fastwan-2.6kling-video-o1-pro / std を優先してください。

動画から動画

一般公開されている video-to-video ルートは主に topaz-video-upscalegrok-imagine-upscalekling-video-o1-pro / std です。

課金

動画課金はモデルごとに異なります。実質的に従量が「回数ベース」のモデルもあれば、「秒ベース」のモデルもあります。最新の公開価格は モデルページ または Pricing API を確認してください。