Saltar para o conteúdo principal

Visão geral

A LemonData oferece geração de vídeo por meio de uma API unificada. A geração é assíncrona: você envia uma solicitação, recebe task_id e poll_url, e então faz polling até obter o resultado final.
Você pode consultar o inventário público atual de modelos de vídeo pela Models API ou pela página de modelos.
Se uma resposta de criação retornar poll_url, chame exatamente essa URL. Quando ela apontar para /v1/tasks/{id}, trate-a como o endpoint fixo canônico de status.
O comportamento de áudio depende do modelo. Na LemonData, a família Veo 3 é tratada por padrão como áudio ativado quando output_audio é omitido. Outros modelos públicos são silenciosos por padrão ou não expõem um alternador estável de áudio.
Em produção, prefira URLs https públicas para imagens, vídeos e áudio. Modelos compatíveis continuam aceitando URLs data:, mas URLs públicas são mais robustas para retries, observabilidade e depuração.

Fluxo assíncrono

Operações públicas atuais

O contrato público de vídeo da LemonData hoje se concentra nestas operações:
  • text-to-video
  • image-to-video
  • reference-to-video
  • start-end-to-video
  • video-to-video
  • motion-control
O contrato também aceita audio-to-video e video-extension para fluxos específicos de alguns modelos, mas nesta compilação da documentação não há nenhum modelo amplamente habilitado que publique essas capacidades.

Matriz de capacidades

Legenda: ✅ Existe pelo menos um modelo público atualmente habilitado nessa família de provedores com essa capacidade | ❌ Não há modelos públicos atualmente habilitados com essa capacidade
SérieT2VI2VReferênciaInício-FimV2VMovimento
OpenAI
Kuaishou
Google
ByteDance
MiniMax
Alibaba
Shengshu
xAI
Outros

Definições de capacidades

  • T2V (Text-to-Video): gerar vídeo a partir de um prompt de texto
  • I2V (Image-to-Video): gerar vídeo a partir de uma imagem inicial; para a compatibilidade mais ampla, prefira image_url
  • Referência: condicionar a geração usando uma ou mais imagens de referência via reference_images
  • Início-Fim: controlar o primeiro e o último quadro com start_image e end_image
  • V2V (Video-to-Video): usar um vídeo existente como entrada principal
  • Movimento: combinar uma imagem do sujeito com um vídeo de referência de movimento

Inventário público atual de modelos

OpenAI

ModeloOperações públicas
sora-2Texto para vídeo, imagem para vídeo
sora-2-proTexto para vídeo, imagem para vídeo
sora-2-pro-storyboardImagem para vídeo

Kuaishou

ModeloOperações públicas
kling-3.0-motion-controlControle de movimento
kling-3.0-videoTexto para vídeo, imagem para vídeo, início-fim para vídeo
kling-v2.5-turbo-proTexto para vídeo, imagem para vídeo, início-fim para vídeo
kling-v2.5-turbo-stdTexto para vídeo, imagem para vídeo
kling-v2.6-proTexto para vídeo, imagem para vídeo, início-fim para vídeo
kling-v2.6-stdTexto para vídeo, imagem para vídeo
kling-v3.0-proTexto para vídeo, imagem para vídeo, início-fim para vídeo
kling-v3.0-stdTexto para vídeo, imagem para vídeo, início-fim para vídeo
kling-video-o1-proTexto para vídeo, imagem para vídeo, referência para vídeo, início-fim para vídeo, vídeo para vídeo
kling-video-o1-stdTexto para vídeo, imagem para vídeo, referência para vídeo, início-fim para vídeo, vídeo para vídeo

Google

ModeloOperações públicas
veo3Texto para vídeo, imagem para vídeo
veo3-fastTexto para vídeo, imagem para vídeo
veo3-proTexto para vídeo, imagem para vídeo
veo3.1Texto para vídeo, imagem para vídeo, referência para vídeo, início-fim para vídeo
veo3.1-fastTexto para vídeo, imagem para vídeo, referência para vídeo, início-fim para vídeo
veo3.1-proTexto para vídeo, imagem para vídeo, início-fim para vídeo

ByteDance

ModeloOperações públicas
seedance-1.5-proTexto para vídeo, imagem para vídeo

MiniMax

ModeloOperações públicas
hailuo-2.3-fastImagem para vídeo
hailuo-2.3-proTexto para vídeo, imagem para vídeo
hailuo-2.3-standardTexto para vídeo, imagem para vídeo

Alibaba

ModeloOperações públicas
wan-2.2-plusTexto para vídeo, imagem para vídeo
wan-2.5Texto para vídeo, imagem para vídeo
wan-2.6Texto para vídeo, imagem para vídeo, referência para vídeo

Shengshu

ModeloOperações públicas
viduq2Texto para vídeo, referência para vídeo
viduq2-proImagem para vídeo, referência para vídeo, início-fim para vídeo
viduq2-pro-fastImagem para vídeo, início-fim para vídeo
viduq2-turboImagem para vídeo, início-fim para vídeo
viduq3-proTexto para vídeo, imagem para vídeo, início-fim para vídeo
viduq3-turboTexto para vídeo, imagem para vídeo, início-fim para vídeo

xAI

ModeloOperações públicas
grok-imagine-image-to-videoImagem para vídeo
grok-imagine-text-to-videoTexto para vídeo
grok-imagine-upscaleVídeo para vídeo

Outros

ModeloOperações públicas
topaz-video-upscaleVídeo para vídeo

Exemplos de uso

Texto para vídeo

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "sora-2",
        "prompt": "A calm cinematic shot of a cat walking through a sunlit garden.",
        "operation": "text-to-video",
        "duration": 4,
        "aspect_ratio": "16:9"
    }
)

Imagem para vídeo

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "hailuo-2.3-standard",
        "prompt": "The scene begins from the provided image and adds gentle natural motion.",
        "operation": "image-to-video",
        "image_url": "https://example.com/portrait.jpg",
        "duration": 6,
        "aspect_ratio": "16:9"
    }
)

Referência para vídeo

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "veo3.1",
        "prompt": "Keep the same subject identity and palette while adding subtle motion.",
        "operation": "reference-to-video",
        "reference_images": [
            "https://example.com/ref-a.jpg",
            "https://example.com/ref-b.jpg"
        ],
        "duration": 8,
        "resolution": "720p",
        "aspect_ratio": "9:16"
    }
)

Controle de quadro inicial e final

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "viduq2-pro",
        "prompt": "Smooth transition from day to night.",
        "operation": "start-end-to-video",
        "start_image": "https://example.com/city-day.jpg",
        "end_image": "https://example.com/city-night.jpg",
        "duration": 5,
        "resolution": "720p",
        "aspect_ratio": "16:9"
    }
)

Vídeo para vídeo

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "topaz-video-upscale",
        "operation": "video-to-video",
        "video_url": "https://example.com/source.mp4",
        "prompt": "Upscale this clip while preserving the original motion."
    }
)

Controle de movimento

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "kling-3.0-motion-control",
        "operation": "motion-control",
        "prompt": "Keep the subject stable while following the motion reference.",
        "image_url": "https://example.com/subject.png",
        "video_url": "https://example.com/motion.mp4",
        "resolution": "720p"
    }
)

Referência de parâmetros

ParâmetroTipoObservação
operationstringEm produção, vale a pena informá-lo explicitamente
image_urlstringForma mais robusta de entrada de imagem
imagestringURL data: útil para testes locais e integrações pequenas
reference_imagesstring[]Campo público canônico para condicionamento por referências
reference_image_typestringSeletor opcional asset / style
video_urlstringObrigatório para os modelos públicos atuais de video-to-video e motion-control
audio_urlstringPara fluxos específicos de áudio para vídeo
output_audiobooleanA família Veo 3 trata a omissão como true

Guia rápido de escolha de modelo

Maior qualidade

Se a qualidade for mais importante que a velocidade, veo3.1-pro, kling-video-o1-pro e viduq3-pro são escolhas fortes.

Iteração rápida

Para ciclos rápidos, veo3.1-fast, hailuo-2.3-fast e viduq3-turbo são bons pontos de partida.

Fluxos com referência

Se você precisa de controle dedicado por imagens de referência, comece com veo3.1, veo3.1-fast, wan-2.6 ou kling-video-o1-pro / std.

Vídeo para vídeo

Hoje, os principais caminhos públicos geralmente habilitados para video-to-video são topaz-video-upscale, grok-imagine-upscale e kling-video-o1-pro / std.

Cobrança

A cobrança depende do modelo. Alguns modelos públicos de vídeo se comportam, na prática, como modelos cobrados por solicitação, enquanto outros se aproximam mais de uma cobrança por segundo. Para a superfície pública de preços atual, consulte a página de modelos ou a Pricing API.