الانتقال إلى المحتوى الرئيسي

نظرة عامة

توفّر LemonData توليد الفيديو عبر API موحّد. تعمل العملية بشكل غير متزامن: ترسل طلبًا، وتتلقى task_id و poll_url، ثم تتحقق من الحالة بشكل دوري حتى تصبح النتيجة النهائية جاهزة.
يمكنك الاطلاع على أحدث مخزون لنماذج الفيديو العامة عبر واجهة Models API أو عبر صفحة النماذج.
إذا أعادت استجابة الإنشاء poll_url، فاستدعِ هذا الرابط نفسه تمامًا. وعندما يشير إلى /v1/tasks/{id}، فاعتبره نقطة الحالة الثابتة المعيارية.
يعتمد سلوك الصوت على النموذج. في LemonData، تُعامل عائلة Veo 3 على أن الصوت مفعّل افتراضيًا عندما يُحذف output_audio. أما النماذج العامة الأخرى فقد تكون صامتة افتراضيًا أو لا تكشف مفتاحًا ثابتًا للتحكم في الصوت.
في تكاملات الإنتاج، يُفضّل استخدام روابط https عامة للصور والفيديو والصوت. ما تزال النماذج المتوافقة تقبل روابط data:، لكن الروابط العامة أكثر متانة عند إعادة المحاولة والرصد وتشخيص المشاكل.

التدفق غير المتزامن

العمليات العامة الحالية

يرتكز عقد الفيديو العام الحالي في LemonData على العمليات التالية:
  • text-to-video
  • image-to-video
  • reference-to-video
  • start-end-to-video
  • video-to-video
  • motion-control
كما يقبل العقد العام أيضًا audio-to-video و video-extension لبعض التدفقات الخاصة بالنماذج، لكن قائمة النماذج العامة المفعلة على نطاق واسع في هذا البناء من الوثائق لا تتضمن حاليًا نموذجًا عامًا يعلن هاتين القدرتين بشكل واسع.

مصفوفة القدرات

الترميز: ✅ توجد قدرة ممثلة في نموذج عام واحد على الأقل ومفعّل حاليًا ضمن عائلة المزود | ❌ غير ممثلة حاليًا في النماذج العامة المفعلة
السلسلةT2VI2Vمرجعيبداية-نهايةV2Vحركة
OpenAI
Kuaishou
Google
ByteDance
MiniMax
Alibaba
Shengshu
xAI
أخرى

تعريفات القدرات

  • T2V (Text-to-Video): توليد فيديو من prompt نصي
  • I2V (Image-to-Video): توليد فيديو انطلاقًا من صورة أولية؛ ولأوسع توافق يُنصح باستخدام image_url
  • مرجعي: تكييف التوليد بواسطة صورة مرجعية واحدة أو أكثر عبر reference_images
  • بداية-نهاية: التحكم في الإطار الأول والأخير باستخدام start_image و end_image
  • V2V (Video-to-Video): استخدام فيديو موجود كمدخل رئيسي
  • حركة: الجمع بين صورة العنصر وفيديو مرجعي للحركة

قائمة النماذج العامة الحالية

OpenAI

النموذجالعمليات العامة
sora-2نص إلى فيديو، image-to-video
sora-2-proنص إلى فيديو، image-to-video
sora-2-pro-storyboardImage-to-video

Kuaishou

النموذجالعمليات العامة
kling-3.0-motion-controlتحكم في الحركة
kling-3.0-videoنص إلى فيديو، image-to-video، start-end-to-video
kling-v2.5-turbo-proنص إلى فيديو، image-to-video، start-end-to-video
kling-v2.5-turbo-stdنص إلى فيديو، image-to-video
kling-v2.6-proنص إلى فيديو، image-to-video، start-end-to-video
kling-v2.6-stdنص إلى فيديو، image-to-video
kling-v3.0-proنص إلى فيديو، image-to-video، start-end-to-video
kling-v3.0-stdنص إلى فيديو، image-to-video، start-end-to-video
kling-video-o1-proنص إلى فيديو، image-to-video، reference-to-video، start-end-to-video، video-to-video
kling-video-o1-stdنص إلى فيديو، image-to-video، reference-to-video، start-end-to-video، video-to-video

Google

النموذجالعمليات العامة
veo3نص إلى فيديو، image-to-video
veo3-fastنص إلى فيديو، image-to-video
veo3-proنص إلى فيديو، image-to-video
veo3.1نص إلى فيديو، image-to-video، reference-to-video، start-end-to-video
veo3.1-fastنص إلى فيديو، image-to-video، reference-to-video، start-end-to-video
veo3.1-proنص إلى فيديو، image-to-video، start-end-to-video

ByteDance

النموذجالعمليات العامة
seedance-1.5-proنص إلى فيديو، image-to-video

MiniMax

النموذجالعمليات العامة
hailuo-2.3-fastImage-to-video
hailuo-2.3-proنص إلى فيديو، image-to-video
hailuo-2.3-standardنص إلى فيديو، image-to-video

Alibaba

النموذجالعمليات العامة
wan-2.2-plusنص إلى فيديو، image-to-video
wan-2.5نص إلى فيديو، image-to-video
wan-2.6نص إلى فيديو، image-to-video، reference-to-video

Shengshu

النموذجالعمليات العامة
viduq2نص إلى فيديو، reference-to-video
viduq2-proImage-to-video، reference-to-video، start-end-to-video
viduq2-pro-fastImage-to-video، start-end-to-video
viduq2-turboImage-to-video، start-end-to-video
viduq3-proنص إلى فيديو، image-to-video، start-end-to-video
viduq3-turboنص إلى فيديو، image-to-video، start-end-to-video

xAI

النموذجالعمليات العامة
grok-imagine-image-to-videoImage-to-video
grok-imagine-text-to-videoنص إلى فيديو
grok-imagine-upscaleVideo-to-video

أخرى

النموذجالعمليات العامة
topaz-video-upscaleVideo-to-video

أمثلة الاستخدام

text-to-video

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "sora-2",
        "prompt": "A calm cinematic shot of a cat walking through a sunlit garden.",
        "operation": "text-to-video",
        "duration": 4,
        "aspect_ratio": "16:9"
    }
)

image-to-video

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "hailuo-2.3-standard",
        "prompt": "The scene begins from the provided image and adds gentle natural motion.",
        "operation": "image-to-video",
        "image_url": "https://example.com/portrait.jpg",
        "duration": 6,
        "aspect_ratio": "16:9"
    }
)

reference-to-video

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "veo3.1",
        "prompt": "Keep the same subject identity and palette while adding subtle motion.",
        "operation": "reference-to-video",
        "reference_images": [
            "https://example.com/ref-a.jpg",
            "https://example.com/ref-b.jpg"
        ],
        "duration": 8,
        "resolution": "720p",
        "aspect_ratio": "9:16"
    }
)

start-end-to-video

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "viduq2-pro",
        "prompt": "Smooth transition from day to night.",
        "operation": "start-end-to-video",
        "start_image": "https://example.com/city-day.jpg",
        "end_image": "https://example.com/city-night.jpg",
        "duration": 5,
        "resolution": "720p",
        "aspect_ratio": "16:9"
    }
)

video-to-video

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "topaz-video-upscale",
        "operation": "video-to-video",
        "video_url": "https://example.com/source.mp4",
        "prompt": "Upscale this clip while preserving the original motion."
    }
)

motion-control

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "kling-3.0-motion-control",
        "operation": "motion-control",
        "prompt": "Keep the subject stable while following the motion reference.",
        "image_url": "https://example.com/subject.png",
        "video_url": "https://example.com/motion.mp4",
        "resolution": "720p"
    }
)

مرجع المعلمات

المعاملالنوعملاحظة
operationstringيُفضَّل إرساله بشكل صريح في الإنتاج
image_urlstringأكثر أشكال إدخال الصور استقرارًا
imagestringرابط data: مفيد للاختبارات المحلية والتكاملات الصغيرة
reference_imagesstring[]الحقل العام القياسي للتكييف بالصور المرجعية
reference_image_typestringمحدد اختياري بين asset و style
video_urlstringمطلوب لنماذج video-to-video و motion-control العامة الحالية
audio_urlstringيُستخدم في تدفقات الصوت إلى فيديو الخاصة ببعض النماذج عند توفرها
output_audiobooleanتعامل عائلة Veo 3 الحقل المحذوف كأنه true

دليل سريع لاختيار النموذج

أعلى جودة

إذا كانت الجودة أهم من السرعة، فالنماذج veo3.1-pro و kling-video-o1-pro و viduq3-pro خيارات قوية.

تكرار سريع

للتجارب السريعة، ابدأ مع veo3.1-fast أو hailuo-2.3-fast أو viduq3-turbo.

تدفقات تعتمد على المرجع

إذا كنت تحتاج إلى تحكم مخصص بالصور المرجعية، فابدأ مع veo3.1 أو veo3.1-fast أو wan-2.6 أو kling-video-o1-pro / std.

video-to-video

المسارات العامة الأكثر شيوعًا حاليًا لعمليات video-to-video تعتمد خصوصًا على topaz-video-upscale و grok-imagine-upscale و kling-video-o1-pro / std.

الفوترة

تعتمد الفوترة على النموذج. بعض نماذج الفيديو العامة تتصرف فعليًا كنماذج تُسعَّر لكل طلب، بينما يقترب بعضها الآخر من التسعير لكل ثانية. وللاطلاع على سطح الأسعار العام الحالي، راجع صفحة النماذج أو واجهة Pricing API.