- Hoe werkt AI-afbeelding naar video?
- Upload één afbeelding en voer een prompt in die beweging, camerarijting en stijl beschrijft. De tool stuurt beide naar het geselecteerde Wan-afbeelding-naar-video-model op HuggingFace en retourneert een gegenereerde video in de chat.
- Wat maakt een goede afbeelding-naar-video-prompt?
- Beschrijf onderwerpbeweging, camerabeweging, scène-atmosfeer en stijl. Voorbeeld: "Langzame cinematische push-in, zachte wind in het haar, warm zonsonderganglicht, realistische beweging."
- Welk model is standaard geselecteerd?
- Standaard selecteert de tool Wan 2.2 14B Lightning wanneer je de pagina voor het eerst opent. Je kunt op elk moment overschakelen naar LTX-2 Turbo Video vanuit het modeldropdown.
- Heb ik zowel afbeelding als tekstprompt nodig?
- Ja. Deze tool vereist een invoerafbeelding en een prompt. De afbeelding biedt visuele context en de prompt controleert het animatiegedrag.
- Welk uitvoerformaat krijg ik?
- Gegenereerde resultaten worden geretourneerd als een downloadbaar videobestand (meestal MP4) en getoond in de chatvoorbeeldspeler.
- Hoe lang duurt generatie?
- De meeste generaties worden voltooid in seconden tot ongeveer een minuut, afhankelijk van wachtrijbelasting, promptcomplexiteit en instellingen.
- Zijn mijn uploads privé?
- Je afbeelding en prompt worden naar HuggingFace-hosted inference-eindpunten gestuurd voor generatie. We zijn niet van plan je gegenereerde media permanent op te slaan.