- Jak działa AI Image to Video?
- Prześlij jedno zdjęcie i wpisz prompt opisujący ruch, kierunek kamery i styl. Narzędzie wysyła oba do wybranego modelu Wan image-to-video na HuggingFace i zwraca wygenerowane wideo w czacie.
- Jaki prompt image-to-video jest dobry?
- Opisz ruch obiektu, ruch kamery, atmosferę sceny i styl. Przykład: "Powolne kinowe wjechanie, delikatny wiatr we włosach, ciepłe światło zachodzącego słońca, realistyczny ruch."
- Który model jest wybrany domyślnie?
- Domyślnie narzędzie wybiera Wan 2.2 14B Lightning przy pierwszym otwarciu strony. Możesz przełączyć się na LTX-2 Turbo Video w dowolnym momencie z listy rozwijanej modelu.
- Czy potrzebuję zarówno obrazu, jak i promptu tekstowego?
- Tak. To narzędzie wymaga obrazu wejściowego i promptu. Obraz dostarcza kontekstu wizualnego, a prompt kontroluje zachowanie animacji.
- Jaki format wyjściowy otrzymuję?
- Wygenerowane wyniki są zwracane jako plik wideo do pobrania (zazwyczaj MP4) i wyświetlane w odtwarzaczu podglądu w czacie.
- Jak długo trwa generowanie?
- Większość generacji kończy się w ciągu kilku sekund do około minuty, w zależności od obciążenia kolejki, złożoności promptu i ustawień.
- Czy moje przesyłane pliki są prywatne?
- Twój obraz i prompt są wysyłane do punktów końcowych inferencji hostowanych na HuggingFace w celu generowania. Nie zamierzamy trwale przechowywać Twoich wygenerowanych mediów.