- Jak działa AI Generator Wideo?
- Wpisz tekstowy prompt, a narzędzie wyśle go do aktualnie wybranego modelu na HuggingFace. Model interpretuje Twój prompt i zwraca wygenerowany klip wideo, który pojawia się bezpośrednio w czacie.
- Jak napisać lepszy prompt do wideo?
- Używaj jasnych szczegółów: obiekt, otoczenie, akcja, ruch kamery, oświetlenie i styl. Przykład: "Powolne kinowe ujęcie dolly przez neonową ulicę miasta nocą, odbicia deszczu, wysoki kontrast."
- Jaki format wideo otrzymuję?
- Wygenerowane wyniki są dostarczane jako plik wideo do pobrania (zazwyczaj MP4) i wyświetlane w odtwarzaczu podglądu w czacie.
- Jak długo trwa generowanie wideo?
- Większość promptów kończy się w ciągu kilku sekund do około minuty, w zależności od obciążenia kolejki i złożoności promptu.
- Który model jest wybrany domyślnie?
- Domyślnie narzędzie startuje z Wan 2.2 14B Lightning. Możesz przełączyć się na LTX-2 Turbo Video w dowolnym momencie z listy rozwijanej modelu w ustawieniach.
- Czy mogę używać wygenerowanych wideo komercyjnie?
- Ogólnie tak, ale jesteś odpowiedzialny za legalne użycie, licencje i zgodność z lokalnymi przepisami oraz zasadami platform.
- Czy moje prompty są prywatne?
- Prompty są wysyłane do punktów końcowych inferencji hostowanych na HuggingFace w celu generowania. Nie zamierzamy trwale przechowywać Twoich wygenerowanych mediów.