Self-Forcing: Making AI Video Generation Endless
Эксперимент по достижению бесконечной видеогенерации без деградации.
Для эксперимента автор выбрал архитектуру Self-Forcing
Контекст Self-Forcing ограничен 81 кадром, что жестко прописано в кодовой базе, что автор и пытался преодолеть.
В процессе ему удалось реализовать интересную идею: редактирование видео в реальном времени, вернее на лету, в процессе генерации
И выложил все в опенсорс
Требования: 24Gb VRAM, 64Gb RAM, Linux
Гитхаб
Реддит
#optimization #video2video #videoediting #realtime #text2video
Эксперимент по достижению бесконечной видеогенерации без деградации.
Для эксперимента автор выбрал архитектуру Self-Forcing
Контекст Self-Forcing ограничен 81 кадром, что жестко прописано в кодовой базе, что автор и пытался преодолеть.
В процессе ему удалось реализовать интересную идею: редактирование видео в реальном времени, вернее на лету, в процессе генерации
И выложил все в опенсорс
Требования: 24Gb VRAM, 64Gb RAM, Linux
Гитхаб
Реддит
#optimization #video2video #videoediting #realtime #text2video
🔥7👍5
This media is not supported in your browser
VIEW IN TELEGRAM
Raylight
МультиGPU в #ComfyUI
Поддерживаются некоторые модели Wan (например, Wan 1.3B T2V и Wan 14B T2V), а также есть частичная поддержка других моделей (Flux, Qwen, Hunyuan). Для работы требуется FlashAttention. Есть известные проблемы, например, ошибки OOM при работе с большими моделями
Нет поддержки Non-DiT моделей
Не тестировано на Windows
спасибо @nightkraw13r
#optimization #gpu
МультиGPU в #ComfyUI
Поддерживаются некоторые модели Wan (например, Wan 1.3B T2V и Wan 14B T2V), а также есть частичная поддержка других моделей (Flux, Qwen, Hunyuan). Для работы требуется FlashAttention. Есть известные проблемы, например, ошибки OOM при работе с большими моделями
Нет поддержки Non-DiT моделей
Не тестировано на Windows
спасибо @nightkraw13r
#optimization #gpu
🔥6👍2