226K subscribers
3.88K photos
661 videos
17 files
4.5K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
加入频道
🔥 Wan2.1‑FLF2V 14B — это первая в серии Wan модель генерации видео, которая работает по принципу «First‑Last‑Frame»: достаточно задать начальный и конечный кадр, чтобы сгенерировать полноценный плавный плавный ролик.

✔️ Главное
🟢 Открытые код и веса.

🟢Полный контроль над сюжетом и композицией видео.

🟢 Точное следование инструкциям: модель умеет очень чётко.
«понимать» промпты и визуальные референсы.

🟢Плавные переходы с учётом физики: кадры переходят друг в друга без рывков, с реалистичной трактовкой законов движения и освещения.

🟢 Качество 720 p: готовый не требует дополнительной пост‑обработки.

🔜GitHub: https://github.com/Wan-Video/Wan2.1
🔜Hugging Face: https://huggingface.co/Wan-AI/Wan2.1-FLF2V-14B-720P
🔜Modelscope: https://modelscope.cn/models/Wan-AI/Wan2.1-FLF2V-14B-720P

@ai_machinelearning_big_data

#wan #AIGC #alart
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍74🔥3612🤨6
Media is too big
VIEW IN TELEGRAM
🔥 Alibaba представили новую модель - Wan2.1-VACE: универсальную модель для создания и редактирования видео.

Что умеет Wan2.1-VACE:
🟢 R2V — генерация видео по ссылке-примере (Reference-to-Video)
🟢 V2V — редактирование видео по видео (Video-to-Video)
🟢 MV2V — редактирование замаскированных областей видео (Masked Video-to-Video)

💡 Эти возможности можно свободно комбинировать, выполняя сложные креативные задачи.

🔍 Ключевые особенности:
SOTA-производительность: Wan2.1 стабильно превосходит существующие open-source модели и даже коммерческие решения уровня state-of-the-art в ряде бенчмарков.

Работает на обычных видеокартах: Модель T2V-1.3B требует всего 8.19 ГБ видеопамяти, что делает её совместимой почти со всеми пользовательскими GPU. Например, на RTX 4090 она генерирует 5-секундное видео 480P примерно за 4 минуты (без оптимизаций, таких как квантизация). Её производительность сопоставима с некоторыми закрытыми моделями.

Мультизадачность: Wan2.1 демонстрирует хорошие результаты в задачах текст-в-видео, изображение-в-видео, видеомонтаж, текст-в-изображение и видео-в-аудио, продвигая границы генерации видео..

Модель способна выдавать 1080P в теории любой длины, при этом сохраняя временную структуру.

- Размер модели: 1.3B и 14B
- Лицензия: Apache-2.

🔜 GitHub: github.com/Wan-Video/Wan2.1
🔜 HuggingFace: huggingface.co/Wan-AI
🔜 ModelScope: modelscope.cn/organization/Wan-Al
🔜 API сервис: bailian.console.alibabacloud.com

@ai_machinelearning_big_data


#Alibaba #wan #videogeneration
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥56👍2920
👄 MultiTalk — новая открытая lip sync модель с высоким качеством синхронизации.

✔️ Что умеет:
• Генерирует видео с несколькими говорящими персонажами по аудио
• Поддерживает видео до 15 секунд в 480p и 720p
• Управление персонажами через текстовые промпты
• Поддержка генерации мультяшных героев, пения, нестандартных стилей речи
• Доступно в ComfyUI

Модель принимает на вход многопотоковое аудио, референсное изображение и текстовый промпт, после чего генерирует видео с взаимодействиями между персонажами, следуя промпту и с точной синхронизацией губ с речью.

Github: https://github.com/MeiGen-AI/MultiTalk
HF: https://huggingface.co/MeiGen-AI/MeiGen-MultiTalk

@ai_machinelearning_big_data

#wan #ai #ml #lipsync #MultiTalk
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5727🔥12🤬4🥰2👏2
This media is not supported in your browser
VIEW IN TELEGRAM
🎬 Alibaba опять в ударе, сегодня у нас релиз Wan2.2

Это первая в мире open-source модель генерации видео с архитектурой MoE и полным кинематографическим контролем!

🚀 Что внутри:

🔸 Первая MoE‑модель для видео — масштабируется без лишней нагрузки. Разные эксперты отвечают за этапы диффузии, работая в команде.
🔸 Кинематографический контроль — управляем светом, цветом, движением камеры и композицией прямо из prompt’а.
🔸 Полная open-source линейка:
- Wan2.2-T2V-A14B — текст → видео
- Wan2.2-I2V-A14B — изображение → видео
- Wan2.2-TI2V-5B — объединённая генерация

📈 Умеет лучше всех генерировать *сложные движения* и выглядит уже почти как кино 🎥


🟢GitHub: https://github.com/Wan-Video/Wan2.2
🟢Hugging Face: https://huggingface.co/Wan-AI
🟢ModelScope: https://modelscope.cn/organization/Wan-AI

@ai_machinelearning_big_data


#AI #VideoAI #GenerativeAI #OpenSource #Wan
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥91👍2825👌2👨‍💻1