Nvidia выпустила новую нейронку.
Кроме того, спустя почти 3 года после своего выхода наконец-то вышел Cyberpunk 2077.
Эти две новости связаны тем, что новая нейросеть Nvidia пока существует в виде опции в настройках графики Киберпанка версии 2.0.
DLSS Ray Regeneration представляет собой нейро-денойзер, который позволяет из сцен с очень примерными RT лучами быстро получать красивую картинку. Напоминает Cycles + Denoise в Блендере.
Выход большого дополнения Phantom Liberty будет только через несколько дней, а пока можно покрутить настроечки, добавленные в новом патче.
Предыдущей бомбой от Nvidia была генерация промежуточных кадров в DLSS 3, которая "бесплатно" давала целую кучу FPS (при условии покупки дорогущей 40XX видюхи). Загвоздка была в том, что эта технология не уменьшает Input Lag, а даже немного увеличивает его. Иными словами, даже если игра выдает 140 фпс, игрок видит результат своих действий только с задержкой в несколько кадров.
Ray Reconstruction выдает результат близкий по производительности к DLSS Quality. Прирост производительности не гигантский, но главная фишка в том, что Ray Reconstruction рисует совершенно другую, и лучшую картинку, чем просто DLSS. При этом не повышает задержку, потому что она не наслаивается на DLSS в отличие от генерации кадров, а как бы заменяет его.
В общем, мой вердикт: новая штука от Nvidia дает очень красивую картинку, которую трудно сравнить с какой-то существующей технологией риалтайм рендера, и при этом обеспечивает играбельный FPS и условно-приемлемый инпут-лаг на экспериментальных настройках графики. Еще один шаг к рей трейсингу, пригодному для повсеместного применения, и в перспективе шаг к тому, чтобы графику в играх полностью рисовали нейросети.
Пока DLSS, Ray Regeneration, и подобные технологии требуют отрендеренный кадр, на котором они могут творить свою магию. А представьте, если бы они работали в режиме Data2Img, т.е. получали данные о том, что сейчас происходит в игре, и рисовали кадры исходя только из этого. Думаю, в будущем так и будет.
Кроме того, спустя почти 3 года после своего выхода наконец-то вышел Cyberpunk 2077.
Эти две новости связаны тем, что новая нейросеть Nvidia пока существует в виде опции в настройках графики Киберпанка версии 2.0.
DLSS Ray Regeneration представляет собой нейро-денойзер, который позволяет из сцен с очень примерными RT лучами быстро получать красивую картинку. Напоминает Cycles + Denoise в Блендере.
Выход большого дополнения Phantom Liberty будет только через несколько дней, а пока можно покрутить настроечки, добавленные в новом патче.
Предыдущей бомбой от Nvidia была генерация промежуточных кадров в DLSS 3, которая "бесплатно" давала целую кучу FPS (при условии покупки дорогущей 40XX видюхи). Загвоздка была в том, что эта технология не уменьшает Input Lag, а даже немного увеличивает его. Иными словами, даже если игра выдает 140 фпс, игрок видит результат своих действий только с задержкой в несколько кадров.
Ray Reconstruction выдает результат близкий по производительности к DLSS Quality. Прирост производительности не гигантский, но главная фишка в том, что Ray Reconstruction рисует совершенно другую, и лучшую картинку, чем просто DLSS. При этом не повышает задержку, потому что она не наслаивается на DLSS в отличие от генерации кадров, а как бы заменяет его.
В общем, мой вердикт: новая штука от Nvidia дает очень красивую картинку, которую трудно сравнить с какой-то существующей технологией риалтайм рендера, и при этом обеспечивает играбельный FPS и условно-приемлемый инпут-лаг на экспериментальных настройках графики. Еще один шаг к рей трейсингу, пригодному для повсеместного применения, и в перспективе шаг к тому, чтобы графику в играх полностью рисовали нейросети.
Пока DLSS, Ray Regeneration, и подобные технологии требуют отрендеренный кадр, на котором они могут творить свою магию. А представьте, если бы они работали в режиме Data2Img, т.е. получали данные о том, что сейчас происходит в игре, и рисовали кадры исходя только из этого. Думаю, в будущем так и будет.
👍6👏1
Media is too big
VIEW IN TELEGRAM
Сейчас занимаюсь как раз фотограмметрией и пришла рассылка от Blender Guru, в которой он напоминает, что недавно появилась такая технология, как Gaussian Splatting, которая позволяет из группы фоток или видео создать 3д сцену и рассмотреть пространство или объект под любым углом. Эта технология напоминает традиционную фотограмметрию, но скорее это разновидность или развитие NERF. Вся сцена состоит из цветных клякс, которые можно разглядеть, если приблизить камеру, а при отдалении они собираются в четкую картинку. Отсюда такое название. Неплохо получаются даже отражения.
Очень рекомендую посмотреть вот эту страничку с примерами, каждый из которых можно самому покрутить: gsplat.tech
Также Polycam сегодня объявили о том, что Gsplat можно теперь создавать в их приложении. Так что можно самому попробовать.
Из минусов можно назвать то, что это не настоящие 3д модели, а облака из клякс, и пока затруднительно использовать их для чего-то кроме осмотра сцен, например, для анимации.
Тем временем некоторые предлагают, наоборот, использовать Gsplat для визуализации уже существующих 3д сцен.
Ахах, забыл выключить микрофон, когда записывал видео для примера, так что беговая дорожка и попугай Маруся передают вам привет. ))
Очень рекомендую посмотреть вот эту страничку с примерами, каждый из которых можно самому покрутить: gsplat.tech
Также Polycam сегодня объявили о том, что Gsplat можно теперь создавать в их приложении. Так что можно самому попробовать.
Из минусов можно назвать то, что это не настоящие 3д модели, а облака из клякс, и пока затруднительно использовать их для чего-то кроме осмотра сцен, например, для анимации.
Тем временем некоторые предлагают, наоборот, использовать Gsplat для визуализации уже существующих 3д сцен.
Ахах, забыл выключить микрофон, когда записывал видео для примера, так что беговая дорожка и попугай Маруся передают вам привет. ))
👍4❤2
This media is not supported in your browser
VIEW IN TELEGRAM
И сразу же вдогонку, конечно же уже появились люди, которые на основе Gaussian Splatting разрабатывают генерацию 3д по одной картине, и по тексту, и экспорт в 3д модельку, и анимацию в миксамо.
Вот так моргнул и пропустил 5 лет развития нейронок.
Вот так моргнул и пропустил 5 лет развития нейронок.
🙈5👍2👏1
Media is too big
VIEW IN TELEGRAM
Друг сегодня спрашивал про аутпеинтинг и апскейл в Stable Diffusion. Решил с вами тоже поделиться, думаю, многим будет интересно.
Вообще в последнее время записываю много видео в таком неформальном виде по 3д и нейронкам, где я просто что-то объясняю экспромтом и показываю техники, которые сам использую на практике без особого плана. Если вам такое будет заходить, могу выкладывать в канале, чтобы не пропадало.
Пока вот видос про аутпеинтинг, далеко не исчерпывающий, конечно, для аутпеинтинга придумали уже много более продвинутых инструментов, но все же полезный. Попозже выложу про апскейл тоже.
Вообще в последнее время записываю много видео в таком неформальном виде по 3д и нейронкам, где я просто что-то объясняю экспромтом и показываю техники, которые сам использую на практике без особого плана. Если вам такое будет заходить, могу выкладывать в канале, чтобы не пропадало.
Пока вот видос про аутпеинтинг, далеко не исчерпывающий, конечно, для аутпеинтинга придумали уже много более продвинутых инструментов, но все же полезный. Попозже выложу про апскейл тоже.
👍9
Недавно появилась необходимость работать на двух компьютерах одновременно. Получается эргономический кошмар - две клавиатуры, две мышки на одном столе, постоянно путаешься где у тебя какая клава и мышка.
Сегодня поставил майкрософтовскую программу Mouse without Borders, которая позволяет одной мышкой и клавиатурой управлять любыми компьютерами в локальной сети. Выглядит как магия. Полное ощущение, что просто работаешь на одном компьютере с двумя мониторами. Общий буфер обмена, копируешь текст на одном компьютере - вставляешь на другом. Также написано, что можно так передавать небольшие файлы, но у меня что-то не получается. Также через общий буфер, к сожалению, нельзя копировать картинки.
В остальном это бомба. У кого стоит ноут перед компом, или отдельный комп для стриминга или рендера, очень рекомендую.
Сегодня поставил майкрософтовскую программу Mouse without Borders, которая позволяет одной мышкой и клавиатурой управлять любыми компьютерами в локальной сети. Выглядит как магия. Полное ощущение, что просто работаешь на одном компьютере с двумя мониторами. Общий буфер обмена, копируешь текст на одном компьютере - вставляешь на другом. Также написано, что можно так передавать небольшие файлы, но у меня что-то не получается. Также через общий буфер, к сожалению, нельзя копировать картинки.
В остальном это бомба. У кого стоит ноут перед компом, или отдельный комп для стриминга или рендера, очень рекомендую.
👍9🥰1👏1
Media is too big
VIEW IN TELEGRAM
Обещанное второе видео о том, как можно увеличивать изображения в Stable Diffusion и получать генерации высокого разрешения, а также добавлять детали с помощью моего любмимого трюка с Tile ControlNet.
👍6❤3
This media is not supported in your browser
VIEW IN TELEGRAM
Что ж, могу с гордостью сказать, что присоединился к клубу из, наверно, трехзначного количества человек, которым удалось освоить Gaussian Splatting.
❤9👏3👍2
До двух раз быстрее
Или как очень долго запрягать и более-менее быстро ехать за новыми дровами от Nvidia
2 дня назад Nvidia прямо на сайте у себя написала, что с новыми драйверами версии 545.84 Stable Diffusion будет работать до 2х раз быстрее*.
* Только на видеокартах серии RTX (потому что ускорение происходит за счет задействования тензорных ядер) и при условии установки специального аддона для Automatic1111.
Оказалось, что в отличие от практически всех остальных аддонов для авто11, установить его практически невозможно. Он устанавливает 210 (карл) пакетов зависимостей через PIP, делает это так долго, что люди думают, что установка просто зависла. Некоторые из них он установить не может по той или иной причине, конфликтует с уже установленными пакетами и т.д. В общем, на гитхабе за 2 дня набралось уже больше 50 тем с проблемами (issues).
Второй и главный подвох в том, что для каждой комбинации чекпоинта, размера изображения и размера бэтча надо предварительно генерить специальный тензор-движок, на что уходит 5-10 минут. При этом это все еще и не работает с контрол нетом, под лоры надо тоже делать движки, SDXL не поддерживается, и ломается Highres Fix.
На реддите ребята, которые все же смогли все это запрячь, говорят об ускорении от 20 до 70%. Т.е. это может быть оправдано, если собираешься генерить огромную партию однотипных изображений.
Я для себя пока что решил, что я не так много генерю, чтобы можно было оправдать объем необходимой мордовни. Надеюсь, технология будет развиваться, и станет проще и удобнее в использовании.
Или как очень долго запрягать и более-менее быстро ехать за новыми дровами от Nvidia
2 дня назад Nvidia прямо на сайте у себя написала, что с новыми драйверами версии 545.84 Stable Diffusion будет работать до 2х раз быстрее*.
* Только на видеокартах серии RTX (потому что ускорение происходит за счет задействования тензорных ядер) и при условии установки специального аддона для Automatic1111.
Оказалось, что в отличие от практически всех остальных аддонов для авто11, установить его практически невозможно. Он устанавливает 210 (карл) пакетов зависимостей через PIP, делает это так долго, что люди думают, что установка просто зависла. Некоторые из них он установить не может по той или иной причине, конфликтует с уже установленными пакетами и т.д. В общем, на гитхабе за 2 дня набралось уже больше 50 тем с проблемами (issues).
Второй и главный подвох в том, что для каждой комбинации чекпоинта, размера изображения и размера бэтча надо предварительно генерить специальный тензор-движок, на что уходит 5-10 минут. При этом это все еще и не работает с контрол нетом, под лоры надо тоже делать движки, SDXL не поддерживается, и ломается Highres Fix.
На реддите ребята, которые все же смогли все это запрячь, говорят об ускорении от 20 до 70%. Т.е. это может быть оправдано, если собираешься генерить огромную партию однотипных изображений.
Я для себя пока что решил, что я не так много генерю, чтобы можно было оправдать объем необходимой мордовни. Надеюсь, технология будет развиваться, и станет проще и удобнее в использовании.
👍5
Stable Diffusion вообще без видеокарты
Вот буквально только что кто-то выложил на гитхаб рабочую версию Stable Diffusion, которая работает полностью на процессоре.
Есть версия для винды и линукса, установилась у меня в 1 клик. Генерит изображение в 4 шагов за 20 секунд или 10 шагов примерно за минуту. Процессор у меня 5800x3D. Не знаю, можно ли сравнивать с количеством шагов в обычном SD. Для сравнения, на видюхе картинка 512 х 512 , 30 шагов генерится пару секунд в зависимости от видеокарты. По моим прикидкам, получается где-то в 50 раз медленнее, чем на 4070 ti.
Настроек очень мало, по сути только размер, количество шагов и CFG. Чекпоинт стоит Dreamshaper 7, выглядит так, как будто можно поставить другой, но это неточно. Качество картинок как будто похуже, чем в обычном SD на видюхе. Вероятно, это связано с малым количеством шагов и отсутствием нормального VAE. Непонятно, какой там семплер к тому же.
В общем, впечатляет, что эта штука легко устанавливается условно на любой компьютер и стабильно, хоть и медленно работает. Называется FastSDCPU, потому что предыдущие попытки реализовать SD на проце были не фаст.
Вот буквально только что кто-то выложил на гитхаб рабочую версию Stable Diffusion, которая работает полностью на процессоре.
Есть версия для винды и линукса, установилась у меня в 1 клик. Генерит изображение в 4 шагов за 20 секунд или 10 шагов примерно за минуту. Процессор у меня 5800x3D. Не знаю, можно ли сравнивать с количеством шагов в обычном SD. Для сравнения, на видюхе картинка 512 х 512 , 30 шагов генерится пару секунд в зависимости от видеокарты. По моим прикидкам, получается где-то в 50 раз медленнее, чем на 4070 ti.
Настроек очень мало, по сути только размер, количество шагов и CFG. Чекпоинт стоит Dreamshaper 7, выглядит так, как будто можно поставить другой, но это неточно. Качество картинок как будто похуже, чем в обычном SD на видюхе. Вероятно, это связано с малым количеством шагов и отсутствием нормального VAE. Непонятно, какой там семплер к тому же.
В общем, впечатляет, что эта штука легко устанавливается условно на любой компьютер и стабильно, хоть и медленно работает. Называется FastSDCPU, потому что предыдущие попытки реализовать SD на проце были не фаст.
👍4
Stability AI радует плюшками. Недавно выпустили Stable Video Diffusion, бесплатный аналог Runway и ему подобным, вот только что показали SDXL, который генерит в реальном времени, пока печатаешь промпт.
Попробовать можно на Clipdrop.
К сожалению, бесплатные попытки кончаются так же быстро, как он выдает картинки, но к счастью, это все же Stability AI, так что модель уже доступна бесплатно на Huggingface. Ждем минут 15, пока кто-ниубдь ее не прикрутит к Automatic1111 и к Comfy.
Попробовать можно на Clipdrop.
К сожалению, бесплатные попытки кончаются так же быстро, как он выдает картинки, но к счастью, это все же Stability AI, так что модель уже доступна бесплатно на Huggingface. Ждем минут 15, пока кто-ниубдь ее не прикрутит к Automatic1111 и к Comfy.
👏7👍1
Media is too big
VIEW IN TELEGRAM
Я вообще на работе, но это срочно в номер. 😮
Мои предсказания полностью сбылись, SDXL turbo реализовали на Comfy UI как только я пошел спать.
Надо обновить Comfy UI, скачать саму модель и вот эту милую картинку. Картинку закидываем в комфи в качестве воркфлоу, в доп. настройках включаем Auto Queue.
Мои предсказания полностью сбылись, SDXL turbo реализовали на Comfy UI как только я пошел спать.
Надо обновить Comfy UI, скачать саму модель и вот эту милую картинку. Картинку закидываем в комфи в качестве воркфлоу, в доп. настройках включаем Auto Queue.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍4
This media is not supported in your browser
VIEW IN TELEGRAM
Раньше меня мало интересовала анимация в нейронках, но анимация - это логическое развитие статического изображения, как кино развитие фотографии. В общем просидел весь день в Comfy UI с логотипом любимой студии.
По-моему вышло неплохо.
По-моему вышло неплохо.
👍8❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Продолжаю рассказывать про любимый софт, не реклама, если что.
На этот раз Anki — это чит в реальной жизни на бесконечную память.
Я считаю, что, учить, например, языки без Анки — это все равно, что ползти в другую страну на четвереньках, а с Анки — лететь на самолете. И при этом учить не обязательно языки, можно учить что угодно, что требует запоминания большого объема информации. Анки невероятно популярна среди американских студентов-медиков, которым все время нужно заучивать огромное количество фактов из разных сфер.
Анки работает на принципе интервального повторения, о нем очень наглядно рассказывает вот эта интерактивная страница.
Недавно в Анки добавили FSRS. Это новый алгоритм, который вычисляет оптимальное время для повторения каждой карточки. Старый алгоритм был разработан в 1987 году. Даже он был эффективнее простой зубрежки во много много раз. Новый алгоритм принимает во внимание больше факторов и сводит к минимуму бесполезные повторения материала, который вы и так неплохо помните. Т.е. главная цель — учиться меньше, запоминать лучше. Вчера вышел отличный видос от самого авторитетного эксперта по Анки, в котором он рассказывает про новый алгоритм и показывает оптимальные настройки программы.
Анки есть на Андроид и iOS. Вполне в духе этих платформ, Анки на андроид скачивается с гитхаба в виде альфа версии (только в ней пока есть FSRS, но версия вполне стабильная, несмотря на пометку альфа), а на iOS Анки просто стоит 25 баксов. Все остальные версии бесплатные. Есть также бесплатный сервис AnkiWeb для синхронизации коллекции между компом и телефоном. Повторять карточки однозначно удобнее на телефоне, но следить за коллекцией — на компьютере.
Также Анки — это не Дуолинго, в нем нет заранее зашитых курсов. Вы либо создаете нужные карточки самостоятельно, как обычные бумажные флэш-карточки, либо скачиваете колоды, созданные сообществом. Их также выкладывают на AnkiWeb. В разделе Russian, кстати, много колод не только для изучающих русский, но и для тех, для кого русский язык родной.
На этот раз Anki — это чит в реальной жизни на бесконечную память.
Я считаю, что, учить, например, языки без Анки — это все равно, что ползти в другую страну на четвереньках, а с Анки — лететь на самолете. И при этом учить не обязательно языки, можно учить что угодно, что требует запоминания большого объема информации. Анки невероятно популярна среди американских студентов-медиков, которым все время нужно заучивать огромное количество фактов из разных сфер.
Анки работает на принципе интервального повторения, о нем очень наглядно рассказывает вот эта интерактивная страница.
Недавно в Анки добавили FSRS. Это новый алгоритм, который вычисляет оптимальное время для повторения каждой карточки. Старый алгоритм был разработан в 1987 году. Даже он был эффективнее простой зубрежки во много много раз. Новый алгоритм принимает во внимание больше факторов и сводит к минимуму бесполезные повторения материала, который вы и так неплохо помните. Т.е. главная цель — учиться меньше, запоминать лучше. Вчера вышел отличный видос от самого авторитетного эксперта по Анки, в котором он рассказывает про новый алгоритм и показывает оптимальные настройки программы.
Анки есть на Андроид и iOS. Вполне в духе этих платформ, Анки на андроид скачивается с гитхаба в виде альфа версии (только в ней пока есть FSRS, но версия вполне стабильная, несмотря на пометку альфа), а на iOS Анки просто стоит 25 баксов. Все остальные версии бесплатные. Есть также бесплатный сервис AnkiWeb для синхронизации коллекции между компом и телефоном. Повторять карточки однозначно удобнее на телефоне, но следить за коллекцией — на компьютере.
Также Анки — это не Дуолинго, в нем нет заранее зашитых курсов. Вы либо создаете нужные карточки самостоятельно, как обычные бумажные флэш-карточки, либо скачиваете колоды, созданные сообществом. Их также выкладывают на AnkiWeb. В разделе Russian, кстати, много колод не только для изучающих русский, но и для тех, для кого русский язык родной.
❤7👏3👍1😍1💘1
Forwarded from Нейронично
Media is too big
VIEW IN TELEGRAM
Приглашаю вас в Dead&Breakfast - леденящий душу отель для монстров, ведьм и мифических существ!
Это моё первое нейровидео 💫
Завела канал на ютубе - там тоже можно посмотреть.
Генерации - Minimax
Музыка - Suno
Звук - FreeSound
Озвучка - ElevenLabs
Монтаж и цветокор - DaVinci
Это моё первое нейровидео 💫
Завела канал на ютубе - там тоже можно посмотреть.
Генерации - Minimax
Музыка - Suno
Звук - FreeSound
Озвучка - ElevenLabs
Монтаж и цветокор - DaVinci
👏6❤2
Я, мягко говоря, давно не постил ничего, конечно, из-за нехватки времени. Не знаю, буду ли я когда-нибудть продолжать регулярно постить тут. Пока что приглашаю всех в Ксюшин канал из предыдущего поста, можно сказать, что это идейное продолжение этого канала. ) Она также пишет про нейронки, про работу в CG сфере, и немного про то как, работая там, не поехать кукухой.
Telegram
Нейронично
Про нейроны и нейронки
Концепт-художник, арт-директор, ИИ-режиссер, психолог
Для связи - @KseniaGalushkina
https://www.youtube.com/@Aironically/videos
https://www.twitch.tv/aironically/
https://www.artstation.com/sentimenthol
Концепт-художник, арт-директор, ИИ-режиссер, психолог
Для связи - @KseniaGalushkina
https://www.youtube.com/@Aironically/videos
https://www.twitch.tv/aironically/
https://www.artstation.com/sentimenthol
👏2😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Это один из лучших советов по блендеру, что я видел. Как никогда не выключать face orientation. Не могу не поделиться.
🔥4❤2
This media is not supported in your browser
VIEW IN TELEGRAM
И как включить отображение флипнутых нормалей по умолчанию.
❤5👍2
Media is too big
VIEW IN TELEGRAM
Вчера был просто парад планет для видеонейронок, поэтому просто невозможно не восстать из мертвых ненадолго и не поделиться новостями.
1. Ксюша завела твич и провела свой первый стрим. Рассказала про все основные нейроночные сервисы всех видов: текст, картинки, звук, видео. Что для чего хорошо, что сколько стоит, на что стоит подписываться. Пришло много народу, и все прошло супер. Стрим получился длинный 3:40, Ксюша сказала, что порежет на логические части и выложит запись на ютуб.
2. lllyasviel, легендарный разработчик из ИИ сообщества допилил Hunyuan Video и сделал Frame Pack. С его помощью можно оживлять картинки локально на видюхе от 6 гб видеопамяти. Т.е. буквально на многих ноутах будет работать. И вторая киллер-фича, что можно генерить почти сколько угодно длинные видео. Что интересно, генерит он как-то с конца к началу. На 4090 1 сек видео генерится где-то минуту, на 4070ti - 2 - 2,5 минуты. Разрешение 512x768 и сразу в 30 фпс. Есть сборка на Pinokio для легкой установки (но почти 50 гб придется скачать). Kijai, другой легендарный разработчик уже прикручивает это дело к комфи.
3. Обнова LTX видео, которая позволяет генерить видео очень быстро. Буквально за секунды. Некоторые картинки во Flux генерятся дольше. И качество нормальное вроде.
4. Wan выпустили новую модель, которая позволяет указать первый и последний кадр. Потенциально можно будет делать прикольные длинные цепочки из ключевых кадров. Модель 720p, ждем прикручивания к комфи, квантованных вариантов и т.д.
5. Не новость, но если вы хотели попробовать Wan video, но не знали как, очень советую вот этот воркфлоу. Там парень основательно подошел. Есть подробная инструкция по использованию, скрипт для автоустановки комфи и всего необходимого. Есть разные модели под разный объем видеопамяти. Генерится достаточно быстро и качество хорошее. Советую заморочиться и поставить Sage attention по отдельной инструкции, чтобы еще быстрее было. Есть прикольные лоры, точнее одна, которая позволяет делать из картинки 360 турнтейбл, например.
1. Ксюша завела твич и провела свой первый стрим. Рассказала про все основные нейроночные сервисы всех видов: текст, картинки, звук, видео. Что для чего хорошо, что сколько стоит, на что стоит подписываться. Пришло много народу, и все прошло супер. Стрим получился длинный 3:40, Ксюша сказала, что порежет на логические части и выложит запись на ютуб.
2. lllyasviel, легендарный разработчик из ИИ сообщества допилил Hunyuan Video и сделал Frame Pack. С его помощью можно оживлять картинки локально на видюхе от 6 гб видеопамяти. Т.е. буквально на многих ноутах будет работать. И вторая киллер-фича, что можно генерить почти сколько угодно длинные видео. Что интересно, генерит он как-то с конца к началу. На 4090 1 сек видео генерится где-то минуту, на 4070ti - 2 - 2,5 минуты. Разрешение 512x768 и сразу в 30 фпс. Есть сборка на Pinokio для легкой установки (но почти 50 гб придется скачать). Kijai, другой легендарный разработчик уже прикручивает это дело к комфи.
3. Обнова LTX видео, которая позволяет генерить видео очень быстро. Буквально за секунды. Некоторые картинки во Flux генерятся дольше. И качество нормальное вроде.
4. Wan выпустили новую модель, которая позволяет указать первый и последний кадр. Потенциально можно будет делать прикольные длинные цепочки из ключевых кадров. Модель 720p, ждем прикручивания к комфи, квантованных вариантов и т.д.
5. Не новость, но если вы хотели попробовать Wan video, но не знали как, очень советую вот этот воркфлоу. Там парень основательно подошел. Есть подробная инструкция по использованию, скрипт для автоустановки комфи и всего необходимого. Есть разные модели под разный объем видеопамяти. Генерится достаточно быстро и качество хорошее. Советую заморочиться и поставить Sage attention по отдельной инструкции, чтобы еще быстрее было. Есть прикольные лоры, точнее одна, которая позволяет делать из картинки 360 турнтейбл, например.
❤4👍2👀1