Нейронавт | Нейросети в творчестве
9.47K subscribers
3.66K photos
3.16K videos
40 files
4.12K links
Канал про нейросети в компьютерной графике, в кино и вообще

В папках не участвую

для связи @Neuronauticus
加入频道
А теперь дообученный Stablediffusion - самые интересные, остальные кину в комментарии
🔥4😱1
Примеры генеративного видео от запрещенной в РФ метовской Make a video. Кенгуру милые, не правда ли?
Где-то там в запрещенном твиттере можно попросить сгенерить видео по вашему запросу.
😱1
Media is too big
VIEW IN TELEGRAM
MDM: Human Motion Diffusion Model - генерирует движение человеческой фигуры.

Модель диффузионная. Это значит что для начала она генерит шум, из которого итеративно выкристаллизовывает результат. Тут я дилетант, объяснил как сам понял.

Среди возможностей - редактирование (например изменить движение только верхней части), заполнение промежуточных кадров между ключевыми - по аналогии с классической анимацией. В общем, я опять впечатлен. Но кода все равно пока нет, обещают позже.
#text2motion
👍4
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Смотрите, как на базе Stable Diffusion плодятся проекты для создания конкретных инструментов в области создания графики.
Barium AI - генерация текстур из текстовых подсказок.
Раньше ты выбирал тип процедурной текстуры типа чекер или нойз и дальше неистово крутил педальки, которые автор зашил в текстуру. А теперь ты неистово подбираешь слова типа "сделать красивую текстуру камня с лишайниками, мелкими и зелеными притом". То есть и рисование, и генерация, и подбор параметров.

BariumAI может генерировать текстуры и карты (height, normal, emission, roughness and metallic) от 256x256 до 8192x8192. Бесплатные аккаунты могут генерировать разрешение до 4k и хранить до 30 материалов на серверах. Аккаунты Pro могут генерировать разрешение до 8k и хранить 500 материалов.

Что роднит все эти новоиспеченные сервисы - подписочная модель и желание срубить деньжат прямо сейчас. Что в принципе правильно, бесплатных мощных и всегда доступных серверов для генерации в интернет не завезли, авторы перепродают амазон и других.

А решений из коробки для локальных машин пользователя еще нет (кроме "дистрибутива" Stable Diffusion). А когда они появятся, то надо будет смотреть экономику - где дешевле.

Ну и думаю в этом смысле первым всех обскачет Blender. Обрастет плагинами типа Stable Diffusion для текстур, Stable Diffusion для HDR, Stable Diffusion для панорам, Stable Diffusion для анимации.

А потом подтянутся олигархи.
https://barium.ai/
👍2
https://huggingface.co/spaces/hakurei/waifu-diffusion-demo
#stablediffusion обученный на аниме

* Тоторо - титан в Атаке Титанов
* Тоторо - Ежик в тумане

котобус опять не получается((
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
3DiM: Novel View Synthesis with Diffusion Models
Еще одна нейросеть image-to-3d, генерит 3D-модели по исходному изображению.

кода нет
Ну и Самсунг разродился новой нейросеткой video2scene.
SIMPLI: Self-improving Multiplane-to-layer Images for Novel View Synthesis

На основе одного входного видео позволяет генерировать новые не слишком отличающиеся ракурсы. Да, такие инструменты уже есть, новые появляющиеся отличаются качеством и скоростью.

Код
Колаб
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Если как следует упороться, то можно за два месяца сделать не мета-, а Тру-Вселенную в Minecraft.
Один конченый майнкрафтер так и сделал.
Интересно, когда диффузионные модели доберутся до Майнкрафта?

Промпт: "Мишка на скейте на Таймс-Сквер"
А пажалста!
Промпт: "крипер взорвется от взрыва"
А легко!
Промпт: "Наш утлый мир, глазами крипера"
Смотрите видео.
👍1
Это вам не CogVideo!
Гугл, похоже, опять переплюнул конкурентов, даже метовскую Make-a-Video.

Встречайте Imagen Video
Сходите по ссылке, там есть что посмотреть.
Впрочем, радоваться будем издалека, потому что от мертвого осла уши вам, а не код
👍1🔥1