Нейронавт | Нейросети в творчестве
9.4K subscribers
3.62K photos
3.14K videos
40 files
4.1K links
Канал про нейросети в компьютерной графике, в кино и вообще

В папках не участвую

для связи @Neuronauticus
加入频道
This media is not supported in your browser
VIEW IN TELEGRAM
EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via Self-Supervision

#nerf для автопилотов.
Отделяет динамические объекты от сцены, может рендерить отдельно то и другое. Из интересного для меня - глубина на выходе.

Код

#novelview #video2depth
👍1🔥1
нет пальцев - нет проблемы
👍9🔥7😁4
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI Text-To-Speech API with Gradio

Демоспейс для попробовать генератор речи от OpenAI.
А он неплох.

#tts #text2speech
🔥7
Forwarded from эйай ньюз
🔥Consistency Decoder

Среди недавних релизов OpenAI больше всего в мое сердечко запал их новый декодер для LDM - Consistency Decoder.

Напомню, что Stable Diffusion генерирует изображения в Latent пространстве, которое затем декодируется VQ-VAE декодером (на картинке выше, кажется, его назвали GAN Decoder). Такой декодер довольно легковесен, но он не может точно восстанавливать мелки детали типа лиц людей на заднем плане. Поэтому парни из OpenAI решили натренировать еще одну диффузию вместо VAE декодера.

Но диффузия работает медленно и требует много шагов во время инференса... Тут на помощь пришла дистилляция из диффузии в Consistency Model, которая может неплохо работать за 1-2 шага, если руки не кривые.

В статье про Dalle-3 было вскользь упомянуто, что в новой архитектуре для перевода скрытого кода в RGB они как раз используют такой Consistency Decoder, который работает за 2 шага.

Consistency Decoder - это тоже Unet, и довольно большой, 620 M параметров (для сравнения SD 1.5 ~900M параметров). Но это все равно допустимая жертва ради улучшенного качества восстановления лиц, мелких деталей и регулярных линий.

Жаль, только, что кода тренировки нет, и остается только заниматься реверс-инженирингом и экспериментировать, чтобы понять как они натренировали этот декодер. Выложили только инференс и веса декодера, который совместим с базовым Stable Diffusion 1.x - 2x и может использоваться как drop-in replacement вместо стандартного декодера.

➡️ Код и веса

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍3
Forwarded from Aamir Khan
https://github.com/AUTOMATIC1111/stable-diffusion-webui/tree/consistency-dec - ветка автоматика с этим декодером VAE type for decode поменять на Consistency Decoderв настройках.
https://colab.research.google.com/drive/1k3ejvTOraWFbuxj17dPFYDAULliDW0JN?usp=sharing
вот колаб
помоему в статье всеже чери пикинг но результат есть и меньше мешанины в кадре. Но я только на 1.5 стандартной тестил возможно с другими моделями лучше пойдет
🔥4👎2
Media is too big
VIEW IN TELEGRAM
vimGPT

Браузер-агент на основе GPT-4V. Умеет сам ходить по сайтам, проходить капчу. Разработчик планирует дообучить LLaVa или CogVLM в качестве альтернативы платному GPT-4V

Гитхаб

#LLM #VLM #assistant #agent
В Южной Корее робот убил сотрудника завода, потому что идентифицировал его как картонную коробку

Погибший — 40-летний рабочий центра распределения сельскохозяйственной продукции, задачей которого было проверять датчики роботизированных машин. Поздно ночью мужчина провел тестовый запуск робота — он должен был погрузить коробку с болгарским перцем на поддон, но произошла техническая ошибка. Роботизированная рука схватила человека и прижала его к конвейерной ленте.

Сотрудника экстренно увезли в больницу, где он и умер. Сейчас руководство завода призвало создать точные и безопасные системы, чтобы предотвратить новые аварии.

the Guardian

#яниначтоненамекаю
2
Сегодня новостей не будет, админ расклеился

#neutonaut_art
😱7🎃4🤯1
This media is not supported in your browser
VIEW IN TELEGRAM
MotionBrush

Многие генераторы видео повысили разрешение и качество генерации.

А RunwayML показал еще и новый инструмент - выделение области для движения.

Инструмент пока недоступен.

Твиттер

#mask2motion #image2video
👍73🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Mirror

Локальная визуально-языковая модель. Получает картинку с вашей вебки, дальше - насколько хватит фантазии. Работает без интернета.

Ее можно установить в один клик в браузере Pinokio

Код
Ссылка для установки в Pinokio

#VLM #assistant
👍7
This media is not supported in your browser
VIEW IN TELEGRAM
ControlAnimate

Генерация консистентного по времени видео на сонове входного видео. AnimateDiff + Multi-ControlNet.
Поддерживает LCM и LCM-LoRA.
Для работы требуется 16GB VRAM

Код

#video2video
3
This media is not supported in your browser
VIEW IN TELEGRAM
FLARE: Fast Learning of Animatable andRelightable Mesh Avatars

Создание аватаров с высококачественной геометрией и внешним видом из одного видео. Пригодных для релайтинга и рендера традиционными движками.

Протестировано на 80GB A100 GPU и NVIDIA RTX A5000 24 GB

Код

#humanavatar #video2avatar #talkinghead #relighting