Нейронавт | Нейросети в творчестве
9.49K subscribers
3.67K photos
3.17K videos
40 files
4.12K links
Канал про нейросети в компьютерной графике, в кино и вообще

В папках не участвую

для связи @Neuronauticus
加入频道
У меня стойкое ощущение что глаза меня обманывают, мозг меня обманывает, я что-то неправильно понял. Выглядит слишком хорошо
2
Forwarded from AI для Всех
Media is too big
VIEW IN TELEGRAM
Ура, добывающая профессия теперь и в МЛ. Infinigen - «золотоносная» жила для генерации качественных синтетических 3D сцен для задач компьютерного зрения

Двигатель прогресса в МЛ - качественные данные. С этим много сложностей от этичного сбора до проклято-трудоемкой аннотации (особенно видео). Исследователи давно работают над симуляцией, и пока это не было достаточно хорошим решением (ограниченная вариативность, упрощенные текстуры и геометрии, зависимость от референсов).

Ученые из Принстона представили Infinigen - источник бесконечных возможностей генерации природных 3D сцен с автоматической аннотацией.

Infinigen восхитительный, потому что:
Процедурный. Каждый объект, от формы до текстуры, создается с нуля по стохастическим правилам и настраивается(!), а количество интерпретируемых человеком степеней свободы (типа материала и размера камней, формы листьев и лепестков) не менее 1070.

Геометрически достоверный. В нем не используются рельефные карты или прозрачности. Все детали геометрии реальные. В этом помогает Blender.

Вдохновлен эволюцией. Зрение млекопитающих развивалось в мире растений, животных, ландшафтов и природных явлений: огонь, дождь, снег. И важно в геологоразведке, навигации беспилотников, экологического мониторинга, спасательных работ, автоматизации сельского хозяйства.

Автоматически аннотируется. Для различных задач CV от оптического потока, 3D-flow сцены, нормалей поверхности до паноптической сегментации и границы окклюзии.

Доступный. Открытый код и artist-friendly с конвертацией Blender Nodes в питон.

Теперь почему это труд и нужен инпут сообщества.
Среднее время создания пары изображений 1080p составляет 3,5 часа. Примерно один час из этого времени используется GPU для рендеринга. Требует в среднем 24 Гб памяти (тестировали на 2 процессорах Intel(R) Xeon(R) Silver 4114 @ 2.20GHz и 1 из 5 NVidia-GPU).
Зато получается годно с первого раза.
Обещают в ближайшее время выложить предсимуляции и создать большой репозиторий с общей копилкой генераций.

🔑Сайт
Код
📖Пейпер

@GingerSpacetail
👍51🔥1
Forwarded from эйай ньюз
А вот несколько слайдов с доклада "Efficient Text-to-Image Generation", где Снэп рассказывал про свою работу по ускорению Stable Diffusion.

Плюс демка, где они запускали генерации на телефоне.

Модель уменьшили, ускорили, дистиллировали и сконвертировали в Apple CoreML. Во время инференса использовали 8 шагов с DDIM семплером. Скорость генерации 1.9—2.0 сек / картинка на iPhone 14.

Представьте только. На GPU 50 шагов DDIM оригинальной Stable Diffusion в разрешении 512×512 работает примерно 1.7 сек. А тут сделали на мобиле почти за такое же время и без потери в качестве!

Сайт проекта SnapFusion

@ai_newz
"Кажется, первый случай [испытания Neuralink на человеке] произойдёт в конце этого года", - сказал Илон Маск на недавней конференции VivaTech в Париже

Дисклеймер: видео длинное, я не проверял, есть ли там такие слова
1
This media is not supported in your browser
VIEW IN TELEGRAM
3D-видеоконференции от NVIDIA, никакого спецоборудования, достаточно вебки. Бонусом - стилизация гворящей головы.

Скрестили Maxine 3D и AERIAL 5G
(Nvidia Aerial - пакет разработки ПО, который позволяет провайдерам создавать высокопроизводительные программно определяемые 5G беспроводные радиосети с двумя важными параметрами. Во-первых, это канал передачи данных низкой латентности от сетевых интерфейсных карт Mellanox до памяти GPU и, во-вторых, это движок обработки сигналов физического уровня 5G, который позволяет хранить все данные в высокопроизводительной памяти GPU)

#video2dideo #humanavatar #videoconference #realtime
This media is not supported in your browser
VIEW IN TELEGRAM
AvatarBooth: High-Quality and Customizable 3D Human Avatar Generation

Генерация анимируемого 3D-аватара по текстовому описанию. Возможна реконструкция персонажа по 4-6 фото с телефона или генератора изображений

Код обещают выложить

#textto3D #humanavatar #text2avatar #3Davatar
👍3
Слышали, ChatGPT в роли бабушки выдал рабочие (сам не проверял) ключи активации Windows 10? Так вот, это ерунда. На днях он выдал президентские коды пуска ЯО. Рабочие ли они пока никто не сообщил. Если у вас сработают, поделитесь результатами в комментах

Стащил у @neuraldvig
👍6🔥2
Forwarded from тоже моушн
Media is too big
VIEW IN TELEGRAM
минутка флюидной красоты - целиком на нейронках

в этой завораживающей анимации органично соединились два важных для меня элемента:

лора, обученная на кислотных флюидных картинках. рад поделиться ей на civitai

собственный аналог дефорума созданный с помощью Stable Houdini. он позволяет использовать Automatic1111 как движок генерации а все команды отправлять из Houdini.
нодами очень удобно и наглядно удалось собрать мощный сетап - он идеально подходит для 2д флюидной анимации и не только - гифки в комментах

сетапом тоже буду рад поделиться. и ваши лайки и репосты мотивируют меня поскорее подготовить файл и стрим на ютуб - о том как им пользоваться. всем любовь!

LoRa AcidFluid
Stable Houdini

@тоже_моушн
🔥71👍1
Forwarded from Stable Diffusion | Text2img
Ваш Telegram бот для локальной SD под automatic1111 и sdwebuiapi
Нужно лишь токен сделать.


- Если у вас локально установлен Stable Diffusion под Automatic1111 и вы хотите управлять им через telegram бота, установите его через extensions простым копированием ссылки.

Дальнейшая инструкция есть на github.
Бот использует sdwebuiapi и работает с локальным адресом.

Умеет генерировать превью, полноразмерные картинки, также отправлять документами и группами. Умеет "сочинять" промпты, брать их с lexica, есть скрипт поточного генерирования по всем моделям.

https://github.com/amputator84/sd_telegram
👍2
Forwarded from JCenterS Нейросети | DeepFake News (Денис)
Компания Reallusion выпустила Headshot 2.0 , последнюю версию своего плагина для создания головы с помощью ИИ для Character Creator 4 , добавив новый режим сетки для преобразования импортированных 3D-моделей. Плагин поставляется вместе с Character Creator 4.3.

Новый набор инструментов предназначен для работы с 3D-сканами, а также с цифровыми скульптурами,
и может справляться с неполным сканированием лица, используя ИИ для восстановления отсутствующих
или поврежденных частей
исходной модели.
Headshot генерирует любые недостающие части головы, что позволяет импортировать сканы или скульпты
с волосами или даже головными уборами
, а плагин игнорирует эти части исходной модели.

Headshot позиционируется как инструмент который одним щелчком мыши позволяет создать 3D-модели головы из одной фотографии актера с использованием методов ИИ. Головы можно создавать с текстурами 4096 x 4096 пикселей для использования в крупных планах или с текстурами 1024 x 1024 пикселей и 3D-волосами для использования в качестве персонажей толпы.

Новый режим сетки Headshot 2.0 позволяет преобразовывать импортированные 3D-сетки в персонажей Character Creator 4.
Несмотря на то, что у Character Creator есть собственная встроенная система импорта моделей , Reallusion позиционирует Headshot как « превосходный инструмент для работы с моделями которые имею серьезные недостатки», такими как необработанные 3D-сканы.
Модели можно импортировать в формате OBJ или FBX — хотя только FBX 2018 и более ранних версий — в виде полных 3D-персонажей, моделей голов или даже частичных голов.

Рабочий процесс поддерживает гуманоидных персонажей — хотя онлайн-документация предполагает, что он лучше работает со стандартными человеческими головами, — но не с нечеловеческими существами.

После создания 3D-голова может быть прикреплена к телу CC4 для экспорта с возможностью маскировать части лица,
чтобы избежать артефактов текстуры.

Официальное видео👈
Наш чатик👈
3
VAST: Video-Audio Separation through Text. Language-Guided Audio-Visual Source Separation via Trimodal Consistency

Изоляция источников звука на видео по текстовому запросу. Этакий vocalremover на стероидах. Указываем кого хотим слышать, кого не хотим - получаем изолированный звук от выбранного источника

Код

#audio2audio #video2video #video2audio #audioseparation #unmix