HumanNorm: Learning Normal Diffusion Model for High-quality and Realistic 3D Human Generation
Дуиффузионный генератор-редактор реалистичных 3D-человеков по тексту. Целиком, по пояс или только голова. Можно редактрировать модель или позу. Конкуренты выдают мультяшные модели, а тут за счет генерации нормалей добиваются большей реалистичности.
Код обещают выложить
Галерея 3D-моделей
#textto3D #text2human #text2avatar #humanavatar
Дуиффузионный генератор-редактор реалистичных 3D-человеков по тексту. Целиком, по пояс или только голова. Можно редактрировать модель или позу. Конкуренты выдают мультяшные модели, а тут за счет генерации нормалей добиваются большей реалистичности.
Код обещают выложить
Галерея 3D-моделей
#textto3D #text2human #text2avatar #humanavatar
😁4🔥3👍1
AutoGen
Платформа от Microsoft для создания мультиагентных систем. Это как ИИ-ассистент, только их там внутри несколько, и они взаимодействуют друг с другом.
Не знаю зачем вам это, но если надо, то вот оно есть в открытом доступе.
Код
#chatbot #assistant #LLM
Платформа от Microsoft для создания мультиагентных систем. Это как ИИ-ассистент, только их там внутри несколько, и они взаимодействуют друг с другом.
Не знаю зачем вам это, но если надо, то вот оно есть в открытом доступе.
Код
#chatbot #assistant #LLM
👍4
Moonvalley.ai
Держите новый генератор видео по тексту.
Идете на сайт, тыкате в кнопку
В дискорде после короткого опроса попадаете на начальную страницу, где можно почитать инструкцию.
А можно сразу перейти в один из каналов
Ждем ваши генерации в чате
# text2video
Держите новый генератор видео по тексту.
Идете на сайт, тыкате в кнопку
Try the Beta
- вас перекидывает в дискорд.В дискорде после короткого опроса попадаете на начальную страницу, где можно почитать инструкцию.
А можно сразу перейти в один из каналов
#new-moon
Видео генерится командой /create
У команды три параметра: prompt, style
и duration
. На стиль и продолжительность есть подсказки.Ждем ваши генерации в чате
# text2video
👍5
Firefly Vector
Генератор векторных изобрашений по тексту. Делает готовые рекламные макеты, генерит логотипы и принты.
Записаться в бету
#text2vector
Генератор векторных изобрашений по тексту. Делает готовые рекламные макеты, генерит логотипы и принты.
Записаться в бету
#text2vector
Adobe
Adobe Firefly - Free Generative AI for creatives
Create stunning images, audio, and now video, all in one place, with Adobe Firefly. Go from ideation to production seamlessly with commercially safe Firefly models.
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Firefly Vector Model или text-to-vector
Адобченко представила векторную модель Firefly. Adobe описывает новую модель как "первую в мире генеративную модель, ориентированную на создание векторной графики". Firefly для Illustrator сможет создавать всю векторную графику с нуля. Как и другие модели Firefly, векторная модель также обучалась на данных из Adobe Stock.
Молодцы они, конечно. Пока остальные рядятся в выравнивание и цензуру, Адобченко делает готовые инструменты и ворочает мешки.
https://techcrunch.com/2023/10/10/adobe-brings-its-firefly-generative-ai-models-to-vector-graphics-in-illustrator/
Адобченко представила векторную модель Firefly. Adobe описывает новую модель как "первую в мире генеративную модель, ориентированную на создание векторной графики". Firefly для Illustrator сможет создавать всю векторную графику с нуля. Как и другие модели Firefly, векторная модель также обучалась на данных из Adobe Stock.
Молодцы они, конечно. Пока остальные рядятся в выравнивание и цензуру, Адобченко делает готовые инструменты и ворочает мешки.
https://techcrunch.com/2023/10/10/adobe-brings-its-firefly-generative-ai-models-to-vector-graphics-in-illustrator/
👍4❤2
Firefly Image model 2 (beta)
В том же обновлении Firefly реалистичные человеки, улучшенное следование промпту, референсные картинки на вход.
#text2image #image2image
В том же обновлении Firefly реалистичные человеки, улучшенное следование промпту, референсные картинки на вход.
#text2image #image2image
❤7
This media is not supported in your browser
VIEW IN TELEGRAM
Там Elevenlabs выкатили нейродубляж.
Главное, есть русский язык.
Смеется уморительно, наслаждайтесь
Попробовать
#speech2speech #dubbing #voicetranslation
Главное, есть русский язык.
Смеется уморительно, наслаждайтесь
Попробовать
#speech2speech #dubbing #voicetranslation
😁15
This media is not supported in your browser
VIEW IN TELEGRAM
Появился демоспейс DreamGaussian, пока делает 3D модели только по изображению.
Кидайте генерации в коменты.
Демо
#imageto3D
Кидайте генерации в коменты.
Демо
#imageto3D
👍6❤1
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
А теперь про продукт, который должен релизнуться в начале следующего года - Simulon.
Попробую предположить и не обосраться. После трёх лет разработки нам хотят показать что-то наподобие Wonder Studio, но с другого ракурса. Скажу сразу, информации по проекту очень мало, а особенно про то, что у него под капотом.
У вас должен быть, как минимум, iPhone, чтобы снять видео. LiDAR'ом отсканировать пространство вокруг объекта и втрекать туда персонажа, действие, битву, любой VFX и так далее. Все это как раз считается в облаках.
Картинка рендерится по-честному, с отражениями, тенями, свет ставится на основе HDR-карты, которую получили из видео. Поэтому объекты выглядят втреканными и вкомпоженными.
На выходе вы получаете красивую картинку с интеграцией того, что вы туда засунули.
Вопросов, конечно, больше, чем ответов. Вангую, мы не получим никакого occlusion culling вообще, слабая программная база у ребят, явно.
Когда раздавали инвестиции тем же Wonder Studio, Simulon явно стоял на улице под дождем, грустно стекая вниз по стеклу.
Но конкуренция, конечно, - это всегда хорошо!😄
Попробую предположить и не обосраться. После трёх лет разработки нам хотят показать что-то наподобие Wonder Studio, но с другого ракурса. Скажу сразу, информации по проекту очень мало, а особенно про то, что у него под капотом.
У вас должен быть, как минимум, iPhone, чтобы снять видео. LiDAR'ом отсканировать пространство вокруг объекта и втрекать туда персонажа, действие, битву, любой VFX и так далее. Все это как раз считается в облаках.
Картинка рендерится по-честному, с отражениями, тенями, свет ставится на основе HDR-карты, которую получили из видео. Поэтому объекты выглядят втреканными и вкомпоженными.
На выходе вы получаете красивую картинку с интеграцией того, что вы туда засунули.
Вопросов, конечно, больше, чем ответов. Вангую, мы не получим никакого occlusion culling вообще, слабая программная база у ребят, явно.
Когда раздавали инвестиции тем же Wonder Studio, Simulon явно стоял на улице под дождем, грустно стекая вниз по стеклу.
Но конкуренция, конечно, - это всегда хорошо!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5
Нечаянно заметил что нас тут уже больше 2000 нейронавтов.
Спасибо тому одному подписчику который упорно ставил реакции на каждый мой пост весь прошлый год, иначе я бы не знал что мои посты кому-то нужны 🤗
На самом деле может и не одному, но для меня это почему-то выглядело как одна реакция = один и тот же подписчик.
Спасибо вам всем 🎉
Спасибо тому одному подписчику который упорно ставил реакции на каждый мой пост весь прошлый год, иначе я бы не знал что мои посты кому-то нужны 🤗
На самом деле может и не одному, но для меня это почему-то выглядело как одна реакция = один и тот же подписчик.
Спасибо вам всем 🎉
❤46👍14👏7🔥2
Forwarded from GigaChat
This media is not supported in your browser
VIEW IN TELEGRAM
🪄 В Kandinsky 2.2 появилась возможность создавать анимацию — пока только в тестовом режиме, совсем скоро мы расширим доступ к боту!
Чтобы сгенерировать ролик в режиме анимации, нужно описать текстом то, что хочется увидеть. Бот предложит на выбор 16 вариантов анимации, а после этого нейросеть сгенерирует её.
В основе подхода синтеза используется модель Kandinsky 2.2. Расширение её возможностей позволит пользователям перемещать объекты, приближать, отдалять их и оживлять статику.
Этого удалось достичь благодаря функциям inpainting/outpainting (дорисовка части изображения внутри и за его пределами) и image2image (перерисовка изображения по текстовому описанию), уже реализованным в базовой модели.
Отметим, что доступ тестовый — как и сама модель. Поэтому, если вы уже получили свой доступ (или как только получите), мы будем рады обратной связи — публично поделиться отзывом можно будет в ветке «Создаём AI-ролики c Kandinsky» нашего комьюнити.
Следите за новостями и комьюнити — скоро мы увеличим количество тестовых доступов.
Чтобы сгенерировать ролик в режиме анимации, нужно описать текстом то, что хочется увидеть. Бот предложит на выбор 16 вариантов анимации, а после этого нейросеть сгенерирует её.
В основе подхода синтеза используется модель Kandinsky 2.2. Расширение её возможностей позволит пользователям перемещать объекты, приближать, отдалять их и оживлять статику.
Этого удалось достичь благодаря функциям inpainting/outpainting (дорисовка части изображения внутри и за его пределами) и image2image (перерисовка изображения по текстовому описанию), уже реализованным в базовой модели.
Отметим, что доступ тестовый — как и сама модель. Поэтому, если вы уже получили свой доступ (или как только получите), мы будем рады обратной связи — публично поделиться отзывом можно будет в ветке «Создаём AI-ролики c Kandinsky» нашего комьюнити.
Следите за новостями и комьюнити — скоро мы увеличим количество тестовых доступов.
👍5😁1
Project Fast Fill
Тем временем Adobe среди прочих крышесносных штук показали экспериментальный #generativefiil для видео. Когда релизнут - неизвестно. Конкурентам срочно подсуетиться
#inpainting #videoinpainting #video2video
Тем временем Adobe среди прочих крышесносных штук показали экспериментальный #generativefiil для видео. Когда релизнут - неизвестно. Конкурентам срочно подсуетиться
#inpainting #videoinpainting #video2video
👍9😱4
Text-Based Editing
Еще от Adobe. Редактирование видео через текст в Premiere. Поддерживается 18 языков, в том числе русский.
#videoediting #video2video
Еще от Adobe. Редактирование видео через текст в Premiere. Поддерживается 18 языков, в том числе русский.
#videoediting #video2video