Нейронавт | Нейросети в творчестве
В InstantID уже везут мультиконтролнет, так он будет брать больше деталей с образцов твиттер
huggingface.co
InstantID - a Hugging Face Space by InstantX
This application allows you to upload an image with a face and generate new images where the face is preserved while the background or pose can be customized using various prompts and styles.
👍4
ImageFX
Генератор картинок от Google с интерфейсом, уже знакомым нам по генератору музыки MusicFX. Ну и правильно, зачем изобретать то что уже есть и работает.
Сначала он придумывает промт или улучшает ваш, потом тырк - получите 4 картинки. Или меньше если цензура сожрет. Скачиваются в разрешении 1536*1536, но это же апскейл, да?
Ах да, придется настроить VPN на США, иначе вы живете в неправильной стране.
#text2image
Генератор картинок от Google с интерфейсом, уже знакомым нам по генератору музыки MusicFX. Ну и правильно, зачем изобретать то что уже есть и работает.
Сначала он придумывает промт или улучшает ваш, потом тырк - получите 4 картинки. Или меньше если цензура сожрет. Скачиваются в разрешении 1536*1536, но это же апскейл, да?
Ах да, придется настроить VPN на США, иначе вы живете в неправильной стране.
#text2image
This media is not supported in your browser
VIEW IN TELEGRAM
SUPIR: Revolutionizing image restoration with cutting-edge large-scale AI
Реставратор-апскейлер изображений, управляемый текстовыми подсказками. По Одри видно, что черты лица искажает-таки. Но все же хорош!
Код
Демо ждем
#upscale #image2image #restoration
Реставратор-апскейлер изображений, управляемый текстовыми подсказками. По Одри видно, что черты лица искажает-таки. Но все же хорош!
Код
Демо ждем
#upscale #image2image #restoration
👍7
Forwarded from Derp Learning
Обнаружена серьезная проблема в VAE StableDiffusion 1.x, 2.x и других, использовавших его латентное пространство.
Суть такова: в идеале, латентное представление должно быть пространственно связано с кодируемой картинкой. То есть пиксели в углу картинки влияют только на тот же угловой кусок латентного вектора.
Но из-за ошибки при обучении KL-F8 VAE, информация обо всей картинке протекает через некоторые локальные пиксели.
То есть если вы измените пару латентных "пикселей" в том самом неудачном месте, вся картинка изменится - например, станет ярче или менее контрастнее. (рис.1) При этом если вы захотите привести картинку по яркости и контрасту к исходной, получите те самые артефакты VAE с "прожогами".
Поэтому уже сама диффузионная модель при обучении в латентном пространстве бракованного VAE учится обходить эту проблему, что приводит этим самым прожогам, и, вероятно, к менее эффективному использованию параметров.
SDXL этой проблеме не подвержен, так как там VAE учили уже нормально, а вот DALLE3, опенсорснутый VAE которого совместим с SD 1.x, страдает теми же прожогами.
Так что если будете учить свою foundation model, учите с нуля вместе с VAE, либо берите SDXL :D
подробнее
@derplearning
Суть такова: в идеале, латентное представление должно быть пространственно связано с кодируемой картинкой. То есть пиксели в углу картинки влияют только на тот же угловой кусок латентного вектора.
Но из-за ошибки при обучении KL-F8 VAE, информация обо всей картинке протекает через некоторые локальные пиксели.
То есть если вы измените пару латентных "пикселей" в том самом неудачном месте, вся картинка изменится - например, станет ярче или менее контрастнее. (рис.1) При этом если вы захотите привести картинку по яркости и контрасту к исходной, получите те самые артефакты VAE с "прожогами".
Поэтому уже сама диффузионная модель при обучении в латентном пространстве бракованного VAE учится обходить эту проблему, что приводит этим самым прожогам, и, вероятно, к менее эффективному использованию параметров.
SDXL этой проблеме не подвержен, так как там VAE учили уже нормально, а вот DALLE3, опенсорснутый VAE которого совместим с SD 1.x, страдает теми же прожогами.
Так что если будете учить свою foundation model, учите с нуля вместе с VAE, либо берите SDXL :D
подробнее
@derplearning
👍3
Forwarded from Арсен_аск
Всем привет, я сейчас собираю табличку со всеми графическими нейросетями, которые генерируют и обрабатывают картинки. Только картинки. Можете поделиться своим опытом и дать коментарии по тому какие нейросети лучше всего и какими вы пользуетесь в работе. Я в замен после того как все структурирую поделюсь общим файликом. Пишите лучше в личку потому что я на многих пабликах оставляю это предложение
👍22😁1
Наш подписчик каталогизирует генераторы картинок. Если хотите ему помочь пишите в ему в личку
Telegram
@
https://yangx.top/Ability_2112
🔥8👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Говорят, в Bard подключили Gemini Pro (конкурент GPT-4) и генератор картинок Imagen.
Теперь поддерживается русский язык среди 40 других. Но доступ для России так и не дали, дав его почти всем остальным.
#text2image #assistant #VLM
Теперь поддерживается русский язык среди 40 других. Но доступ для России так и не дали, дав его почти всем остальным.
#text2image #assistant #VLM
👍2
Media is too big
VIEW IN TELEGRAM
Опубликован код контроллера движения MotionDirector
Код
Демо
Демо2
Колаб
#video2video #video2motion #motion2video
Код
Демо
Демо2
Колаб
#video2video #video2motion #motion2video
🔥7
This media is not supported in your browser
VIEW IN TELEGRAM
One-shot Talking Face Generation from Single-speaker Audio-Visual Correlation Learning
Генератор говорящей головы из картинки и аудиофайла
Код
Демо
Колаб
#talkinghead
Генератор говорящей головы из картинки и аудиофайла
Код
Демо
Колаб
#talkinghead
👍7
This media is not supported in your browser
VIEW IN TELEGRAM
На некоммерческом GPU-кластере от camenduru в качестве альфа-теста временно доступен видеогенератор SVD. Рядом такой же бесплатный SD с тремя анимешными чекпойнитами. Пользуйтесь
Сгенерировать изображение в SD
Сгенерировать видео в SVD
#text2image #image2video
Сгенерировать изображение в SD
Сгенерировать видео в SVD
#text2image #image2video
👍4
Find Your Twins
Здесь можете залить свое фото и поискать своего двойника в датасете Face Aging Dataset
#image2image #twin
Здесь можете залить свое фото и поискать своего двойника в датасете Face Aging Dataset
#image2image #twin
👎6👍2
This media is not supported in your browser
VIEW IN TELEGRAM
AnimateLCM: Accelerating the Animation of Personalized Diffusion Models and Adapters with Decoupled Consistency Learning
Ускорение генерации видео, вдохновлённое LCM, за счет сокращения количества шагов
Гитхаб
Модель
Civitai
Демо
Демо2
Колаб
#text2video #image2video
Ускорение генерации видео, вдохновлённое LCM, за счет сокращения количества шагов
Гитхаб
Модель
Civitai
Демо
Демо2
Колаб
#text2video #image2video
🔥2
RPG-DiffusionMaster Extension for Stable Diffusion WebUI
Расширение RPG-DiffusionMaster для A1111.
Го тестить
#text2image #extension
Расширение RPG-DiffusionMaster для A1111.
Го тестить
#text2image #extension
👍4
Auto 1111 SDK: Stable Diffusion Python library
Легкая библиотека на Python для запуска SD.
Может быть полезно тем, у кого нет своей приличной видеокарты. Потому что есть колаб ноутбук. Он без web-ui, поэтому нет опасений что гугл его забанит.
Ноутбук быстрый, первые результаты вы можете получить уже через несколько минут после запуска
В колабе реализовано
- Оригинальные режимы txt2img и img2img
- апскейл
- Outpainting
- Inpainting
Разработчики планируют добавлять поддержку Lora, SDXL, Controlnet и т д
Гитхаб
Колаб
#text2image #image2image #inpainting #outpainting #upscale #stablediffusion
Легкая библиотека на Python для запуска SD.
Может быть полезно тем, у кого нет своей приличной видеокарты. Потому что есть колаб ноутбук. Он без web-ui, поэтому нет опасений что гугл его забанит.
Ноутбук быстрый, первые результаты вы можете получить уже через несколько минут после запуска
В колабе реализовано
- Оригинальные режимы txt2img и img2img
- апскейл
- Outpainting
- Inpainting
Разработчики планируют добавлять поддержку Lora, SDXL, Controlnet и т д
Гитхаб
Колаб
#text2image #image2image #inpainting #outpainting #upscale #stablediffusion
GitHub
GitHub - Auto1111SDK/Auto1111SDK: An SDK/Python library for Automatic 1111 to run state-of-the-art diffusion models
An SDK/Python library for Automatic 1111 to run state-of-the-art diffusion models - Auto1111SDK/Auto1111SDK
👍7❤1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Houdini + Stable Diffusion
Принес годноты для CG-взрослых.
Симуляция в Гудини, нейрорендер в Stable Diffusion (Комфи+КонтролНет).
В Гудини генерятся частицы, маска и глубина, потом все это забирается в Stable Diffusion и кормится в ControlNet и Animatediff.
Вот такой нейрорендер нам нужен!
Более того, держите:
Подробный тутор, где все это расписано.
Канал этого удивительного чувака, который скрещивает 3Д и нейрорендеринг.
И клондайк из разных полезных постов для тех, кто в кино и VFX.
Enjoy CG-Bros.
P.S. Представьте, лукдев теперь это текстовый промпт и выбор чекпойнта (утрирую, конечно).
Принес годноты для CG-взрослых.
Симуляция в Гудини, нейрорендер в Stable Diffusion (Комфи+КонтролНет).
В Гудини генерятся частицы, маска и глубина, потом все это забирается в Stable Diffusion и кормится в ControlNet и Animatediff.
Вот такой нейрорендер нам нужен!
Более того, держите:
Подробный тутор, где все это расписано.
Канал этого удивительного чувака, который скрещивает 3Д и нейрорендеринг.
И клондайк из разных полезных постов для тех, кто в кино и VFX.
Enjoy CG-Bros.
P.S. Представьте, лукдев теперь это текстовый промпт и выбор чекпойнта (утрирую, конечно).
❤20👍7