Нейронавт | Нейросети в творчестве
9.4K subscribers
3.62K photos
3.14K videos
40 files
4.1K links
Канал про нейросети в компьютерной графике, в кино и вообще

В папках не участвую

для связи @Neuronauticus
加入频道
This media is not supported in your browser
VIEW IN TELEGRAM
нейроанимации становятся более смотрибельными

1. анимация в UnrealEngine5
2. #deforum #stablediffusion
3. Premiere

твиттер
🔥2
В продолжение предыдущего поста.
Идея такая: скрамливаем CLIP Interrogator'у картинку, и текст который он нам выдаст, подаем в любой #stablediffusion в качестве запроса.
Люди, например, так издеваются над своими селфи.
А я над известными фильмами и фото.

Это еще не все, у меня много)
Если решите поиграть в эту игру, приглашаю делиться своими результатами в чате
Еще один удобный #stablediffusion
https://visualise.ai/studio
(нужен аккаунт). Дают 100 токенов, потом ограничивают бесплатные генерации до 512*512
Продолжаем баловство.
Сегодня в программе знаменитые фотографии
Модель #stablediffusion обученная на генерациях #midjourney v4
Метанейроарт

Подсказка: модель как и другие подобные модели, можно использовать в колабе или скачать и использовать локально например в AUTOMATIC1111

https://huggingface.co/prompthero/midjourney-v4-diffusion
👍3🔥1
модель #stablediffusion для генерации картинок в стиле pop-up book (объемная книга)

Скачиваем, подгружаем в свой любимый GUI или колаб
This media is not supported in your browser
VIEW IN TELEGRAM
Прототипирование модели космического корабля в #StableDiffusion + Blender за полчаса, таймлапс

твиттер
🔥2
Там придумали ELITE - новый способ дообучения SD по одной фотке меньше чем за секунду.

В репозитории пока пусто, ждем

твит
#stablediffusion #finetuning #text2image #image2image
🔥3
Forwarded from Dreams and Robots
This media is not supported in your browser
VIEW IN TELEGRAM
Хотите читать метатеги из сгенерированных картинок, при этом не вылезая из своего любимого просмотрщика?

Специально для вас я написал маленькое Windows-приложение MetaParser, которое показывает промпты, сид и прочую информацию, сохраненяемую Автоматиком в картинке. Оно легковесное, запускается мгновенно, принимает картинки в командной строке.

То есть вы можете в просмотрщике картинок установить MetaParser как внешний редактор и открывать по хоткею, в FastStone ImageViewer это по умолчанию "E", очень удобно.

Клик на строку -> копировать в буфер обмена.
Escape -> закрыть приложение.
Ctrl+V -> вставить картинку из буфера.
Так же картинки можно перетаскивать на окно.

Если ваш просмотрщик не позволяет настроить внешнюю программу, как, например, Eagle.cool, то вы можете использовать стороннюю утилиту AutoHotkey (пример скрипта приведен в описании на Гитхабе).

Пользуйтесь! Баг-репорты и фича-реквесты принимаются.

https://github.com/stassius/MetaParser

Идите в Releases, скачивайте и распаковывайте архив. Приложение готово к использованию. Цвета можно настроить в файле app.cfg

#stablediffusion #совет
👍2
BREAKING NEWS

Stability AI с радостью объявляет о запуске Stable Diffusion Reimagine! Мы приглашаем пользователей поэкспериментировать с изображениями и "переосмыслить" свой дизайн с помощью стабильной диффузии.

Stable Diffusion Reimagine - это новый инструмент Clipdrop, который позволяет пользователям создавать множество вариантов одного изображения без ограничений. Нет необходимости в сложных подсказках: пользователи могут просто загрузить изображение в алгоритм, чтобы создать столько вариантов, сколько они захотят.
Можно играть со стилем. Есть апскейлер

Код скоро выложат

#stablediffusion
👍1
Forwarded from Нейроновости - SD|MJ|GPT etc (TelepostBot)
Media is too big
VIEW IN TELEGRAM
Stable Diffusion и ControlNet полностью интегрировали в Blender. Теперь генерировать изображения можно прямо внутри программы. На видео выше можно увидеть что все работает с помощью привычных нод. Можно рендедерить картинки в разы быстрее чем используя рендер движки, а так же не думать о текстурах. Нужна только форма и описание.

GitHub: https://github.com/carson-katri/dream-textures/releases/tag/0.2.0
Wiki: https://github.com/carson-katri/dream-textures/wiki/Render-Engine

#stablediffusion

Нейроновости
👍4🔥31
Perfusion: Key-Locked Rank One Editing forText-to-Image Personalization

Похоже, в полку методов дообучения #StableDiffusion прибыло от NVIDIA.

Мы представляем Perfusion, новый метод персонализации текста в изображение. Имея размер модели всего 100 КБАЙТ и обучаясь примерно 4 минуты, Perfusion может творчески изображать персонализированные объекты. Это позволяет значительно изменить их внешний вид, сохраняя при этом их индивидуальность, используя новый механизм, который мы называем “Запиранием на ключ”. Perfusion также может объединять индивидуально изученные концепции в единое сгенерированное изображение. Наконец, это позволяет контролировать компромисс между визуальным и текстовым выравниванием во время вывода, охватывая весь фронт Парето с помощью всего лишь одной обученной модели.

Код обещают позже

#finetuning #text2image
🔥3
Forwarded from Dreams and Robots
Inpaint-модели отличаются от остальных тем, что позволяют использовать форму черно-белой маски при генерации. Модель встроит новое изображение точно в ее границы.

До недавнего времени инпейнт-модели нужно было отдельно получать хитрыми операциями из существующих. Но теперь у нас есть инпейнтинг прямо в ControlNet 1.1.

Переключитесь в Image2image, добавьте исходное изображение и маску, сделайте все необходимые настройки, как в обычном инпейнте.

Теперь включайте контролнет, выбирайте в нем Inpaint-препроцессор и Inpaint-модель. Важно, что при этом картинка в самом контролнете должна отсутствовать -- в этом случае он возьмет её из маски image2image. Если вы работаете в Stable Houdini, переключитесь в Image type - File и сотрите имя файла.

Вот и вся хитрость, теперь абсолютно любой чекпойнт будет работать как Inpaint. На приложенных примерах я сгенерировал локацию старинного храма и добавил дверь в инпейнте.

#stablediffusion #A1111 #совет #controlnet #stablehoudini
🔥5
Unpaint
Порт StableDiffusion на C++
Это значит человеческий инсталлятор, человеческий запуск и человеческий интерфейс (предположительно).
В то же время это означает что у вас будет только базовый функционал пока разрабы не подгонят порты ваших любимых расширений.

Ядро порта опенсорс, лицензия MIT

Гитхаб, релиз инсталлятора справа

#stablediffusion #tools
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
After-Diffusion

Бесплатный Stable Diffusion - плагин для AfterEffects.
Подразумевается что у вас должен быть webui

Фичи:
- генерация по по расставленным в АЕ ключам. Можно задать анимацию CFG, денойза, параметров ControlNet и т д.
- Txt2Img, Img2Img + Inpaint, Inpaint Sketch, Multi-Controlnet и т д
- фоновый вывод - изменения параметров автоматически обрабатываются и выводтся
- сетки изображений
- управляющие изображения для всех типов генераций
- Лайв превью
- генерация по маске АЕ

Гитхаб

#plugin #tools #stablediffusion #AE
🔥3
ScaleCrafter: Tuning-free Higher-Resolution Visual Generationwith Diffusion Models

А вот этот генератор видео и картинок на основе #StableDiffusion поинтереснее. Акцент на высоком разрешении и произвольном соотношении сторон без дообучения и оптимизаций. Результаты крутые

Код

#text2image #text2video
🔥5👍3
Auto 1111 SDK: Stable Diffusion Python library

Легкая библиотека на Python для запуска SD.
Может быть полезно тем, у кого нет своей приличной видеокарты. Потому что есть колаб ноутбук. Он без web-ui, поэтому нет опасений что гугл его забанит.

Ноутбук быстрый, первые результаты вы можете получить уже через несколько минут после запуска

В колабе реализовано
- Оригинальные режимы txt2img и img2img
- апскейл
- Outpainting
- Inpainting

Разработчики планируют добавлять поддержку Lora, SDXL, Controlnet и т д

Гитхаб
Колаб

#text2image #image2image #inpainting #outpainting #upscale #stablediffusion
👍71
Stable Diffusion WebUI Forge

Облегченный и ускоренный StableDiffusion для слабого железа от автора ControlNet.
Попробую на 1060 6GB

[update] отлично работает, 12 секунд на картинку 512*512, 20 шагов

Гитхаб
cборка для установки в один клик

#tools #stablediffusion
👍18👀2