Dreams and Robots
3.07K subscribers
120 photos
20 videos
1 file
67 links
ИИ на практике или "мама, а меня тоже заменят?"
加入频道
Немного новостей про Stable Houdini.

Я добавил две новые ноды:

- SD Preprocessor, которая позволяет получать результат работы препроцессора из Контролнета и генерировать карты глубины, нормалей и так далее.

- SD Png Info, которая читает параметры генерации из картинки и сохраняет их в атрибутах для переиспользования.

На ноде SD Prompt добавился выбор эмбеддингов и гипернетворков. Лор пока нет. Они работают, но их нужно копировать из промпта в Автоматике.

Так что рекомендую обновиться.

Все значимые обновления я описываю в разделе Announcements на Гитхабе:
https://github.com/stassius/StableHoudini/discussions/categories/announcements

Кстати, поставьте звездочку на Гитхабе, что ли? Вам не сложно, а мне приятно.

#stablehoudini
67🔥22👍18
Ищу онлайн-сервис со Stable Diffusion, хочу жену подсадить на это дело.

Midjourney неплохой вариант, но Discord в качестве фронт-енда это совсем извращение на любителя.

Пока что я остановился на leonardo.ai (не реклама). Под капотом обычный Stable Diffusion, невысокая цена.

Плюсы:
- Есть сторонние модели! Это киллер-фича, поскольку здесь я также могу использовать DreamShaper или Delibirate, как и на локальном SD.
- Есть инпейнт и аутпейнт. Unzoom, удаление бэкграунда, апскейл и тайлинг
- Возможность обучать на собственных датасетах.
- Есть бесплатные генерации, 150 токенов в день.
- КонтролНет. Есть три модели - простой OpenPose, Depth и Canny.
- Image2Image
- Генерация текстур для Obj-моделей, но я не разбирался, если честно. Скорее всего шляпа.
- Community Feed. Можно смотреть чужие работы и сразу же пробовать понравившиеся настройки и промпты в своих генерациях.

Минусы:
- Закрытость и минимум информации. Почему-то все подобные сервисы делают вид, что внутри у них суперсекретная неонка, и скрывают от пользователя подробности работы. Например, в том же обучении непонятно, что именно тренируется - Lora, Hypernetwork или сразу DreamBooth.
- Скрытые параметры. Параметров чуть больше, чем в других подобных сервисах, но все равно мало. Например тут очень нелогичные и непонятные опции апскейла. При этом в Coming Soon обещают дать возможность их редактировать - но только пользователям продвинутого плана. Бред.
- Нет привычных лор, эмбеддингов и гипернетворков. Очень жду сервис, который позволит их использовать.

В общем, первые впечатления неплохие. По крайней мере это лучше какого-нибудь DreamStudio, Scenario.gg и Lexica.art.

Если у вас есть на примете подобные недорогие сервисы со стейблом -- напишите в комментариях.

https://leonardo.ai
Чтобы зарегистрироваться надо оставить почту, через какое-то время (несколько дней) вам придёт инвайт. Закрытый клуб, понимаете.

#сервисы
👍15🥱3😁1🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Играл с генерацией ландшафтов и проиграл.

Нагенерировал 20 хайрезных спутниковых карт с помощью Лоры MapSatimageEU и вот такого промпта:
mapsatimageeu, Satellite map of a rocky mountain range, highly detailed, 8k, sharp, desert valleys, mountain tops, <lora:MapSatimageEU_V1.0_ST_LoRa:1>

Препроцессором Depth Leres превратил их в карты глубины, создал террейн, просимулировал эрозию, сохранил в кэш.

Вроде бы получились неплохие заготовки для дальнейшей обработки.

Поскольку работаю в Гудини, весь процесс от генерации картинок до рендера финальных секвенций запускается одной кнопкой.

#stablehoudini #stablediffusion
👍49🔥305😁1
Вы только посмотрите, какую красоту сделал наш подписчик Рустам со Stable Houdini!

Лайк и ретвит, пожалуйста!

https://twitter.com/KRu3ty/status/1655980595703316480

#stablehoudini
🔥59👍7❤‍🔥5💩2
Между тем на реддите назрела новая драма, связанная с ИИ-артом. Пользователь утверждает, что Стим отказался публиковать его игру из-за ассетов, созданных в Stable Diffusion.

С большой вероятностью это была просто плохая игра, то, что называется ассет-флип, но пример показателен, потому что в ответном письме Стима упоминаются именно авторские права на арт, и если это может быть формальной причиной отказа, об этом стоит задуматься.

Перевод ответа Стима:
Мы обнаружили в вашей игре интеллектуальную собственность, принадлежащую третьим лицам. В частности в вашей игре есть визуальные ассеты, сгенерированный ИИ на основе материалов, принадлежащих третьей стороне. Поскольку законное авторство таких ассетов остаётся серой зоной, мы не можем опубликовать вашу игру с этими ассетами, до тех пор, пока вы не сможете подтвердить, что вы обладаете правами на всю интеллектуальную собственность в датасете, на котором тренировался ИИ, создавший ассеты в вашей игре.


Мы уже публиковали разбор разъяснения американского регулятора по вопросам регистрации авторского права для произведений, созданных ИИ. Напомню, что вы не можете являться автором произведения, если не внесли достаточный вклад в его создание, причём промпт таковым не является. Если вы генерируете картинки, необходимо сильно их дорисовывать, чтобы они могли считаться уникальными. В данном случае в ответе есть странная фраза про права на датасет, это похоже на персональный бред конкретного сотрудника Стима. Они, конечно, частная компания, но вряд ли пойдут против решения федерального агентства по авторскому праву.

Что думаете?

Оригинальный пост на Реддите:
https://www.reddit.com/r/gamedev/comments/13cce1y/game_rejected_for_ai_generated_assets/

Наш пост про авторские права:
https://yangx.top/dreamsrobots/89

#авторское_право
🤔15🤡6🥱3😁1🤯1👌1
Если сделать несколько ракурсов с картой глубины персонажа на одном изображении, а потом использовать его в КонтролНет, то получится более-менее консистентная раскадровка.

В приведенном примере я сделал один кадр 640х640, поместил в сетку 1280х1280. Но это сработает и с другими соотношениями сторон.

Так можно генерировать ключевые кадры для EbSynth, если вы понимаете, о чём я.

В комментариях напишу, как это сделать в Гудини автоматически, без размещения ракурсов вручную.

#stablediffusion #совет
👍40🔥2131
Вы наверняка слышали про Instruct pix2pix. Это модель, которая позволяет менять картинку на основе текстового запроса типа "make his hair blue" или "turn it into a wood carving".

Так вот, изначальный вариант pix2pix, который был реализован в Автоматике, уже устарел. Теперь гораздо удобнее пользоваться pix2pix моделью КонтролНета. Она позволяет работать с хайрезными изображениями и в ней не нужно париться с двойной настройкой Denoising strength.

Работает прямо в text2image. Добавьте исходную картинку в ControlNet, оставьте препроцессор в "none", выберите модель "Control_v11e_sd15_ip2p", поставьте правильное разрешение картинки, наберите вашу инструкцию в поле промпта и жмите Generate.

Например я взял исходную картинку с древним городом, превратил ее в схематичный рисунок, в зимнюю сцену и в ночную с огнём.

#совет #A1111 #stablehoudini
👍59🔥20💯32
Inpaint-модели отличаются от остальных тем, что позволяют использовать форму черно-белой маски при генерации. Модель встроит новое изображение точно в ее границы.

До недавнего времени инпейнт-модели нужно было отдельно получать хитрыми операциями из существующих. Но теперь у нас есть инпейнтинг прямо в ControlNet 1.1.

Переключитесь в Image2image, добавьте исходное изображение и маску, сделайте все необходимые настройки, как в обычном инпейнте.

Теперь включайте контролнет, выбирайте в нем Inpaint-препроцессор и Inpaint-модель. Важно, что при этом картинка в самом контролнете должна отсутствовать -- в этом случае он возьмет её из маски image2image. Если вы работаете в Stable Houdini, переключитесь в Image type - File и сотрите имя файла.

Вот и вся хитрость, теперь абсолютно любой чекпойнт будет работать как Inpaint. На приложенных примерах я сгенерировал локацию старинного храма и добавил дверь в инпейнте.

#stablediffusion #A1111 #совет #controlnet #stablehoudini
🔥2812👍5
Потестил инпейнт в ControlNet, который работает без промпта, "как в новом Фотошопе". Довольно прикольная штука.

Менять части изображения, затирать объекты можно было и раньше, просто надо было подбирать промпт, по которому генерируется изображение внутри маски. Теперь все стало проще.

Чтобы воспользоваться новой фичей достаточно обновить расширение ControlNet, модель инпейнта при этом используется старая. Можно на всякий случай обновить и модель control_v11p_sd15_inpaint отсюда: https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main

Во вкладке text2image Автоматика поместите свою картинку в контролнет, выберите препроцессор Inpaint only и модель control_v11p_sd15_inpaint. Скопируйте разрешение картинки из контролнета в настройки генерации (кнопка в виде стрелочки вправо и наверх), включите Pixel Perfect и рисуйте маску. Поле Prompt нужно оставить пустым. Можете поиграть с ControlMode, он немного влияет на результат.

По моим наблюдениям лучше всего этот способ работает с маленькими масками. Чем больше маску вы попробуете залить, тем сложнее Контролнету будет понять, что нужно нарисовать, и придётся помогать ему промптом.

На текущий момент в расширении есть баг: когда вы стираете маску и начинаете рисовать новую, старая все еще сохраняется в кэше и будет влиять на генерацию. Надо удалить и заново выбрать картинку.

#A1111 #controlnet
27👍8🔥6💩2
Я добавил поддержку Kohya_ss в Stable Houdini. Теперь можно тренировать Лоры прямо из Гудини, встроив тренировку в свой пайплайн.

Если вам надо воссоздать конкретный стиль, объект или персонажа, Лора вам в этом поможет. Тренировка с адекватными параметрами достаточно быстрая, от 5 минут на gtx4090 до 40 на старых картах, это вам не "ставить рендер на ночь", дольше возишься с датасетом, чем с самим обучением.

Нода для обучения в Гудини даёт возможность делать wedge, то есть автоматически, в пакетном режиме, создавать Лоры с разными значениями параметров. Не знаете, на что влияет Network Rank или Learning Rate? Можно за ночь обучить пару десятков или даже сотню Лор и проснуться к готовым картинкам для сравнения, если вам такое нравится.

В комплекте идут два готовых профиля, Простой и Средний. В них разное число параметров выведено на интерфейс. Все настройки стандартно-дефолтные для хорошего результата, так что можно втыкать Простой профиль и сразу тренировать Лоры. Профили универсальные, так что я потом еще добавлю тренировку Dreambooth и Textual Inversion для истинных ценителей жанра.

А для подготовки датасета есть отдельная нода SD Dataset Preparation, которая тянет картинки в нужную папку, кропит и скейлит, при необходимости создает текстовые описания. На мой взгляд пользоваться удобно.

Для использования нужно обновить Stable Houdini с Гитхаба. Если среди нас есть ниндзя обучения, владеющие ещё и Гудини, буду благодарен за тестирование и обратную связь.

Урок запишу позже, а пока вот вам текстовое руководство, как этим делом пользоваться:

https://github.com/stassius/StableHoudini/wiki/How-to-train-LoRA

#stablehoudini #stablediffusion #lora
🔥8710🤯8👍4🤡1
Forwarded from тоже моушн
Media is too big
VIEW IN TELEGRAM
минутка флюидной красоты - целиком на нейронках

в этой завораживающей анимации органично соединились два важных для меня элемента:

лора, обученная на кислотных флюидных картинках. рад поделиться ей на civitai

собственный аналог дефорума созданный с помощью Stable Houdini. он позволяет использовать Automatic1111 как движок генерации а все команды отправлять из Houdini.
нодами очень удобно и наглядно удалось собрать мощный сетап - он идеально подходит для 2д флюидной анимации и не только - гифки в комментах

сетапом тоже буду рад поделиться. и ваши лайки и репосты мотивируют меня поскорее подготовить файл и стрим на ютуб - о том как им пользоваться. всем любовь!

LoRa AcidFluid
Stable Houdini

@тоже_моушн
🔥12330🤯4🤩2👍1🤮1