Между тем на реддите назрела новая драма, связанная с ИИ-артом. Пользователь утверждает, что Стим отказался публиковать его игру из-за ассетов, созданных в Stable Diffusion.
С большой вероятностью это была просто плохая игра, то, что называется ассет-флип, но пример показателен, потому что в ответном письме Стима упоминаются именно авторские права на арт, и если это может быть формальной причиной отказа, об этом стоит задуматься.
Перевод ответа Стима:
Мы уже публиковали разбор разъяснения американского регулятора по вопросам регистрации авторского права для произведений, созданных ИИ. Напомню, что вы не можете являться автором произведения, если не внесли достаточный вклад в его создание, причём промпт таковым не является. Если вы генерируете картинки, необходимо сильно их дорисовывать, чтобы они могли считаться уникальными. В данном случае в ответе есть странная фраза про права на датасет, это похоже на персональный бред конкретного сотрудника Стима. Они, конечно, частная компания, но вряд ли пойдут против решения федерального агентства по авторскому праву.
Что думаете?
Оригинальный пост на Реддите:
https://www.reddit.com/r/gamedev/comments/13cce1y/game_rejected_for_ai_generated_assets/
Наш пост про авторские права:
https://yangx.top/dreamsrobots/89
#авторское_право
С большой вероятностью это была просто плохая игра, то, что называется ассет-флип, но пример показателен, потому что в ответном письме Стима упоминаются именно авторские права на арт, и если это может быть формальной причиной отказа, об этом стоит задуматься.
Перевод ответа Стима:
Мы обнаружили в вашей игре интеллектуальную собственность, принадлежащую третьим лицам. В частности в вашей игре есть визуальные ассеты, сгенерированный ИИ на основе материалов, принадлежащих третьей стороне. Поскольку законное авторство таких ассетов остаётся серой зоной, мы не можем опубликовать вашу игру с этими ассетами, до тех пор, пока вы не сможете подтвердить, что вы обладаете правами на всю интеллектуальную собственность в датасете, на котором тренировался ИИ, создавший ассеты в вашей игре.
Мы уже публиковали разбор разъяснения американского регулятора по вопросам регистрации авторского права для произведений, созданных ИИ. Напомню, что вы не можете являться автором произведения, если не внесли достаточный вклад в его создание, причём промпт таковым не является. Если вы генерируете картинки, необходимо сильно их дорисовывать, чтобы они могли считаться уникальными. В данном случае в ответе есть странная фраза про права на датасет, это похоже на персональный бред конкретного сотрудника Стима. Они, конечно, частная компания, но вряд ли пойдут против решения федерального агентства по авторскому праву.
Что думаете?
Оригинальный пост на Реддите:
https://www.reddit.com/r/gamedev/comments/13cce1y/game_rejected_for_ai_generated_assets/
Наш пост про авторские права:
https://yangx.top/dreamsrobots/89
#авторское_право
Reddit
From the gamedev community on Reddit: Game Rejected for AI generated Assets
Explore this post and more from the gamedev community
🤔15🤡6🥱3😁1🤯1👌1
Если сделать несколько ракурсов с картой глубины персонажа на одном изображении, а потом использовать его в КонтролНет, то получится более-менее консистентная раскадровка.
В приведенном примере я сделал один кадр 640х640, поместил в сетку 1280х1280. Но это сработает и с другими соотношениями сторон.
Так можно генерировать ключевые кадры для EbSynth, если вы понимаете, о чём я.
В комментариях напишу, как это сделать в Гудини автоматически, без размещения ракурсов вручную.
#stablediffusion #совет
В приведенном примере я сделал один кадр 640х640, поместил в сетку 1280х1280. Но это сработает и с другими соотношениями сторон.
Так можно генерировать ключевые кадры для EbSynth, если вы понимаете, о чём я.
В комментариях напишу, как это сделать в Гудини автоматически, без размещения ракурсов вручную.
#stablediffusion #совет
👍40🔥21❤3⚡1
Вы наверняка слышали про Instruct pix2pix. Это модель, которая позволяет менять картинку на основе текстового запроса типа "make his hair blue" или "turn it into a wood carving".
Так вот, изначальный вариант pix2pix, который был реализован в Автоматике, уже устарел. Теперь гораздо удобнее пользоваться pix2pix моделью КонтролНета. Она позволяет работать с хайрезными изображениями и в ней не нужно париться с двойной настройкой Denoising strength.
Работает прямо в text2image. Добавьте исходную картинку в ControlNet, оставьте препроцессор в "none", выберите модель "Control_v11e_sd15_ip2p", поставьте правильное разрешение картинки, наберите вашу инструкцию в поле промпта и жмите Generate.
Например я взял исходную картинку с древним городом, превратил ее в схематичный рисунок, в зимнюю сцену и в ночную с огнём.
#совет #A1111 #stablehoudini
Так вот, изначальный вариант pix2pix, который был реализован в Автоматике, уже устарел. Теперь гораздо удобнее пользоваться pix2pix моделью КонтролНета. Она позволяет работать с хайрезными изображениями и в ней не нужно париться с двойной настройкой Denoising strength.
Работает прямо в text2image. Добавьте исходную картинку в ControlNet, оставьте препроцессор в "none", выберите модель "Control_v11e_sd15_ip2p", поставьте правильное разрешение картинки, наберите вашу инструкцию в поле промпта и жмите Generate.
Например я взял исходную картинку с древним городом, превратил ее в схематичный рисунок, в зимнюю сцену и в ночную с огнём.
#совет #A1111 #stablehoudini
👍59🔥20💯3❤2
Inpaint-модели отличаются от остальных тем, что позволяют использовать форму черно-белой маски при генерации. Модель встроит новое изображение точно в ее границы.
До недавнего времени инпейнт-модели нужно было отдельно получать хитрыми операциями из существующих. Но теперь у нас есть инпейнтинг прямо в ControlNet 1.1.
Переключитесь в Image2image, добавьте исходное изображение и маску, сделайте все необходимые настройки, как в обычном инпейнте.
Теперь включайте контролнет, выбирайте в нем Inpaint-препроцессор и Inpaint-модель. Важно, что при этом картинка в самом контролнете должна отсутствовать -- в этом случае он возьмет её из маски image2image. Если вы работаете в Stable Houdini, переключитесь в Image type - File и сотрите имя файла.
Вот и вся хитрость, теперь абсолютно любой чекпойнт будет работать как Inpaint. На приложенных примерах я сгенерировал локацию старинного храма и добавил дверь в инпейнте.
#stablediffusion #A1111 #совет #controlnet #stablehoudini
До недавнего времени инпейнт-модели нужно было отдельно получать хитрыми операциями из существующих. Но теперь у нас есть инпейнтинг прямо в ControlNet 1.1.
Переключитесь в Image2image, добавьте исходное изображение и маску, сделайте все необходимые настройки, как в обычном инпейнте.
Теперь включайте контролнет, выбирайте в нем Inpaint-препроцессор и Inpaint-модель. Важно, что при этом картинка в самом контролнете должна отсутствовать -- в этом случае он возьмет её из маски image2image. Если вы работаете в Stable Houdini, переключитесь в Image type - File и сотрите имя файла.
Вот и вся хитрость, теперь абсолютно любой чекпойнт будет работать как Inpaint. На приложенных примерах я сгенерировал локацию старинного храма и добавил дверь в инпейнте.
#stablediffusion #A1111 #совет #controlnet #stablehoudini
🔥28❤12👍5
Потестил инпейнт в ControlNet, который работает без промпта, "как в новом Фотошопе". Довольно прикольная штука.
Менять части изображения, затирать объекты можно было и раньше, просто надо было подбирать промпт, по которому генерируется изображение внутри маски. Теперь все стало проще.
Чтобы воспользоваться новой фичей достаточно обновить расширение ControlNet, модель инпейнта при этом используется старая. Можно на всякий случай обновить и модель control_v11p_sd15_inpaint отсюда: https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main
Во вкладке text2image Автоматика поместите свою картинку в контролнет, выберите препроцессор Inpaint only и модель control_v11p_sd15_inpaint. Скопируйте разрешение картинки из контролнета в настройки генерации (кнопка в виде стрелочки вправо и наверх), включите Pixel Perfect и рисуйте маску. Поле Prompt нужно оставить пустым. Можете поиграть с ControlMode, он немного влияет на результат.
По моим наблюдениям лучше всего этот способ работает с маленькими масками. Чем больше маску вы попробуете залить, тем сложнее Контролнету будет понять, что нужно нарисовать, и придётся помогать ему промптом.
На текущий момент в расширении есть баг: когда вы стираете маску и начинаете рисовать новую, старая все еще сохраняется в кэше и будет влиять на генерацию. Надо удалить и заново выбрать картинку.
#A1111 #controlnet
Менять части изображения, затирать объекты можно было и раньше, просто надо было подбирать промпт, по которому генерируется изображение внутри маски. Теперь все стало проще.
Чтобы воспользоваться новой фичей достаточно обновить расширение ControlNet, модель инпейнта при этом используется старая. Можно на всякий случай обновить и модель control_v11p_sd15_inpaint отсюда: https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main
Во вкладке text2image Автоматика поместите свою картинку в контролнет, выберите препроцессор Inpaint only и модель control_v11p_sd15_inpaint. Скопируйте разрешение картинки из контролнета в настройки генерации (кнопка в виде стрелочки вправо и наверх), включите Pixel Perfect и рисуйте маску. Поле Prompt нужно оставить пустым. Можете поиграть с ControlMode, он немного влияет на результат.
По моим наблюдениям лучше всего этот способ работает с маленькими масками. Чем больше маску вы попробуете залить, тем сложнее Контролнету будет понять, что нужно нарисовать, и придётся помогать ему промптом.
На текущий момент в расширении есть баг: когда вы стираете маску и начинаете рисовать новую, старая все еще сохраняется в кэше и будет влиять на генерацию. Надо удалить и заново выбрать картинку.
#A1111 #controlnet
❤27👍8🔥6💩2
Я добавил поддержку Kohya_ss в Stable Houdini. Теперь можно тренировать Лоры прямо из Гудини, встроив тренировку в свой пайплайн.
Если вам надо воссоздать конкретный стиль, объект или персонажа, Лора вам в этом поможет. Тренировка с адекватными параметрами достаточно быстрая, от 5 минут на gtx4090 до 40 на старых картах, это вам не "ставить рендер на ночь", дольше возишься с датасетом, чем с самим обучением.
Нода для обучения в Гудини даёт возможность делать wedge, то есть автоматически, в пакетном режиме, создавать Лоры с разными значениями параметров. Не знаете, на что влияет Network Rank или Learning Rate? Можно за ночь обучить пару десятков или даже сотню Лор и проснуться к готовым картинкам для сравнения, если вам такое нравится.
В комплекте идут два готовых профиля, Простой и Средний. В них разное число параметров выведено на интерфейс. Все настройки стандартно-дефолтные для хорошего результата, так что можно втыкать Простой профиль и сразу тренировать Лоры. Профили универсальные, так что я потом еще добавлю тренировку Dreambooth и Textual Inversion для истинных ценителей жанра.
А для подготовки датасета есть отдельная нода SD Dataset Preparation, которая тянет картинки в нужную папку, кропит и скейлит, при необходимости создает текстовые описания. На мой взгляд пользоваться удобно.
Для использования нужно обновить Stable Houdini с Гитхаба. Если среди нас есть ниндзя обучения, владеющие ещё и Гудини, буду благодарен за тестирование и обратную связь.
Урок запишу позже, а пока вот вам текстовое руководство, как этим делом пользоваться:
https://github.com/stassius/StableHoudini/wiki/How-to-train-LoRA
#stablehoudini #stablediffusion #lora
Если вам надо воссоздать конкретный стиль, объект или персонажа, Лора вам в этом поможет. Тренировка с адекватными параметрами достаточно быстрая, от 5 минут на gtx4090 до 40 на старых картах, это вам не "ставить рендер на ночь", дольше возишься с датасетом, чем с самим обучением.
Нода для обучения в Гудини даёт возможность делать wedge, то есть автоматически, в пакетном режиме, создавать Лоры с разными значениями параметров. Не знаете, на что влияет Network Rank или Learning Rate? Можно за ночь обучить пару десятков или даже сотню Лор и проснуться к готовым картинкам для сравнения, если вам такое нравится.
В комплекте идут два готовых профиля, Простой и Средний. В них разное число параметров выведено на интерфейс. Все настройки стандартно-дефолтные для хорошего результата, так что можно втыкать Простой профиль и сразу тренировать Лоры. Профили универсальные, так что я потом еще добавлю тренировку Dreambooth и Textual Inversion для истинных ценителей жанра.
А для подготовки датасета есть отдельная нода SD Dataset Preparation, которая тянет картинки в нужную папку, кропит и скейлит, при необходимости создает текстовые описания. На мой взгляд пользоваться удобно.
Для использования нужно обновить Stable Houdini с Гитхаба. Если среди нас есть ниндзя обучения, владеющие ещё и Гудини, буду благодарен за тестирование и обратную связь.
Урок запишу позже, а пока вот вам текстовое руководство, как этим делом пользоваться:
https://github.com/stassius/StableHoudini/wiki/How-to-train-LoRA
#stablehoudini #stablediffusion #lora
GitHub
How to train LoRA
Stable Diffusion Houdini Toolset. Contribute to stassius/StableHoudini development by creating an account on GitHub.
🔥87❤10🤯8👍4🤡1
Forwarded from тоже моушн
Media is too big
VIEW IN TELEGRAM
минутка флюидной красоты - целиком на нейронках
в этой завораживающей анимации органично соединились два важных для меня элемента:
лора, обученная на кислотных флюидных картинках. рад поделиться ей на civitai
собственный аналог дефорума созданный с помощью Stable Houdini. он позволяет использовать Automatic1111 как движок генерации а все команды отправлять из Houdini.
нодами очень удобно и наглядно удалось собрать мощный сетап - он идеально подходит для 2д флюидной анимации и не только - гифки в комментах
сетапом тоже буду рад поделиться. и ваши лайки и репосты мотивируют меня поскорее подготовить файл и стрим на ютуб - о том как им пользоваться. всем любовь!
LoRa AcidFluid
Stable Houdini
@тоже_моушн
лора, обученная на кислотных флюидных картинках. рад поделиться ей на civitai
собственный аналог дефорума созданный с помощью Stable Houdini. он позволяет использовать Automatic1111 как движок генерации а все команды отправлять из Houdini.
нодами очень удобно и наглядно удалось собрать мощный сетап - он идеально подходит для 2д флюидной анимации и не только - гифки в комментах
сетапом тоже буду рад поделиться. и ваши лайки и репосты мотивируют меня поскорее подготовить файл и стрим на ютуб - о том как им пользоваться. всем любовь!
LoRa AcidFluid
Stable Houdini
@тоже_моушн
🔥123❤30🤯4🤩2👍1🤮1
Вчера на DTF вышла статья Олега Скутте, которому Steam отказал в публикации его игры из-за артов, созданных Stable Diffusion.
https://dtf.ru/gameindustry/1915460-valve-otklonyaet-igry-ispolzuyushchie-ii-tehnologii
Я уже писал о подобном случае ранее, причина та же, неясность с авторскими правами на датасет:
https://yangx.top/dreamsrobots/114
В статье на ДТФ приведен список других игр, отклоненных по той же причине. Я сначала подумал, что проблема была в том, что AI-Powered было вынесено в название игры, но несколько игр из списка являются обычными визуальными новеллами, и в их описании не упоминается ИИ, по крайней мере на Стим-странице.
Игры из списка не блещут красотой (не в обиду авторам, они молодцы), но также не блещет ей AI Roguelite, которая вполне себе продаётся: https://store.steampowered.com/app/1889620/AI_Roguelite/.
Мне кажется, это интересная тема для обсуждения, потому что я знаю инди-разработчиков, которые делают игры с контентом из Stable Diffusion или Midjourney и возможно сейчас им приходится пить зеленый чай с ромашкой, чтобы прийти в себя.
Мои мысли:
1. Крупные игровые студии уже вовсю используют Стейбл в своих пайплайнах, это уже не секрет. Другое дело, что они достаточно серьезно обрабатывают результаты генерации, и у них есть ресурсы, чтобы решить все возникающие юридические вопросы.
2. Число игр, созданных с помощью ИИ будет только расти. Быстрее всего будет увеличиваться количество трешовых игр, сделанных на коленке за месяц, от них никуда не деться. Юридическая сторона вопроса будет подтягиваться ещё долго, тут есть риски и для разработчиков, и для издателей.
3. Надеемся, что Valve выпустят формализованные правила использования ИИ-контента на Стиме, чтобы не полагаться на настроение ревьюверов.
4. Если вы инди-разработчик, то, во-первых, привыкайте обрабатывать результаты работы нейросетей, причем обрабатывать сильно. А во-вторых, не палите использование ИИ. Не надо писать "First AI-powered game ever!" в описании. Хорошей идеей будет обучить нейросеть на картинках, на которые у вас есть права и задокументировать процесс. А еще подумайте насчёт издателя.
5. Сложный и дорогой путь: попробуйте зарегистрировать авторские права на контент, чтобы приходить в Стим с бумажкой.
6. Мне кажется, если игра полностью построена вокруг сгенерированного контента и не может предложить ничего сверх этого, то ей дорога на itch.io или другие сайты, которые с удовольствием хостят экспериментальные игры. Сомневаюсь, что Стим отклонит клевую инди-игру с интересными механиками за то, что в ней спрайты сгенерированы нейросетью.
Cреди нас есть инди-разработчики или издатели? Что вы думаете?
#авторское_право
https://dtf.ru/gameindustry/1915460-valve-otklonyaet-igry-ispolzuyushchie-ii-tehnologii
Я уже писал о подобном случае ранее, причина та же, неясность с авторскими правами на датасет:
https://yangx.top/dreamsrobots/114
В статье на ДТФ приведен список других игр, отклоненных по той же причине. Я сначала подумал, что проблема была в том, что AI-Powered было вынесено в название игры, но несколько игр из списка являются обычными визуальными новеллами, и в их описании не упоминается ИИ, по крайней мере на Стим-странице.
Игры из списка не блещут красотой (не в обиду авторам, они молодцы), но также не блещет ей AI Roguelite, которая вполне себе продаётся: https://store.steampowered.com/app/1889620/AI_Roguelite/.
Мне кажется, это интересная тема для обсуждения, потому что я знаю инди-разработчиков, которые делают игры с контентом из Stable Diffusion или Midjourney и возможно сейчас им приходится пить зеленый чай с ромашкой, чтобы прийти в себя.
Мои мысли:
1. Крупные игровые студии уже вовсю используют Стейбл в своих пайплайнах, это уже не секрет. Другое дело, что они достаточно серьезно обрабатывают результаты генерации, и у них есть ресурсы, чтобы решить все возникающие юридические вопросы.
2. Число игр, созданных с помощью ИИ будет только расти. Быстрее всего будет увеличиваться количество трешовых игр, сделанных на коленке за месяц, от них никуда не деться. Юридическая сторона вопроса будет подтягиваться ещё долго, тут есть риски и для разработчиков, и для издателей.
3. Надеемся, что Valve выпустят формализованные правила использования ИИ-контента на Стиме, чтобы не полагаться на настроение ревьюверов.
4. Если вы инди-разработчик, то, во-первых, привыкайте обрабатывать результаты работы нейросетей, причем обрабатывать сильно. А во-вторых, не палите использование ИИ. Не надо писать "First AI-powered game ever!" в описании. Хорошей идеей будет обучить нейросеть на картинках, на которые у вас есть права и задокументировать процесс. А еще подумайте насчёт издателя.
5. Сложный и дорогой путь: попробуйте зарегистрировать авторские права на контент, чтобы приходить в Стим с бумажкой.
6. Мне кажется, если игра полностью построена вокруг сгенерированного контента и не может предложить ничего сверх этого, то ей дорога на itch.io или другие сайты, которые с удовольствием хостят экспериментальные игры. Сомневаюсь, что Стим отклонит клевую инди-игру с интересными механиками за то, что в ней спрайты сгенерированы нейросетью.
Cреди нас есть инди-разработчики или издатели? Что вы думаете?
#авторское_право
DTF
Steam отклоняет игры, использующие ИИ-технологии — Индустрия на DTF
После 6 недель рассмотрения, Valve отклонила мою игру, объяснив это опасениями об авторских правах.
❤9👍9🤔4💩1
Гугловский Бард выкатился в открытый доступ, бесплатно и в том числе на русском языке. Тесты показали, что со многими задачами он справляется не хуже GPT4. Последовательности чисел продолжает, код пишет, лексические парадоксы понимает.
Прямо из интерфейса можно запускать код и проверять его в коллабе.
Не ура ли?
https://bard.google.com/
#llm #bard
Прямо из интерфейса можно запускать код и проверять его в коллабе.
Не ура ли?
https://bard.google.com/
#llm #bard
🔥43👍10🤔2💩2
Погонял SD XL 1.0 в автоматике и Stable Houdini, хочу поделиться впечатлениями. Впечатления мои личные, могут не совпасть с вашими, возможно я в чем-то не до конца разобрался.
Сначала о плюсах:
- Хороший фоторил в том, что касается людей. Красиво прорисовывает волосы и текстуру кожи.
- Пальцы получаются хорошо, хотя и далеко не всегда.
- Разрешение 1024х1024 (если делать меньше, картинка портится).
- Из коробки без хайрез фикса можно генерировать 1920х1080, но это лучше работает на стилизации.
Минусы:
- Модель нормально так кушает память, как RAM, так и VRAM. Говорят разными аргументами можно добиться работы на компах послабее. У меня 32 гига оперативки и 4090. Если у вас компьютер слабее и получилось завести, то отпишитесь, какая конфигурация?
- Чекпойнт загружается долго, несколько минут с SSD.
- Что стилизация, что фотографии не людей, получаются так себе. Точнее, результат плавающий. Иногда хорошо, иногда очень грязно. Добиться красивой лаконичной рисовки сложно. Модель норовит добавить штрихи и прочий мусор.
- На неквадратных фотографиях портятся пропорции объектов. На вертикальных тела вытягиваются, выглядит страшно. На горизонтальных у машины может вытянуться капот.
Пока выводов у меня никаких нет. Хайрезная модель - это круто. Из коробки она генерирует лучше, чем стоковая 1.5, но проигрывает той же Dreamshaper. Будем ждать нормальных чекпойнтов на ее основе.
#stablediffusion #sdxl
Сначала о плюсах:
- Хороший фоторил в том, что касается людей. Красиво прорисовывает волосы и текстуру кожи.
- Пальцы получаются хорошо, хотя и далеко не всегда.
- Разрешение 1024х1024 (если делать меньше, картинка портится).
- Из коробки без хайрез фикса можно генерировать 1920х1080, но это лучше работает на стилизации.
Минусы:
- Модель нормально так кушает память, как RAM, так и VRAM. Говорят разными аргументами можно добиться работы на компах послабее. У меня 32 гига оперативки и 4090. Если у вас компьютер слабее и получилось завести, то отпишитесь, какая конфигурация?
- Чекпойнт загружается долго, несколько минут с SSD.
- Что стилизация, что фотографии не людей, получаются так себе. Точнее, результат плавающий. Иногда хорошо, иногда очень грязно. Добиться красивой лаконичной рисовки сложно. Модель норовит добавить штрихи и прочий мусор.
- На неквадратных фотографиях портятся пропорции объектов. На вертикальных тела вытягиваются, выглядит страшно. На горизонтальных у машины может вытянуться капот.
Пока выводов у меня никаких нет. Хайрезная модель - это круто. Из коробки она генерирует лучше, чем стоковая 1.5, но проигрывает той же Dreamshaper. Будем ждать нормальных чекпойнтов на ее основе.
#stablediffusion #sdxl
👍29❤4💩1