This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Как я и ожидал, очень быстро вышло расширение AnimateDiff для Auto1111. Уже пару дней его тестирую.
Хорошие новости:
- Работает на 12 гб видеопамяти. 4070ti генерит по гифке в минуту, где-то в 5 раз быстрее, чем на бесплатном колабе.
- Можно использовать любые чекпоинты, лоры, контролнеты и т.д., в общем любые инструменты, которые нормально работают с batch size > 1.
- Почему-то работает оптимизация SDP, благодаря чему, видимо, и генерится быстро и не кончается видеопамять. Оптимизация через xformers пока не работает.
Плохие новости:
- Качество генерации намного хуже, чем на колабе по трем параметрам. Во-первых, на всех картинках присутствует небольшое мигание по яркости, в результатах с колаба ни разу такого не ловил. Во-вторых, контраст всех картинок заметно ниже. В-третьих, все анимации намного более статичные. В результатах с колаба намного больше движения. Здорово, если бы параметр динамичности можно было регулировать, кстати говоря.
Результаты можно сравнить с предыдущим постом. Автор аддона говорит, что проблема в том, что в Авто1111 иначе происходят некоторые подкапотные процессы, из-за чего возникает такая большая разница. Надеюсь, тут ничего такого, что нельзя было бы починить, чтобы приблизиться к официальной имплементации.
Кстати, к официальному AnimateDiff прикрутили в тестовом режиме интерфейс Gradio, что удобнее чем редактировать файлы и пользоваться командной строкой, но пока работает не очень, не говоря о том, что вразумительной инструкции по установке так и нет, а та, что есть, предлагает скачать 70 гб, которые на самом деле не нужны.
В общем, пока ждем (примерно 2 дня) улучшений и пока пользуемся хорошим колабом. Автор его допилил, в нем стало намного проще разобраться, и теперь генерировать видео может вообще каждый, без каких-то углубленных знаний или мощного железа. Рекомендую всем попробовать, это достаточно просто и весело.
Хорошие новости:
- Работает на 12 гб видеопамяти. 4070ti генерит по гифке в минуту, где-то в 5 раз быстрее, чем на бесплатном колабе.
- Можно использовать любые чекпоинты, лоры, контролнеты и т.д., в общем любые инструменты, которые нормально работают с batch size > 1.
- Почему-то работает оптимизация SDP, благодаря чему, видимо, и генерится быстро и не кончается видеопамять. Оптимизация через xformers пока не работает.
Плохие новости:
- Качество генерации намного хуже, чем на колабе по трем параметрам. Во-первых, на всех картинках присутствует небольшое мигание по яркости, в результатах с колаба ни разу такого не ловил. Во-вторых, контраст всех картинок заметно ниже. В-третьих, все анимации намного более статичные. В результатах с колаба намного больше движения. Здорово, если бы параметр динамичности можно было регулировать, кстати говоря.
Результаты можно сравнить с предыдущим постом. Автор аддона говорит, что проблема в том, что в Авто1111 иначе происходят некоторые подкапотные процессы, из-за чего возникает такая большая разница. Надеюсь, тут ничего такого, что нельзя было бы починить, чтобы приблизиться к официальной имплементации.
Кстати, к официальному AnimateDiff прикрутили в тестовом режиме интерфейс Gradio, что удобнее чем редактировать файлы и пользоваться командной строкой, но пока работает не очень, не говоря о том, что вразумительной инструкции по установке так и нет, а та, что есть, предлагает скачать 70 гб, которые на самом деле не нужны.
В общем, пока ждем (примерно 2 дня) улучшений и пока пользуемся хорошим колабом. Автор его допилил, в нем стало намного проще разобраться, и теперь генерировать видео может вообще каждый, без каких-то углубленных знаний или мощного железа. Рекомендую всем попробовать, это достаточно просто и весело.
❤3👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Пока ждем официального выхода SDXL 26 числа, сделал вот такую анимацию в блендере из картинок, нагенеренных в SD 1.5.
Кстати, уже можно скачать альфа-версию Blender 4.0!
Пока из интересных штук, которые там появились можно назвать:
- Встроенная превьюшка нод, как раньше было только с аддоном
- Light Linking – источникам света теперь можно назначать объекты, на которые они влияют, люди все время спрашивали, как это можно сделать
- Repeat zone, которая позволяет создавать циклы и повторяемые операции в Geometry nodes
- Превью конкретных нод в Geometry Nodes, как раньше можно было только в нодах материалов с помощью Node Wrangler на Ctrl+Shift+Клик
- Новый шейдер glossy с встроенной анизотропией
- Улучшение снеппинга
- Фильтр Smooth для кривых в Graph Editor
Конечно, до выхода Blender 4.0 еще достаточно много времени, и за этот срок много чего планируют добавить. Я больше всего, конечно, жду Eevee Next и новый таймлайн.
Кстати, уже можно скачать альфа-версию Blender 4.0!
Пока из интересных штук, которые там появились можно назвать:
- Встроенная превьюшка нод, как раньше было только с аддоном
- Light Linking – источникам света теперь можно назначать объекты, на которые они влияют, люди все время спрашивали, как это можно сделать
- Repeat zone, которая позволяет создавать циклы и повторяемые операции в Geometry nodes
- Превью конкретных нод в Geometry Nodes, как раньше можно было только в нодах материалов с помощью Node Wrangler на Ctrl+Shift+Клик
- Новый шейдер glossy с встроенной анизотропией
- Улучшение снеппинга
- Фильтр Smooth для кривых в Graph Editor
Конечно, до выхода Blender 4.0 еще достаточно много времени, и за этот срок много чего планируют добавить. Я больше всего, конечно, жду Eevee Next и новый таймлайн.
❤5👏1
Папка с нейронками занимает у меня на диске 260 гб.
Это не считая 120 гб AnimateDiff, который я наконец смог поставить локально, и которому явно столько не надо. Кто-то еще скажет, что это rookie numbers.
Очень наглядно это показывает бесплатная прога WizTree, которую я недавно увидел в видео LTT.
В виде карты показывает все папки и большие файлы на диске, сразу становится предельно ясно, куда делось все место.
Раньше пользовался Scanner, тоже отличная прога, но WizTree гораздо быстрее и нагляднее. В общем, всем рекомендую чтобы искать непомерно гигантские бэкапы старых проектов и недоудаленный устаревший софт.
Ну и еще можно вставить карту диска в контролнетворк и генерить из нее картинки.
Это не считая 120 гб AnimateDiff, который я наконец смог поставить локально, и которому явно столько не надо. Кто-то еще скажет, что это rookie numbers.
Очень наглядно это показывает бесплатная прога WizTree, которую я недавно увидел в видео LTT.
В виде карты показывает все папки и большие файлы на диске, сразу становится предельно ясно, куда делось все место.
Раньше пользовался Scanner, тоже отличная прога, но WizTree гораздо быстрее и нагляднее. В общем, всем рекомендую чтобы искать непомерно гигантские бэкапы старых проектов и недоудаленный устаревший софт.
Ну и еще можно вставить карту диска в контролнетворк и генерить из нее картинки.
❤6👍1
На канале студии СХЕМА начали выкладывать серию коротких обучающих видео, которые мы с ними недавно записали. Главная тема будет создание текстур и материалов. Всем, кто этим интересуется, очень рекомендую посмотреть.
👍6🔥3❤1
Forwarded from eva sxema
Media is too big
VIEW IN TELEGRAM
#1 Создание фототекстур в Photoshop!
Запускаем серию образовательных роликов и делимся делимся нашим первым туториалом по созданию фототекстур, пригодных для дальнейшего экспорта.
Текстуры — это важная часть при разработке 3D-моделей. Цвет, рельеф, текстура, настроение — всё это передаётся с помощью визуализации рисунка.
За кадром — Игорь, 3D-художник студии Sxema и автор новостного канала о нейросетях и 3D.
#sxema_learning
Запускаем серию образовательных роликов и делимся делимся нашим первым туториалом по созданию фототекстур, пригодных для дальнейшего экспорта.
Текстуры — это важная часть при разработке 3D-моделей. Цвет, рельеф, текстура, настроение — всё это передаётся с помощью визуализации рисунка.
За кадром — Игорь, 3D-художник студии Sxema и автор новостного канала о нейросетях и 3D.
#sxema_learning
🔥12👍2❤1👏1
SDXL вышла ровно неделю назад, все это время я думал что бы хорошее про нее написать. Но сегодня я увидел то, что без преувеличения меня потрясло.
Начинают постепенно выходить модели и лоры дообученные на ее основе. Например, лора Pixel Art XL делает картинки, которые правда почти неотличимы от настоящего пиксель арта.
Объясняю, в чем прорыв. Пиксель арт отличает прежде всего одинаковый размер пикселя, даже если картинка увеличена. У всех предыдущих подобный моделей были с этим большие проблемы все пиксели сильно плясали по размерам. Могли быть тонкие и длинные "пиксели", например. Даже эта лора таким иногда может грешить, и чтобы отловить подобное я пропустил большинство картинок из поста через фотошоп, сначала уменьшив в 8 раз, потом обратно увеличив. Визуально они при этом почти не поменялись. Но 2 картинки я достал прямо из нейронки, ничего с ними не делал. Сможете ли вы их отличить?
Второй фактор, почему это прорыв. Эта небольшая модель показывает настоящий потенциал SDXL в том, насколько хорошо она поддается дрессировке в виде дообучения на нужном материале. И это тут главное.
К сожалению, SDXL пока лучше всего работает не с интерфейсом Automatic1111, а ComfyUI. Конечно, он может показаться немного непривычным, но кто в Блендере работал, того нодами не напугать. Постепенно начинаешь ощущать, чем он comfy. Например, можно просто перетащить в него картинку и сразу воспроизведется весь workflow, с помощью которого она была создана.
Начинают постепенно выходить модели и лоры дообученные на ее основе. Например, лора Pixel Art XL делает картинки, которые правда почти неотличимы от настоящего пиксель арта.
Объясняю, в чем прорыв. Пиксель арт отличает прежде всего одинаковый размер пикселя, даже если картинка увеличена. У всех предыдущих подобный моделей были с этим большие проблемы все пиксели сильно плясали по размерам. Могли быть тонкие и длинные "пиксели", например. Даже эта лора таким иногда может грешить, и чтобы отловить подобное я пропустил большинство картинок из поста через фотошоп, сначала уменьшив в 8 раз, потом обратно увеличив. Визуально они при этом почти не поменялись. Но 2 картинки я достал прямо из нейронки, ничего с ними не делал. Сможете ли вы их отличить?
Второй фактор, почему это прорыв. Эта небольшая модель показывает настоящий потенциал SDXL в том, насколько хорошо она поддается дрессировке в виде дообучения на нужном материале. И это тут главное.
К сожалению, SDXL пока лучше всего работает не с интерфейсом Automatic1111, а ComfyUI. Конечно, он может показаться немного непривычным, но кто в Блендере работал, того нодами не напугать. Постепенно начинаешь ощущать, чем он comfy. Например, можно просто перетащить в него картинку и сразу воспроизведется весь workflow, с помощью которого она была создана.
👍5❤3
OpenAi начали показывать DALL-E 3.
Большим прорывом выглядит улучшенное понимание промпта. Что от Midjourney, что от Stable Diffusion порой тяжело добиться в точности того, что надо, за счет одного лишь промптинга. Надеюсь, OpenAi действительно удастся задать новый стандарт по части послушности нейронок.
Также похоже что сильно лучше стала генрация читаемого текста.
Отдельная фишка - тесная интеграция с ChatGPT, который сможет для вас генерить картинки на основе запросов в виде обычной человеческой речи, а не промпта. Люди начинают уже шутить о скоропостижной кончине молодой профессии промпт-инженера.
Большим прорывом выглядит улучшенное понимание промпта. Что от Midjourney, что от Stable Diffusion порой тяжело добиться в точности того, что надо, за счет одного лишь промптинга. Надеюсь, OpenAi действительно удастся задать новый стандарт по части послушности нейронок.
Также похоже что сильно лучше стала генрация читаемого текста.
Отдельная фишка - тесная интеграция с ChatGPT, который сможет для вас генерить картинки на основе запросов в виде обычной человеческой речи, а не промпта. Люди начинают уже шутить о скоропостижной кончине молодой профессии промпт-инженера.
👏3❤2👍2
Nvidia выпустила новую нейронку.
Кроме того, спустя почти 3 года после своего выхода наконец-то вышел Cyberpunk 2077.
Эти две новости связаны тем, что новая нейросеть Nvidia пока существует в виде опции в настройках графики Киберпанка версии 2.0.
DLSS Ray Regeneration представляет собой нейро-денойзер, который позволяет из сцен с очень примерными RT лучами быстро получать красивую картинку. Напоминает Cycles + Denoise в Блендере.
Выход большого дополнения Phantom Liberty будет только через несколько дней, а пока можно покрутить настроечки, добавленные в новом патче.
Предыдущей бомбой от Nvidia была генерация промежуточных кадров в DLSS 3, которая "бесплатно" давала целую кучу FPS (при условии покупки дорогущей 40XX видюхи). Загвоздка была в том, что эта технология не уменьшает Input Lag, а даже немного увеличивает его. Иными словами, даже если игра выдает 140 фпс, игрок видит результат своих действий только с задержкой в несколько кадров.
Ray Reconstruction выдает результат близкий по производительности к DLSS Quality. Прирост производительности не гигантский, но главная фишка в том, что Ray Reconstruction рисует совершенно другую, и лучшую картинку, чем просто DLSS. При этом не повышает задержку, потому что она не наслаивается на DLSS в отличие от генерации кадров, а как бы заменяет его.
В общем, мой вердикт: новая штука от Nvidia дает очень красивую картинку, которую трудно сравнить с какой-то существующей технологией риалтайм рендера, и при этом обеспечивает играбельный FPS и условно-приемлемый инпут-лаг на экспериментальных настройках графики. Еще один шаг к рей трейсингу, пригодному для повсеместного применения, и в перспективе шаг к тому, чтобы графику в играх полностью рисовали нейросети.
Пока DLSS, Ray Regeneration, и подобные технологии требуют отрендеренный кадр, на котором они могут творить свою магию. А представьте, если бы они работали в режиме Data2Img, т.е. получали данные о том, что сейчас происходит в игре, и рисовали кадры исходя только из этого. Думаю, в будущем так и будет.
Кроме того, спустя почти 3 года после своего выхода наконец-то вышел Cyberpunk 2077.
Эти две новости связаны тем, что новая нейросеть Nvidia пока существует в виде опции в настройках графики Киберпанка версии 2.0.
DLSS Ray Regeneration представляет собой нейро-денойзер, который позволяет из сцен с очень примерными RT лучами быстро получать красивую картинку. Напоминает Cycles + Denoise в Блендере.
Выход большого дополнения Phantom Liberty будет только через несколько дней, а пока можно покрутить настроечки, добавленные в новом патче.
Предыдущей бомбой от Nvidia была генерация промежуточных кадров в DLSS 3, которая "бесплатно" давала целую кучу FPS (при условии покупки дорогущей 40XX видюхи). Загвоздка была в том, что эта технология не уменьшает Input Lag, а даже немного увеличивает его. Иными словами, даже если игра выдает 140 фпс, игрок видит результат своих действий только с задержкой в несколько кадров.
Ray Reconstruction выдает результат близкий по производительности к DLSS Quality. Прирост производительности не гигантский, но главная фишка в том, что Ray Reconstruction рисует совершенно другую, и лучшую картинку, чем просто DLSS. При этом не повышает задержку, потому что она не наслаивается на DLSS в отличие от генерации кадров, а как бы заменяет его.
В общем, мой вердикт: новая штука от Nvidia дает очень красивую картинку, которую трудно сравнить с какой-то существующей технологией риалтайм рендера, и при этом обеспечивает играбельный FPS и условно-приемлемый инпут-лаг на экспериментальных настройках графики. Еще один шаг к рей трейсингу, пригодному для повсеместного применения, и в перспективе шаг к тому, чтобы графику в играх полностью рисовали нейросети.
Пока DLSS, Ray Regeneration, и подобные технологии требуют отрендеренный кадр, на котором они могут творить свою магию. А представьте, если бы они работали в режиме Data2Img, т.е. получали данные о том, что сейчас происходит в игре, и рисовали кадры исходя только из этого. Думаю, в будущем так и будет.
👍6👏1
Media is too big
VIEW IN TELEGRAM
Сейчас занимаюсь как раз фотограмметрией и пришла рассылка от Blender Guru, в которой он напоминает, что недавно появилась такая технология, как Gaussian Splatting, которая позволяет из группы фоток или видео создать 3д сцену и рассмотреть пространство или объект под любым углом. Эта технология напоминает традиционную фотограмметрию, но скорее это разновидность или развитие NERF. Вся сцена состоит из цветных клякс, которые можно разглядеть, если приблизить камеру, а при отдалении они собираются в четкую картинку. Отсюда такое название. Неплохо получаются даже отражения.
Очень рекомендую посмотреть вот эту страничку с примерами, каждый из которых можно самому покрутить: gsplat.tech
Также Polycam сегодня объявили о том, что Gsplat можно теперь создавать в их приложении. Так что можно самому попробовать.
Из минусов можно назвать то, что это не настоящие 3д модели, а облака из клякс, и пока затруднительно использовать их для чего-то кроме осмотра сцен, например, для анимации.
Тем временем некоторые предлагают, наоборот, использовать Gsplat для визуализации уже существующих 3д сцен.
Ахах, забыл выключить микрофон, когда записывал видео для примера, так что беговая дорожка и попугай Маруся передают вам привет. ))
Очень рекомендую посмотреть вот эту страничку с примерами, каждый из которых можно самому покрутить: gsplat.tech
Также Polycam сегодня объявили о том, что Gsplat можно теперь создавать в их приложении. Так что можно самому попробовать.
Из минусов можно назвать то, что это не настоящие 3д модели, а облака из клякс, и пока затруднительно использовать их для чего-то кроме осмотра сцен, например, для анимации.
Тем временем некоторые предлагают, наоборот, использовать Gsplat для визуализации уже существующих 3д сцен.
Ахах, забыл выключить микрофон, когда записывал видео для примера, так что беговая дорожка и попугай Маруся передают вам привет. ))
👍4❤2
This media is not supported in your browser
VIEW IN TELEGRAM
И сразу же вдогонку, конечно же уже появились люди, которые на основе Gaussian Splatting разрабатывают генерацию 3д по одной картине, и по тексту, и экспорт в 3д модельку, и анимацию в миксамо.
Вот так моргнул и пропустил 5 лет развития нейронок.
Вот так моргнул и пропустил 5 лет развития нейронок.
🙈5👍2👏1