This media is not supported in your browser
VIEW IN TELEGRAM
Простоквашино, но это американский ситком 80х.
#Аниверсии мы научились делать, интересно было попробовать наоборот, особенно с тем, чего нет в датасете. Версия для Ютуба, если кому нужно.
#midjourney
#Аниверсии мы научились делать, интересно было попробовать наоборот, особенно с тем, чего нет в датасете. Версия для Ютуба, если кому нужно.
#midjourney
Небольшое, но приятное обновление #Midjourney.
Если в двух словах — расширили пропорции.
- Максимальное соотношение сторон теперь 2:1 или 1:2 (как в альбомной, так и в портретной ориентации). Это прям очень широко/высоко.
- Улучшили композицию и качество изображений с широким соотношением сторон.
- Работает, как для --version 4, так и для --niji.
- Если вы до сих пор делали квадраты и не знаете, как менять пропорции — в конце промта пишите —ar (и необходимое значение, например 9:16).
Идеально для сторимзов (да и в целом для мобильных экранов), пейзажей, киношных стилизаций, да и многого другого.
Если в двух словах — расширили пропорции.
- Максимальное соотношение сторон теперь 2:1 или 1:2 (как в альбомной, так и в портретной ориентации). Это прям очень широко/высоко.
- Улучшили композицию и качество изображений с широким соотношением сторон.
- Работает, как для --version 4, так и для --niji.
- Если вы до сих пор делали квадраты и не знаете, как менять пропорции — в конце промта пишите —ar (и необходимое значение, например 9:16).
Идеально для сторимзов (да и в целом для мобильных экранов), пейзажей, киношных стилизаций, да и многого другого.
detailed miniature diorama a soviet residential building, brutalism architecture, lights are on in the windows, people figures, dark night, cozy and peaceful atmosphere, fog, cold winter, snowing, streetlamps with orange light, several birches nearby --ar 2:1 --q 2 --v 4
Погнали! Включать: --v 5.
Как улучшили то, что казалось идеальным?
— V5 имеет более широкий стилистический диапазон и более отзывчив на промты.
— Улучшено качество изображения: в 2 раза увеличено разрешение, улучшен динамический диапазон и детализация.
— Модель может генерировать невероятно реалистичные изображения (поэтому будет больше модераторов).
Беру выходной и иду вбивать старые промты.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯...И закурил.
Да, шутки про «знаю нейросети как свои 79 пальцев» — с этого момента начинают покидать чат.
#midjourney #v5
Да, шутки про «знаю нейросети как свои 79 пальцев» — с этого момента начинают покидать чат.
#midjourney #v5
Сделал большой тест новой версии #Midjourney V5. Показываю.
Одинаковый промт в реализации версий от 1-3 (верхние картинки) и 4-5 (нижние).
Что могу сказать.
1. Это лучшая закрытая дифуззионная модель txt-to-img на данный момент.
2. Понимание запроса — великолепно. Исчезло излишнее украшательство прошлой версии. Поэтому короткие промты могут работать хуже.
3. Стилизация — восхитительная.
4. Качество — превосходное. Минимум артефактов и шакалов. Плюс разрешение и скорость генерации. Черрипикинг никогда не был таким простым.
5. Реализм — это новый уровень, даже веха. Можно смело говорить о появлении нейрофотографии.
Забавно, когда я генерировал на v1 — многие результаты были эстетически интересными из-за своей шакальной абстрактности. Думаю, что при дальнейшем улучшении реализма моделей произойдет обратное движение и появятся художники, которые будут генерировать такими лоу-фай средствами.
А прошёл всего год!
Промты — в комментариях.
Одинаковый промт в реализации версий от 1-3 (верхние картинки) и 4-5 (нижние).
Что могу сказать.
1. Это лучшая закрытая дифуззионная модель txt-to-img на данный момент.
2. Понимание запроса — великолепно. Исчезло излишнее украшательство прошлой версии. Поэтому короткие промты могут работать хуже.
3. Стилизация — восхитительная.
4. Качество — превосходное. Минимум артефактов и шакалов. Плюс разрешение и скорость генерации. Черрипикинг никогда не был таким простым.
5. Реализм — это новый уровень, даже веха. Можно смело говорить о появлении нейрофотографии.
Забавно, когда я генерировал на v1 — многие результаты были эстетически интересными из-за своей шакальной абстрактности. Думаю, что при дальнейшем улучшении реализма моделей произойдет обратное движение и появятся художники, которые будут генерировать такими лоу-фай средствами.
А прошёл всего год!
Промты — в комментариях.
This media is not supported in your browser
VIEW IN TELEGRAM
И небольшая, но приятная новость для любителей #Midjourney. Саб-модель #Nijijourney, которая, напомню, великолепно умеет в любое аниме, обновилась до пятой версии. Кроме того, был введен показатель —s (ваше значение), которое позволяет регулировать степень влияния стиля и украшательств.
Так же напоминаю, что модель входит в любую платную подписку Midjourney и включается через команду /settings.
Так что, новые #аниверсии не за горами. Ай да тестировать и делиться результатами в хабе.
Так же напоминаю, что модель входит в любую платную подписку Midjourney и включается через команду /settings.
Так что, новые #аниверсии не за горами. Ай да тестировать и делиться результатами в хабе.
И ещё одна новость про #midjourney. И она супер.
Добавили свой img-to-text!
Кто не знает — это когда вы загружаете свою картинку и на выходе получаете промт, то из чего она состоит. Это очень полезно, когда нужно деконструировать какой-нибудь визуал, чтобы собрать из его частей новый. Мало того, MJ выдает сразу четыре промта + по ним сразу же можно сгенерировать новое изображение.
Это круто:
1. Обучение промтингу для новичков становится гораздо легче + опытным можно подсмотреть много нового.
2. В комбинации с референсным изображением можно получить новый уровень контроля.
3. Это все-таки в рамках модели MJ. Img-to-text для Stable diffusion существуют давно, но он своеобразный.
4. Дают ссылки на артистов, если они попадают в промт.
В примере — первая попавшаяся фотография Тбилиси и результат генерации. Я кстати не знал, что такое пропорции можно задавать.
Вызвать командой/describe
Добавили свой img-to-text!
Кто не знает — это когда вы загружаете свою картинку и на выходе получаете промт, то из чего она состоит. Это очень полезно, когда нужно деконструировать какой-нибудь визуал, чтобы собрать из его частей новый. Мало того, MJ выдает сразу четыре промта + по ним сразу же можно сгенерировать новое изображение.
Это круто:
1. Обучение промтингу для новичков становится гораздо легче + опытным можно подсмотреть много нового.
2. В комбинации с референсным изображением можно получить новый уровень контроля.
3. Это все-таки в рамках модели MJ. Img-to-text для Stable diffusion существуют давно, но он своеобразный.
4. Дают ссылки на артистов, если они попадают в промт.
В примере — первая попавшаяся фотография Тбилиси и результат генерации. Я кстати не знал, что такое пропорции можно задавать.
Вызвать командой
Media is too big
VIEW IN TELEGRAM
Кажется давно не было творческих проектов, поэтому вот небольшая зарисовка на тему «Да не умер он в конце Барби!». Как обычно — версия для Ютуба, кому нужно.
#midjourney
#midjourney
Внезапная #обучалка🤤
В которой показываю подход для легкой генерации кинокадров и фотореалистичных картинок в #Midjourney 5. Полезно для режиссеров, операторов, арт-директоров, ну и просто исследователей. Что внутри:
1) Промт-рамка.
2) Тренировка на кошках.
3) Примеры влияния промтов на одном сиде.
4) Натали Портман.
5) Немного о том, как получать консистетные результаты (в конце).
6) Сам документ с подсказками, который показываю в видео.
https://www.youtube.com/watch?v=Vrlo5NYshRY
В которой показываю подход для легкой генерации кинокадров и фотореалистичных картинок в #Midjourney 5. Полезно для режиссеров, операторов, арт-директоров, ну и просто исследователей. Что внутри:
1) Промт-рамка.
2) Тренировка на кошках.
3) Примеры влияния промтов на одном сиде.
4) Натали Портман.
5) Немного о том, как получать консистетные результаты (в конце).
6) Сам документ с подсказками, который показываю в видео.
https://www.youtube.com/watch?v=Vrlo5NYshRY
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Кинокадры и фотореализм в Midjourney 5
Преза здесь: https://yangx.top/strangedalle.
Довольно подробный и классный гайд с примерами новой (да), промежуточной версии #midjourney 5.1 от подписчицы.
Вспомнил, что уже сто лет не было легендарной рубрики #мешалка 🔄 . Для недавно подписавшихся, это рубрика, в которой мы открыли режим image blending в #Midjourney всему миру (о чем даже есть статья на KnowYourMeme).
Тема новой мешалки — легендарные напарники. Да, Том и Джерри на самом деле разыгрывают конфликт, чтобы кота не выгнали из дома.
Тема новой мешалки — легендарные напарники. Да, Том и Джерри на самом деле разыгрывают конфликт, чтобы кота не выгнали из дома.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
В #Midjourney завезли долгожданный inpainting!
Теперь можно поменять любую часть генерации без запуска нейрофотошопа или стейбла! Это очень облегчает процесс, потому что раньше можно было уйти в долгую генеративную петлю, в попытке исправить какую-то деталь на изображении, добавить шляпу, например. Но теперь достаточно нажать Vary (Region) над увеличенной картинкой, выделить область, написать что там должно быть и все, дело в шляпе.
Несколько советов от команды Midjourney:
Эта функция работает лучше на больших областях изображения (20-50% изображения).
Изменение запроса сработает лучше, если это изменение более соответствует этому изображению (добавление шляпы персонажу), а не что-то совсем неуместное (дельфин в лесу).
Теперь можно поменять любую часть генерации без запуска нейрофотошопа или стейбла! Это очень облегчает процесс, потому что раньше можно было уйти в долгую генеративную петлю, в попытке исправить какую-то деталь на изображении, добавить шляпу, например. Но теперь достаточно нажать Vary (Region) над увеличенной картинкой, выделить область, написать что там должно быть и все, дело в шляпе.
Несколько советов от команды Midjourney:
Эта функция работает лучше на больших областях изображения (20-50% изображения).
Изменение запроса сработает лучше, если это изменение более соответствует этому изображению (добавление шляпы персонажу), а не что-то совсем неуместное (дельфин в лесу).
Как и предсказывал, #Midjourney пошли в сторону файн-тюнинга! Так что теперь можно его ТРЕНИРОВАТЬ на свои картинках.
Здесь вся инструкция: https://docs.midjourney.com/docs/style-tuner. А я побежал скорей раскидываться с делами, чтобы полноценно потестировать.
UPD: FAKENEWS, ниже детали.
Здесь вся инструкция: https://docs.midjourney.com/docs/style-tuner. А я побежал скорей раскидываться с делами, чтобы полноценно потестировать.
UPD: FAKENEWS, ниже детали.
Midjourney
Legacy Features
Learn about legacy tools and features that shaped Midjourney's evolution.
Discover legacy tools and features that shaped Midjourney's evolution.
If you’re curious about the older versions of Midjo...
Discover legacy tools and features that shaped Midjourney's evolution.
If you’re curious about the older versions of Midjo...
Киллер-фича #Midjourney V6 🤔
За всем потоком новостей я её пропустил, а вы не пропускайте. Style Transfer - возможность использовать любую картинку как стилевой референс. То есть, вы можете написать промпт, кинуть URL изображения, и на выходе получится генерация, учитывающая стилистику этого изображения.
Сделал несколько примеров с промптом: CAT WITH KNIFE + (стилевой референс).
Чем это отличается от обычного добавления картинок в промпт?🤨
По классической схеме с картинки бралось и смешивалось всё. То есть, если бы я кинул Марго Робби как обычный референс, то на выходе получилась бы розовая женщина-кошка с ножом.
Стилевой референс - про стиль, эстетику, но не конкретный объект или сюжет.
Почему это круто?😋
Больший контроль и возможность сохранения стилевой последовательности, чего сейчас приходится добиваться танцами с бубном. Midjourney плавно переходит от "сделать капец красиво" к "сделать капец красиво и как надо".
Как использовать стилевые референсы?
После вашего промпта введите --sref вместе с URL изображения
Что еще?
Можно использовать НЕСКОЛЬКО изображений, например --sref urlA urlB urlC
Можно установить ВЕС каждого стиля, например --sref urlA::2 urlB::3 urlC::5
Можно установить СИЛУ стиля через --sw 100 (100 - это по умолчанию, 0 - выключено, 1000 - максимум).
Я пойду дальше проводить эксперименты, а вы кидайте в комментарии свои.🍴
За всем потоком новостей я её пропустил, а вы не пропускайте. Style Transfer - возможность использовать любую картинку как стилевой референс. То есть, вы можете написать промпт, кинуть URL изображения, и на выходе получится генерация, учитывающая стилистику этого изображения.
Сделал несколько примеров с промптом: CAT WITH KNIFE + (стилевой референс).
Чем это отличается от обычного добавления картинок в промпт?
По классической схеме с картинки бралось и смешивалось всё. То есть, если бы я кинул Марго Робби как обычный референс, то на выходе получилась бы розовая женщина-кошка с ножом.
Стилевой референс - про стиль, эстетику, но не конкретный объект или сюжет.
Почему это круто?
Больший контроль и возможность сохранения стилевой последовательности, чего сейчас приходится добиваться танцами с бубном. Midjourney плавно переходит от "сделать капец красиво" к "сделать капец красиво и как надо".
Как использовать стилевые референсы?
После вашего промпта введите --sref вместе с URL изображения
Что еще?
Можно использовать НЕСКОЛЬКО изображений, например --sref urlA urlB urlC
Можно установить ВЕС каждого стиля, например --sref urlA::2 urlB::3 urlC::5
Можно установить СИЛУ стиля через --sw 100 (100 - это по умолчанию, 0 - выключено, 1000 - максимум).
Я пойду дальше проводить эксперименты, а вы кидайте в комментарии свои.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Я тут ушел с основной работы, чтобы играть в плойку, отдыхать и набираться сил для своих проектов. Поэтому появилось некоторое количество времени, чтобы возродить некоторые рубрики канала. Это дайджест новостей/какие-то штуки, которые мне показались интересными на этой неделе.
Назовем это #ЧтоТоИнтересное (4-10 марта 2024)
1. #Claude (главный конкурент ChatGPT) прокачался до третьей версии, поумнел, освоил мультимодальность и вообще держится молодцом. Главное преимущество на данный момент перед GPT4 — возможность подавать на вход большой объем данных (можно закинуть договора или небольшую книжку). Как это остроумно можно использовать в пайплайнах, можно посмотреть у Дениса.
2.Также клодовцы выпустили коллекцию промптов для разнообразных задач — от создания сайтов до генерации игр. Бывалых промтовиков не удивишь, но какие-то заходы можно подсмотреть.
3. #Midjourney круто обновили функцию /describe, которая позволяет превращать вашу картинку в промт и теперь, в комбинации с V6, работает отлично. Надеюсь на этой неделе выкатят обещанных последовательных персонажей.
4. Также Midjourney заблокировали доступ к сервису для сотрудников Stability AI после сбоя, связанного с интенсивным сбором данных. Эмад (глава Stability) пообещал разобраться в хулиганстве.
5. Ну и еще скандал. OpenAI публично пропесочила Илона Маска за лицемерие и судебные иски, указывая (с пруфами) на его прошлые попытки контролировать компанию.
6. Google обновили свой генератор музыки MusicFX — добавили режим DJ. Кидаете запросы, из них генерятся треки, а дальше регулируете их на ходу. Для серьезного продакшена не сгодится, но поиграться можно (только нужен хороший интернет, у меня работает через раз).
7. Ну и красивое. Кто-то смонтировал 75 видео из #SORA в одно большое, нарядное видео. Это мы смотрим и ждем.
Стэй тюнед🍎
Назовем это #ЧтоТоИнтересное (4-10 марта 2024)
1. #Claude (главный конкурент ChatGPT) прокачался до третьей версии, поумнел, освоил мультимодальность и вообще держится молодцом. Главное преимущество на данный момент перед GPT4 — возможность подавать на вход большой объем данных (можно закинуть договора или небольшую книжку). Как это остроумно можно использовать в пайплайнах, можно посмотреть у Дениса.
2.Также клодовцы выпустили коллекцию промптов для разнообразных задач — от создания сайтов до генерации игр. Бывалых промтовиков не удивишь, но какие-то заходы можно подсмотреть.
3. #Midjourney круто обновили функцию /describe, которая позволяет превращать вашу картинку в промт и теперь, в комбинации с V6, работает отлично. Надеюсь на этой неделе выкатят обещанных последовательных персонажей.
4. Также Midjourney заблокировали доступ к сервису для сотрудников Stability AI после сбоя, связанного с интенсивным сбором данных. Эмад (глава Stability) пообещал разобраться в хулиганстве.
5. Ну и еще скандал. OpenAI публично пропесочила Илона Маска за лицемерие и судебные иски, указывая (с пруфами) на его прошлые попытки контролировать компанию.
6. Google обновили свой генератор музыки MusicFX — добавили режим DJ. Кидаете запросы, из них генерятся треки, а дальше регулируете их на ходу. Для серьезного продакшена не сгодится, но поиграться можно (только нужен хороший интернет, у меня работает через раз).
7. Ну и красивое. Кто-то смонтировал 75 видео из #SORA в одно большое, нарядное видео. Это мы смотрим и ждем.
Стэй тюнед
Please open Telegram to view this post
VIEW IN TELEGRAM
claude.ai
Talk with Claude, an AI assistant from Anthropic
Под покровом ночи #Midjourney выкатили долгожданную функцию Character Reference, позволяющую создавать изображения последовательных персонажей на основе вашего референсного изображения. Вот основные моменты из анонса:
Сделал пару тестов со своей фоткой и... Ну, дримбус может спокойно дрим дальше. Самый частый сценарий применения подобной функции — это использование реальных фото. И здесь как раз слабо. Хорошо забирает основные черты, но полное сходство получится примерно никогда. Но если отходить от фотореализма в стилистическую абстракцию, то вполне может быть полезным инструментом для сторителлинга.
В приложении один пример из тестов —
Используйте --cref URL после вашего запроса с URL-адресом изображения персонажа.
--cw изменяет "силу" совпадения от 0 до 100 (по умолчанию 100 - копирует лицо, волосы и одежду).
Функция лучше работает с персонажами, созданными Midjourney, а не с реальными фото.
Можно комбинировать несколько URL для смешивания персонажей.
Также можно комбинировать с --sref для ссылки на стиль.
Сделал пару тестов со своей фоткой и... Ну, дримбус может спокойно дрим дальше. Самый частый сценарий применения подобной функции — это использование реальных фото. И здесь как раз слабо. Хорошо забирает основные черты, но полное сходство получится примерно никогда. Но если отходить от фотореализма в стилистическую абстракцию, то вполне может быть полезным инструментом для сторителлинга.
В приложении один пример из тестов —
character sheet
— довольно показателен.Уже, кажется, все написали, что генерация #Midjourney теперь работает не только в дискорде, но и на удобном, обновленном Midjourney.com.
Если вы не подписаны на всех, теперь вы тоже знаете. И то, что он дает около ~25 генераций бесплатно.
Картинка с котом - моя реакция, так как уже полгода сижу на веб-версии (доступ раздавали с n-тысяч генераций). По своему опыту, интерфейс получился действительно удобный и избивает опыт дискорда ногами. В который теперь захожу только для гейминга.
Если вы не подписаны на всех, теперь вы тоже знаете. И то, что он дает около ~25 генераций бесплатно.
Картинка с котом - моя реакция, так как уже полгода сижу на веб-версии (доступ раздавали с n-тысяч генераций). По своему опыту, интерфейс получился действительно удобный и избивает опыт дискорда ногами. В который теперь захожу только для гейминга.
1. Новый Ideogram 2.0 - внезапно круто. Понимание запроса от #Flux, эстетика (почти) от #Midjourney. Очень ровный и качественный результат из коробки. Даже взял подписку минимальную. Можете попробовать бесплатно потыкать и написать свое мнение (upd: из комментов выяснилось, что он немного умеет в кириллицу).
2. Часто вижу в комментах тэйки "Зачем нужна нейросеть A, если нейросеть B". Это из серии кто победит — Шварц или Сталлоне. У каждого есть свои плюсы и минусы. Соберите команду из них, а не стравливайте. Потому что лучшая нейросеть (или их связка) — та, которая выполняет ваши задачи.
2. Часто вижу в комментах тэйки "Зачем нужна нейросеть A, если нейросеть B". Это из серии кто победит — Шварц или Сталлоне. У каждого есть свои плюсы и минусы. Соберите команду из них, а не стравливайте. Потому что лучшая нейросеть (или их связка) — та, которая выполняет ваши задачи.
Бу, это тест нового инструмента Editor в веб-версии #Midjourney, который (наконец-то) позволяет:
а) расширять или инпейтить загруженные изображения.
б) переделывать их, сохраняя контуры (по сути ControlNet с Depth). Картинки с котом посвящены этому пункту, как самому интересному.
Вроде все это уже давно есть в других инструментах, но тут MJ наваливает свое традиционное КАЧЕСТ-ВО👍 .
Ну и вроде бы работает со всеми старыми настройками и приемчиками, что обеспечивает некоторую гибкость (тут закадровый смех фанатов Stable/Flux).
Потестить пока только можно если у вас от 10к генераций (у меня оказалось больше).
а) расширять или инпейтить загруженные изображения.
б) переделывать их, сохраняя контуры (по сути ControlNet с Depth). Картинки с котом посвящены этому пункту, как самому интересному.
Вроде все это уже давно есть в других инструментах, но тут MJ наваливает свое традиционное КАЧЕСТ-ВО
Ну и вроде бы работает со всеми старыми настройками и приемчиками, что обеспечивает некоторую гибкость (тут закадровый смех фанатов Stable/Flux).
Потестить пока только можно если у вас от 10к генераций (у меня оказалось больше).
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM