This media is not supported in your browser
VIEW IN TELEGRAM
Хотите читать метатеги из сгенерированных картинок, при этом не вылезая из своего любимого просмотрщика?
Специально для вас я написал маленькое Windows-приложение MetaParser, которое показывает промпты, сид и прочую информацию, сохраненяемую Автоматиком в картинке. Оно легковесное, запускается мгновенно, принимает картинки в командной строке.
То есть вы можете в просмотрщике картинок установить MetaParser как внешний редактор и открывать по хоткею, в FastStone ImageViewer это по умолчанию "E", очень удобно.
Клик на строку -> копировать в буфер обмена.
Escape -> закрыть приложение.
Ctrl+V -> вставить картинку из буфера.
Так же картинки можно перетаскивать на окно.
Если ваш просмотрщик не позволяет настроить внешнюю программу, как, например, Eagle.cool, то вы можете использовать стороннюю утилиту AutoHotkey (пример скрипта приведен в описании на Гитхабе).
Пользуйтесь! Баг-репорты и фича-реквесты принимаются.
https://github.com/stassius/MetaParser
Идите в Releases, скачивайте и распаковывайте архив. Приложение готово к использованию. Цвета можно настроить в файле app.cfg
#stablediffusion #совет
Специально для вас я написал маленькое Windows-приложение MetaParser, которое показывает промпты, сид и прочую информацию, сохраненяемую Автоматиком в картинке. Оно легковесное, запускается мгновенно, принимает картинки в командной строке.
То есть вы можете в просмотрщике картинок установить MetaParser как внешний редактор и открывать по хоткею, в FastStone ImageViewer это по умолчанию "E", очень удобно.
Клик на строку -> копировать в буфер обмена.
Escape -> закрыть приложение.
Ctrl+V -> вставить картинку из буфера.
Так же картинки можно перетаскивать на окно.
Если ваш просмотрщик не позволяет настроить внешнюю программу, как, например, Eagle.cool, то вы можете использовать стороннюю утилиту AutoHotkey (пример скрипта приведен в описании на Гитхабе).
Пользуйтесь! Баг-репорты и фича-реквесты принимаются.
https://github.com/stassius/MetaParser
Идите в Releases, скачивайте и распаковывайте архив. Приложение готово к использованию. Цвета можно настроить в файле app.cfg
#stablediffusion #совет
🔥33👍6❤1
Установил себе LLaMa-7b. Первый же разговор с ней надолго выбил меня из колеи.
Я перевёл его и озвучил искусственными дикторами; получилось что-то вроде подкаста про память, небытие и закат над морем.
Я перевёл его и озвучил искусственными дикторами; получилось что-то вроде подкаста про память, небытие и закат над морем.
С небольшим опозданием, но написал инструкцию, как поднять у себя на локальном компьютере языковую модель, и как с ней разговаривать. Пользуйтесь.
https://telegra.ph/YAzykovye-modeli-na-lokalnoj-mashine-03-25
#LLM #инструкция
https://telegra.ph/YAzykovye-modeli-na-lokalnoj-mashine-03-25
#LLM #инструкция
Telegraph
Языковые модели на локальной машине
https://yangx.top/dreamsrobots Самое киберпанковское, что только можно себе представить - это возможность скачивать и поднимать свой личный ИИ на локальном компьютере, безо всяких фильтров и лагающих серверов.
🔥32👍6
Дождались. Сэм Алтман у Лекса. GPT, summarize this video for me.
https://www.youtube.com/watch?v=L_Guz73e6fw
#видео
https://www.youtube.com/watch?v=L_Guz73e6fw
#видео
YouTube
Sam Altman: OpenAI CEO on GPT-4, ChatGPT, and the Future of AI | Lex Fridman Podcast #367
Sam Altman is the CEO of OpenAI, the company behind GPT-4, ChatGPT, DALL-E, Codex, and many other state-of-the-art AI technologies. Please support this podcast by checking out our sponsors:
- NetSuite: http://netsuite.com/lex to get free product tour
- SimpliSafe:…
- NetSuite: http://netsuite.com/lex to get free product tour
- SimpliSafe:…
🔥7
Да, ChatGPT выдаёт гораздо более разумные тексты, отлично знает русский язык и хорошо владеет словом.
Но если вам нужно что-то по-настоящему креативное, идите за этим к Лламе. Я серьезно.
#llama
Но если вам нужно что-то по-настоящему креативное, идите за этим к Лламе. Я серьезно.
#llama
😁24👍1👎1
Выдалась минутка, и я поверхностно потестил Kandinski 2.1 от Сбера, через сайт https://fusionbrain.ai/diffusion
Что могу сказать? Результаты интересные. Конечно, до Стейбла с прокачанными чекпойнтами не дотягивает по многим статьям, а на сайте вообще минимальный функционал: только промпт и аутпейнт (лучше бы сделали просмотр батчей и настройки нормальные, честное слово). Так что пока использование в каких-то реальных проектах под сомнением. Но в целом я рад за ребят и поздравляю их с релизом!
Если они сделают удобную и расширяемую оболочку, API, дадут инструменты для обучения и не будут закрывать свой продукт под семью замками, то может даже смогут потягаться с лидерами нейросетевой гонки.
Как будет время — потестирую локальную версию.
#kandinski
Что могу сказать? Результаты интересные. Конечно, до Стейбла с прокачанными чекпойнтами не дотягивает по многим статьям, а на сайте вообще минимальный функционал: только промпт и аутпейнт (лучше бы сделали просмотр батчей и настройки нормальные, честное слово). Так что пока использование в каких-то реальных проектах под сомнением. Но в целом я рад за ребят и поздравляю их с релизом!
Если они сделают удобную и расширяемую оболочку, API, дадут инструменты для обучения и не будут закрывать свой продукт под семью замками, то может даже смогут потягаться с лидерами нейросетевой гонки.
Как будет время — потестирую локальную версию.
#kandinski
👍22👏1
"Святой Фома, покровитель реалистов, почему обошёл ты меня своей милостью?"
В связи с выходом новой версии Midjourney все вокруг писают кипятком от фотореалистичных картинок. А я вот не понимаю, зачем вам фоторил? Вот вы сгенерировали себе подружку, это ладно, а что дальше?
Я вижу несколько вариантов использования фотореалистичных работ, где основной (помимо порно) - это замена фотостокам, которые и так всегда стоили десять копеек в базарный день. На мой взгляд гораздо больше смысла в качественной, минималистичной стилизации типа тех, что во вложении. Почему-то такие результаты меня впечатляют больше очередной "фотографии" со студийным светом и ретушью.
Но может я сужу со своей колокольни и чего-то не понимаю. Расскажите, как вы используете фотореалистичную генерацию в коммерческих проектах?
В связи с выходом новой версии Midjourney все вокруг писают кипятком от фотореалистичных картинок. А я вот не понимаю, зачем вам фоторил? Вот вы сгенерировали себе подружку, это ладно, а что дальше?
Я вижу несколько вариантов использования фотореалистичных работ, где основной (помимо порно) - это замена фотостокам, которые и так всегда стоили десять копеек в базарный день. На мой взгляд гораздо больше смысла в качественной, минималистичной стилизации типа тех, что во вложении. Почему-то такие результаты меня впечатляют больше очередной "фотографии" со студийным светом и ретушью.
Но может я сужу со своей колокольни и чего-то не понимаю. Расскажите, как вы используете фотореалистичную генерацию в коммерческих проектах?
👍39🤔4🔥3❤1
Дошли уши послушать недавний "Как делать игры" про нейросети. Есть несколько интересных кейсов, но вот что любопытно: за почти два часа подкаста ни разу не упомянули Stable Diffusion. Все разговоры были про Midjourney, причём в духе: вот было бы круто к Midjourney прикрутить возможность переделать фрагмент изображения.
И это я не в пику гостям, я с интересом их послушал и не сомневаюсь в их профессионализме.
Я просто подумал, что нейросети так быстро развиваются, что нужно быть одержимым, чтобы хотя бы успевать читать все новости и поверхностно разбираться в том, что творится в этой сфере. А уж о том, чтобы протестировать каждую новую фишку, и речи нет. Это физически невозможно.
"Нужно бежать со всех ног, чтобы только оставаться на месте, а чтобы куда-то попасть, надо бежать как минимум вдвое быстрее!" Стоит выпасть из информационного поля на неделю, и всё, будто год прошёл, догоняй!
Это вызывает острое чувство Fear of missing out, что в конечном итоге может привести к выгоранию.
Мне кажется, сейчас такое время, что пора выбирать специализацию. Например заниматься только обучением, или стилизацией видео, или, я не знаю, лучше всех генерировать жаб, играющих на гитарах. По крайней мере мои попытки ухватить всё и сразу приводят лишь к разочарованию в способностях моего мозга.
Как вы сохраняете рассудок в этой гонке?
P.S. А подкаст, все-таки, послушайте. Он хороший.
https://www.youtube.com/watch?v=GLU6jH84iM0
#видео #мысли
И это я не в пику гостям, я с интересом их послушал и не сомневаюсь в их профессионализме.
Я просто подумал, что нейросети так быстро развиваются, что нужно быть одержимым, чтобы хотя бы успевать читать все новости и поверхностно разбираться в том, что творится в этой сфере. А уж о том, чтобы протестировать каждую новую фишку, и речи нет. Это физически невозможно.
"Нужно бежать со всех ног, чтобы только оставаться на месте, а чтобы куда-то попасть, надо бежать как минимум вдвое быстрее!" Стоит выпасть из информационного поля на неделю, и всё, будто год прошёл, догоняй!
Это вызывает острое чувство Fear of missing out, что в конечном итоге может привести к выгоранию.
Мне кажется, сейчас такое время, что пора выбирать специализацию. Например заниматься только обучением, или стилизацией видео, или, я не знаю, лучше всех генерировать жаб, играющих на гитарах. По крайней мере мои попытки ухватить всё и сразу приводят лишь к разочарованию в способностях моего мозга.
Как вы сохраняете рассудок в этой гонке?
P.S. А подкаст, все-таки, послушайте. Он хороший.
https://www.youtube.com/watch?v=GLU6jH84iM0
#видео #мысли
YouTube
#374. Как нейросети помогают в разработке
В четверг, в 19-00 CET, мы поговорим про то, как сейчас нейросетевые решения помогают разработчикам упросить свою жизнь, и, конечно же, заглянем в будущее.
Гости:
- Андрей Довбешко, инди-разработчик
- Валентин Брюханов, Lead Game Designer, Code Combat…
Гости:
- Андрей Довбешко, инди-разработчик
- Валентин Брюханов, Lead Game Designer, Code Combat…
❤22👍9🔥2💯2🤯1
Победное шествие ControlNet заставило многих забыть о стареньком скромном скрипте под названием Image2image Alternative Test, а между тем он, пожалуй, лучше других справляется с задачей стилизации картинки.
Он работает достаточно просто. Исходная картинка прогоняется через сэмплер Euler в обратную сторону, то есть превращается в шум, из которого она могла быть сгенерирована. Этот шум используется для генерации с измененным запросом.
Понимая алгоритм работы мы можем легко объяснить настройки скрипта.
1. Оба запроса, исходный и новый, должны почти совпадать, отличаясь лишь в деталях
2. Число шагов в Stable Diffusion и в Alternative test должно быть одинаковым. Сколько шагов мы сделали в сторону шума, на столько же мы должны продвинуться обратно. Чаще всего приходится их задирать выше 50
3. Скрипт работает только с сэмплером Euler
4. CFG Scale в данном случае работает как сила эффекта. Когда он ближе к нулю, запрос игнорируется и используется шум, а значит мы будем ближе к исходной картинке. Авторы скрипта советуют не поднимать его выше 2, но это ерунда, можно ставить и больше, просто будьте готовы к значительным изменениям
5. Denoising strength должен быть равен 1
6. Decode CFG Scale - это CFG, который используется при генерации шума. На практике почти всегда приходится его делать очень низким в диапазоне 0.5-1.5
7. Randomness позволяет добавить немного случайного шума. При нуле генерация будет все время одинаковой
8. Sigma adjustment - с этой галкой цвета будут больше соответствовать оригиналу
Алгоритм работы такой:
1. В img2img загружаете исходную картинку
2. Выбираете в списке скрипт img2img alternative test
3. В Original prompt записываете описание исходной картинки, можно воспользоваться Interrogate Clip
4. Снимите галку Override prompt и в запрос самого img2img запишите измененный промпт
5. Уменьшите CFG Scale до 1-2
6. Установите Denoising strength в 1
7. Включите Sigma Adjustment for finding noise for image
8. Добавьте КонтролНет, если испортилась исходная композиция
Он работает достаточно просто. Исходная картинка прогоняется через сэмплер Euler в обратную сторону, то есть превращается в шум, из которого она могла быть сгенерирована. Этот шум используется для генерации с измененным запросом.
Понимая алгоритм работы мы можем легко объяснить настройки скрипта.
1. Оба запроса, исходный и новый, должны почти совпадать, отличаясь лишь в деталях
2. Число шагов в Stable Diffusion и в Alternative test должно быть одинаковым. Сколько шагов мы сделали в сторону шума, на столько же мы должны продвинуться обратно. Чаще всего приходится их задирать выше 50
3. Скрипт работает только с сэмплером Euler
4. CFG Scale в данном случае работает как сила эффекта. Когда он ближе к нулю, запрос игнорируется и используется шум, а значит мы будем ближе к исходной картинке. Авторы скрипта советуют не поднимать его выше 2, но это ерунда, можно ставить и больше, просто будьте готовы к значительным изменениям
5. Denoising strength должен быть равен 1
6. Decode CFG Scale - это CFG, который используется при генерации шума. На практике почти всегда приходится его делать очень низким в диапазоне 0.5-1.5
7. Randomness позволяет добавить немного случайного шума. При нуле генерация будет все время одинаковой
8. Sigma adjustment - с этой галкой цвета будут больше соответствовать оригиналу
Алгоритм работы такой:
1. В img2img загружаете исходную картинку
2. Выбираете в списке скрипт img2img alternative test
3. В Original prompt записываете описание исходной картинки, можно воспользоваться Interrogate Clip
4. Снимите галку Override prompt и в запрос самого img2img запишите измененный промпт
5. Уменьшите CFG Scale до 1-2
6. Установите Denoising strength в 1
7. Включите Sigma Adjustment for finding noise for image
8. Добавьте КонтролНет, если испортилась исходная композиция
🔥26👍8