Дождались. Сэм Алтман у Лекса. GPT, summarize this video for me.
https://www.youtube.com/watch?v=L_Guz73e6fw
#видео
https://www.youtube.com/watch?v=L_Guz73e6fw
#видео
YouTube
Sam Altman: OpenAI CEO on GPT-4, ChatGPT, and the Future of AI | Lex Fridman Podcast #367
Sam Altman is the CEO of OpenAI, the company behind GPT-4, ChatGPT, DALL-E, Codex, and many other state-of-the-art AI technologies. Please support this podcast by checking out our sponsors:
- NetSuite: http://netsuite.com/lex to get free product tour
- SimpliSafe:…
- NetSuite: http://netsuite.com/lex to get free product tour
- SimpliSafe:…
🔥7
Да, ChatGPT выдаёт гораздо более разумные тексты, отлично знает русский язык и хорошо владеет словом.
Но если вам нужно что-то по-настоящему креативное, идите за этим к Лламе. Я серьезно.
#llama
Но если вам нужно что-то по-настоящему креативное, идите за этим к Лламе. Я серьезно.
#llama
😁24👍1👎1
Выдалась минутка, и я поверхностно потестил Kandinski 2.1 от Сбера, через сайт https://fusionbrain.ai/diffusion
Что могу сказать? Результаты интересные. Конечно, до Стейбла с прокачанными чекпойнтами не дотягивает по многим статьям, а на сайте вообще минимальный функционал: только промпт и аутпейнт (лучше бы сделали просмотр батчей и настройки нормальные, честное слово). Так что пока использование в каких-то реальных проектах под сомнением. Но в целом я рад за ребят и поздравляю их с релизом!
Если они сделают удобную и расширяемую оболочку, API, дадут инструменты для обучения и не будут закрывать свой продукт под семью замками, то может даже смогут потягаться с лидерами нейросетевой гонки.
Как будет время — потестирую локальную версию.
#kandinski
Что могу сказать? Результаты интересные. Конечно, до Стейбла с прокачанными чекпойнтами не дотягивает по многим статьям, а на сайте вообще минимальный функционал: только промпт и аутпейнт (лучше бы сделали просмотр батчей и настройки нормальные, честное слово). Так что пока использование в каких-то реальных проектах под сомнением. Но в целом я рад за ребят и поздравляю их с релизом!
Если они сделают удобную и расширяемую оболочку, API, дадут инструменты для обучения и не будут закрывать свой продукт под семью замками, то может даже смогут потягаться с лидерами нейросетевой гонки.
Как будет время — потестирую локальную версию.
#kandinski
👍22👏1
"Святой Фома, покровитель реалистов, почему обошёл ты меня своей милостью?"
В связи с выходом новой версии Midjourney все вокруг писают кипятком от фотореалистичных картинок. А я вот не понимаю, зачем вам фоторил? Вот вы сгенерировали себе подружку, это ладно, а что дальше?
Я вижу несколько вариантов использования фотореалистичных работ, где основной (помимо порно) - это замена фотостокам, которые и так всегда стоили десять копеек в базарный день. На мой взгляд гораздо больше смысла в качественной, минималистичной стилизации типа тех, что во вложении. Почему-то такие результаты меня впечатляют больше очередной "фотографии" со студийным светом и ретушью.
Но может я сужу со своей колокольни и чего-то не понимаю. Расскажите, как вы используете фотореалистичную генерацию в коммерческих проектах?
В связи с выходом новой версии Midjourney все вокруг писают кипятком от фотореалистичных картинок. А я вот не понимаю, зачем вам фоторил? Вот вы сгенерировали себе подружку, это ладно, а что дальше?
Я вижу несколько вариантов использования фотореалистичных работ, где основной (помимо порно) - это замена фотостокам, которые и так всегда стоили десять копеек в базарный день. На мой взгляд гораздо больше смысла в качественной, минималистичной стилизации типа тех, что во вложении. Почему-то такие результаты меня впечатляют больше очередной "фотографии" со студийным светом и ретушью.
Но может я сужу со своей колокольни и чего-то не понимаю. Расскажите, как вы используете фотореалистичную генерацию в коммерческих проектах?
👍39🤔4🔥3❤1
Дошли уши послушать недавний "Как делать игры" про нейросети. Есть несколько интересных кейсов, но вот что любопытно: за почти два часа подкаста ни разу не упомянули Stable Diffusion. Все разговоры были про Midjourney, причём в духе: вот было бы круто к Midjourney прикрутить возможность переделать фрагмент изображения.
И это я не в пику гостям, я с интересом их послушал и не сомневаюсь в их профессионализме.
Я просто подумал, что нейросети так быстро развиваются, что нужно быть одержимым, чтобы хотя бы успевать читать все новости и поверхностно разбираться в том, что творится в этой сфере. А уж о том, чтобы протестировать каждую новую фишку, и речи нет. Это физически невозможно.
"Нужно бежать со всех ног, чтобы только оставаться на месте, а чтобы куда-то попасть, надо бежать как минимум вдвое быстрее!" Стоит выпасть из информационного поля на неделю, и всё, будто год прошёл, догоняй!
Это вызывает острое чувство Fear of missing out, что в конечном итоге может привести к выгоранию.
Мне кажется, сейчас такое время, что пора выбирать специализацию. Например заниматься только обучением, или стилизацией видео, или, я не знаю, лучше всех генерировать жаб, играющих на гитарах. По крайней мере мои попытки ухватить всё и сразу приводят лишь к разочарованию в способностях моего мозга.
Как вы сохраняете рассудок в этой гонке?
P.S. А подкаст, все-таки, послушайте. Он хороший.
https://www.youtube.com/watch?v=GLU6jH84iM0
#видео #мысли
И это я не в пику гостям, я с интересом их послушал и не сомневаюсь в их профессионализме.
Я просто подумал, что нейросети так быстро развиваются, что нужно быть одержимым, чтобы хотя бы успевать читать все новости и поверхностно разбираться в том, что творится в этой сфере. А уж о том, чтобы протестировать каждую новую фишку, и речи нет. Это физически невозможно.
"Нужно бежать со всех ног, чтобы только оставаться на месте, а чтобы куда-то попасть, надо бежать как минимум вдвое быстрее!" Стоит выпасть из информационного поля на неделю, и всё, будто год прошёл, догоняй!
Это вызывает острое чувство Fear of missing out, что в конечном итоге может привести к выгоранию.
Мне кажется, сейчас такое время, что пора выбирать специализацию. Например заниматься только обучением, или стилизацией видео, или, я не знаю, лучше всех генерировать жаб, играющих на гитарах. По крайней мере мои попытки ухватить всё и сразу приводят лишь к разочарованию в способностях моего мозга.
Как вы сохраняете рассудок в этой гонке?
P.S. А подкаст, все-таки, послушайте. Он хороший.
https://www.youtube.com/watch?v=GLU6jH84iM0
#видео #мысли
YouTube
#374. Как нейросети помогают в разработке
В четверг, в 19-00 CET, мы поговорим про то, как сейчас нейросетевые решения помогают разработчикам упросить свою жизнь, и, конечно же, заглянем в будущее.
Гости:
- Андрей Довбешко, инди-разработчик
- Валентин Брюханов, Lead Game Designer, Code Combat…
Гости:
- Андрей Довбешко, инди-разработчик
- Валентин Брюханов, Lead Game Designer, Code Combat…
❤22👍9🔥2💯2🤯1
Победное шествие ControlNet заставило многих забыть о стареньком скромном скрипте под названием Image2image Alternative Test, а между тем он, пожалуй, лучше других справляется с задачей стилизации картинки.
Он работает достаточно просто. Исходная картинка прогоняется через сэмплер Euler в обратную сторону, то есть превращается в шум, из которого она могла быть сгенерирована. Этот шум используется для генерации с измененным запросом.
Понимая алгоритм работы мы можем легко объяснить настройки скрипта.
1. Оба запроса, исходный и новый, должны почти совпадать, отличаясь лишь в деталях
2. Число шагов в Stable Diffusion и в Alternative test должно быть одинаковым. Сколько шагов мы сделали в сторону шума, на столько же мы должны продвинуться обратно. Чаще всего приходится их задирать выше 50
3. Скрипт работает только с сэмплером Euler
4. CFG Scale в данном случае работает как сила эффекта. Когда он ближе к нулю, запрос игнорируется и используется шум, а значит мы будем ближе к исходной картинке. Авторы скрипта советуют не поднимать его выше 2, но это ерунда, можно ставить и больше, просто будьте готовы к значительным изменениям
5. Denoising strength должен быть равен 1
6. Decode CFG Scale - это CFG, который используется при генерации шума. На практике почти всегда приходится его делать очень низким в диапазоне 0.5-1.5
7. Randomness позволяет добавить немного случайного шума. При нуле генерация будет все время одинаковой
8. Sigma adjustment - с этой галкой цвета будут больше соответствовать оригиналу
Алгоритм работы такой:
1. В img2img загружаете исходную картинку
2. Выбираете в списке скрипт img2img alternative test
3. В Original prompt записываете описание исходной картинки, можно воспользоваться Interrogate Clip
4. Снимите галку Override prompt и в запрос самого img2img запишите измененный промпт
5. Уменьшите CFG Scale до 1-2
6. Установите Denoising strength в 1
7. Включите Sigma Adjustment for finding noise for image
8. Добавьте КонтролНет, если испортилась исходная композиция
Он работает достаточно просто. Исходная картинка прогоняется через сэмплер Euler в обратную сторону, то есть превращается в шум, из которого она могла быть сгенерирована. Этот шум используется для генерации с измененным запросом.
Понимая алгоритм работы мы можем легко объяснить настройки скрипта.
1. Оба запроса, исходный и новый, должны почти совпадать, отличаясь лишь в деталях
2. Число шагов в Stable Diffusion и в Alternative test должно быть одинаковым. Сколько шагов мы сделали в сторону шума, на столько же мы должны продвинуться обратно. Чаще всего приходится их задирать выше 50
3. Скрипт работает только с сэмплером Euler
4. CFG Scale в данном случае работает как сила эффекта. Когда он ближе к нулю, запрос игнорируется и используется шум, а значит мы будем ближе к исходной картинке. Авторы скрипта советуют не поднимать его выше 2, но это ерунда, можно ставить и больше, просто будьте готовы к значительным изменениям
5. Denoising strength должен быть равен 1
6. Decode CFG Scale - это CFG, который используется при генерации шума. На практике почти всегда приходится его делать очень низким в диапазоне 0.5-1.5
7. Randomness позволяет добавить немного случайного шума. При нуле генерация будет все время одинаковой
8. Sigma adjustment - с этой галкой цвета будут больше соответствовать оригиналу
Алгоритм работы такой:
1. В img2img загружаете исходную картинку
2. Выбираете в списке скрипт img2img alternative test
3. В Original prompt записываете описание исходной картинки, можно воспользоваться Interrogate Clip
4. Снимите галку Override prompt и в запрос самого img2img запишите измененный промпт
5. Уменьшите CFG Scale до 1-2
6. Установите Denoising strength в 1
7. Включите Sigma Adjustment for finding noise for image
8. Добавьте КонтролНет, если испортилась исходная композиция
🔥26👍8
16 марта федеральное агентство по авторскому праву США выпустило документ под названием "Руководство по регистрации авторского права для работ, содержащих материалы, созданные ИИ".
Речь идёт не о каких-то поправках в законодательство, это просто разъяснения для тех, кто хочет зарегистрироваться как автор произведения. Но всё равно, это первый официальный документ на тему, так что давайте почитаем и разберёмся.
Сразу скажу, что моим преподавателем американского права был Сол Гудман, так что я могу где-то ошибиться, а где-то и соврать.
Итак, вы создали произведение искусства и хотите зарегистрировать на него авторские права. Что вам нужно знать?
1. Копирайт может защищать только результат труда человека. Если обезьяна сделает фотографию, она не сможет считаться её автором, потому что юридический термин "Автор" относится только к людям. Так что не стоит указывать Stable Diffusion, Midjourney или ChatGPT как соавтора.
2. Чтобы зарегистрировать авторское право, человек должен в значительной мере участвовать в создании произведения. Степень этого участия определяется отдельно для каждого случая, но уже понятно, что промпт таковым не является. Если вы просто сгенерировали картину или стихотворение, вы не сможете их зарегистрировать. Автор должен переработать произведение, видоизменить и дополнить его. Дополнительные итерации, такие как инпейнтинг, всё ещё считаются вкладом ИИ, а не человека.
3. Под авторское право могут подпадать только части вашего произведения, созданные лично вами. Например, комикс Zarya of the Dawn, в котором текст был написан человеком, а картинки сгенерированы Midjourney, был признан объектом авторского права как цельное произведение, но отдельные изображения из этого комикса уже не являются таковыми.
4. Сами промпты, при этом, могут быть достаточно значимыми, чтобы подпадать под копирайт. Это интересная сноска, у которой могут быть последствия. Представляете себе, можно будет зарегистрировать права на "8k, highly detailed, trending on Artstation"?
5. При подаче заявления на регистрацию авторского права автор обязан указать, какие части его произведения созданы ИИ и в какой степени они были переработаны. А большие части работы, созданные ИИ должны быть исключены из заявки.
6. Если вы не указали в заявке участие ИИ, и это было обнаружено позже, как произошло с вышеуказанным комиксом Zarya of the Dawn, регистрация может быть отозвана или пересмотрена.
Как будто вполне адекватные правила. Что думаете?
Сами разъяснения:
https://www.govinfo.gov/content/pkg/FR-2023-03-16/pdf/2023-05321.pdf
Заключение о комиксе Zarya of the Dawn. Кроме шуток, почитайте, там серьезный юридический разбор Midjourney.
https://www.copyright.gov/docs/zarya-of-the-dawn.pdf
#авторское_право
Речь идёт не о каких-то поправках в законодательство, это просто разъяснения для тех, кто хочет зарегистрироваться как автор произведения. Но всё равно, это первый официальный документ на тему, так что давайте почитаем и разберёмся.
Сразу скажу, что моим преподавателем американского права был Сол Гудман, так что я могу где-то ошибиться, а где-то и соврать.
Итак, вы создали произведение искусства и хотите зарегистрировать на него авторские права. Что вам нужно знать?
1. Копирайт может защищать только результат труда человека. Если обезьяна сделает фотографию, она не сможет считаться её автором, потому что юридический термин "Автор" относится только к людям. Так что не стоит указывать Stable Diffusion, Midjourney или ChatGPT как соавтора.
2. Чтобы зарегистрировать авторское право, человек должен в значительной мере участвовать в создании произведения. Степень этого участия определяется отдельно для каждого случая, но уже понятно, что промпт таковым не является. Если вы просто сгенерировали картину или стихотворение, вы не сможете их зарегистрировать. Автор должен переработать произведение, видоизменить и дополнить его. Дополнительные итерации, такие как инпейнтинг, всё ещё считаются вкладом ИИ, а не человека.
3. Под авторское право могут подпадать только части вашего произведения, созданные лично вами. Например, комикс Zarya of the Dawn, в котором текст был написан человеком, а картинки сгенерированы Midjourney, был признан объектом авторского права как цельное произведение, но отдельные изображения из этого комикса уже не являются таковыми.
4. Сами промпты, при этом, могут быть достаточно значимыми, чтобы подпадать под копирайт. Это интересная сноска, у которой могут быть последствия. Представляете себе, можно будет зарегистрировать права на "8k, highly detailed, trending on Artstation"?
5. При подаче заявления на регистрацию авторского права автор обязан указать, какие части его произведения созданы ИИ и в какой степени они были переработаны. А большие части работы, созданные ИИ должны быть исключены из заявки.
6. Если вы не указали в заявке участие ИИ, и это было обнаружено позже, как произошло с вышеуказанным комиксом Zarya of the Dawn, регистрация может быть отозвана или пересмотрена.
Как будто вполне адекватные правила. Что думаете?
Сами разъяснения:
https://www.govinfo.gov/content/pkg/FR-2023-03-16/pdf/2023-05321.pdf
Заключение о комиксе Zarya of the Dawn. Кроме шуток, почитайте, там серьезный юридический разбор Midjourney.
https://www.copyright.gov/docs/zarya-of-the-dawn.pdf
#авторское_право
👍11
Если вы работаете над серией, комиксом, раскадровкой (или аккаунтом на онлифанс), то вы наверняка сталкивались с проблемой повторяемости лиц.
Когда вам нужно воспроизводить конкретное лицо, то тут не обойтись без обучения. Но если вам просто нужен повторяющийся персонаж, то вот вам клёвый трюк, который я недавно открыл.
Дело в том, что нейросеть уже знает внешность многих людей, я имею в виду самых разных публичных персон. И А1111 умеет смешивать промпты. Поняли, куда я клоню?
Просто скрестите несколько известных личностей и получите новое лицо, которое будет генерироваться почти одинаково в 90 процентах случаев.
Есть две опции. Во-первых, можно начать генерировать одного персонажа, а потом переключиться на другого. Это делается таким выражением в квадратных скобках: [Keanu Reeves:Emma Watson:0.4], где 0.4 - это момент начала генерации второго персонажа, то есть 40 процентов шагов. Но так можно скрестить только двоих.
Есть другой способ:
[Keanu Reeves|Emma Watson|Mike Tyson] - разделяем персонажей вертикальной линией и они будут генерироваться поочередно через шаг.
Дальше добавьте в промпт детали внешности (цвет глаз, волос, особенности) и одежды, и дело в шляпе.
Я даже подготовил вам туториал в виде комикса.
#совет
Когда вам нужно воспроизводить конкретное лицо, то тут не обойтись без обучения. Но если вам просто нужен повторяющийся персонаж, то вот вам клёвый трюк, который я недавно открыл.
Дело в том, что нейросеть уже знает внешность многих людей, я имею в виду самых разных публичных персон. И А1111 умеет смешивать промпты. Поняли, куда я клоню?
Просто скрестите несколько известных личностей и получите новое лицо, которое будет генерироваться почти одинаково в 90 процентах случаев.
Есть две опции. Во-первых, можно начать генерировать одного персонажа, а потом переключиться на другого. Это делается таким выражением в квадратных скобках: [Keanu Reeves:Emma Watson:0.4], где 0.4 - это момент начала генерации второго персонажа, то есть 40 процентов шагов. Но так можно скрестить только двоих.
Есть другой способ:
[Keanu Reeves|Emma Watson|Mike Tyson] - разделяем персонажей вертикальной линией и они будут генерироваться поочередно через шаг.
Дальше добавьте в промпт детали внешности (цвет глаз, волос, особенности) и одежды, и дело в шляпе.
Я даже подготовил вам туториал в виде комикса.
#совет
👍56❤8🔥8⚡2😁2
В догонку к посту про создание повторяющихся персонажей путём смешивания лиц знаменитостей. Вы можете прокачать эту технику, если воспользуетесь расширением Embedding Merge (устанавливается стандартно из списка расширений Автоматика).
Оно позволяет смешивать промпты с весами за счёт создания уникального эмбеддинга. Это не совсем то же самое, что подмена промпта каждый шаг, но эксперименты показали, что работает очень похоже.
После установки расширения напишите в text2image промпт что-то вроде:
То есть в треугольных скобках перечисляете персонажей в апострофах и складываете их знаком плюс. Каждого персонажа можно домножать на число.
Когда у вас получится нужное лицо, переносите этот кусок промпта вместе с деталями (например
Теперь весь этот запрос сохранится в эмбеддинг, который вы сможете вызывать из промпта по его имени, вот так:
Так вы можете создать себе библиотеку повторяемых персонажей под каждый проект.
#совет
Оно позволяет смешивать промпты с весами за счёт создания уникального эмбеддинга. Это не совсем то же самое, что подмена промпта каждый шаг, но эксперименты показали, что работает очень похоже.
После установки расширения напишите в text2image промпт что-то вроде:
<'Meryl Streep'*0.7 + 'Cate Blanchett'*0.6 + 'Kate Winslet'*1.5 + 'Audrey Tautou'*1.2>
То есть в треугольных скобках перечисляете персонажей в апострофах и складываете их знаком плюс. Каждого персонажа можно домножать на число.
Когда у вас получится нужное лицо, переносите этот кусок промпта вместе с деталями (например
blue-eyed <'Meryl Streep'*0.7 + 'Cate Blanchett'*0.6 + 'Kate Winslet'*1.5 + 'Audrey Tautou'*1.2> with short straight blonde hair
) во вкладку EM в поле Your prompt. В поле Name of embedding впишите уникальное название, например char25, нажмите Parse. Теперь весь этот запрос сохранится в эмбеддинг, который вы сможете вызывать из промпта по его имени, вот так:
Portrait of char25
.Так вы можете создать себе библиотеку повторяемых персонажей под каждый проект.
#совет
👍46❤6🔥1