Нет, Qwen-генератор до семи считать не умеет, как и все остальные.
Create image of flower with exactly seven petals
https://chat.qwenlm.ai/c/0957e41a-9686-4997-a3b1-4ab8c3fa5bf1
А видео-генератор похоже перегружен:
Qwen2.5-Plus7:54 pm
Uh-oh! There was an issue connecting to qwen-plus-latest. data_inspection_failed
@cgevent
Create image of flower with exactly seven petals
https://chat.qwenlm.ai/c/0957e41a-9686-4997-a3b1-4ab8c3fa5bf1
А видео-генератор похоже перегружен:
Qwen2.5-Plus7:54 pm
Uh-oh! There was an issue connecting to qwen-plus-latest. data_inspection_failed
@cgevent
This media is not supported in your browser
VIEW IN TELEGRAM
Видеогенерация в Qwen Chat занимает чуть меньше времени, чем бесконечность. Еле дождался.
Надо, конечно, колдовать с промптами...
@cgevent
Надо, конечно, колдовать с промптами...
@cgevent
Мне кажется Kling просто троллит Pika.
Сначала он перепёр их Ingredients в виде Elements, а сейчас добавил пару вирусных, но бесполезных эффектов, которыми Пика пыталась взорвать Твиттор. Взорвала на неделю где-то.
Я не могу объяснить выпуск всего двух абсолютно бесполезных эффектов (МочиМочи и БумБум) ничем, кроме желанием подколоть Пику (смешно вышло ).
А вот то, что они завезли Image Reference (как face и как subject) в свой генератор картинок KOLORS 1.5 - хорошая новость, не бросают продукт.
Как использовать, тут:
https://klingai.com/release-notes
@cgevent
Сначала он перепёр их Ingredients в виде Elements, а сейчас добавил пару вирусных, но бесполезных эффектов, которыми Пика пыталась взорвать Твиттор. Взорвала на неделю где-то.
Я не могу объяснить выпуск всего двух абсолютно бесполезных эффектов (МочиМочи и БумБум) ничем, кроме желанием подколоть Пику (
А вот то, что они завезли Image Reference (как face и как subject) в свой генератор картинок KOLORS 1.5 - хорошая новость, не бросают продукт.
Как использовать, тут:
https://klingai.com/release-notes
@cgevent
Рубрика крутые подписчики.
Но немного в ином разрезе. Ко мне\нам в чат ломятся сотни афтараф ИИ-каналов со ссылками на перевес. Добавишь такого в чат - и лови поток ссылоr на его посты в его канале. Это у них даже как-то называется по умному.
Вычищаю помаленьку, но имейте в виду, что попасть в чат таким партизанам теперь сложно.
Но есть у нас в чате очень крутые спецы, которые успевают оттестировать все, что шевелится, не пиарят себя и подгоняют очень полезную информацию.
Щас процитирую Ксению Галушкину по 3Д-генераторам:
Rodin самое нормальное качество из всех 3д-нейронок, но платно.
Meshy красивая галерея на сайте, но мощный черри-пик, в реальности повторить такое получается раз в 10 попыток, Rodin намного стабильнее по качеству за свои деньги.
Trellis Comfy или HunYuan3d 2.0 Comfy бесплатные локальные, но финальное качество не вытянут. Если по фото, то плохо получается, но в Hunyan 3d можно запихнуть качественную ИИ-картинку, сгенеренную под 3д-рендер, тогда прожует, а дотекстурить руками.
Сетка и развёртка во всех четырех лажа, пока везде доделка руками. Можно чуть лучше сетку получить из Meshy и чуть лучше развёртку из Rodin, но в моделях есть дыры или лишние полигоны и тд, так что эти улучшения не спасают пока от ручной доделки.
Совпадает с моим мнением и дополняет его тестами.
А вот держите еще пару мегагодных постов Ксении про тестирование четырех 3Д-генераторов:
https://yangx.top/Aironically/411
И обзор Hunyuan 3d 2.0 на разных модельках:
https://yangx.top/Aironically/413
@cgevent
Но немного в ином разрезе. Ко мне\нам в чат ломятся сотни афтараф ИИ-каналов со ссылками на перевес. Добавишь такого в чат - и лови поток ссылоr на его посты в его канале. Это у них даже как-то называется по умному.
Вычищаю помаленьку, но имейте в виду, что попасть в чат таким партизанам теперь сложно.
Но есть у нас в чате очень крутые спецы, которые успевают оттестировать все, что шевелится, не пиарят себя и подгоняют очень полезную информацию.
Щас процитирую Ксению Галушкину по 3Д-генераторам:
Rodin самое нормальное качество из всех 3д-нейронок, но платно.
Meshy красивая галерея на сайте, но мощный черри-пик, в реальности повторить такое получается раз в 10 попыток, Rodin намного стабильнее по качеству за свои деньги.
Trellis Comfy или HunYuan3d 2.0 Comfy бесплатные локальные, но финальное качество не вытянут. Если по фото, то плохо получается, но в Hunyan 3d можно запихнуть качественную ИИ-картинку, сгенеренную под 3д-рендер, тогда прожует, а дотекстурить руками.
Сетка и развёртка во всех четырех лажа, пока везде доделка руками. Можно чуть лучше сетку получить из Meshy и чуть лучше развёртку из Rodin, но в моделях есть дыры или лишние полигоны и тд, так что эти улучшения не спасают пока от ручной доделки.
Совпадает с моим мнением и дополняет его тестами.
А вот держите еще пару мегагодных постов Ксении про тестирование четырех 3Д-генераторов:
https://yangx.top/Aironically/411
И обзор Hunyuan 3d 2.0 на разных модельках:
https://yangx.top/Aironically/413
@cgevent
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Camera Control with T2V 01 - Director Model
Помните про 273 фичи?
Итак, видеогенераторы продолжают наваливать новые фичи в попытках сымитировать процесс съемки видео.
Основная точка приложения сил - управление камерой. Для этого даже тренируют отдельные модели.
Скоро в Минимаксе раскатают такую новую модель с новой фичей:
Camera Control with T2V 01 - Director Model для полного(?) управления камерой при генерации видео.
Из интересного - плавные переходы: несколько движений для достижения кинематографического лука.
T2V 01 Director Model это text2video модель, которая позволит вам "направлять камеру, чтобы она делала то, что вы хотите, для этого используется естественный язык, это также очень полезно для создания плавных переходов".
Для этого в окне запроса нужно будет выбрать модель, нажать на камеру, выбрать работу с несколькими камерами. См видео в шапке.
Сорс и промпты тут.
@cgevent
Помните про 273 фичи?
Итак, видеогенераторы продолжают наваливать новые фичи в попытках сымитировать процесс съемки видео.
Основная точка приложения сил - управление камерой. Для этого даже тренируют отдельные модели.
Скоро в Минимаксе раскатают такую новую модель с новой фичей:
Camera Control with T2V 01 - Director Model для полного(?) управления камерой при генерации видео.
Из интересного - плавные переходы: несколько движений для достижения кинематографического лука.
T2V 01 Director Model это text2video модель, которая позволит вам "направлять камеру, чтобы она делала то, что вы хотите, для этого используется естественный язык, это также очень полезно для создания плавных переходов".
Для этого в окне запроса нужно будет выбрать модель, нажать на камеру, выбрать работу с несколькими камерами. См видео в шапке.
Сорс и промпты тут.
@cgevent
Мультиликий Янус
Вы будете смеяться, но у нас новый (не, пока не видеогенератор) генератор картинок.
Угадайте от кого?!?!
ДипСик, который рвет инфопространство, роняет акции Нвидия, вызывает панические атаки в Метачке, взял и бахнул генератор картинок!!
Не диффузия - Janus-Pro - это новая авторегрессионная модель, унифицированная MLLM которая разделяет visual encoding for multimodal understanding and generation.
Janus-Pro построен на базе DeepSeek-LLM-1.5b-base/DeepSeek-LLM-7b-base.
И тонко так троллят OpenAI - мы ваш DALL·E 3 имели во всех бенчмарках.
Но как говорят очень умные люди в чате "соту ожидать не стоит, из интересного должна быть достаточно хорошая скорость работы". Диффузию пока не догнать, Аврора в Гроке тому пример.
Но это непонятно откуда взявшийся ДипСик, который просто лихо повторяет достижения взрослых мальчиков.
В общем, года начался не просто лихо - это просто сериал про будущее, который мы смотрим в реальном времени.
И бюджет сериала начинается от 500 миллиардов. Для начала.
Идем тестировать, это все OPEN SOURCE!!!
https://huggingface.co/deepseek-ai/Janus-Pro-7B
https://github.com/deepseek-ai/Janus
@cgevent
Вы будете смеяться, но у нас новый (не, пока не видеогенератор) генератор картинок.
Угадайте от кого?!?!
ДипСик, который рвет инфопространство, роняет акции Нвидия, вызывает панические атаки в Метачке, взял и бахнул генератор картинок!!
Не диффузия - Janus-Pro - это новая авторегрессионная модель, унифицированная MLLM которая разделяет visual encoding for multimodal understanding and generation.
Janus-Pro построен на базе DeepSeek-LLM-1.5b-base/DeepSeek-LLM-7b-base.
И тонко так троллят OpenAI - мы ваш DALL·E 3 имели во всех бенчмарках.
Но как говорят очень умные люди в чате "соту ожидать не стоит, из интересного должна быть достаточно хорошая скорость работы". Диффузию пока не догнать, Аврора в Гроке тому пример.
Но это непонятно откуда взявшийся ДипСик, который просто лихо повторяет достижения взрослых мальчиков.
В общем, года начался не просто лихо - это просто сериал про будущее, который мы смотрим в реальном времени.
И бюджет сериала начинается от 500 миллиардов. Для начала.
Идем тестировать, это все OPEN SOURCE!!!
https://huggingface.co/deepseek-ai/Janus-Pro-7B
https://github.com/deepseek-ai/Janus
@cgevent
Ну в общем, как и было написано в предыдущем посте "соту ожидать не стоит, из интересного должна быть достаточно хорошая скорость работы".
Вот держите работающий спейс, чтобы погонять Janus Pro:
https://huggingface.co/spaces/blanchon/JanusPro
Работает действительно очень быстро, но как та машинистка на 100К знаков в минуту, ничего не понятно.
@cgevent
Вот держите работающий спейс, чтобы погонять Janus Pro:
https://huggingface.co/spaces/blanchon/JanusPro
Работает действительно очень быстро, но как та машинистка на 100К знаков в минуту, ничего не понятно.
@cgevent