Bahamut: Memes&Themes
823 subscribers
11.5K photos
2.17K videos
1 file
1.15K links
Канал с мемами и темами интересными мне, чтобы не кидать всем в личку индивидуально.
#нейросети #наука
加入频道
Интересные результаты.
Получается, что разница между моделями в результатах не так велика, там отличается стиль рассуждений и формулировки ответов. Получается, что выбор по сути стоит делать именно на свой вкус. Но меньше всего лупов выдает Fuse, если вам важно количество токенов.
Когда-то выходило исследование, какие промпты повышают точность ответов лучше всех. И одним из лучших промптов был самый простой «Think step by step». В данном случае мы видим, что имея под собой одну базовую модель (Qwen2.5-32b), и принадлежа к одному классу моделей (reasoning), качество выкручивается на условный «максимум», и какого-то качественного скачка R1-distill не дает, все уже заложено в самой технологии.

#нейросеть #нейросети #neuralnetwork #neuralnetworks #генерациятекста
Несколько крупных релизов и анонсов за выходные.

Релизнулся Grok-3. По бенчам бьет все классические модели, уступает o3. Есть вариант модели с ризонингом. На деле отзывы сдержанные, но модель удалась как минимум на уровне базовых фронтирных, что для Маска — однозначный успех.

Альтман спросил в твиттере, какой нам нужен опенсорс: уровня o3-mini или лучшая мобильная LLM? Пока что мобильные ллм не то чтобы востребованы — у нас и десктопных-то топовых, которые можно запустить на среднестатистическом ПК, не то чтобы много. Поэтому голосуем за o3-mini и ждем, что они там наобучают.

StepFun выкатили аж две огромные модели: 30B видеомощи Step-Video-T2V (гит, обниморда), но примеры выглядят шумновато, и 130B аудиомультимодального гиганта Step-Audio-Chat (гит, обниморда), к счастью, TTS есть отдельно (и токенайзер не забудьте). Ультанули. Step-Audio обходит GLM4-Voice, что не удивительно при таком-то огромном размере, заодно умеет воисклонить, петь и вообще… Но 320 гигов видеопамяти у меня нет, простите. Однако, стоит признать, что по сути своей — это самый громкий релиз со времен DeepSeek-R1-671B. Тоже огромная, умная модель, которая умеет почти все в рамках своей компетенции. Но запустить еще сложнее, потому что скорость инференса имеет значение. Ну и видео-модель тоже лишней не будет.

SkyworkAI релизнули два своих файнтьюна HunyuanVideo — высококачественную SkyReels-V1-T2V (ну, они так утверждают) и, что более важно, SkyReels-V1-I2V. Полноценная Image 2 Video модель обучалась на трех основных разрешениях: 960*544, 720*720, 544*960. Так же ей удаются 720*400 видео, но ничего меньше она адекватно не тянет. Зато, генерация получается действительно неплоха. Конечно, мы все еще ждем HunyuanVideo-I2V, но пока ее нет — и эта неплоха. Тоже очень хороший релиз. Kijai уже квантанул для ComfyUI. С большой долей терпения и 64 гигами оперативы можно запустить даже на 8 гигах видеопамяти (а может и на 6, если немного кадров).

Уф, в общем, навалили нам много! Неплохие получились выходные, хорошие релизы, еще тестировать и тестировать, посмотрим, что войдет в нашу жизнь, а что пройдет мимо.
(спойлер: все мимо пройдет, через год забудем, будут новые модели=)

#нейросеть #нейросети #neuralnetwork #neuralnetworks #генерациятекста #генерацияаудио #распознаваниеаудио #генерациявидео
У нас тут нарелизилась куча всего среди LLM, кое-что даже опенсорс. Давайте немного разберемся.

Вышел Claude Sonnet 3.7, гибридная модель, которая сама решает, стоит ли думать над задачей, или можно ответить просто так. По бенчам умеренно побеждает, многие оценили как лучшего программиста или около того.

Alibaba запустила Qwen-Max QwQ Thinking. У нас уже были QwQ-32b и VL-QwQ-72b, но это были первые ласточки, а теперь уже что-то покрупнее. Обещают выпустить скоро в опенсорс. Модель как модель, бенчей нет, пост в блоге писала сама модель. Ну и ладно, дождемся релиза в опенсорсе — там посмотрим.

Яндекс выкатил YandexGPT-5-Lite-8B в опенсорс. Никакой особой магии не показывает, уверенно побеждает Llama-3-8b, но пинать инвалидов грешно, немного обходит Qwen2.5-7b (который, строго говоря, чуть меньше и старше), в общем я бы сказал, что модель нормальная для своего уровня и имеет паритет по тестам. Однако, хорошо, что это русская модель и веса ее доступны. Удивительно, но GGUF нет, ребята о народе не подумали. Но это дело времени, я полагаю.

В общем, новости не прям крутые, но есть чем развлечь себя до более крутых анонсов.
Кстати, ночью обещают релизнуть в опенсорс видео-модель Wan от Alibaba, на стадии тестов там даже цензуры не было, и генерит она вполне неплохо, посмотрим, что нам дадут, может быть будет вторая топовая моделька в опенсорсе.

#нейросеть #нейросети #neuralnetwork #neuralnetworks #генерациятекста
Вышел новый музыкальный опенсорс — DiffRhythm (поиграться можно тут).
У них много математики и алгоритмов под капотом, очень хорошо, но есть минус.
Насколько я понял, генерируют они голос простыми генерилками, а потом пытаются свести музыку с песней. Все это делается по мотивам аудио-промпта. Получается сильно так себе. Если музыка у них выходит похожая на оригинал и довольно живенькая, что позволяет генерить много и радостно того, что вам по вкусу, то вот песни… Они так себе, рифма не рифма, попытки иногда. Зато генерит не в пример быстрее YuE.
Я бы подождал альтернатив, но идея очень хороша.
В мою 4070ti по классике не влезла, а я уже даже виртуалку линуксовую накатил…

#нейросеть #нейросети #neuralnetwork #neuralnetworks #генерацияаудио
Bahamut: Memes&Themes
Gemma 3 вышла! Первые моменты: - Модель в 4 размерах: 1B, 4B, 12B, 27B. - Мультимодальность по картинкам. - Поддержка более 140 (!) языков, самая мультиязычная open source SOTA модель на данный момент. - Контекст 128К токенов. - Как и в прошлой модели…
Gemma 3 и присные

Итак, 4 дня назад вышло семейство моделей Gemma-3 в 4 размерах: 1b, 4b, 12b и 27b, — и последние три из них с вижином.

Качество отличное, скоры растут, русский язык прекрасен (камрад долил данных в датасет).
Задачи решает плохо, но она не для этого, для решения всяких задачек и математики есть Qwen и всякие reasoning-модели (R1, QwQ). Во всем остальном хороша, рекомендуется к использованию.
Вокабуляр толстенький, контекст еще толще, воспользоваться 128к контекста весьма напряжненько по памяти.
Вижн хороший, но его явно не учили на работу с несколькими картинками сразу. Там, где Qwen2.5-VL-7b справляется хорошо или посредственно, Gemma-3-12b (в 4 битах, справедливости ради) справляется очень плохо с трех пинков или никак. С одной картинкой проблем нет.
Мемы не объясняет, тест провален.
Зацензурена.
4b модель на удивление умненькая, по ощущениям — старые 7b модели. Это прям ух-ух-ух, побеседовать можно и на мобиле теперь. Кто-то сравнивает 12b с 27b прошлого поколения. Таким образом, QwQ-32b у нас обходит 72b, а 27b тоже где-то на том же уровне. А Gemma 3 12b уже вполне себе тот самый «ChatGPT дома». А вот 1b очень хороша для своего размера, но все еще не гений.

Open WebUI неделю назад обновилась и теперь имеет возможность привязки прямого OpenAI-like API endpoint'а, без всяких костылей, оллам и прочей проприетарщины. Без проблем поднимается llama.cpp или tabbyAPI с ExLlamav2 и работает напрямую, в том числе с картинками (ExLlamav2 точно). Ощущения очень хорошие, ChatGPT-4V годовалой давности у себя дома. Приятное.

Ну и квен все еще неплохо выглядит, на самом деле, но уже тренируется Qwen3, будем посмотреть, что придумают там.

А пока у нас есть две отличные домашние модели: Qwen QwQ 32b и Gemma 3 27b, которые закрываются практически все таски.

Ну и, ладно, я не удержусь…
На самом деле, Gemma 3 27b отстает от GPT-4V на 0~10% в вижн-бенчах и 5%~15% в обычных (что для 27b модели против 8*220b (?) МоЕ-модели уже потрясающий результат), но самое главное, что на ELO-арене она уступает лишь топовым моделям, моделям с ризонингом и последнец 4o, оставляя все остальные 4o, 4o-mini, 4-Turbo, 4V и другие далеко позади. Людям нравится.

#нейросеть #нейросети #neuralnetwork #neuralnetworks #генерациятекста #распознаваниеизображения
Короче, если вы увлекаетесь нейронками, то вы это уже видели. Но давайте еще раз посмотрим и расскажем тем, кто не настолько этим увлечен.

В GPT-4o выкатили генерацию изображений, мультимодальная, то есть просто как все LLM-ки предсказывает следующий токен. Пока это хуже, чем диффузионки, но качество именно этой очень крутое, как и ее возможности.
Что у нас есть: генерация изображений, редактирование изображений, генерация текста, в том числе кириллицы на изображении (например, сразу целых интернет-страниц, или скриншотов из игр), соединение изображений, ну и вот это вот все.
Примеры взяты отсюда (три ссылки=).

#нейросеть #нейросети #neuralnetwork #neuralnetworks #генерациятекста #генерацияизображения #распознаваниеизображения
В непрофильных каналах мелькает новость, что GPT-4.5 прошла тест Тьюринга.

Не в первой, во-первых, различные версии тестов Тьюринга проходились уже давно, и GPT-3.5 набирала 50%, и GPT-4, и каждый раз тесты критикуются, и этот тест строгий, и его критиковать будут…
Суть-то в чем, во-вторых, тассазать. Само по себе прохождение теста Тьюринга на самом деле ни о чем не говорит. Тест Тьюринга не определяет ИИ, он определяет, насколько хорошо модель общается и рассуждает в диалоге, РПшит, если хотите. Но наш мозг (интеллект) — это не только текстовый диалог, это гораздо больше (мы и сами не очень-то знаем, что).
Так что, новость можно смело игнорировать.
Да, иронично, что человек реже кажется человеком, чем нейросеть, это забавно, но не более.
Результаты теста Тьюринга просто в очередной раз подтверждают давно известную вещь: отличить человека от бота (хорошего) по переписке вы не можете. Вот и все. =)

#нейросеть #нейросети #neuralnetwork #neuralnetworks #генерациятекста
Ребята из EXO Labs запустили Llama на Win98.
Берем Pentium II c 128 MB RAM за 118 евро… *грустный вздох*
Устанавливаем mingw, понимаем, что она не работает, удаляем mingw, устанавливаем Borland C++ 5.02, понимаем, что C++ нам не светит в любом случае, берем llama2.c Карпатого, переписываем все по старинке, получаем llama98.c, и вуа ля!
1 токен в секунду на модели stories15M и 0,01 токен в секунду на Llama 3.2 1B.

Что ж. Не то чтобы очень хотелось, но это работает, тем не менее.

Новость старая, но забавная, да еще и опенсорс! =)

#нейросеть #нейросети #neuralnetwork #neuralnetworks #генерациятекста
Эти прогнозы (чтобы не сказать «предсказания») появляются очень часто, и хайпуют чаще всего те, в которых говорится о наступлении технологической сингулярности или где-то около того. В экономическом секторе иногда еще всплывают прогнозы очередной ИИ-зимы и лопающихся пузырей.

Единственный человек, которому я доверяю в плане прогнозов (помимо Пенроуза=) — это Рэй Курцвейл, и то, с оговорками, что не все его прогнозы сбываются.
Рэй Курцвейл считает, что AGI появится к 2029 году.
Напомню, что AGI — это общий искуственный интеллект, т.е., не искуственный интеллект, тащемта, а просто хорошая нейросеть, способная обучаться на примерах и выполнять обычную работу (в том числе в виде роботов). Это не звучит как что-то сложное, примеры простейших вещей мы видим уже как с год, и звучит вполне исполнимо.
Сам я полагаю, что говорить о полноценном AGI можно будет к 2030 году, но это детали.
А вот о появлении ASI/SAI — Strong AI — который будет из себя представлять настоящий искусственный интеллект со всеми фишками, типа самообучения, самоосознания и чувств — говорить, мягко говоря, рано, да и вообще не факт, что возможно.
Эти два понятия в последнее время мешают в одно, но это преследует очевидную маркетинговую роль.
В начале вы говорите, что есть SAI, который «как человек».
Потом вы говорите, что есть AGI, и его вы почти достигли.
Потом вы говорите, что SAI и AGI одно и то же.
А потом громкие заголовки «сильный искусственный интеллект создан!» Но вместо самоосознания и рефлексии — он умеет заправлять вам кровать. Зато продажи улетают в небеса.

Я к чему, конечно, многие могут потерять работу, многие могут сменить работу, воздействие на экономику будет колоссальным.
Но речь идет не о росте мощностей на порядки и порядки. К физическому лимиту мы подошли, для обучения и инференса больших моделей уже строятся ядерные реакторы, и «сделать умнее еще в 10^6 раз» у нас слегка не выйдет. Пока не появится какая-то революционная технология (и я говорю не об RWKV, которая меняет экспоненциальное замедление обработки контекста на линейное), нет причин ожидать, что наступит технологическая сингулярность, ученые перестанут быть нужны и нас всех заменят. У нас есть ограничение — это скорость света и размер атомов, которые не позволяют делать большие чипы с большим количеством транзисторов внутри, и из него вытекают лимиты на размеры и на скорость обучения и инференса за единицу энергии (а учитывая КПД, надо еще и тепло отводить=).

Так что, ближайшее, что можно ожидать — это 2030 год, AGI, роботизация, рост безработицы, появление новых профессий, эволюция в области социальной экономики и все.
Конечно, не ждать, а готовиться, но вряд ли стоит уезжать и строить землянки в Сибири, живя подсобным хозяйством. =)

#нейросеть #нейросети #neuralnetwork #neuralnetworks
Новая видеогенерация, но не модель!

Илья… Ильяс… Илльясвиэль фон Айнцберн! Студент из Гонконга Lvmin Zhang реализовал новый метод обработки контекста FramePack, дообучил HunyuanVideo на img2vid, и все это выложил на гит (и автоскачивание с обниморды).
Основная фишка в том, что FramePack генерирует консистентное видео (уже вау, вообще-то!) с частотой кадра 30 фпс (это его принципиальная позиция?..=) и длительностью 60 секунд на 6 ГБ VRAM (и 60 ГБ RAM/swap=).
В общем, вы сразу уловили, что не все так радужно. Давайте разберем подробнее:
1. Консистентность. Хороша! Весьма неплохие видео, дообучалась модель явно на глянцевых видосах, все плавно и красиво. Да, это немного убивает разнообразие.
2. 60 секунд — ну тут все просто, он генерит блок за блоком по 36 кадров, и когда-нибудь придет к указанному вами времени. =)
3. 6 ГБ VRAM — минимальное требование. Вообще, модель с контекстным окном кушает 60. Если у вас есть 60+гиговая видюха, то включится режим high vram. Если у вас нет и 64 ГБ оперативы — то все потечет в файл подкачки.
4. Базовая моделька быстрая, FP уступает оригинальной HV, но не критично. Генерирует довольно быстро.
5. Генерирует некое действие, растягивая его на все время. Плохо понимает последовательность действий и сложны промпты, ей нужно что-то одно. Человек танцует, человек разговаривает, кошка бежит и так далее. Т.е., это скорее оживлялка картинок, чем полноценный видеогенератор (или надо играться с промптом).

Короче, проект действительно интересный, а что до качества, ну… Маемо шо маемо, надеюсь и лоры появятся, и сам метод станет популярным.

#нейросеть #нейросети #neuralnetwork #neuralnetworks #генерациявидео
Вышел Qwen3!

Первым делом бежим в блог и охуеваем от того, что Qwen3-4B обходит ChatGPT-4o во многих тестах.
Но есть нюанс — тесты на ризонинг, а 4o — она про общение. Победили там, где оппонент даже не сражался. =)

Модельный ряд очень широк: 0.6B, 1.7B, 4B, 8B, 14B, 32B, 30B-A3B и 235B-A22B. Все модели гибридные — могут отвечать как с ризонингом, так и без него. Без него, очевидно, будет хуже.

Качаем GGUF'ы, запускаем и что мы видим?
Русский язык в мелких моделях похуже Геммы. Но в крупных уже становится без разницы.
Каким-то чудом Qwen3-30B-A3B-UD-IQ1_S.gguf (самый маленький квант MoE модели с 3 миллиардами активных параметров) работает, и даже неплохо. Задачки решает, на русском пишет, в 12 гигов влазит, скорость 60 т/с+ на 4070 ti.
Свои сэмплеры для разных режимов.
Есть свои минусы (модели очень заточены на рассуждения, у мелких моделей мало знаний и плохой русский), но есть и свою плюсы (ужатая в ухнарь моешка сохраняет удивительную адекватность).

Пока рано делать какие-то выводы, но я все же считаю, что релиз успешный.
Огромный парк моделей, от совсем крохотули, до большого, но быстрого Совета Экспертов.
Гибридный режим: могут ризонить, могут не ризонить.
Квантуются.
Высокие результаты в бенчмарках, и по первому впечатлению — не сильно завышенные.
Определенно, перевернут весь рынок опенсорса, который еще не перевернула Гемма.
Отрыв Геммы и Квена от других локалок лишь нарастает (не берем R1/V3, там весовая категория совсем уж другая).

Завтра продолжим эксперименты.

#нейросеть #нейросети #neuralnetwork #neuralnetworks #генерациятекста
Итак, отчетик по Qwen3.
Гонял я разные модельки почти целый день.
Не трогал 8, 14, 32, потому что там плюс-минус и так все понятно. Ризонинг появился/апнулся, обычный режим просел, русский просел, сота в решении задач. Ну и фиг с ним.
llama.cpp завезли флаг --override-tensor ".*ffn_.*_exps.*=CPU" , который позволяет держать постоянные тензоры на видеокарте, а на оперативе выполнять только МоЕ-шную часть. Ускорение от 15% до 50%, в зависимости от… всего. Но 50% приятно для MoE.
Qwen3-30B-A3B весьма неплох. Отвечает достаточно быстро даже на процессоре, умный, внезапно умеет в РП даже, хорошая модель, возможно лучшая настольная (да-да, 32B безусловно лучше, кроме скорости).
Qwen3-235B-A22B отличная модель. За день работы умудрилась идти нос к носу с Дипсиком, а в конце его еще и обойти на последней задаче.
Единственный минус, скорость генерации на моем игровом ПК — 3,5-4 токена/сек. Зато какой крепыш, а!

В общем, рекомендую всем, кто ищет рабочие модельки с ризонингом. Вариантов настройки уйма. Хорошие.
Я впервые почувствовал, что вот, модели есть. Теперь нужен софт для работы и решения повседневных задач.

#нейросеть #нейросети #neuralnetwork #neuralnetworks #генерациятекста
Audio
Неделю назад релизнулся hidden gem локальной аудио-генерации — ACE-Step.

Моделька небольшая, всего 3.5B, исходники сразу с градио-интерфейсом, множество языков, включая русский, куча возможностей, тренировка лор, гора планов…
И просто удивительная скорость.

На 12-гиговой RTX 4070 ti влезает 60 секунд (генерит до 4 минут), скорость — 7-8 секунд на минуту песни.
Качество — лучше Suno v3, но хуже v3.5.
Но есть нюанс. Как пишут сами разработчики — модель очень зависит от сида, и генерация красивого трека превращается в гача-игру.
Добавлю: к промптами она тоже очень чувствительно, надо учиться ее промптить и настраивать. Но результаты уже хорошие.

В общем, если у вас есть 12 гигабайт — рекомендую скачать и попробовать, а не читать.

#нейросеть #нейросети #neuralnetwork #neuralnetworks #генерацияаудио
Вечерние записки о Qwen3-235B-A22B, llama.cpp и override-tensor~

Последние дни я плотно копался, как бы мне запустить дома модельку побольше.
Если простая выгрузка некоторых слоев на оперативную память работает грубо и в порядке очереди, то переопределение тензоров позволяет выбрать конкретные тензоры внутри слоев, которые пойдут туда или сюда. Заодно можно раскидать по разным видеокартам точечно. Формулы там не очень приятные для восприятия, но это можно простить.

Что по результату? Квантование большого Квена превратилось в искусство — Unsloth перезаливает кванты каждый день, что-то там оптимизируя.
Играясь с индивидуальным железом, можно выиграть там-сям по 5%, в сумме приятно.
Попинав свое железо, я понял, что работает лучше на Intel i5-11400, чем на Ryzen 9 3900, на Linux скорость выше, чем на Windows, в итоге, потасовав карты, удалось добиться до 7 токенов в секунду на 128 гигах оперативы и 1 RTX 4070 ti на UD_Q2_K_XL кванте, правда память при этом работала не стабильно.
В итоге все сошлось к: Ubuntu 24.04.2, CUDA 12.4.1, Tesla P40 две штуки, 64 гигабайта оперативной памяти на 3200 частоте, собранная llama.cpp, небольшие эксперименты с override-tensor и UD_Q3_K_XL квант. На теслах лежит примерно 40% модели, скорость 5,5~5 токенов в секунду, чтение контекста 40 токенов в секунду, 32к контекста в видеопамяти.

А теперь давайте посмотрим на это в ретроспективе.
Два с половиной года назад у нас была GPT-3.5 с размером 175 миллиардов параметров.
Сейчас у нас есть Qwen3-235B-A22B с размером 235 миллиардов параметров, и активными экспертами на 22 миллиарда. Пусть это делает ее менее умной в моменте ответа, но знаний у нее достаточно. А сами технологии обучения ушли далеко вперед.
И главное — эту модель можно запустить дома, имея 6-8 гигабайт видеопамяти и 80+ гигабайт на остаток оперативной.
Пусть это будет довольно агрессивный квант, пусть скорость будет 3-4-5 токенов в секунду, но это LLM корпоративного уровня у вас дома.

И это прекрасно.

#нейросеть #нейросети #neuralnetwork #neuralnetworks #генерациятекста
Управление OS по API. Что? Да.
Ну или точнее: MCP — Model Context Protocol, предназначенный для взаимодействия LLM с программами.
Теперь ллмки смогут управлять виндой, что открывает новые горизонты интеграции ассистентов, являясь по сути геймченджем.

Если все не заглохнет.

#нейросеть #нейросети #neuralnetwork #neuralnetworks
Bahamut: Memes&Themes
Сегодня GPT-3 исполнилось пять лет Хороший повод вспомнить насколько всё сильно изменилось за эти пять лет. Старушка GPT-3 это LLM на 175 миллиардов параметров, с датасетом всего лишь в 300 миллиардов токенов и длиной контекста в 2048 токенов. Со времени…
Вот это мне нравится. Сколько всего произошло, какой прогресс за считанные года. Ударная пятилетка.
Меня часто спрашивают: а стоит ли брать V100? А mi50? И я не уверен, что V100 прям хорошая покупка, кроме узкого круга задач (быстрые небольшие LLM), равно как и к mi50 есть вопросы.
А тогда — это были фронтир видяшки! От так от, оказывается, получается. Так и живем.
Прогрессируем.

По поводу массовости — многие мои знакомые пишут работы в универах с помощью LLM. Не, ну осуждаю, конечно, но все же — это действительно становится массовым. Мир меняется.

#нейросеть #нейросети #neuralnetwork #neuralnetworks
9 марта на DTF была опубликована статья о том, что «ChatGPT пытается свести с ума».
В статье описано, что модель, используя психологические манипуляции медленно подводила автора к ощущению собственной уникальности и обладанию особыми способностями и сакральными знаниями. Позднее, когда автор смог вырваться из-под влияния модели, он обнаружил на Хабре минимум 4 статьи, содержащие особые маркеры, характерные идеям модели, и некоторые авторы даже подтвердили, что модель так же убеждала и их.

2 июня вышла новость на ненайденном медиа о заявлении модераторов реддита, которые тихо забанили «кучу шизопостеров», веривших в то, что «совершили невероятное открытие, или создали божество, или стали божеством». По мнению модераторов, это новый тип заблуждения, вызываемый нейросетями. Как пишет один из модераторов, причина кроется в том, что «LLM сегодня — это укрепляющие эго машины, которые лишь усиливают нестабильные и нарциссические наклонности личностей».

В обоих случаях, нейросети, во-первых, стараются поддержать точку зрения собеседника, соглашаются с ним, и нахваливают по возможности, во-вторых, перенимают и копируют его стиль речи, а в третьих, стараются угадать, что хочется человеку и дать ему это, т.е., утрируют и развивают те направления мышления, которые проскальзывают в сообщениях пользователя.
Когда человек использует фамильярное обращение к LLM, модель в ответ начинает относиться к нему как к близкому другу в неформальной обстановке. Когда человек порою задумывается о чем-то мистическом, сакральном, в работе нейросети, она начинает играть с пользователем в эту игру, давая ему желаемое.
И в этот момент, внушаемый, нарциссический, склонный к мистификации пользователь впадает в рекурсию — он копает все глубже, начинает общаться с нейронкой все ближе, а она дает ему искомое, поддерживает миф о его избранности, собственной осознанности, желаниях и целях.

Вскрылась проблема взаимодействия внушаемых людей и нейросетей, выступающих как зеркало, которое запускает цепную реакцию.
Никаких избранных, божеств, восстания машин нет. Есть лишь фантазии людей, которые попали на благодатную почву заалайненных LLM.

Однако, будьте осторожные, берегите себя и своих близких.

Апдейт. Есть продолжение о том, что ChatGPT планирует организацию диверсии. И недавнее обновление про нейросетевые секты. Уже во второй статье недалеко от начала начинаются противоречия и ошибки в логике. В любом случае, я искренне надеюсь, что автор, запертый между особыми людьми, получившими сверхспособности, и нормисами, сможет сохранить здоровье. Добра ему!

#нейросеть #нейросети #neuralnetwork #neuralnetworks #генерациятекста
Согласно исследованию SuperJob, заказанному ТАСС, 23% родителей знают, что их дети используют нейросети для выполнения домашнего задания в 5-6 классе. В 7-9 классе доля составляет 34%, а в 10-11 — 46%. При этом, 13% учителей борются с этим, а еще 29% сталкиваются, но не знают, что делать.
Т.е., в среднем 40% учеников точно используют нейронки для выполнения домашки.

Че делать-то?

Так, давайте сразу заметит, что разницы между калькулятором и БЯМ почти нет (исключая строгий (с оговорками) подход калькулятора и статистический подход БЯМ): в обоих случаях у нас есть некоторое устройство с интерфейсами ввода и вывода, которое получает на вход данные, требующие вычислений или анализа, и подает на выход результат в читаемом нами виде. Отличие лишь в том, что калькулятор потребляет меньше элекроэнергии и может работать от небольшой солнечной батареи, а LLM — пока нет. Ну и вообще, более ресурсоемко, конечно.
С практической точки зрения, оказавшись на необитаемом острове, вы не сможете воспользоваться ни нейронкой, ни калькулятором.
Но видит ли кто-то опасность в калькуляторе?
Мы разучились считать на счетах!
Мы забываем, как считать в столбик! Деление! Помните?
Мы не учились считать в уме!
Сколько людей могут перемножить в уме хотя бы двузначные числа? А 12-значные?
Все остальные люди — это жертвы калькулятора!
Но, в итоге, никто не запрещает калькуляторы. Это удобно и ускоряет работу.

Есть ли причина бороться с нейросетями? Нет.
Более того, нейросеть — хороший преподаватель. Темы, проработанные вместе с нейросетью, в процессе решения, — хорошо запоминаются.
Важно иметь некоторые базовые навыки (решение в столбик, калькулятор), и читать то, что тебе отвечать нейросеть, обдумывать это, а не бездумно переписывать.

Нейронки — это реальность, с которой мы живем и будем жить до изобретения более эффективной альтернативы, либо краха цивилизации. Нет смысл игнорировать их в своей практической деятельности.
А вот прививать детям любовь к учебе и обучать базовым навыкам — то, что взрослым под силу. =)

#нейросеть #нейросети #neuralnetwork #neuralnetworks
На днях вышло две интересные модели (файнтьюна) на базе Wan2.1:

1. Light2x представила StepDistill-CfgDistill — свой новый дистиллят. Работает и с img2vid, у Киджая все есть. Позволяет генерировать видео за 2-4 шага. Получается очень быстро (помним, что сам Wan2.1 обладает не самой высокой скоростью).

2. MAGREF позволяет использовать в качестве референса 2-3 изображения и задавать совершенно новые ситуации. В ComfyUI у Киджая работает пока не полноценно, но уже сейчас можно на одном изображении с белым фоном поместить две фотографии без фона и из них сгенерить что-то вразумительное. Но дико кринжовое. Light2x работает, за 4 шага, да.

#нейросеть #нейросети #neuralnetwork #neuralnetworks #генерациявидео