Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Microsoft представила мини-модель Mu с 330 млн. параметров для локальной работы на NPU в Windows Settings. На чипах Qualcomm модель показывает в 4,7 раза быстрее генерацию токенов, чем аналоги. Mu адаптировали под особенности NPU: настроили размеры слоев, применили квантование весов до 8-16 бит и уменьшили потребление памяти.
Mu уже используется в агенте Settings, который преобразует запросы вроде «увеличь яркость» в системные команды. Модель обучали на 3,6 млн примеров, добавили синтетические данные и шум, чтобы повысить точность. Результат: ответы за 500 мс даже на сложных задачах. При этом Mu в 10 раз меньше Phi-3.5-mini, но сохраняет конкурентную производительность.
blogs.windows.com
Prime Intellect запустила SYNTHETIC-2, децентрализованную систему генерации для обучения ИИ. Проект позволяет любым GPU, от бытовых до промышленных, присоединиться к генерации данных. Управляет процессом TOPLOC v2, технология, которая проверяет корректность вычислений через хэширование активаций и распределяет награды за успешные результаты.
Датасет включает более 20 задач: математика, генерация JSON и неформальные задания для разнообразия данных. Верификация работает через сравнение ответов разных моделей (Qwen3, DeepSeek и др.). Все данные доступны на HuggingFace.
Присоединиться может любой желающий, арендовав ресурсы через Prime Intellect или подключив собственные GPU. Цель проекта - ускорить развитие открытой суперинтеллектуальной системы, где контроль распределен, а технологии общедоступны.
primeintellect.ai
«The Dream Recorder», открытый DIY-гаджет от компании Modem Works, превращающий воспоминания о снах в короткие фильмы с помощью ИИ. Устройство использует Raspberry Pi, микрофон и экран, а его стоимость сборки составляет около $310. После пробуждения пользователь рассказывает сон, который транскрибируется и отправляется в ChatGPT, а затем в Luma AI для генерации видео. Итоговый ролик сохраняется в цифровой дневник.
Проект сочетает DIY-культуру и доступные технологии, демонстрируя, как ИИ может визуализировать субъективный опыт. Все схемы и исходники доступны на GitHub, включая 3D-модели для печати. Примерная стоимость записи одного сна составляет $0.15, что делает эксперименты с памятью и сознанием доступными. И это не прототип, а рабочее решение, которое можно собрать самостоятельно.
dreamrecorder.ai
Исследователь Синькай Ю из DeepSeek разработал nano-vLLM, облегченный движок для работы с LLM. Он написан на Python вручную, объемом всего 1,2 тыс. строк кода, и воспроизводит основные функции оригинального vLLM.
nano-vLLM поддерживает кэширование префиксов, тензорный параллелизм, компиляцию с torch.compile и CUDA Graphs. Это позволяет достичь скорости, близкой к vLLM, но без сложных алгоритмов планирования задач или динамического батчинга. Зато разработчики получают четкую архитектуру в одном месте: токенизатор, управление кэшем и механизм выборки токенов. Проект подойдет для исследований, обучения или небольших систем, где важна простота.
github.com
По данным источников, OpenAI разрабатывает продвинутые функции для ChatGPT, превращая его в платформу для командной работы. Пользователи смогут группировать чаты, загружать файлы, использовать голосовой ввод и сохранять контекст диалогов. Все это позиционируется как альтернатива офисным пакетам. Мобильное приложение получит поддержку загрузок и переключения моделей на лету.
Этот проект, задуманный в 2024 году, активно развивается сейчас и OpenAI видит в ChatGPT «операционную систему для жизни», интегрируемую в рабочие процессы. Microsoft, поддерживающий стартап, теперь рискует стать конкурентом самому себе, а Google получает нового серьезного оппонента.
theinformation.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12👍8🔥3
Forwarded from Machinelearning
Венчурный фонд Innovation Endeavors, основанный бывшим CEO Google Эриком Шмидтом, выпустил 126-страничный обзор о состоянии и тенденциях фундаментальных ИИ-моделей в 2025 году.
Каждый восьмой работник на планете использует ИИ-инструменты хотя бы раз в месяц, а 90 % прироста аудитории произошло за последние полгода. Многие «ИИ-приложения» уже приносят индустрии миллиарды долларов в год, охватывая инженерию, дизайн, бухгалтерию, юриспруденцию и другие сферы.
Современные языковые модели превосходят врачей по целому ряду диагностических задач и решают олимпиадную геометрию лучше, чем 99 % людей.
Самое неожиданное: если дать небольшой модели время подумать, то она может обойти гораздо более крупную – эксперименты показали, что 3B-модель с reasoning-механизмом обойдет 70B-модель.
Производительность, интеллект и окна контекста увеличиваются более чем в 10× каждый год. Например, окна контекста выросли примерно с 8 тысяч до миллиона токенов, а стоимость генерации одного токена на крупных моделях упала почти в 1000 раз за пару лет. Средняя «длительность» задачи, которую модель может завершить сама, удваивается примерно каждые 7 месяцев.
Модели рассуждения, обученные через CoT, дают новый путь к масштабированию и требуют активного посттренинга (RL с reward-моделями). Возможно, скоро именно дообучение станет важнее предобучения.
Крупнейшие игроки генерируют сотни миллионов выручки, но обучение топ-моделей дороже: LLaMA 4 ≳ $300 млн, GPT-4 ≈ $100 млн, а совокупные расходы OpenAI на обучение и данные достигают ~$3 млрд в год. Новая модель устаревает за три недели — конкуренция так высока, что open-source почти сравнялся с закрытыми платформами.
Выяснилось, что функции «узких» специалистов часто уходят к универсалам с ИИ-ассистентам, а профессии уровня "middle management" вымирают.
Model Context Protocol соединяет модели с почтой, дизайном, чатами и другими сервисами, а «клиентом» всё чаще выступает другой ИИ: крупные CRM и базы данных само-настраиваются через агентов.
В ИИ-облаках важнее продавать «сырые» GPU-часы, чем комплексное ПО; допвремя на GPU обычно выгоднее оптимизаций. NVIDIA остаётся безусловным лидером: отчёт Q1 зафиксировал 10× генерации токенов на инференсе за год. Появилась волна стартапов с трансформер-чипами — теперь переписывать ИИ-ПО под новое железо оправдано: вычислительные затраты многократно превышают зарплаты инженеров.
Доля венчура выросла с 10% в 2024 до 50+% в 2025. Компании вроде Anthropic показывают $2 млрд годового дохода с двукратным ростом, но их оценивают в 30 годовых выручек, что вызывает опасения перегрева. Некоторые стартапы привлекают инвестиции ещё на этапе идеи, без MVP, усиливая риски "пузыря".
75 % ИИ-фото-приложений потеряли основную выручку всего за полгода после пика, напоминая, что не каждое модное направление = устойчивый бизнес, тем более когда модели устаревают с космической скоростью.
⏩Полный отчёт
⏩Видео
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13👍4🔥3