Есть такая проблема в обучении моделей, называется "Data Wall". Это когда просто добавлять все больше текста из интернета уже не помогает улучшать большие языковые модели. Синтетические данные стали решением, но как именно они работают, до сих пор было не до конца понятно.
Метод, разработанный DatologyAI переосмысливает синтетику и показывает, как она может быть эффективна. Модель на 3 миллиарда параметров, обученная на 180 миллиардах токенов BeyondWeb, работает лучше, чем 8-миллиардная модель на данных Cosmopedia.
BeyondWeb — это не просто еще один датасет, а целая методология, основанная на перефразировании источников. Иными словами, она не генерирует знания с нуля. Вместо этого берется существующий веб-контент и перерабатывается в более качественные и целевые форматы, например, в пары вопрос-ответ. Это дешевле и позволяет добиться большего разнообразия.
На 14 тестах модель, обученная на BeyondWeb, показывает точность 63.7%. Это на 2.6% лучше, чем у конкурента Nemotron-Synth, и на 5.1% лучше, чем у Cosmopedia.
Чтобы достичь уровня RedPajama, BeyondWeb нужно в 7.7 раз меньше данных. А уровня Nemotron-Synth — в 2.7 раза меньше.
Ключевые выводы, к которым пришли авторы проведенного исследования, экспериментируя с фреймворком:
Простая суммаризация веб-текста для повышения плотности информации дает результат, сравнимый с Cosmopedia, но подход BeyondWeb значительно его превосходит.
Наивное дописывание существующего текста дает лишь скромный прирост, а вот стратегически созданные данные, заполняющие пробелы знаний, могут превзойти потолок производительности, достигаемый на чисто естественных данных.
Перефразирование качественного веба дает гораздо лучшие результаты, чем облагораживание низкокачественного. Также важен стиль: в вебе всего 2.7% контента имеет диалоговый формат, хотя это основной сценарий использования LLM.
При масштабировании до триллионов токенов именно разнообразие стратегий генерации синтетики (вопрос-ответ, MCQ, логические задачи и т.д.) позволяет избежать стагнации и продолжать улучшать модель.
Эксперименты показали, что размер модели-генератора не так важен. Переход с 1 млрд. на 3 млрд. параметров дает прирост, а с 3 на 8 - уже почти нет. Значит, не нужны огромные модели, чтобы создавать качественные синтетические данные.
@ai_machinelearning_big_data
#AI #ML #LLM #BeyondWeb #DatologyAI
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤71👍21🔥17🫡4
Media is too big
VIEW IN TELEGRAM
xAI допустила утечку данных: сотни тысяч личных переписок пользователей с чат-ботом Grok оказались в открытом доступе и были проиндексированы поисковиком Google. По оценкам Forbes, в индексе оказалось более 370 000 ссылок на чаты.
Причиной утечки стала функция «Поделиться». При ее использовании генерируется уникальный URL, который и попадает в поле зрения поисковых роботов. В результате в открытом доступе оказались как обычные рабочие запросы, так и конфиденциальная информация, включая медицинские данные, пароли, загруженные изображения и таблицы.
В xAI пока не прокомментировали ситуацию. Этот инцидент напоминает похожий случай с ChatGPT от OpenAI, когда ссылки на чаты также попали в поисковую выдачу, но проблема была оперативно устранена.
forbes.com
MoNaCo - новый бенчмарк для оценки вопросно-ответных систем. Он состоит из 1315 естественных и сложных вопросов, ответы на которые требуют анализа и синтеза информации из десятков, а иногда и сотен различных источников.
MoNaCo должен устранить разрыв между возможностями современных LLM и существующими методами их оценки. Большинство текущих бенчмарков либо слишком просты, либо состоят из сгенерированных вопросов.
Тестирование 15 топовых LLM показало, что все они испытывают трудности. Лучшая модель, o3, достигла F1-меры в 61.2%, дав абсолютно точный ответ лишь в 38.7% случаев. Производительность моделей резко падает с увеличением числа необходимых источников и шагов рассуждения. Бенчмарк уже доступен на Hugging Face.
allenai.org
Figure AI показала новые возможности своего гуманоидного робота Figure 02. На видео он уверенно преодолевает препятствия, используя новую систему локомоции - Helix. По словам основателя компании, система управления ходьбой обучена с помощью RL и позволяет роботу передвигаться, полагаясь исключительно на внутренние датчики для поддержания равновесия, без данных с камер.
В Figure AI описывают достигнутую стабильность и надежность как "почти сверхчеловеческую". Helix является частью более широкой архитектуры VLA, которая объединяет восприятие, понимание языка и управление моторикой для координации движений всего тела робота.
Brett Adcock (Основатель Figure AI) в сети Х
Функция под названием "Редактируй, спрашивая" (edit by asking) способна выполнять как базовые задачи - коррекцию освещения или удаление объектов, так и более творческие, например, замену фона или добавление новых элементов на снимок.
Инструмент работает на базе модели Gemini. Первыми доступ к нему получат владельцы новых смартфонов Pixel 10 в США на следующей неделе. В течение ближайших недель функция станет доступна и на других устройствах под управлением Android и iOS.
techcrunch.com
Microsoft и NFL объявили о продлении своего технологического альянса. В рамках нового соглашения в работу лиги будут внедрены инструменты на базе генеративного ИИ которые затронут как игровые, так и бизнес-операции.
Ключевым элементом станет система Sideline Viewing System, которая получит более 2500 кастомизированных планшетов Surface Copilot — по одному для каждого игрока и тренера во всех 32 командах. Новое ПО позволит тренерскому штабу за считанные секунды получать статистику по игровым моментам, заменяя ручной поиск данных.
Помимо поля, Copilot будет использоваться для анализа драфта, управления потолком зарплат и разработки приложений для болельщиков. Microsoft также планирует расширить применение Azure AI для скаутинга и анализа видео, основываясь на успешном опыте пилотного проекта на NFL Combine в этом году.
news.microsoft.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤40👍13🔥8💘2😁1🤔1😨1
Python Software Foundation (PSF) совместно с JetBrains опубликовала результаты восьмого, самого крупного в истории опроса разработчиков - в нём приняли участие более 30 000 человек.
Данные, собранные в конце 2024 года, показывают, что 72% респондентов используют Python в рабочих целях и это подтверждает доминирующую роль языка в индустрии. И популярность Python продолжает расти: согласно другому исследованию, от Stack Overflow, использование языка увеличилось на 7%.
Половина опрошенных имеют менее 2 лет профессионального опыта в программировании, а 39% начали использовать Python в течение последних 2 лет. Это говорит о том, что язык активно привлекает новичков и остается ключевой точкой входа в разработку.
Только 15% разработчиков используют последнюю на момент опроса версию, 3.13. В PSF утверждают, что массовый переход на нее мог бы сэкономить миллионы долларов на облачных вычислениях за счет повышения эффективности.
Однако сами разработчики не торопятся: 53% заявляют, что текущая версия полностью удовлетворяет их потребности, 27% ссылаются на проблемы с совместимостью, а 25% - на нехватку времени.
При этом нельзя сказать, что сообщество инертно. Самая популярная версия - 3.12 (35%), выпущенная в конце 2023 года, за ней следует 3.11 (21%), что говорит о довольно быстрой адаптации к не самым последним, но свежим релизам.
Анализ данных (48%) и веб-разработка (46%) идут практически вровень. Но если к анализу прибавить ML (41%) и инжиниринг данных (31%), то доминирование Data Science становится очевидным.
В мире веб-фреймворков происходит смена караула: FastAPI (38%) резко вырвался вперед, обогнав ветеранов: Django (35%) и Flask (34%). Год назад у FastAPI было всего 29%.
Ещё один стремительный взлёт — у написанного на Rust менеджера пакетов uv, который позиционируется как замена pip. Заявляя о кратном превосходстве в скорости, он уже отхватил 11% пользователей.
А вот в лагере IDE плохие новости для спонсора опроса, JetBrains: Visual Studio Code укрепил свое лидерство, набрав 48% (против 41% в прошлом году), а доля PyCharm снизилась до 25% (с 31%).
Ранее в этом месяце PSF объявила о приостановке своей грантовой программы из-за нехватки средств.
Годовой отчет за 2024 год показал чистый убыток в размере 1 462 000 долларов, что значительно больше, чем в 2023 году, там убыток был 225 000 долларов.
Фонд, который поддерживает репозиторий PyPI, дистрибуцию самого Python и нанимает разработчиков для CPython, оказался в сложной ситуации и явно нуждается в большей поддержке и ресурсах от корпораций, которые строят свой бизнес и получают доход на Python.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤48👍28🔥8😢8👌3❤🔥2
Автономные агенты, способные управлять рабочим столом - это Грааль современного HCI. Но их обучение сопряжено с трудностями: GUI созданы для людей, а не для машин, а масштабирование RL упирается в неэффективность и нестабильность сред.
В Z.ai сделали фреймворк COMPUTERRL, который лег в основу агента AutoGLM-OS. Результат - state-of-the-art на бенчмарке OSWorld: 48.1% успешных выполнений и это лучше, чем у OpenAI CUA 03 (42.9%), UI-TARS-1.5 (42.5%) и Claude 4.0 Sonnet (30.7%).
OSWorld — это крупный бенчмарк из 369 заданий для проверки многомодальных ИИ-агентов в реальных условиях. Он работает в Ubuntu, Windows и macOS.
В нем ИИ выполняет открытые задачи: работает с веб- и десктопными приложениями, управляет файлами, запускает процессы. Каждое задание имеет четкие начальные условия и скрипты для оценки, чтобы результаты можно было воспроизвести.
Такие высокие показатели - результат комбинации 3-х инноваций.
Фреймворк объединяет GUI-взаимодействия с быстрыми и точными API-вызовами образуя систему, которая через LLM автоматически анализирует примеры задач, генерирует необходимый API-код для стандартных приложений Ubuntu и даже создает для него базовые тесты.
Таким образом, агент использует быстрые API там, где это возможно, и переключается на GUI для общих задач, что повышает и скорость, и надежность. Абляция показала, что переход от GUI-only к API-GUI поднимает средний показатель успеха с 11.2% до 26.2%.
OSWorld крайне ресурсоемок, и запуск множества его экземпляров на одном узле это тот еще квест. Z.ai полностью переработали эту среду, используя qemu-in-docker для легковесного развертывания VM, gRPC для связи между узлами и полностью асинхронный фреймворк AgentRL. Это позволило создать кластер из тысяч параллельных виртуальных сред, к котором онлайн-обучение RL-агентов стало максимально эффективным.
Entropulse решает проблему коллапса энтропии, чередуя фазы RL с периодическими сессиями SFT. Во время RL-фазы собираются все успешные траектории, и на их основе формируется новый SFT-датасет. Затем модель дообучается на этом датасете, что позволяет восстановить её исследовательскую способность без потери производительности. После этого запускается вторая, более эффективная фаза RL.
Эта стратегия позволила AutoGLM-OS, построенному на базе 9B GLM-4, достичь финального результата в 48.1%, в то время как после первой RL-фазы показатель был 42.0%.
@ai_machinelearning_big_data
#AI #ML #Agents #AutoGLM #Zai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍65❤20🔥7💅3💘2
Media is too big
VIEW IN TELEGRAM
Google начала масштабное развертывание диалогового поискового режима AI Mode для 180 стран. Ранее функция работала только в США, Великобритании и Индии. Пока доступен только английский язык, а страны Евросоюза в список не вошли из-за строгих правил в области данных и ИИ.
Вместе с географическим расширением Google представила первую агентную возможность в AI Mode. Теперь пользователи в США могут находить и бронировать столики в ресторанах через платформы OpenTable и Resy, прямо из поисковой выдачи. В будущем планируется добавить бронирование билетов и запись на услуги. Эта функция пока доступна только подписчикам платного тарифа Google AI Ultra.
9to5google.com
Компания анонсировала бета-версию платформы Game Worlds, на которой пользователи в реальном времени могут создавать и исследовать полностью сгенерированных персонажей, сюжеты и окружения.
Одновременно с этим Runway добавила в свой продукт Act-Two новую функцию «Voices». Она дает возможность подбирать и настраивать голоса для ИИ-персонажей.
Эти нововведения - часть стратегии компании по демократизации создания иммерсивного контента, делая его доступным для авторов без специальных навыков в программировании или анимации.
RunwayML в сети X
В сети появились фото тестовых образцов следующего поколения ИИ-архитектуры Jaguar Shores. Размер корпуса 92,5 мм на 92,5 мм, он включает 4 отдельных кристалла и 8 площадок памяти HBM, что явно указывает на платформу для высокопроизводительных вычислений.
Jaguar Shores станет первым стоечным решением Intel, планируется использование памяти HBM4 от SK Hynix и совместная работа с будущими процессорами Xeon Diamond Rapids.
wccftech.com
NVIDIA выпустила Streaming Sortformer - модель для диаризации речи, которая мгновенно определяет и маркирует участников разговора в реальном времени с низкой задержкой.
Модель оптимизирована для английского и китайского языков, способна отслеживать до 4 говорящих одновременно и предназначена для работы на GPU. По результатам тестов, Streaming Sortformer показывает более низкий уровень ошибок (DER) по сравнению с конкурирующими решениями.
Streaming Sortformer подойдет для применения в колл-центрах, при создании протоколов встреч и в интерактивных голосовых приложениях, где важно точно знать, кто, что и когда сказал. Модель доступна на Hugging Face.
developer.nvidia.com
AMD выпустила новейшую технологию масштабирования изображения FidelityFX Super Resolution 4 (FSR 4). Это часть обновления FidelityFX SDK 2.0, где AMD впервые внедряет алгоритм апскейлинга на основе машинного обучения для улучшения качества графики и производительности в играх.
По сравнению с предыдущей версией 3.1, FSR 4 показывает улучшения в детализации изображения и временной стабильности, а также снижает артефакты гостинга движущихся объектов. FSR 4 поддерживается только видеокартами AMD Radeon RX 9000 серии и выше на архитектуре RDNA 4 и требует DirectX 12. AMD также предоставила плагины FSR 4 для Unreal Engine версий 5.1–5.6.
gpuopen.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤43👍18🔥10❤🔥2🤔1👌1
Media is too big
VIEW IN TELEGRAM
🦾 Boston Dynamics показали впечатляющее видео своего робота.
Atlas получает изображение с камеры, данные о положении тела и текстовую команду. На основе этого модель генерирует плавные движения всего корпуса 30 раз в секунду.
Это не набор хрупких скриптов, а система, которая сама «думает», как выйти из ситуации.
Робот показывает, что может работать в реальном бардаке, где всё падает, двигается и мешает работе.
@ai_machinelearning_big_data
#ai #robots #BostonDynamics #atlas
Atlas получает изображение с камеры, данные о положении тела и текстовую команду. На основе этого модель генерирует плавные движения всего корпуса 30 раз в секунду.
Это не набор хрупких скриптов, а система, которая сама «думает», как выйти из ситуации.
Вместо того чтобы «прыгать» от точки к точке, система сразу строит короткую последовательность действий — примерно на полторы секунды вперёд.
Часть из них выполняется, а потом план обновляется, чтобы движения оставались точными и естественными.
Робот показывает, что может работать в реальном бардаке, где всё падает, двигается и мешает работе.
@ai_machinelearning_big_data
#ai #robots #BostonDynamics #atlas
🔥121❤40👍33😨7🦄3
Большие данные - это топливо для ИИ. Но как их использовать, чтобы не нарушить приватность, например датасета, где есть персональные данные?
Один из вариантов - метод дифференциально-приватного отбора. Он выбирает из огромного набора уникальные элементы так, чтобы нельзя было соотнести их с конкретным человеком. А если данных - больше миллиарда? Для этого нужен более надежный подход.
Таким алгоритмом стал Max Adaptive Degree (MAD), представленный Google на ICML 2025. Он не только эффективнее других параллельных методов, но и работает с наборами данных на десятки и сотни миллиардов записей.
Но тут появляется новая проблема - популярные элементы получают избыточный вес, который можно было бы использовать для менее частых, но ценных данных.
MAD решает ее с помощью адаптивного взвешивания, перераспределяя вес: забирает часть у популярных элементов и отдает тем, чьи значения уже находятся у порога. Это позволяет отобрать больше полезных данных без потери приватности.
Простой пример: представьте 100 пользователей, у каждого по 3 элемента. Один элемент (A) есть у всех, а остальные элементы уникальны. В базовом алгоритме элемент A получит слишком много веса (намного больше необходимого), а уникальные элементы - слишком мало. MAD "забирает" часть веса у A и распределяет его между уникальными элементами, давая им шанс пройти порог.
Метод можно использовать в несколько итераций, публикуя промежуточные результаты с шумом. Так можно еще точнее распределять вес между раундами.
В первом раунде запускается MAD как обычно, а во втором удаляются уже найденные элементы и те, которые явно не пройдут порог. Для остальных элементов применяется "смещение" веса на основе данных первого раунда.
На практике MAD показал отличные результаты. Всего за 2 этапа он отобрал больше полезных элементов, чем другие методы. Например, в Common Crawl (800 млрд. записей) он выбрал набор слов, который покрыл 99.9% всех записей и 97% уникальных слов с полным соблюдением приватности.
@ai_machinelearning_big_data
#AI #ML #Selection #MAD #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤58👍24🔥12🗿5