Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Google начала масштабное развертывание диалогового поискового режима AI Mode для 180 стран. Ранее функция работала только в США, Великобритании и Индии. Пока доступен только английский язык, а страны Евросоюза в список не вошли из-за строгих правил в области данных и ИИ.
Вместе с географическим расширением Google представила первую агентную возможность в AI Mode. Теперь пользователи в США могут находить и бронировать столики в ресторанах через платформы OpenTable и Resy, прямо из поисковой выдачи. В будущем планируется добавить бронирование билетов и запись на услуги. Эта функция пока доступна только подписчикам платного тарифа Google AI Ultra.
9to5google.com
Компания анонсировала бета-версию платформы Game Worlds, на которой пользователи в реальном времени могут создавать и исследовать полностью сгенерированных персонажей, сюжеты и окружения.
Одновременно с этим Runway добавила в свой продукт Act-Two новую функцию «Voices». Она дает возможность подбирать и настраивать голоса для ИИ-персонажей.
Эти нововведения - часть стратегии компании по демократизации создания иммерсивного контента, делая его доступным для авторов без специальных навыков в программировании или анимации.
RunwayML в сети X
В сети появились фото тестовых образцов следующего поколения ИИ-архитектуры Jaguar Shores. Размер корпуса 92,5 мм на 92,5 мм, он включает 4 отдельных кристалла и 8 площадок памяти HBM, что явно указывает на платформу для высокопроизводительных вычислений.
Jaguar Shores станет первым стоечным решением Intel, планируется использование памяти HBM4 от SK Hynix и совместная работа с будущими процессорами Xeon Diamond Rapids.
wccftech.com
NVIDIA выпустила Streaming Sortformer - модель для диаризации речи, которая мгновенно определяет и маркирует участников разговора в реальном времени с низкой задержкой.
Модель оптимизирована для английского и китайского языков, способна отслеживать до 4 говорящих одновременно и предназначена для работы на GPU. По результатам тестов, Streaming Sortformer показывает более низкий уровень ошибок (DER) по сравнению с конкурирующими решениями.
Streaming Sortformer подойдет для применения в колл-центрах, при создании протоколов встреч и в интерактивных голосовых приложениях, где важно точно знать, кто, что и когда сказал. Модель доступна на Hugging Face.
developer.nvidia.com
AMD выпустила новейшую технологию масштабирования изображения FidelityFX Super Resolution 4 (FSR 4). Это часть обновления FidelityFX SDK 2.0, где AMD впервые внедряет алгоритм апскейлинга на основе машинного обучения для улучшения качества графики и производительности в играх.
По сравнению с предыдущей версией 3.1, FSR 4 показывает улучшения в детализации изображения и временной стабильности, а также снижает артефакты гостинга движущихся объектов. FSR 4 поддерживается только видеокартами AMD Radeon RX 9000 серии и выше на архитектуре RDNA 4 и требует DirectX 12. AMD также предоставила плагины FSR 4 для Unreal Engine версий 5.1–5.6.
gpuopen.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
Большие данные - это топливо для ИИ. Но как их использовать, чтобы не нарушить приватность, например датасета, где есть персональные данные?
Один из вариантов - метод дифференциально-приватного отбора. Он выбирает из огромного набора уникальные элементы так, чтобы нельзя было соотнести их с конкретным человеком. А если данных - больше миллиарда? Для этого нужен более надежный подход.
Таким алгоритмом стал Max Adaptive Degree (MAD), представленный Google на ICML 2025. Он не только эффективнее других параллельных методов, но и работает с наборами данных на десятки и сотни миллиардов записей.
Но тут появляется новая проблема - популярные элементы получают избыточный вес, который можно было бы использовать для менее частых, но ценных данных.
MAD решает ее с помощью адаптивного взвешивания, перераспределяя вес: забирает часть у популярных элементов и отдает тем, чьи значения уже находятся у порога. Это позволяет отобрать больше полезных данных без потери приватности.
Простой пример: представьте 100 пользователей, у каждого по 3 элемента. Один элемент (A) есть у всех, а остальные элементы уникальны. В базовом алгоритме элемент A получит слишком много веса (намного больше необходимого), а уникальные элементы - слишком мало. MAD "забирает" часть веса у A и распределяет его между уникальными элементами, давая им шанс пройти порог.
Метод можно использовать в несколько итераций, публикуя промежуточные результаты с шумом. Так можно еще точнее распределять вес между раундами.
В первом раунде запускается MAD как обычно, а во втором удаляются уже найденные элементы и те, которые явно не пройдут порог. Для остальных элементов применяется "смещение" веса на основе данных первого раунда.
На практике MAD показал отличные результаты. Всего за 2 этапа он отобрал больше полезных элементов, чем другие методы. Например, в Common Crawl (800 млрд. записей) он выбрал набор слов, который покрыл 99.9% всех записей и 97% уникальных слов с полным соблюдением приватности.
@ai_machinelearning_big_data
#AI #ML #Selection #MAD #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
Проект OpenBMB выпустил MiniCPM-V 4.5, мультимодальную модель на основе Qwen3-8B и SigLIP2-400M для распознавания изображений, серий изображений и видео, которая может работать на мобильных устройствах на более чем 30 языках.
OpenBMB - некоммерческое подразделение китайской технологической компании ModelBest, под патронажем Университета Цинхуа.
Среди инвесторов материнской ModelBest - Habo (Huawei), Primavera Capital Group и государственный Shenzhen Guozhong Venture Capital Management.
Благодаря унифицированному 3D-Resampler модель сжимает видео в 96 раз: шесть кадров разрешением 448x448 преобразуются всего в 64 токена, тогда как большинству MLLM для этого потребовалось бы 1536 токенов.
Это позволяет обрабатывать видео с частотой кадров до 10 FPS и длинные ролики без роста вычислительных затрат, что подтверждается топовыми результатами на наборах Video-MME, LVBench и MLVU.
Архитектура LLaVA-UHD позволяет модели работать с изображениями до 1,8 мегапикселей и любым соотношением сторон, используя в 4 раза меньше визуальных токенов.
Модель предлагает гибкий режим работы: быстрый ризонинг для повседневных задач и глубокий для сложных сценариев, переключаемый по требованию.
При общем объеме в 8 млрд. параметров, MiniCPM-V 4.5 набирает 77.0 баллов по комплексному бенчу OpenCompass. Этот результат не просто улучшает предыдущие версии, модель превосходит GPT-4o-latest и Gemini-2.0 Pro, обходит открытую Qwen2.5-VL с 72 миллиардами параметров и устанавливает новый стандарт для общего MLLM на OmniDocBench.
Доступны варианты для CPU через llama.cpp и ollama, есть квантованные версии в форматах int4, GGUF и AWQ, поддержка бэкендов SGLang и vLLM, возможность дообучения через Transformers и LLaMA-Factory, а также WebUI и оптимизированное iOS-приложение.
@ai_machinelearning_big_data
#AI #ML #MMLM #MiniCPM #OpenBMB
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM