223K subscribers
3.87K photos
647 videos
17 files
4.49K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
加入频道
Media is too big
VIEW IN TELEGRAM
✔️ Grok 5 выйдет до конца этого года.

Спустя всего час после окончания презентации GPT-5, Илон Маск написал в Х, что следующая итерация модели искусственного интеллекта от xAI, Grok 5, будет выпущена до конца 2025 года, и пообещал, что она будет "разрушительно хороша".
Elon Musk в сети Х

✔️ OpenAI выплатит бонусы ключевым сотрудникам.

OpenAI предложила бонусы за удержание примерно тысяче своих исследователей и инженеров - это около трети всего штата. По данным The Information, суммы выплат варьируются от нескольких сотен тысяч до нескольких миллионов долларов на человека.

Эти денежные и акционерные поощрения призваны удержать ключевые таланты в компании. OpenAI сталкивается с агрессивным хантингом со стороны конкурентов, которые активно переманивают ведущих ИИ-специалистов.

Выплаты бонусов происходят на фоне слухов о возможной продаже акций, которая может оценить OpenAI в 500 миллиардов долларов - вдвое больше текущей оценки.
theinformation.com

✔️ NASA и Google Cloud тестируют ИИ-врача для астронавтов.

NASA совместно с Google Cloud разработали прототип ИИ-системы, которая поможет астронавтам диагностировать и лечить заболевания в условиях ограниченной связи с Землей. Система под названием «Цифровой ассистент бортового врача» объединяет обработку естественного языка с медицинской литературой по космическим полетам, чтобы генерировать рекомендации по лечению и отслеживать здоровье экипажа.

Первые испытания, проведенные по стандартной методике оценки клинической компетентности, показали, что инструмент выдает надежные диагностические предположения. Сейчас модель дорабатывают с практикующими врачами перед ее интеграцией в будущие космические программы.
cloud.google.com

✔️ Baidu до конца месяца выпустит новую ризонинг-модель.

Китайский техгигант планирует представить новую модель, ориентированную на сложные логические рассуждения, уже до конца этого месяца. Кроме того, в ближайшие месяцы компания выпустит обновленную версию своей базовой модели - Ernie 5.0. Первая рмзонинг-модель Baidu представила в марте.

Baidu стала одной из первых крупных китайских компаний, запустивших собственный чат-бот Ernie Bot, аналог ChatGPT. Несмотря на ранний старт, в июле Ernie Bot занимал 10-е место по числу активных месячных пользователей среди ИИ-приложений в Китае.
wsj.com

✔️ Microsoft добавила в Bing Image Creator бесплатный доступ к GPT-4o.

Microsoft объявила, что в ее сервисе Bing Image Creator теперь доступна модель GPT-4o. Она отличается более точным рендерингом текста и лучшим следованием промптам. Кроме того, GPT-4o позволяет редактировать загруженные изображения или использовать их в качестве референса для создания новых.

По просьбам пользователей, Microsoft сохранила и предыдущую модель - DALL-E 3. Теперь при создании изображения можно выбрать, какую из двух моделей использовать.

Как и раньше, сервис предоставляет 15 «быстрых» генераций. После исчерпания лимита за ускорение придется платить баллами Microsoft Rewards, однако медленная генерация остается неограниченной и бесплатной. Доступ к обновленному инструменту открыт через веб-сайт и мобильные приложения Bing.
blogs.bing.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👏3024👍6😁6🥰31🔥1
Современное ИТ-образование с фокусом на реальные потребности рынка и индивидуальным подходом к студенту — то, что поможет тебе окрепнуть как специалисту и усилить карьеру.

В магистратуре Центрального университета ты получишь опыт работы в ИТ-компаниях уровня Т-Банка, Яндекса, Авито уже во время учебы. Средняя зарплата студентов — 195 000 ₽.

Что тебя ждет:
• Грант до 75% на все время обучения.
• Закрепление теории на задачах от бизнеса.
• Стажировки в крупных компаниях и трудоустройство.
• Индивидуальный наставник, чтобы достигать целей.
• Занятия по вечерам и выходным.
• Диплом о высшем образовании государственного образца.

Подавай заявку до 24 августа: ссылка
🤣28👍133🤬3🥰2
🚀Прорыв от Google: активное обучение с экономией данных на 10 000× при дообучении LLM

Google разработала масштабируемый процесс *active learning*, который позволяет в десятки тысяч раз сократить объём размеченных данных, необходимых для тонкой настройки больших языковых моделей на сложных задачах — например, при модерации рекламного контента.

🟢 Как работает метод:
1. Стартовая модель (LLM-0) получает промпт и автоматически размечает огромный массив данных.
2. Кластеризация выявляет примеры, где модель путается (наиболее спорные и ценные для обучения).
3. Отбор данных: из этих кластеров выбирают информативные и разнообразные примеры.
4. Экспертная разметка — только для выбранных примеров.
5. Итерации: дообучение модели → новый отбор спорных примеров → разметка → снова обучение.

🟢Результаты:
- Сокращение с 100 000 размеченных примеров до менее 500 при сохранении или улучшении качества.
- Улучшение метрики *Cohen’s Kappa* на 55–65 %.
- В больших продакшн-моделях — до 3–4 порядков меньше данных при сопоставимом или лучшем качестве.

🟢 Что такое Cohen’s Kappa?
Это метрика, которая показывает, насколько два "судьи" (например, эксперт и модель) согласны между собой с поправкой на случайные совпадения.
- 0.0 — нет согласия (или хуже случайного)
- 0.41–0.60 — умеренное согласие
- 0.61–0.80 — значительное
- 0.81–1.00 — почти полное согласие
В задачах с дисбалансом классов Kappa даёт более честную оценку, чем обычная точность (accuracy).

Чем лучше предыдущих методов:
- Точечная разметка: размечаются только самые информативные примеры.
- Масштабируемость: метод применим к наборам данных с сотнями миллиардов примеров.
- Экономия ресурсов: меньше времени и затрат на разметку.
- Быстрая адаптация: подходит для доменов с быстро меняющимися правилами (реклама, модерация, безопасность).

🟢Вывод:
При умном отборе данных LLM можно адаптировать в тысячи раз быстрее и дешевле, чем при традиционном обучении на больших размеченных наборах.

#GoogleResearch #ActiveLearning #AI #LLM #MachineLearning #DataEfficiency

🟠Почитать подробно

@ai_machinelearning_big_data


#GoogleResearch #ActiveLearning #AI #LLM #MachineLearning #DataEfficiency
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍103🔥2218🥰32
⚡️ GGUF-версии GPT-OSS от Unsloth.

Unsloth конвертировали обе GPT-OSS (20B и 120B) и исправили ошибки, чтобы повысить качество инференса.

🟡Оптимальный сетап:

🟢20B работает со скоростью более 10 токенов/с при полной точности на 14 ГБ оперативной памяти.

🟢120B с полной точностью будет давать >40 токенов/с на примерно 64 ГБ ОЗУ.

Минимальных требований для запуска моделей нет, запуститься можно даже если у вас всего 6 ГБ и только CPU, но инференс будет медленнее.

GPU не требуется , особенно для модели 20B, но его наличие значительно увеличивает скорость вывода (~80 токенов/с). С чем-то вроде H100 можно получить пропускную способность 140 токенов/с, и это значительно быстрее, чем у OpenAI в ChatGPT.

Модели можно запустить через llama.cpp, LM Studio или Open WebUI. Если модель 120B слишком медленная, попробуйте версию 20B - она очень быстрая и работает не хуже o3-mini.

Помимо моделей формата GGUF c полной точностью, Unsloth сделали версии с 4-bit и 16-bit точностью. 4-бинтый квант, кстати, можно файнтюнить на 24 ГБ VRAM.

📌 Подробная пошаговая инструкция по локальному запуску и файнтюну - в документации Unsloth.


🟡Набор моделей
🟡Документация


@ai_machinelearning_big_data

#AI #ML #GPTOSS #GGUF #Unsloth
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍9840🔥17😁3❤‍🔥1
Media is too big
VIEW IN TELEGRAM
✔️ Microsoft запустила Copilot 3D.

Microsoft открыла доступ к экспериментальному веб-инструменту Copilot 3D, который позволяет конвертировать статичные изображения в трехмерные модели. Сервис доступен бесплатно через портал Copilot Labs.

Инструмент поддерживает на входе PNG и JPG размером до 10 МБ. Созданные модели сохраняются на странице пользователя в течение 28 дней и могут быть скачаны в формате GLB. Copilot 3D является новой попыткой Microsoft популяризировать 3D-творчество после закрытия проектов Paint 3D и Remix3D.
copilot.microsoft.com

✔️ Tesla сворачивает проект суперкомпьютера Dojo.

Команда, занимавшаяся разработкой суперкомпьютера Dojo расформирована, а ее руководитель Питер Бэннон покидает компанию.

Этот шаг завершает многолетнюю попытку Tesla создать кастомные чипы и процессоры "размером с кремниевую пластину" для обучения моделей автономного вождения и робототехники. Вместо этого компания перейдет на решения Nvidia и AMD, а производством чипов нового поколения займется Samsung.

Около 20 инженеров из команды Dojo уже основали собственный стартап DensityAI, а остальные сотрудники будут переведены на другие проекты внутри Tesla.
bloomberg.com

✔️ Apple интегрирует GPT-5 в Apple Intelligence с сентябрьским обновлением ОС.

Apple подтвердила, что осенние обновления: iOS, iPadOS и macOS получат поддержку GPT-5. Она заменит текущую GPT-4o в тех случаях, когда собственным моделям Apple потребуется помощь в обработке сложных запросов. Это коснется ответов Siri, инструментов для письма и визуального поиска.

Использование GPT-5 останется опциональным: пользователи должны будут явно дать согласие на передачу запросов в ChatGPT. Apple продолжит скрывать IP-адреса и запрещать OpenAI хранить данные, однако оставит возможность привязать платную подписку OpenAI для доступа к дополнительным функциям.

Кроме того, обновления ОС принесут функцию Live Translation для перевода разговоров в реальном времени и расширят возможности сквозного поиска по контенту.
9to5mac.com

✔️ Компания Марка Цукерберга купила стартап WaveForms AI.

Техногигант приобрел WaveForms AI - молодой стартап, чье программное обеспечение способно идентифицировать и воспроизводить эмоциональные оттенки в человеческой речи. Команда WaveForms присоединится к подразделению Superintelligence Labs.

Стартап был основан в декабре 2024 года, но уже успел привлечь 40 миллионов долларов инвестиций при оценке в 160 миллионов. Компания работала над "Тестом Тьюринга для речи" и так называемым "эмоциональным AGI", чтобы сделать голоса, сгенерированные ИИ, неотличимыми от человеческих.

Для Цукерберга это уже вторая сделка в области ИИ-аудио за последние месяцы после июльского поглощения PlayAI. Финансовые условия покупки не разглашаются.
theinformation.com

✔️ Google тестирует Google Finance с генеративным ИИ.

Google приступил к тестированию редизайна сервиса Google Finance, в центре которого теперь находится ИИ. В ближайшие недели пользователи из США получат доступ к новой версии со встроенным чат-ботом. Он сможет отвечать на сложные вопросы о рынках, предоставляя обобщенные ответы со ссылками на внешние источники.

Помимо ИИ-помощника, обновление включает расширенные инструменты для построения графиков и добавляет рыночные данные в реальном времени для сырьевых товаров и криптовалют.

Появится и постоянно обновляемая новостная лента, которая позволит отслеживать важные заголовки, не покидая платформу. Во время тестового периода пользователи смогут переключаться между новым и классическим интерфейсами.
blog.google

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
48👍26🔥7🤨3🤔2🤓2
🖼️ GPT-Image-Edit-1.5M — крупнейший и полностью открытый датасет для редактирования изображений по тексту!

🚀 1.5 миллиона триплетов:
инструкция + оригинальное изображение + отредактированное по запросу

Как мы это сделали?
Мы переосмыслили и усилили три известных датасета (OmniEdit, HQ-Edit, UltraEdit) с помощью новой GPT-Image API.

📊 Результаты впечатляют:
Модель FluxKontext, дообученная на этом наборе, показывает:
▫️ 7.24 на GEdit-EN
▫️ 3.80 на ImgEdit-Full
▫️ 8.78 на Complex-Edit
— на уровне с топовыми проприетарными решениями!

🎯 Инструкции выполняются точно, а изображения выглядят реалистично.
Цель — сократить разрыв между open-source и закрытыми системами редактирования.

🔗 Подробнее:
🌐 Проект: https://ucsc-vlaa.github.io/GPT-Image-Edit/
💻 Код: https://github.com/wyhlovecpp/GPT-Image-Edit
📦 Датасет: https://huggingface.co/datasets/UCSC-VLAA/GPT-Image-Edit-1.5M
🤖 Модель: https://huggingface.co/UCSC-VLAA/gpt-image-edit-training
📄 Статья: https://arxiv.org/abs/2507.21033

@ai_machinelearning_big_data


#AI #ImageEditing #OpenSource #GPT4V #Multimodal
194👍40🔥17👏2
✔️ Grok 4 доступен бесплатно!

Бесплатным пользователям доступно:
🟢Grok 3 - 15 запроса каждые 2 часа
🟢Grok 4 - 5 запросов каждые 12 часов

Бесплатный доступ, вероятно, является ответом на запуск ChatGPT5, хотя последний в настоящее время имеет более высокие лимиты для бесплатных пользователей.

📌 http://x.com/i/grok

@ai_machinelearning_big_data

#grok #ai #llm #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍12647🔥15🥱7😁6🤩2
📌Новый прорыв в алгоритмах: найден способ считать кратчайшие пути быстрее Дейкстры

Метод преодоления "барьера сортировки" для задач кратчайшего пути в ориентированных графах.

Группа исследователей из университетов Синьхуа, Стенфорда и Института Макса Планика представили детерминированный алгоритм для решения задачи SSSP в ориентированных графах с неотрицательными вещественными весами, который работает за время, пропорциональное числу ребер, умноженному на логарифмический множитель, который растет медленнее, чем обычный логарифм.

Проблема поиска кратчайшего пути от одной вершины до всех остальных (SSSP) — одна из фундаментальных в теории графов, и её история тянется с 50-х годов прошлого века. Классический алгоритм Дейкстры, в связке с продвинутыми структурами данных, решает эту задачу за время, которое примерно пропорционально сумме числа рёбер и произведения числа вершин на логарифм от их же числа.

Именно этот множитель - число вершин, умноженное на логарифм, долгое время считался теоретическим минимумом, так как в своей основе алгоритм Дейкстры побочно сортирует вершины по расстоянию от источника. Этот предел известен как «барьер сортировки» и казался непреодолимым.


🟡Основная идея работы - гибрид из алгоритма Дейкстры и алгоритма Беллмана-Форда.

Алгоритм Дейкстры на каждом шаге выбирает из "границы" - множества еще не обработанных вершин ту, что находится ближе всего к источнику. Это и создает узкое место, так как размер границы может достигать величины, сопоставимой с общим числом вершин в графе, и на каждом шаге требуется находить минимум.

Алгоритм Беллмана-Форда, в свою очередь, не требует сортировки, но его сложность пропорциональна числу ребер, умноженному на количество шагов, что слишком долго.

🟡Новый подход использует рекурсию.

Вместо того чтобы поддерживать полную отсортированную границу, алгоритм фокусируется на ее сокращении. А если граница слишком велика, то запускается несколько шагов алгоритма Беллмана-Форда из ее вершин.

Это позволяет найти точное расстояние до некоторой части вершин, чьи кратчайшие пути коротки. Длинные же пути должны проходить через одну из "опорных" вершин, которых оказывается значительно меньше, чем вершин в исходной границе. Таким образом, сложная работа концентрируется только на этом небольшом наборе опорных точек.

🟡Принцип "разделяй и властвуй".

Он рекурсивно разбивает задачу на несколько уровней. На каждом уровне применяется вышеописанная техника сокращения границы, что позволяет значительно уменьшить объем работы на каждую вершину, поскольку логарифмический множитель эффективно делится на другой, более медленно растущий логарифмический член.

В итоге, путем подбора внутренних параметров алгоритма, которые являются специфическими функциями от логарифма числа вершин, и достигается итоговая временная сложность, пропорциональная числу ребер, умноженному на этот новый, более медленно растущий логарифмический множитель.

✔️ Зачем это нужно
— Быстрее решаются задачи в навигации, графах дорог, сетях и планировании.
— Доказано, что Дейкстра — не предел, и можно ещё ускорять поиск кратчайших путей.


🟡Arxiv


@ai_machinelearning_big_data

#AI #ML #Sorting #Graphs #Algorithm
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥159👍7627🫡6👏2❤‍🔥1
🚀 GLM-4.5V — новый лидер среди open-source моделей в визуальном рассуждении.

Модель показывает лучшие результаты в своём классе среди открытых решений, лидируя на 41 бенчмарке.

📌 Возможности:
- Image Reasoning — понимание изображений, анализ нескольких изображений, распознавание объектов.
- Video Understanding — раскадровка длинных видео, определение событий, которые происходят на кадрах из видео.
- GUI-задачи — понимание интрефейсов, распознавание иконок, кнопок и тд, помощь в управлении рабочим столом.
- Сложный анализ графиков и документов — разбор различных отчётов, извлечение информации их них.
- Grounding — точная локализация элементов на изображениях.

📌 Особенности:
🟠 Основана на GLM-4.5-Air и использует наработки из GLM-4.1V-Thinking.

🟠 Архитектура — MoE с 106B параметров для эффективного масштабирования.

Здесь можно почитать про GLM-4.5, а здесь посмотреть техрепорт, там много интересного.

🟢 Hugging Face: http://huggingface.co/zai-org/GLM-4.5V
🟢 GitHub: http://github.com/zai-org/GLM-V
🟢 Документация API: http://docs.z.ai/guides/vlm/glm-4.5v
🟢 Попробовать: http://chat.z.ai

@ai_machinelearning_big_data

#GLM #opensource #vlm
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥79👍2019🥰4😁1🤝1
Media is too big
VIEW IN TELEGRAM
✔️ Команда FAIR заняла первое место в соревновании Algonauts 2025.

Algonauts - соревнование по созданию моделей, наиболее точно предсказывающих активность человеческого мозга в ответ на мультимодальные стимулы (видео со звуком и текстом).

Победившая модель, TRIBE (Trimodal Brain Encoder) с 1 млрд. параметров, стала первой глубокой нейросетью, обученной предсказывать реакцию мозга сразу на несколько типов данных в разных кортикальных областях и у разных людей.

TRIBE объединяет предобученные представления из нескольких фундаментальных моделей: Llama 3.2 (текст), Wav2Vec2-BERT (аудио) и V-JEPA 2 (видео). Модель успешно предсказала сигналы фМРТ, полученные в ходе 80-часового эксперимента, где испытуемые смотрели фильмы.

Код, наборы данных и техотчет TRIBE опубликованы в открытом доступе.
Компания Марка Цукерберга в сети Х

✔️ ИИ от OpenAI взял "золото" среди моделей на Международной олимпиаде по информатике .

ИИ-система от OpenAI, ориентированная на логические рассуждения, показала результат, соответствующий золотой медали на Международной олимпиаде по информатике (IOI) 2025 года. Она заняла 6 место в общем зачете среди 330 участников-людей и опередила все другие ИИ-системы.

Этот результат значительно выше по сравнению с прошлым годом, предыдущая версия не дотянула даже до бронзы. В OpenAI говорят, что модель достигла такого успеха без специальной донастройки на олимпиадных задачах.
Open AI в сети Х

✔️ CEO GitHub покидает Microsoft.

Гендиректор GitHub Томас Домке объявил о своем уходе из компании. Он планирует основать собственный стартап, а до конца 2025 года будет заниматься передачей дел. Это решение завершает его почти четырехлетнее руководство, отмеченное внедрением искусственного интеллекта.

Преемника на пост CEO назначать не будут. Вместо этого Microsoft интегрирует GitHub в свое новое инженерное подразделение - CoreAI. Эта реорганизация лишает GitHub полуавтономного статуса внутри корпорации.

За время работы Домке аудитория GitHub выросла до 150 миллионов разработчиков, а число репозиториев превысило миллиард. Ключевым достижением стал запуск ИИ-ассистента Copilot, который привлек 20 миллионов пользователей и помог увеличить годовой доход платформы до 2 миллиардов долларов.
axios.com

✔️ Pika Labs представила быструю и дешевую модель для липсинка.

Стартап анонсировал новую модель, которая генерирует HD-видео с точной синхронизацией губ под аудиодорожку всего за 6 секунд, независимо от длины клипа. По заявлению компании, система создает "гиперреалистичную мимику" и работает в 20 раз быстрее и в 20 раз дешевле, чем их модель предыдущего поколения.

Ранние тесты уже подтвердили способность модели работать в реальном времени со сложными аудиодорожками.
Pika Labs в сети X

✔️ Уровень безработицы среди молодых IT-специалистов в США достиг 6%.

Исследование Федерального резервного банка Нью-Йорка показало тревожную тенденцию: уровень безработицы среди американских выпускников IT-специальностей в возрасте от 22 до 27 лет вырос до 6.1%. Это вдвое выше, чем у выпускников-биологов или искусствоведов. Для программистов ситуация еще хуже — 7.5% безработных.

Причинами стали массовые увольнения в технологических гигантах, а также широкое распространение ИИ-ассистентов для кодинга, которые автоматизируют задачи, ранее выполнявшиеся новичками. По данным портала Indeed, количество вакансий для junior-разработчиков на 21% ниже, чем до пандемии Covid-19, в то время как спрос на старших специалистов растет.

Ситуацию усугубляет и перенасыщение рынка: в прошлом году в США было выпущено 170 тысяч IT-специалистов, что вдвое больше, чем в 2014 году. Некоторые выпускники сообщают, что отправляют сотни и даже тысячи резюме, не получая ответа.
nytimes.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
37👍20🔥9🤔3😨3🎉2
Data Scientist — одна из самых перспективных профессий 2025 года, по данным Мирового экономического форума 📊

Освоить эту профессию можно на курсе Нетологии — с погружением в практику, сопровождением ментора, поддержкой профессионального комьюнити и экспертов из Яндекса, Сбера, VK и Amazon.

В результате обучения вы:
- изучите Apache Spark, pandas, PostgreSQL и другие инструменты для обработки больших данных;
- научитесь применять технологии машинного обучения для решения бизнес-задач;
- отработаете навыки на реальных проектах компаний-партнёров: «Северстали», «Гринатома», Neoflex.

Чтобы ещё больше расширить скиллсет, сможете пройти бонусные модули по английскому языку, рекомендательным системам, нейросетям и deep learning.

Сейчас на курс действует скидка 40% — записывайтесь

Реклама. ООО "Нетология". ИНН 7726464125 Erid 2VSb5w9Jm9T
😁1911🥱9🔥5👍4
⚡️ Nvidia на SIGGRAPH 2025: самое главное.

На конференции SIGGRAPH 2025 Nvidia представила свою центральную концепцию — "Физический ИИ".

Это конвергенция ИИ и компьютерной графики для создания систем, способных действовать в реальном мире, будь то роботы, автономные автомобили или умная инфраструктура.

🟡Новое железо на архитектуре Blackwell.

Для дата-центров представили GPU Nvidia RTX PRO 6000 Blackwell Server Edition для стандартных корпоративных серверов форм-фактора 2U. Системы на его базе смогут достигать до 45 раз более высокой производительности и в 18 раз лучшей энергоэффективности по сравнению с чисто процессорными решениями.

Тензорные ядра пятого поколения с поддержкой формата FP4 бустят инференс в 6 раз по сравнению с предыдущим поколением L40S.

Для рабочих станций анонсировали две компактные видеокарты: Nvidia RTX PRO 4000 SFF Edition и RTX PRO 2000 Blackwell.

Первая обеспечивает до 2.5 раз более высокую производительность в ИИ-задачах при том же энергопотреблении в 70 Вт, а вторая в 1.4 раза быстрее в CAD-приложениях.

🟡Физический ИИ для робототехники.

Для Omniverse анонсировали новую библиотеку NuRec, которая реконструирует реальные окружения из данных сенсоров с помощью 3D Gaussian splatting.

Приложения для симуляции Isaac Sim 5.0 и Isaac Lab 2.2 теперь доступны в виде опенсорс-проектов на GitHub.

В качестве примера показали кейс Amazon, где CAD-модели новых продуктов загружаются в Isaac Sim для генерации более 50 000 синтетических изображений. На этих данных обучаются ИИ-модели, которые затем управляют роботизированными манипуляторами для контроля качества продукции — и все это без каких-либо физических модификаций оборудования.


🟡Новые семейства ИИ-моделей.

Для корпоративных задач линейку Nemotron расширили моделями Nemotron Nano 2 и Llama Nemotron Super 1.5. Они предназначены для выполнения сложных многоэтапных задач в кибербезопасности или клиентском сервисе.

Специально для "Физического ИИ" была разработана 7-миллиардная VLM Cosmos Reason. Ее задача - позволить роботам и агентам интерпретировать физический мир, используя априорные знания, понимание физики и "здравый смысл". Эту модель уже использует Uber для для анализа поведения автономных автомобилей.

🟡Платформа для умных городов и производств Metropolis.

Платформа дополнена интеграцией с VLM Cosmos Reason, новыми vision-моделями в TAO Toolkit и расширениями для Isaac Sim, позволяющие генерировать редкие сценарии обучения.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥42👍1913
MWS Cloud презентовала платформу для инференса AI-моделей, которая позволяет более чем на 15% оптимизировать затраты на GPU.

Платформа может выводить в продакшн любые обученные ML-модели, большие языковые модели и модели компьютерного зрения. Поверх стандартного Kubernetes, платформа имеет простой и мощный API, который упрощает работу инженеров. Также в ней доработана оркестрация, что позволяет оптимизировать затраты на GPU.

Платформа позволяет:

- В десятки раз быстрее интегрировать LLM и CV-модели с ИТ-системами компаний;

- Снизить операционную нагрузку на ML-команды при эксплуатации моделей на 70%;

- Повысить автоматизацию CI/CD более чем на треть;

- Уменьшить затраты на GPU более чем на 15%;

Inference Valve интегрируется с ML-платформой и инструментами непрерывной разработки (CI/CD), а получить к ней доступ можно как из частного облака на инфраструктуре MWS Cloud, так и on-prem на серверах заказчика, а также в составе программно-аппаратных комплексов (ПАК) в закрытом контуре, включая режимы с ограниченным доступом к внешним сетям.

Inference Valve также предоставляет метрики задержек и пропускной способности, мониторинг доступности, алёрты и дашборды; доступна телеметрия качества, включая отслеживание дрейфа данных и моделей, контроль целевых метрик и уведомления при деградации. Интеграция с системами наблюдаемости (Prometheus/Grafana) и журналированием запросов упрощает аудит и разбор инцидентов.

Попробовать Inference Valve можно по ссылке.

@ai_machinelearning_big_data
👍136🔥4🤣2