299K subscribers
3.99K photos
701 videos
17 files
4.57K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
加入频道
🌟 Параллельные стратегии с Jax: обучающий туториал.

Обучение LLM требует огромных вычислительных ресурсов. Поскольку размеры моделей исчисляются миллиардами параметров, специализированные методы распараллеливания необходимы для того, чтобы сделать обучение выполнимым.

В статье "Исследование параллельных стратегий с Jax" подробно рассматривается реализация некоторых стратегий масштабирования в Jax - фреймворке Python, предназначенном для высокопроизводительных численных вычислений с поддержкой ускорителей GPU и TPU.

Стратегии, описанные в туториале с примерами кода и иллюстрациями:

🟢Data Parallelism - распределение данных между несколькими устройствами, которые одновременно обучают модель;  

🟢Tensor Parallelism - распределение весов модели между устройствами, позволяет каждому устройству обрабатывать свою часть тензора параллельно; 

🟢Pipeline Parallelism разделяет модель на этапы, которые выполняются последовательно на разных устройствах; 

🟢Mixture-of-Experts использует множество специализированных экспертов для обработки различных частей входных данных, что позволяет масштабировать модель до огромных размеров.


▶️ Автор статьи - Александр Самарин, Lead ML Engineer в Huawei c 5-ти летнем опытом в глубоком обучении.


@ai_machinelearning_big_data

#AI #ML #LLM #JAX #Tutorial
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍136🔥3🎉2🤝1
🌟 D-FINE: метод регрессии bounding box в детекторах объектов на основе DETR.

D-FINE - детектор объектов в режиме реального времени, который предлагает улучшение регрессии bounding box в моделях DETR . D-FINE обладает высокой точностью локализации, определяя регрессию рамок как процесс итеративного уточнения распределений вероятностей.

D-FINE состоит из двух компонентов:

🟠Мелкозернистое уточнение распределения (Fine-grained Distribution Refinement, FDR).

FDR преобразует процесс регрессии из предсказания фиксированных координат в итеративное уточнение распределений вероятностей. Эта техника дает более детальное промежуточное представление, что повышает точность локализации.

🟠Глобальная оптимальная локализованная самодистилляция (Global Optimal Localization Self-Distillation, GO-LSD).

GO-LSD - двунаправленная стратегия оптимизации, которая передает знания о локализации из уточненных распределений в более ранние слои модели через самодистилляцию.

Старшие версии D-FINE-L и D-FINE-X достигают 54,0% и 55,8% AP на наборе данных COCO соответственно, работая со скоростью 124 и 78 FPS на GPU NVIDIA T4.

При предварительном обучении на Objects365 D-FINE-L и D-FINE-X показывают 57,1% и 59,3% AP, что выше всех существующих детекторов реального времени.

Разработчики D-FINE предлагают несколько предобученных моделей на датасетах Objects365 и COCO под разные задачи и мощности. Все модели поддерживают инференс на изображениях и видео с использованием ONNX Runtime, TensorRT и PyTorch:

🟢D-FINE-S: Самая компактная и быстрая модель (3.49 мс на T4 GPU);

🟢D-FINE-M: Модель среднего размера, баланс между точностью и скоростью (5.62 мс на T4 GPU);

🟢D-FINE-L: Модель высокой точности (8.07 мс на T4 GPU);

🟢D-FINE-X: Самая крупная и точная модель (12.89 мс на T4 GPU).

D-FINE предоставляет инструменты для обучения, бенчмаркинга, визуализации с помощью FiftyOne и инструкции по организации наборов данных.

▶️Локальный инференс на примере ONNX:

# Create env via conda
conda create -n dfine python=3.11.9
conda activate dfine

# Install requirements for inference
pip install -r tools/inference/requirements.txt

# Install ONNX
pip install onnx onnxsim

# Choose a model
export model=l # s, m, x

# Inference
python tools/inference/onnx_inf.py --onnx model.onnx --input image.jpg # video.mp4


📌Лицензирование: Apache 2.0 License.


🟡Arxiv
🖥Github


@ai_machinelearning_big_data

#AI #ML #DETR #DFine #Detection
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍309🔥6😁2
MWS Cloud включается в игру: запускает Data Lakehouse

Пока все обсуждают, как внедрять LLM, в MWS Cloud сделали ход: вышли с собственной платформой для хранения и обработки больших данных — MWS Data Lakehouse. Это уже не просто база или витрина, это полноценный фундамент для обучения, инференса и аналитики.

Ключевая особенность — универсальность.
Платформа работает с любыми типами данных: структурированными, неструктурированными, векторными. Поддержка Apache Parquet, Iceberg, Greenplum, Postgres, запуск в Kubernetes, объектное S3-хранилище. Всё, что нужно, чтобы компания могла: обучать ML/LLM модели, строить BI-отчёты, прогнозировать, сегментировать, оптимизировать. И всё это без копирования данных между системами.

Главное — цифры.
Платформа ускоряет обработку данных в 23 раза. Хранилище используется на 40% экономичнее. В 2,5 раза выше эффективность ИТ-персонала. Витрины данных считаются в 2 раза быстрее.

То есть платформа не просто "поддерживает ИИ" — она позволяет его внедрять в реальных бизнес-процессах, а не в пилотах и презентациях.

Безопасность и масштабируемость.
Встроенные инструменты шифрования, маскирования, аудита, контроль доступа. Централизованное управление, масштабирование без простоев. Можно запускать кластеры под разные команды и сценарии параллельно — без дублирования данных.

Контекст: рынок меняется.
Компании всё активнее вкладываются в инструменты, которые позволяют работать с ИИ на проде, а не просто тестировать гипотезы. Lakehouse — архитектура, к которой уже перешли десятки тысяч компаний на Западе. MWS Cloud предлагает такую же модель — внутри российской облачной экосистемы.

И да: MWS Data Lakehouse — часть экосистемы MWS Data, включающей 25+ сервисов для хранения, аналитики и AI.

Почему это важно.
ИИ уже давно не хобби айтишников. Это трансформация всей ИТ-архитектуры компаний. А без таких платформ запуск ИИ-проектов становится дорогим, медленным и уязвимым.

Именно поэтому сейчас выигрывают не те, у кого «есть данные», а те, у кого есть инфраструктура, чтобы эти данные реально использовать.

@ai_machinelearning_big_data


#data #ai #ml #infrastructure #mts
👍4721🔥16😁5🥱3