BigData
3.3K subscribers
753 photos
88 videos
3 files
833 links
Data Science : Big Data : Machine Learning : Deep Learning. По всем вопросам @evgenycarter
加入频道
Optimizing Relevance Maps of Vision Transformers Improves Robustness

This code allows to finetune the explainability maps of Vision Transformers to enhance robustness.

Github: https://github.com/hila-chefer/robustvit

Colab: https://colab.research.google.com/github/hila-chefer/RobustViT/blob/master/RobustViT.ipynb

Paper: https://arxiv.org/abs/2206.01161

Dataset: https://github.com/UnsupervisedSemanticSegmentation/ImageNet-S

👉 @bigdata_1
👍1
Cleanlab

Стандартный пакет ИИ, ориентированный на данные, для обеспечения качества данных и машинного обучения с использованием беспорядочных, реальных данных и меток.

👣 Docs: https://docs.cleanlab.ai/

📌 Examples: https://github.com/cleanlab/examples

Paprer: https://arxiv.org/abs/2211.13895v1

⭐️ Datasets: https://paperswithcode.com/dataset/celeba

https://github.com/cleanlab/cleanlab

👉 @bigdata_1
1
This media is not supported in your browser
VIEW IN TELEGRAM
LEGO-Net: Learning Regular Rearrangements of Objects in Rooms

Model takes an input messy scene and attempts to clean the scene via iterative denoising.

LEGO-Net итеративный метод обучения регулярной перестановке объектов в захламленных комнатах.

💨 Project: https://ivl.cs.brown.edu/#/projects/lego-net

✅️ Paper: https://arxiv.org/pdf/2301.09629.pdf

👉 @bigdata_1
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
3D-aware Conditional Image Synthesis (pix2pix3D)

Model synthesizes a 3d photo from different viewpoints.

3D генеративная модель для управляемого синтеза фотореалистичных изображений.

🖥 Github: https://github.com/dunbar12138/pix2pix3D

⭐️ Project: https://huggingface.co/TencentARC/T2I-Adapter

⭐️Paper: https://arxiv.org/abs/2302.08509

💻 Dataset: https://paperswithcode.com/dataset/coco

👉 @bigdata_1
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4
👁 EdgeYOLO: An Edge-Real-Time Object Detector

EdgeYOLO reaches 34FPS with 50.6% AP in COCO2017 dataset and 25.9% AP in VisDrone2019 (image input size is 640x640, batch=16, post-process included).

Новый детектор обнаружения небольших объектов с высокой точностью, не требующий больших вычислительных мощностей.

🖥 Github: https://github.com/lsh9832/edgeyolo

⭐️Paper: https://arxiv.org/abs/2302.07483v1

⭐️ Weights: https://github.com/LSH9832/edgeyolo/releases/tag/v0.0.0

💻 Dataset: https://paperswithcode.com/dataset/visdrone

👉 @bigdata_1
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥31👍1
This media is not supported in your browser
VIEW IN TELEGRAM
MultiDiffusion: Fusing Diffusion Paths for Controlled Image Generation

MultiDiffusion - модель, позволяющая создавать любые изображения, используя предварительно обученную модель диффузии текста в изображение, без дополнительного обучения и настройки.

⭐️ Project: https://multidiffusion.github.io/

🖥 Github: https://github.com/omerbt/MultiDiffusion

⭐️Paper: https://arxiv.org/abs/2302.08113v1

💻 Dataset: https://paperswithcode.com/dataset/coco

👉 @bigdata_1
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32😍1
Video Localized Narratives

Video Localized Narratives, a new form of multimodal video annotations connecting vision and language.

Новая модель от Google позволяет генерировать аннотации к видео, фиксируя даже сложные события.

Авторы уже аннотировали 20 тыс. видео из датасетов OVIS, UVO и Oops, в общей сложности 1,7 млн. слов.

🖥 Github: https://github.com/google/video-localized-narratives

⭐️Paper: https://arxiv.org/abs/2302.11217v1

Project: https://www.youtube.com/watch?v=0ORZvDDbDjA

💻 Dataset : https://paperswithcode.com/dataset/video-localized-narratives

👉 @bigdata_1
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
👁 Deep Contextual Video Compression

A group-based offset diversity where the cross-group interaction is proposed for better context mining.

Официальная реализация Pytorch для нейронного сжатия видео и изображений.


🖥 Github: https://github.com/microsoft/dcvc

⭐️Paper: https://arxiv.org/abs/2302.14402v1

💻 Dataset : https://paperswithcode.com/dataset/vimeo90k-1

👉 @bigdata_1
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
SplineCam: Exact Visualization and Characterization of Deep Network Geometry and Decision Boundaries, CVPR 2023

Exact method for computing partitions of a Deep Neural Network

🖥 Github: http://github.com/AhmedImtiazPrio/SplineCAM

🖥 Colab: https://bit.ly/splinecam-demo

Paper: http://arxiv.org/pdf/2302.12828.pdf

⭐️ Project: http://imtiazhumayun.github.io/splinecam

👉 @bigdata_1
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Guidellm — это новый фреймворк от Neural Magic, предназначенный для оптимизации и ускорения работы LLM (Large Language Models) на обычных CPU без необходимости использования мощных GPU.

🔹 Основные возможности:
Сжатие моделей – снижает потребление памяти и повышает производительность без потери качества.
Оптимизация для CPU – позволяет запускать крупные языковые модели на стандартных процессорах.
Поддержка популярных LLM – совместим с LLaMA, Falcon, Mistral и другими.
Легкость в интеграции – простая настройка и API для встраивания в существующие проекты.

Проект будет полезен разработчикам, которым важно запускать LLM без дорогих GPU, например, для локального использования или облачных сервисов с ограниченными вычислительными ресурсами.

https://github.com/neuralmagic/guidellm

👉 @bigdata_1
👍4
🌟 GuideLLM: Оценка и анализ производительности LLM в реальных условиях.

GuideLLM - инструмент для оценки и оптимизации развертывания LLM. Моделируя рабочие нагрузки по инференсу в реальных условиях, GuideLLM помогает оценить производительность, потребности в ресурсах и принять решение по необходимой аппаратной конфигурации для запуска LLM.

Возможности :

🟢Оценка производительности: анализируйте инференс LLM при различных сценариях нагрузки;

🟢Оптимизация ресурсов: определите наиболее подходящие конфигурации оборудования для оптимальной работы целевой модели;

🟢Оценка затрат: понимание финансовых последствий различных стратегий развертывания и принятие обоснованных решений для минимизации затрат;

🟢Тестирование масштабируемости: имитация масштабирования с большим количеством одновременных пользователей.

Для использования GuideLLM требуется OpenAI-совместимый сервер, например, vLLM. Целевая модель для оценки может быть размещена как локально, так и в сети.

▶️ Установка и запуск на примере оценки квантованной Llama-3.1-8B :


# Установка из pip
pip install guidellm

# Запуск модели в vLLM
vllm serve "neuralmagic/Meta-Llama-3.1-8B-Instruct-quantized.w4a16"

# Запуск GuideLLM
guidellm \
--target "http://localhost:8000/v1" \
--model "neuralmagic/Meta-Llama-3.1-8B-Instruct-quantized.w4a16" \
--data-type emulated \
--data "prompt_tokens=512,generated_tokens=128"


По умолчанию, GuideLLM проводит серию оценок производительности с разной частотой запросов, каждая из которых длится 120 секунд, и результаты выводятся в терминал.
После завершения оценки GuideLLM подведет итоги, в том числе - метрики эффективности.


Документация к находится в стадии разработки. Полный набор опций запуска и конфигурирования GuideLLM можно посмотреть командами
guidellm --help и guidellm-config

https://github.com/neuralmagic/guidellm

👉 @bigdata_1
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
📌Открытый вебинар: «Алгоритмы SARSA и Q-learning — база для изучения Reinforcement Learning»

📚Вы узнаете:
+ Как работают SARSA и Q-learning и чем они отличаются
+ Как применить SARSA и Q-learning на практике с Python и OpenAI Gym
+ Где используют RL: робототехника, финансы, игры

Спикер: Игорь Стурейко — кандидат физико-математических наук МГУ, опытный разработчик, руководитель и преподаватель. 

📅Дата: 26 февраля в 20:00 (мск)
🆓Бесплатно. В рамках курса «Reinforcement Learning»

👉Регистрация открыта: https://vk.cc/cIVU7I

Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
MLR-Copilot : Генерация исследовательских идей в машинном обучении

MLR-Copilot - это фреймворк, в которой LLM имитируют мыслительные процессы ресечера, разработанная для повышения производительности исследований в области машинного обучения за счет генерации и реализации исследовательских идей.

Все начинается с исследовательской работы, в ходе которой MLR-Copilot генерирует и проверяет эти идеи. В процессу участвует встроенный механизм обратной связи с человеком, что в совокупности помогает достичь реальных результатов исследования.

MLR-Copilot работает в три интегрированных этапа:

🟢Генерация исследовательских идей: LLM-агенты генерируют исследовательские гипотезы и экспериментальные планы на основе предоставленных в качестве входных данных исследовательских работ.

🟢Реализация эксперимента: преобразование экспериментальных планов в выполнимые эксперименты с использованием полученного кода прототипа и моделей.

🟢Выполнение реализации: запускаются эксперименты с механизмами обратной связи от человека и итеративной отладки.


⚠️ MLR-Copilot работает только с онлайн-сервисами LLM ( OpenAI, Anthropic, Huggingface) в качестве агентов, для использования Вам будет необходим API-Key соответствующего сервиса.

https://www.arxiv.org/pdf/2408.14033

https://huggingface.co/spaces/du-lab/MLR-Copilot

https://colab.research.google.com/drive/1aMh94R1Nl6r0wTzRVJFzsx-S3pwadmFD?usp=sharing

https://github.com/du-nlp-lab/MLR-Copilot


👉 @bigdata_1
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
📌Открытый вебинар «MLFlow — полный контроль над ML-экспериментами»

📚Вы узнаете:
1️⃣ Что такое MLFlow и какие компоненты он содержит;
2️⃣ Как отслеживать и управлять экспериментами с помощью MLFlow;
3️⃣ Как интегрировать MLFlow в ваш ML-пайплайн и ускорить вывод моделей в продакшн;
4️⃣ Возможности MLFlow: трекинг экспериментов, управление моделями и воспроизводимость;
5️⃣ Как эффективно работать с артефактами и версиями моделей.

🎁 Проведём живую демонстрацию, где шаг за шагом внедрим MLFlow в ML-проект!

Спикер: Игорь Стурейко — PhD Physical and Mathematical Sciences и опытный руководитель команд.

📅 Дата: 27 февраля в 20:00 (мск)
🆓 Бесплатно. Вебинар в рамках курса «MLOps»

👉 Регистрация открыта: https://vk.cc/cIWVJ4

Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
Mini-Omni

В данной работе представлена Mini-Omni — аудиобазированная сквозная модель для диалогового взаимодействия в реальном времени. Чтобы достичь этой возможности, мы предлагаем метод генерации речи, управляемый текстовыми инструкциями, а также стратегию batch-parallel во время инференса, что дополнительно повышает производительность. Наш метод также позволяет сохранить исходные языковые способности модели с минимальной деградацией, обеспечивая основу для создания других моделей с возможностями взаимодействия в реальном времени. Мы называем этот метод обучения "Любая модель может говорить" (*Any Model Can Talk*).

Кроме того, мы представляем VoiceAssistant-400K — датасет, предназначенный для дообучения моделей, оптимизированных для генерации речи. Насколько нам известно, Mini-Omni является первой полностью сквозной open-source моделью для взаимодействия с речью в реальном времени, открывая новые перспективы для будущих исследований.


https://huggingface.co/gpt-omni/mini-omni/tree/main

https://arxiv.org/abs/2408.16725

https://github.com/gpt-omni/mini-omni


👉 @bigdata_1
👍1