Optimizing Relevance Maps of Vision Transformers Improves Robustness
This code allows to finetune the explainability maps of Vision Transformers to enhance robustness.
Github: https://github.com/hila-chefer/robustvit
Colab: https://colab.research.google.com/github/hila-chefer/RobustViT/blob/master/RobustViT.ipynb
Paper: https://arxiv.org/abs/2206.01161
Dataset: https://github.com/UnsupervisedSemanticSegmentation/ImageNet-S
👉 @bigdata_1
This code allows to finetune the explainability maps of Vision Transformers to enhance robustness.
Github: https://github.com/hila-chefer/robustvit
Colab: https://colab.research.google.com/github/hila-chefer/RobustViT/blob/master/RobustViT.ipynb
Paper: https://arxiv.org/abs/2206.01161
Dataset: https://github.com/UnsupervisedSemanticSegmentation/ImageNet-S
👉 @bigdata_1
👍1
Cleanlab
Стандартный пакет ИИ, ориентированный на данные, для обеспечения качества данных и машинного обучения с использованием беспорядочных, реальных данных и меток.
👣 Docs: https://docs.cleanlab.ai/
📌 Examples: https://github.com/cleanlab/examples
⏩ Paprer: https://arxiv.org/abs/2211.13895v1
⭐️ Datasets: https://paperswithcode.com/dataset/celeba
https://github.com/cleanlab/cleanlab
👉 @bigdata_1
Стандартный пакет ИИ, ориентированный на данные, для обеспечения качества данных и машинного обучения с использованием беспорядочных, реальных данных и меток.
👣 Docs: https://docs.cleanlab.ai/
📌 Examples: https://github.com/cleanlab/examples
⏩ Paprer: https://arxiv.org/abs/2211.13895v1
⭐️ Datasets: https://paperswithcode.com/dataset/celeba
https://github.com/cleanlab/cleanlab
👉 @bigdata_1
❤1
Time-series Transformer Generative Adversarial Networks
Github: https://github.com/jsyoon0823/TimeGAN
Paper: https://arxiv.org/abs/2205.11164v1
Stock data: https://finance.yahoo.com/quote/GOOG/history
Energy data: http://archive.ics.uci.edu/ml/datasets/Appliances+energy+prediction
👉 @bigdata_1
Github: https://github.com/jsyoon0823/TimeGAN
Paper: https://arxiv.org/abs/2205.11164v1
Stock data: https://finance.yahoo.com/quote/GOOG/history
Energy data: http://archive.ics.uci.edu/ml/datasets/Appliances+energy+prediction
👉 @bigdata_1
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
LEGO-Net: Learning Regular Rearrangements of Objects in Rooms
Model takes an input messy scene and attempts to clean the scene via iterative denoising.
LEGO-Net итеративный метод обучения регулярной перестановке объектов в захламленных комнатах.
💨 Project: https://ivl.cs.brown.edu/#/projects/lego-net
✅️ Paper: https://arxiv.org/pdf/2301.09629.pdf
👉 @bigdata_1
Model takes an input messy scene and attempts to clean the scene via iterative denoising.
LEGO-Net итеративный метод обучения регулярной перестановке объектов в захламленных комнатах.
👉 @bigdata_1
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
3D-aware Conditional Image Synthesis (pix2pix3D)
Model synthesizes a 3d photo from different viewpoints.
3D генеративная модель для управляемого синтеза фотореалистичных изображений.
🖥 Github: https://github.com/dunbar12138/pix2pix3D
⭐️ Project: https://huggingface.co/TencentARC/T2I-Adapter
⭐️ Paper: https://arxiv.org/abs/2302.08509
💻 Dataset: https://paperswithcode.com/dataset/coco
👉 @bigdata_1
Model synthesizes a 3d photo from different viewpoints.
3D генеративная модель для управляемого синтеза фотореалистичных изображений.
👉 @bigdata_1
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4
EdgeYOLO reaches 34FPS with 50.6% AP in COCO2017 dataset and 25.9% AP in VisDrone2019 (image input size is 640x640, batch=16, post-process included).
Новый детектор обнаружения небольших объектов с высокой точностью, не требующий больших вычислительных мощностей.
👉 @bigdata_1
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤1👍1
This media is not supported in your browser
VIEW IN TELEGRAM
MultiDiffusion: Fusing Diffusion Paths for Controlled Image Generation
MultiDiffusion - модель, позволяющая создавать любые изображения, используя предварительно обученную модель диффузии текста в изображение, без дополнительного обучения и настройки.
⭐️ Project: https://multidiffusion.github.io/
🖥 Github: https://github.com/omerbt/MultiDiffusion
⭐️ Paper: https://arxiv.org/abs/2302.08113v1
💻 Dataset: https://paperswithcode.com/dataset/coco
👉 @bigdata_1
MultiDiffusion - модель, позволяющая создавать любые изображения, используя предварительно обученную модель диффузии текста в изображение, без дополнительного обучения и настройки.
👉 @bigdata_1
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤2😍1
Video Localized Narratives
Video Localized Narratives, a new form of multimodal video annotations connecting vision and language.
Новая модель от Google позволяет генерировать аннотации к видео, фиксируя даже сложные события.
Авторы уже аннотировали 20 тыс. видео из датасетов OVIS, UVO и Oops, в общей сложности 1,7 млн. слов.
🖥 Github: https://github.com/google/video-localized-narratives
⭐️ Paper: https://arxiv.org/abs/2302.11217v1
⏩ Project: https://www.youtube.com/watch?v=0ORZvDDbDjA
💻 Dataset : https://paperswithcode.com/dataset/video-localized-narratives
👉 @bigdata_1
Video Localized Narratives, a new form of multimodal video annotations connecting vision and language.
Новая модель от Google позволяет генерировать аннотации к видео, фиксируя даже сложные события.
Авторы уже аннотировали 20 тыс. видео из датасетов OVIS, UVO и Oops, в общей сложности 1,7 млн. слов.
👉 @bigdata_1
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
A group-based offset diversity where the cross-group interaction is proposed for better context mining.
Официальная реализация Pytorch для нейронного сжатия видео и изображений.
👉 @bigdata_1
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
SplineCam: Exact Visualization and Characterization of Deep Network Geometry and Decision Boundaries, CVPR 2023
Exact method for computing partitions of a Deep Neural Network
🖥 Github: http://github.com/AhmedImtiazPrio/SplineCAM
🖥 Colab: https://bit.ly/splinecam-demo
⏩ Paper: http://arxiv.org/pdf/2302.12828.pdf
⭐️ Project: http://imtiazhumayun.github.io/splinecam
👉 @bigdata_1
Exact method for computing partitions of a Deep Neural Network
👉 @bigdata_1
Please open Telegram to view this post
VIEW IN TELEGRAM
Вот отсортированная база с тонной материала (постепенно пополняется):
БАЗА (4687 видео/книг):
(363 видео, 87 книги) — Python
(415 видео, 68 книги) — Frontend
(143 видео, 33 книги) — ИБ/Хакинг
(352 видео, 89 книги) — С/С++
(343 видео, 87 книги) — Java
(176 видео, 32 книги) — Git
(293 видео, 63 книги) — C#
(174 видео, 91 книги) — DevOps
(167 видео, 53 книги) — PHP
(227 видео, 83 книги) — SQL/БД
(163 видео, 29 книги) — Linux
(114 видео, 77 книги) — Сисадмин
(107 видео, 43 книги) — BA/SA
(181 видео, 32 книги) — Go
(167 видео, 43 книги) — Kotlin/Swift
(112 видео, 24 книги) — Flutter
(137 видео, 93 книги) — DS/ML
(113 видео, 82 книги) — GameDev
(183 видео, 37 книги) — Дизайн
(129 видео, 73 книги) — QA
(213 видео, 63 книги) — Rust
(121 видео, 24 книги) — 1С
(136 видео, 33 книги) — PM/HR
Скачивать ничего не нужно — все выложили в Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Guidellm — это новый фреймворк от Neural Magic, предназначенный для оптимизации и ускорения работы LLM (Large Language Models) на обычных CPU без необходимости использования мощных GPU.
🔹 Основные возможности:
✅ Сжатие моделей – снижает потребление памяти и повышает производительность без потери качества.
✅ Оптимизация для CPU – позволяет запускать крупные языковые модели на стандартных процессорах.
✅ Поддержка популярных LLM – совместим с LLaMA, Falcon, Mistral и другими.
✅ Легкость в интеграции – простая настройка и API для встраивания в существующие проекты.
Проект будет полезен разработчикам, которым важно запускать LLM без дорогих GPU, например, для локального использования или облачных сервисов с ограниченными вычислительными ресурсами.
https://github.com/neuralmagic/guidellm
👉 @bigdata_1
🔹 Основные возможности:
✅ Сжатие моделей – снижает потребление памяти и повышает производительность без потери качества.
✅ Оптимизация для CPU – позволяет запускать крупные языковые модели на стандартных процессорах.
✅ Поддержка популярных LLM – совместим с LLaMA, Falcon, Mistral и другими.
✅ Легкость в интеграции – простая настройка и API для встраивания в существующие проекты.
Проект будет полезен разработчикам, которым важно запускать LLM без дорогих GPU, например, для локального использования или облачных сервисов с ограниченными вычислительными ресурсами.
https://github.com/neuralmagic/guidellm
👉 @bigdata_1
👍4
GuideLLM - инструмент для оценки и оптимизации развертывания LLM. Моделируя рабочие нагрузки по инференсу в реальных условиях, GuideLLM помогает оценить производительность, потребности в ресурсах и принять решение по необходимой аппаратной конфигурации для запуска LLM.
Возможности :
Для использования GuideLLM требуется OpenAI-совместимый сервер, например, vLLM. Целевая модель для оценки может быть размещена как локально, так и в сети.
# Установка из pip
pip install guidellm
# Запуск модели в vLLM
vllm serve "neuralmagic/Meta-Llama-3.1-8B-Instruct-quantized.w4a16"
# Запуск GuideLLM
guidellm \
--target "http://localhost:8000/v1" \
--model "neuralmagic/Meta-Llama-3.1-8B-Instruct-quantized.w4a16" \
--data-type emulated \
--data "prompt_tokens=512,generated_tokens=128"
По умолчанию, GuideLLM проводит серию оценок производительности с разной частотой запросов, каждая из которых длится 120 секунд, и результаты выводятся в терминал.
После завершения оценки GuideLLM подведет итоги, в том числе - метрики эффективности.
Документация к находится в стадии разработки. Полный набор опций запуска и конфигурирования GuideLLM можно посмотреть командами
guidellm --help
и guidellm-config
https://github.com/neuralmagic/guidellm
👉 @bigdata_1
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
📌Открытый вебинар: «Алгоритмы SARSA и Q-learning — база для изучения Reinforcement Learning»
📚Вы узнаете:
+ Как работают SARSA и Q-learning и чем они отличаются
+ Как применить SARSA и Q-learning на практике с Python и OpenAI Gym
+ Где используют RL: робототехника, финансы, игры
Спикер: Игорь Стурейко — кандидат физико-математических наук МГУ, опытный разработчик, руководитель и преподаватель.
📅Дата: 26 февраля в 20:00 (мск)
🆓Бесплатно. В рамках курса «Reinforcement Learning»
👉Регистрация открыта: https://vk.cc/cIVU7I
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
📚Вы узнаете:
+ Как работают SARSA и Q-learning и чем они отличаются
+ Как применить SARSA и Q-learning на практике с Python и OpenAI Gym
+ Где используют RL: робототехника, финансы, игры
Спикер: Игорь Стурейко — кандидат физико-математических наук МГУ, опытный разработчик, руководитель и преподаватель.
📅Дата: 26 февраля в 20:00 (мск)
🆓Бесплатно. В рамках курса «Reinforcement Learning»
👉Регистрация открыта: https://vk.cc/cIVU7I
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
MLR-Copilot : Генерация исследовательских идей в машинном обучении
MLR-Copilot - это фреймворк, в которой LLM имитируют мыслительные процессы ресечера, разработанная для повышения производительности исследований в области машинного обучения за счет генерации и реализации исследовательских идей.
Все начинается с исследовательской работы, в ходе которой MLR-Copilot генерирует и проверяет эти идеи. В процессу участвует встроенный механизм обратной связи с человеком, что в совокупности помогает достичь реальных результатов исследования.
MLR-Copilot работает в три интегрированных этапа:
🟢 Генерация исследовательских идей: LLM-агенты генерируют исследовательские гипотезы и экспериментальные планы на основе предоставленных в качестве входных данных исследовательских работ.
🟢 Реализация эксперимента: преобразование экспериментальных планов в выполнимые эксперименты с использованием полученного кода прототипа и моделей.
🟢 Выполнение реализации: запускаются эксперименты с механизмами обратной связи от человека и итеративной отладки.
⚠️ MLR-Copilot работает только с онлайн-сервисами LLM ( OpenAI, Anthropic, Huggingface) в качестве агентов, для использования Вам будет необходим API-Key соответствующего сервиса.
https://www.arxiv.org/pdf/2408.14033
https://huggingface.co/spaces/du-lab/MLR-Copilot
https://colab.research.google.com/drive/1aMh94R1Nl6r0wTzRVJFzsx-S3pwadmFD?usp=sharing
https://github.com/du-nlp-lab/MLR-Copilot
👉 @bigdata_1
MLR-Copilot - это фреймворк, в которой LLM имитируют мыслительные процессы ресечера, разработанная для повышения производительности исследований в области машинного обучения за счет генерации и реализации исследовательских идей.
Все начинается с исследовательской работы, в ходе которой MLR-Copilot генерирует и проверяет эти идеи. В процессу участвует встроенный механизм обратной связи с человеком, что в совокупности помогает достичь реальных результатов исследования.
MLR-Copilot работает в три интегрированных этапа:
⚠️ MLR-Copilot работает только с онлайн-сервисами LLM ( OpenAI, Anthropic, Huggingface) в качестве агентов, для использования Вам будет необходим API-Key соответствующего сервиса.
https://www.arxiv.org/pdf/2408.14033
https://huggingface.co/spaces/du-lab/MLR-Copilot
https://colab.research.google.com/drive/1aMh94R1Nl6r0wTzRVJFzsx-S3pwadmFD?usp=sharing
https://github.com/du-nlp-lab/MLR-Copilot
👉 @bigdata_1
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
📌Открытый вебинар «MLFlow — полный контроль над ML-экспериментами»
📚Вы узнаете:
1️⃣ Что такое MLFlow и какие компоненты он содержит;
2️⃣ Как отслеживать и управлять экспериментами с помощью MLFlow;
3️⃣ Как интегрировать MLFlow в ваш ML-пайплайн и ускорить вывод моделей в продакшн;
4️⃣ Возможности MLFlow: трекинг экспериментов, управление моделями и воспроизводимость;
5️⃣ Как эффективно работать с артефактами и версиями моделей.
🎁 Проведём живую демонстрацию, где шаг за шагом внедрим MLFlow в ML-проект!
Спикер: Игорь Стурейко — PhD Physical and Mathematical Sciences и опытный руководитель команд.
📅 Дата: 27 февраля в 20:00 (мск)
🆓 Бесплатно. Вебинар в рамках курса «MLOps»
👉 Регистрация открыта: https://vk.cc/cIWVJ4
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
📚Вы узнаете:
1️⃣ Что такое MLFlow и какие компоненты он содержит;
2️⃣ Как отслеживать и управлять экспериментами с помощью MLFlow;
3️⃣ Как интегрировать MLFlow в ваш ML-пайплайн и ускорить вывод моделей в продакшн;
4️⃣ Возможности MLFlow: трекинг экспериментов, управление моделями и воспроизводимость;
5️⃣ Как эффективно работать с артефактами и версиями моделей.
🎁 Проведём живую демонстрацию, где шаг за шагом внедрим MLFlow в ML-проект!
Спикер: Игорь Стурейко — PhD Physical and Mathematical Sciences и опытный руководитель команд.
📅 Дата: 27 февраля в 20:00 (мск)
🆓 Бесплатно. Вебинар в рамках курса «MLOps»
👉 Регистрация открыта: https://vk.cc/cIWVJ4
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
Mini-Omni
В данной работе представлена Mini-Omni — аудиобазированная сквозная модель для диалогового взаимодействия в реальном времени. Чтобы достичь этой возможности, мы предлагаем метод генерации речи, управляемый текстовыми инструкциями, а также стратегию batch-parallel во время инференса, что дополнительно повышает производительность. Наш метод также позволяет сохранить исходные языковые способности модели с минимальной деградацией, обеспечивая основу для создания других моделей с возможностями взаимодействия в реальном времени. Мы называем этот метод обучения "Любая модель может говорить" (*Any Model Can Talk*).
Кроме того, мы представляем VoiceAssistant-400K — датасет, предназначенный для дообучения моделей, оптимизированных для генерации речи. Насколько нам известно, Mini-Omni является первой полностью сквозной open-source моделью для взаимодействия с речью в реальном времени, открывая новые перспективы для будущих исследований.
https://huggingface.co/gpt-omni/mini-omni/tree/main
https://arxiv.org/abs/2408.16725
https://github.com/gpt-omni/mini-omni
👉 @bigdata_1
В данной работе представлена Mini-Omni — аудиобазированная сквозная модель для диалогового взаимодействия в реальном времени. Чтобы достичь этой возможности, мы предлагаем метод генерации речи, управляемый текстовыми инструкциями, а также стратегию batch-parallel во время инференса, что дополнительно повышает производительность. Наш метод также позволяет сохранить исходные языковые способности модели с минимальной деградацией, обеспечивая основу для создания других моделей с возможностями взаимодействия в реальном времени. Мы называем этот метод обучения "Любая модель может говорить" (*Any Model Can Talk*).
Кроме того, мы представляем VoiceAssistant-400K — датасет, предназначенный для дообучения моделей, оптимизированных для генерации речи. Насколько нам известно, Mini-Omni является первой полностью сквозной open-source моделью для взаимодействия с речью в реальном времени, открывая новые перспективы для будущих исследований.
https://huggingface.co/gpt-omni/mini-omni/tree/main
https://arxiv.org/abs/2408.16725
https://github.com/gpt-omni/mini-omni
👉 @bigdata_1
👍1