Artificial Intelligence
16.3K subscribers
1.08K photos
7 videos
1 file
1.95K links
Artificial Intelligence

admin - @haarrp

@itchannels_telegram - 🔥 best it channels

@ai_machinelearning_big_data - Machine learning channel

@pythonl - Our Python channel

@pythonlbooks- python книги📚

@datascienceiot - ml 📚

РКН: clck.ru/3FmwZw
加入频道
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21🥰1
UniFork: Exploring Modality Alignment for Unified Multimodal Understanding and Generation

🖥 Github: https://github.com/tliby/unifork

📕 Paper: https://arxiv.org/abs/2506.17202v1

🔗 Dataset: https://paperswithcode.com/dataset/gqa

@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍1🔥1
🖥 Создание Telegram‑бота‑репетитора на Python для подготовки к сертификациям 🎓

В этом гайде мы создадим Telegram-бота-репетитора на Python, который проводит адаптивные мини-экзамены по темам Python, Data Science, AI и ML.

Бот сохраняет результаты в SQLite и даёт рекомендации по обучению.

Развернём его в облаке immers.cloud сервисе с GPU-серверами для задач от 3D и гейминга до машинного обучения и генерации контента.

Почему мы выбрали immers.cloud:
- Быстрый старт: нужный сервер поднимается за пару минут.
- Посекундная тарификация — платишь только за время работы сервера
- Большой ассортимент GPU: 11 моделей NVIDIA RTX и Tesla, включая высокопроизводительные модели, H100 (мой фаворит) и A100 с 80 ГБ видеопамяти с поддержкой GPUDirect и NVLink технологий.
- Образы с предустановленным окружением для ML задач, чтобы не тратить время на настройку.
- Поддержка 24/7 и стабильная производительность

🔍 Что делает бот:
- Проводит адаптивные мини‑экзамены по темам: Python, Data Science, AI, ML.
- Подстраивает уровень сложности вопросов под уровень пользователя.
- Сохраняет и анализирует результаты обучения.

🛠️ Технологии и подход:
- Написано на Python с использованием библиотеки для Telegram‑ботов.
- Используется БД для хранения прогресса и статистики.
- Простой архитектурный шаблон: команда → вопрос → ответ → оценка.

🚀 Цели проекта:
- Практическая подготовка к IT‑сертификациям.
- Обратная связь и отслеживание прогресса.
- Возможность добавить новые темы и адаптивную логику.

📌 Кому будет полезен:
- Тем, кто готовится к сертификациям (например, Python, ML).
- Тем, кто хочет автоматизировать обучение через чат.
- Программистам, желающим усилить навыки работы с Telegram‑ботами.

📌 Подробнее
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42👏1
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🔥1
Parallels Between VLA Model Post-Training and Human Motor Learning: Progress, Challenges, and Trends

🖥 Github: https://github.com/aoqunjin/awesome-vla-post-training

📕 Paper: https://arxiv.org/pdf/2506.20966v1.pdf

🔗 Dataset: https://paperswithcode.com/dataset/imagenet1

@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🔥2🥰1
Forwarded from Machinelearning
📌SemDiD: Семантическое разнообразие ответов для LLM.

Исследователи из из Гонконгского университета и инженеры Alibaba научили LLM генерировать семантически разные ответы, заставляя их «думать» в ортогональных направлениях.

Наверняка каждый, кто работает с LLM, сталкивался с их любовью к самоповторам. Запрашиваешь несколько вариантов решения, а получаешь одну и ту же мысль, просто перефразированную.

Стандартные подходы к декодированию, temperature sampling или diverse beam search, создают лишь лексическое разнообразие, но пасуют, когда требуется семантическое. Это серьезная проблема для Best-of-N или RLHF. Ведь без по-настоящему разных идей и подходов к решению задачи эти методы теряют свою силу: выбирать лучший вариант не из чего, а обучать модель на однотипных примерах неэффективно.

Решение предложили в методе SemDiD (Semantic-guided Diverse Decoding). Его суть, если кратко, перестать играть с токенами на поверхности и начать управлять генерацией напрямую в пространстве эмбеддингов.

🟡Метод работает так.

Сначала, на старте, он принудительно направляет разные группы beams по ортогональным векторам в семантическом пространстве. Грубо говоря, это как дать команду разным поисковым группам двигаться строго на север, юг и запад, чтобы они гарантированно разошлись.

По мере генерации, когда жесткие директивы могут стать неоптимальными, включается второй механизм - inter-group repulsion. Он просто следит, чтобы смысловые траектории ответов не сближались, сохраняя их уникальность до самого конца.

Но как, гоняясь за разнообразием, не получить на выходе бессвязный бред?

SemDiD подходит к контролю качества уникально. Он не пытается слепо максимизировать вероятность последовательности, а использует ее лишь как нижнюю границу, чтобы отсечь совсем уж плохие варианты.

Кроме того, алгоритм корректирует системные искажения, когда вероятность токенов искусственно завышается в зависимости от их позиции в тексте.

Для баланса между качеством и разнообразием используется адаптивный механизм на основе гармонического среднего, который в каждый момент времени уделяет больше внимания той метрике, которая проседает.

🟡В тестах метод показал неплохие результаты.

На бенчмарках для Best-of-N, от MMLU-Pro+ до GSM8K, SemDiD увеличивает покрытие (шанс найти верный ответ) на 1.4%-5.2% по сравнению с аналогами.

🟡Но главный прорыв - в RLHF.

Генерируя для GRPO или RLOO семантически богатые наборы ответов, SemDiD предоставляет им более качественный материал для обучения. Это ускоряет сходимость на 15% и повышает финальную точность моделей.


🟡Arxiv


@ai_machinelearning_big_data

#AI #ML #LLM #SemDiD
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
8🔥4🥰2
💫 EraRAG: Efficient and Incremental Retrieval-Augmented Generation for Growing Corpor

🖥 Github: https://github.com/everm0re/erarag-official

📕 Paper: https://arxiv.org/abs/2506.20963v1

🔗 Dataset: https://paperswithcode.com/dataset/hotpotqa

@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍3🔥1
Forwarded from AI VK Hub
Всем привет! Продолжаем обозревать статьи, представленные на ICML.
Сегодня кратко рассмотрим статью, которая посвящена проблемам оценки качества наборов данных для графового машинного обучения.

В машинном обучении принято сравнивать новые алгоритмы с предыдущими на различных датасетах. Однако в контексте графового машинного обучения возникает вопрос: всегда ли такой подход корректен?

Авторы статьи предлагают набор количественных характеристик, которые помогают оценить, насколько выразительны структура графа и признаки вершин, а также насколько они подходят для решения конкретной задачи — например, классификации вершин.

Такая оценка позволяет исключить как слишком простые графы, на которых любая модель покажет высокий результат, так и слишком сложные, где ни одна модель не сможет выучить закономерности, поскольку таргет не связан с признаками или структурой графа.

Детали

Авторы разработали два алгоритма:

1. Алгоритм возмущений графа, позволяющий оценить, насколько задача действительно зависит от структуры или признаков графа.

2. Метод оценки информативности графа, основанный на анализе того, как при возмущениях меняются важные графовые метрики и расстояния.

Результаты

Методы были применены к нескольким открытым датасетам из биоинформатики и социальных сетей. Были выявлены:

🔸Датасеты с релевантным таргетом.
🔸Датасеты с нерелевантным таргетом.
🔸Графы, которые не подходят для ранжирования алгоритмов машинного обучения.

Предложенный подход помогает оптимизировать тестирование новых алгоритмов машинного обучения. В дальнейшем авторы планируют уточнить разработанный метод, например, для подсчета аналогичных критериев для заданного класса моделей или для заданного класса задач.

Предыдущие обзоры статей с ICML от команды AI VK:
🔸Высокопроизводительные трансформеры на базе MatMuls

#ICML #обзорстатьи
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍3🔥2
Forwarded from AI VK Hub
В рекомендациях есть две точки зрения:

1. Бигтех: закинем в нейросеть пару петабайт данных, добавим побольше трансформерных блоков, тысячи видеокарт — и вот вам рексис нового поколения. Но вы не сможете это проверить, потому что только у нас столько данных.
2. Академия: пораскинем мозгами, добавим inductive bias в линейный автоэнкодер и получим соту на всех открытых датасетах. Обучаем на макбуке 19 года.

Мы любим оба подхода, но на ридинг-группе поговорим про второй. Роман Логойда, ML-инженер AI VK, представит статью Why is Normalization Necessary for Linear Recommenders?
🔹Начало встречи 24 июля в 18:00.

Зум: ссылка
ID: 313 292 5940
Код: 473906

Параллельно запустим стрим прямо в канале AI VK Hub.
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥2😁1
InstructFLIP: Exploring Unified Vision-Language Model for Face Anti-spoofing

🖥 Github: https://github.com/kunkunlin1221/InstructFLIP

📕 Paper: https://arxiv.org/pdf/2507.12060v1.pdf

🔗 Dataset: https://paperswithcode.com/dataset/replay-attack

@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍3🔥1
⚡️ Почему лучшие разработчики всегда на шаг впереди?

Потому что они знают, где брать настоящие инсайд!
Оставь “программирование в вакууме” в прошлом, выбирай свой стек — подпишись и погружайся в поток идей, лайфхаков и знаний, которые не найдёшь в открытом доступе.

ИИ: t.me/ai_machinelearning_big_data
Python: t.me/pythonl
Linux: t.me/linuxacademiya
Devops: t.me/DevOPSitsec
Базы данных: t.me/sqlhub
Мл собес t.me/machinelearning_interview
C++ t.me/cpluspluc
Docker: t.me/DevopsDocker
Хакинг: t.me/linuxkalii
МЛ: t.me/machinelearning_ru
Data Science: t.me/data_analysis_ml
Javascript: t.me/javascriptv
C#: t.me/csharp_ci
Java: t.me/java_library
Python собеседования: t.me/python_job_interview
Мобильная разработка: t.me/mobdevelop
Golang: t.me/Golang_google
React: t.me/react_tg
Rust: t.me/rust_code
ИИ: t.me/vistehno
PHP: t.me/phpshka
Android: t.me/android_its
Frontend: t.me/front
Big Data: t.me/bigdatai
МАТЕМАТИКА: t.me/data_math
Kubernets: t.me/kubernetc
Разработка игр: https://yangx.top/gamedev
Физика: t.me/fizmat
SQL: t.me/databases_tg

Папка Go разработчика: t.me/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.me/addlist/eEPya-HF6mkxMGIy
Папка ML: https://yangx.top/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://yangx.top/addlist/mzMMG3RPZhY2M2Iy

🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
😆ИТ-Мемы: t.me/memes_prog
🇬🇧Английский: t.me/english_forprogrammers
🧠ИИ: t.me/vistehno

🖥 Chatgpt для кода в тг: @Chatgpturbobot -

📕Ит-книги: https://yangx.top/addlist/BkskQciUW_FhNjEy
💼ИТ-вакансии t.me/addlist/_zyy_jQ_QUsyM2Vi

Подпишись, чтобы всегда знать, куда двигаться дальше!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🔥2🥰21
🧠 NVIDIA выпустила обновлённые модели Llama Super v1.5 и *Nemotron Super v1.5* — они помогут делать AI-агентов точнее и эффективнее.

Что нового:
— *Llama Super v1.5* — улучшенная версия модели для диалогов, логических задач и RLHF
— *Nemotron Super v1.5* — набор для обучения, ориентированный на код, инструкции и математику
— Используются методы DPO и rejection sampling для более стабильных и полезных ответов

Обе модели работают с NeMo и оптимизированы под GPU NVIDIA, включая H100.

Если вы строите собственного ИИ-ассистента, пишете агента для задач или просто экспериментируете с LLM — можно попробовать.

🔗Скачать модель: https://huggingface.co/nvidia/Llama-3_3-Nemotron-Super-49B-v1_5
🔗 Блог NVIDIA:
https://developer.nvidia.com/blog/build-more-accurate-and-efficient-ai-agents-with-the-new-nvidia-llama-nemotron-super-v1-5/
4👍2🔥1
Кажется, скоро пройдет что-то про RecSys, ждем подробности!
🔥95🥰2👍1👏1
📈 Взрывной рост OpenAI и Anthropic в 2025

— OpenAI удвоили годовую выручку (ARR) за 6 месяцев: с $6B → $12B
— Anthropic выросли в 5 раз за 7 месяцев: с $1B → $5B

💰 Разделение выручки интересно:
— OpenAI доминирует в подписках от частных и бизнес-пользователей
— Anthropic обогнали в API-доходах: $3.1B против $2.9B
— Но почти весь API-рост Anthropic — это кодинг

🧑‍💻 Cursor и GitHub Copilot дали $1.4B вместе
💡 Code Claude уже приносит $400M ARR — в 2 раза больше, чем месяц назад

⚠️ Но весь этот рост висит на тонком тросе — Claude 4 Sonnet стал стандартом для AI-кодинга. Если GPT-5 перехватит лидерство (и Copilot с Cursor уйдут к OpenAI), рынок может резко поменяться.
4👍4🔥2
Неформально про реком
Глитч нейросети — это база, а ивент AI VK & Pro в «оригинале» — повод собраться и узнать, как меняются рекомендательные системы.

27 августа VK проводит AI VK & Pro — закрытый митап про RecSys и ML. Где соберутся крутые ML-инженеры, исследователи и разработчики.

В программе доклады от ML-лидов VK. Поговорим про Discovery Platform, продовые трансформеры и мультимодальные модели.
Приходите задать вопросы, поделиться опытом и поглитчевать среди своих в неформальной обстановке. А после — афтепати: винил, сигары, вино и покер.


📍 Москва, только офлайн
📅 27 августа, сбор с 18:00
🎟 Вход по регистрации
👍2
🧠 LogicRAG: умный RAG без предсобранных графов

LLM часто ошибаются, когда ответ требует связать много фактов. Классический GraphRAG строит огромный граф по всему корпусу, что дорого и не всегда соответствует логике вопроса.

LogicRAG решает это иначе:

Разбивает запрос на подзадачи и строит небольшой граф зависимостей только для этого вопроса.

Упорядочивает его топологической сортировкой и решает шаг за шагом, подгружая только нужные данные.

Ведёт «скользящую память» — краткое резюме найденных фактов, удаляя лишний контекст.

Объединяет подзадачи одного уровня, чтобы не делать лишние запросы.

Не повторяет почти одинаковые подзапросы.

📊 Результаты:

- 2WikiMQA: +14,7% точности к лучшему базовому методу.
- HotpotQA и MuSiQue: стабильное превосходство.
- Время ответа ~9,8 секунд без затрат на построение графа.

💡 Итог: извлечение данных следует логике вопроса, а не заранее заготовленной карте, что даёт точнее и дешевле ответы.

arxiv.org/abs/2508.06105
👍32🔥1