Machine learning Interview
24.4K subscribers
1.03K photos
67 videos
12 files
694 links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1


@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
加入频道
🚀 Вышли модели Qwen3 в формате MLX!

Теперь можно запускать Qwen3 локально — быстро, эффективно и с разной точностью:
- 4-bit
- 6-bit
- 8-bit
- BF16

🔧 Модели специально оптимизированы под MLX framework — минимальный объём, максимальная производительность, полная совместимость с Apple Silicon.

🧪 Идеально подходит для локального inference и интеграции в MLX‑проекты.

📦 Попробовать:
• Hugging Face: huggingface.co/collections/Qwen/qwen3-67dd247413f0e2e4f653967f
ModelScope: modelscope.cn/collections/Qwen3-9743180bdc6b48

@machinelearning_interview

#Qwen3 #MLX #LLM #AppleSilicon #AI
В эпоху бума нейросетей неудивительно, что в топ высокооплачиваемых профессий, по версии «Хабра», попали ML-инженеры, дата-сайентисты и аналитики.

Освойте одну из топовых специальностей и станьте тем, за кем охотятся компании, в онлайн-магистратуре «Прикладной анализ данных и машинное обучение» от Skillfactory и МИФИ.

Это привычная магистратура со всеми льготами очных студентов (отсрочка от армии, студенческий билет, обучение 198 р/месяц при господдержке), только учиться будете онлайн в удобное время.

Программа рассчитана на два года. За это время вы получите фундаментальные знания с фокусом на практику от преподавателей МИФИ и экспертов из крупных компаний. Погрузитесь в Data Science и Machine Learning и выберете направление — ML или MLOps. Финальной точкой станет диплом государственного образца одного из лучших университетов России как подтверждение вашей квалификации.

Чтобы поступить, нужен диплом о высшем образовании или студенческий билет последних курсов вуза. Вступительные — мотивационное письмо и экзамен с общими и профильными вопросами.

Набор в магистратуру уже идет. Количество мест ограничено. Оставляйте заявку по ссылке


Реклама. ООО "СКИЛФЭКТОРИ". ИНН 9702009530. erid: 2W5zFJbeKJQ
🧠 Модели обучают сами себя: Anthropic представила метод ICM

Исследователи из Anthropic разработали новый подход — Internal Coherence Maximization (ICM), позволяющий языковым моделям тонко настраивать себя без участия человека.

🔍 Как работает:
Модель оценивает последовательность своих ответов, находит противоречия и улучшает собственные ответы путём самокоррекции.
Это позволяет добиться более логичных и целостных рассуждений — без аннотаций и ручной разметки.

📊 Результаты:
• На бенчмарках *TruthfulQA* и *GSM8K* ICM показывает не хуже, а иногда даже лучше, чем классическое супервизированное дообучение
• В субъективных оценках "полезности" — модели с ICM воспринимаются убедительнее
• ICM также может генерировать мощные reward-модели для RLHF

⚠️ Ограничения:
• Сложности с новыми концепциями
• Неустойчивость на очень длинных текстах

📌 Вывод:
ICM — это шаг к более автономному и последовательному ИИ, который учится рассуждать, проверять и улучшать себя сам. Без учителя.

📌 Подробнее
Forwarded from Machinelearning
🌟MiniMax-M1: открытя reasoning‑LLM с контекстом 1M

MiniMax-M1 — первая в мире open-weight гибридная reasoning‑LLM c 1M контекстом (8× DeepSeek R1) и гибридной архитектурой MoE + lightning attention.
• 456 млрд параметров (45,9 млрд активируются на токен), сверхэффективная генерация — 25% FLOPs DeepSeek R1 на 100K токенов
• Обучение через RL с новым алгоритмом CISPO, решающим реальные задачи от математики до кодинга
• На обучение было потрачено $534K, две версии — 40K/80K “thinking budget”
• Обходит DeepSeek R1 и Qwen3-235B на бенчмарках по математике и кодингу,
• Топ результат на задачах для software engineering и reasoning



Бенчмарки:
AIME 2024: 86.0 (M1-80K) vs 85.7 (Qwen3) vs 79.8 (DeepSeek R1)

SWE-bench Verified: 56.0 vs 34.4 (Qwen3)

OpenAI-MRCR (128k): 73.4 vs 27.7 (Qwen3)

TAU-bench (airline): 62.0 vs 34.7 (Qwen3)

LongBench-v2: 61.5 vs 50.1 (Qwen3)


➡️ Попробовать можно здесь

Hugging Face: https://huggingface.co/collections/MiniMaxAI/minimax-m1-68502ad9634ec0eeac8cf094
GitHub: https://github.com/MiniMax-AI/MiniMax-M1
Tech Report: https://github.com/MiniMax-AI/MiniMax-M1/blob/main/MiniMax_M1_tech_report.pdf


@ai_machinelearning_big_data

#llm #reasoningmodels #minimaxm1
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Moonshot AI выпускает Kimi Dev 72B — новую открытую модель для кодинга и софт-инжиниринга!

▪️ Результат 60.4% на SWE Bench Verified — новый рекорд среди open-source моделей
▪️ Обходит GPT-4.1 и уступает только Gemini 2.5 Pro
▪️ Уже доступна на Hugging Face и GitHub

Kimi Dev 72B — свежий прорыв для разработчиков, ищущих мощную и открытую LLM для Кодина!

- GitHub: https://github.com/MoonshotAI/Kimi-Dev
- HuggingFace: https://huggingface.co/moonshotai/Kimi-Dev-72B