Machine learning Interview
34.4K subscribers
1.13K photos
86 videos
14 files
774 links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1


@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
加入频道
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ "Developing superintelligence is now in sight.
We should act as if it's going to be ready in the next 2–3 years.”
— Mark Zuckerberg

Его компании больше не просто развивает соцсети — она строит будущее искусственного интеллекта.

И делает ставку всерьёз, вкладывая: миллиарды на инфраструктуру и сотни миллионов — на лучших разарбов.

💰 Цукерберг объясняет, почему готов платить $100–200 млн топ-исследователям:

> «Мы потратим сотни миллиардов на вычисления и дата-центры.
> Тогда $100 млн за гения, способного продвинуть нас вперёд — это мелочь.»

📌 Почему это меняет игру:
— В мире всего сотни разраюотчиков, способных работать на грани AGI
— Каждая компания в ммре борется за них
— Цукерберг собирается собрать свою элиту — 50–70 человек
— И всё это — с прицелом на *2–3 года*, а не десятилетия

Superintelligence теперь не фантастика, а инвестиционный план.

@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
25👍16🥰4😁3👨‍💻2🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
IT-осень начинается с E-CODE 2025

13-14 сентября IT-сообщество ждет масштабное событие — E-CODE от Ozon Tech.

E-CODE объединяет доклады и вечеринки, нетворкинг и 1х1, научные лекции и караоке. И всё это в атмосфере Ozon Tech. Потому что главный принцип команды разработки — «делать как для себя».

По ML будет отдельный трек с экспертами от лидеров отрасли. Берите багаж побольше, чтобы все знания поместились.

Оформить билет на E-CODE
👍279🥰5👨‍💻2
800+ SQL Server Interview Questions and Answers .pdf
1 MB
🖥 Нашли кладезь знаний из 800+ SQL-вопросов с задачами — идеально для подготовки к собеседованиям.

Подойдёт, чтобы:
— прокачать SQL-навыки с нуля до продвинутого уровня
— быстро освежить синтаксис перед интервью
— попрактиковаться на реальных задачах

Полезно как джунам, так и мидлам. Отличный способ проверить себя и закрыть пробелы.
Please open Telegram to view this post
VIEW IN TELEGRAM
38👍19🔥12👨‍💻2
📝 Pen and paper exercises in machine learning — интересный сборник упражнений по машинному обучению. Проект содержит подборку задач с подробными решениями по линейной алгебре, оптимизации, байесовским сетям и другим фундаментальным темам. Автор делает акцент на математическую основу, а не на программирование.

Все материалы доступны в PDF и исходных LaTeX-файлах под лицензией CC BY 4.0. Упражнения разрабатывались для курсов Эдинбургского и Хельсинкского университетов, что гарантирует их академическую ценность. Подходит как для самостоятельного изучения, так и для преподавания.

🤖 GitHub

@machinelearning_interview
44👍11🥰4
⚡️ 1.3 млн токенов/сек на H800 — новый рекорд для LLM-инференции

Команда Yiakwy-XPU показала, как эффективно запускать большие языковые модели (например, DeepSeek V3) на 13×8 H800 DGX SuperPod с помощью SGlang в разнесённой архитектуре (disaggregated serving):

📊 Что удалось достичь:
1.3M токенов/сек на входе (prefill)
20K токенов/сек на выходе (decode)
• До 80K токенов/сек суммарной производительности
• При 50–150 параллельных запросах — стабильный throughput до 55K токенов/сек

📌 Важные выводы:
• Префилл — главное узкое место (TTFT ↑ при длинных запросах и больших батчах)
• Оптимальное соотношение вход/выход — 4:1, а prefill/decode — 3:1
• Меньшие tp и chunked-prefill уменьшают задержки между токенами (ITL)
• В режиме смешанного сервинга (decode + prefill) — лучше использовать батчинг именно с chunk-prefill, иначе резко растёт latency

🔧 Бенчмарки: bench_one_batch_server.py, genai-bench, evalscope
🔥 Используемая модель: Yi-1.5 34B

📦 Полная статья и код

@machinelearning_interview
🔥3513👍7🤔3
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 ChatGPT Agent vs. Genspark Super Agent — битва ИИ-ассистентов нового поколения

Не так давно OpenAI выпутили ChatGPT Agent, способного выполнять сложные многошаговые задачи — от ресёрча до автоматизации. Но Genspark пошёл ещё дальше и предлагает интеллектуального супер-агента, ориентированного на пользователей и сложные команды.

🔹 ChatGPT Agent
— Доступ к браузеру, API, терминалу
— Глубокий поиск + Gmail/Calendar интеграция
— Контроль, безопасность и прозрачность
— Идеален для профессиональных пользователей и команд, которым важна защита данных и максимальный контроль

🔹 Genspark Super Agent
— No-code-процессы + генерация слайдов, видео
— 80+ встроенных инструментов: CRM, задачи, API, документы
— Агент сам выбирает подходящий инструмент и переключается в процессе
— Интеллектуальный feedback-loop и динамическая оркестрация действий
— В бенчмарках Genspark часто обходит конкурентов по точности и эффективности

📌 Для индивидуальных пользователей и малых команд Genspark имеет явные приемущества: мощь, гибкость и доступность — без кода и без боли.
👍2610🔥3🤔2🤣2🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
🔊 OpenVoice — опенсовр инструмент для клонирования голоса

Вы можете сгенерировать копию любого голоса всего по одной короткой записи — и озвучивать тексты с нужной интонацией, эмоцией и даже на другом языке.

💡 Что умеет:
— Воспроизводит голос с точным тембром и стилем
— Меняет тон, темп, эмоции и акцент
— Работает даже с языками, которых не было в обучении (zero-shot)
— Быстрая генерация и минимальные ресурсы — дешевле многих коммерческих решений

⚙️ Как устроено:
OpenVoice использует комбинацию моделей: одна отвечает за стиль, вторая — за тональность и характеристики речи. Обучена на сотнях тысяч голосов и стилей.

Онлайн-демо: https://huggingface.co/spaces/myshell-ai/OpenVoice

🎯 Кому подойдёт:
— Авторам подкастов, дикторам и блогерам
— Разработчикам — для интеграции озвучки в приложения
— Исследователям — для изучения архитектуры голосовых моделей

Github: https://github.com/myshell-ai/OpenVoice/tree/main

@machinelearning_interview
👍24🔥75😱1
Forwarded from AI VK Hub
В рекомендациях есть две точки зрения:

1. Бигтех: закинем в нейросеть пару петабайт данных, добавим побольше трансформерных блоков, тысячи видеокарт — и вот вам рексис нового поколения. Но вы не сможете это проверить, потому что только у нас столько данных.
2. Академия: пораскинем мозгами, добавим inductive bias в линейный автоэнкодер и получим соту на всех открытых датасетах. Обучаем на макбуке 19 года.

Мы любим оба подхода, но на ридинг-группе поговорим про второй. Роман Логойда, ML-инженер AI VK, представит статью Why is Normalization Necessary for Linear Recommenders?
🔹Начало встречи 24 июля в 18:00.

Зум: ссылка
ID: 313 292 5940
Код: 473906

Параллельно запустим стрим прямо в канале AI VK Hub.
Please open Telegram to view this post
VIEW IN TELEGRAM
20🔥12🤣5🥰2🤔2👍1👨‍💻1💊1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Хочешь подключить свой LLM к MCP-серверу без Cursor и Claude?

mcp-use — open-source фреймворк, который позволяет:

🔌 Подключать любой LLM к любому MCP-серверу
🤖 Строить собственных MCP-агентов без закрытых решений
💻 Работать полностью локально: 100% контроль и приватность

Совместим с Ollama, LangChain и другими LLM-инструментами
Открытый код, легко настраивается под любые пайплайны

Идеально для:
— разработчиков, строящих кастомных агентов
— локальных ассистентов без внешних API
— продвинутых LLM‑интеграций

📦 Попробуй и собери своего MCP‑клиента без ограничений!

GitHubhttps://github.com/mcp-use/mcp-use
👍2911🔥8🤔4👨‍💻1
🚨 BREAKING: Цукерберг переманил трёх топ-исследователей из Google DeepMind — именно тех, кто стоял за моделью, взявшей золото на Международной математической олимпиаде (IMO)

🧠 Это авторы модели, которая без дообучения решила задачи уровня золотой медали IMO и показала, что ИИ может соревноваться с лучшими математиками мира.

🔥 Цукерберг явно нацелен на лидерство в области ИИ. Цук не останавливается.

@machinelearning_interview
26🔥12👍7👨‍💻2😭1💊1
Forwarded from Machinelearning
🌟 Mixture-of-Recursions: концепция селективного ризонинга.

Архитектура Mixture-of-Recursions (MoR), предложенная Google в соавторстве с KAIST AI объединяет в едином фреймворке традиционные подходы разделения параметров и адаптивные вычисления, заставляя модель думать над каждым токеном с разной глубиной.

Под капотом MoR - рекурсивный трансформер, который прогоняет входные данные через один и тот же блок слоев несколько раз. Но главная фишка в том, что количество этих прогонов, или глубина рекурсии, не фиксированное, а динамическое и определяется для каждого токена индивидуально.

Легковесный обучаемый роутер анализирует токен и решает, сколько вычислительных усилий на него потратить. Простые слова могут пройти всего один цикл рекурсии, в то время как семантически нагруженные термины отправятся на более глубокую обработку из нескольких циклов.

Это дает два главных преимущества:

🟢Во-первых, модель тратит вычислительные ресурсы только на те токены, которые все еще активны на данной глубине рекурсии. Токены, которые вышли раньше, в дальнейших вычислениях не участвуют. Это уже само по себе сокращает объем вычислений.

🟢Во-вторых, что самое интересное для инженеров, MoR позволяет реализовать очень эффективное KV caching. Вместо того чтобы хранить в памяти огромный кеш для каждого виртуального слоя, модель кеширует KV-пары только для активных в данном цикле рекурсии токенов. Это кардинально снижает требования к памяти и ускоряет инференс, решая одну из главных головных болей при развертывании LLM.

При одинаковом бюджете на обучение (в FLOPs) и меньшем размере самой модели MoR показывает более низкую перплексию и лучшие результаты в few-shot задачах, чем стандартные и рекурсивные аналоги.

▶️ Попробовать MoR можно на практике - код для трейна и оценки доступен в репозитории проекта на Github.


📌Лицензирование: Apache 2.0 License.


🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #Architecture #MoR
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
24👍9🔥5😁4