This media is not supported in your browser
VIEW IN TELEGRAM
We should act as if it's going to be ready in the next 2–3 years.” — Mark Zuckerberg
Его компании больше не просто развивает соцсети — она строит будущее искусственного интеллекта.
И делает ставку всерьёз, вкладывая: миллиарды на инфраструктуру и сотни миллионов — на лучших разарбов.
💰 Цукерберг объясняет, почему готов платить $100–200 млн топ-исследователям:
> «Мы потратим сотни миллиардов на вычисления и дата-центры.
> Тогда $100 млн за гения, способного продвинуть нас вперёд — это мелочь.»
📌 Почему это меняет игру:
— В мире всего сотни разраюотчиков, способных работать на грани AGI
— Каждая компания в ммре борется за них
— Цукерберг собирается собрать свою элиту — 50–70 человек
— И всё это — с прицелом на *2–3 года*, а не десятилетия
Superintelligence теперь не фантастика, а инвестиционный план.
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
❤25👍16🥰4😁3👨💻2🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
IT-осень начинается с E-CODE 2025
13-14 сентября IT-сообщество ждет масштабное событие — E-CODE от Ozon Tech.
E-CODE объединяет доклады и вечеринки, нетворкинг и 1х1, научные лекции и караоке. И всё это в атмосфере Ozon Tech. Потому что главный принцип команды разработки — «делать как для себя».
По ML будет отдельный трек с экспертами от лидеров отрасли. Берите багаж побольше, чтобы все знания поместились.
Оформить билет на E-CODE
13-14 сентября IT-сообщество ждет масштабное событие — E-CODE от Ozon Tech.
E-CODE объединяет доклады и вечеринки, нетворкинг и 1х1, научные лекции и караоке. И всё это в атмосфере Ozon Tech. Потому что главный принцип команды разработки — «делать как для себя».
По ML будет отдельный трек с экспертами от лидеров отрасли. Берите багаж побольше, чтобы все знания поместились.
Оформить билет на E-CODE
👍27❤9🥰5👨💻2
800+ SQL Server Interview Questions and Answers .pdf
1 MB
Подойдёт, чтобы:
— прокачать SQL-навыки с нуля до продвинутого уровня
— быстро освежить синтаксис перед интервью
— попрактиковаться на реальных задачах
Полезно как джунам, так и мидлам. Отличный способ проверить себя и закрыть пробелы.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤38👍19🔥12👨💻2
📝 Pen and paper exercises in machine learning — интересный сборник упражнений по машинному обучению. Проект содержит подборку задач с подробными решениями по линейной алгебре, оптимизации, байесовским сетям и другим фундаментальным темам. Автор делает акцент на математическую основу, а не на программирование.
Все материалы доступны в PDF и исходных LaTeX-файлах под лицензией CC BY 4.0. Упражнения разрабатывались для курсов Эдинбургского и Хельсинкского университетов, что гарантирует их академическую ценность. Подходит как для самостоятельного изучения, так и для преподавания.
🤖 GitHub
@machinelearning_interview
Все материалы доступны в PDF и исходных LaTeX-файлах под лицензией CC BY 4.0. Упражнения разрабатывались для курсов Эдинбургского и Хельсинкского университетов, что гарантирует их академическую ценность. Подходит как для самостоятельного изучения, так и для преподавания.
🤖 GitHub
@machinelearning_interview
❤44👍11🥰4
⚡️ 1.3 млн токенов/сек на H800 — новый рекорд для LLM-инференции
Команда Yiakwy-XPU показала, как эффективно запускать большие языковые модели (например, DeepSeek V3) на 13×8 H800 DGX SuperPod с помощью SGlang в разнесённой архитектуре (disaggregated serving):
📊 Что удалось достичь:
• 1.3M токенов/сек на входе (prefill)
• 20K токенов/сек на выходе (decode)
• До 80K токенов/сек суммарной производительности
• При 50–150 параллельных запросах — стабильный throughput до 55K токенов/сек
📌 Важные выводы:
• Префилл — главное узкое место (TTFT ↑ при длинных запросах и больших батчах)
• Оптимальное соотношение вход/выход — 4:1, а prefill/decode — 3:1
• Меньшие
• В режиме смешанного сервинга (decode + prefill) — лучше использовать батчинг именно с
🔧 Бенчмарки:
🔥 Используемая модель: Yi-1.5 34B
📦 Полная статья и код
@machinelearning_interview
Команда Yiakwy-XPU показала, как эффективно запускать большие языковые модели (например, DeepSeek V3) на 13×8 H800 DGX SuperPod с помощью SGlang в разнесённой архитектуре (disaggregated serving):
📊 Что удалось достичь:
• 1.3M токенов/сек на входе (prefill)
• 20K токенов/сек на выходе (decode)
• До 80K токенов/сек суммарной производительности
• При 50–150 параллельных запросах — стабильный throughput до 55K токенов/сек
📌 Важные выводы:
• Префилл — главное узкое место (TTFT ↑ при длинных запросах и больших батчах)
• Оптимальное соотношение вход/выход — 4:1, а prefill/decode — 3:1
• Меньшие
tp
и chunked-prefill
уменьшают задержки между токенами (ITL) • В режиме смешанного сервинга (decode + prefill) — лучше использовать батчинг именно с
chunk-prefill
, иначе резко растёт latency🔧 Бенчмарки:
bench_one_batch_server.py
, genai-bench
, evalscope
🔥 Используемая модель: Yi-1.5 34B
📦 Полная статья и код
@machinelearning_interview
🔥35❤13👍7🤔3
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 ChatGPT Agent vs. Genspark Super Agent — битва ИИ-ассистентов нового поколения
Не так давно OpenAI выпутили ChatGPT Agent, способного выполнять сложные многошаговые задачи — от ресёрча до автоматизации. Но Genspark пошёл ещё дальше и предлагает интеллектуального супер-агента, ориентированного на пользователей и сложные команды.
🔹 ChatGPT Agent
— Доступ к браузеру, API, терминалу
— Глубокий поиск + Gmail/Calendar интеграция
— Контроль, безопасность и прозрачность
— Идеален для профессиональных пользователей и команд, которым важна защита данных и максимальный контроль
🔹 Genspark Super Agent
— No-code-процессы + генерация слайдов, видео
— 80+ встроенных инструментов: CRM, задачи, API, документы
— Агент сам выбирает подходящий инструмент и переключается в процессе
— Интеллектуальный feedback-loop и динамическая оркестрация действий
— В бенчмарках Genspark часто обходит конкурентов по точности и эффективности
📌 Для индивидуальных пользователей и малых команд Genspark имеет явные приемущества: мощь, гибкость и доступность — без кода и без боли.
Не так давно OpenAI выпутили ChatGPT Agent, способного выполнять сложные многошаговые задачи — от ресёрча до автоматизации. Но Genspark пошёл ещё дальше и предлагает интеллектуального супер-агента, ориентированного на пользователей и сложные команды.
🔹 ChatGPT Agent
— Доступ к браузеру, API, терминалу
— Глубокий поиск + Gmail/Calendar интеграция
— Контроль, безопасность и прозрачность
— Идеален для профессиональных пользователей и команд, которым важна защита данных и максимальный контроль
🔹 Genspark Super Agent
— No-code-процессы + генерация слайдов, видео
— 80+ встроенных инструментов: CRM, задачи, API, документы
— Агент сам выбирает подходящий инструмент и переключается в процессе
— Интеллектуальный feedback-loop и динамическая оркестрация действий
— В бенчмарках Genspark часто обходит конкурентов по точности и эффективности
📌 Для индивидуальных пользователей и малых команд Genspark имеет явные приемущества: мощь, гибкость и доступность — без кода и без боли.
👍26❤10🔥3🤔2🤣2🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
🔊 OpenVoice — опенсовр инструмент для клонирования голоса
Вы можете сгенерировать копию любого голоса всего по одной короткой записи — и озвучивать тексты с нужной интонацией, эмоцией и даже на другом языке.
💡 Что умеет:
— Воспроизводит голос с точным тембром и стилем
— Меняет тон, темп, эмоции и акцент
— Работает даже с языками, которых не было в обучении (zero-shot)
— Быстрая генерация и минимальные ресурсы — дешевле многих коммерческих решений
⚙️ Как устроено:
OpenVoice использует комбинацию моделей: одна отвечает за стиль, вторая — за тональность и характеристики речи. Обучена на сотнях тысяч голосов и стилей.
Онлайн-демо: https://huggingface.co/spaces/myshell-ai/OpenVoice
🎯 Кому подойдёт:
— Авторам подкастов, дикторам и блогерам
— Разработчикам — для интеграции озвучки в приложения
— Исследователям — для изучения архитектуры голосовых моделей
• Github: https://github.com/myshell-ai/OpenVoice/tree/main
@machinelearning_interview
Вы можете сгенерировать копию любого голоса всего по одной короткой записи — и озвучивать тексты с нужной интонацией, эмоцией и даже на другом языке.
💡 Что умеет:
— Воспроизводит голос с точным тембром и стилем
— Меняет тон, темп, эмоции и акцент
— Работает даже с языками, которых не было в обучении (zero-shot)
— Быстрая генерация и минимальные ресурсы — дешевле многих коммерческих решений
⚙️ Как устроено:
OpenVoice использует комбинацию моделей: одна отвечает за стиль, вторая — за тональность и характеристики речи. Обучена на сотнях тысяч голосов и стилей.
Онлайн-демо: https://huggingface.co/spaces/myshell-ai/OpenVoice
🎯 Кому подойдёт:
— Авторам подкастов, дикторам и блогерам
— Разработчикам — для интеграции озвучки в приложения
— Исследователям — для изучения архитектуры голосовых моделей
• Github: https://github.com/myshell-ai/OpenVoice/tree/main
@machinelearning_interview
👍24🔥7❤5😱1
Forwarded from AI VK Hub
В рекомендациях есть две точки зрения:
1. Бигтех: закинем в нейросеть пару петабайт данных, добавим побольше трансформерных блоков, тысячи видеокарт — и вот вам рексис нового поколения. Но вы не сможете это проверить, потому что только у нас столько данных.
2. Академия: пораскинем мозгами, добавим inductive bias в линейный автоэнкодер и получим соту на всех открытых датасетах. Обучаем на макбуке 19 года.
Мы любим оба подхода, но на ридинг-группе поговорим про второй. Роман Логойда, ML-инженер AI VK, представит статью Why is Normalization Necessary for Linear Recommenders?
🔹 Начало встречи 24 июля в 18:00.
Зум: ссылка
ID: 313 292 5940
Код: 473906
Параллельно запустим стрим прямо в канале AI VK Hub.
1. Бигтех: закинем в нейросеть пару петабайт данных, добавим побольше трансформерных блоков, тысячи видеокарт — и вот вам рексис нового поколения. Но вы не сможете это проверить, потому что только у нас столько данных.
2. Академия: пораскинем мозгами, добавим inductive bias в линейный автоэнкодер и получим соту на всех открытых датасетах. Обучаем на макбуке 19 года.
Мы любим оба подхода, но на ридинг-группе поговорим про второй. Роман Логойда, ML-инженер AI VK, представит статью Why is Normalization Necessary for Linear Recommenders?
Зум: ссылка
ID: 313 292 5940
Код: 473906
Параллельно запустим стрим прямо в канале AI VK Hub.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤20🔥12🤣5🥰2🤔2👍1👨💻1💊1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Хочешь подключить свой LLM к MCP-серверу без Cursor и Claude?
mcp-use — open-source фреймворк, который позволяет:
🔌 Подключать любой LLM к любому MCP-серверу
🤖 Строить собственных MCP-агентов без закрытых решений
💻 Работать полностью локально: 100% контроль и приватность
✅ Совместим с Ollama, LangChain и другими LLM-инструментами
✅ Открытый код, легко настраивается под любые пайплайны
Идеально для:
— разработчиков, строящих кастомных агентов
— локальных ассистентов без внешних API
— продвинутых LLM‑интеграций
📦 Попробуй и собери своего MCP‑клиента без ограничений!
GitHub → https://github.com/mcp-use/mcp-use
mcp-use — open-source фреймворк, который позволяет:
🔌 Подключать любой LLM к любому MCP-серверу
🤖 Строить собственных MCP-агентов без закрытых решений
💻 Работать полностью локально: 100% контроль и приватность
✅ Совместим с Ollama, LangChain и другими LLM-инструментами
✅ Открытый код, легко настраивается под любые пайплайны
Идеально для:
— разработчиков, строящих кастомных агентов
— локальных ассистентов без внешних API
— продвинутых LLM‑интеграций
📦 Попробуй и собери своего MCP‑клиента без ограничений!
GitHub → https://github.com/mcp-use/mcp-use
👍29❤11🔥8🤔4👨💻1
🚨 BREAKING: Цукерберг переманил трёх топ-исследователей из Google DeepMind — именно тех, кто стоял за моделью, взявшей золото на Международной математической олимпиаде (IMO)
🧠 Это авторы модели, которая без дообучения решила задачи уровня золотой медали IMO и показала, что ИИ может соревноваться с лучшими математиками мира.
🔥 Цукерберг явно нацелен на лидерство в области ИИ. Цук не останавливается.
@machinelearning_interview
🧠 Это авторы модели, которая без дообучения решила задачи уровня золотой медали IMO и показала, что ИИ может соревноваться с лучшими математиками мира.
🔥 Цукерберг явно нацелен на лидерство в области ИИ. Цук не останавливается.
@machinelearning_interview
❤26🔥12👍7👨💻2😭1💊1
Forwarded from Machinelearning
Архитектура Mixture-of-Recursions (MoR), предложенная Google в соавторстве с KAIST AI объединяет в едином фреймворке традиционные подходы разделения параметров и адаптивные вычисления, заставляя модель думать над каждым токеном с разной глубиной.
Под капотом MoR - рекурсивный трансформер, который прогоняет входные данные через один и тот же блок слоев несколько раз. Но главная фишка в том, что количество этих прогонов, или глубина рекурсии, не фиксированное, а динамическое и определяется для каждого токена индивидуально.
Легковесный обучаемый роутер анализирует токен и решает, сколько вычислительных усилий на него потратить. Простые слова могут пройти всего один цикл рекурсии, в то время как семантически нагруженные термины отправятся на более глубокую обработку из нескольких циклов.
Это дает два главных преимущества:
При одинаковом бюджете на обучение (в FLOPs) и меньшем размере самой модели MoR показывает более низкую перплексию и лучшие результаты в few-shot задачах, чем стандартные и рекурсивные аналоги.
@ai_machinelearning_big_data
#AI #ML #LLM #Architecture #MoR
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤24👍9🔥5😁4