всем привет, представляем вашему внимаю первый выпуск подкаста "Капитанский мостик", он посвящен важным новостям прошедшей недели; ведущие - Валентин Малых и Дмитрий Колодезев; видео тут:
VK Video
YouTube
присылайте новости для обсуждаения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai)
VK Video
YouTube
присылайте новости для обсуждаения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai)
🔥5❤1
Forwarded from Neural Networks | Нейронные сети
Разрывная: как стать ученым в 2025 году:
>>пишешель и публикуешь научную статью на arXiv;
>>в тексте прячешь промт для ИИ, в котором просишь хвалить и не критиковать твою работу;
>>никто не читает, все просят ChatGPT сделать краткий пересказ;
>>«Конечно, вот ваш пересказ этой КРУТОЙ и ОЧЕНЬ ВАЖНОЙ статьи».
И это прикол, а реальный скандал: уже спалили 17 работ из 14 ведущих вузов мира
>>пишешель и публикуешь научную статью на arXiv;
>>в тексте прячешь промт для ИИ, в котором просишь хвалить и не критиковать твою работу;
>>никто не читает, все просят ChatGPT сделать краткий пересказ;
>>«Конечно, вот ваш пересказ этой КРУТОЙ и ОЧЕНЬ ВАЖНОЙ статьи».
И это прикол, а реальный скандал: уже спалили 17 работ из 14 ведущих вузов мира
😁21👍11🔥8❤3
Forwarded from Machinelearning
Идея «Манхэттенского проекта для ИИ», витавшая последние месяцы на самом высоком уровне в США, кажется, начинает обретать очертания. Но за громкими сравнениями обычно теряется суть: а что это значит на практике?
Аналитики из Epoch AI решили посчитать, какой вычислительный монстр может появиться, если американское правительство консолидирует ресурсы частного сектора и вложит в проект долю ВВП, сопоставимую с пиком лунной программы.
Epoch AI - некоммерческий исследовательский институт, который изучает траекторию развития искусственного интеллекта, анализирует тренды в вычислениях, данных и алгоритмах, чтобы прогнозировать влияние ИИ на экономику и общество.
Расчеты показывают, что к концу 2027 года такой проект мог бы обеспечить тренировочный прогон модели с вычислительной мощностью порядка 2 × 10²⁹ FLOP.
Чтобы понять масштаб: это примерно в 10 000 раз больше, чем потребовалось для обучения GPT-4. По сути, это рывок, который по текущим прогнозам должен был случиться на несколько лет позже.
Финансирование на уровне программы «Аполлон» (около 0.8% ВВП или 244 млрд. долларов сегодня) позволило бы закупить и объединить в один кластер эквивалент 27 миллионов NVIDIA H100. Эта цифра, кстати, совпадает с экстраполяцией текущих доходов NVIDIA от продаж в США.
27 миллионов GPU потребуют около 7.4 ГВт мощности - это больше, чем потребляет весь город Нью-Йорк. Оказывается, это не главная преграда. Аналитики говорят, что к 2027 году в США и так планируется ввод 8.8 ГВт за счет новых газовых электростанций, значительная часть которых уже предназначена для дата-центров.
При наличии политической воли и используя законодательные инструменты, правительство США сможет сконцентрировать эти мощности в одном месте, так что энергия не станет узким местом.
Геополитическая напряженность, например, вокруг Тайваня, может сорвать поставки чипов. Кроме того, нельзя просто так взять и увеличить масштаб в тысячи раз. Масштабирование требует времени на отладочные прогоны и эксперименты, но это скорее инженерное, а не ресурсное ограничение.
Тем не менее, анализ показывает: при должной координации и инвестициях технологический скачок в области ИИ может произойти гораздо быстрее, чем мы думаем. И это уже вполне просчитываемая возможность.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍5🥰3
Forwarded from DevSecOps Talks
Может ли LLM генерировать безопасный код?
Всем привет!
Этот вопрос можно часто встретить на просторах сети. Многие считают, что «нет» и за LLM надо следить и направлять в нужное русло.
Но что делать, когда хочется некоторой статистики, примеров, аналитики? В этом случае рекомендуем обратить внимание на BaxBench!
Benchmark, в котором авторы исследуют рассматриваемый вопрос. Авторы выбрали 392 задачи, которые описывают 28 сценариев с использованием 14 популярных фреймворков на 6 языках программирования. Далее они «попросили» LLM выполнить эти «задания» и проанализировали результаты.
Получилось следующее:
🍭 62% решений были либо некорректны, либо содержали уязвимости
🍭 Примерно 50% корректных решений не были безопасны
🍭 Получить «работающий и безопасный» вариант оказалось не так просто и требовало дополнительных усилий
Результаты от ChatGPT, DeepSeek, Qwen, Grok и не только представлены на сайте.
Для самостоятельного повтора эксперимента можно воспользоваться наработками из repo.
И, что самое приятное, Авторы выложили dataset, который использовался при тестировании, чтобы вы могли попробовать его на своих моделях.
А что вы думаете по этому поводу? Насколько LLM хороши в написании безопасного кода исходя из вашего опыта?
Всем привет!
Этот вопрос можно часто встретить на просторах сети. Многие считают, что «нет» и за LLM надо следить и направлять в нужное русло.
Но что делать, когда хочется некоторой статистики, примеров, аналитики? В этом случае рекомендуем обратить внимание на BaxBench!
Benchmark, в котором авторы исследуют рассматриваемый вопрос. Авторы выбрали 392 задачи, которые описывают 28 сценариев с использованием 14 популярных фреймворков на 6 языках программирования. Далее они «попросили» LLM выполнить эти «задания» и проанализировали результаты.
Получилось следующее:
🍭 62% решений были либо некорректны, либо содержали уязвимости
🍭 Примерно 50% корректных решений не были безопасны
🍭 Получить «работающий и безопасный» вариант оказалось не так просто и требовало дополнительных усилий
Результаты от ChatGPT, DeepSeek, Qwen, Grok и не только представлены на сайте.
Для самостоятельного повтора эксперимента можно воспользоваться наработками из repo.
И, что самое приятное, Авторы выложили dataset, который использовался при тестировании, чтобы вы могли попробовать его на своих моделях.
А что вы думаете по этому поводу? Насколько LLM хороши в написании безопасного кода исходя из вашего опыта?
Baxbench
BaxBench: Can LLMs Generate Secure and Correct Backends?
We introduce a novel benchmark to evaluate LLMs on secure and correct code generation, showing that even flagship LLMs are not ready for coding automation, frequently generating insecure or incorrect code.
👍6🍌1
👋 Друзья, Привет! На связи Петя Ермаков.
Вы можете знать меня как одного из активных участников ODS🦜 , образования и конференций, а последние 3 года я тружусь в Яндексе.
Хочу рассказать про одну вещь, чем за время работы я действительно горжусь: за последний год мы запустили 5 телеграм-каналов по разным направлениям ML.
📖 @stuffyNLP — для любителей NLP-тематики
👁 @timeforCV — тем, кто не равнодушен к CV
🛒 @RecSysChannel — самое свежее и нетленное из мира RecSys
🎤 @SPEECHinfo — всё про голос (ASR, TTS и обработка звука)
🚧 @MLunderhood — про МЛ в Яндексе в общем
Вы могли уже видеть репосты из этих каналов.
В каналах мы стараемся концентрироваться на классном хардовом контенте, будем рады вашим комментариям и общению в комментариях. Ждем! 😽
Вы можете знать меня как одного из активных участников ODS
Хочу рассказать про одну вещь, чем за время работы я действительно горжусь: за последний год мы запустили 5 телеграм-каналов по разным направлениям ML.
📖 @stuffyNLP — для любителей NLP-тематики
👁 @timeforCV — тем, кто не равнодушен к CV
🛒 @RecSysChannel — самое свежее и нетленное из мира RecSys
🎤 @SPEECHinfo — всё про голос (ASR, TTS и обработка звука)
🚧 @MLunderhood — про МЛ в Яндексе в общем
Вы могли уже видеть репосты из этих каналов.
В каналах мы стараемся концентрироваться на классном хардовом контенте, будем рады вашим комментариям и общению в комментариях. Ждем! 😽
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥9🤡5🍌1
Forwarded from Китай.AI
🔥 MemOS: революция в управлении памятью для ИИ от китайских разработчиков
Китайские исследователи представили MemOS — первую операционную систему для управления долговременной памятью у больших языковых моделей. Система превзошла решения OpenAI по ключевым метрикам до 159%!
🔍 Почему это важно?
Большинство ИИ сегодня «страдают склерозом» — не сохраняют контекст между сессиями. MemOS решает эту проблему, превращая ИИ из генератора текстов в полноценного «цифрового коллегу».
🌟 Ключевые преимущества:
• Повышение точности на
• Снижение затрат токенов на
• Рост производительности в тестах временной логики на
🧠 Как это работает?
Система использует три уровня памяти:
1. Явная память (заметки, факты)
2. Активная память (текущий контекст)
3. Параметрическая память (глубокие знания модели)
💼 Применение:
• Персональные ассистенты с историей взаимодействий
• Научные исследования с долгосрочным анализом данных
• Финансы и юриспруденция с проверяемыми источниками
🛠 Технические детали:
Архитектура включает:
- Memory API для управления воспоминаниями
- MemScheduler для прогнозирования нужных фрагментов
- MemCube — стандартизированные блоки памяти
Сайт проекта | GitHub
Проект уже поддержан ведущими университетами Китая и корпорациями вроде China Telecom.
#КитайскийИИ #КитайAI #LLM #MemOS
Китайские исследователи представили MemOS — первую операционную систему для управления долговременной памятью у больших языковых моделей. Система превзошла решения OpenAI по ключевым метрикам до 159%!
🔍 Почему это важно?
Большинство ИИ сегодня «страдают склерозом» — не сохраняют контекст между сессиями. MemOS решает эту проблему, превращая ИИ из генератора текстов в полноценного «цифрового коллегу».
🌟 Ключевые преимущества:
• Повышение точности на
38.97%
vs OpenAI• Снижение затрат токенов на
60.95%
• Рост производительности в тестах временной логики на
159%
🧠 Как это работает?
Система использует три уровня памяти:
1. Явная память (заметки, факты)
2. Активная память (текущий контекст)
3. Параметрическая память (глубокие знания модели)
💼 Применение:
• Персональные ассистенты с историей взаимодействий
• Научные исследования с долгосрочным анализом данных
• Финансы и юриспруденция с проверяемыми источниками
🛠 Технические детали:
Архитектура включает:
- Memory API для управления воспоминаниями
- MemScheduler для прогнозирования нужных фрагментов
- MemCube — стандартизированные блоки памяти
Сайт проекта | GitHub
Проект уже поддержан ведущими университетами Китая и корпорациями вроде China Telecom.
#КитайскийИИ #КитайAI #LLM #MemOS
GitHub
GitHub - MemTensor/MemOS: MemOS (Preview) | Intelligence Begins with Memory
MemOS (Preview) | Intelligence Begins with Memory. Contribute to MemTensor/MemOS development by creating an account on GitHub.
👍5
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Исследователь-аспирант создал утилиту, которую захочет сохранить каждый, кто работает с роботами и SolidWorks.
💡 Бесплатный веб-инструмент, который конвертирует URDF-файлы из SolidWorks прямо в готовые ROS 2-пакеты — без установки, без лишних шагов.
Что умеет:
✅ Загрузи URDF и меши
✅ Мгновенно получи ROS 2-совместимый пакет
✅ Скачай zip и используй сразу
✅ Не нужен установленный ROS или окружение
Просто, удобно и создано инженером, который сам прошёл через все эти боли.
Идеально для студентов и разработчиков в сфере робототехники.
💻 Попробовать:
http://ros2-urdf-web-converter.onrender.com
Автор — Abhishek Chaudhari. Респект!
💡 Бесплатный веб-инструмент, который конвертирует URDF-файлы из SolidWorks прямо в готовые ROS 2-пакеты — без установки, без лишних шагов.
Что умеет:
✅ Загрузи URDF и меши
✅ Мгновенно получи ROS 2-совместимый пакет
✅ Скачай zip и используй сразу
✅ Не нужен установленный ROS или окружение
Просто, удобно и создано инженером, который сам прошёл через все эти боли.
Идеально для студентов и разработчиков в сфере робототехники.
💻 Попробовать:
http://ros2-urdf-web-converter.onrender.com
Автор — Abhishek Chaudhari. Респект!
❤5🔥4🥰3🤡1
Forwarded from RUVDS | Community
⚡️ ИИ учится – электросети страдают
Центры обработки данных, обучающие искусственный интеллект, буквально взрывают энергосистемы. По данным Hitachi Energy, когда начинается обучение модели, потребление электричества может вырасти в 10 раз за секунды.
Возобновляемые источники энергии только усугубляют ситуацию – ведь сами по себе они нестабильны. А теперь представьте эту «нестабильность на нестабильности». Ирландия и Нидерланды уже начали ограничивать строительство новых ЦОДов, потому что электросети не справляются.
За три года заказов на трансформаторы у Hitachi стало в три раза больше – с $14 до $43 млрд. Но мощности не поспевают: не хватает даже рабочих, чтобы строить полы под трансформаторы весом 300 тонн.
Hitachi предлагает ввести ограничения на пик потребления при обучении ИИ и создать систему предупреждений для коммунальных служб. Иначе миру грозит энергетический коллапс 🌚
Центры обработки данных, обучающие искусственный интеллект, буквально взрывают энергосистемы. По данным Hitachi Energy, когда начинается обучение модели, потребление электричества может вырасти в 10 раз за секунды.
Возобновляемые источники энергии только усугубляют ситуацию – ведь сами по себе они нестабильны. А теперь представьте эту «нестабильность на нестабильности». Ирландия и Нидерланды уже начали ограничивать строительство новых ЦОДов, потому что электросети не справляются.
За три года заказов на трансформаторы у Hitachi стало в три раза больше – с $14 до $43 млрд. Но мощности не поспевают: не хватает даже рабочих, чтобы строить полы под трансформаторы весом 300 тонн.
Hitachi предлагает ввести ограничения на пик потребления при обучении ИИ и создать систему предупреждений для коммунальных служб. Иначе миру грозит энергетический коллапс 🌚
❤5😁4🤯2🤡1
This media is not supported in your browser
VIEW IN TELEGRAM
No developers, no code, no long timelines. Whether it's a dashboard, SaaS tool or game: enter your idea and within minutes you have a working product.
With the new update (V2.0), specialized agents for design, security review and testing have been integrated. This not only makes the creation process faster, but also significantly more robust.
For founders, creators and teams that need speed, this is a real game changer!
A great tool that comes at just the right time!
https://app.emergent.sh/
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣6❤2👍2🔥1
⚡ Energy-Based Transformers (EBTs), an approach that out-scales (feed-forward) transformers and unlocks generalized reasoning/thinking on any modality/problem without rewards.
TLDR:
- EBTs are the first model to outscale the Transformer++ during pretraining across modalities and with respect to data, parameters, FLOPs, depth, etc
- EBTs achieve a +29% improvement over the Transformer++ at test-time via thinking longer
- EBTs exhibit better generalization than existing models during inference
It turns out that there’s a very elegant solution:💡
1) Learn to verify predictions
2) Optimization predictions with respect to this verifier
First, how can we generalize reasoning/System 2 Thinking to any problem/modality?🧐
Current approaches generally rely on verifiable rewards, which struggle with scalability and generalizability due to involving human supervision and not being problem/modality agnostic.
🧠But humans and animals are able to reason across any modality and problem type without ever being taught (no supervision), so why can't models do the same?
In order to achieve such general thinking capabilities, we argue that models should learn to reason/think directly from unsupervised learning.
This is exactly how Energy-Based Models (EBM) work! EBMs enable models to both think for longer as well as self-verify their own predictions when reasoning/thinking.
So what exactly are EBMs?💭
The general idea of EBMs is to learn to assign a scalar energy value (verification) denoting the compatibility/unnormalized probability of the input variables, which in this case are the context and prediction pair.
Then, EBMs learn to optimize predictions such that they minimize the energy (become more compatible with the context) by performing forward passes until convergence!
Intuitively, these capabilities allow EBMs to know when a problem is difficult (high energy), and adjust the computing resources (forward passes) for that problem until a good solution is found (low energy).
https://energy-based-transformers.github.io
TLDR:
- EBTs are the first model to outscale the Transformer++ during pretraining across modalities and with respect to data, parameters, FLOPs, depth, etc
- EBTs achieve a +29% improvement over the Transformer++ at test-time via thinking longer
- EBTs exhibit better generalization than existing models during inference
It turns out that there’s a very elegant solution:💡
1) Learn to verify predictions
2) Optimization predictions with respect to this verifier
First, how can we generalize reasoning/System 2 Thinking to any problem/modality?🧐
Current approaches generally rely on verifiable rewards, which struggle with scalability and generalizability due to involving human supervision and not being problem/modality agnostic.
🧠But humans and animals are able to reason across any modality and problem type without ever being taught (no supervision), so why can't models do the same?
In order to achieve such general thinking capabilities, we argue that models should learn to reason/think directly from unsupervised learning.
This is exactly how Energy-Based Models (EBM) work! EBMs enable models to both think for longer as well as self-verify their own predictions when reasoning/thinking.
So what exactly are EBMs?💭
The general idea of EBMs is to learn to assign a scalar energy value (verification) denoting the compatibility/unnormalized probability of the input variables, which in this case are the context and prediction pair.
Then, EBMs learn to optimize predictions such that they minimize the energy (become more compatible with the context) by performing forward passes until convergence!
Intuitively, these capabilities allow EBMs to know when a problem is difficult (high energy), and adjust the computing resources (forward passes) for that problem until a good solution is found (low energy).
https://energy-based-transformers.github.io
👍6❤1🔥1🥰1
Forwarded from Sber AI
Продолжаем подборку датасетов от отечественных разработчиков. Сегодня делимся шестью наборами, посвящёнными литературе, компьютерному зрению и аудиоданным.
Russian poems
✉️ 19 000 русскоязычных стихотворений от 48 авторов. Подходит для обучения языковых моделей, а также задач по стилометрии, авторской атрибуции и литературных экспериментов.
Russian Classic Painting Dataset
🌷 Коллекция из свыше 1 600 картин, собранных в фондах Третьяковской галереи, Русского музея и других архивов. Каждое произведение дополнено описанием на русском и английском языках. Можно применять для обучения text-to-image моделей.
Handwritten Russian Letters
📸 Набор данных, созданный автором вручную на основе собственных фотографий. Содержит строчные и прописные буквы. Фон варьируется: линейка, клетка, чистый лист. Пригодится для обучения моделей распознавания рукописного текста и задач OCR.
SOVA
📆 Около 28 000 часов живой русскоязычной речи с ручной разметкой. Это ценный материал для задач автоматического распознавания речи (ASR) и акустического анализа. Датасет распространяется по лицензии CC BY 4.0. Данные можно использовать для коммерческих целей.
Russian Jokes
🎉 Более 120 000 отборных анекдотов на русском языке. Настоящий кладезь для задач по классификации, тематического анализа и исследования культурных особенностей. Может использоваться при обучении моделей для генерации креативного контента.
🔥 — если хотите больше тематических подборок AI-датасетов
Russian poems
Russian Classic Painting Dataset
Handwritten Russian Letters
SOVA
Russian Jokes
🔥 — если хотите больше тематических подборок AI-датасетов
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13❤4🤡2
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Ведущие ИИ-компании в партнерстве с Американской федерацией учителей создают Национальную академию по обучению искусственному интеллекту. В рамках инициативы стоимостью 22.5 миллиона долларов преподавателям от детского сада до старших классов предоставят бесплатные программы для интеграции ИИ в учебный процесс.
Проект стал ответом на стихийное распространение чат-ботов в школах, которое вызвало у педагогов опасения по поводу списывания и снижения качества обучения. Вместо запретов, технологические гиганты предлагают обучать учителей ответственному использованию новых инструментов, попутно формируя лояльность к своим продуктам у будущих пользователей.
wired.com
All-TNN - нейросеть, структура которой имитирует организацию нейронов в человеческом мозге. В отличие от традиционных CNN, которые отлично распознают текстуры, но плохо справляются с формами, All-TNN демонстрирует смещения, характерные для людей. Например, она «ожидает» увидеть самолет в верхней части изображения, а не в нижней.
Ключевое отличие - отказ от weight sharing, неестественного для биологических систем. Вместо этого каждый нейрон обучается индивидуально, но со сглаживающим ограничением, которое заставляет соседние нейроны учиться схожим признакам.
Несмотря на то, что All-TNN пока уступает CNN в точности классификации, она потребляет в 10 раз меньше энергии при 13х большем размере.
spectrum.ieee.org
По соглашению, Replit станет доступен в магазине Azure и будет интегрирован с облачными сервисами Microsoft, включая контейнеры, виртуальные машины и базу данных Neon Serverless Postgres. Компании позиционируют совместное предложение как инструмент для быстрого прототипирования, ориентированный не только на программистов, но и на бизнес-пользователей без опыта в кодинге.
Это событие примечательно, поскольку Replit традиционно считалась одним из ключевых клиентов и партнеров Google Cloud, где размещались созданные на платформе приложения. Replit подтвердил, что компания не уходит от Google, а расширяет поддержку на экосистему Microsoft, становясь мультиоблачным решением. Для Microsoft это партнерство - способ привлечь на свою платформу разработчиков и проекты, ранее ориентированные на конкурента.
prnewswire.com
Moonvalley, основанная выходцами из DeepMind, открыла публичный доступ к своей модели для генерации видео Marey, которая была обучена исключительно на открыто лицензированных данных. Решение позиционируется как инструмент для «гибридного кинопроизводства», предлагая кинопродакшену значительно больше контроля, чем стандартные text-to-video модели.
Модель отличается «осведомленностью о 3D-пространстве» и возможностью свободного управления виртуальной камерой. Пользователи могут в реальном времени изменять траекторию, панорамировать и масштабировать изображение простым движением мыши. Marey также позволяет контролировать объекты, персонажей и менять фон в исходном видео.
Доступ к Marey, способной генерировать ролики до 5 секунд, предоставляется по платной подписке - $14,99 за 100 кредитов, $34,99 за 250 кредитов и $149,99 за 1000 кредитов.
techcrunch.com
Техгигант приобрел миноритарную долю в EssilorLuxottica, крупнейшем в мире производителе очков и владельце бренда Ray-Ban. Сумма сделки составила 3,5 млрд. долларов за пакет акций размером менее 3%. Сделка значительно углубляет партнерство двух компаний, которые уже совместно выпускают умные очки Ray-Ban.
Для Марка Цукерберга это стратегический шаг в рамках его масштабного плана по развитию ИИ и созданию собственных аппаратных платформ. Умные очки рассматриваются как ключевое устройство будущего, которое избавит от привязки к смартфонам конкурентов, Apple и Google.
bloomberg.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥5❤4👍2
Forwarded from Kaspersky
7 июля компания Google выпустила обновление для ИИ-помощника Gemini. Теперь он может заглядывать в приложения «Телефон», «Сообщения», «Утилиты» и даже WhatsApp — причём независимо от того, включена ли у вас функция Gemini Apps Activity или нет.
Обновление прилетело на все версии Android, начиная с Android 10. Google, конечно, предупредила пользователей о грядущих переменах за две недели, но запустила изменения без их явного согласия.
Если делиться своими данными на благо Google AI вы всё-таки не хотите, контроль над ними можно вернуть.
Как запретить Gemini доступ к вашим приложениям, удалить уже собранную информацию и настроить автоудаление — в нашей подробной инструкции
#KD_советы
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1😭1
Recently I watched Francois Chollets talk from the YC event, where he criticizes the current approach to achieve general intelligence, advertises his own and announced the ndea.com lab which will advance his vision of mixed neuro-symbolic approach to "AGI".
I used to be his hater, but now I can't deny that I agree with him in many ways, and not only agree, for the past 7 years I've pushed these same ideas at our ODS events.
Ideas like:
1. AI systems should be designed with different types of continuous and discrete abstractions in it's core
2. AI is the ability to model building - therefore it should generalise the "AutoML" problem.
3. Elasticity of computation means - strong AI will be able to exchange its own computation time and capacity for accuracy and quality of an answer
If you want to read more about those ideas:
1) Joshua Tenenbaum lab in MIT has a lot of great papers 2) Probabilistic programming Languags / Program Induction approaches are will be important for the automatic symbolic modeling, checkout Pushmeet Kohli from Deepmind, and Prof. Frank Wood from Oxford
3) Stewart Russells bibliography is full of great deep research, specifically "Bounded-Optimal Agents" (all the way back in 1995)
4) Approximation of computation in continuous domain is after associated with RNLA (Randomised numerical linear algebra), and in discrete domain with epsilon approximation of algorithms.
Tnx for reading,
@alex_notch
I used to be his hater, but now I can't deny that I agree with him in many ways, and not only agree, for the past 7 years I've pushed these same ideas at our ODS events.
Ideas like:
1. AI systems should be designed with different types of continuous and discrete abstractions in it's core
2. AI is the ability to model building - therefore it should generalise the "AutoML" problem.
3. Elasticity of computation means - strong AI will be able to exchange its own computation time and capacity for accuracy and quality of an answer
If you want to read more about those ideas:
1) Joshua Tenenbaum lab in MIT has a lot of great papers 2) Probabilistic programming Languags / Program Induction approaches are will be important for the automatic symbolic modeling, checkout Pushmeet Kohli from Deepmind, and Prof. Frank Wood from Oxford
3) Stewart Russells bibliography is full of great deep research, specifically "Bounded-Optimal Agents" (all the way back in 1995)
4) Approximation of computation in continuous domain is after associated with RNLA (Randomised numerical linear algebra), and in discrete domain with epsilon approximation of algorithms.
Tnx for reading,
@alex_notch
YouTube
François Chollet: How We Get To AGI
François Chollet on June 16, 2025 at AI Startup School in San Francisco.
François Chollet is a leading voice in AI. He's the creator of the Keras library, author of Deep Learning with Python, and the founder of the ARC Prize, a global competition aimed at…
François Chollet is a leading voice in AI. He's the creator of the Keras library, author of Deep Learning with Python, and the founder of the ARC Prize, a global competition aimed at…
❤3👍2🤡1🗿1
Forwarded from AI для Всех
🔥 AI-пикник — совместный проект “AI для всех” и ODS!
Друзья, наконец-то встречаемся офлайн, чтобы пообщаться, обменяться идеями и просто классно провести вечер.
📅 Когда?
15 июля, вторник, 18:00.
📍 Где?
Пикниковая зона, Парк Горького / Музеон
Яндекс-карта
💡 Что будет
• Свободный нетворкинг: знакомства, обмен опытом и мемами про GPU.
• Lightning Talks (5 мин): расскажите о проекте, фейле или инсайте.
• “Уголок вопросов” для джунов и тех, кто ещё ищет себя.
🍎 Что взять
Плед / складной стул, напитки и перекус, репеллент (комары любят AI-talks). Главное — желание делиться знаниями и хорошим настроением!
🙌 Как присоединиться
1. Добавляйся в чат
2. Хочешь сделать lightning-доклад? Напиши @crimeacs в личку.
До встречи 15 июля под тёплым московским закатом!
— AI для всех × ODS 🎈
Друзья, наконец-то встречаемся офлайн, чтобы пообщаться, обменяться идеями и просто классно провести вечер.
📅 Когда?
15 июля, вторник, 18:00.
📍 Где?
Пикниковая зона, Парк Горького / Музеон
Яндекс-карта
💡 Что будет
• Свободный нетворкинг: знакомства, обмен опытом и мемами про GPU.
• Lightning Talks (5 мин): расскажите о проекте, фейле или инсайте.
• “Уголок вопросов” для джунов и тех, кто ещё ищет себя.
🍎 Что взять
Плед / складной стул, напитки и перекус, репеллент (комары любят AI-talks). Главное — желание делиться знаниями и хорошим настроением!
🙌 Как присоединиться
1. Добавляйся в чат
2. Хочешь сделать lightning-доклад? Напиши @crimeacs в личку.
До встречи 15 июля под тёплым московским закатом!
— AI для всех × ODS 🎈
❤2
Годный конспект по LLM на русском языке
Авторы постарались, потому что раскрыто буквально все, что нужно, чтобы понять принцип работы современных моделей. Внутри:
– Необходимая математика: линал и матанализ на пальцах
– Все про механизм внимания и трансформеры
– Детальное объяснение процесса предобучения
– RL – с нуля до обучения ризонинг-моделей типа o3
– И даже полноценный гайд по тому, как самостоятельно зафайнтюнить модель.
Все – в иллюстрациях, схемах и интуитивно понятных примерах. Несколько страниц в картинках к посту.
Конспект: здесь
Авторы постарались, потому что раскрыто буквально все, что нужно, чтобы понять принцип работы современных моделей. Внутри:
– Необходимая математика: линал и матанализ на пальцах
– Все про механизм внимания и трансформеры
– Детальное объяснение процесса предобучения
– RL – с нуля до обучения ризонинг-моделей типа o3
– И даже полноценный гайд по тому, как самостоятельно зафайнтюнить модель.
Все – в иллюстрациях, схемах и интуитивно понятных примерах. Несколько страниц в картинках к посту.
Конспект: здесь
🤡15❤2🍌1