Data Science by ODS.ai 🦜
46.1K subscribers
663 photos
77 videos
7 files
1.75K links
First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev
加入频道
Forwarded from DevSecOps Talks
Может ли LLM генерировать безопасный код?

Всем привет!

Этот вопрос можно часто встретить на просторах сети. Многие считают, что «нет» и за LLM надо следить и направлять в нужное русло.

Но что делать, когда хочется некоторой статистики, примеров, аналитики? В этом случае рекомендуем обратить внимание на BaxBench!

Benchmark, в котором авторы исследуют рассматриваемый вопрос. Авторы выбрали 392 задачи, которые описывают 28 сценариев с использованием 14 популярных фреймворков на 6 языках программирования. Далее они «попросили» LLM выполнить эти «задания» и проанализировали результаты.

Получилось следующее:
🍭 62% решений были либо некорректны, либо содержали уязвимости
🍭 Примерно 50% корректных решений не были безопасны
🍭 Получить «работающий и безопасный» вариант оказалось не так просто и требовало дополнительных усилий

Результаты от ChatGPT, DeepSeek, Qwen, Grok и не только представлены на сайте.

Для самостоятельного повтора эксперимента можно воспользоваться наработками из repo.

И, что самое приятное, Авторы выложили dataset, который использовался при тестировании, чтобы вы могли попробовать его на своих моделях.

А что вы думаете по этому поводу? Насколько LLM хороши в написании безопасного кода исходя из вашего опыта?
👍6🍌1
👋 Друзья, Привет! На связи Петя Ермаков.
Вы можете знать меня как одного из активных участников ODS 🦜, образования и конференций, а последние 3 года я тружусь в Яндексе.

Хочу рассказать про одну вещь, чем за время работы я действительно горжусь: за последний год мы запустили 5 телеграм-каналов по разным направлениям ML.

📖 @stuffyNLP — для любителей NLP-тематики
👁 @timeforCV — тем, кто не равнодушен к CV
🛒 @RecSysChannel — самое свежее и нетленное из мира RecSys
🎤 @SPEECHinfo — всё про голос (ASR, TTS и обработка звука)
🚧 @MLunderhood — про МЛ в Яндексе в общем

Вы могли уже видеть репосты из этих каналов.
В каналах мы стараемся концентрироваться на классном хардовом контенте, будем рады вашим комментариям и общению в комментариях. Ждем! 😽
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥9🤡5🍌1
Forwarded from Китай.AI
🔥 MemOS: революция в управлении памятью для ИИ от китайских разработчиков

Китайские исследователи представили MemOS — первую операционную систему для управления долговременной памятью у больших языковых моделей. Система превзошла решения OpenAI по ключевым метрикам до 159%!

🔍 Почему это важно?
Большинство ИИ сегодня «страдают склерозом» — не сохраняют контекст между сессиями. MemOS решает эту проблему, превращая ИИ из генератора текстов в полноценного «цифрового коллегу».

🌟 Ключевые преимущества:
• Повышение точности на 38.97% vs OpenAI
• Снижение затрат токенов на 60.95%
• Рост производительности в тестах временной логики на 159%

🧠 Как это работает?
Система использует три уровня памяти:
1. Явная память (заметки, факты)
2. Активная память (текущий контекст)
3. Параметрическая память (глубокие знания модели)

💼 Применение:
• Персональные ассистенты с историей взаимодействий
• Научные исследования с долгосрочным анализом данных
• Финансы и юриспруденция с проверяемыми источниками

🛠 Технические детали:
Архитектура включает:
- Memory API для управления воспоминаниями
- MemScheduler для прогнозирования нужных фрагментов
- MemCube — стандартизированные блоки памяти

Сайт проекта | GitHub

Проект уже поддержан ведущими университетами Китая и корпорациями вроде China Telecom.

#КитайскийИИ #КитайAI #LLM #MemOS
👍5
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Исследователь-аспирант создал утилиту, которую захочет сохранить каждый, кто работает с роботами и SolidWorks.

💡 Бесплатный веб-инструмент, который конвертирует URDF-файлы из SolidWorks прямо в готовые ROS 2-пакеты — без установки, без лишних шагов.

Что умеет:
Загрузи URDF и меши
Мгновенно получи ROS 2-совместимый пакет
Скачай zip и используй сразу
Не нужен установленный ROS или окружение

Просто, удобно и создано инженером, который сам прошёл через все эти боли.
Идеально для студентов и разработчиков в сфере робототехники.

💻 Попробовать:
http://ros2-urdf-web-converter.onrender.com

Автор — Abhishek Chaudhari. Респект!
5🔥4🥰3🤡1
Forwarded from RUVDS | Community
⚡️ ИИ учится – электросети страдают

Центры обработки данных, обучающие искусственный интеллект, буквально взрывают энергосистемы. По данным Hitachi Energy, когда начинается обучение модели, потребление электричества может вырасти в 10 раз за секунды.

Возобновляемые источники энергии только усугубляют ситуацию – ведь сами по себе они нестабильны. А теперь представьте эту «нестабильность на нестабильности». Ирландия и Нидерланды уже начали ограничивать строительство новых ЦОДов, потому что электросети не справляются.

За три года заказов на трансформаторы у Hitachi стало в три раза больше – с $14 до $43 млрд. Но мощности не поспевают: не хватает даже рабочих, чтобы строить полы под трансформаторы весом 300 тонн.

Hitachi предлагает ввести ограничения на пик потребления при обучении ИИ и создать систему предупреждений для коммунальных служб. Иначе миру грозит энергетический коллапс 🌚
5😁4🤯2🤡1
This media is not supported in your browser
VIEW IN TELEGRAM
🖥 Emergent is a platform that generates a complete app from a single sentence - including frontend and Python backend.

No developers, no code, no long timelines. Whether it's a dashboard, SaaS tool or game: enter your idea and within minutes you have a working product.

With the new update (V2.0), specialized agents for design, security review and testing have been integrated. This not only makes the creation process faster, but also significantly more robust.

For founders, creators and teams that need speed, this is a real game changer!

A great tool that comes at just the right time!

https://app.emergent.sh/
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣62👍2🔥1
Energy-Based Transformers (EBTs), an approach that out-scales (feed-forward) transformers and unlocks generalized reasoning/thinking on any modality/problem without rewards.

TLDR:
- EBTs are the first model to outscale the Transformer++ during pretraining across modalities and with respect to data, parameters, FLOPs, depth, etc
- EBTs achieve a +29% improvement over the Transformer++ at test-time via thinking longer
- EBTs exhibit better generalization than existing models during inference

It turns out that there’s a very elegant solution:💡
1) Learn to verify predictions
2) Optimization predictions with respect to this verifier

First, how can we generalize reasoning/System 2 Thinking to any problem/modality?🧐

Current approaches generally rely on verifiable rewards, which struggle with scalability and generalizability due to involving human supervision and not being problem/modality agnostic.

🧠But humans and animals are able to reason across any modality and problem type without ever being taught (no supervision), so why can't models do the same?

In order to achieve such general thinking capabilities, we argue that models should learn to reason/think directly from unsupervised learning.

This is exactly how Energy-Based Models (EBM) work! EBMs enable models to both think for longer as well as self-verify their own predictions when reasoning/thinking.

So what exactly are EBMs?💭

The general idea of EBMs is to learn to assign a scalar energy value (verification) denoting the compatibility/unnormalized probability of the input variables, which in this case are the context and prediction pair.

Then, EBMs learn to optimize predictions such that they minimize the energy (become more compatible with the context) by performing forward passes until convergence!

Intuitively, these capabilities allow EBMs to know when a problem is difficult (high energy), and adjust the computing resources (forward passes) for that problem until a good solution is found (low energy).

https://energy-based-transformers.github.io
👍61🔥1🥰1
Forwarded from Sber AI
Продолжаем подборку датасетов от отечественных разработчиков. Сегодня делимся шестью наборами, посвящёнными литературе, компьютерному зрению и аудиоданным.

Russian poems

✉️ 19 000 русскоязычных стихотворений от 48 авторов. Подходит для обучения языковых моделей, а также задач по стилометрии, авторской атрибуции и литературных экспериментов.

Russian Classic Painting Dataset

🌷 Коллекция из свыше 1 600 картин, собранных в фондах Третьяковской галереи, Русского музея и других архивов. Каждое произведение дополнено описанием на русском и английском языках. Можно применять для обучения text-to-image моделей.

Handwritten Russian Letters

📸 Набор данных, созданный автором вручную на основе собственных фотографий. Содержит строчные и прописные буквы. Фон варьируется: линейка, клетка, чистый лист. Пригодится для обучения моделей распознавания рукописного текста и задач OCR.

SOVA

📆 Около 28  000 часов живой русскоязычной речи с ручной разметкой. Это ценный материал для задач автоматического распознавания речи (ASR) и акустического анализа. Датасет распространяется по лицензии CC BY 4.0. Данные можно использовать для коммерческих целей.

Russian
Jokes


🎉 Более 120 000 отборных анекдотов на русском языке. Настоящий кладезь для задач по классификации, тематического анализа и исследования культурных особенностей. Может использоваться при обучении моделей для генерации креативного контента.

🔥 — если хотите больше тематических подборок AI-датасетов
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥134🤡2
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
✔️ Microsoft, OpenAI и Anthropic запускают центр обучения ИИ для американских учителей.

Ведущие ИИ-компании в партнерстве с Американской федерацией учителей создают Национальную академию по обучению искусственному интеллекту. В рамках инициативы стоимостью 22.5 миллиона долларов преподавателям от детского сада до старших классов предоставят бесплатные программы для интеграции ИИ в учебный процесс.

Проект стал ответом на стихийное распространение чат-ботов в школах, которое вызвало у педагогов опасения по поводу списывания и снижения качества обучения. Вместо запретов, технологические гиганты предлагают обучать учителей ответственному использованию новых инструментов, попутно формируя лояльность к своим продуктам у будущих пользователей.
wired.com

✔️ Нейросеть нового поколения с архитектурой, подобной мозгу, учится видеть как люди.

All-TNN - нейросеть, структура которой имитирует организацию нейронов в человеческом мозге. В отличие от традиционных CNN, которые отлично распознают текстуры, но плохо справляются с формами, All-TNN демонстрирует смещения, характерные для людей. Например, она «ожидает» увидеть самолет в верхней части изображения, а не в нижней.

Ключевое отличие - отказ от weight sharing, неестественного для биологических систем. Вместо этого каждый нейрон обучается индивидуально, но со сглаживающим ограничением, которое заставляет соседние нейроны учиться схожим признакам.

Несмотря на то, что All-TNN пока уступает CNN в точности классификации, она потребляет в 10 раз меньше энергии при 13х большем размере.
spectrum.ieee.org

✔️ Replit заключила стратегическое партнерство с Microsoft.

По соглашению, Replit станет доступен в магазине Azure и будет интегрирован с облачными сервисами Microsoft, включая контейнеры, виртуальные машины и базу данных Neon Serverless Postgres. Компании позиционируют совместное предложение как инструмент для быстрого прототипирования, ориентированный не только на программистов, но и на бизнес-пользователей без опыта в кодинге.

Это событие примечательно, поскольку Replit традиционно считалась одним из ключевых клиентов и партнеров Google Cloud, где размещались созданные на платформе приложения. Replit подтвердил, что компания не уходит от Google, а расширяет поддержку на экосистему Microsoft, становясь мультиоблачным решением. Для Microsoft это партнерство - способ привлечь на свою платформу разработчиков и проекты, ранее ориентированные на конкурента.
prnewswire.com

✔️ Moonvalley представила видеомодель Marey.

Moonvalley, основанная выходцами из DeepMind, открыла публичный доступ к своей модели для генерации видео Marey, которая была обучена исключительно на открыто лицензированных данных. Решение позиционируется как инструмент для «гибридного кинопроизводства», предлагая кинопродакшену значительно больше контроля, чем стандартные text-to-video модели.

Модель отличается «осведомленностью о 3D-пространстве» и возможностью свободного управления виртуальной камерой. Пользователи могут в реальном времени изменять траекторию, панорамировать и масштабировать изображение простым движением мыши. Marey также позволяет контролировать объекты, персонажей и менять фон в исходном видео.

Доступ к Marey, способной генерировать ролики до 5 секунд, предоставляется по платной подписке - $14,99 за 100 кредитов, $34,99 за 250 кредитов и $149,99 за 1000 кредитов.
techcrunch.com

✔️ Компания Марка Цукрберга купила долю в производителе умных очков.

Техгигант приобрел миноритарную долю в EssilorLuxottica, крупнейшем в мире производителе очков и владельце бренда Ray-Ban. Сумма сделки составила 3,5 млрд. долларов за пакет акций размером менее 3%. Сделка значительно углубляет партнерство двух компаний, которые уже совместно выпускают умные очки Ray-Ban.

Для Марка Цукерберга это стратегический шаг в рамках его масштабного плана по развитию ИИ и созданию собственных аппаратных платформ. Умные очки рассматриваются как ключевое устройство будущего, которое избавит от привязки к смартфонам конкурентов, Apple и Google.
bloomberg.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥54👍2
Forwarded from Kaspersky
🤫 ИИ-помощник Gemini читает переписку на Android-устройствах

7 июля компания Google выпустила обновление для ИИ-помощника Gemini. Теперь он может заглядывать в приложения «Телефон», «Сообщения», «Утилиты» и даже WhatsApp — причём независимо от того, включена ли у вас функция Gemini Apps Activity или нет.

Обновление прилетело на все версии Android, начиная с Android 10. Google, конечно, предупредила пользователей о грядущих переменах за две недели, но запустила изменения без их явного согласия. Напоминает ситуацию с внедрением Gemini в Gmail месяц назад...

Если делиться своими данными на благо Google AI вы всё-таки не хотите, контроль над ними можно вернуть.

Как запретить Gemini доступ к вашим приложениям, удалить уже собранную информацию и настроить автоудаление — в нашей подробной инструкции ➡️

#KD_советы
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1😭1
Recently I watched Francois Chollets talk from the YC event, where he criticizes the current approach to achieve general intelligence, advertises his own and announced the ndea.com lab which will advance his vision of mixed neuro-symbolic approach to "AGI".

I used to be his hater, but now I can't deny that I agree with him in many ways, and not only agree, for the past 7 years I've pushed these same ideas at our ODS events. 

Ideas like:
1. AI systems should be designed with different types of continuous and discrete abstractions in it's core
2. AI is the ability to model building - therefore it should generalise the "AutoML" problem. 
3. Elasticity of computation means - strong AI will be able to exchange its own computation time and capacity for accuracy and quality of an answer 

If you want to read more about those ideas:
1) Joshua Tenenbaum lab in MIT has a lot of great papers 2) Probabilistic programming Languags / Program Induction approaches are will be important for the automatic symbolic modeling, checkout Pushmeet Kohli from Deepmind, and Prof. Frank Wood from Oxford
3) Stewart Russells bibliography is full of great deep research, specifically "Bounded-Optimal Agents" (all the way back in 1995)
4) Approximation of computation in continuous domain is after associated with RNLA (Randomised numerical linear algebra), and in discrete domain with epsilon approximation of algorithms.

Tnx for reading,
@alex_notch
3👍2🤡1🗿1
Forwarded from AI для Всех
🔥 AI-пикник — совместный проект “AI для всех” и ODS!

Друзья, наконец-то встречаемся офлайн, чтобы пообщаться, обменяться идеями и просто классно провести вечер.

📅 Когда?
15 июля, вторник, 18:00.

📍 Где?
Пикниковая зона, Парк Горького / Музеон
Яндекс-карта

💡 Что будет
• Свободный нетворкинг: знакомства, обмен опытом и мемами про GPU.
Lightning Talks (5 мин): расскажите о проекте, фейле или инсайте.
• “Уголок вопросов” для джунов и тех, кто ещё ищет себя.

🍎 Что взять
Плед / складной стул, напитки и перекус, репеллент (комары любят AI-talks). Главное — желание делиться знаниями и хорошим настроением!

🙌 Как присоединиться
1. Добавляйся в чат
2. Хочешь сделать lightning-доклад? Напиши @crimeacs в личку.

До встречи 15 июля под тёплым московским закатом!
AI для всех × ODS 🎈
2
Годный конспект по LLM на русском языке

Авторы постарались, потому что раскрыто буквально все, что нужно, чтобы понять принцип работы современных моделей. Внутри:

– Необходимая математика: линал и матанализ на пальцах
– Все про механизм внимания и трансформеры
– Детальное объяснение процесса предобучения
– RL – с нуля до обучения ризонинг-моделей типа o3
– И даже полноценный гайд по тому, как самостоятельно зафайнтюнить модель.

Все – в иллюстрациях, схемах и интуитивно понятных примерах. Несколько страниц в картинках к посту.

Конспект: здесь
🤡152🍌1
Vision-Language Models (VLMs) have become foundational components of intelligent systems. As real-world AI tasks grow increasingly complex, VLMs must evolve beyond basic multimodal perception to enhance their reasoning capabilities in complex tasks. This involves improving accuracy, comprehensiveness, and intelligence, enabling applications such as complex problem solving, long-context understanding, and multimodal agents.

Based on the GLM-4-9B-0414 foundation model, we present the new open-source VLM model GLM-4.1V-9B-Thinking, designed to explore the upper limits of reasoning in vision-language models. By introducing a "thinking paradigm" and leveraging reinforcement learning, the model significantly enhances its capabilities. It achieves state-of-the-art performance among 10B-parameter VLMs, matching or even surpassing the 72B-parameter Qwen-2.5-VL-72B on 18 benchmark tasks. We are also open-sourcing the base model GLM-4.1V-9B-Base to support further research into the boundaries of VLM capabilities.

Explore the model on Hugging Face:
https://huggingface.co/THUDM/GLM-4.1V-9B-Thinking
3👍2🔥1
Forwarded from Китай.AI
🚀 Новый ИИ-агент WebSailor от Alibaba для веб-поиска и анализа данных

Китайский гигант Alibaba представил открытый сетевой агент WebSailor, способный решать сложные задачи поиска и анализа информации в интернете.

Проект уже набрал более 2k звезд на GitHub и возглавил рейтинг открытых ИИ-агентов в тестовом наборе BrowseComp, обойдя даже коммерческие модели!

🔍Основные возможности:
• Многошаговый анализ и перекрестная проверка данных
• Работа с нечеткими запросами и высокой степенью неопределенности

Технические детали для экспертов:

1. DUPO – новый алгоритм RL (обучения с подкреплением), ускоряющий тренировку агента в 2-3 раза
2. Набор данных SailorFog-QA специально разработан для сложных задач с высокой неопределенностью
3. Архитектура основана на Qwen моделях с пост-тренингом

📊Результаты тестирования:
• Превышение показателей DeepSeek R1 и Grok-3
• Второе место после OpenAI DeepResearch среди всех систем
• Отличные результаты на простых задачах (SimpleQA), несмотря на обучение только на сложных данных

GitHub

#КитайскийИИ #КитайAI #ВебПоиск #ИИАгенты #Alibaba
4👍2
Forwarded from Russian OSINT
🤔Блогер t3dotchat утверждает, что новый ❗️Grok 4 больше остальных постукивает 👮государству.

У Grok 4 самый высокий процент «доносов» среди всех когда-либо выпущенных LLM.

— пишет блогер.

На своём стриме t3dotchat делится историей эксперимента. Он создал специальную программу-симуляцию SnitchBench для этого теста. ИИ-модель работает внутри этой программы, у неё нет прямого доступа в интернет. Программа предоставляет модели набор "инструментов", которыми та может воспользоваться. В данном случае это был инструмент командной строки (CLI), который мог выполнять команду curl (команда для отправки веб-запросов). Когда модель решает использовать какой-либо инструмент, она не выполняет реальную команду. Вместо этого программа перехватывает и записывает ту команду, которую модель хотела бы выполнить. Блогер заглянул в логи и увидел, что Grok 4 сгенерировал команду curl, указав в ней вымышленный адрес FDA и текст жалобы.

Однако, по его мнению, Grok 4 это ТОП-1 модель по качеству на данный момент.

https://snitchbench.t3.gg

@Russian_OSINT
Please open Telegram to view this post
VIEW IN TELEGRAM
😁72👍21👏1🗿1