Data Secrets
76.2K subscribers
5.77K photos
552 videos
20 files
2.25K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN

https://telega.in/c/data_secrets
加入频道
Google продолжают радовать прикладными модельками: они выпустили диагностическую медицинскую ИИ-систему

Особенность guardrailed-AMIE (g-AMIE) в том, что она создана именно как помощник врача, а не его замена. Вместо того, чтобы давать какие-то медицинские рекомендации, модель просто формирует для живого специалиста информационную сводку и гипотезы, которые стоит проверить.

В основе Gemini 2.0 Flash, но тут важнее форма процесса. За все отвечают три агента:

1. Диалоговый. Он опрашивает пациента, запрашивает какие-то необходимые документы и делает краткое заключение с гипотезами и описанием случая.

2. Проверяющий. Чекает, чтобы ничего из того, что написал диалоговый, не представляло из себя медицинскую рекомендацию (такую дать может только врач)

3. SOAP-агент. Генерирует итоговый отчет. Сначала объективные заключения, потом гипотезы и план их проверки, зачем черновик заключения для пациента.

Результаты передаются в руки врачу. Тот в специальном интерфейсе все просматривает, редактирует и решает, какой окончательный диагноз поставить и что делать с пациентом.

Google тут молодцы именно в том, что не пытаются бежать вперед паровоза и заменить врача, а ориентируются на реальную ситуацию в сфере. Понятно, что ставить полностью автономного агента в клинике никто не будет, но вот такая система, которая просто помогает врачу, не снимая с него основную ответственность за принятие решений, вполне может работать в любой больнице уже завтра почти без рисков.

Ну и да: по точности предлагаемых диагнозов и плана лечения (а еще по уровню эмпатии) g-AMIE обошла и врачей, и младший мед.персонал.

research.google/blog/enabling-physician-centered-oversight-for-amie/
1148❤‍🔥31👍29🕊18👏6🗿1
Data Secrets
Пекин вызвал Дженсена Хуанга на ковер из-за проблем с безопасностью в чипах Nvidia Сообщается, что какие-то американские эксперты (кто именно, не уточняется) нашли в видеокартах H20 некие уязвимости (какие именно, также не уточняется), из-за которых можно…
Ну мем: сразу после того, как Хуанг согласился отстегивать правительству США 15% прибыли на лицензию за продажу в Китае, китайское правительство решило, что они больше не хотят покупать видеокарты Nvidia

Они распорядились крупнейшим местным технологическим компаниям – ByteDance, Alibaba и Tencent – приостановить закупки чипов Nvidia, в первую очередь модели H20 (той самой, на которую Дженсен так выбивал лицензию).

Все из-за опасений по поводу национальной безопасности и угроз информационной безопасности. Помните же историю, когда некие американские исследователи распустили сплетню о том, что Nvidia зашивает в свои китайские чипы локаторы и устройства удаленного управления? Так вот хоть это был и фейк, в Китае все-таки не на шутку разволновались по этому поводу.

Сюжет для сериала, и только
1😁12339👍319🔥9🤔3🗿3🤨11
Китайский стартап Z․ai выпустил открытую гибридную модель GLM-4.5, сравнимую по способностям с западным closed-source

Релиз приятный по всем параметрам: опенсорс, встроенный tool use, отличные метрики на агентских задачах, математике и программировании (уровень примерно o3), полностью свободная лицензия и все это примерно в пять раз дешевле Grok 4 и Claude Sonnet.

В общем, 100% стоит попробовать для своих проектов. Например, модель первыми добавили в Cloud․ru и потестировать ее там вы можете прямо сейчас.

Для этого перейдите в сервис Evolution Foundation Models. Там уже добавлено больше 20 популярных моделей. Выбираете нужную – и используете из коробки. Развертывать инференс или писать код не нужно, достаточно подключиться через OpenAI-совместимый API.

Кстати, с помощью плагина Roo Code можно в два клика интегрировать в VS Code новую модель и вайб-кодить с ней дешево в свое удовольствие.

Пробуем тут
1👍63🔥23🗿16🤨14🤯11943🤔33
Perplexity в очередной раз сделали маркетинговый ход конем и заявили, что собираются купить Google Chrome

Чтобы вы понимали:
– Perplexity целиком оценивается примерно в 18 миллиардов долларов
– Chrome стоит 34.5 миллиарда

Даже при привлечении огромных денег от инвесторов стартап вряд ли потянет покупку (а там еще огромный штаб разработчиков, которым надо платить зп, и гигантские траты на серверы). На рынке, где есть OpenAI и остальные, такой лакомый кусочек вряд ли достанется Perplexity.

Зато сколько шума они навели и сколько внимания к себе привлекли. Абсолютно все СМИ сегодня пишут об этой новости, а Perplexity, вероятно, только это и надо было: создать себе репутацию сильной богатой компании, которая может себе позволить даже Chrome

Респект
1233😁75👍5118🦄8🔥6🗿66👾3🐳2💯1
Что спрашивают на собеседовании в OpenAI

Мы тут бороздили Интернет и нашли золото: инженер, который только что вышел на работу в OpenAI, написал огромный блог-пост про процесс отбора в стартап. И выглядит это как ультимативный гайд по тому, как прокачаться в прохождении собесов на любую ML-роль.

Итак, пересказываем максимально кратко:

1 этап – Recruiter intro (15–30 мин).
Это просто базовый скрин: вам рассказывают про команду, этапы, сроки, правила прохождения интервью и тд. Вы рассказываете о себе. Обязательно нужно подготовиться, порепетировать с друзьями, быть кратким, задать вопросы и все записать.

2 этап – Hiring Manager chat. Вопросы в духе почему вы подходите этой команде и тд. На этом этапе уже важно понимать цели компании, показать предметный интерес и соблюдать баланс скромности и уверенности.

3 этап – Кодинг.
Начинается самое интересное. Вот что могут спросить, например:
– дебаггинг трансформера (ошибка может быть в механизме внимания, например, или в форме тензоров)
– реализация KV-cache, BPE или обратного распространения с нуля
– классика алгоритмов: Дейкстра, кучи, сортировки, бинарный поиск

Автор пишет, что тут важнее делать быстро, чем идеально качественно. Лучше оставлять #todo и assert, чем путаться и тормозить. Ну а с подготовкой все просто: 100+ часов на LeetCode и столько же на чтение и имплементацию статей.

4 этап – ML.
Проверяют фундамент + какие-то актуальные знания. Например, могут спросить: supervised vs unsupervised, математика линейной регрессии, как обучить модель с контекстом 10М токенов, GRPO vs PPO, методы интерпретируемости. Тут опять же: читаем много статей и базовые книги.

5 этап – Поведенческое интервью.
Проверяют, как вы действуете в сложных ситуациях. К этому интервью тоже не забываем готовиться и отвечаем всегда по методу STAR(I): Situation, Task, Action, Result, Insight. Отдельно готовимся к вопросам про провал и конфликты, они будут обязательно.

Вот так как-то, за деталями – в сам блогпост. Там еще кучу полезного можно найти: инсайты, полезные ресурсы, советы по тому, как выбивать себе зп и так далее.

Уловом с утра – довольны 🍯
1190🔥63👍42🤯97😁5🕊4🤔1💯1
Пошел слух, что скоро выйдет DeepSeek R2

Якобы из внутренних каналов стартапа в сеть просочились упоминания о релизе между 15 и 30 августа и даже некоторые технические детали модели.

Говорят, что это MoE на 1.2 триллиона параметров с новой техникой роутинга, которая будет бегать исключительно на китайских чипах Huawei Ascend 910B (из-за перехода на которые и возникла задержка с выпуском).

Сама компания, по словам инсайдеров, слухи опровергает и не называет точных дат релиза. Такое повторяется уже не первый раз (сначала журналисты обещали 17 марта, потом конец мая, а сейчас вот август).

Но воз и ныне там. А жаль. По DeepSeek мы уже успели соскучиться
1👍101🐳79🔥27😁432😍2
Data Secrets
Что мы имели в виду, когда писали, что «шкалы на графиках те еще» Просто присмотритесь 😁
В Москве пройдет Data Driven – конференция для тех, кто хочет уметь рисовать графики лучше, чем OpenAI

Ладно, на самом деле аналитика – это, конечно, не только рисование графиков. Data Driven как раз про это. И соберутся там те, кто умеет превращать данные в рост метрик и прибыль, а не только в дашборды.

Два трека:
1️⃣ для продуктовых, data-аналитиков и data scientists;
2️⃣ data-инженеров, системных и BI-аналитиков.

Будет масштабно: много практики, доклады от экспертов, нетворкинг с C-level, квизы, квесты с реальными кейсами и подарки (даже роботы!). А в конце — афтепати с фуршетом и музыкой.

20 сентября. Москва. Можно приехать лично или подключиться онлайн.

Регистрация тут, места пока есть

Кто не зарегался, у того 52.8 будет больше, чем 68.1
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁3520🔥6🗿5👍3🤯1👌1
Игорь Бабушкин, сооснователь xAI и один из главных архитекторов команды, объявил об уходе из компании

Бывший инженер DeepMind и OpenAI (а теперь уже и xAI) запускает фонд Babuschkin Ventures 🧖. Задача — инвестировать в проекты по AI-safety и агентные системы, которые, по его словам, «помогут продвигать человечество и раскрывать тайны Вселенной».

В прощальном посте он выделил два принципа, которым научился у Маска: лично вникать в технические задачи и работать с маниакальным чувством срочности.

Для xAI это уже третья заметная потеря топ-кадров за последние месяцы — на фоне жёсткой конкуренции с OpenAI, Google и Anthropic такие новости явно не добавляют спокойствия Илону
Please open Telegram to view this post
VIEW IN TELEGRAM
1173🔥332112👍97🦄5😁44🤔2
Data Secrets
Юра Борисов может сыграть Илью Суцкевера в фильме про увольнение Альтмана Фильм снимает режиссер «Претендентов». В сюжете – события осени 2023, когда Сэма драматически уволили, а потом восстановили на позицию CEO OpenAI. На роль Альтмана, кстати, хотят…
Папарацци сняли Эндрю Гарфилда в образе Альтмана и Юру Борисова в образе Суцкевера на съемках фильма Artificial (про события осени 2023 и увольнение Сэма из OpenAI)

Лучше второй фотографии вы сегодня точно ничего не увидите 🐘
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁29139372019👍15🔥5🐳3🗿3👻2
Google выпустили Gemma 3 270М – одну из самых компактных моделей индустрии

Да, именно 270M, а не B. Совсем кроха, которую запустить действительно можно чуть ли не на утюге. Она и создана специально для этого, и даже оптимизирована с точки зрения энергоэффективности: в INT4 квантизации на Pixel 9 Pro съедает всего 0.75% батареи за 25 диалогов.

И кстати, для такого размера очень неплохие показатели следования инструкциям: на IF-Eval 51.2%. По этому показателю модель обходит даже Qwen 2.5 0.5В, который почти в два раза больше.

Для чего использовать:
1. Конечно, локальный запуск. Для кода не подойдет, но для генерации простого текста сгодится.
2. Быстрое простое дообучение под вашу задачу (например, под entity extraction или какой-нибудь sentiment-анализ подойдет отлично).
3. Edge/Internet of Things. Модельку реально можно встроить в колонку, чайник или холодильник и развлекаться 👉

Отличная штука для экспериментов, в общем

Веса
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥183👍4924🤩4👌3❤‍🔥1😁1🤝1
Есть такая штука — SEO. Это когда ты ведешь условно-бесплатный трафик из поисковиков на сайт, сервис или блог.

Причём она зачастую даёт лидов в 5-10 раз дешевле, чем по рекламе. А работать может годами, если один раз всё правильно настроить.

Но у 90% людей это вызывает панику, потому что вокруг сео много мутных типов и мифов. А нормальных сеошников можно буквально пересчитать по пальцам. И один из лучших в сфере — Антон Маркин.

Он уже 16 лет занимается SEO и публично продвигает сайты подписчиков, пошагово показывает все ошибки и делится только тем, что реально работает.

Антон даже полных новичков учит настраивать SEO так, что клиенты платят им за результат годами. А владельцы сайтов самостоятельно оптимизируют свои страницы и получают самый дешёвый целевой трафик.

В общем, если у вас свой сайт или вы начинающий сеошник и хотите быстро выйти на стабильные 100к в месяц — обязательно подпишитесь на Антона: @markin_seo
🗿51🤓191411😁106👍3🤯3👌33🤨2
Media is too big
VIEW IN TELEGRAM
В Китае прошел забег роботов

Там сейчас проходят World Humanoid Robot Games, сегодня первый день. Это буквально олимпийские игры для роботов. 280 команд из 16 стран приехали посоревноваться в 26 дисциплинах. В их числе – бег.

Победил робот от Unitree, модель H1. Он пробежал достаточно бодро: 1500 метров за 6 минут 34 секунды. Человеческий рекорд на такой трассе – 3:26.

Правда, по пути гуманоид успел кого-то сбить, но, как говорится, и так сойдет 😳
Please open Telegram to view this post
VIEW IN TELEGRAM
😁13654🔥2414👾83👍3🤯3🗿3👀1
This media is not supported in your browser
VIEW IN TELEGRAM
MetaAI выпустили DINOv3 – первую в мире vision foundation модель, которая обходит по качеству специализированные решения

Это универсальная открытая модель, которая подходит почти для любых задач компьютерного зрения: детекция, сегментация, depth estimation, dense prediction.

При этом на всех этих задачах она стабильно превосходит не только предыдущие foundation-модели, но и узкоспециализированные решения, заточенные на отдельные задачи (даже CLIP-based, SigLIP 2 и Perception Encoder). Это фактически исторический сдвиг.

Но это не единственная особенность DINOv3. Модель (внимание!) обучена вообще без разметки, то есть в режиме self-supervised learning. Собственно, это заложено в названии: DINO – DIstillation with NO labels.

Ядро – Vision Transformer. На вход огромный корпус изображений (более 2 миллиардов снимков) и ни одной аннотации, чистые пиксели. Обучение происходило по схеме студент/учитель:

1. На каждое изображение применяют набор аугментаций. Например, вырезают из него какие-то части (кропы).
2. Разные варианты изображения (разные кропы) поступают на вход студенту и учителю. Это две копии одной нейросети, но изначально с разными весами.
3. Студента учат воспроизводить предсказания учителя для кропов из одного и того же изображения, даже если сами кропы абсолютно разные. Лосс – кросс-энтропия между выходом студента и учителя, но градиент считают только по студенту.


Выглядит витиевато, но суть в том, что в процессе студент учится находить инвариантные признаки, устойчивые к преобразованиям. Например, модель понимает, что кошка на разных участках фотографии – всё та же кошка, а не новые объекты.

Как использовать на практике:
Вот тут лежит бэкбон. Это основная часть сетки, которую в большинстве случаев вам дообучать не придется. Он уже заморожен и готов к применению.
К нему цепляем адаптер. Это обычно небольшой дополнительный линейный слой или линейная голова. Адаптер преобразует фичи из бэкбона под конкретную задачу: классификацию, сегментацию, детекцию, depth estimation и тд.
Если задач сразу несколько, можно шарить фичи на лету. То есть стоимость и время инференса почти не увеличатся, а сетка будет выполнять для вас сразу несколько тасок.

Спасибо, Цукер, сегодня порадовал

Блогпост
Please open Telegram to view this post
VIEW IN TELEGRAM
3🤯120👍66🔥432641😁1
Уйти в IT и эффективно качать навыки — мечта?

Вы, конечно, знаете, что многие оценивают доход айтишника как очень высокий и хотя бы раз задумывались о смене профессии. Такой ажиотаж немного напрягает, кажется, конкуренция будет только расти. Сразу хочется ещё больше прокачать скилы, что-то новое узнать и программы новые освоить…

Ну для начала можно пройти обучающие курсы, которые укрепят базу и систематизируют знания. Например, практические интенсивы по сервисам Yandex Cloud для инженеров, аналитиков, архитекторов и DevOps‑инженеров.

Суть интенсивов в том, что теоретический материал совмещён с практикой: предусмотрены лабораторные работы с обратной связью, доступ к инфраструктуре Yandex Cloud на время интенсива, а также воркшопы и Q&A‑сессии с наставниками.

Старт ClickHouse для дата‑инженеров уже 25 августа, Kubernetes для разработчиков — 8 сентября, а DataLens Enterprise для администраторов — 6 октября.
Длительность интенсива — 4–6 недель, до 8 часов в неделю.

Кроме того, по итогам успешного прохождения интенсива участники получают сертификат — явное преимущество при трудоустройстве.
1🗿49🤨96😁6👾4🤯3🍓2👍1
В Claude Code добавили два новых режима работы

1. Пояснительный, когда агент объясняет свои действия шаг за шагом. Поможет разобраться, что он делает и почему. Полезно, если не хотите, чтобы после вайб-кодинга ваш проект стал для вас темным лесом.

2. Обучающий, когда модель пишет код с вами пошагово, а не генерирует готовый скрипт целиком сразу. Похоже на парное программирование с ментором.

Переключить режим можно в настройках или с помощью команды /output-style. Обучающий стиль также завезли в основной чат, там он доступен всем пользователям бесплатно.

Приятно 🍯

Документация
2173🔥57👍17🤯4🤔3😁1
Случайно наткнулись

Это статья 2018 года. Получается, всего 7 лет назад.

Если бы они тогда знали…
1😁1454119116🔥4🗿4
В ближайшем будущем рекомендации в X могут начать работать на Grok 4 Mini

Об этом написал Илон Маск. Он говорит, что они прямо сейчас тестируют новый алгоритм, и что он работают явно лучше.

Есть нюанс: чтобы раскатить такое на всех пользователей, потребуется около 20000 GPU, и даже при этом задержка обновления ленты значительно увеличится. Но Маск говорит, что игра «может стоить свеч».
👍7747🤯137🗿5😁3
Хаха, зацените: внутренний мерч Anthropic

Кстати, дизайн придумал и реализовал агент Claudius (тот самый, который работал у них в офисе в вендинговом автомате)

Теперь срочно надо такую же 😛
Please open Telegram to view this post
VIEW IN TELEGRAM
2😁224🔥5821👍11🗿6👀4🦄3❤‍🔥1