Google продолжают радовать прикладными модельками: они выпустили диагностическую медицинскую ИИ-систему
Особенность guardrailed-AMIE (g-AMIE) в том, что она создана именно как помощник врача, а не его замена. Вместо того, чтобы давать какие-то медицинские рекомендации, модель просто формирует для живого специалиста информационную сводку и гипотезы, которые стоит проверить.
В основе Gemini 2.0 Flash, но тут важнее форма процесса. За все отвечают три агента:
1. Диалоговый. Он опрашивает пациента, запрашивает какие-то необходимые документы и делает краткое заключение с гипотезами и описанием случая.
2. Проверяющий. Чекает, чтобы ничего из того, что написал диалоговый, не представляло из себя медицинскую рекомендацию (такую дать может только врач)
3. SOAP-агент. Генерирует итоговый отчет. Сначала объективные заключения, потом гипотезы и план их проверки, зачем черновик заключения для пациента.
Результаты передаются в руки врачу. Тот в специальном интерфейсе все просматривает, редактирует и решает, какой окончательный диагноз поставить и что делать с пациентом.
Google тут молодцы именно в том, что не пытаются бежать вперед паровоза и заменить врача, а ориентируются на реальную ситуацию в сфере. Понятно, что ставить полностью автономного агента в клинике никто не будет, но вот такая система, которая просто помогает врачу, не снимая с него основную ответственность за принятие решений, вполне может работать в любой больнице уже завтра почти без рисков.
Ну и да: по точности предлагаемых диагнозов и плана лечения (а еще по уровню эмпатии) g-AMIE обошла и врачей, и младший мед.персонал.
research.google/blog/enabling-physician-centered-oversight-for-amie/
Особенность guardrailed-AMIE (g-AMIE) в том, что она создана именно как помощник врача, а не его замена. Вместо того, чтобы давать какие-то медицинские рекомендации, модель просто формирует для живого специалиста информационную сводку и гипотезы, которые стоит проверить.
В основе Gemini 2.0 Flash, но тут важнее форма процесса. За все отвечают три агента:
1. Диалоговый. Он опрашивает пациента, запрашивает какие-то необходимые документы и делает краткое заключение с гипотезами и описанием случая.
2. Проверяющий. Чекает, чтобы ничего из того, что написал диалоговый, не представляло из себя медицинскую рекомендацию (такую дать может только врач)
3. SOAP-агент. Генерирует итоговый отчет. Сначала объективные заключения, потом гипотезы и план их проверки, зачем черновик заключения для пациента.
Результаты передаются в руки врачу. Тот в специальном интерфейсе все просматривает, редактирует и решает, какой окончательный диагноз поставить и что делать с пациентом.
Google тут молодцы именно в том, что не пытаются бежать вперед паровоза и заменить врача, а ориентируются на реальную ситуацию в сфере. Понятно, что ставить полностью автономного агента в клинике никто не будет, но вот такая система, которая просто помогает врачу, не снимая с него основную ответственность за принятие решений, вполне может работать в любой больнице уже завтра почти без рисков.
Ну и да: по точности предлагаемых диагнозов и плана лечения (а еще по уровню эмпатии) g-AMIE обошла и врачей, и младший мед.персонал.
research.google/blog/enabling-physician-centered-oversight-for-amie/
1❤148❤🔥31👍29🕊18👏6🗿1
Data Secrets
Пекин вызвал Дженсена Хуанга на ковер из-за проблем с безопасностью в чипах Nvidia Сообщается, что какие-то американские эксперты (кто именно, не уточняется) нашли в видеокартах H20 некие уязвимости (какие именно, также не уточняется), из-за которых можно…
Ну мем: сразу после того, как Хуанг согласился отстегивать правительству США 15% прибыли на лицензию за продажу в Китае, китайское правительство решило, что они больше не хотят покупать видеокарты Nvidia
Они распорядились крупнейшим местным технологическим компаниям – ByteDance, Alibaba и Tencent – приостановить закупки чипов Nvidia, в первую очередь модели H20 (той самой, на которую Дженсен так выбивал лицензию).
Все из-за опасений по поводу национальной безопасности и угроз информационной безопасности. Помните же историю, когда некие американские исследователи распустили сплетню о том, что Nvidia зашивает в свои китайские чипы локаторы и устройства удаленного управления? Так вот хоть это был и фейк, в Китае все-таки не на шутку разволновались по этому поводу.
Сюжет для сериала, и только
Они распорядились крупнейшим местным технологическим компаниям – ByteDance, Alibaba и Tencent – приостановить закупки чипов Nvidia, в первую очередь модели H20 (той самой, на которую Дженсен так выбивал лицензию).
Все из-за опасений по поводу национальной безопасности и угроз информационной безопасности. Помните же историю, когда некие американские исследователи распустили сплетню о том, что Nvidia зашивает в свои китайские чипы локаторы и устройства удаленного управления? Так вот хоть это был и фейк, в Китае все-таки не на шутку разволновались по этому поводу.
Сюжет для сериала, и только
1😁123 39👍31❤9🔥9🤔3🗿3🤨1 1
Китайский стартап Z․ai выпустил открытую гибридную модель GLM-4.5, сравнимую по способностям с западным closed-source
Релиз приятный по всем параметрам: опенсорс, встроенный tool use, отличные метрики на агентских задачах, математике и программировании (уровень примерно o3), полностью свободная лицензия и все это примерно в пять раз дешевле Grok 4 и Claude Sonnet.
В общем, 100% стоит попробовать для своих проектов. Например, модель первыми добавили в Cloud․ru и потестировать ее там вы можете прямо сейчас.
Для этого перейдите в сервис Evolution Foundation Models. Там уже добавлено больше 20 популярных моделей. Выбираете нужную – и используете из коробки. Развертывать инференс или писать код не нужно, достаточно подключиться через OpenAI-совместимый API.
Кстати, с помощью плагина Roo Code можно в два клика интегрировать в VS Code новую модель и вайб-кодить с ней дешево в свое удовольствие.
Пробуем тут
Релиз приятный по всем параметрам: опенсорс, встроенный tool use, отличные метрики на агентских задачах, математике и программировании (уровень примерно o3), полностью свободная лицензия и все это примерно в пять раз дешевле Grok 4 и Claude Sonnet.
В общем, 100% стоит попробовать для своих проектов. Например, модель первыми добавили в Cloud․ru и потестировать ее там вы можете прямо сейчас.
Для этого перейдите в сервис Evolution Foundation Models. Там уже добавлено больше 20 популярных моделей. Выбираете нужную – и используете из коробки. Развертывать инференс или писать код не нужно, достаточно подключиться через OpenAI-совместимый API.
Кстати, с помощью плагина Roo Code можно в два клика интегрировать в VS Code новую модель и вайб-кодить с ней дешево в свое удовольствие.
Пробуем тут
1👍63🔥23🗿16🤨14🤯11 9 4❤3🤔3 3
Perplexity в очередной раз сделали маркетинговый ход конем и заявили, что собираются купить Google Chrome
Чтобы вы понимали:
– Perplexity целиком оценивается примерно в 18 миллиардов долларов
– Chrome стоит 34.5 миллиарда
Даже при привлечении огромных денег от инвесторов стартап вряд ли потянет покупку (а там еще огромный штаб разработчиков, которым надо платить зп, и гигантские траты на серверы). На рынке, где есть OpenAI и остальные, такой лакомый кусочек вряд ли достанется Perplexity.
Зато сколько шума они навели и сколько внимания к себе привлекли. Абсолютно все СМИ сегодня пишут об этой новости, а Perplexity, вероятно, только это и надо было: создать себе репутацию сильной богатой компании, которая может себе позволить даже Chrome
Респект
Чтобы вы понимали:
– Perplexity целиком оценивается примерно в 18 миллиардов долларов
– Chrome стоит 34.5 миллиарда
Даже при привлечении огромных денег от инвесторов стартап вряд ли потянет покупку (а там еще огромный штаб разработчиков, которым надо платить зп, и гигантские траты на серверы). На рынке, где есть OpenAI и остальные, такой лакомый кусочек вряд ли достанется Perplexity.
Зато сколько шума они навели и сколько внимания к себе привлекли. Абсолютно все СМИ сегодня пишут об этой новости, а Perplexity, вероятно, только это и надо было: создать себе репутацию сильной богатой компании, которая может себе позволить даже Chrome
Респект
1 233😁75👍51❤18🦄8🔥6🗿6 6👾3🐳2💯1
Что спрашивают на собеседовании в OpenAI
Мы тут бороздили Интернет и нашли золото: инженер, который только что вышел на работу в OpenAI, написал огромный блог-пост про процесс отбора в стартап. И выглядит это как ультимативный гайд по тому, как прокачаться в прохождении собесов на любую ML-роль.
Итак, пересказываем максимально кратко:
1 этап – Recruiter intro (15–30 мин).
Это просто базовый скрин: вам рассказывают про команду, этапы, сроки, правила прохождения интервью и тд. Вы рассказываете о себе. Обязательно нужно подготовиться, порепетировать с друзьями, быть кратким, задать вопросы и все записать.
2 этап – Hiring Manager chat. Вопросы в духе почему вы подходите этой команде и тд. На этом этапе уже важно понимать цели компании, показать предметный интерес и соблюдать баланс скромности и уверенности.
3 этап – Кодинг.
Начинается самое интересное. Вот что могут спросить, например:
– дебаггинг трансформера (ошибка может быть в механизме внимания, например, или в форме тензоров)
– реализация KV-cache, BPE или обратного распространения с нуля
– классика алгоритмов: Дейкстра, кучи, сортировки, бинарный поиск
Автор пишет, что тут важнее делать быстро, чем идеально качественно. Лучше оставлять #todo и assert, чем путаться и тормозить. Ну а с подготовкой все просто: 100+ часов на LeetCode и столько же на чтение и имплементацию статей.
4 этап – ML.
Проверяют фундамент + какие-то актуальные знания. Например, могут спросить: supervised vs unsupervised, математика линейной регрессии, как обучить модель с контекстом 10М токенов, GRPO vs PPO, методы интерпретируемости. Тут опять же: читаем много статей и базовые книги.
5 этап – Поведенческое интервью.
Проверяют, как вы действуете в сложных ситуациях. К этому интервью тоже не забываем готовиться и отвечаем всегда по методу STAR(I): Situation, Task, Action, Result, Insight. Отдельно готовимся к вопросам про провал и конфликты, они будут обязательно.
Вот так как-то, за деталями – в сам блогпост. Там еще кучу полезного можно найти: инсайты, полезные ресурсы, советы по тому, как выбивать себе зп и так далее.
Уловом с утра – довольны 🍯
Мы тут бороздили Интернет и нашли золото: инженер, который только что вышел на работу в OpenAI, написал огромный блог-пост про процесс отбора в стартап. И выглядит это как ультимативный гайд по тому, как прокачаться в прохождении собесов на любую ML-роль.
Итак, пересказываем максимально кратко:
1 этап – Recruiter intro (15–30 мин).
Это просто базовый скрин: вам рассказывают про команду, этапы, сроки, правила прохождения интервью и тд. Вы рассказываете о себе. Обязательно нужно подготовиться, порепетировать с друзьями, быть кратким, задать вопросы и все записать.
2 этап – Hiring Manager chat. Вопросы в духе почему вы подходите этой команде и тд. На этом этапе уже важно понимать цели компании, показать предметный интерес и соблюдать баланс скромности и уверенности.
3 этап – Кодинг.
Начинается самое интересное. Вот что могут спросить, например:
– дебаггинг трансформера (ошибка может быть в механизме внимания, например, или в форме тензоров)
– реализация KV-cache, BPE или обратного распространения с нуля
– классика алгоритмов: Дейкстра, кучи, сортировки, бинарный поиск
Автор пишет, что тут важнее делать быстро, чем идеально качественно. Лучше оставлять #todo и assert, чем путаться и тормозить. Ну а с подготовкой все просто: 100+ часов на LeetCode и столько же на чтение и имплементацию статей.
4 этап – ML.
Проверяют фундамент + какие-то актуальные знания. Например, могут спросить: supervised vs unsupervised, математика линейной регрессии, как обучить модель с контекстом 10М токенов, GRPO vs PPO, методы интерпретируемости. Тут опять же: читаем много статей и базовые книги.
5 этап – Поведенческое интервью.
Проверяют, как вы действуете в сложных ситуациях. К этому интервью тоже не забываем готовиться и отвечаем всегда по методу STAR(I): Situation, Task, Action, Result, Insight. Отдельно готовимся к вопросам про провал и конфликты, они будут обязательно.
Вот так как-то, за деталями – в сам блогпост. Там еще кучу полезного можно найти: инсайты, полезные ресурсы, советы по тому, как выбивать себе зп и так далее.
Уловом с утра – довольны 🍯
1❤190🔥63👍42🤯9 7😁5🕊4🤔1💯1
Пошел слух, что скоро выйдет DeepSeek R2
Якобы из внутренних каналов стартапа в сеть просочились упоминания о релизе между 15 и 30 августа и даже некоторые технические детали модели.
Говорят, что это MoE на 1.2 триллиона параметров с новой техникой роутинга, которая будет бегать исключительно на китайских чипах Huawei Ascend 910B (из-за перехода на которые и возникла задержка с выпуском).
Сама компания, по словам инсайдеров, слухи опровергает и не называет точных дат релиза. Такое повторяется уже не первый раз (сначала журналисты обещали 17 марта, потом конец мая, а сейчас вот август).
Но воз и ныне там. А жаль. По DeepSeek мы уже успели соскучиться
Якобы из внутренних каналов стартапа в сеть просочились упоминания о релизе между 15 и 30 августа и даже некоторые технические детали модели.
Говорят, что это MoE на 1.2 триллиона параметров с новой техникой роутинга, которая будет бегать исключительно на китайских чипах Huawei Ascend 910B (из-за перехода на которые и возникла задержка с выпуском).
Сама компания, по словам инсайдеров, слухи опровергает и не называет точных дат релиза. Такое повторяется уже не первый раз (сначала журналисты обещали 17 марта, потом конец мая, а сейчас вот август).
Но воз и ныне там. А жаль. По DeepSeek мы уже успели соскучиться
1👍101🐳79🔥27😁4 3❤2😍2
Data Secrets
Что мы имели в виду, когда писали, что «шкалы на графиках те еще» Просто присмотритесь 😁
В Москве пройдет Data Driven – конференция для тех, кто хочет уметь рисовать графики лучше, чем OpenAI
Ладно, на самом деле аналитика – это, конечно, не только рисование графиков. Data Driven как раз про это. И соберутся там те, кто умеет превращать данные в рост метрик и прибыль, а не только в дашборды.
Два трека:
1️⃣ для продуктовых, data-аналитиков и data scientists;
2️⃣ data-инженеров, системных и BI-аналитиков.
Будет масштабно: много практики, доклады от экспертов, нетворкинг с C-level, квизы, квесты с реальными кейсами и подарки (даже роботы!). А в конце — афтепати с фуршетом и музыкой.
20 сентября. Москва. Можно приехать лично или подключиться онлайн.
Регистрация тут, места пока есть
Кто не зарегался, у того 52.8 будет больше, чем 68.1
Ладно, на самом деле аналитика – это, конечно, не только рисование графиков. Data Driven как раз про это. И соберутся там те, кто умеет превращать данные в рост метрик и прибыль, а не только в дашборды.
Два трека:
Будет масштабно: много практики, доклады от экспертов, нетворкинг с C-level, квизы, квесты с реальными кейсами и подарки (даже роботы!). А в конце — афтепати с фуршетом и музыкой.
20 сентября. Москва. Можно приехать лично или подключиться онлайн.
Регистрация тут, места пока есть
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁35❤20🔥6🗿5👍3🤯1👌1
Игорь Бабушкин, сооснователь xAI и один из главных архитекторов команды, объявил об уходе из компании
Бывший инженер DeepMind и OpenAI (а теперь уже и xAI) запускает фонд Babuschkin Ventures🧖 . Задача — инвестировать в проекты по AI-safety и агентные системы, которые, по его словам, «помогут продвигать человечество и раскрывать тайны Вселенной».
В прощальном посте он выделил два принципа, которым научился у Маска: лично вникать в технические задачи и работать с маниакальным чувством срочности.
Для xAI это уже третья заметная потеря топ-кадров за последние месяцы — на фоне жёсткой конкуренции с OpenAI, Google и Anthropic такие новости явно не добавляют спокойствия Илону
Бывший инженер DeepMind и OpenAI (а теперь уже и xAI) запускает фонд Babuschkin Ventures
В прощальном посте он выделил два принципа, которым научился у Маска: лично вникать в технические задачи и работать с маниакальным чувством срочности.
Для xAI это уже третья заметная потеря топ-кадров за последние месяцы — на фоне жёсткой конкуренции с OpenAI, Google и Anthropic такие новости явно не добавляют спокойствия Илону
Please open Telegram to view this post
VIEW IN TELEGRAM
1 173🔥33❤21 12👍9 7🦄5😁4 4🤔2
Data Secrets
Юра Борисов может сыграть Илью Суцкевера в фильме про увольнение Альтмана Фильм снимает режиссер «Претендентов». В сюжете – события осени 2023, когда Сэма драматически уволили, а потом восстановили на позицию CEO OpenAI. На роль Альтмана, кстати, хотят…
Папарацци сняли Эндрю Гарфилда в образе Альтмана и Юру Борисова в образе Суцкевера на съемках фильма Artificial (про события осени 2023 и увольнение Сэма из OpenAI)
Лучше второй фотографии вы сегодня точно ничего не увидите🐘
Лучше второй фотографии вы сегодня точно ничего не увидите
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁291 39 37 20❤19👍15🔥5🐳3🗿3👻2
Google выпустили Gemma 3 270М – одну из самых компактных моделей индустрии
Да, именно 270M, а не B. Совсем кроха, которую запустить действительно можно чуть ли не на утюге. Она и создана специально для этого, и даже оптимизирована с точки зрения энергоэффективности: в INT4 квантизации на Pixel 9 Pro съедает всего 0.75% батареи за 25 диалогов.
И кстати, для такого размера очень неплохие показатели следования инструкциям: на IF-Eval 51.2%. По этому показателю модель обходит даже Qwen 2.5 0.5В, который почти в два раза больше.
Для чего использовать:
1. Конечно, локальный запуск. Для кода не подойдет, но для генерации простого текста сгодится.
2. Быстрое простое дообучение под вашу задачу (например, под entity extraction или какой-нибудь sentiment-анализ подойдет отлично).
3. Edge/Internet of Things. Модельку реально можно встроить в колонку, чайник или холодильник и развлекаться👉
Отличная штука для экспериментов, в общем
Веса
Да, именно 270M, а не B. Совсем кроха, которую запустить действительно можно чуть ли не на утюге. Она и создана специально для этого, и даже оптимизирована с точки зрения энергоэффективности: в INT4 квантизации на Pixel 9 Pro съедает всего 0.75% батареи за 25 диалогов.
И кстати, для такого размера очень неплохие показатели следования инструкциям: на IF-Eval 51.2%. По этому показателю модель обходит даже Qwen 2.5 0.5В, который почти в два раза больше.
Для чего использовать:
1. Конечно, локальный запуск. Для кода не подойдет, но для генерации простого текста сгодится.
2. Быстрое простое дообучение под вашу задачу (например, под entity extraction или какой-нибудь sentiment-анализ подойдет отлично).
3. Edge/Internet of Things. Модельку реально можно встроить в колонку, чайник или холодильник и развлекаться
Отличная штука для экспериментов, в общем
Веса
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥183👍49❤24🤩4👌3❤🔥1😁1🤝1
Есть такая штука — SEO. Это когда ты ведешь условно-бесплатный трафик из поисковиков на сайт, сервис или блог.
Причём она зачастую даёт лидов в 5-10 раз дешевле, чем по рекламе. А работать может годами, если один раз всё правильно настроить.
Но у 90% людей это вызывает панику, потому что вокруг сео много мутных типов и мифов. А нормальных сеошников можно буквально пересчитать по пальцам. И один из лучших в сфере — Антон Маркин.
Он уже 16 лет занимается SEO и публично продвигает сайты подписчиков, пошагово показывает все ошибки и делится только тем, что реально работает.
Антон даже полных новичков учит настраивать SEO так, что клиенты платят им за результат годами. А владельцы сайтов самостоятельно оптимизируют свои страницы и получают самый дешёвый целевой трафик.
В общем, если у вас свой сайт или вы начинающий сеошник и хотите быстро выйти на стабильные 100к в месяц — обязательно подпишитесь на Антона: @markin_seo
Причём она зачастую даёт лидов в 5-10 раз дешевле, чем по рекламе. А работать может годами, если один раз всё правильно настроить.
Но у 90% людей это вызывает панику, потому что вокруг сео много мутных типов и мифов. А нормальных сеошников можно буквально пересчитать по пальцам. И один из лучших в сфере — Антон Маркин.
Он уже 16 лет занимается SEO и публично продвигает сайты подписчиков, пошагово показывает все ошибки и делится только тем, что реально работает.
Антон даже полных новичков учит настраивать SEO так, что клиенты платят им за результат годами. А владельцы сайтов самостоятельно оптимизируют свои страницы и получают самый дешёвый целевой трафик.
В общем, если у вас свой сайт или вы начинающий сеошник и хотите быстро выйти на стабильные 100к в месяц — обязательно подпишитесь на Антона: @markin_seo
🗿51🤓19 14 11😁10❤6👍3🤯3👌3 3🤨2
Media is too big
VIEW IN TELEGRAM
В Китае прошел забег роботов
Там сейчас проходят World Humanoid Robot Games, сегодня первый день. Это буквально олимпийские игры для роботов. 280 команд из 16 стран приехали посоревноваться в 26 дисциплинах. В их числе – бег.
Победил робот от Unitree, модель H1. Он пробежал достаточно бодро: 1500 метров за 6 минут 34 секунды. Человеческий рекорд на такой трассе – 3:26.
Правда, по пути гуманоид успел кого-то сбить, но, как говорится, и так сойдет😳
Там сейчас проходят World Humanoid Robot Games, сегодня первый день. Это буквально олимпийские игры для роботов. 280 команд из 16 стран приехали посоревноваться в 26 дисциплинах. В их числе – бег.
Победил робот от Unitree, модель H1. Он пробежал достаточно бодро: 1500 метров за 6 минут 34 секунды. Человеческий рекорд на такой трассе – 3:26.
Правда, по пути гуманоид успел кого-то сбить, но, как говорится, и так сойдет
Please open Telegram to view this post
VIEW IN TELEGRAM
😁136❤54🔥24 14👾8⚡3👍3🤯3🗿3👀1
This media is not supported in your browser
VIEW IN TELEGRAM
MetaAI выпустили DINOv3 – первую в мире vision foundation модель, которая обходит по качеству специализированные решения
Это универсальная открытая модель, которая подходит почти для любых задач компьютерного зрения: детекция, сегментация, depth estimation, dense prediction.
При этом на всех этих задачах она стабильно превосходит не только предыдущие foundation-модели, но и узкоспециализированные решения, заточенные на отдельные задачи (даже CLIP-based, SigLIP 2 и Perception Encoder). Это фактически исторический сдвиг.
Но это не единственная особенность DINOv3. Модель (внимание!) обучена вообще без разметки, то есть в режиме self-supervised learning. Собственно, это заложено в названии: DINO – DIstillation with NO labels.
Ядро – Vision Transformer. На вход огромный корпус изображений (более 2 миллиардов снимков) и ни одной аннотации, чистые пиксели. Обучение происходило по схеме студент/учитель:
Выглядит витиевато, но суть в том, что в процессе студент учится находить инвариантные признаки, устойчивые к преобразованиям. Например, модель понимает, что кошка на разных участках фотографии – всё та же кошка, а не новые объекты.
Как использовать на практике:
➖ Вот тут лежит бэкбон. Это основная часть сетки, которую в большинстве случаев вам дообучать не придется. Он уже заморожен и готов к применению.
➖ К нему цепляем адаптер. Это обычно небольшой дополнительный линейный слой или линейная голова. Адаптер преобразует фичи из бэкбона под конкретную задачу: классификацию, сегментацию, детекцию, depth estimation и тд.
➖ Если задач сразу несколько, можно шарить фичи на лету. То есть стоимость и время инференса почти не увеличатся, а сетка будет выполнять для вас сразу несколько тасок.
Спасибо, Цукер, сегодня порадовал
Блогпост
Это универсальная открытая модель, которая подходит почти для любых задач компьютерного зрения: детекция, сегментация, depth estimation, dense prediction.
При этом на всех этих задачах она стабильно превосходит не только предыдущие foundation-модели, но и узкоспециализированные решения, заточенные на отдельные задачи (даже CLIP-based, SigLIP 2 и Perception Encoder). Это фактически исторический сдвиг.
Но это не единственная особенность DINOv3. Модель (внимание!) обучена вообще без разметки, то есть в режиме self-supervised learning. Собственно, это заложено в названии: DINO – DIstillation with NO labels.
Ядро – Vision Transformer. На вход огромный корпус изображений (более 2 миллиардов снимков) и ни одной аннотации, чистые пиксели. Обучение происходило по схеме студент/учитель:
1. На каждое изображение применяют набор аугментаций. Например, вырезают из него какие-то части (кропы).
2. Разные варианты изображения (разные кропы) поступают на вход студенту и учителю. Это две копии одной нейросети, но изначально с разными весами.
3. Студента учат воспроизводить предсказания учителя для кропов из одного и того же изображения, даже если сами кропы абсолютно разные. Лосс – кросс-энтропия между выходом студента и учителя, но градиент считают только по студенту.
Выглядит витиевато, но суть в том, что в процессе студент учится находить инвариантные признаки, устойчивые к преобразованиям. Например, модель понимает, что кошка на разных участках фотографии – всё та же кошка, а не новые объекты.
Как использовать на практике:
Спасибо, Цукер, сегодня порадовал
Блогпост
Please open Telegram to view this post
VIEW IN TELEGRAM
3🤯120👍66🔥43❤26 4☃1😁1
Уйти в IT и эффективно качать навыки — мечта?
Вы, конечно, знаете, что многие оценивают доход айтишника как очень высокий и хотя бы раз задумывались о смене профессии. Такой ажиотаж немного напрягает, кажется, конкуренция будет только расти. Сразу хочется ещё больше прокачать скилы, что-то новое узнать и программы новые освоить…
Ну для начала можно пройти обучающие курсы, которые укрепят базу и систематизируют знания. Например, практические интенсивы по сервисам Yandex Cloud для инженеров, аналитиков, архитекторов и DevOps‑инженеров.
Суть интенсивов в том, что теоретический материал совмещён с практикой: предусмотрены лабораторные работы с обратной связью, доступ к инфраструктуре Yandex Cloud на время интенсива, а также воркшопы и Q&A‑сессии с наставниками.
Старт ClickHouse для дата‑инженеров уже 25 августа, Kubernetes для разработчиков — 8 сентября, а DataLens Enterprise для администраторов — 6 октября.
Длительность интенсива — 4–6 недель, до 8 часов в неделю.
Кроме того, по итогам успешного прохождения интенсива участники получают сертификат — явное преимущество при трудоустройстве.
Вы, конечно, знаете, что многие оценивают доход айтишника как очень высокий и хотя бы раз задумывались о смене профессии. Такой ажиотаж немного напрягает, кажется, конкуренция будет только расти. Сразу хочется ещё больше прокачать скилы, что-то новое узнать и программы новые освоить…
Ну для начала можно пройти обучающие курсы, которые укрепят базу и систематизируют знания. Например, практические интенсивы по сервисам Yandex Cloud для инженеров, аналитиков, архитекторов и DevOps‑инженеров.
Суть интенсивов в том, что теоретический материал совмещён с практикой: предусмотрены лабораторные работы с обратной связью, доступ к инфраструктуре Yandex Cloud на время интенсива, а также воркшопы и Q&A‑сессии с наставниками.
Старт ClickHouse для дата‑инженеров уже 25 августа, Kubernetes для разработчиков — 8 сентября, а DataLens Enterprise для администраторов — 6 октября.
Длительность интенсива — 4–6 недель, до 8 часов в неделю.
Кроме того, по итогам успешного прохождения интенсива участники получают сертификат — явное преимущество при трудоустройстве.
1🗿49🤨9❤6😁6👾4🤯3🍓2👍1
В Claude Code добавили два новых режима работы
1. Пояснительный, когда агент объясняет свои действия шаг за шагом. Поможет разобраться, что он делает и почему. Полезно, если не хотите, чтобы после вайб-кодинга ваш проект стал для вас темным лесом.
2. Обучающий, когда модель пишет код с вами пошагово, а не генерирует готовый скрипт целиком сразу. Похоже на парное программирование с ментором.
Переключить режим можно в настройках или с помощью команды /output-style. Обучающий стиль также завезли в основной чат, там он доступен всем пользователям бесплатно.
Приятно 🍯
Документация
1. Пояснительный, когда агент объясняет свои действия шаг за шагом. Поможет разобраться, что он делает и почему. Полезно, если не хотите, чтобы после вайб-кодинга ваш проект стал для вас темным лесом.
2. Обучающий, когда модель пишет код с вами пошагово, а не генерирует готовый скрипт целиком сразу. Похоже на парное программирование с ментором.
Переключить режим можно в настройках или с помощью команды /output-style. Обучающий стиль также завезли в основной чат, там он доступен всем пользователям бесплатно.
Приятно 🍯
Документация
2❤173🔥57👍17🤯4🤔3😁1
В ближайшем будущем рекомендации в X могут начать работать на Grok 4 Mini
Об этом написал Илон Маск. Он говорит, что они прямо сейчас тестируют новый алгоритм, и что он работают явно лучше.
Есть нюанс: чтобы раскатить такое на всех пользователей, потребуется около 20000 GPU, и даже при этом задержка обновления ленты значительно увеличится. Но Маск говорит, что игра «может стоить свеч».
Об этом написал Илон Маск. Он говорит, что они прямо сейчас тестируют новый алгоритм, и что он работают явно лучше.
Есть нюанс: чтобы раскатить такое на всех пользователей, потребуется около 20000 GPU, и даже при этом задержка обновления ленты значительно увеличится. Но Маск говорит, что игра «может стоить свеч».
👍77 47🤯13❤7🗿5😁3
Хаха, зацените: внутренний мерч Anthropic
Кстати, дизайн придумал и реализовал агент Claudius (тот самый, который работал у них в офисе в вендинговом автомате)
Теперь срочно надо такую же😛
Кстати, дизайн придумал и реализовал агент Claudius (тот самый, который работал у них в офисе в вендинговом автомате)
Теперь срочно надо такую же
Please open Telegram to view this post
VIEW IN TELEGRAM
2😁224🔥58❤21👍11🗿6👀4🦄3❤🔥1