Forwarded from Яндекс
This media is not supported in your browser
VIEW IN TELEGRAM
В сервисе появились новые редакторы текстовых документов и таблиц с простым интерфейсом. Благодаря переходу на собственную платформу Яндекса они работают быстрее и справляются даже с документами на 1000 страниц, а редактировать их могут до 100 пользователей одновременно.
В текстовом редакторе доступна нейросеть YandexGPT 4. Она исправит опечатки, упростит текст и, например, перепишет его в разговорном стиле. Выбирайте стили из пресетов или описывайте задачу сами — во всплывающем окне.
Подписывайтесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Ребята из Microsoft собрали все исследования, выходившие на тему изменений в работе сотрудников — конечно же, с фокусом на ИИ.
Там море интересного, обязательно почитайте — я выписал пару хайлайтов, а потом удалил две трети, чтобы вместить в один пост хотя бы оставшееся.
— в организациях, которые использовали Gen AI, количество создаваемых и редактируемых документов выросло в среднем на 10%, время на взаимодействие с письмами уменьшилось на 4%, а количество прочитанных писем снизилось на 11%.
— эффект от ИИ в разных профессиях разный и, что интересно, по-разному зависит от скила: так в исследовании службы поддержки у опытных сотрудников прирост эффективности был меньше,чем у новичков, а в исследовании предпринимателей, ученых и художников — наоборот.
— крутые промпты легко могут терять эффективность даже при переходе от менее к более мощной модели.
— люди часто попадают в ошибку «если ИИ что-то ответил, он это нашел, а не сгенерил», относясь к GPT-чатам как к поиску по базе знаний, хотя суть вообще не в этом. Это заблуждение приводит к ложным ожиданиям безошибочности.
Поэтому правильный путь — объяснять ограничения системы юзеру, выделять, как проверить ответы ИИ (сноски на источники) и делать процесс проверки простым (не думать, что одни только сноски помогут).
— чат-боты давно не лучший способ общения с ИИ — на передовую выходят «notebooks» и подобные способы отрисовки результатов работы промптов. Эффективнее те инструменты, которые позволяют использовать ИИ контекстно (выделяя, рисуя, передавая как можно больше контекста — не только из страницы как поверхности применения ИИ, но и из внешних источников, чтобы предугадать желания юзера).
Please open Telegram to view this post
VIEW IN TELEGRAM
Мои друзья из TGStat традиционно радуют всех пишущих авторов Telegram-каналов новогодними открытками.
Как получить открытку?
1. Переходим в бота @TGStat_Bot
2. Отправляем команду "
2024 @username
", подставив username/ссылку на свой канал/чат3. Наслаждаемся красотой и делимся с подписчиками
С наступающим новым годом — и помните, что как бы много (или мало) вы ни писали, как бы много (или мало) ни росли подписчики... вы — молодцы ❤️
P.S. Свои открытки можно кидать в комментарии к посту со ссылками на свои каналы — давайте знакомиться :)
Please open Telegram to view this post
VIEW IN TELEGRAM
Новые возможности в сервисах выдаются пользователям двумя способами:
— opt-in (юзер сам включает фичу)
— opt-out (фича сразу включена у всех, юзер сам выключает фичу, если ему не понравилось).
Эти политики очень сильно влияют на конверсию, поэтому, конечно, любой менеджер продукта хочет раздавать свою фичу через opt-out.
Но мир ИИ-релизов рождает необходимость не только делать крутые сервисы, но и собирать пользовательские данные. И вот как поступают крупные компании, когда заходит речь о том, не спросить ли людей, можно ли использовать их данные для обучения:
— Figma
Если вы не на Organization/Enterprise планах, ваши данные используются для обучения моделей — даже если вы платите деньги Фигме. Отключить можно одним кликом в настройках.
— Miro
Если вы не платите деньги, ваши запросы и передаваемый контент используются для обучения.
Microsoft, Adobe, Notion и многие другие придерживаются противоположного подхода — и утверждают, что не обучают модели на данных пользователей. Правда, это не мешает им покупать данные сервисов, которые собрали данные пользователей — например, от ребят, спарсивших кусок YouTube.
Как напоминает Константин, если вы не платите за товар, товар — это вы.
В частности, напоминаю, что бесплатная версия СhatGPT радостно использует каждый запрос для последующего обучения модели.
Please open Telegram to view this post
VIEW IN TELEGRAM
Делает Google это, конечно, с задорным заголовком «мы даем AI каждой компании, потому что это новый стандарт» — и это правда так. Теперь все ИИ-фичи Gemini доступны каждому бизнесу без доплат.
Но заодно ребята повышают цены на все тарифы (на $2, а не на стоимость аддона — $30).
В моем мире это называется
В то же время ребята выдают и Copilot, и ИИ-фичи, а заодно повышают стоимость подписки Microsoft 365 для персонального и семейного использования на $3 — для новых безвозвратно, а для старых пользователей — с возможностью пост-фактум прожать галочку «хочу откатиться до предыдущего уровня». Те, кто ее все же прожмут, получат тариф по старым ценам, но уже без каких-либо серьезных обновлений, кроме исправления уязвимостей.
То есть: Google повышает цены в B2B, включая все ИИ-фичи в базовые тарифы. Microsoft — повышает цены в B2C, поступая аналогично.
Но при этом, в отличие от Google, Microsoft сохраняет ИИ-опцию за $20 — и в нее входит не только приоритетный доступ к новым фичам и моделям, но и использование самого ИИ без ограничений. У бесплатных же пользователей есть шанс упереться в лимит — в него попадает любое действие, совершенное с ИИ, будь то генерация текста в Word или вопрос в Copilot.
...фактически, мы наблюдаем, как две самые заметные компании в продуктивити по-разному меняют стратегии в разных сегментах.
Посмотрим, какая продержится дольше.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Интернет-культура (Konstantin)
Китайский DeepSeek обогнал в App Store все известные ИИ-чаты и всё это без единого интервью у Лекса Фридмана и Джо Рогана.
То есть буквально миллионы американцев прямо сейчас заливают туда свои документы, скриншоты, мысли…
Нет, ну, зато ТикТок забанили😬
То есть буквально миллионы американцев прямо сейчас заливают туда свои документы, скриншоты, мысли…
Нет, ну, зато ТикТок забанили
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖Промпт-инжиниринг в 2025 году
Примерно все уже решили, что промпт-инжиниринг не нужен. Современные модели неплохо справляются даже со сложными запросами. Но время от времени в медиапространстве появляются противоположные мнения — кто-то шутит про ложный тренд, кто-то публикует подборки лучших фраз для промптов.
Есть нюансы, которые важно проговорить. Разделим применение промптов на три части:
— ежедневная работа с нейросетями
Ты пишешь запрос — нейросеть отвечает. Claude 3.5 или o3-mini не требуют сложных промптов. Всё, что нужно, уже заложено в системе, поэтому нет смысла усложнять взаимодействие — хотя все равно важно докидывать контекст и уточнять формат ответа.
— работа с Deep Research.
Здесь все иначе. Агентские системы со средним временем ответа в 20 минут требуют детальных и структурированных запросов. Мне понравилась метафора из X: «просто представьте, что вы пишете письмо, а не общаетесь в чате». В чате можно писать коротко: «привет, есть вопрос, сейчас расскажу» (но никогда так не делайте). А в письме вы сразу описываете всё подробно. Так же нужно работать и с Deep Research. Это не промпт-инжиниринг в классическом понимании, а просто другой подход к формулировке запросов — как на картинке.
— нейросети в продуктах и сервисах
И вот здесь как раз промпт-инженеры действительно необходимы. Когда команда разрабатывает нейрофичи, нужно, чтобы система работала стабильно в 99,9% случаев, а не «когда повезет». Промпт-инженеры создают идеальные промпты, учитывающие все пограничные случаи, обеспечивая корректные ответы в любых ситуациях.
Например, вы пишете саммаризатор отзывов для маркетплейса:
— если нейросеть не может саммаризовать отзывы, она должна дать ответ об этом в заранее установленном формате
— если данных недостаточно, чтобы заполнить тот или иной раздел, это тоже надо обработать корректно
— если есть противоречающие параграфы, поведение для такого тоже надо продумать.
— если на вход пришли некорректные данные (пользователь в плюсах товара описал минусы), с этим надо уметь работать
Это похоже на программирование. И своей работой промпт-инженеры значительно облегчают работу ML-команд. Их сложно назвать массовыми специалистами, но в компаниях вроде Яндекса или Т-банка внутри ML-команд они действительно нужны.
Так что промпт-инженеры одновременно не нужны и чрезвычайно востребованы. Просто юзкейсы разные.
P.S. Если у вас в команде есть промпт-инженеры (или вы и есть промпт-инженер), напишите мне в личку — очень хочу показать пару интересных штук.
Примерно все уже решили, что промпт-инжиниринг не нужен. Современные модели неплохо справляются даже со сложными запросами. Но время от времени в медиапространстве появляются противоположные мнения — кто-то шутит про ложный тренд, кто-то публикует подборки лучших фраз для промптов.
Есть нюансы, которые важно проговорить. Разделим применение промптов на три части:
— ежедневная работа с нейросетями
Ты пишешь запрос — нейросеть отвечает. Claude 3.5 или o3-mini не требуют сложных промптов. Всё, что нужно, уже заложено в системе, поэтому нет смысла усложнять взаимодействие — хотя все равно важно докидывать контекст и уточнять формат ответа.
— работа с Deep Research.
Здесь все иначе. Агентские системы со средним временем ответа в 20 минут требуют детальных и структурированных запросов. Мне понравилась метафора из X: «просто представьте, что вы пишете письмо, а не общаетесь в чате». В чате можно писать коротко: «привет, есть вопрос, сейчас расскажу» (но никогда так не делайте). А в письме вы сразу описываете всё подробно. Так же нужно работать и с Deep Research. Это не промпт-инжиниринг в классическом понимании, а просто другой подход к формулировке запросов — как на картинке.
— нейросети в продуктах и сервисах
И вот здесь как раз промпт-инженеры действительно необходимы. Когда команда разрабатывает нейрофичи, нужно, чтобы система работала стабильно в 99,9% случаев, а не «когда повезет». Промпт-инженеры создают идеальные промпты, учитывающие все пограничные случаи, обеспечивая корректные ответы в любых ситуациях.
Например, вы пишете саммаризатор отзывов для маркетплейса:
— если нейросеть не может саммаризовать отзывы, она должна дать ответ об этом в заранее установленном формате
— если данных недостаточно, чтобы заполнить тот или иной раздел, это тоже надо обработать корректно
— если есть противоречающие параграфы, поведение для такого тоже надо продумать.
— если на вход пришли некорректные данные (пользователь в плюсах товара описал минусы), с этим надо уметь работать
Это похоже на программирование. И своей работой промпт-инженеры значительно облегчают работу ML-команд. Их сложно назвать массовыми специалистами, но в компаниях вроде Яндекса или Т-банка внутри ML-команд они действительно нужны.
Так что промпт-инженеры одновременно не нужны и чрезвычайно востребованы. Просто юзкейсы разные.
P.S. Если у вас в команде есть промпт-инженеры (или вы и есть промпт-инженер), напишите мне в личку — очень хочу показать пару интересных штук.
ChatGPT 4o: генерация картинок
Мои ленты в X и Telegram — в стилизованных ChatGPT красивых картинках. Даже в сторис везде они. Преимущественно, конечно, в стиле Ghibli. Сегодня ночью генерация картинок стала доступна даже бесплатным пользователям (хотя лимиты не радуют даже с оплаченной подпиской).
Предыдущий пост здесь был про ситуации, когда промпты нужны — но здесь все иначе.
Пара слов. И все.
Универсальный промпт:
Своя Prisma на совершенно любой кейс теперь у каждого. С нереальным качеством.
Собрал для вас классные рисовки, в которых можно попробовать погенерить картинки:
Wallace and Gromit
Rick and Morty
Attack on Titan
70s Disney
American Dad
South park
Futurama
Rankin/Bass
Don Bluth
Fleischer Studios
Pixar
Toei Animation (Classic Era)
Cow and Chicken / Cartoon Network Gross-Out
Max Fleischer’s Superman
Sylvain Chomet
LEGO
Invincible
Да, с помощью ChatGPT теперь можно делать любые комиксы, постеры, передвигать мебель в квартире, собирать луки одежды... И можно прописывать сценарии, с помощью длинных промптов и большой группы уточнений...
Но для сценария фоторедактор достаточно пары слов.
Словом, мощь.
Мои ленты в X и Telegram — в стилизованных ChatGPT красивых картинках. Даже в сторис везде они. Преимущественно, конечно, в стиле Ghibli. Сегодня ночью генерация картинок стала доступна даже бесплатным пользователям (хотя лимиты не радуют даже с оплаченной подпиской).
Предыдущий пост здесь был про ситуации, когда промпты нужны — но здесь все иначе.
Пара слов. И все.
Универсальный промпт:
restyle image in studio ghibli style, keep all details
Своя Prisma на совершенно любой кейс теперь у каждого. С нереальным качеством.
Собрал для вас классные рисовки, в которых можно попробовать погенерить картинки:
Wallace and Gromit
Rick and Morty
Attack on Titan
70s Disney
American Dad
South park
Futurama
Rankin/Bass
Don Bluth
Fleischer Studios
Pixar
Toei Animation (Classic Era)
Cow and Chicken / Cartoon Network Gross-Out
Max Fleischer’s Superman
Sylvain Chomet
LEGO
Invincible
Да, с помощью ChatGPT теперь можно делать любые комиксы, постеры, передвигать мебель в квартире, собирать луки одежды... И можно прописывать сценарии, с помощью длинных промптов и большой группы уточнений...
Но для сценария фоторедактор достаточно пары слов.
Словом, мощь.
Больше провокационных постов: предсказание будущего
В этот раз — не от меня, а от Родни Брукса из MIT (со-основателя iRobot).
В 2018 он предсказал, что будет происходить с беспилотными автомобилями, ИИ, роботами и путешествиями в космос (с конкретными датами, когда он думает, что конкретно будет происходить), и с тех пор каждый год следит, насколько сбывается или нет его прогноз.
Для своего спича про генеративки он даже придумал термин FOBAWTPALSL — Fear Of Being A Wimpy Techno-Pessimist And Looking Stupid Later (страх быть слабаком-техно-пессимистом и потом выглядеть тупо).
Конечно, он отмечает, что у нас везде большой прогресс и мы бежим к успеху.
Но дальше он методично рассказывает, почему считает, что до полетов в космос, массовых продаж полезных роботов и замены людей на ИИ нам еще как до луны пешком.
Пара фактов от Родни Брукса:
— все пройденное любыми беспилотными автомобилями расстояние за последние десять лет все еще меньше 1% от того, что проехали за сегодня водители-человеки
— Waymo, самый крупный такси-сервис с беспилотниками (к которым, в случае чего, подключается человек) все еще работает только в 3 городах и ставит амбициозную цель на еще 2 в 2025
— несмотря на весь хайп про электро-кары, в США их доля выросла только до 9%
— летающих такси все еще не существует в реальности
— полезного робота, который умеет просто, ну, перемещаться по рандомному дому в США, с лестницами и узкими проходами — все еще не существует
— регулярных полетов в космос за деньги все еще не существует — за 2024 год было 2 полета
Даже в тех местах, где автор перегибает, это очень интересный материал для чтения — мне кажется, всегда важно смотреть не только на спектр «в 2027 году ИИ остановит найм разработчиков в мире».
P.S. А, ну и с днем рождения меня, да.
В этот раз — не от меня, а от Родни Брукса из MIT (со-основателя iRobot).
В 2018 он предсказал, что будет происходить с беспилотными автомобилями, ИИ, роботами и путешествиями в космос (с конкретными датами, когда он думает, что конкретно будет происходить), и с тех пор каждый год следит, насколько сбывается или нет его прогноз.
Для своего спича про генеративки он даже придумал термин FOBAWTPALSL — Fear Of Being A Wimpy Techno-Pessimist And Looking Stupid Later (страх быть слабаком-техно-пессимистом и потом выглядеть тупо).
Конечно, он отмечает, что у нас везде большой прогресс и мы бежим к успеху.
Но дальше он методично рассказывает, почему считает, что до полетов в космос, массовых продаж полезных роботов и замены людей на ИИ нам еще как до луны пешком.
Пара фактов от Родни Брукса:
— все пройденное любыми беспилотными автомобилями расстояние за последние десять лет все еще меньше 1% от того, что проехали за сегодня водители-человеки
— Waymo, самый крупный такси-сервис с беспилотниками (к которым, в случае чего, подключается человек) все еще работает только в 3 городах и ставит амбициозную цель на еще 2 в 2025
— несмотря на весь хайп про электро-кары, в США их доля выросла только до 9%
— летающих такси все еще не существует в реальности
— полезного робота, который умеет просто, ну, перемещаться по рандомному дому в США, с лестницами и узкими проходами — все еще не существует
— регулярных полетов в космос за деньги все еще не существует — за 2024 год было 2 полета
Даже в тех местах, где автор перегибает, это очень интересный материал для чтения — мне кажется, всегда важно смотреть не только на спектр «в 2027 году ИИ остановит найм разработчиков в мире».
P.S. А, ну и с днем рождения меня, да.
Погрузился в отчет от Anthropic (все еще считаю их Claude 3.7 круче ChatGPT): ребята проанализировали логи студентов.
Что нашли:
— популярнее всего Claude среди студентов IT-специальностей и математиков
Шок, айтишникам ИИ ближе! Можно сказать, что айтишники просто early adopters, но вообще Claude очень хорош в коде, и возможно именно поэтому в нем такой перекос.
А вот диспропорционально менее популярен ИИ среди студентов-менеджеров и представителей (иных) гуманитарных дисциплин. Менеджеры, ну как так-то!
— самые популярные классы задач такие:
* 39.3% — создание или улучшение каких-либо материалов
* 33.5% — решение каких-либо задач
* 11% — анализ и визуализация данных.
* 6.5% — помощь в проектировании исследований и разработке инструментов для них
* 3.2% — создание технических диаграмм
* 2.4% — перевод или вычитка текста с других языков
— Claude выделил четыре вариации запросов:
* получить результат сразу / найти или развить результат через диалог
* получить решение / сгенерировать контент (эссе, презентация)
Все четыре представлены среди студентов практически одинаково.
Ребята из Claude пытаются (не очень усердно) определить, что из этого можно назвать читерством. Но по логам это правда сложно определить — например, хотя 47% студентов ищут быстрых ответов, это как «выбери ответ из этих четырех вариантов», так и «объясни, какую функцию лучше использовать в этом примере».
— у студентов разных доменов разный перекос в типовое использование
Так у ребят из «образования» 74.4% запросов — про эссе (или про обучающие материалы для уроков — учителей от студентов сложно отличить). А вот математики в 62.2% случаев просят конкретное решение. Бизнес, кстати, 50/50.
В итоге, из отчета невозможно сказать, насколько часто студенты ИИ-читерят (хотя приблизительно ответить на этот вопрос ребята вполне могли), но можно сказать, что все же не постоянно и не на 100% — и даже в половине случаев могут длительно общаться с моделькой, чтобы получить хороший результат (а значит — уметь его оценивать).
Параллельно с этим и ChatGPT, и Claude, и Google на время предоставили студентам бесплатный доступ к себе (чтобы когда они зарешали все свои майские и июньские проблемы, остались на подписках).
В 2025 году предполагать, что студенты не используют ИИ для решения задач — не понимать, что происходит вокруг.
Please open Telegram to view this post
VIEW IN TELEGRAM
🙈 Смотрите, как ChatGPT не справляется с задачами!
Каждый, кто пользуется любой LLM часто, знает, что она иногда тупит. В этом нет новости, это обычные ограничения неоспоримо мощного инструмента.
Но если вы не пользуетесь LLM часто, но читаете, как ей пользуются другие, у вас может сложиться впечатление «божечки-кошечки, какая же идеальная штука, этот ваш ChatGPT».
Штош, добавляем баланса во вселенную. Вот три места, где ChatGPT 4o (а также o4-mini-high) вводили меня в ступор своими ошибками:
— не смогла в цитаты ни в каком режиме
Я обожаю батл-рэпа. Но стоит только попросить модельку назвать 10 любимых панчлайнов с русскоязычных батлов, она ломается и начинает генерить их из головы — без интернета, с интернетом, даже в DeepResearch. ОК, это правда сложная задача, подключаем поиск по интернету и Пушкина — и даже тут она дублирует цитаты и путает стихотворения.
— не умеет в распознавание плохих ответов на собеседованиях
А я так надеялся! Но каждый раз, когда я скармливаю разным версиям СhatGPT расшифровки с продутовых собесов, ChatGPT уверенно хвалит даже самых неподходящих и слабых кандидатов. Исправление промпта помогает, но пока эффект временный, новый кандидат — новые проблемы.
— попыталась убить меня блюдами с глютеном
У меня непереносимость глютена. Я попросил ChatGPT расписать, в каких японских блюдах его нет — и моделька справилась, но у многих блюд дала оговорки типа «если без добавок».
Проверя в интернете ответы, поправляю модельку: «но ведь они не делаются без добавок...» — и она исправляется, разделяя все блюда на «точно нет», «почти наверняка нет» и «безопасно» — где в «почти наверняка нет» попадает существенная часть ранее перечисленных «бегзглютеновых» блюд, с оговорками и без. Жизнь спасена, но со второго раза.
Попросил саму модель напомнить, где еще она лажала. Последняя неделя:
— не смогла при подсчетах обратить внимание, что я попросил разделить пиццу из чека на троих — и поделила только после напоминания
— нарисовала четыре одинаковых эскиза худи вместо четырех разных, как я ее просил
— при планировании недельного маршрута в Киото с просьбой учесть, что несколько дней я проведу на Экспо, выделила мне на Экспо один день
— при визуализации данных не догадалась, что если в столбце сразу два значения, не надо каждую пару считать отдельно за уникальное значение
— 10 раз переделывала лэндинг, каждый раз ломая его в новом месте
...и это за неделю. Ту самую, в которую плавно проходит тектонический сдвиг в профессиях, массовый переход на ИИ-агентов, замена замен.
Перестал ли я от этого пользоваться ChatGPT — да нет, конечно. В сотне других задач она помогает отлично, а в этих все решалось одним (ну, почти всегда) дополнительным запросом.
Но не идеализируйте нейросети, они ошибаются — как и все мы.
Каждый, кто пользуется любой LLM часто, знает, что она иногда тупит. В этом нет новости, это обычные ограничения неоспоримо мощного инструмента.
Но если вы не пользуетесь LLM часто, но читаете, как ей пользуются другие, у вас может сложиться впечатление «божечки-кошечки, какая же идеальная штука, этот ваш ChatGPT».
Штош, добавляем баланса во вселенную. Вот три места, где ChatGPT 4o (а также o4-mini-high) вводили меня в ступор своими ошибками:
— не смогла в цитаты ни в каком режиме
Я обожаю батл-рэпа. Но стоит только попросить модельку назвать 10 любимых панчлайнов с русскоязычных батлов, она ломается и начинает генерить их из головы — без интернета, с интернетом, даже в DeepResearch. ОК, это правда сложная задача, подключаем поиск по интернету и Пушкина — и даже тут она дублирует цитаты и путает стихотворения.
— не умеет в распознавание плохих ответов на собеседованиях
А я так надеялся! Но каждый раз, когда я скармливаю разным версиям СhatGPT расшифровки с продутовых собесов, ChatGPT уверенно хвалит даже самых неподходящих и слабых кандидатов. Исправление промпта помогает, но пока эффект временный, новый кандидат — новые проблемы.
— попыталась убить меня блюдами с глютеном
У меня непереносимость глютена. Я попросил ChatGPT расписать, в каких японских блюдах его нет — и моделька справилась, но у многих блюд дала оговорки типа «если без добавок».
Проверя в интернете ответы, поправляю модельку: «но ведь они не делаются без добавок...» — и она исправляется, разделяя все блюда на «точно нет», «почти наверняка нет» и «безопасно» — где в «почти наверняка нет» попадает существенная часть ранее перечисленных «бегзглютеновых» блюд, с оговорками и без. Жизнь спасена, но со второго раза.
Попросил саму модель напомнить, где еще она лажала. Последняя неделя:
— не смогла при подсчетах обратить внимание, что я попросил разделить пиццу из чека на троих — и поделила только после напоминания
— нарисовала четыре одинаковых эскиза худи вместо четырех разных, как я ее просил
— при планировании недельного маршрута в Киото с просьбой учесть, что несколько дней я проведу на Экспо, выделила мне на Экспо один день
— при визуализации данных не догадалась, что если в столбце сразу два значения, не надо каждую пару считать отдельно за уникальное значение
— 10 раз переделывала лэндинг, каждый раз ломая его в новом месте
...и это за неделю. Ту самую, в которую плавно проходит тектонический сдвиг в профессиях, массовый переход на ИИ-агентов, замена замен.
Перестал ли я от этого пользоваться ChatGPT — да нет, конечно. В сотне других задач она помогает отлично, а в этих все решалось одним (ну, почти всегда) дополнительным запросом.
Но не идеализируйте нейросети, они ошибаются — как и все мы.
Роботы-гуманоиды наконец-то и в России
Хотя мы и не производим еще свои AR-очки и AI-устройства, нельзя сказать, что мы не на передовой в железе — одни роверы и экосистема вокруг Станции чего стоят. Но российские роботы (не в музеях) — это что-то новенькое.
На прошлой неделе появляется новость, что Яндекс займется производством человекоподобных роботов: научит их подниматься по лестницам, открывать двери и перемещать грузы. Словом, как будто бы серьезно вступит в игру.
(кстати, вчера вышло новое короткое эссе основателя iRobot Родни Брукса на его любимую тему «как мы пока далеки от прекрасного будущего в роботостроении», почитайте)
...так вот. Очень круто, что Яндекс публично идет в столь сложную область, где ранее ни у кого из похожих игроков успехов еще не было. Но очень непривычно. Как будто очевидная синергия тут только где-то в районе Маркета, но даже для Маркета гуманоидные роботы — ну слишком внезапный поворот.
И секрет вот какой: это не проект в рамках операционной текучки, не задача сверху — а инициатива одного из яндексоидов, поддержанная внутри новым фондом Yet Another Tech Fund.
Проекты, которые отберутся внутри, получат поддержку и финансирование.
Даша Золотухина пишет, что это новый тренд внутри крупных корпораций — intrapreneurship. Создание внутренних акселераторов (таких знаю много), фондов, песочниц, поддержка pet projects.
Без иронии, есть что-то неумолимо прекрасное, когда next level заботы о сотрудниках для российских компаний — это не еще одно массажное кресло, а, ну... поддержка роботостроения. Буду следить за новостями.
Хотя мы и не производим еще свои AR-очки и AI-устройства, нельзя сказать, что мы не на передовой в железе — одни роверы и экосистема вокруг Станции чего стоят. Но российские роботы (не в музеях) — это что-то новенькое.
На прошлой неделе появляется новость, что Яндекс займется производством человекоподобных роботов: научит их подниматься по лестницам, открывать двери и перемещать грузы. Словом, как будто бы серьезно вступит в игру.
(кстати, вчера вышло новое короткое эссе основателя iRobot Родни Брукса на его любимую тему «как мы пока далеки от прекрасного будущего в роботостроении», почитайте)
...так вот. Очень круто, что Яндекс публично идет в столь сложную область, где ранее ни у кого из похожих игроков успехов еще не было. Но очень непривычно. Как будто очевидная синергия тут только где-то в районе Маркета, но даже для Маркета гуманоидные роботы — ну слишком внезапный поворот.
И секрет вот какой: это не проект в рамках операционной текучки, не задача сверху — а инициатива одного из яндексоидов, поддержанная внутри новым фондом Yet Another Tech Fund.
Проекты, которые отберутся внутри, получат поддержку и финансирование.
Даша Золотухина пишет, что это новый тренд внутри крупных корпораций — intrapreneurship. Создание внутренних акселераторов (таких знаю много), фондов, песочниц, поддержка pet projects.
Без иронии, есть что-то неумолимо прекрасное, когда next level заботы о сотрудниках для российских компаний — это не еще одно массажное кресло, а, ну... поддержка роботостроения. Буду следить за новостями.