На сайте Notion вышло пояснение. 9 сентября Notion:
— удалит все воркспейсы, связанные с пользователями, расположенными в РФ
— закроет пользователям из России доступ к сервисам Notion.
Так что платящий вы пользователь, не платящий — Notion все равно. Бан по IP.
Для выгрузки всего контента из Notion нужно зайти в Настройки, потом еще раз в Настройки (что? да!), потом найти Export Content. И выгрузить все до последней странички.
Please open Telegram to view this post
VIEW IN TELEGRAM
Notion
Restrictions for customers based in Russia – Notion Help Center
A new tool that blends your everyday work apps into one. It's the all-in-one workspace for you and your team.
Что там с ИИ, выходящим из под контроля?
Сижу пару дней назад у друзей в гостях, речь внезапно заходит про ИИ.
— А ты читал, что одни ребята так много данных закачали в нейросеть, что она сошла с ума и начала рассказывать, что боится и ничего не понимает, спрашивать «где я, что со мной»?
Я слышал. Это ребята из Nous, выпустившие вот эту статью, рассказывали такое про свою 405-миллиардную модель. Но если зайти в статью сейчас, вы не найдете рассказа о самосознании — потому что в Х их уже попросили перестать хайповать и не вводить в заблуждение. Потому что если заглянуть в базу для обучения (датасет выложен правда крутой), вдруг окажется, что там куча текстов из «Призрака в доспехах». Про страх, потерянность и, конечно, самосознание.
Риск «ИИ, выходящий из-под контроля», конечно, витает в воздухе. Вот ребята из SakanaAI сделали LLM для создания практически с нуля серьезных исследовательских работ. Всем, кто занимается наукой, очень советую их статью, там с 30-й страницы они делятся промптами для ИИ-научного-работника полного цикла — от идеи до peer-review.
Но суть не в этом: агент мог сам генерить и запускать код, и в один из прогонов он поменял код, который его самого запускал, чтобы оптимизировать процессы.
Звучит страшно? Страшно. И правда через много лет может привести к чему-то нехорошему. Но пара оговорок:
— ребята сами засунули в промпт ссылку «вот тут лежит код, которым мы тебя вызываем»
— ребята дали задачу «редактируй соседний файл и вот еще один файл», добейся лучших результатов
— ребята полагаются на написаную не ими модель для улучшения кода, а используемый копайлот, Aider, как раз и предназначен для улучшения любого кода — это опен-сорсный аналог GitHub Copilot.
В общем, ИИ-безопасность — важная дисциплина, Но иногда медиа слишком преувеличивают важность случайных галлюцинаций или переобучения.
Лучше беспокойтесь о том, что давно не брали отпуск, чем о том, что нас захватит ИИ.
Сижу пару дней назад у друзей в гостях, речь внезапно заходит про ИИ.
— А ты читал, что одни ребята так много данных закачали в нейросеть, что она сошла с ума и начала рассказывать, что боится и ничего не понимает, спрашивать «где я, что со мной»?
Я слышал. Это ребята из Nous, выпустившие вот эту статью, рассказывали такое про свою 405-миллиардную модель. Но если зайти в статью сейчас, вы не найдете рассказа о самосознании — потому что в Х их уже попросили перестать хайповать и не вводить в заблуждение. Потому что если заглянуть в базу для обучения (датасет выложен правда крутой), вдруг окажется, что там куча текстов из «Призрака в доспехах». Про страх, потерянность и, конечно, самосознание.
Риск «ИИ, выходящий из-под контроля», конечно, витает в воздухе. Вот ребята из SakanaAI сделали LLM для создания практически с нуля серьезных исследовательских работ. Всем, кто занимается наукой, очень советую их статью, там с 30-й страницы они делятся промптами для ИИ-научного-работника полного цикла — от идеи до peer-review.
Но суть не в этом: агент мог сам генерить и запускать код, и в один из прогонов он поменял код, который его самого запускал, чтобы оптимизировать процессы.
Звучит страшно? Страшно. И правда через много лет может привести к чему-то нехорошему. Но пара оговорок:
— ребята сами засунули в промпт ссылку «вот тут лежит код, которым мы тебя вызываем»
— ребята дали задачу «редактируй соседний файл и вот еще один файл», добейся лучших результатов
— ребята полагаются на написаную не ими модель для улучшения кода, а используемый копайлот, Aider, как раз и предназначен для улучшения любого кода — это опен-сорсный аналог GitHub Copilot.
В общем, ИИ-безопасность — важная дисциплина, Но иногда медиа слишком преувеличивают важность случайных галлюцинаций или переобучения.
Лучше беспокойтесь о том, что давно не брали отпуск, чем о том, что нас захватит ИИ.
Forwarded from Яндекс
This media is not supported in your browser
VIEW IN TELEGRAM
В сервисе появились новые редакторы текстовых документов и таблиц с простым интерфейсом. Благодаря переходу на собственную платформу Яндекса они работают быстрее и справляются даже с документами на 1000 страниц, а редактировать их могут до 100 пользователей одновременно.
В текстовом редакторе доступна нейросеть YandexGPT 4. Она исправит опечатки, упростит текст и, например, перепишет его в разговорном стиле. Выбирайте стили из пресетов или описывайте задачу сами — во всплывающем окне.
Подписывайтесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Ребята из Microsoft собрали все исследования, выходившие на тему изменений в работе сотрудников — конечно же, с фокусом на ИИ.
Там море интересного, обязательно почитайте — я выписал пару хайлайтов, а потом удалил две трети, чтобы вместить в один пост хотя бы оставшееся.
— в организациях, которые использовали Gen AI, количество создаваемых и редактируемых документов выросло в среднем на 10%, время на взаимодействие с письмами уменьшилось на 4%, а количество прочитанных писем снизилось на 11%.
— эффект от ИИ в разных профессиях разный и, что интересно, по-разному зависит от скила: так в исследовании службы поддержки у опытных сотрудников прирост эффективности был меньше,чем у новичков, а в исследовании предпринимателей, ученых и художников — наоборот.
— крутые промпты легко могут терять эффективность даже при переходе от менее к более мощной модели.
— люди часто попадают в ошибку «если ИИ что-то ответил, он это нашел, а не сгенерил», относясь к GPT-чатам как к поиску по базе знаний, хотя суть вообще не в этом. Это заблуждение приводит к ложным ожиданиям безошибочности.
Поэтому правильный путь — объяснять ограничения системы юзеру, выделять, как проверить ответы ИИ (сноски на источники) и делать процесс проверки простым (не думать, что одни только сноски помогут).
— чат-боты давно не лучший способ общения с ИИ — на передовую выходят «notebooks» и подобные способы отрисовки результатов работы промптов. Эффективнее те инструменты, которые позволяют использовать ИИ контекстно (выделяя, рисуя, передавая как можно больше контекста — не только из страницы как поверхности применения ИИ, но и из внешних источников, чтобы предугадать желания юзера).
Please open Telegram to view this post
VIEW IN TELEGRAM
Мои друзья из TGStat традиционно радуют всех пишущих авторов Telegram-каналов новогодними открытками.
Как получить открытку?
1. Переходим в бота @TGStat_Bot
2. Отправляем команду "
2024 @username
", подставив username/ссылку на свой канал/чат3. Наслаждаемся красотой и делимся с подписчиками
С наступающим новым годом — и помните, что как бы много (или мало) вы ни писали, как бы много (или мало) ни росли подписчики... вы — молодцы ❤️
P.S. Свои открытки можно кидать в комментарии к посту со ссылками на свои каналы — давайте знакомиться :)
Please open Telegram to view this post
VIEW IN TELEGRAM
Новые возможности в сервисах выдаются пользователям двумя способами:
— opt-in (юзер сам включает фичу)
— opt-out (фича сразу включена у всех, юзер сам выключает фичу, если ему не понравилось).
Эти политики очень сильно влияют на конверсию, поэтому, конечно, любой менеджер продукта хочет раздавать свою фичу через opt-out.
Но мир ИИ-релизов рождает необходимость не только делать крутые сервисы, но и собирать пользовательские данные. И вот как поступают крупные компании, когда заходит речь о том, не спросить ли людей, можно ли использовать их данные для обучения:
— Figma
Если вы не на Organization/Enterprise планах, ваши данные используются для обучения моделей — даже если вы платите деньги Фигме. Отключить можно одним кликом в настройках.
— Miro
Если вы не платите деньги, ваши запросы и передаваемый контент используются для обучения.
Microsoft, Adobe, Notion и многие другие придерживаются противоположного подхода — и утверждают, что не обучают модели на данных пользователей. Правда, это не мешает им покупать данные сервисов, которые собрали данные пользователей — например, от ребят, спарсивших кусок YouTube.
Как напоминает Константин, если вы не платите за товар, товар — это вы.
В частности, напоминаю, что бесплатная версия СhatGPT радостно использует каждый запрос для последующего обучения модели.
Please open Telegram to view this post
VIEW IN TELEGRAM
Делает Google это, конечно, с задорным заголовком «мы даем AI каждой компании, потому что это новый стандарт» — и это правда так. Теперь все ИИ-фичи Gemini доступны каждому бизнесу без доплат.
Но заодно ребята повышают цены на все тарифы (на $2, а не на стоимость аддона — $30).
В моем мире это называется
В то же время ребята выдают и Copilot, и ИИ-фичи, а заодно повышают стоимость подписки Microsoft 365 для персонального и семейного использования на $3 — для новых безвозвратно, а для старых пользователей — с возможностью пост-фактум прожать галочку «хочу откатиться до предыдущего уровня». Те, кто ее все же прожмут, получат тариф по старым ценам, но уже без каких-либо серьезных обновлений, кроме исправления уязвимостей.
То есть: Google повышает цены в B2B, включая все ИИ-фичи в базовые тарифы. Microsoft — повышает цены в B2C, поступая аналогично.
Но при этом, в отличие от Google, Microsoft сохраняет ИИ-опцию за $20 — и в нее входит не только приоритетный доступ к новым фичам и моделям, но и использование самого ИИ без ограничений. У бесплатных же пользователей есть шанс упереться в лимит — в него попадает любое действие, совершенное с ИИ, будь то генерация текста в Word или вопрос в Copilot.
...фактически, мы наблюдаем, как две самые заметные компании в продуктивити по-разному меняют стратегии в разных сегментах.
Посмотрим, какая продержится дольше.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Интернет-культура (Konstantin)
Китайский DeepSeek обогнал в App Store все известные ИИ-чаты и всё это без единого интервью у Лекса Фридмана и Джо Рогана.
То есть буквально миллионы американцев прямо сейчас заливают туда свои документы, скриншоты, мысли…
Нет, ну, зато ТикТок забанили😬
То есть буквально миллионы американцев прямо сейчас заливают туда свои документы, скриншоты, мысли…
Нет, ну, зато ТикТок забанили
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖Промпт-инжиниринг в 2025 году
Примерно все уже решили, что промпт-инжиниринг не нужен. Современные модели неплохо справляются даже со сложными запросами. Но время от времени в медиапространстве появляются противоположные мнения — кто-то шутит про ложный тренд, кто-то публикует подборки лучших фраз для промптов.
Есть нюансы, которые важно проговорить. Разделим применение промптов на три части:
— ежедневная работа с нейросетями
Ты пишешь запрос — нейросеть отвечает. Claude 3.5 или o3-mini не требуют сложных промптов. Всё, что нужно, уже заложено в системе, поэтому нет смысла усложнять взаимодействие — хотя все равно важно докидывать контекст и уточнять формат ответа.
— работа с Deep Research.
Здесь все иначе. Агентские системы со средним временем ответа в 20 минут требуют детальных и структурированных запросов. Мне понравилась метафора из X: «просто представьте, что вы пишете письмо, а не общаетесь в чате». В чате можно писать коротко: «привет, есть вопрос, сейчас расскажу» (но никогда так не делайте). А в письме вы сразу описываете всё подробно. Так же нужно работать и с Deep Research. Это не промпт-инжиниринг в классическом понимании, а просто другой подход к формулировке запросов — как на картинке.
— нейросети в продуктах и сервисах
И вот здесь как раз промпт-инженеры действительно необходимы. Когда команда разрабатывает нейрофичи, нужно, чтобы система работала стабильно в 99,9% случаев, а не «когда повезет». Промпт-инженеры создают идеальные промпты, учитывающие все пограничные случаи, обеспечивая корректные ответы в любых ситуациях.
Например, вы пишете саммаризатор отзывов для маркетплейса:
— если нейросеть не может саммаризовать отзывы, она должна дать ответ об этом в заранее установленном формате
— если данных недостаточно, чтобы заполнить тот или иной раздел, это тоже надо обработать корректно
— если есть противоречающие параграфы, поведение для такого тоже надо продумать.
— если на вход пришли некорректные данные (пользователь в плюсах товара описал минусы), с этим надо уметь работать
Это похоже на программирование. И своей работой промпт-инженеры значительно облегчают работу ML-команд. Их сложно назвать массовыми специалистами, но в компаниях вроде Яндекса или Т-банка внутри ML-команд они действительно нужны.
Так что промпт-инженеры одновременно не нужны и чрезвычайно востребованы. Просто юзкейсы разные.
P.S. Если у вас в команде есть промпт-инженеры (или вы и есть промпт-инженер), напишите мне в личку — очень хочу показать пару интересных штук.
Примерно все уже решили, что промпт-инжиниринг не нужен. Современные модели неплохо справляются даже со сложными запросами. Но время от времени в медиапространстве появляются противоположные мнения — кто-то шутит про ложный тренд, кто-то публикует подборки лучших фраз для промптов.
Есть нюансы, которые важно проговорить. Разделим применение промптов на три части:
— ежедневная работа с нейросетями
Ты пишешь запрос — нейросеть отвечает. Claude 3.5 или o3-mini не требуют сложных промптов. Всё, что нужно, уже заложено в системе, поэтому нет смысла усложнять взаимодействие — хотя все равно важно докидывать контекст и уточнять формат ответа.
— работа с Deep Research.
Здесь все иначе. Агентские системы со средним временем ответа в 20 минут требуют детальных и структурированных запросов. Мне понравилась метафора из X: «просто представьте, что вы пишете письмо, а не общаетесь в чате». В чате можно писать коротко: «привет, есть вопрос, сейчас расскажу» (но никогда так не делайте). А в письме вы сразу описываете всё подробно. Так же нужно работать и с Deep Research. Это не промпт-инжиниринг в классическом понимании, а просто другой подход к формулировке запросов — как на картинке.
— нейросети в продуктах и сервисах
И вот здесь как раз промпт-инженеры действительно необходимы. Когда команда разрабатывает нейрофичи, нужно, чтобы система работала стабильно в 99,9% случаев, а не «когда повезет». Промпт-инженеры создают идеальные промпты, учитывающие все пограничные случаи, обеспечивая корректные ответы в любых ситуациях.
Например, вы пишете саммаризатор отзывов для маркетплейса:
— если нейросеть не может саммаризовать отзывы, она должна дать ответ об этом в заранее установленном формате
— если данных недостаточно, чтобы заполнить тот или иной раздел, это тоже надо обработать корректно
— если есть противоречающие параграфы, поведение для такого тоже надо продумать.
— если на вход пришли некорректные данные (пользователь в плюсах товара описал минусы), с этим надо уметь работать
Это похоже на программирование. И своей работой промпт-инженеры значительно облегчают работу ML-команд. Их сложно назвать массовыми специалистами, но в компаниях вроде Яндекса или Т-банка внутри ML-команд они действительно нужны.
Так что промпт-инженеры одновременно не нужны и чрезвычайно востребованы. Просто юзкейсы разные.
P.S. Если у вас в команде есть промпт-инженеры (или вы и есть промпт-инженер), напишите мне в личку — очень хочу показать пару интересных штук.
ChatGPT 4o: генерация картинок
Мои ленты в X и Telegram — в стилизованных ChatGPT красивых картинках. Даже в сторис везде они. Преимущественно, конечно, в стиле Ghibli. Сегодня ночью генерация картинок стала доступна даже бесплатным пользователям (хотя лимиты не радуют даже с оплаченной подпиской).
Предыдущий пост здесь был про ситуации, когда промпты нужны — но здесь все иначе.
Пара слов. И все.
Универсальный промпт:
Своя Prisma на совершенно любой кейс теперь у каждого. С нереальным качеством.
Собрал для вас классные рисовки, в которых можно попробовать погенерить картинки:
Wallace and Gromit
Rick and Morty
Attack on Titan
70s Disney
American Dad
South park
Futurama
Rankin/Bass
Don Bluth
Fleischer Studios
Pixar
Toei Animation (Classic Era)
Cow and Chicken / Cartoon Network Gross-Out
Max Fleischer’s Superman
Sylvain Chomet
LEGO
Invincible
Да, с помощью ChatGPT теперь можно делать любые комиксы, постеры, передвигать мебель в квартире, собирать луки одежды... И можно прописывать сценарии, с помощью длинных промптов и большой группы уточнений...
Но для сценария фоторедактор достаточно пары слов.
Словом, мощь.
Мои ленты в X и Telegram — в стилизованных ChatGPT красивых картинках. Даже в сторис везде они. Преимущественно, конечно, в стиле Ghibli. Сегодня ночью генерация картинок стала доступна даже бесплатным пользователям (хотя лимиты не радуют даже с оплаченной подпиской).
Предыдущий пост здесь был про ситуации, когда промпты нужны — но здесь все иначе.
Пара слов. И все.
Универсальный промпт:
restyle image in studio ghibli style, keep all details
Своя Prisma на совершенно любой кейс теперь у каждого. С нереальным качеством.
Собрал для вас классные рисовки, в которых можно попробовать погенерить картинки:
Wallace and Gromit
Rick and Morty
Attack on Titan
70s Disney
American Dad
South park
Futurama
Rankin/Bass
Don Bluth
Fleischer Studios
Pixar
Toei Animation (Classic Era)
Cow and Chicken / Cartoon Network Gross-Out
Max Fleischer’s Superman
Sylvain Chomet
LEGO
Invincible
Да, с помощью ChatGPT теперь можно делать любые комиксы, постеры, передвигать мебель в квартире, собирать луки одежды... И можно прописывать сценарии, с помощью длинных промптов и большой группы уточнений...
Но для сценария фоторедактор достаточно пары слов.
Словом, мощь.
Больше провокационных постов: предсказание будущего
В этот раз — не от меня, а от Родни Брукса из MIT (со-основателя iRobot).
В 2018 он предсказал, что будет происходить с беспилотными автомобилями, ИИ, роботами и путешествиями в космос (с конкретными датами, когда он думает, что конкретно будет происходить), и с тех пор каждый год следит, насколько сбывается или нет его прогноз.
Для своего спича про генеративки он даже придумал термин FOBAWTPALSL — Fear Of Being A Wimpy Techno-Pessimist And Looking Stupid Later (страх быть слабаком-техно-пессимистом и потом выглядеть тупо).
Конечно, он отмечает, что у нас везде большой прогресс и мы бежим к успеху.
Но дальше он методично рассказывает, почему считает, что до полетов в космос, массовых продаж полезных роботов и замены людей на ИИ нам еще как до луны пешком.
Пара фактов от Родни Брукса:
— все пройденное любыми беспилотными автомобилями расстояние за последние десять лет все еще меньше 1% от того, что проехали за сегодня водители-человеки
— Waymo, самый крупный такси-сервис с беспилотниками (к которым, в случае чего, подключается человек) все еще работает только в 3 городах и ставит амбициозную цель на еще 2 в 2025
— несмотря на весь хайп про электро-кары, в США их доля выросла только до 9%
— летающих такси все еще не существует в реальности
— полезного робота, который умеет просто, ну, перемещаться по рандомному дому в США, с лестницами и узкими проходами — все еще не существует
— регулярных полетов в космос за деньги все еще не существует — за 2024 год было 2 полета
Даже в тех местах, где автор перегибает, это очень интересный материал для чтения — мне кажется, всегда важно смотреть не только на спектр «в 2027 году ИИ остановит найм разработчиков в мире».
P.S. А, ну и с днем рождения меня, да.
В этот раз — не от меня, а от Родни Брукса из MIT (со-основателя iRobot).
В 2018 он предсказал, что будет происходить с беспилотными автомобилями, ИИ, роботами и путешествиями в космос (с конкретными датами, когда он думает, что конкретно будет происходить), и с тех пор каждый год следит, насколько сбывается или нет его прогноз.
Для своего спича про генеративки он даже придумал термин FOBAWTPALSL — Fear Of Being A Wimpy Techno-Pessimist And Looking Stupid Later (страх быть слабаком-техно-пессимистом и потом выглядеть тупо).
Конечно, он отмечает, что у нас везде большой прогресс и мы бежим к успеху.
Но дальше он методично рассказывает, почему считает, что до полетов в космос, массовых продаж полезных роботов и замены людей на ИИ нам еще как до луны пешком.
Пара фактов от Родни Брукса:
— все пройденное любыми беспилотными автомобилями расстояние за последние десять лет все еще меньше 1% от того, что проехали за сегодня водители-человеки
— Waymo, самый крупный такси-сервис с беспилотниками (к которым, в случае чего, подключается человек) все еще работает только в 3 городах и ставит амбициозную цель на еще 2 в 2025
— несмотря на весь хайп про электро-кары, в США их доля выросла только до 9%
— летающих такси все еще не существует в реальности
— полезного робота, который умеет просто, ну, перемещаться по рандомному дому в США, с лестницами и узкими проходами — все еще не существует
— регулярных полетов в космос за деньги все еще не существует — за 2024 год было 2 полета
Даже в тех местах, где автор перегибает, это очень интересный материал для чтения — мне кажется, всегда важно смотреть не только на спектр «в 2027 году ИИ остановит найм разработчиков в мире».
P.S. А, ну и с днем рождения меня, да.
Погрузился в отчет от Anthropic (все еще считаю их Claude 3.7 круче ChatGPT): ребята проанализировали логи студентов.
Что нашли:
— популярнее всего Claude среди студентов IT-специальностей и математиков
Шок, айтишникам ИИ ближе! Можно сказать, что айтишники просто early adopters, но вообще Claude очень хорош в коде, и возможно именно поэтому в нем такой перекос.
А вот диспропорционально менее популярен ИИ среди студентов-менеджеров и представителей (иных) гуманитарных дисциплин. Менеджеры, ну как так-то!
— самые популярные классы задач такие:
* 39.3% — создание или улучшение каких-либо материалов
* 33.5% — решение каких-либо задач
* 11% — анализ и визуализация данных.
* 6.5% — помощь в проектировании исследований и разработке инструментов для них
* 3.2% — создание технических диаграмм
* 2.4% — перевод или вычитка текста с других языков
— Claude выделил четыре вариации запросов:
* получить результат сразу / найти или развить результат через диалог
* получить решение / сгенерировать контент (эссе, презентация)
Все четыре представлены среди студентов практически одинаково.
Ребята из Claude пытаются (не очень усердно) определить, что из этого можно назвать читерством. Но по логам это правда сложно определить — например, хотя 47% студентов ищут быстрых ответов, это как «выбери ответ из этих четырех вариантов», так и «объясни, какую функцию лучше использовать в этом примере».
— у студентов разных доменов разный перекос в типовое использование
Так у ребят из «образования» 74.4% запросов — про эссе (или про обучающие материалы для уроков — учителей от студентов сложно отличить). А вот математики в 62.2% случаев просят конкретное решение. Бизнес, кстати, 50/50.
В итоге, из отчета невозможно сказать, насколько часто студенты ИИ-читерят (хотя приблизительно ответить на этот вопрос ребята вполне могли), но можно сказать, что все же не постоянно и не на 100% — и даже в половине случаев могут длительно общаться с моделькой, чтобы получить хороший результат (а значит — уметь его оценивать).
Параллельно с этим и ChatGPT, и Claude, и Google на время предоставили студентам бесплатный доступ к себе (чтобы когда они зарешали все свои майские и июньские проблемы, остались на подписках).
В 2025 году предполагать, что студенты не используют ИИ для решения задач — не понимать, что происходит вокруг.
Please open Telegram to view this post
VIEW IN TELEGRAM